aboutsummaryrefslogtreecommitdiffhomepage
path: root/src/jumper/SkJumper_generated.S
diff options
context:
space:
mode:
Diffstat (limited to 'src/jumper/SkJumper_generated.S')
-rw-r--r--src/jumper/SkJumper_generated.S10092
1 files changed, 5058 insertions, 5034 deletions
diff --git a/src/jumper/SkJumper_generated.S b/src/jumper/SkJumper_generated.S
index 767fbea476..b6846c847c 100644
--- a/src/jumper/SkJumper_generated.S
+++ b/src/jumper/SkJumper_generated.S
@@ -2149,21 +2149,27 @@ _sk_unpremul_vfp4:
.long 0xed2dab04 // vpush {d10-d11}
.long 0xed2d8b02 // vpush {d8}
.long 0xeeb78a00 // vmov.f32 s16, #112
- .long 0xf3f92546 // vceq.f32 q9, q3, #0
- .long 0xf2c00050 // vmov.i32 q8, #0
+ .long 0xe28f203c // add r2, pc, #60
+ .long 0xf4620acf // vld1.64 {d16-d17}, [r2]
+ .long 0xf2c02050 // vmov.i32 q9, #0
.long 0xe4912004 // ldr r2, [r1], #4
.long 0xeec8ba27 // vdiv.f32 s23, s16, s15
.long 0xee88ba07 // vdiv.f32 s22, s16, s14
.long 0xeec8aa26 // vdiv.f32 s21, s16, s13
.long 0xee88aa06 // vdiv.f32 s20, s16, s12
- .long 0xf35021da // vbsl q9, q8, q5
- .long 0xf3020dd0 // vmul.f32 q0, q9, q0
- .long 0xf3022dd2 // vmul.f32 q1, q9, q1
- .long 0xf3024dd4 // vmul.f32 q2, q9, q2
+ .long 0xf3600eca // vcgt.f32 q8, q8, q5
+ .long 0xf35a0172 // vbsl q8, q5, q9
+ .long 0xf3000dd0 // vmul.f32 q0, q8, q0
+ .long 0xf3002dd2 // vmul.f32 q1, q8, q1
+ .long 0xf3004dd4 // vmul.f32 q2, q8, q2
.long 0xecbd8b02 // vpop {d8}
.long 0xecbdab04 // vpop {d10-d11}
.long 0xe12fff12 // bx r2
.long 0xe320f000 // nop {0}
+ .long 0x7f800000 // .word 0x7f800000
+ .long 0x7f800000 // .word 0x7f800000
+ .long 0x7f800000 // .word 0x7f800000
+ .long 0x7f800000 // .word 0x7f800000
HIDDEN _sk_from_srgb_vfp4
.globl _sk_from_srgb_vfp4
@@ -2623,7 +2629,7 @@ _sk_scale_u8_vfp4:
.long 0xe35c0000 // cmp ip, #0
.long 0xe0224392 // mla r2, r2, r3, r4
.long 0xe082200e // add r2, r2, lr
- .long 0x1a000013 // bne 248c <sk_scale_u8_vfp4+0x7c>
+ .long 0x1a000013 // bne 24a4 <sk_scale_u8_vfp4+0x7c>
.long 0xe5922000 // ldr r2, [r2]
.long 0xe58d2000 // str r2, [sp]
.long 0xe1a0200d // mov r2, sp
@@ -2646,12 +2652,12 @@ _sk_scale_u8_vfp4:
.long 0xe12fff12 // bx r2
.long 0xe20c3003 // and r3, ip, #3
.long 0xe3530001 // cmp r3, #1
- .long 0x0a000012 // beq 24e4 <sk_scale_u8_vfp4+0xd4>
+ .long 0x0a000012 // beq 24fc <sk_scale_u8_vfp4+0xd4>
.long 0xf2c00010 // vmov.i32 d16, #0
.long 0xe3530002 // cmp r3, #2
- .long 0x0a000005 // beq 24bc <sk_scale_u8_vfp4+0xac>
+ .long 0x0a000005 // beq 24d4 <sk_scale_u8_vfp4+0xac>
.long 0xe3530003 // cmp r3, #3
- .long 0x1affffe8 // bne 2450 <sk_scale_u8_vfp4+0x40>
+ .long 0x1affffe8 // bne 2468 <sk_scale_u8_vfp4+0x40>
.long 0xe3a04000 // mov r4, #0
.long 0xe5d23002 // ldrb r3, [r2, #2]
.long 0xee804bb0 // vdup.16 d16, r4
@@ -2665,12 +2671,12 @@ _sk_scale_u8_vfp4:
.long 0xf3f62124 // vuzp.16 d18, d20
.long 0xf2f004a2 // vext.8 d16, d16, d18, #4
.long 0xf2f004a0 // vext.8 d16, d16, d16, #4
- .long 0xeaffffda // b 2450 <sk_scale_u8_vfp4+0x40>
+ .long 0xeaffffda // b 2468 <sk_scale_u8_vfp4+0x40>
.long 0xe3a03000 // mov r3, #0
.long 0xe5d22000 // ldrb r2, [r2]
.long 0xee803bb0 // vdup.16 d16, r3
.long 0xee002bb0 // vmov.16 d16[0], r2
- .long 0xeaffffd5 // b 2450 <sk_scale_u8_vfp4+0x40>
+ .long 0xeaffffd5 // b 2468 <sk_scale_u8_vfp4+0x40>
.long 0x3b808081 // .word 0x3b808081
.long 0x3b808081 // .word 0x3b808081
.long 0x3b808081 // .word 0x3b808081
@@ -2692,7 +2698,7 @@ _sk_scale_565_vfp4:
.long 0xe0842082 // add r2, r4, r2, lsl #1
.long 0xe082308c // add r3, r2, ip, lsl #1
.long 0xe280c040 // add ip, r0, #64
- .long 0x1a000024 // bne 25d0 <sk_scale_565_vfp4+0xc8>
+ .long 0x1a000024 // bne 25e8 <sk_scale_565_vfp4+0xc8>
.long 0xf463074f // vld1.16 {d16}, [r3]
.long 0xf3d00a30 // vmovl.u16 q8, d16
.long 0xe3a02e7e // mov r2, #2016
@@ -2732,12 +2738,12 @@ _sk_scale_565_vfp4:
.long 0xe12fff12 // bx r2
.long 0xe20e2003 // and r2, lr, #3
.long 0xe3520001 // cmp r2, #1
- .long 0x0a000011 // beq 2624 <sk_scale_565_vfp4+0x11c>
+ .long 0x0a000011 // beq 263c <sk_scale_565_vfp4+0x11c>
.long 0xf2c00010 // vmov.i32 d16, #0
.long 0xe3520002 // cmp r2, #2
- .long 0x0a000005 // beq 2600 <sk_scale_565_vfp4+0xf8>
+ .long 0x0a000005 // beq 2618 <sk_scale_565_vfp4+0xf8>
.long 0xe3520003 // cmp r2, #3
- .long 0x1affffd3 // bne 2540 <sk_scale_565_vfp4+0x38>
+ .long 0x1affffd3 // bne 2558 <sk_scale_565_vfp4+0x38>
.long 0xe3a02000 // mov r2, #0
.long 0xee802bb0 // vdup.16 d16, r2
.long 0xe2832004 // add r2, r3, #4
@@ -2750,11 +2756,11 @@ _sk_scale_565_vfp4:
.long 0xf3f62121 // vuzp.16 d18, d17
.long 0xf2f004a2 // vext.8 d16, d16, d18, #4
.long 0xf2f004a0 // vext.8 d16, d16, d16, #4
- .long 0xeaffffc6 // b 2540 <sk_scale_565_vfp4+0x38>
+ .long 0xeaffffc6 // b 2558 <sk_scale_565_vfp4+0x38>
.long 0xe3a02000 // mov r2, #0
.long 0xee802bb0 // vdup.16 d16, r2
.long 0xf4e3041f // vld1.16 {d16[0]}, [r3 :16]
- .long 0xeaffffc2 // b 2540 <sk_scale_565_vfp4+0x38>
+ .long 0xeaffffc2 // b 2558 <sk_scale_565_vfp4+0x38>
.long 0xe320f000 // nop {0}
.long 0x3d042108 // .word 0x3d042108
.long 0x3d042108 // .word 0x3d042108
@@ -2815,7 +2821,7 @@ _sk_lerp_u8_vfp4:
.long 0xe0824003 // add r4, r2, r3
.long 0xe2803020 // add r3, r0, #32
.long 0xe2802010 // add r2, r0, #16
- .long 0x1a00001f // bne 2780 <sk_lerp_u8_vfp4+0xb8>
+ .long 0x1a00001f // bne 2798 <sk_lerp_u8_vfp4+0xb8>
.long 0xe5944000 // ldr r4, [r4]
.long 0xe58d4000 // str r4, [sp]
.long 0xe1a0400d // mov r4, sp
@@ -2850,12 +2856,12 @@ _sk_lerp_u8_vfp4:
.long 0xe12fff12 // bx r2
.long 0xe2065003 // and r5, r6, #3
.long 0xe3550001 // cmp r5, #1
- .long 0x0a000012 // beq 27d8 <sk_lerp_u8_vfp4+0x110>
+ .long 0x0a000012 // beq 27f0 <sk_lerp_u8_vfp4+0x110>
.long 0xf2c00010 // vmov.i32 d16, #0
.long 0xe3550002 // cmp r5, #2
- .long 0x0a000005 // beq 27b0 <sk_lerp_u8_vfp4+0xe8>
+ .long 0x0a000005 // beq 27c8 <sk_lerp_u8_vfp4+0xe8>
.long 0xe3550003 // cmp r5, #3
- .long 0x1affffdc // bne 2714 <sk_lerp_u8_vfp4+0x4c>
+ .long 0x1affffdc // bne 272c <sk_lerp_u8_vfp4+0x4c>
.long 0xe3a06000 // mov r6, #0
.long 0xe5d45002 // ldrb r5, [r4, #2]
.long 0xee806bb0 // vdup.16 d16, r6
@@ -2869,12 +2875,12 @@ _sk_lerp_u8_vfp4:
.long 0xf3f62124 // vuzp.16 d18, d20
.long 0xf2f004a2 // vext.8 d16, d16, d18, #4
.long 0xf2f004a0 // vext.8 d16, d16, d16, #4
- .long 0xeaffffce // b 2714 <sk_lerp_u8_vfp4+0x4c>
+ .long 0xeaffffce // b 272c <sk_lerp_u8_vfp4+0x4c>
.long 0xe3a05000 // mov r5, #0
.long 0xe5d44000 // ldrb r4, [r4]
.long 0xee805bb0 // vdup.16 d16, r5
.long 0xee004bb0 // vmov.16 d16[0], r4
- .long 0xeaffffc9 // b 2714 <sk_lerp_u8_vfp4+0x4c>
+ .long 0xeaffffc9 // b 272c <sk_lerp_u8_vfp4+0x4c>
.long 0xe320f000 // nop {0}
.long 0x3b808081 // .word 0x3b808081
.long 0x3b808081 // .word 0x3b808081
@@ -2899,7 +2905,7 @@ _sk_lerp_565_vfp4:
.long 0xe0824083 // add r4, r2, r3, lsl #1
.long 0xe2802030 // add r2, r0, #48
.long 0xe2803010 // add r3, r0, #16
- .long 0x1a00002f // bne 28fc <sk_lerp_565_vfp4+0xfc>
+ .long 0x1a00002f // bne 2914 <sk_lerp_565_vfp4+0xfc>
.long 0xf464074f // vld1.16 {d16}, [r4]
.long 0xf3d00a30 // vmovl.u16 q8, d16
.long 0xe3a04e7e // mov r4, #2016
@@ -2950,12 +2956,12 @@ _sk_lerp_565_vfp4:
.long 0xe12fff12 // bx r2
.long 0xe2065003 // and r5, r6, #3
.long 0xe3550001 // cmp r5, #1
- .long 0x0a000011 // beq 2950 <sk_lerp_565_vfp4+0x150>
+ .long 0x0a000011 // beq 2968 <sk_lerp_565_vfp4+0x150>
.long 0xf2c00010 // vmov.i32 d16, #0
.long 0xe3550002 // cmp r5, #2
- .long 0x0a000005 // beq 292c <sk_lerp_565_vfp4+0x12c>
+ .long 0x0a000005 // beq 2944 <sk_lerp_565_vfp4+0x12c>
.long 0xe3550003 // cmp r5, #3
- .long 0x1affffc8 // bne 2840 <sk_lerp_565_vfp4+0x40>
+ .long 0x1affffc8 // bne 2858 <sk_lerp_565_vfp4+0x40>
.long 0xe3a05000 // mov r5, #0
.long 0xee805bb0 // vdup.16 d16, r5
.long 0xe2845004 // add r5, r4, #4
@@ -2968,11 +2974,11 @@ _sk_lerp_565_vfp4:
.long 0xf3f62121 // vuzp.16 d18, d17
.long 0xf2f004a2 // vext.8 d16, d16, d18, #4
.long 0xf2f004a0 // vext.8 d16, d16, d16, #4
- .long 0xeaffffbb // b 2840 <sk_lerp_565_vfp4+0x40>
+ .long 0xeaffffbb // b 2858 <sk_lerp_565_vfp4+0x40>
.long 0xe3a05000 // mov r5, #0
.long 0xee805bb0 // vdup.16 d16, r5
.long 0xf4e4041f // vld1.16 {d16[0]}, [r4 :16]
- .long 0xeaffffb7 // b 2840 <sk_lerp_565_vfp4+0x40>
+ .long 0xeaffffb7 // b 2858 <sk_lerp_565_vfp4+0x40>
.long 0x3d042108 // .word 0x3d042108
.long 0x3d042108 // .word 0x3d042108
.long 0x3d042108 // .word 0x3d042108
@@ -2997,7 +3003,7 @@ _sk_load_tables_vfp4:
.long 0xe5954000 // ldr r4, [r5]
.long 0xe3530000 // cmp r3, #0
.long 0xe084e102 // add lr, r4, r2, lsl #2
- .long 0x1a000036 // bne 2a8c <sk_load_tables_vfp4+0xfc>
+ .long 0x1a000036 // bne 2aa4 <sk_load_tables_vfp4+0xfc>
.long 0xf46e0a8f // vld1.32 {d16-d17}, [lr]
.long 0xf3c7405f // vmov.i32 q10, #255
.long 0xe5956004 // ldr r6, [r5, #4]
@@ -3055,12 +3061,12 @@ _sk_load_tables_vfp4:
.long 0xe12fff12 // bx r2
.long 0xe203c003 // and ip, r3, #3
.long 0xe35c0001 // cmp ip, #1
- .long 0x0a00000c // beq 2acc <sk_load_tables_vfp4+0x13c>
+ .long 0x0a00000c // beq 2ae4 <sk_load_tables_vfp4+0x13c>
.long 0xf2c00050 // vmov.i32 q8, #0
.long 0xe35c0002 // cmp ip, #2
- .long 0x0a000005 // beq 2abc <sk_load_tables_vfp4+0x12c>
+ .long 0x0a000005 // beq 2ad4 <sk_load_tables_vfp4+0x12c>
.long 0xe35c0003 // cmp ip, #3
- .long 0x1affffc1 // bne 29b4 <sk_load_tables_vfp4+0x24>
+ .long 0x1affffc1 // bne 29cc <sk_load_tables_vfp4+0x24>
.long 0xe3a02000 // mov r2, #0
.long 0xeea02b90 // vdup.32 q8, r2
.long 0xe28e2008 // add r2, lr, #8
@@ -3068,11 +3074,11 @@ _sk_load_tables_vfp4:
.long 0xedde2b00 // vldr d18, [lr]
.long 0xf2f008e2 // vext.8 q8, q8, q9, #8
.long 0xf2f008e0 // vext.8 q8, q8, q8, #8
- .long 0xeaffffb9 // b 29b4 <sk_load_tables_vfp4+0x24>
+ .long 0xeaffffb9 // b 29cc <sk_load_tables_vfp4+0x24>
.long 0xe3a02000 // mov r2, #0
.long 0xeea02b90 // vdup.32 q8, r2
.long 0xf4ee083f // vld1.32 {d16[0]}, [lr :32]
- .long 0xeaffffb5 // b 29b4 <sk_load_tables_vfp4+0x24>
+ .long 0xeaffffb5 // b 29cc <sk_load_tables_vfp4+0x24>
.long 0xe320f000 // nop {0}
.long 0x3b808081 // .word 0x3b808081
.long 0x3b808081 // .word 0x3b808081
@@ -3090,7 +3096,7 @@ _sk_load_tables_u16_be_vfp4:
.long 0xe5982000 // ldr r2, [r8]
.long 0xe35e0000 // cmp lr, #0
.long 0xe082c183 // add ip, r2, r3, lsl #3
- .long 0x1a000039 // bne 2bf8 <sk_load_tables_u16_be_vfp4+0x108>
+ .long 0x1a000039 // bne 2c10 <sk_load_tables_u16_be_vfp4+0x108>
.long 0xf46c004f // vld4.16 {d16-d19}, [ip]
.long 0xf3c72b3f // vbic.i16 d18, #65280
.long 0xe5986004 // ldr r6, [r8, #4]
@@ -3151,14 +3157,14 @@ _sk_load_tables_u16_be_vfp4:
.long 0xe12fff12 // bx r2
.long 0xf4ec070f // vld4.16 {d16[0],d17[0],d18[0],d19[0]}, [ip]
.long 0xe35e0001 // cmp lr, #1
- .long 0x0affffc3 // beq 2b14 <sk_load_tables_u16_be_vfp4+0x24>
+ .long 0x0affffc3 // beq 2b2c <sk_load_tables_u16_be_vfp4+0x24>
.long 0xe28c2008 // add r2, ip, #8
.long 0xe35e0003 // cmp lr, #3
.long 0xf4e2074f // vld4.16 {d16[1],d17[1],d18[1],d19[1]}, [r2]
- .long 0x3affffbf // bcc 2b14 <sk_load_tables_u16_be_vfp4+0x24>
+ .long 0x3affffbf // bcc 2b2c <sk_load_tables_u16_be_vfp4+0x24>
.long 0xe28c2010 // add r2, ip, #16
.long 0xf4e2078f // vld4.16 {d16[2],d17[2],d18[2],d19[2]}, [r2]
- .long 0xeaffffbc // b 2b14 <sk_load_tables_u16_be_vfp4+0x24>
+ .long 0xeaffffbc // b 2b2c <sk_load_tables_u16_be_vfp4+0x24>
.long 0x37800080 // .word 0x37800080
.long 0x37800080 // .word 0x37800080
.long 0x37800080 // .word 0x37800080
@@ -3176,7 +3182,7 @@ _sk_load_tables_rgb_u16_be_vfp4:
.long 0xe5982000 // ldr r2, [r8]
.long 0xe35e0000 // cmp lr, #0
.long 0xe082c083 // add ip, r2, r3, lsl #1
- .long 0x1a000033 // bne 2d24 <sk_load_tables_rgb_u16_be_vfp4+0xf4>
+ .long 0x1a000033 // bne 2d3c <sk_load_tables_rgb_u16_be_vfp4+0xf4>
.long 0xf46c044f // vld3.16 {d16-d18}, [ip]
.long 0xf3c72b3f // vbic.i16 d18, #65280
.long 0xe28f60ec // add r6, pc, #236
@@ -3231,14 +3237,14 @@ _sk_load_tables_rgb_u16_be_vfp4:
.long 0xe12fff12 // bx r2
.long 0xf4ec060f // vld3.16 {d16[0],d17[0],d18[0]}, [ip]
.long 0xe35e0001 // cmp lr, #1
- .long 0x0affffc9 // beq 2c58 <sk_load_tables_rgb_u16_be_vfp4+0x28>
+ .long 0x0affffc9 // beq 2c70 <sk_load_tables_rgb_u16_be_vfp4+0x28>
.long 0xe28c2006 // add r2, ip, #6
.long 0xe35e0003 // cmp lr, #3
.long 0xf4e2064f // vld3.16 {d16[1],d17[1],d18[1]}, [r2]
- .long 0x3affffc5 // bcc 2c58 <sk_load_tables_rgb_u16_be_vfp4+0x28>
+ .long 0x3affffc5 // bcc 2c70 <sk_load_tables_rgb_u16_be_vfp4+0x28>
.long 0xe28c200c // add r2, ip, #12
.long 0xf4e2068f // vld3.16 {d16[2],d17[2],d18[2]}, [r2]
- .long 0xeaffffc2 // b 2c58 <sk_load_tables_rgb_u16_be_vfp4+0x28>
+ .long 0xeaffffc2 // b 2c70 <sk_load_tables_rgb_u16_be_vfp4+0x28>
.long 0xe320f000 // nop {0}
.long 0x3f800000 // .word 0x3f800000
.long 0x3f800000 // .word 0x3f800000
@@ -4279,7 +4285,7 @@ _sk_load_a8_vfp4:
.long 0xe35c0000 // cmp ip, #0
.long 0xe0224392 // mla r2, r2, r3, r4
.long 0xe082200e // add r2, r2, lr
- .long 0x1a000012 // bne 3cd8 <sk_load_a8_vfp4+0x78>
+ .long 0x1a000012 // bne 3cf0 <sk_load_a8_vfp4+0x78>
.long 0xe5922000 // ldr r2, [r2]
.long 0xe58d2000 // str r2, [sp]
.long 0xe1a0200d // mov r2, sp
@@ -4301,12 +4307,12 @@ _sk_load_a8_vfp4:
.long 0xe12fff12 // bx r2
.long 0xe20c3003 // and r3, ip, #3
.long 0xe3530001 // cmp r3, #1
- .long 0x0a000012 // beq 3d30 <sk_load_a8_vfp4+0xd0>
+ .long 0x0a000012 // beq 3d48 <sk_load_a8_vfp4+0xd0>
.long 0xf2c00010 // vmov.i32 d16, #0
.long 0xe3530002 // cmp r3, #2
- .long 0x0a000005 // beq 3d08 <sk_load_a8_vfp4+0xa8>
+ .long 0x0a000005 // beq 3d20 <sk_load_a8_vfp4+0xa8>
.long 0xe3530003 // cmp r3, #3
- .long 0x1affffe9 // bne 3ca0 <sk_load_a8_vfp4+0x40>
+ .long 0x1affffe9 // bne 3cb8 <sk_load_a8_vfp4+0x40>
.long 0xe3a04000 // mov r4, #0
.long 0xe5d23002 // ldrb r3, [r2, #2]
.long 0xee804bb0 // vdup.16 d16, r4
@@ -4320,12 +4326,12 @@ _sk_load_a8_vfp4:
.long 0xf3f62124 // vuzp.16 d18, d20
.long 0xf2f004a2 // vext.8 d16, d16, d18, #4
.long 0xf2f004a0 // vext.8 d16, d16, d16, #4
- .long 0xeaffffdb // b 3ca0 <sk_load_a8_vfp4+0x40>
+ .long 0xeaffffdb // b 3cb8 <sk_load_a8_vfp4+0x40>
.long 0xe3a03000 // mov r3, #0
.long 0xe5d22000 // ldrb r2, [r2]
.long 0xee803bb0 // vdup.16 d16, r3
.long 0xee002bb0 // vmov.16 d16[0], r2
- .long 0xeaffffd6 // b 3ca0 <sk_load_a8_vfp4+0x40>
+ .long 0xeaffffd6 // b 3cb8 <sk_load_a8_vfp4+0x40>
.long 0xe320f000 // nop {0}
.long 0x3b808081 // .word 0x3b808081
.long 0x3b808081 // .word 0x3b808081
@@ -4354,7 +4360,7 @@ _sk_load_a8_dst_vfp4:
.long 0xf4430acf // vst1.64 {d16-d17}, [r3]
.long 0xe082300c // add r3, r2, ip
.long 0xe280c040 // add ip, r0, #64
- .long 0x1a000011 // bne 3dec <sk_load_a8_dst_vfp4+0x94>
+ .long 0x1a000011 // bne 3e04 <sk_load_a8_dst_vfp4+0x94>
.long 0xe5932000 // ldr r2, [r3]
.long 0xe58d2000 // str r2, [sp]
.long 0xe1a0200d // mov r2, sp
@@ -4375,12 +4381,12 @@ _sk_load_a8_dst_vfp4:
.long 0xe12fff13 // bx r3
.long 0xe20e2003 // and r2, lr, #3
.long 0xe3520001 // cmp r2, #1
- .long 0x0a000012 // beq 3e44 <sk_load_a8_dst_vfp4+0xec>
+ .long 0x0a000012 // beq 3e5c <sk_load_a8_dst_vfp4+0xec>
.long 0xf2c00010 // vmov.i32 d16, #0
.long 0xe3520002 // cmp r2, #2
- .long 0x0a000005 // beq 3e1c <sk_load_a8_dst_vfp4+0xc4>
+ .long 0x0a000005 // beq 3e34 <sk_load_a8_dst_vfp4+0xc4>
.long 0xe3520003 // cmp r2, #3
- .long 0x1affffea // bne 3db8 <sk_load_a8_dst_vfp4+0x60>
+ .long 0x1affffea // bne 3dd0 <sk_load_a8_dst_vfp4+0x60>
.long 0xe3a05000 // mov r5, #0
.long 0xe5d32002 // ldrb r2, [r3, #2]
.long 0xee805bb0 // vdup.16 d16, r5
@@ -4394,12 +4400,12 @@ _sk_load_a8_dst_vfp4:
.long 0xf3f62124 // vuzp.16 d18, d20
.long 0xf2f004a2 // vext.8 d16, d16, d18, #4
.long 0xf2f004a0 // vext.8 d16, d16, d16, #4
- .long 0xeaffffdc // b 3db8 <sk_load_a8_dst_vfp4+0x60>
+ .long 0xeaffffdc // b 3dd0 <sk_load_a8_dst_vfp4+0x60>
.long 0xe5d32000 // ldrb r2, [r3]
.long 0xe3a03000 // mov r3, #0
.long 0xee803bb0 // vdup.16 d16, r3
.long 0xee002bb0 // vmov.16 d16[0], r2
- .long 0xeaffffd7 // b 3db8 <sk_load_a8_dst_vfp4+0x60>
+ .long 0xeaffffd7 // b 3dd0 <sk_load_a8_dst_vfp4+0x60>
.long 0x3b808081 // .word 0x3b808081
.long 0x3b808081 // .word 0x3b808081
.long 0x3b808081 // .word 0x3b808081
@@ -4477,7 +4483,7 @@ _sk_store_a8_vfp4:
.long 0xe0224392 // mla r2, r2, r3, r4
.long 0xe082200e // add r2, r2, lr
.long 0xf3f60220 // vmovn.i32 d16, q8
- .long 0x1a000005 // bne 3f80 <sk_store_a8_vfp4+0x58>
+ .long 0x1a000005 // bne 3f98 <sk_store_a8_vfp4+0x58>
.long 0xf3f20121 // vuzp.8 d16, d17
.long 0xf4c2080f // vst1.32 {d16[0]}, [r2]
.long 0xe5912004 // ldr r2, [r1, #4]
@@ -4486,21 +4492,21 @@ _sk_store_a8_vfp4:
.long 0xe12fff12 // bx r2
.long 0xe20c3003 // and r3, ip, #3
.long 0xe3530001 // cmp r3, #1
- .long 0x0a00000a // beq 3fb8 <sk_store_a8_vfp4+0x90>
+ .long 0x0a00000a // beq 3fd0 <sk_store_a8_vfp4+0x90>
.long 0xe3530002 // cmp r3, #2
- .long 0x0a000003 // beq 3fa4 <sk_store_a8_vfp4+0x7c>
+ .long 0x0a000003 // beq 3fbc <sk_store_a8_vfp4+0x7c>
.long 0xe3530003 // cmp r3, #3
- .long 0x1afffff4 // bne 3f70 <sk_store_a8_vfp4+0x48>
+ .long 0x1afffff4 // bne 3f88 <sk_store_a8_vfp4+0x48>
.long 0xeeb03bb0 // vmov.u16 r3, d16[2]
.long 0xe5c23002 // strb r3, [r2, #2]
.long 0xee903bf0 // vmov.u16 r3, d16[1]
.long 0xee904bb0 // vmov.u16 r4, d16[0]
.long 0xe5c23001 // strb r3, [r2, #1]
.long 0xe5c24000 // strb r4, [r2]
- .long 0xeaffffed // b 3f70 <sk_store_a8_vfp4+0x48>
+ .long 0xeaffffed // b 3f88 <sk_store_a8_vfp4+0x48>
.long 0xee903bb0 // vmov.u16 r3, d16[0]
.long 0xe5c23000 // strb r3, [r2]
- .long 0xeaffffea // b 3f70 <sk_store_a8_vfp4+0x48>
+ .long 0xeaffffea // b 3f88 <sk_store_a8_vfp4+0x48>
.long 0xe320f000 // nop {0}
.long 0x437f0000 // .word 0x437f0000
.long 0x437f0000 // .word 0x437f0000
@@ -4521,7 +4527,7 @@ _sk_load_g8_vfp4:
.long 0xe35c0000 // cmp ip, #0
.long 0xe0224392 // mla r2, r2, r3, r4
.long 0xe082200e // add r2, r2, lr
- .long 0x1a000013 // bne 4054 <sk_load_g8_vfp4+0x7c>
+ .long 0x1a000013 // bne 406c <sk_load_g8_vfp4+0x7c>
.long 0xe5922000 // ldr r2, [r2]
.long 0xe58d2000 // str r2, [sp]
.long 0xe1a0200d // mov r2, sp
@@ -4544,12 +4550,12 @@ _sk_load_g8_vfp4:
.long 0xe12fff12 // bx r2
.long 0xe20c3003 // and r3, ip, #3
.long 0xe3530001 // cmp r3, #1
- .long 0x0a000012 // beq 40ac <sk_load_g8_vfp4+0xd4>
+ .long 0x0a000012 // beq 40c4 <sk_load_g8_vfp4+0xd4>
.long 0xf2c00010 // vmov.i32 d16, #0
.long 0xe3530002 // cmp r3, #2
- .long 0x0a000005 // beq 4084 <sk_load_g8_vfp4+0xac>
+ .long 0x0a000005 // beq 409c <sk_load_g8_vfp4+0xac>
.long 0xe3530003 // cmp r3, #3
- .long 0x1affffe8 // bne 4018 <sk_load_g8_vfp4+0x40>
+ .long 0x1affffe8 // bne 4030 <sk_load_g8_vfp4+0x40>
.long 0xe3a04000 // mov r4, #0
.long 0xe5d23002 // ldrb r3, [r2, #2]
.long 0xee804bb0 // vdup.16 d16, r4
@@ -4563,12 +4569,12 @@ _sk_load_g8_vfp4:
.long 0xf3f62124 // vuzp.16 d18, d20
.long 0xf2f004a2 // vext.8 d16, d16, d18, #4
.long 0xf2f004a0 // vext.8 d16, d16, d16, #4
- .long 0xeaffffda // b 4018 <sk_load_g8_vfp4+0x40>
+ .long 0xeaffffda // b 4030 <sk_load_g8_vfp4+0x40>
.long 0xe3a03000 // mov r3, #0
.long 0xe5d22000 // ldrb r2, [r2]
.long 0xee803bb0 // vdup.16 d16, r3
.long 0xee002bb0 // vmov.16 d16[0], r2
- .long 0xeaffffd5 // b 4018 <sk_load_g8_vfp4+0x40>
+ .long 0xeaffffd5 // b 4030 <sk_load_g8_vfp4+0x40>
.long 0x3b808081 // .word 0x3b808081
.long 0x3b808081 // .word 0x3b808081
.long 0x3b808081 // .word 0x3b808081
@@ -4595,7 +4601,7 @@ _sk_load_g8_dst_vfp4:
.long 0xe0824003 // add r4, r2, r3
.long 0xe2802020 // add r2, r0, #32
.long 0xe2803010 // add r3, r0, #16
- .long 0x1a000015 // bne 4170 <sk_load_g8_dst_vfp4+0x90>
+ .long 0x1a000015 // bne 4188 <sk_load_g8_dst_vfp4+0x90>
.long 0xe5944000 // ldr r4, [r4]
.long 0xe58d4000 // str r4, [sp]
.long 0xe1a0400d // mov r4, sp
@@ -4620,12 +4626,12 @@ _sk_load_g8_dst_vfp4:
.long 0xe12fff13 // bx r3
.long 0xe2065003 // and r5, r6, #3
.long 0xe3550001 // cmp r5, #1
- .long 0x0a000012 // beq 41c8 <sk_load_g8_dst_vfp4+0xe8>
+ .long 0x0a000012 // beq 41e0 <sk_load_g8_dst_vfp4+0xe8>
.long 0xf2c00010 // vmov.i32 d16, #0
.long 0xe3550002 // cmp r5, #2
- .long 0x0a000005 // beq 41a0 <sk_load_g8_dst_vfp4+0xc0>
+ .long 0x0a000005 // beq 41b8 <sk_load_g8_dst_vfp4+0xc0>
.long 0xe3550003 // cmp r5, #3
- .long 0x1affffe6 // bne 412c <sk_load_g8_dst_vfp4+0x4c>
+ .long 0x1affffe6 // bne 4144 <sk_load_g8_dst_vfp4+0x4c>
.long 0xe3a06000 // mov r6, #0
.long 0xe5d45002 // ldrb r5, [r4, #2]
.long 0xee806bb0 // vdup.16 d16, r6
@@ -4639,12 +4645,12 @@ _sk_load_g8_dst_vfp4:
.long 0xf3f62124 // vuzp.16 d18, d20
.long 0xf2f004a2 // vext.8 d16, d16, d18, #4
.long 0xf2f004a0 // vext.8 d16, d16, d16, #4
- .long 0xeaffffd8 // b 412c <sk_load_g8_dst_vfp4+0x4c>
+ .long 0xeaffffd8 // b 4144 <sk_load_g8_dst_vfp4+0x4c>
.long 0xe3a05000 // mov r5, #0
.long 0xe5d44000 // ldrb r4, [r4]
.long 0xee805bb0 // vdup.16 d16, r5
.long 0xee004bb0 // vmov.16 d16[0], r4
- .long 0xeaffffd3 // b 412c <sk_load_g8_dst_vfp4+0x4c>
+ .long 0xeaffffd3 // b 4144 <sk_load_g8_dst_vfp4+0x4c>
.long 0xe320f000 // nop {0}
.long 0x3b808081 // .word 0x3b808081
.long 0x3b808081 // .word 0x3b808081
@@ -4723,7 +4729,7 @@ _sk_load_565_vfp4:
.long 0xe0020392 // mul r2, r2, r3
.long 0xe0842082 // add r2, r4, r2, lsl #1
.long 0xe082208e // add r2, r2, lr, lsl #1
- .long 0x1a00001b // bne 4360 <sk_load_565_vfp4+0xa0>
+ .long 0x1a00001b // bne 4378 <sk_load_565_vfp4+0xa0>
.long 0xf462074f // vld1.16 {d16}, [r2]
.long 0xf3d00a30 // vmovl.u16 q8, d16
.long 0xe3a02e7e // mov r2, #2016
@@ -4754,12 +4760,12 @@ _sk_load_565_vfp4:
.long 0xe12fff12 // bx r2
.long 0xe20c3003 // and r3, ip, #3
.long 0xe3530001 // cmp r3, #1
- .long 0x0a000011 // beq 43b4 <sk_load_565_vfp4+0xf4>
+ .long 0x0a000011 // beq 43cc <sk_load_565_vfp4+0xf4>
.long 0xf2c00010 // vmov.i32 d16, #0
.long 0xe3530002 // cmp r3, #2
- .long 0x0a000005 // beq 4390 <sk_load_565_vfp4+0xd0>
+ .long 0x0a000005 // beq 43a8 <sk_load_565_vfp4+0xd0>
.long 0xe3530003 // cmp r3, #3
- .long 0x1affffdc // bne 42f4 <sk_load_565_vfp4+0x34>
+ .long 0x1affffdc // bne 430c <sk_load_565_vfp4+0x34>
.long 0xe3a03000 // mov r3, #0
.long 0xee803bb0 // vdup.16 d16, r3
.long 0xe2823004 // add r3, r2, #4
@@ -4772,11 +4778,11 @@ _sk_load_565_vfp4:
.long 0xf3f62121 // vuzp.16 d18, d17
.long 0xf2f004a2 // vext.8 d16, d16, d18, #4
.long 0xf2f004a0 // vext.8 d16, d16, d16, #4
- .long 0xeaffffcf // b 42f4 <sk_load_565_vfp4+0x34>
+ .long 0xeaffffcf // b 430c <sk_load_565_vfp4+0x34>
.long 0xe3a03000 // mov r3, #0
.long 0xee803bb0 // vdup.16 d16, r3
.long 0xf4e2041f // vld1.16 {d16[0]}, [r2 :16]
- .long 0xeaffffcb // b 42f4 <sk_load_565_vfp4+0x34>
+ .long 0xeaffffcb // b 430c <sk_load_565_vfp4+0x34>
.long 0xe320f000 // nop {0}
.long 0x37842108 // .word 0x37842108
.long 0x37842108 // .word 0x37842108
@@ -4813,7 +4819,7 @@ _sk_load_565_dst_vfp4:
.long 0xe0824083 // add r4, r2, r3, lsl #1
.long 0xe2802020 // add r2, r0, #32
.long 0xe2803010 // add r3, r0, #16
- .long 0x1a00001f // bne 44c4 <sk_load_565_dst_vfp4+0xbc>
+ .long 0x1a00001f // bne 44dc <sk_load_565_dst_vfp4+0xbc>
.long 0xf464074f // vld1.16 {d16}, [r4]
.long 0xf3d00a30 // vmovl.u16 q8, d16
.long 0xe3a04e7e // mov r4, #2016
@@ -4848,12 +4854,12 @@ _sk_load_565_dst_vfp4:
.long 0xe12fff13 // bx r3
.long 0xe2065003 // and r5, r6, #3
.long 0xe3550001 // cmp r5, #1
- .long 0x0a000011 // beq 4518 <sk_load_565_dst_vfp4+0x110>
+ .long 0x0a000011 // beq 4530 <sk_load_565_dst_vfp4+0x110>
.long 0xf2c00010 // vmov.i32 d16, #0
.long 0xe3550002 // cmp r5, #2
- .long 0x0a000005 // beq 44f4 <sk_load_565_dst_vfp4+0xec>
+ .long 0x0a000005 // beq 450c <sk_load_565_dst_vfp4+0xec>
.long 0xe3550003 // cmp r5, #3
- .long 0x1affffd8 // bne 4448 <sk_load_565_dst_vfp4+0x40>
+ .long 0x1affffd8 // bne 4460 <sk_load_565_dst_vfp4+0x40>
.long 0xe3a05000 // mov r5, #0
.long 0xee805bb0 // vdup.16 d16, r5
.long 0xe2845004 // add r5, r4, #4
@@ -4866,11 +4872,11 @@ _sk_load_565_dst_vfp4:
.long 0xf3f62121 // vuzp.16 d18, d17
.long 0xf2f004a2 // vext.8 d16, d16, d18, #4
.long 0xf2f004a0 // vext.8 d16, d16, d16, #4
- .long 0xeaffffcb // b 4448 <sk_load_565_dst_vfp4+0x40>
+ .long 0xeaffffcb // b 4460 <sk_load_565_dst_vfp4+0x40>
.long 0xe3a05000 // mov r5, #0
.long 0xee805bb0 // vdup.16 d16, r5
.long 0xf4e4041f // vld1.16 {d16[0]}, [r4 :16]
- .long 0xeaffffc7 // b 4448 <sk_load_565_dst_vfp4+0x40>
+ .long 0xeaffffc7 // b 4460 <sk_load_565_dst_vfp4+0x40>
.long 0x37842108 // .word 0x37842108
.long 0x37842108 // .word 0x37842108
.long 0x37842108 // .word 0x37842108
@@ -4994,7 +5000,7 @@ _sk_store_565_vfp4:
.long 0xf26401f0 // vorr q8, q10, q8
.long 0xf26001f2 // vorr q8, q8, q9
.long 0xf3f60220 // vmovn.i32 d16, q8
- .long 0x1a000004 // bne 4704 <sk_store_565_vfp4+0x84>
+ .long 0x1a000004 // bne 471c <sk_store_565_vfp4+0x84>
.long 0xf442074f // vst1.16 {d16}, [r2]
.long 0xe5912004 // ldr r2, [r1, #4]
.long 0xe2811008 // add r1, r1, #8
@@ -5002,11 +5008,11 @@ _sk_store_565_vfp4:
.long 0xe12fff12 // bx r2
.long 0xe20c3003 // and r3, ip, #3
.long 0xe3530001 // cmp r3, #1
- .long 0x0a00000c // beq 4744 <sk_store_565_vfp4+0xc4>
+ .long 0x0a00000c // beq 475c <sk_store_565_vfp4+0xc4>
.long 0xe3530002 // cmp r3, #2
- .long 0x0a000003 // beq 4728 <sk_store_565_vfp4+0xa8>
+ .long 0x0a000003 // beq 4740 <sk_store_565_vfp4+0xa8>
.long 0xe3530003 // cmp r3, #3
- .long 0x1afffff4 // bne 46f4 <sk_store_565_vfp4+0x74>
+ .long 0x1afffff4 // bne 470c <sk_store_565_vfp4+0x74>
.long 0xe2823004 // add r3, r2, #4
.long 0xf4c3049f // vst1.16 {d16[2]}, [r3 :16]
.long 0xee903bb0 // vmov.u16 r3, d16[0]
@@ -5015,9 +5021,9 @@ _sk_store_565_vfp4:
.long 0xee204b90 // vmov.32 d16[1], r4
.long 0xf3f60121 // vuzp.16 d16, d17
.long 0xf4c2080f // vst1.32 {d16[0]}, [r2]
- .long 0xeaffffeb // b 46f4 <sk_store_565_vfp4+0x74>
+ .long 0xeaffffeb // b 470c <sk_store_565_vfp4+0x74>
.long 0xf4c2041f // vst1.16 {d16[0]}, [r2 :16]
- .long 0xeaffffe9 // b 46f4 <sk_store_565_vfp4+0x74>
+ .long 0xeaffffe9 // b 470c <sk_store_565_vfp4+0x74>
.long 0xe320f000 // nop {0}
.long 0x427c0000 // .word 0x427c0000
.long 0x427c0000 // .word 0x427c0000
@@ -5039,7 +5045,7 @@ _sk_load_4444_vfp4:
.long 0xe0020392 // mul r2, r2, r3
.long 0xe0842082 // add r2, r4, r2, lsl #1
.long 0xe082208e // add r2, r2, lr, lsl #1
- .long 0x1a00001e // bne 480c <sk_load_4444_vfp4+0xac>
+ .long 0x1a00001e // bne 4824 <sk_load_4444_vfp4+0xac>
.long 0xf462074f // vld1.16 {d16}, [r2]
.long 0xf3d00a30 // vmovl.u16 q8, d16
.long 0xe28f20d0 // add r2, pc, #208
@@ -5073,12 +5079,12 @@ _sk_load_4444_vfp4:
.long 0xe12fff12 // bx r2
.long 0xe20c3003 // and r3, ip, #3
.long 0xe3530001 // cmp r3, #1
- .long 0x0a000011 // beq 4860 <sk_load_4444_vfp4+0x100>
+ .long 0x0a000011 // beq 4878 <sk_load_4444_vfp4+0x100>
.long 0xf2c00010 // vmov.i32 d16, #0
.long 0xe3530002 // cmp r3, #2
- .long 0x0a000005 // beq 483c <sk_load_4444_vfp4+0xdc>
+ .long 0x0a000005 // beq 4854 <sk_load_4444_vfp4+0xdc>
.long 0xe3530003 // cmp r3, #3
- .long 0x1affffd9 // bne 4794 <sk_load_4444_vfp4+0x34>
+ .long 0x1affffd9 // bne 47ac <sk_load_4444_vfp4+0x34>
.long 0xe3a03000 // mov r3, #0
.long 0xee803bb0 // vdup.16 d16, r3
.long 0xe2823004 // add r3, r2, #4
@@ -5091,11 +5097,11 @@ _sk_load_4444_vfp4:
.long 0xf3f62121 // vuzp.16 d18, d17
.long 0xf2f004a2 // vext.8 d16, d16, d18, #4
.long 0xf2f004a0 // vext.8 d16, d16, d16, #4
- .long 0xeaffffcc // b 4794 <sk_load_4444_vfp4+0x34>
+ .long 0xeaffffcc // b 47ac <sk_load_4444_vfp4+0x34>
.long 0xe3a03000 // mov r3, #0
.long 0xee803bb0 // vdup.16 d16, r3
.long 0xf4e2041f // vld1.16 {d16[0]}, [r2 :16]
- .long 0xeaffffc8 // b 4794 <sk_load_4444_vfp4+0x34>
+ .long 0xeaffffc8 // b 47ac <sk_load_4444_vfp4+0x34>
.long 0x3b888889 // .word 0x3b888889
.long 0x3b888889 // .word 0x3b888889
.long 0x3b888889 // .word 0x3b888889
@@ -5131,7 +5137,7 @@ _sk_load_4444_dst_vfp4:
.long 0xe0824083 // add r4, r2, r3, lsl #1
.long 0xe2802020 // add r2, r0, #32
.long 0xe2803010 // add r3, r0, #16
- .long 0x1a000023 // bne 497c <sk_load_4444_dst_vfp4+0xcc>
+ .long 0x1a000023 // bne 4994 <sk_load_4444_dst_vfp4+0xcc>
.long 0xf464074f // vld1.16 {d16}, [r4]
.long 0xf3d00a30 // vmovl.u16 q8, d16
.long 0xe28f40e4 // add r4, pc, #228
@@ -5170,12 +5176,12 @@ _sk_load_4444_dst_vfp4:
.long 0xe12fff13 // bx r3
.long 0xe2065003 // and r5, r6, #3
.long 0xe3550001 // cmp r5, #1
- .long 0x0a000011 // beq 49d0 <sk_load_4444_dst_vfp4+0x120>
+ .long 0x0a000011 // beq 49e8 <sk_load_4444_dst_vfp4+0x120>
.long 0xf2c00010 // vmov.i32 d16, #0
.long 0xe3550002 // cmp r5, #2
- .long 0x0a000005 // beq 49ac <sk_load_4444_dst_vfp4+0xfc>
+ .long 0x0a000005 // beq 49c4 <sk_load_4444_dst_vfp4+0xfc>
.long 0xe3550003 // cmp r5, #3
- .long 0x1affffd4 // bne 48f0 <sk_load_4444_dst_vfp4+0x40>
+ .long 0x1affffd4 // bne 4908 <sk_load_4444_dst_vfp4+0x40>
.long 0xe3a05000 // mov r5, #0
.long 0xee805bb0 // vdup.16 d16, r5
.long 0xe2845004 // add r5, r4, #4
@@ -5188,11 +5194,11 @@ _sk_load_4444_dst_vfp4:
.long 0xf3f62121 // vuzp.16 d18, d17
.long 0xf2f004a2 // vext.8 d16, d16, d18, #4
.long 0xf2f004a0 // vext.8 d16, d16, d16, #4
- .long 0xeaffffc7 // b 48f0 <sk_load_4444_dst_vfp4+0x40>
+ .long 0xeaffffc7 // b 4908 <sk_load_4444_dst_vfp4+0x40>
.long 0xe3a05000 // mov r5, #0
.long 0xee805bb0 // vdup.16 d16, r5
.long 0xf4e4041f // vld1.16 {d16[0]}, [r4 :16]
- .long 0xeaffffc3 // b 48f0 <sk_load_4444_dst_vfp4+0x40>
+ .long 0xeaffffc3 // b 4908 <sk_load_4444_dst_vfp4+0x40>
.long 0x37888889 // .word 0x37888889
.long 0x37888889 // .word 0x37888889
.long 0x37888889 // .word 0x37888889
@@ -5327,7 +5333,7 @@ _sk_store_4444_vfp4:
.long 0xf26001f6 // vorr q8, q8, q11
.long 0xf26001f2 // vorr q8, q8, q9
.long 0xf3f60220 // vmovn.i32 d16, q8
- .long 0x1a000004 // bne 4be8 <sk_store_4444_vfp4+0x90>
+ .long 0x1a000004 // bne 4c00 <sk_store_4444_vfp4+0x90>
.long 0xf442074f // vst1.16 {d16}, [r2]
.long 0xe5912004 // ldr r2, [r1, #4]
.long 0xe2811008 // add r1, r1, #8
@@ -5335,11 +5341,11 @@ _sk_store_4444_vfp4:
.long 0xe12fff12 // bx r2
.long 0xe20c3003 // and r3, ip, #3
.long 0xe3530001 // cmp r3, #1
- .long 0x0a00000c // beq 4c28 <sk_store_4444_vfp4+0xd0>
+ .long 0x0a00000c // beq 4c40 <sk_store_4444_vfp4+0xd0>
.long 0xe3530002 // cmp r3, #2
- .long 0x0a000003 // beq 4c0c <sk_store_4444_vfp4+0xb4>
+ .long 0x0a000003 // beq 4c24 <sk_store_4444_vfp4+0xb4>
.long 0xe3530003 // cmp r3, #3
- .long 0x1afffff4 // bne 4bd8 <sk_store_4444_vfp4+0x80>
+ .long 0x1afffff4 // bne 4bf0 <sk_store_4444_vfp4+0x80>
.long 0xe2823004 // add r3, r2, #4
.long 0xf4c3049f // vst1.16 {d16[2]}, [r3 :16]
.long 0xee903bb0 // vmov.u16 r3, d16[0]
@@ -5348,9 +5354,9 @@ _sk_store_4444_vfp4:
.long 0xee204b90 // vmov.32 d16[1], r4
.long 0xf3f60121 // vuzp.16 d16, d17
.long 0xf4c2080f // vst1.32 {d16[0]}, [r2]
- .long 0xeaffffeb // b 4bd8 <sk_store_4444_vfp4+0x80>
+ .long 0xeaffffeb // b 4bf0 <sk_store_4444_vfp4+0x80>
.long 0xf4c2041f // vst1.16 {d16[0]}, [r2 :16]
- .long 0xeaffffe9 // b 4bd8 <sk_store_4444_vfp4+0x80>
+ .long 0xeaffffe9 // b 4bf0 <sk_store_4444_vfp4+0x80>
HIDDEN _sk_load_8888_vfp4
.globl _sk_load_8888_vfp4
@@ -5366,7 +5372,7 @@ _sk_load_8888_vfp4:
.long 0xe0020392 // mul r2, r2, r3
.long 0xe0842102 // add r2, r4, r2, lsl #2
.long 0xe082210e // add r2, r2, lr, lsl #2
- .long 0x1a000015 // bne 4cb4 <sk_load_8888_vfp4+0x84>
+ .long 0x1a000015 // bne 4ccc <sk_load_8888_vfp4+0x84>
.long 0xf4620a8f // vld1.32 {d16-d17}, [r2]
.long 0xf3c7205f // vmov.i32 q9, #255
.long 0xe28f209c // add r2, pc, #156
@@ -5391,12 +5397,12 @@ _sk_load_8888_vfp4:
.long 0xe12fff12 // bx r2
.long 0xe20c3003 // and r3, ip, #3
.long 0xe3530001 // cmp r3, #1
- .long 0x0a00000c // beq 4cf4 <sk_load_8888_vfp4+0xc4>
+ .long 0x0a00000c // beq 4d0c <sk_load_8888_vfp4+0xc4>
.long 0xf2c00050 // vmov.i32 q8, #0
.long 0xe3530002 // cmp r3, #2
- .long 0x0a000005 // beq 4ce4 <sk_load_8888_vfp4+0xb4>
+ .long 0x0a000005 // beq 4cfc <sk_load_8888_vfp4+0xb4>
.long 0xe3530003 // cmp r3, #3
- .long 0x1affffe2 // bne 4c60 <sk_load_8888_vfp4+0x30>
+ .long 0x1affffe2 // bne 4c78 <sk_load_8888_vfp4+0x30>
.long 0xe3a03000 // mov r3, #0
.long 0xeea03b90 // vdup.32 q8, r3
.long 0xe2823008 // add r3, r2, #8
@@ -5404,11 +5410,11 @@ _sk_load_8888_vfp4:
.long 0xedd22b00 // vldr d18, [r2]
.long 0xf2f008e2 // vext.8 q8, q8, q9, #8
.long 0xf2f008e0 // vext.8 q8, q8, q8, #8
- .long 0xeaffffda // b 4c60 <sk_load_8888_vfp4+0x30>
+ .long 0xeaffffda // b 4c78 <sk_load_8888_vfp4+0x30>
.long 0xe3a03000 // mov r3, #0
.long 0xeea03b90 // vdup.32 q8, r3
.long 0xf4e2083f // vld1.32 {d16[0]}, [r2 :32]
- .long 0xeaffffd6 // b 4c60 <sk_load_8888_vfp4+0x30>
+ .long 0xeaffffd6 // b 4c78 <sk_load_8888_vfp4+0x30>
.long 0xe320f000 // nop {0}
.long 0x3b808081 // .word 0x3b808081
.long 0x3b808081 // .word 0x3b808081
@@ -5432,7 +5438,7 @@ _sk_load_8888_dst_vfp4:
.long 0xe0824103 // add r4, r2, r3, lsl #2
.long 0xe2802020 // add r2, r0, #32
.long 0xe2803010 // add r3, r0, #16
- .long 0x1a00001a // bne 4dbc <sk_load_8888_dst_vfp4+0xa4>
+ .long 0x1a00001a // bne 4dd4 <sk_load_8888_dst_vfp4+0xa4>
.long 0xf4640a8f // vld1.32 {d16-d17}, [r4]
.long 0xf3c7205f // vmov.i32 q9, #255
.long 0xe28f40b0 // add r4, pc, #176
@@ -5462,12 +5468,12 @@ _sk_load_8888_dst_vfp4:
.long 0xe12fff13 // bx r3
.long 0xe2065003 // and r5, r6, #3
.long 0xe3550001 // cmp r5, #1
- .long 0x0a00000c // beq 4dfc <sk_load_8888_dst_vfp4+0xe4>
+ .long 0x0a00000c // beq 4e14 <sk_load_8888_dst_vfp4+0xe4>
.long 0xf2c00050 // vmov.i32 q8, #0
.long 0xe3550002 // cmp r5, #2
- .long 0x0a000005 // beq 4dec <sk_load_8888_dst_vfp4+0xd4>
+ .long 0x0a000005 // beq 4e04 <sk_load_8888_dst_vfp4+0xd4>
.long 0xe3550003 // cmp r5, #3
- .long 0x1affffdd // bne 4d54 <sk_load_8888_dst_vfp4+0x3c>
+ .long 0x1affffdd // bne 4d6c <sk_load_8888_dst_vfp4+0x3c>
.long 0xe3a05000 // mov r5, #0
.long 0xeea05b90 // vdup.32 q8, r5
.long 0xe2845008 // add r5, r4, #8
@@ -5475,11 +5481,11 @@ _sk_load_8888_dst_vfp4:
.long 0xedd42b00 // vldr d18, [r4]
.long 0xf2f008e2 // vext.8 q8, q8, q9, #8
.long 0xf2f008e0 // vext.8 q8, q8, q8, #8
- .long 0xeaffffd5 // b 4d54 <sk_load_8888_dst_vfp4+0x3c>
+ .long 0xeaffffd5 // b 4d6c <sk_load_8888_dst_vfp4+0x3c>
.long 0xe3a05000 // mov r5, #0
.long 0xeea05b90 // vdup.32 q8, r5
.long 0xf4e4083f // vld1.32 {d16[0]}, [r4 :32]
- .long 0xeaffffd1 // b 4d54 <sk_load_8888_dst_vfp4+0x3c>
+ .long 0xeaffffd1 // b 4d6c <sk_load_8888_dst_vfp4+0x3c>
.long 0xe320f000 // nop {0}
.long 0x3b808081 // .word 0x3b808081
.long 0x3b808081 // .word 0x3b808081
@@ -5581,7 +5587,7 @@ _sk_store_8888_vfp4:
.long 0xf2f84576 // vshl.s32 q10, q11, #24
.long 0xf26001f2 // vorr q8, q8, q9
.long 0xf26001f4 // vorr q8, q8, q10
- .long 0x1a000004 // bne 4f90 <sk_store_8888_vfp4+0x90>
+ .long 0x1a000004 // bne 4fa8 <sk_store_8888_vfp4+0x90>
.long 0xf4420a8f // vst1.32 {d16-d17}, [r2]
.long 0xe5912004 // ldr r2, [r1, #4]
.long 0xe2811008 // add r1, r1, #8
@@ -5589,17 +5595,17 @@ _sk_store_8888_vfp4:
.long 0xe12fff12 // bx r2
.long 0xe20c3003 // and r3, ip, #3
.long 0xe3530001 // cmp r3, #1
- .long 0x0a000007 // beq 4fbc <sk_store_8888_vfp4+0xbc>
+ .long 0x0a000007 // beq 4fd4 <sk_store_8888_vfp4+0xbc>
.long 0xe3530002 // cmp r3, #2
- .long 0x0a000003 // beq 4fb4 <sk_store_8888_vfp4+0xb4>
+ .long 0x0a000003 // beq 4fcc <sk_store_8888_vfp4+0xb4>
.long 0xe3530003 // cmp r3, #3
- .long 0x1afffff4 // bne 4f80 <sk_store_8888_vfp4+0x80>
+ .long 0x1afffff4 // bne 4f98 <sk_store_8888_vfp4+0x80>
.long 0xe2823008 // add r3, r2, #8
.long 0xf4c3183f // vst1.32 {d17[0]}, [r3 :32]
.long 0xedc20b00 // vstr d16, [r2]
- .long 0xeafffff0 // b 4f80 <sk_store_8888_vfp4+0x80>
+ .long 0xeafffff0 // b 4f98 <sk_store_8888_vfp4+0x80>
.long 0xf4c2083f // vst1.32 {d16[0]}, [r2 :32]
- .long 0xeaffffee // b 4f80 <sk_store_8888_vfp4+0x80>
+ .long 0xeaffffee // b 4f98 <sk_store_8888_vfp4+0x80>
.long 0xe320f000 // nop {0}
.long 0x437f0000 // .word 0x437f0000
.long 0x437f0000 // .word 0x437f0000
@@ -5620,7 +5626,7 @@ _sk_load_bgra_vfp4:
.long 0xe0020392 // mul r2, r2, r3
.long 0xe0842102 // add r2, r4, r2, lsl #2
.long 0xe082210e // add r2, r2, lr, lsl #2
- .long 0x1a000015 // bne 505c <sk_load_bgra_vfp4+0x84>
+ .long 0x1a000015 // bne 5074 <sk_load_bgra_vfp4+0x84>
.long 0xf4620a8f // vld1.32 {d16-d17}, [r2]
.long 0xf3c7205f // vmov.i32 q9, #255
.long 0xe28f209c // add r2, pc, #156
@@ -5645,12 +5651,12 @@ _sk_load_bgra_vfp4:
.long 0xe12fff12 // bx r2
.long 0xe20c3003 // and r3, ip, #3
.long 0xe3530001 // cmp r3, #1
- .long 0x0a00000c // beq 509c <sk_load_bgra_vfp4+0xc4>
+ .long 0x0a00000c // beq 50b4 <sk_load_bgra_vfp4+0xc4>
.long 0xf2c00050 // vmov.i32 q8, #0
.long 0xe3530002 // cmp r3, #2
- .long 0x0a000005 // beq 508c <sk_load_bgra_vfp4+0xb4>
+ .long 0x0a000005 // beq 50a4 <sk_load_bgra_vfp4+0xb4>
.long 0xe3530003 // cmp r3, #3
- .long 0x1affffe2 // bne 5008 <sk_load_bgra_vfp4+0x30>
+ .long 0x1affffe2 // bne 5020 <sk_load_bgra_vfp4+0x30>
.long 0xe3a03000 // mov r3, #0
.long 0xeea03b90 // vdup.32 q8, r3
.long 0xe2823008 // add r3, r2, #8
@@ -5658,11 +5664,11 @@ _sk_load_bgra_vfp4:
.long 0xedd22b00 // vldr d18, [r2]
.long 0xf2f008e2 // vext.8 q8, q8, q9, #8
.long 0xf2f008e0 // vext.8 q8, q8, q8, #8
- .long 0xeaffffda // b 5008 <sk_load_bgra_vfp4+0x30>
+ .long 0xeaffffda // b 5020 <sk_load_bgra_vfp4+0x30>
.long 0xe3a03000 // mov r3, #0
.long 0xeea03b90 // vdup.32 q8, r3
.long 0xf4e2083f // vld1.32 {d16[0]}, [r2 :32]
- .long 0xeaffffd6 // b 5008 <sk_load_bgra_vfp4+0x30>
+ .long 0xeaffffd6 // b 5020 <sk_load_bgra_vfp4+0x30>
.long 0xe320f000 // nop {0}
.long 0x3b808081 // .word 0x3b808081
.long 0x3b808081 // .word 0x3b808081
@@ -5686,7 +5692,7 @@ _sk_load_bgra_dst_vfp4:
.long 0xe0824103 // add r4, r2, r3, lsl #2
.long 0xe2802020 // add r2, r0, #32
.long 0xe2803010 // add r3, r0, #16
- .long 0x1a00001a // bne 5164 <sk_load_bgra_dst_vfp4+0xa4>
+ .long 0x1a00001a // bne 517c <sk_load_bgra_dst_vfp4+0xa4>
.long 0xf4640a8f // vld1.32 {d16-d17}, [r4]
.long 0xf3c7205f // vmov.i32 q9, #255
.long 0xe28f40b0 // add r4, pc, #176
@@ -5716,12 +5722,12 @@ _sk_load_bgra_dst_vfp4:
.long 0xe12fff13 // bx r3
.long 0xe2065003 // and r5, r6, #3
.long 0xe3550001 // cmp r5, #1
- .long 0x0a00000c // beq 51a4 <sk_load_bgra_dst_vfp4+0xe4>
+ .long 0x0a00000c // beq 51bc <sk_load_bgra_dst_vfp4+0xe4>
.long 0xf2c00050 // vmov.i32 q8, #0
.long 0xe3550002 // cmp r5, #2
- .long 0x0a000005 // beq 5194 <sk_load_bgra_dst_vfp4+0xd4>
+ .long 0x0a000005 // beq 51ac <sk_load_bgra_dst_vfp4+0xd4>
.long 0xe3550003 // cmp r5, #3
- .long 0x1affffdd // bne 50fc <sk_load_bgra_dst_vfp4+0x3c>
+ .long 0x1affffdd // bne 5114 <sk_load_bgra_dst_vfp4+0x3c>
.long 0xe3a05000 // mov r5, #0
.long 0xeea05b90 // vdup.32 q8, r5
.long 0xe2845008 // add r5, r4, #8
@@ -5729,11 +5735,11 @@ _sk_load_bgra_dst_vfp4:
.long 0xedd42b00 // vldr d18, [r4]
.long 0xf2f008e2 // vext.8 q8, q8, q9, #8
.long 0xf2f008e0 // vext.8 q8, q8, q8, #8
- .long 0xeaffffd5 // b 50fc <sk_load_bgra_dst_vfp4+0x3c>
+ .long 0xeaffffd5 // b 5114 <sk_load_bgra_dst_vfp4+0x3c>
.long 0xe3a05000 // mov r5, #0
.long 0xeea05b90 // vdup.32 q8, r5
.long 0xf4e4083f // vld1.32 {d16[0]}, [r4 :32]
- .long 0xeaffffd1 // b 50fc <sk_load_bgra_dst_vfp4+0x3c>
+ .long 0xeaffffd1 // b 5114 <sk_load_bgra_dst_vfp4+0x3c>
.long 0xe320f000 // nop {0}
.long 0x3b808081 // .word 0x3b808081
.long 0x3b808081 // .word 0x3b808081
@@ -5835,7 +5841,7 @@ _sk_store_bgra_vfp4:
.long 0xf2f84576 // vshl.s32 q10, q11, #24
.long 0xf26001f2 // vorr q8, q8, q9
.long 0xf26001f4 // vorr q8, q8, q10
- .long 0x1a000004 // bne 5338 <sk_store_bgra_vfp4+0x90>
+ .long 0x1a000004 // bne 5350 <sk_store_bgra_vfp4+0x90>
.long 0xf4420a8f // vst1.32 {d16-d17}, [r2]
.long 0xe5912004 // ldr r2, [r1, #4]
.long 0xe2811008 // add r1, r1, #8
@@ -5843,17 +5849,17 @@ _sk_store_bgra_vfp4:
.long 0xe12fff12 // bx r2
.long 0xe20c3003 // and r3, ip, #3
.long 0xe3530001 // cmp r3, #1
- .long 0x0a000007 // beq 5364 <sk_store_bgra_vfp4+0xbc>
+ .long 0x0a000007 // beq 537c <sk_store_bgra_vfp4+0xbc>
.long 0xe3530002 // cmp r3, #2
- .long 0x0a000003 // beq 535c <sk_store_bgra_vfp4+0xb4>
+ .long 0x0a000003 // beq 5374 <sk_store_bgra_vfp4+0xb4>
.long 0xe3530003 // cmp r3, #3
- .long 0x1afffff4 // bne 5328 <sk_store_bgra_vfp4+0x80>
+ .long 0x1afffff4 // bne 5340 <sk_store_bgra_vfp4+0x80>
.long 0xe2823008 // add r3, r2, #8
.long 0xf4c3183f // vst1.32 {d17[0]}, [r3 :32]
.long 0xedc20b00 // vstr d16, [r2]
- .long 0xeafffff0 // b 5328 <sk_store_bgra_vfp4+0x80>
+ .long 0xeafffff0 // b 5340 <sk_store_bgra_vfp4+0x80>
.long 0xf4c2083f // vst1.32 {d16[0]}, [r2 :32]
- .long 0xeaffffee // b 5328 <sk_store_bgra_vfp4+0x80>
+ .long 0xeaffffee // b 5340 <sk_store_bgra_vfp4+0x80>
.long 0xe320f000 // nop {0}
.long 0x437f0000 // .word 0x437f0000
.long 0x437f0000 // .word 0x437f0000
@@ -5874,7 +5880,7 @@ _sk_load_f16_vfp4:
.long 0xe0020293 // mul r2, r3, r2
.long 0xe0842182 // add r2, r4, r2, lsl #3
.long 0xe082318e // add r3, r2, lr, lsl #3
- .long 0x1a000008 // bne 53d0 <sk_load_f16_vfp4+0x50>
+ .long 0x1a000008 // bne 53e8 <sk_load_f16_vfp4+0x50>
.long 0xf463004f // vld4.16 {d16-d19}, [r3]
.long 0xe5912004 // ldr r2, [r1, #4]
.long 0xf3b60720 // vcvt.f32.f16 q0, d16
@@ -5886,14 +5892,14 @@ _sk_load_f16_vfp4:
.long 0xe12fff12 // bx r2
.long 0xf4e3070f // vld4.16 {d16[0],d17[0],d18[0],d19[0]}, [r3]
.long 0xe35c0001 // cmp ip, #1
- .long 0x0afffff4 // beq 53b0 <sk_load_f16_vfp4+0x30>
+ .long 0x0afffff4 // beq 53c8 <sk_load_f16_vfp4+0x30>
.long 0xe2832008 // add r2, r3, #8
.long 0xe35c0003 // cmp ip, #3
.long 0xf4e2074f // vld4.16 {d16[1],d17[1],d18[1],d19[1]}, [r2]
- .long 0x3afffff0 // bcc 53b0 <sk_load_f16_vfp4+0x30>
+ .long 0x3afffff0 // bcc 53c8 <sk_load_f16_vfp4+0x30>
.long 0xe2832010 // add r2, r3, #16
.long 0xf4e2078f // vld4.16 {d16[2],d17[2],d18[2],d19[2]}, [r2]
- .long 0xeaffffed // b 53b0 <sk_load_f16_vfp4+0x30>
+ .long 0xeaffffed // b 53c8 <sk_load_f16_vfp4+0x30>
HIDDEN _sk_load_f16_dst_vfp4
.globl _sk_load_f16_dst_vfp4
@@ -5912,7 +5918,7 @@ _sk_load_f16_dst_vfp4:
.long 0xe0825183 // add r5, r2, r3, lsl #3
.long 0xe2802020 // add r2, r0, #32
.long 0xe2803010 // add r3, r0, #16
- .long 0x1a00000d // bne 5468 <sk_load_f16_dst_vfp4+0x70>
+ .long 0x1a00000d // bne 5480 <sk_load_f16_dst_vfp4+0x70>
.long 0xf465004f // vld4.16 {d16-d19}, [r5]
.long 0xf3f64720 // vcvt.f32.f16 q10, d16
.long 0xf3f66721 // vcvt.f32.f16 q11, d17
@@ -5929,14 +5935,14 @@ _sk_load_f16_dst_vfp4:
.long 0xe12fff13 // bx r3
.long 0xf4e5070f // vld4.16 {d16[0],d17[0],d18[0],d19[0]}, [r5]
.long 0xe3560001 // cmp r6, #1
- .long 0x0affffef // beq 5434 <sk_load_f16_dst_vfp4+0x3c>
+ .long 0x0affffef // beq 544c <sk_load_f16_dst_vfp4+0x3c>
.long 0xe2854008 // add r4, r5, #8
.long 0xe3560003 // cmp r6, #3
.long 0xf4e4074f // vld4.16 {d16[1],d17[1],d18[1],d19[1]}, [r4]
- .long 0x3affffeb // bcc 5434 <sk_load_f16_dst_vfp4+0x3c>
+ .long 0x3affffeb // bcc 544c <sk_load_f16_dst_vfp4+0x3c>
.long 0xe2854010 // add r4, r5, #16
.long 0xf4e4078f // vld4.16 {d16[2],d17[2],d18[2],d19[2]}, [r4]
- .long 0xeaffffe8 // b 5434 <sk_load_f16_dst_vfp4+0x3c>
+ .long 0xeaffffe8 // b 544c <sk_load_f16_dst_vfp4+0x3c>
HIDDEN _sk_gather_f16_vfp4
.globl _sk_gather_f16_vfp4
@@ -6009,7 +6015,7 @@ _sk_store_f16_vfp4:
.long 0xe0020392 // mul r2, r2, r3
.long 0xe0842182 // add r2, r4, r2, lsl #3
.long 0xe082218e // add r2, r2, lr, lsl #3
- .long 0x1a000004 // bne 55a0 <sk_store_f16_vfp4+0x50>
+ .long 0x1a000004 // bne 55b8 <sk_store_f16_vfp4+0x50>
.long 0xf442004f // vst4.16 {d16-d19}, [r2]
.long 0xe5912004 // ldr r2, [r1, #4]
.long 0xe2811008 // add r1, r1, #8
@@ -6017,14 +6023,14 @@ _sk_store_f16_vfp4:
.long 0xe12fff12 // bx r2
.long 0xe35c0001 // cmp ip, #1
.long 0xf4c2070f // vst4.16 {d16[0],d17[0],d18[0],d19[0]}, [r2]
- .long 0x0afffff8 // beq 5590 <sk_store_f16_vfp4+0x40>
+ .long 0x0afffff8 // beq 55a8 <sk_store_f16_vfp4+0x40>
.long 0xe2823008 // add r3, r2, #8
.long 0xe35c0003 // cmp ip, #3
.long 0xf4c3074f // vst4.16 {d16[1],d17[1],d18[1],d19[1]}, [r3]
- .long 0x3afffff4 // bcc 5590 <sk_store_f16_vfp4+0x40>
+ .long 0x3afffff4 // bcc 55a8 <sk_store_f16_vfp4+0x40>
.long 0xe2822010 // add r2, r2, #16
.long 0xf4c2078f // vst4.16 {d16[2],d17[2],d18[2],d19[2]}, [r2]
- .long 0xeafffff1 // b 5590 <sk_store_f16_vfp4+0x40>
+ .long 0xeafffff1 // b 55a8 <sk_store_f16_vfp4+0x40>
HIDDEN _sk_load_u16_be_vfp4
.globl _sk_load_u16_be_vfp4
@@ -6040,7 +6046,7 @@ _sk_load_u16_be_vfp4:
.long 0xe0020293 // mul r2, r3, r2
.long 0xe0842082 // add r2, r4, r2, lsl #1
.long 0xe082318e // add r3, r2, lr, lsl #3
- .long 0x1a00001e // bne 5670 <sk_load_u16_be_vfp4+0xa8>
+ .long 0x1a00001e // bne 5688 <sk_load_u16_be_vfp4+0xa8>
.long 0xf463004f // vld4.16 {d16-d19}, [r3]
.long 0xf3d84030 // vshr.u16 d20, d16, #8
.long 0xe28f2094 // add r2, pc, #148
@@ -6074,14 +6080,14 @@ _sk_load_u16_be_vfp4:
.long 0xe12fff12 // bx r2
.long 0xf4e3070f // vld4.16 {d16[0],d17[0],d18[0],d19[0]}, [r3]
.long 0xe35c0001 // cmp ip, #1
- .long 0x0affffde // beq 55f8 <sk_load_u16_be_vfp4+0x30>
+ .long 0x0affffde // beq 5610 <sk_load_u16_be_vfp4+0x30>
.long 0xe2832008 // add r2, r3, #8
.long 0xe35c0003 // cmp ip, #3
.long 0xf4e2074f // vld4.16 {d16[1],d17[1],d18[1],d19[1]}, [r2]
- .long 0x3affffda // bcc 55f8 <sk_load_u16_be_vfp4+0x30>
+ .long 0x3affffda // bcc 5610 <sk_load_u16_be_vfp4+0x30>
.long 0xe2832010 // add r2, r3, #16
.long 0xf4e2078f // vld4.16 {d16[2],d17[2],d18[2],d19[2]}, [r2]
- .long 0xeaffffd7 // b 55f8 <sk_load_u16_be_vfp4+0x30>
+ .long 0xeaffffd7 // b 5610 <sk_load_u16_be_vfp4+0x30>
.long 0x37800080 // .word 0x37800080
.long 0x37800080 // .word 0x37800080
.long 0x37800080 // .word 0x37800080
@@ -6102,7 +6108,7 @@ _sk_load_rgb_u16_be_vfp4:
.long 0xe08e308e // add r3, lr, lr, lsl #1
.long 0xe0842082 // add r2, r4, r2, lsl #1
.long 0xe0823083 // add r3, r2, r3, lsl #1
- .long 0x1a00001a // bne 5744 <sk_load_rgb_u16_be_vfp4+0x9c>
+ .long 0x1a00001a // bne 575c <sk_load_rgb_u16_be_vfp4+0x9c>
.long 0xf463044f // vld3.16 {d16-d18}, [r3]
.long 0xf3d84030 // vshr.u16 d20, d16, #8
.long 0xe28f2088 // add r2, pc, #136
@@ -6132,14 +6138,14 @@ _sk_load_rgb_u16_be_vfp4:
.long 0xe12fff12 // bx r2
.long 0xf4e3060f // vld3.16 {d16[0],d17[0],d18[0]}, [r3]
.long 0xe35c0001 // cmp ip, #1
- .long 0x0affffe2 // beq 56dc <sk_load_rgb_u16_be_vfp4+0x34>
+ .long 0x0affffe2 // beq 56f4 <sk_load_rgb_u16_be_vfp4+0x34>
.long 0xe2832006 // add r2, r3, #6
.long 0xe35c0003 // cmp ip, #3
.long 0xf4e2064f // vld3.16 {d16[1],d17[1],d18[1]}, [r2]
- .long 0x3affffde // bcc 56dc <sk_load_rgb_u16_be_vfp4+0x34>
+ .long 0x3affffde // bcc 56f4 <sk_load_rgb_u16_be_vfp4+0x34>
.long 0xe283200c // add r2, r3, #12
.long 0xf4e2068f // vld3.16 {d16[2],d17[2],d18[2]}, [r2]
- .long 0xeaffffdb // b 56dc <sk_load_rgb_u16_be_vfp4+0x34>
+ .long 0xeaffffdb // b 56f4 <sk_load_rgb_u16_be_vfp4+0x34>
.long 0xe320f000 // nop {0}
.long 0x37800080 // .word 0x37800080
.long 0x37800080 // .word 0x37800080
@@ -6194,7 +6200,7 @@ _sk_store_u16_be_vfp4:
.long 0xf2d84534 // vshl.s16 d20, d20, #8
.long 0xf26811b7 // vorr d17, d24, d23
.long 0xf26401b9 // vorr d16, d20, d25
- .long 0x1a000004 // bne 5848 <sk_store_u16_be_vfp4+0xb8>
+ .long 0x1a000004 // bne 5860 <sk_store_u16_be_vfp4+0xb8>
.long 0xf443004f // vst4.16 {d16-d19}, [r3]
.long 0xe5912004 // ldr r2, [r1, #4]
.long 0xe2811008 // add r1, r1, #8
@@ -6202,14 +6208,14 @@ _sk_store_u16_be_vfp4:
.long 0xe12fff12 // bx r2
.long 0xe35c0001 // cmp ip, #1
.long 0xf4c3070f // vst4.16 {d16[0],d17[0],d18[0],d19[0]}, [r3]
- .long 0x0afffff8 // beq 5838 <sk_store_u16_be_vfp4+0xa8>
+ .long 0x0afffff8 // beq 5850 <sk_store_u16_be_vfp4+0xa8>
.long 0xe2832008 // add r2, r3, #8
.long 0xe35c0003 // cmp ip, #3
.long 0xf4c2074f // vst4.16 {d16[1],d17[1],d18[1],d19[1]}, [r2]
- .long 0x3afffff4 // bcc 5838 <sk_store_u16_be_vfp4+0xa8>
+ .long 0x3afffff4 // bcc 5850 <sk_store_u16_be_vfp4+0xa8>
.long 0xe2832010 // add r2, r3, #16
.long 0xf4c2078f // vst4.16 {d16[2],d17[2],d18[2],d19[2]}, [r2]
- .long 0xeafffff1 // b 5838 <sk_store_u16_be_vfp4+0xa8>
+ .long 0xeafffff1 // b 5850 <sk_store_u16_be_vfp4+0xa8>
.long 0x477fff00 // .word 0x477fff00
.long 0x477fff00 // .word 0x477fff00
.long 0x477fff00 // .word 0x477fff00
@@ -6229,7 +6235,7 @@ _sk_load_f32_vfp4:
.long 0xe0020392 // mul r2, r2, r3
.long 0xe0842102 // add r2, r4, r2, lsl #2
.long 0xe082220e // add r2, r2, lr, lsl #4
- .long 0x1a000009 // bne 58d4 <sk_load_f32_vfp4+0x54>
+ .long 0x1a000009 // bne 58ec <sk_load_f32_vfp4+0x54>
.long 0xf462018d // vld4.32 {d16,d18,d20,d22}, [r2]!
.long 0xf462118f // vld4.32 {d17,d19,d21,d23}, [r2]
.long 0xf22001f0 // vorr q0, q8, q8
@@ -6242,14 +6248,14 @@ _sk_load_f32_vfp4:
.long 0xe12fff12 // bx r2
.long 0xf4a20b4f // vld4.32 {d0[0],d2[0],d4[0],d6[0]}, [r2]
.long 0xe35c0001 // cmp ip, #1
- .long 0x0afffff8 // beq 58c4 <sk_load_f32_vfp4+0x44>
+ .long 0x0afffff8 // beq 58dc <sk_load_f32_vfp4+0x44>
.long 0xe2823010 // add r3, r2, #16
.long 0xe35c0003 // cmp ip, #3
.long 0xf4a30bcf // vld4.32 {d0[1],d2[1],d4[1],d6[1]}, [r3]
- .long 0x3afffff4 // bcc 58c4 <sk_load_f32_vfp4+0x44>
+ .long 0x3afffff4 // bcc 58dc <sk_load_f32_vfp4+0x44>
.long 0xe2822020 // add r2, r2, #32
.long 0xf4a21b4f // vld4.32 {d1[0],d3[0],d5[0],d7[0]}, [r2]
- .long 0xeafffff1 // b 58c4 <sk_load_f32_vfp4+0x44>
+ .long 0xeafffff1 // b 58dc <sk_load_f32_vfp4+0x44>
HIDDEN _sk_load_f32_dst_vfp4
.globl _sk_load_f32_dst_vfp4
@@ -6268,7 +6274,7 @@ _sk_load_f32_dst_vfp4:
.long 0xe0824203 // add r4, r2, r3, lsl #4
.long 0xe2802020 // add r2, r0, #32
.long 0xe2803010 // add r3, r0, #16
- .long 0x1a00000e // bne 5970 <sk_load_f32_dst_vfp4+0x74>
+ .long 0x1a00000e // bne 5988 <sk_load_f32_dst_vfp4+0x74>
.long 0xf464818d // vld4.32 {d24,d26,d28,d30}, [r4]!
.long 0xf464918f // vld4.32 {d25,d27,d29,d31}, [r4]
.long 0xf26801f8 // vorr q8, q12, q12
@@ -6286,14 +6292,14 @@ _sk_load_f32_dst_vfp4:
.long 0xe12fff13 // bx r3
.long 0xf4e40b4f // vld4.32 {d16[0],d18[0],d20[0],d22[0]}, [r4]
.long 0xe3560001 // cmp r6, #1
- .long 0x0afffff3 // beq 594c <sk_load_f32_dst_vfp4+0x50>
+ .long 0x0afffff3 // beq 5964 <sk_load_f32_dst_vfp4+0x50>
.long 0xe2845010 // add r5, r4, #16
.long 0xe3560003 // cmp r6, #3
.long 0xf4e50bcf // vld4.32 {d16[1],d18[1],d20[1],d22[1]}, [r5]
- .long 0x3affffef // bcc 594c <sk_load_f32_dst_vfp4+0x50>
+ .long 0x3affffef // bcc 5964 <sk_load_f32_dst_vfp4+0x50>
.long 0xe2844020 // add r4, r4, #32
.long 0xf4e41b4f // vld4.32 {d17[0],d19[0],d21[0],d23[0]}, [r4]
- .long 0xeaffffec // b 594c <sk_load_f32_dst_vfp4+0x50>
+ .long 0xeaffffec // b 5964 <sk_load_f32_dst_vfp4+0x50>
HIDDEN _sk_store_f32_vfp4
.globl _sk_store_f32_vfp4
@@ -6309,7 +6315,7 @@ _sk_store_f32_vfp4:
.long 0xe0020392 // mul r2, r2, r3
.long 0xe0842102 // add r2, r4, r2, lsl #2
.long 0xe082220e // add r2, r2, lr, lsl #4
- .long 0x1a000005 // bne 59dc <sk_store_f32_vfp4+0x44>
+ .long 0x1a000005 // bne 59f4 <sk_store_f32_vfp4+0x44>
.long 0xf402018d // vst4.32 {d0,d2,d4,d6}, [r2]!
.long 0xf402118f // vst4.32 {d1,d3,d5,d7}, [r2]
.long 0xe5912004 // ldr r2, [r1, #4]
@@ -6318,14 +6324,14 @@ _sk_store_f32_vfp4:
.long 0xe12fff12 // bx r2
.long 0xe35c0001 // cmp ip, #1
.long 0xf4820b4f // vst4.32 {d0[0],d2[0],d4[0],d6[0]}, [r2]
- .long 0x0afffff8 // beq 59cc <sk_store_f32_vfp4+0x34>
+ .long 0x0afffff8 // beq 59e4 <sk_store_f32_vfp4+0x34>
.long 0xe2823010 // add r3, r2, #16
.long 0xe35c0003 // cmp ip, #3
.long 0xf4830bcf // vst4.32 {d0[1],d2[1],d4[1],d6[1]}, [r3]
- .long 0x3afffff4 // bcc 59cc <sk_store_f32_vfp4+0x34>
+ .long 0x3afffff4 // bcc 59e4 <sk_store_f32_vfp4+0x34>
.long 0xe2822020 // add r2, r2, #32
.long 0xf4821b4f // vst4.32 {d1[0],d3[0],d5[0],d7[0]}, [r2]
- .long 0xeafffff1 // b 59cc <sk_store_f32_vfp4+0x34>
+ .long 0xeafffff1 // b 59e4 <sk_store_f32_vfp4+0x34>
.long 0xe320f000 // nop {0}
HIDDEN _sk_repeat_x_vfp4
@@ -6972,7 +6978,7 @@ _sk_gradient_vfp4:
.long 0xf2c00050 // vmov.i32 q8, #0
.long 0xe5923000 // ldr r3, [r2]
.long 0xe3530002 // cmp r3, #2
- .long 0x3a00000a // bcc 62e4 <sk_gradient_vfp4+0x54>
+ .long 0x3a00000a // bcc 62fc <sk_gradient_vfp4+0x54>
.long 0xe5927024 // ldr r7, [r2, #36]
.long 0xf2c04051 // vmov.i32 q10, #1
.long 0xf2c00050 // vmov.i32 q8, #0
@@ -6983,7 +6989,7 @@ _sk_gradient_vfp4:
.long 0xf3468ee8 // vcge.f32 q12, q11, q12
.long 0xf35481f2 // vbsl q12, q10, q9
.long 0xf26008e8 // vadd.i32 q8, q8, q12
- .long 0x1afffff9 // bne 62cc <sk_gradient_vfp4+0x3c>
+ .long 0x1afffff9 // bne 62e4 <sk_gradient_vfp4+0x3c>
.long 0xee314b90 // vmov.32 r4, d17[1]
.long 0xe5926010 // ldr r6, [r2, #16]
.long 0xee11cb90 // vmov.32 ip, d17[0]
@@ -8127,7 +8133,7 @@ _sk_clut_3D_vfp4:
.long 0xe0835105 // add r5, r3, r5, lsl #2
.long 0xedd55a00 // vldr s11, [r5]
.long 0xee325b90 // vmov.32 r5, d18[1]
- .long 0xea000004 // b 72f8 <sk_clut_3D_vfp4+0x508>
+ .long 0xea000004 // b 7310 <sk_clut_3D_vfp4+0x508>
.long 0xe320f000 // nop {0}
.long 0x3f7ff972 // .word 0x3f7ff972
.long 0x3f7ff972 // .word 0x3f7ff972
@@ -8644,7 +8650,7 @@ _sk_clut_4D_vfp4:
.long 0xf2802051 // vmov.i32 q1, #1
.long 0xf22e29e0 // vmla.i32 q1, q15, q8
.long 0xedd20a00 // vldr s1, [r2]
- .long 0xea000004 // b 7af8 <sk_clut_4D_vfp4+0x528>
+ .long 0xea000004 // b 7b10 <sk_clut_4D_vfp4+0x528>
.long 0xe320f000 // nop {0}
.long 0x3f7ff972 // .word 0x3f7ff972
.long 0x3f7ff972 // .word 0x3f7ff972
@@ -9457,12 +9463,12 @@ FUNCTION(_sk_seed_shader_skx)
_sk_seed_shader_skx:
.byte 98,242,125,40,124,194 // vpbroadcastd %edx,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 197,252,88,5,16,35,3,0 // vaddps 0x32310(%rip),%ymm0,%ymm0 # 32400 <_sk_srcover_rgba_8888_sse2_lowp+0x2c0>
+ .byte 197,252,88,5,48,35,3,0 // vaddps 0x32330(%rip),%ymm0,%ymm0 # 32420 <_sk_srcover_rgba_8888_sse2_lowp+0x2c4>
.byte 98,242,125,40,124,201 // vpbroadcastd %ecx,%ymm1
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
- .byte 98,241,116,56,88,13,192,40,3,0 // vaddps 0x328c0(%rip){1to8},%ymm1,%ymm1 # 329c4 <_sk_srcover_rgba_8888_sse2_lowp+0x884>
+ .byte 98,241,116,56,88,13,224,40,3,0 // vaddps 0x328e0(%rip){1to8},%ymm1,%ymm1 # 329e4 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,21,185,40,3,0 // vbroadcastss 0x328b9(%rip),%ymm2 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 196,226,125,24,21,217,40,3,0 // vbroadcastss 0x328d9(%rip),%ymm2 # 329e8 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 197,228,87,219 // vxorps %ymm3,%ymm3,%ymm3
.byte 197,220,87,228 // vxorps %ymm4,%ymm4,%ymm4
.byte 197,212,87,237 // vxorps %ymm5,%ymm5,%ymm5
@@ -9476,16 +9482,16 @@ FUNCTION(_sk_dither_skx)
_sk_dither_skx:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 98,114,125,40,124,194 // vpbroadcastd %edx,%ymm8
- .byte 197,61,254,5,235,34,3,0 // vpaddd 0x322eb(%rip),%ymm8,%ymm8 # 32420 <_sk_srcover_rgba_8888_sse2_lowp+0x2e0>
+ .byte 197,61,254,5,11,35,3,0 // vpaddd 0x3230b(%rip),%ymm8,%ymm8 # 32440 <_sk_srcover_rgba_8888_sse2_lowp+0x2e4>
.byte 98,114,125,40,124,201 // vpbroadcastd %ecx,%ymm9
.byte 196,65,53,239,200 // vpxor %ymm8,%ymm9,%ymm9
- .byte 196,98,125,88,21,131,40,3,0 // vpbroadcastd 0x32883(%rip),%ymm10 # 329cc <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+ .byte 196,98,125,88,21,163,40,3,0 // vpbroadcastd 0x328a3(%rip),%ymm10 # 329ec <_sk_srcover_rgba_8888_sse2_lowp+0x890>
.byte 196,65,53,219,218 // vpand %ymm10,%ymm9,%ymm11
.byte 196,193,37,114,243,5 // vpslld $0x5,%ymm11,%ymm11
.byte 196,65,61,219,210 // vpand %ymm10,%ymm8,%ymm10
.byte 196,193,45,114,242,4 // vpslld $0x4,%ymm10,%ymm10
- .byte 196,98,125,88,37,104,40,3,0 // vpbroadcastd 0x32868(%rip),%ymm12 # 329d0 <_sk_srcover_rgba_8888_sse2_lowp+0x890>
- .byte 196,98,125,88,45,99,40,3,0 // vpbroadcastd 0x32863(%rip),%ymm13 # 329d4 <_sk_srcover_rgba_8888_sse2_lowp+0x894>
+ .byte 196,98,125,88,37,136,40,3,0 // vpbroadcastd 0x32888(%rip),%ymm12 # 329f0 <_sk_srcover_rgba_8888_sse2_lowp+0x894>
+ .byte 196,98,125,88,45,131,40,3,0 // vpbroadcastd 0x32883(%rip),%ymm13 # 329f4 <_sk_srcover_rgba_8888_sse2_lowp+0x898>
.byte 196,65,53,219,245 // vpand %ymm13,%ymm9,%ymm14
.byte 196,193,13,114,246,2 // vpslld $0x2,%ymm14,%ymm14
.byte 196,65,37,235,222 // vpor %ymm14,%ymm11,%ymm11
@@ -9500,8 +9506,8 @@ _sk_dither_skx:
.byte 196,65,61,235,195 // vpor %ymm11,%ymm8,%ymm8
.byte 196,65,61,235,193 // vpor %ymm9,%ymm8,%ymm8
.byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8
- .byte 196,98,125,24,13,21,40,3,0 // vbroadcastss 0x32815(%rip),%ymm9 # 329d8 <_sk_srcover_rgba_8888_sse2_lowp+0x898>
- .byte 98,114,61,56,168,13,15,40,3,0 // vfmadd213ps 0x3280f(%rip){1to8},%ymm8,%ymm9 # 329dc <_sk_srcover_rgba_8888_sse2_lowp+0x89c>
+ .byte 196,98,125,24,13,53,40,3,0 // vbroadcastss 0x32835(%rip),%ymm9 # 329f8 <_sk_srcover_rgba_8888_sse2_lowp+0x89c>
+ .byte 98,114,61,56,168,13,47,40,3,0 // vfmadd213ps 0x3282f(%rip){1to8},%ymm8,%ymm9 # 329fc <_sk_srcover_rgba_8888_sse2_lowp+0x8a0>
.byte 196,98,125,24,0 // vbroadcastss (%rax),%ymm8
.byte 196,65,52,89,192 // vmulps %ymm8,%ymm9,%ymm8
.byte 197,188,88,192 // vaddps %ymm0,%ymm8,%ymm0
@@ -9534,7 +9540,7 @@ HIDDEN _sk_black_color_skx
FUNCTION(_sk_black_color_skx)
_sk_black_color_skx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,156,39,3,0 // vbroadcastss 0x3279c(%rip),%ymm3 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 196,226,125,24,29,188,39,3,0 // vbroadcastss 0x327bc(%rip),%ymm3 # 329e8 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
.byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
.byte 197,236,87,210 // vxorps %ymm2,%ymm2,%ymm2
@@ -9545,7 +9551,7 @@ HIDDEN _sk_white_color_skx
FUNCTION(_sk_white_color_skx)
_sk_white_color_skx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,5,131,39,3,0 // vbroadcastss 0x32783(%rip),%ymm0 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 196,226,125,24,5,163,39,3,0 // vbroadcastss 0x327a3(%rip),%ymm0 # 329e8 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 197,252,40,200 // vmovaps %ymm0,%ymm1
.byte 197,252,40,208 // vmovaps %ymm0,%ymm2
.byte 197,252,40,216 // vmovaps %ymm0,%ymm3
@@ -9591,7 +9597,7 @@ HIDDEN _sk_srcatop_skx
FUNCTION(_sk_srcatop_skx)
_sk_srcatop_skx:
.byte 197,252,89,199 // vmulps %ymm7,%ymm0,%ymm0
- .byte 196,98,125,24,5,34,39,3,0 // vbroadcastss 0x32722(%rip),%ymm8 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 196,98,125,24,5,66,39,3,0 // vbroadcastss 0x32742(%rip),%ymm8 # 329e8 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
.byte 196,226,61,184,196 // vfmadd231ps %ymm4,%ymm8,%ymm0
.byte 197,244,89,207 // vmulps %ymm7,%ymm1,%ymm1
@@ -9607,7 +9613,7 @@ HIDDEN _sk_dstatop_skx
.globl _sk_dstatop_skx
FUNCTION(_sk_dstatop_skx)
_sk_dstatop_skx:
- .byte 196,98,125,24,5,241,38,3,0 // vbroadcastss 0x326f1(%rip),%ymm8 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 196,98,125,24,5,17,39,3,0 // vbroadcastss 0x32711(%rip),%ymm8 # 329e8 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 197,60,92,199 // vsubps %ymm7,%ymm8,%ymm8
.byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
.byte 196,226,101,184,196 // vfmadd231ps %ymm4,%ymm3,%ymm0
@@ -9646,7 +9652,7 @@ HIDDEN _sk_srcout_skx
.globl _sk_srcout_skx
FUNCTION(_sk_srcout_skx)
_sk_srcout_skx:
- .byte 196,98,125,24,5,148,38,3,0 // vbroadcastss 0x32694(%rip),%ymm8 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 196,98,125,24,5,180,38,3,0 // vbroadcastss 0x326b4(%rip),%ymm8 # 329e8 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 197,60,92,199 // vsubps %ymm7,%ymm8,%ymm8
.byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
.byte 197,188,89,201 // vmulps %ymm1,%ymm8,%ymm1
@@ -9659,7 +9665,7 @@ HIDDEN _sk_dstout_skx
.globl _sk_dstout_skx
FUNCTION(_sk_dstout_skx)
_sk_dstout_skx:
- .byte 196,226,125,24,5,115,38,3,0 // vbroadcastss 0x32673(%rip),%ymm0 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 196,226,125,24,5,147,38,3,0 // vbroadcastss 0x32693(%rip),%ymm0 # 329e8 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 197,252,92,219 // vsubps %ymm3,%ymm0,%ymm3
.byte 197,228,89,196 // vmulps %ymm4,%ymm3,%ymm0
.byte 197,228,89,205 // vmulps %ymm5,%ymm3,%ymm1
@@ -9672,7 +9678,7 @@ HIDDEN _sk_srcover_skx
.globl _sk_srcover_skx
FUNCTION(_sk_srcover_skx)
_sk_srcover_skx:
- .byte 196,98,125,24,5,82,38,3,0 // vbroadcastss 0x32652(%rip),%ymm8 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 196,98,125,24,5,114,38,3,0 // vbroadcastss 0x32672(%rip),%ymm8 # 329e8 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
.byte 196,194,93,184,192 // vfmadd231ps %ymm8,%ymm4,%ymm0
.byte 196,194,85,184,200 // vfmadd231ps %ymm8,%ymm5,%ymm1
@@ -9685,7 +9691,7 @@ HIDDEN _sk_dstover_skx
.globl _sk_dstover_skx
FUNCTION(_sk_dstover_skx)
_sk_dstover_skx:
- .byte 196,98,125,24,5,45,38,3,0 // vbroadcastss 0x3262d(%rip),%ymm8 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 196,98,125,24,5,77,38,3,0 // vbroadcastss 0x3264d(%rip),%ymm8 # 329e8 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 197,60,92,199 // vsubps %ymm7,%ymm8,%ymm8
.byte 196,226,61,168,196 // vfmadd213ps %ymm4,%ymm8,%ymm0
.byte 196,226,61,168,205 // vfmadd213ps %ymm5,%ymm8,%ymm1
@@ -9709,7 +9715,7 @@ HIDDEN _sk_multiply_skx
.globl _sk_multiply_skx
FUNCTION(_sk_multiply_skx)
_sk_multiply_skx:
- .byte 196,98,125,24,5,244,37,3,0 // vbroadcastss 0x325f4(%rip),%ymm8 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 196,98,125,24,5,20,38,3,0 // vbroadcastss 0x32614(%rip),%ymm8 # 329e8 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 197,60,92,207 // vsubps %ymm7,%ymm8,%ymm9
.byte 197,52,89,208 // vmulps %ymm0,%ymm9,%ymm10
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
@@ -9732,7 +9738,7 @@ HIDDEN _sk_plus__skx
FUNCTION(_sk_plus__skx)
_sk_plus__skx:
.byte 197,252,88,196 // vaddps %ymm4,%ymm0,%ymm0
- .byte 196,98,125,24,5,163,37,3,0 // vbroadcastss 0x325a3(%rip),%ymm8 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 196,98,125,24,5,195,37,3,0 // vbroadcastss 0x325c3(%rip),%ymm8 # 329e8 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 196,193,124,93,192 // vminps %ymm8,%ymm0,%ymm0
.byte 197,244,88,205 // vaddps %ymm5,%ymm1,%ymm1
.byte 196,193,116,93,200 // vminps %ymm8,%ymm1,%ymm1
@@ -9762,7 +9768,7 @@ HIDDEN _sk_xor__skx
.globl _sk_xor__skx
FUNCTION(_sk_xor__skx)
_sk_xor__skx:
- .byte 196,98,125,24,5,78,37,3,0 // vbroadcastss 0x3254e(%rip),%ymm8 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 196,98,125,24,5,110,37,3,0 // vbroadcastss 0x3256e(%rip),%ymm8 # 329e8 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 197,60,92,207 // vsubps %ymm7,%ymm8,%ymm9
.byte 197,180,89,192 // vmulps %ymm0,%ymm9,%ymm0
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
@@ -9796,7 +9802,7 @@ _sk_darken_skx:
.byte 197,100,89,206 // vmulps %ymm6,%ymm3,%ymm9
.byte 196,193,108,95,209 // vmaxps %ymm9,%ymm2,%ymm2
.byte 197,188,92,210 // vsubps %ymm2,%ymm8,%ymm2
- .byte 196,98,125,24,5,210,36,3,0 // vbroadcastss 0x324d2(%rip),%ymm8 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 196,98,125,24,5,242,36,3,0 // vbroadcastss 0x324f2(%rip),%ymm8 # 329e8 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
.byte 196,194,69,184,216 // vfmadd231ps %ymm8,%ymm7,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -9821,7 +9827,7 @@ _sk_lighten_skx:
.byte 197,100,89,206 // vmulps %ymm6,%ymm3,%ymm9
.byte 196,193,108,93,209 // vminps %ymm9,%ymm2,%ymm2
.byte 197,188,92,210 // vsubps %ymm2,%ymm8,%ymm2
- .byte 196,98,125,24,5,125,36,3,0 // vbroadcastss 0x3247d(%rip),%ymm8 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 196,98,125,24,5,157,36,3,0 // vbroadcastss 0x3249d(%rip),%ymm8 # 329e8 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
.byte 196,194,69,184,216 // vfmadd231ps %ymm8,%ymm7,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -9849,7 +9855,7 @@ _sk_difference_skx:
.byte 196,193,108,93,209 // vminps %ymm9,%ymm2,%ymm2
.byte 197,236,88,210 // vaddps %ymm2,%ymm2,%ymm2
.byte 197,188,92,210 // vsubps %ymm2,%ymm8,%ymm2
- .byte 196,98,125,24,5,28,36,3,0 // vbroadcastss 0x3241c(%rip),%ymm8 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 196,98,125,24,5,60,36,3,0 // vbroadcastss 0x3243c(%rip),%ymm8 # 329e8 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
.byte 196,194,69,184,216 // vfmadd231ps %ymm8,%ymm7,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -9871,7 +9877,7 @@ _sk_exclusion_skx:
.byte 197,236,89,214 // vmulps %ymm6,%ymm2,%ymm2
.byte 197,236,88,210 // vaddps %ymm2,%ymm2,%ymm2
.byte 197,188,92,210 // vsubps %ymm2,%ymm8,%ymm2
- .byte 196,98,125,24,5,214,35,3,0 // vbroadcastss 0x323d6(%rip),%ymm8 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 196,98,125,24,5,246,35,3,0 // vbroadcastss 0x323f6(%rip),%ymm8 # 329e8 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
.byte 196,194,69,184,216 // vfmadd231ps %ymm8,%ymm7,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -9883,7 +9889,7 @@ FUNCTION(_sk_colorburn_skx)
_sk_colorburn_skx:
.byte 98,241,92,40,194,199,0 // vcmpeqps %ymm7,%ymm4,%k0
.byte 98,114,126,40,56,192 // vpmovm2d %k0,%ymm8
- .byte 196,98,125,24,13,179,35,3,0 // vbroadcastss 0x323b3(%rip),%ymm9 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 196,98,125,24,13,211,35,3,0 // vbroadcastss 0x323d3(%rip),%ymm9 # 329e8 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 197,52,92,215 // vsubps %ymm7,%ymm9,%ymm10
.byte 197,44,89,216 // vmulps %ymm0,%ymm10,%ymm11
.byte 197,36,88,228 // vaddps %ymm4,%ymm11,%ymm12
@@ -9947,7 +9953,7 @@ _sk_colordodge_skx:
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 98,209,92,40,194,192,0 // vcmpeqps %ymm8,%ymm4,%k0
.byte 98,114,126,40,56,200 // vpmovm2d %k0,%ymm9
- .byte 196,98,125,24,21,132,34,3,0 // vbroadcastss 0x32284(%rip),%ymm10 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 196,98,125,24,21,164,34,3,0 // vbroadcastss 0x322a4(%rip),%ymm10 # 329e8 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 197,44,92,223 // vsubps %ymm7,%ymm10,%ymm11
.byte 197,36,89,224 // vmulps %ymm0,%ymm11,%ymm12
.byte 98,241,124,40,194,195,0 // vcmpeqps %ymm3,%ymm0,%k0
@@ -10004,7 +10010,7 @@ HIDDEN _sk_hardlight_skx
.globl _sk_hardlight_skx
FUNCTION(_sk_hardlight_skx)
_sk_hardlight_skx:
- .byte 196,98,125,24,5,124,33,3,0 // vbroadcastss 0x3217c(%rip),%ymm8 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 196,98,125,24,5,156,33,3,0 // vbroadcastss 0x3219c(%rip),%ymm8 # 329e8 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 197,60,92,207 // vsubps %ymm7,%ymm8,%ymm9
.byte 197,52,89,208 // vmulps %ymm0,%ymm9,%ymm10
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
@@ -10058,7 +10064,7 @@ HIDDEN _sk_overlay_skx
.globl _sk_overlay_skx
FUNCTION(_sk_overlay_skx)
_sk_overlay_skx:
- .byte 196,98,125,24,5,152,32,3,0 // vbroadcastss 0x32098(%rip),%ymm8 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 196,98,125,24,5,184,32,3,0 // vbroadcastss 0x320b8(%rip),%ymm8 # 329e8 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 197,60,92,207 // vsubps %ymm7,%ymm8,%ymm9
.byte 197,52,89,208 // vmulps %ymm0,%ymm9,%ymm10
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
@@ -10124,15 +10130,15 @@ _sk_softlight_skx:
.byte 196,65,52,88,217 // vaddps %ymm9,%ymm9,%ymm11
.byte 196,65,36,88,235 // vaddps %ymm11,%ymm11,%ymm13
.byte 197,4,92,243 // vsubps %ymm3,%ymm15,%ymm14
- .byte 196,98,125,24,29,118,31,3,0 // vbroadcastss 0x31f76(%rip),%ymm11 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 196,98,125,24,29,150,31,3,0 // vbroadcastss 0x31f96(%rip),%ymm11 # 329e8 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 196,65,36,92,225 // vsubps %ymm9,%ymm11,%ymm12
.byte 196,98,13,168,227 // vfmadd213ps %ymm3,%ymm14,%ymm12
.byte 197,156,89,212 // vmulps %ymm4,%ymm12,%ymm2
.byte 196,66,21,168,237 // vfmadd213ps %ymm13,%ymm13,%ymm13
- .byte 98,226,125,40,24,21,113,31,3,0 // vbroadcastss 0x31f71(%rip),%ymm18 # 329e0 <_sk_srcover_rgba_8888_sse2_lowp+0x8a0>
+ .byte 98,226,125,40,24,21,145,31,3,0 // vbroadcastss 0x31f91(%rip),%ymm18 # 32a00 <_sk_srcover_rgba_8888_sse2_lowp+0x8a4>
.byte 98,161,52,40,88,202 // vaddps %ymm18,%ymm9,%ymm17
.byte 98,81,116,32,89,229 // vmulps %ymm13,%ymm17,%ymm12
- .byte 98,226,125,40,24,29,95,31,3,0 // vbroadcastss 0x31f5f(%rip),%ymm19 # 329e4 <_sk_srcover_rgba_8888_sse2_lowp+0x8a4>
+ .byte 98,226,125,40,24,29,127,31,3,0 // vbroadcastss 0x31f7f(%rip),%ymm19 # 32a04 <_sk_srcover_rgba_8888_sse2_lowp+0x8a8>
.byte 98,50,53,40,184,227 // vfmadd231ps %ymm19,%ymm9,%ymm12
.byte 98,194,125,40,78,201 // vrsqrt14ps %ymm9,%ymm17
.byte 98,162,125,40,76,201 // vrcp14ps %ymm17,%ymm17
@@ -10254,11 +10260,11 @@ _sk_hue_skx:
.byte 196,65,28,89,219 // vmulps %ymm11,%ymm12,%ymm11
.byte 196,65,36,94,222 // vdivps %ymm14,%ymm11,%ymm11
.byte 196,99,37,74,225,240 // vblendvps %ymm15,%ymm1,%ymm11,%ymm12
- .byte 196,98,125,24,45,250,28,3,0 // vbroadcastss 0x31cfa(%rip),%ymm13 # 329e8 <_sk_srcover_rgba_8888_sse2_lowp+0x8a8>
- .byte 196,98,125,24,53,245,28,3,0 // vbroadcastss 0x31cf5(%rip),%ymm14 # 329ec <_sk_srcover_rgba_8888_sse2_lowp+0x8ac>
+ .byte 196,98,125,24,45,26,29,3,0 // vbroadcastss 0x31d1a(%rip),%ymm13 # 32a08 <_sk_srcover_rgba_8888_sse2_lowp+0x8ac>
+ .byte 196,98,125,24,53,21,29,3,0 // vbroadcastss 0x31d15(%rip),%ymm14 # 32a0c <_sk_srcover_rgba_8888_sse2_lowp+0x8b0>
.byte 196,65,84,89,254 // vmulps %ymm14,%ymm5,%ymm15
.byte 196,66,93,184,253 // vfmadd231ps %ymm13,%ymm4,%ymm15
- .byte 98,226,125,40,24,5,229,28,3,0 // vbroadcastss 0x31ce5(%rip),%ymm16 # 329f0 <_sk_srcover_rgba_8888_sse2_lowp+0x8b0>
+ .byte 98,226,125,40,24,5,5,29,3,0 // vbroadcastss 0x31d05(%rip),%ymm16 # 32a10 <_sk_srcover_rgba_8888_sse2_lowp+0x8b4>
.byte 98,50,77,40,184,248 // vfmadd231ps %ymm16,%ymm6,%ymm15
.byte 196,65,44,89,222 // vmulps %ymm14,%ymm10,%ymm11
.byte 196,66,53,184,221 // vfmadd231ps %ymm13,%ymm9,%ymm11
@@ -10315,7 +10321,7 @@ _sk_hue_skx:
.byte 196,65,12,88,219 // vaddps %ymm11,%ymm14,%ymm11
.byte 196,67,45,74,203,144 // vblendvps %ymm9,%ymm11,%ymm10,%ymm9
.byte 197,52,95,201 // vmaxps %ymm1,%ymm9,%ymm9
- .byte 196,226,125,24,13,129,27,3,0 // vbroadcastss 0x31b81(%rip),%ymm1 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 196,226,125,24,13,161,27,3,0 // vbroadcastss 0x31ba1(%rip),%ymm1 # 329e8 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 197,116,92,215 // vsubps %ymm7,%ymm1,%ymm10
.byte 197,172,89,192 // vmulps %ymm0,%ymm10,%ymm0
.byte 197,116,92,219 // vsubps %ymm3,%ymm1,%ymm11
@@ -10367,11 +10373,11 @@ _sk_saturation_skx:
.byte 196,65,28,89,219 // vmulps %ymm11,%ymm12,%ymm11
.byte 196,65,36,94,222 // vdivps %ymm14,%ymm11,%ymm11
.byte 196,99,37,74,225,240 // vblendvps %ymm15,%ymm1,%ymm11,%ymm12
- .byte 196,98,125,24,45,182,26,3,0 // vbroadcastss 0x31ab6(%rip),%ymm13 # 329e8 <_sk_srcover_rgba_8888_sse2_lowp+0x8a8>
- .byte 196,98,125,24,53,177,26,3,0 // vbroadcastss 0x31ab1(%rip),%ymm14 # 329ec <_sk_srcover_rgba_8888_sse2_lowp+0x8ac>
+ .byte 196,98,125,24,45,214,26,3,0 // vbroadcastss 0x31ad6(%rip),%ymm13 # 32a08 <_sk_srcover_rgba_8888_sse2_lowp+0x8ac>
+ .byte 196,98,125,24,53,209,26,3,0 // vbroadcastss 0x31ad1(%rip),%ymm14 # 32a0c <_sk_srcover_rgba_8888_sse2_lowp+0x8b0>
.byte 196,65,84,89,254 // vmulps %ymm14,%ymm5,%ymm15
.byte 196,66,93,184,253 // vfmadd231ps %ymm13,%ymm4,%ymm15
- .byte 98,226,125,40,24,5,161,26,3,0 // vbroadcastss 0x31aa1(%rip),%ymm16 # 329f0 <_sk_srcover_rgba_8888_sse2_lowp+0x8b0>
+ .byte 98,226,125,40,24,5,193,26,3,0 // vbroadcastss 0x31ac1(%rip),%ymm16 # 32a10 <_sk_srcover_rgba_8888_sse2_lowp+0x8b4>
.byte 98,50,77,40,184,248 // vfmadd231ps %ymm16,%ymm6,%ymm15
.byte 196,65,44,89,222 // vmulps %ymm14,%ymm10,%ymm11
.byte 196,66,53,184,221 // vfmadd231ps %ymm13,%ymm9,%ymm11
@@ -10428,7 +10434,7 @@ _sk_saturation_skx:
.byte 196,65,12,88,219 // vaddps %ymm11,%ymm14,%ymm11
.byte 196,67,45,74,203,144 // vblendvps %ymm9,%ymm11,%ymm10,%ymm9
.byte 197,52,95,201 // vmaxps %ymm1,%ymm9,%ymm9
- .byte 196,226,125,24,13,61,25,3,0 // vbroadcastss 0x3193d(%rip),%ymm1 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 196,226,125,24,13,93,25,3,0 // vbroadcastss 0x3195d(%rip),%ymm1 # 329e8 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 197,116,92,215 // vsubps %ymm7,%ymm1,%ymm10
.byte 197,172,89,192 // vmulps %ymm0,%ymm10,%ymm0
.byte 197,116,92,219 // vsubps %ymm3,%ymm1,%ymm11
@@ -10452,11 +10458,11 @@ _sk_color_skx:
.byte 197,124,89,199 // vmulps %ymm7,%ymm0,%ymm8
.byte 197,116,89,207 // vmulps %ymm7,%ymm1,%ymm9
.byte 197,108,89,223 // vmulps %ymm7,%ymm2,%ymm11
- .byte 196,98,125,24,37,6,25,3,0 // vbroadcastss 0x31906(%rip),%ymm12 # 329e8 <_sk_srcover_rgba_8888_sse2_lowp+0x8a8>
- .byte 196,98,125,24,45,1,25,3,0 // vbroadcastss 0x31901(%rip),%ymm13 # 329ec <_sk_srcover_rgba_8888_sse2_lowp+0x8ac>
+ .byte 196,98,125,24,37,38,25,3,0 // vbroadcastss 0x31926(%rip),%ymm12 # 32a08 <_sk_srcover_rgba_8888_sse2_lowp+0x8ac>
+ .byte 196,98,125,24,45,33,25,3,0 // vbroadcastss 0x31921(%rip),%ymm13 # 32a0c <_sk_srcover_rgba_8888_sse2_lowp+0x8b0>
.byte 196,65,84,89,245 // vmulps %ymm13,%ymm5,%ymm14
.byte 196,66,93,184,244 // vfmadd231ps %ymm12,%ymm4,%ymm14
- .byte 196,98,125,24,61,242,24,3,0 // vbroadcastss 0x318f2(%rip),%ymm15 # 329f0 <_sk_srcover_rgba_8888_sse2_lowp+0x8b0>
+ .byte 196,98,125,24,61,18,25,3,0 // vbroadcastss 0x31912(%rip),%ymm15 # 32a10 <_sk_srcover_rgba_8888_sse2_lowp+0x8b4>
.byte 196,66,77,184,247 // vfmadd231ps %ymm15,%ymm6,%ymm14
.byte 196,65,52,89,213 // vmulps %ymm13,%ymm9,%ymm10
.byte 196,66,61,184,212 // vfmadd231ps %ymm12,%ymm8,%ymm10
@@ -10514,7 +10520,7 @@ _sk_color_skx:
.byte 196,65,20,88,219 // vaddps %ymm11,%ymm13,%ymm11
.byte 196,67,53,74,203,192 // vblendvps %ymm12,%ymm11,%ymm9,%ymm9
.byte 98,49,52,40,95,202 // vmaxps %ymm18,%ymm9,%ymm9
- .byte 196,98,125,24,29,131,23,3,0 // vbroadcastss 0x31783(%rip),%ymm11 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 196,98,125,24,29,163,23,3,0 // vbroadcastss 0x317a3(%rip),%ymm11 # 329e8 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 197,36,92,231 // vsubps %ymm7,%ymm11,%ymm12
.byte 197,156,89,192 // vmulps %ymm0,%ymm12,%ymm0
.byte 197,36,92,219 // vsubps %ymm3,%ymm11,%ymm11
@@ -10538,11 +10544,11 @@ _sk_luminosity_skx:
.byte 197,100,89,196 // vmulps %ymm4,%ymm3,%ymm8
.byte 197,100,89,205 // vmulps %ymm5,%ymm3,%ymm9
.byte 197,100,89,222 // vmulps %ymm6,%ymm3,%ymm11
- .byte 196,98,125,24,37,78,23,3,0 // vbroadcastss 0x3174e(%rip),%ymm12 # 329e8 <_sk_srcover_rgba_8888_sse2_lowp+0x8a8>
- .byte 196,98,125,24,45,73,23,3,0 // vbroadcastss 0x31749(%rip),%ymm13 # 329ec <_sk_srcover_rgba_8888_sse2_lowp+0x8ac>
+ .byte 196,98,125,24,37,110,23,3,0 // vbroadcastss 0x3176e(%rip),%ymm12 # 32a08 <_sk_srcover_rgba_8888_sse2_lowp+0x8ac>
+ .byte 196,98,125,24,45,105,23,3,0 // vbroadcastss 0x31769(%rip),%ymm13 # 32a0c <_sk_srcover_rgba_8888_sse2_lowp+0x8b0>
.byte 196,65,116,89,245 // vmulps %ymm13,%ymm1,%ymm14
.byte 196,66,125,184,244 // vfmadd231ps %ymm12,%ymm0,%ymm14
- .byte 196,98,125,24,61,58,23,3,0 // vbroadcastss 0x3173a(%rip),%ymm15 # 329f0 <_sk_srcover_rgba_8888_sse2_lowp+0x8b0>
+ .byte 196,98,125,24,61,90,23,3,0 // vbroadcastss 0x3175a(%rip),%ymm15 # 32a10 <_sk_srcover_rgba_8888_sse2_lowp+0x8b4>
.byte 196,66,109,184,247 // vfmadd231ps %ymm15,%ymm2,%ymm14
.byte 196,65,52,89,213 // vmulps %ymm13,%ymm9,%ymm10
.byte 196,66,61,184,212 // vfmadd231ps %ymm12,%ymm8,%ymm10
@@ -10600,7 +10606,7 @@ _sk_luminosity_skx:
.byte 196,65,20,88,219 // vaddps %ymm11,%ymm13,%ymm11
.byte 196,67,53,74,203,192 // vblendvps %ymm12,%ymm11,%ymm9,%ymm9
.byte 98,49,52,40,95,202 // vmaxps %ymm18,%ymm9,%ymm9
- .byte 196,98,125,24,29,203,21,3,0 // vbroadcastss 0x315cb(%rip),%ymm11 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 196,98,125,24,29,235,21,3,0 // vbroadcastss 0x315eb(%rip),%ymm11 # 329e8 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 197,36,92,231 // vsubps %ymm7,%ymm11,%ymm12
.byte 197,156,89,192 // vmulps %ymm0,%ymm12,%ymm0
.byte 197,36,92,219 // vsubps %ymm3,%ymm11,%ymm11
@@ -10643,9 +10649,9 @@ _sk_srcover_rgba_8888_skx:
.byte 197,252,91,246 // vcvtdq2ps %ymm6,%ymm6
.byte 197,197,114,215,24 // vpsrld $0x18,%ymm7,%ymm7
.byte 197,252,91,255 // vcvtdq2ps %ymm7,%ymm7
- .byte 196,98,125,24,5,34,21,3,0 // vbroadcastss 0x31522(%rip),%ymm8 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 196,98,125,24,5,66,21,3,0 // vbroadcastss 0x31542(%rip),%ymm8 # 329e8 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
- .byte 196,98,125,24,13,65,21,3,0 // vbroadcastss 0x31541(%rip),%ymm9 # 329f4 <_sk_srcover_rgba_8888_sse2_lowp+0x8b4>
+ .byte 196,98,125,24,13,97,21,3,0 // vbroadcastss 0x31561(%rip),%ymm9 # 32a14 <_sk_srcover_rgba_8888_sse2_lowp+0x8b8>
.byte 196,193,124,89,193 // vmulps %ymm9,%ymm0,%ymm0
.byte 196,194,93,184,192 // vfmadd231ps %ymm8,%ymm4,%ymm0
.byte 196,193,116,89,201 // vmulps %ymm9,%ymm1,%ymm1
@@ -10777,7 +10783,7 @@ HIDDEN _sk_clamp_1_skx
.globl _sk_clamp_1_skx
FUNCTION(_sk_clamp_1_skx)
_sk_clamp_1_skx:
- .byte 196,98,125,24,5,38,19,3,0 // vbroadcastss 0x31326(%rip),%ymm8 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 196,98,125,24,5,70,19,3,0 // vbroadcastss 0x31346(%rip),%ymm8 # 329e8 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 196,193,124,93,192 // vminps %ymm8,%ymm0,%ymm0
.byte 196,193,116,93,200 // vminps %ymm8,%ymm1,%ymm1
.byte 196,193,108,93,208 // vminps %ymm8,%ymm2,%ymm2
@@ -10789,7 +10795,7 @@ HIDDEN _sk_clamp_a_skx
.globl _sk_clamp_a_skx
FUNCTION(_sk_clamp_a_skx)
_sk_clamp_a_skx:
- .byte 98,241,100,56,93,29,4,19,3,0 // vminps 0x31304(%rip){1to8},%ymm3,%ymm3 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 98,241,100,56,93,29,36,19,3,0 // vminps 0x31324(%rip){1to8},%ymm3,%ymm3 # 329e8 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 197,252,93,195 // vminps %ymm3,%ymm0,%ymm0
.byte 197,244,93,203 // vminps %ymm3,%ymm1,%ymm1
.byte 197,236,93,211 // vminps %ymm3,%ymm2,%ymm2
@@ -10800,7 +10806,7 @@ HIDDEN _sk_clamp_a_dst_skx
.globl _sk_clamp_a_dst_skx
FUNCTION(_sk_clamp_a_dst_skx)
_sk_clamp_a_dst_skx:
- .byte 98,241,68,56,93,61,234,18,3,0 // vminps 0x312ea(%rip){1to8},%ymm7,%ymm7 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 98,241,68,56,93,61,10,19,3,0 // vminps 0x3130a(%rip){1to8},%ymm7,%ymm7 # 329e8 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 197,220,93,231 // vminps %ymm7,%ymm4,%ymm4
.byte 197,212,93,239 // vminps %ymm7,%ymm5,%ymm5
.byte 197,204,93,247 // vminps %ymm7,%ymm6,%ymm6
@@ -10832,7 +10838,7 @@ HIDDEN _sk_invert_skx
.globl _sk_invert_skx
FUNCTION(_sk_invert_skx)
_sk_invert_skx:
- .byte 196,98,125,24,5,170,18,3,0 // vbroadcastss 0x312aa(%rip),%ymm8 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 196,98,125,24,5,202,18,3,0 // vbroadcastss 0x312ca(%rip),%ymm8 # 329e8 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 197,188,92,192 // vsubps %ymm0,%ymm8,%ymm0
.byte 197,188,92,201 // vsubps %ymm1,%ymm8,%ymm1
.byte 197,188,92,210 // vsubps %ymm2,%ymm8,%ymm2
@@ -10886,11 +10892,11 @@ HIDDEN _sk_unpremul_skx
.globl _sk_unpremul_skx
FUNCTION(_sk_unpremul_skx)
_sk_unpremul_skx:
- .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
- .byte 98,209,100,40,194,192,0 // vcmpeqps %ymm8,%ymm3,%k0
+ .byte 196,98,125,24,5,101,18,3,0 // vbroadcastss 0x31265(%rip),%ymm8 # 329e8 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+ .byte 197,60,94,195 // vdivps %ymm3,%ymm8,%ymm8
+ .byte 98,241,60,56,194,5,134,18,3,0,1 // vcmpltps 0x31286(%rip){1to8},%ymm8,%k0 # 32a18 <_sk_srcover_rgba_8888_sse2_lowp+0x8bc>
.byte 98,114,126,40,56,200 // vpmovm2d %k0,%ymm9
- .byte 196,98,125,24,21,51,18,3,0 // vbroadcastss 0x31233(%rip),%ymm10 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
- .byte 197,44,94,211 // vdivps %ymm3,%ymm10,%ymm10
+ .byte 196,65,44,87,210 // vxorps %ymm10,%ymm10,%ymm10
.byte 196,67,45,74,192,144 // vblendvps %ymm9,%ymm8,%ymm10,%ymm8
.byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
.byte 197,188,89,201 // vmulps %ymm1,%ymm8,%ymm1
@@ -10902,16 +10908,16 @@ HIDDEN _sk_from_srgb_skx
.globl _sk_from_srgb_skx
FUNCTION(_sk_from_srgb_skx)
_sk_from_srgb_skx:
- .byte 196,98,125,24,5,64,18,3,0 // vbroadcastss 0x31240(%rip),%ymm8 # 329f8 <_sk_srcover_rgba_8888_sse2_lowp+0x8b8>
+ .byte 196,98,125,24,5,96,18,3,0 // vbroadcastss 0x31260(%rip),%ymm8 # 32a1c <_sk_srcover_rgba_8888_sse2_lowp+0x8c0>
.byte 196,65,124,89,200 // vmulps %ymm8,%ymm0,%ymm9
.byte 197,124,89,208 // vmulps %ymm0,%ymm0,%ymm10
- .byte 196,98,125,24,29,50,18,3,0 // vbroadcastss 0x31232(%rip),%ymm11 # 329fc <_sk_srcover_rgba_8888_sse2_lowp+0x8bc>
- .byte 196,98,125,24,37,21,18,3,0 // vbroadcastss 0x31215(%rip),%ymm12 # 329e8 <_sk_srcover_rgba_8888_sse2_lowp+0x8a8>
+ .byte 196,98,125,24,29,82,18,3,0 // vbroadcastss 0x31252(%rip),%ymm11 # 32a20 <_sk_srcover_rgba_8888_sse2_lowp+0x8c4>
+ .byte 196,98,125,24,37,49,18,3,0 // vbroadcastss 0x31231(%rip),%ymm12 # 32a08 <_sk_srcover_rgba_8888_sse2_lowp+0x8ac>
.byte 196,65,124,40,236 // vmovaps %ymm12,%ymm13
.byte 196,66,125,168,235 // vfmadd213ps %ymm11,%ymm0,%ymm13
- .byte 196,98,125,24,53,26,18,3,0 // vbroadcastss 0x3121a(%rip),%ymm14 # 32a00 <_sk_srcover_rgba_8888_sse2_lowp+0x8c0>
+ .byte 196,98,125,24,53,58,18,3,0 // vbroadcastss 0x3123a(%rip),%ymm14 # 32a24 <_sk_srcover_rgba_8888_sse2_lowp+0x8c8>
.byte 196,66,45,168,238 // vfmadd213ps %ymm14,%ymm10,%ymm13
- .byte 196,98,125,24,21,16,18,3,0 // vbroadcastss 0x31210(%rip),%ymm10 # 32a04 <_sk_srcover_rgba_8888_sse2_lowp+0x8c4>
+ .byte 196,98,125,24,21,48,18,3,0 // vbroadcastss 0x31230(%rip),%ymm10 # 32a28 <_sk_srcover_rgba_8888_sse2_lowp+0x8cc>
.byte 98,209,124,40,194,194,1 // vcmpltps %ymm10,%ymm0,%k0
.byte 98,242,126,40,56,192 // vpmovm2d %k0,%ymm0
.byte 196,195,21,74,193,0 // vblendvps %ymm0,%ymm9,%ymm13,%ymm0
@@ -10937,16 +10943,16 @@ HIDDEN _sk_from_srgb_dst_skx
.globl _sk_from_srgb_dst_skx
FUNCTION(_sk_from_srgb_dst_skx)
_sk_from_srgb_dst_skx:
- .byte 196,98,125,24,5,147,17,3,0 // vbroadcastss 0x31193(%rip),%ymm8 # 329f8 <_sk_srcover_rgba_8888_sse2_lowp+0x8b8>
+ .byte 196,98,125,24,5,179,17,3,0 // vbroadcastss 0x311b3(%rip),%ymm8 # 32a1c <_sk_srcover_rgba_8888_sse2_lowp+0x8c0>
.byte 196,65,92,89,200 // vmulps %ymm8,%ymm4,%ymm9
.byte 197,92,89,212 // vmulps %ymm4,%ymm4,%ymm10
- .byte 196,98,125,24,29,133,17,3,0 // vbroadcastss 0x31185(%rip),%ymm11 # 329fc <_sk_srcover_rgba_8888_sse2_lowp+0x8bc>
- .byte 196,98,125,24,37,104,17,3,0 // vbroadcastss 0x31168(%rip),%ymm12 # 329e8 <_sk_srcover_rgba_8888_sse2_lowp+0x8a8>
+ .byte 196,98,125,24,29,165,17,3,0 // vbroadcastss 0x311a5(%rip),%ymm11 # 32a20 <_sk_srcover_rgba_8888_sse2_lowp+0x8c4>
+ .byte 196,98,125,24,37,132,17,3,0 // vbroadcastss 0x31184(%rip),%ymm12 # 32a08 <_sk_srcover_rgba_8888_sse2_lowp+0x8ac>
.byte 196,65,124,40,236 // vmovaps %ymm12,%ymm13
.byte 196,66,93,168,235 // vfmadd213ps %ymm11,%ymm4,%ymm13
- .byte 196,98,125,24,53,109,17,3,0 // vbroadcastss 0x3116d(%rip),%ymm14 # 32a00 <_sk_srcover_rgba_8888_sse2_lowp+0x8c0>
+ .byte 196,98,125,24,53,141,17,3,0 // vbroadcastss 0x3118d(%rip),%ymm14 # 32a24 <_sk_srcover_rgba_8888_sse2_lowp+0x8c8>
.byte 196,66,45,168,238 // vfmadd213ps %ymm14,%ymm10,%ymm13
- .byte 196,98,125,24,21,99,17,3,0 // vbroadcastss 0x31163(%rip),%ymm10 # 32a04 <_sk_srcover_rgba_8888_sse2_lowp+0x8c4>
+ .byte 196,98,125,24,21,131,17,3,0 // vbroadcastss 0x31183(%rip),%ymm10 # 32a28 <_sk_srcover_rgba_8888_sse2_lowp+0x8cc>
.byte 98,209,92,40,194,194,1 // vcmpltps %ymm10,%ymm4,%k0
.byte 98,242,126,40,56,224 // vpmovm2d %k0,%ymm4
.byte 196,195,21,74,225,64 // vblendvps %ymm4,%ymm9,%ymm13,%ymm4
@@ -10973,19 +10979,19 @@ HIDDEN _sk_to_srgb_skx
FUNCTION(_sk_to_srgb_skx)
_sk_to_srgb_skx:
.byte 98,114,125,40,78,192 // vrsqrt14ps %ymm0,%ymm8
- .byte 196,98,125,24,13,240,16,3,0 // vbroadcastss 0x310f0(%rip),%ymm9 # 32a08 <_sk_srcover_rgba_8888_sse2_lowp+0x8c8>
+ .byte 196,98,125,24,13,16,17,3,0 // vbroadcastss 0x31110(%rip),%ymm9 # 32a2c <_sk_srcover_rgba_8888_sse2_lowp+0x8d0>
.byte 196,65,124,89,209 // vmulps %ymm9,%ymm0,%ymm10
- .byte 196,98,125,24,29,230,16,3,0 // vbroadcastss 0x310e6(%rip),%ymm11 # 32a0c <_sk_srcover_rgba_8888_sse2_lowp+0x8cc>
- .byte 196,98,125,24,37,225,16,3,0 // vbroadcastss 0x310e1(%rip),%ymm12 # 32a10 <_sk_srcover_rgba_8888_sse2_lowp+0x8d0>
+ .byte 196,98,125,24,29,6,17,3,0 // vbroadcastss 0x31106(%rip),%ymm11 # 32a30 <_sk_srcover_rgba_8888_sse2_lowp+0x8d4>
+ .byte 196,98,125,24,37,1,17,3,0 // vbroadcastss 0x31101(%rip),%ymm12 # 32a34 <_sk_srcover_rgba_8888_sse2_lowp+0x8d8>
.byte 196,65,124,40,236 // vmovaps %ymm12,%ymm13
.byte 196,66,61,168,235 // vfmadd213ps %ymm11,%ymm8,%ymm13
- .byte 196,98,125,24,53,210,16,3,0 // vbroadcastss 0x310d2(%rip),%ymm14 # 32a14 <_sk_srcover_rgba_8888_sse2_lowp+0x8d4>
+ .byte 196,98,125,24,53,242,16,3,0 // vbroadcastss 0x310f2(%rip),%ymm14 # 32a38 <_sk_srcover_rgba_8888_sse2_lowp+0x8dc>
.byte 196,66,61,168,238 // vfmadd213ps %ymm14,%ymm8,%ymm13
- .byte 196,98,125,24,61,200,16,3,0 // vbroadcastss 0x310c8(%rip),%ymm15 # 32a18 <_sk_srcover_rgba_8888_sse2_lowp+0x8d8>
+ .byte 196,98,125,24,61,232,16,3,0 // vbroadcastss 0x310e8(%rip),%ymm15 # 32a3c <_sk_srcover_rgba_8888_sse2_lowp+0x8e0>
.byte 196,65,60,88,199 // vaddps %ymm15,%ymm8,%ymm8
.byte 98,82,125,40,76,192 // vrcp14ps %ymm8,%ymm8
.byte 196,65,20,89,192 // vmulps %ymm8,%ymm13,%ymm8
- .byte 196,98,125,24,45,179,16,3,0 // vbroadcastss 0x310b3(%rip),%ymm13 # 32a1c <_sk_srcover_rgba_8888_sse2_lowp+0x8dc>
+ .byte 196,98,125,24,45,211,16,3,0 // vbroadcastss 0x310d3(%rip),%ymm13 # 32a40 <_sk_srcover_rgba_8888_sse2_lowp+0x8e4>
.byte 98,209,124,40,194,197,1 // vcmpltps %ymm13,%ymm0,%k0
.byte 98,242,126,40,56,192 // vpmovm2d %k0,%ymm0
.byte 196,195,61,74,194,0 // vblendvps %ymm0,%ymm10,%ymm8,%ymm0
@@ -11023,7 +11029,7 @@ _sk_rgb_to_hsl_skx:
.byte 197,116,93,194 // vminps %ymm2,%ymm1,%ymm8
.byte 196,65,124,93,208 // vminps %ymm8,%ymm0,%ymm10
.byte 98,193,52,40,92,194 // vsubps %ymm10,%ymm9,%ymm16
- .byte 196,98,125,24,5,168,15,3,0 // vbroadcastss 0x30fa8(%rip),%ymm8 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 196,98,125,24,5,196,15,3,0 // vbroadcastss 0x30fc4(%rip),%ymm8 # 329e8 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 98,49,60,40,94,224 // vdivps %ymm16,%ymm8,%ymm12
.byte 98,209,52,40,194,194,0 // vcmpeqps %ymm10,%ymm9,%k0
.byte 98,114,126,40,56,192 // vpmovm2d %k0,%ymm8
@@ -11032,23 +11038,23 @@ _sk_rgb_to_hsl_skx:
.byte 197,116,92,242 // vsubps %ymm2,%ymm1,%ymm14
.byte 98,241,116,40,194,194,1 // vcmpltps %ymm2,%ymm1,%k0
.byte 98,114,126,40,56,248 // vpmovm2d %k0,%ymm15
- .byte 196,98,125,24,29,198,15,3,0 // vbroadcastss 0x30fc6(%rip),%ymm11 # 32a20 <_sk_srcover_rgba_8888_sse2_lowp+0x8e0>
+ .byte 196,98,125,24,29,230,15,3,0 // vbroadcastss 0x30fe6(%rip),%ymm11 # 32a44 <_sk_srcover_rgba_8888_sse2_lowp+0x8e8>
.byte 197,196,87,255 // vxorps %ymm7,%ymm7,%ymm7
.byte 196,67,69,74,219,240 // vblendvps %ymm15,%ymm11,%ymm7,%ymm11
.byte 196,66,29,168,243 // vfmadd213ps %ymm11,%ymm12,%ymm14
.byte 98,241,52,40,194,193,0 // vcmpeqps %ymm1,%ymm9,%k0
.byte 98,114,126,40,56,216 // vpmovm2d %k0,%ymm11
.byte 197,236,92,208 // vsubps %ymm0,%ymm2,%ymm2
- .byte 196,98,125,24,61,161,15,3,0 // vbroadcastss 0x30fa1(%rip),%ymm15 # 32a24 <_sk_srcover_rgba_8888_sse2_lowp+0x8e4>
+ .byte 196,98,125,24,61,193,15,3,0 // vbroadcastss 0x30fc1(%rip),%ymm15 # 32a48 <_sk_srcover_rgba_8888_sse2_lowp+0x8ec>
.byte 196,194,29,168,215 // vfmadd213ps %ymm15,%ymm12,%ymm2
.byte 197,252,92,193 // vsubps %ymm1,%ymm0,%ymm0
- .byte 98,242,29,56,168,5,146,15,3,0 // vfmadd213ps 0x30f92(%rip){1to8},%ymm12,%ymm0 # 32a28 <_sk_srcover_rgba_8888_sse2_lowp+0x8e8>
+ .byte 98,242,29,56,168,5,178,15,3,0 // vfmadd213ps 0x30fb2(%rip){1to8},%ymm12,%ymm0 # 32a4c <_sk_srcover_rgba_8888_sse2_lowp+0x8f0>
.byte 196,227,125,74,194,176 // vblendvps %ymm11,%ymm2,%ymm0,%ymm0
.byte 196,195,125,74,198,208 // vblendvps %ymm13,%ymm14,%ymm0,%ymm0
.byte 196,227,125,74,199,128 // vblendvps %ymm8,%ymm7,%ymm0,%ymm0
- .byte 98,241,124,56,89,5,122,15,3,0 // vmulps 0x30f7a(%rip){1to8},%ymm0,%ymm0 # 32a2c <_sk_srcover_rgba_8888_sse2_lowp+0x8ec>
+ .byte 98,241,124,56,89,5,154,15,3,0 // vmulps 0x30f9a(%rip){1to8},%ymm0,%ymm0 # 32a50 <_sk_srcover_rgba_8888_sse2_lowp+0x8f4>
.byte 196,193,52,88,202 // vaddps %ymm10,%ymm9,%ymm1
- .byte 196,98,125,24,29,4,15,3,0 // vbroadcastss 0x30f04(%rip),%ymm11 # 329c4 <_sk_srcover_rgba_8888_sse2_lowp+0x884>
+ .byte 196,98,125,24,29,32,15,3,0 // vbroadcastss 0x30f20(%rip),%ymm11 # 329e4 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 196,193,116,89,211 // vmulps %ymm11,%ymm1,%ymm2
.byte 98,241,36,40,194,194,1 // vcmpltps %ymm2,%ymm11,%k0
.byte 98,114,126,40,56,216 // vpmovm2d %k0,%ymm11
@@ -11067,7 +11073,7 @@ FUNCTION(_sk_hsl_to_rgb_skx)
_sk_hsl_to_rgb_skx:
.byte 98,225,124,40,40,215 // vmovaps %ymm7,%ymm18
.byte 98,225,124,40,40,230 // vmovaps %ymm6,%ymm20
- .byte 98,226,125,40,24,5,182,14,3,0 // vbroadcastss 0x30eb6(%rip),%ymm16 # 329c4 <_sk_srcover_rgba_8888_sse2_lowp+0x884>
+ .byte 98,226,125,40,24,5,210,14,3,0 // vbroadcastss 0x30ed2(%rip),%ymm16 # 329e4 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 98,241,124,32,194,194,2 // vcmpleps %ymm2,%ymm16,%k0
.byte 98,114,126,40,56,192 // vpmovm2d %k0,%ymm8
.byte 197,116,89,202 // vmulps %ymm2,%ymm1,%ymm9
@@ -11075,27 +11081,27 @@ _sk_hsl_to_rgb_skx:
.byte 196,67,53,74,194,128 // vblendvps %ymm8,%ymm10,%ymm9,%ymm8
.byte 197,60,88,218 // vaddps %ymm2,%ymm8,%ymm11
.byte 196,65,124,40,203 // vmovaps %ymm11,%ymm9
- .byte 98,114,109,56,186,13,231,14,3,0 // vfmsub231ps 0x30ee7(%rip){1to8},%ymm2,%ymm9 # 32a24 <_sk_srcover_rgba_8888_sse2_lowp+0x8e4>
+ .byte 98,114,109,56,186,13,7,15,3,0 // vfmsub231ps 0x30f07(%rip){1to8},%ymm2,%ymm9 # 32a48 <_sk_srcover_rgba_8888_sse2_lowp+0x8ec>
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 98,209,116,40,194,192,0 // vcmpeqps %ymm8,%ymm1,%k0
.byte 98,242,126,40,56,248 // vpmovm2d %k0,%ymm7
- .byte 98,241,124,56,88,13,215,14,3,0 // vaddps 0x30ed7(%rip){1to8},%ymm0,%ymm1 # 32a30 <_sk_srcover_rgba_8888_sse2_lowp+0x8f0>
+ .byte 98,241,124,56,88,13,247,14,3,0 // vaddps 0x30ef7(%rip){1to8},%ymm0,%ymm1 # 32a54 <_sk_srcover_rgba_8888_sse2_lowp+0x8f8>
.byte 196,99,125,8,193,1 // vroundps $0x1,%ymm1,%ymm8
.byte 196,193,116,92,200 // vsubps %ymm8,%ymm1,%ymm1
- .byte 98,226,125,40,24,29,198,14,3,0 // vbroadcastss 0x30ec6(%rip),%ymm19 # 32a34 <_sk_srcover_rgba_8888_sse2_lowp+0x8f4>
+ .byte 98,226,125,40,24,29,230,14,3,0 // vbroadcastss 0x30ee6(%rip),%ymm19 # 32a58 <_sk_srcover_rgba_8888_sse2_lowp+0x8fc>
.byte 98,241,100,32,194,193,2 // vcmpleps %ymm1,%ymm19,%k0
.byte 98,114,126,40,56,192 // vpmovm2d %k0,%ymm8
.byte 196,65,36,92,241 // vsubps %ymm9,%ymm11,%ymm14
- .byte 196,98,125,24,61,151,14,3,0 // vbroadcastss 0x30e97(%rip),%ymm15 # 32a20 <_sk_srcover_rgba_8888_sse2_lowp+0x8e0>
+ .byte 196,98,125,24,61,183,14,3,0 // vbroadcastss 0x30eb7(%rip),%ymm15 # 32a44 <_sk_srcover_rgba_8888_sse2_lowp+0x8e8>
.byte 196,65,116,89,231 // vmulps %ymm15,%ymm1,%ymm12
- .byte 98,226,125,40,24,13,144,14,3,0 // vbroadcastss 0x30e90(%rip),%ymm17 # 32a28 <_sk_srcover_rgba_8888_sse2_lowp+0x8e8>
+ .byte 98,226,125,40,24,13,176,14,3,0 // vbroadcastss 0x30eb0(%rip),%ymm17 # 32a4c <_sk_srcover_rgba_8888_sse2_lowp+0x8f0>
.byte 98,81,116,32,92,212 // vsubps %ymm12,%ymm17,%ymm10
.byte 196,66,13,168,209 // vfmadd213ps %ymm9,%ymm14,%ymm10
.byte 196,67,45,74,193,128 // vblendvps %ymm8,%ymm9,%ymm10,%ymm8
.byte 98,241,124,32,194,193,2 // vcmpleps %ymm1,%ymm16,%k0
.byte 98,114,126,40,56,208 // vpmovm2d %k0,%ymm10
.byte 196,67,37,74,192,160 // vblendvps %ymm10,%ymm8,%ymm11,%ymm8
- .byte 196,98,125,24,21,103,14,3,0 // vbroadcastss 0x30e67(%rip),%ymm10 # 32a2c <_sk_srcover_rgba_8888_sse2_lowp+0x8ec>
+ .byte 196,98,125,24,21,135,14,3,0 // vbroadcastss 0x30e87(%rip),%ymm10 # 32a50 <_sk_srcover_rgba_8888_sse2_lowp+0x8f4>
.byte 98,241,44,40,194,193,2 // vcmpleps %ymm1,%ymm10,%k0
.byte 98,242,126,40,56,200 // vpmovm2d %k0,%ymm1
.byte 196,66,13,168,225 // vfmadd213ps %ymm9,%ymm14,%ymm12
@@ -11117,7 +11123,7 @@ _sk_hsl_to_rgb_skx:
.byte 196,66,13,168,233 // vfmadd213ps %ymm9,%ymm14,%ymm13
.byte 196,195,21,74,200,16 // vblendvps %ymm1,%ymm8,%ymm13,%ymm1
.byte 196,227,117,74,202,112 // vblendvps %ymm7,%ymm2,%ymm1,%ymm1
- .byte 98,241,124,56,88,5,237,13,3,0 // vaddps 0x30ded(%rip){1to8},%ymm0,%ymm0 # 32a38 <_sk_srcover_rgba_8888_sse2_lowp+0x8f8>
+ .byte 98,241,124,56,88,5,13,14,3,0 // vaddps 0x30e0d(%rip){1to8},%ymm0,%ymm0 # 32a5c <_sk_srcover_rgba_8888_sse2_lowp+0x900>
.byte 196,99,125,8,192,1 // vroundps $0x1,%ymm0,%ymm8
.byte 196,193,124,92,192 // vsubps %ymm8,%ymm0,%ymm0
.byte 98,241,100,32,194,192,2 // vcmpleps %ymm0,%ymm19,%k0
@@ -11164,12 +11170,12 @@ _sk_scale_u8_skx:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,54 // jne 1d27 <_sk_scale_u8_skx+0x4e>
+ .byte 117,54 // jne 1d2b <_sk_scale_u8_skx+0x4e>
.byte 196,2,121,48,4,24 // vpmovzxbw (%r8,%r11,1),%xmm8
- .byte 197,57,219,5,97,14,3,0 // vpand 0x30e61(%rip),%xmm8,%xmm8 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xa20>
+ .byte 197,57,219,5,141,14,3,0 // vpand 0x30e8d(%rip),%xmm8,%xmm8 # 32b90 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
.byte 196,66,125,51,192 // vpmovzxwd %xmm8,%ymm8
.byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8
- .byte 98,113,60,56,89,5,41,13,3,0 // vmulps 0x30d29(%rip){1to8},%ymm8,%ymm8 # 32a3c <_sk_srcover_rgba_8888_sse2_lowp+0x8fc>
+ .byte 98,113,60,56,89,5,73,13,3,0 // vmulps 0x30d49(%rip){1to8},%ymm8,%ymm8 # 32a60 <_sk_srcover_rgba_8888_sse2_lowp+0x904>
.byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
.byte 197,188,89,201 // vmulps %ymm1,%ymm8,%ymm1
.byte 197,188,89,210 // vmulps %ymm2,%ymm8,%ymm2
@@ -11181,15 +11187,15 @@ _sk_scale_u8_skx:
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 65,128,193,255 // add $0xff,%r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,186 // ja 1cf7 <_sk_scale_u8_skx+0x1e>
+ .byte 119,186 // ja 1cfb <_sk_scale_u8_skx+0x1e>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,140,0,0,0 // lea 0x8c(%rip),%r10 # 1dd4 <_sk_scale_u8_skx+0xfb>
+ .byte 76,141,21,140,0,0,0 // lea 0x8c(%rip),%r10 # 1dd8 <_sk_scale_u8_skx+0xfb>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 67,15,182,4,24 // movzbl (%r8,%r11,1),%eax
.byte 197,121,110,192 // vmovd %eax,%xmm8
- .byte 235,155 // jmp 1cf7 <_sk_scale_u8_skx+0x1e>
+ .byte 235,155 // jmp 1cfb <_sk_scale_u8_skx+0x1e>
.byte 67,15,182,68,24,2 // movzbl 0x2(%r8,%r11,1),%eax
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 197,57,196,192,2 // vpinsrw $0x2,%eax,%xmm8,%xmm8
@@ -11197,7 +11203,7 @@ _sk_scale_u8_skx:
.byte 196,65,121,112,201,232 // vpshufd $0xe8,%xmm9,%xmm9
.byte 196,65,123,112,201,232 // vpshuflw $0xe8,%xmm9,%xmm9
.byte 196,67,57,2,193,1 // vpblendd $0x1,%xmm9,%xmm8,%xmm8
- .byte 233,110,255,255,255 // jmpq 1cf7 <_sk_scale_u8_skx+0x1e>
+ .byte 233,110,255,255,255 // jmpq 1cfb <_sk_scale_u8_skx+0x1e>
.byte 67,15,182,68,24,6 // movzbl 0x6(%r8,%r11,1),%eax
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 197,57,196,192,6 // vpinsrw $0x6,%eax,%xmm8,%xmm8
@@ -11210,9 +11216,9 @@ _sk_scale_u8_skx:
.byte 196,65,122,112,201,232 // vpshufhw $0xe8,%xmm9,%xmm9
.byte 196,65,121,112,201,232 // vpshufd $0xe8,%xmm9,%xmm9
.byte 196,67,49,2,192,12 // vpblendd $0xc,%xmm8,%xmm9,%xmm8
- .byte 233,37,255,255,255 // jmpq 1cf7 <_sk_scale_u8_skx+0x1e>
+ .byte 233,37,255,255,255 // jmpq 1cfb <_sk_scale_u8_skx+0x1e>
.byte 102,144 // xchg %ax,%ax
- .byte 125,255 // jge 1dd5 <_sk_scale_u8_skx+0xfc>
+ .byte 125,255 // jge 1dd9 <_sk_scale_u8_skx+0xfc>
.byte 255 // (bad)
.byte 255,152,255,255,255,136 // lcall *-0x77000001(%rax)
.byte 255 // (bad)
@@ -11243,18 +11249,18 @@ _sk_scale_565_skx:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,145,0,0,0 // jne 1ea0 <_sk_scale_565_skx+0xb0>
+ .byte 15,133,145,0,0,0 // jne 1ea4 <_sk_scale_565_skx+0xb0>
.byte 196,1,122,111,4,88 // vmovdqu (%r8,%r11,2),%xmm8
.byte 196,66,125,51,192 // vpmovzxwd %xmm8,%ymm8
- .byte 98,113,61,56,219,13,28,12,3,0 // vpandd 0x30c1c(%rip){1to8},%ymm8,%ymm9 # 32a40 <_sk_srcover_rgba_8888_sse2_lowp+0x900>
+ .byte 98,113,61,56,219,13,60,12,3,0 // vpandd 0x30c3c(%rip){1to8},%ymm8,%ymm9 # 32a64 <_sk_srcover_rgba_8888_sse2_lowp+0x908>
.byte 196,65,124,91,201 // vcvtdq2ps %ymm9,%ymm9
- .byte 98,113,52,56,89,13,17,12,3,0 // vmulps 0x30c11(%rip){1to8},%ymm9,%ymm9 # 32a44 <_sk_srcover_rgba_8888_sse2_lowp+0x904>
- .byte 98,113,61,56,219,21,11,12,3,0 // vpandd 0x30c0b(%rip){1to8},%ymm8,%ymm10 # 32a48 <_sk_srcover_rgba_8888_sse2_lowp+0x908>
+ .byte 98,113,52,56,89,13,49,12,3,0 // vmulps 0x30c31(%rip){1to8},%ymm9,%ymm9 # 32a68 <_sk_srcover_rgba_8888_sse2_lowp+0x90c>
+ .byte 98,113,61,56,219,21,43,12,3,0 // vpandd 0x30c2b(%rip){1to8},%ymm8,%ymm10 # 32a6c <_sk_srcover_rgba_8888_sse2_lowp+0x910>
.byte 196,65,124,91,210 // vcvtdq2ps %ymm10,%ymm10
- .byte 98,113,44,56,89,21,0,12,3,0 // vmulps 0x30c00(%rip){1to8},%ymm10,%ymm10 # 32a4c <_sk_srcover_rgba_8888_sse2_lowp+0x90c>
- .byte 98,113,61,56,219,5,250,11,3,0 // vpandd 0x30bfa(%rip){1to8},%ymm8,%ymm8 # 32a50 <_sk_srcover_rgba_8888_sse2_lowp+0x910>
+ .byte 98,113,44,56,89,21,32,12,3,0 // vmulps 0x30c20(%rip){1to8},%ymm10,%ymm10 # 32a70 <_sk_srcover_rgba_8888_sse2_lowp+0x914>
+ .byte 98,113,61,56,219,5,26,12,3,0 // vpandd 0x30c1a(%rip){1to8},%ymm8,%ymm8 # 32a74 <_sk_srcover_rgba_8888_sse2_lowp+0x918>
.byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8
- .byte 98,113,60,56,89,5,239,11,3,0 // vmulps 0x30bef(%rip){1to8},%ymm8,%ymm8 # 32a54 <_sk_srcover_rgba_8888_sse2_lowp+0x914>
+ .byte 98,113,60,56,89,5,15,12,3,0 // vmulps 0x30c0f(%rip){1to8},%ymm8,%ymm8 # 32a78 <_sk_srcover_rgba_8888_sse2_lowp+0x91c>
.byte 98,241,100,40,194,199,1 // vcmpltps %ymm7,%ymm3,%k0
.byte 98,114,126,40,56,216 // vpmovm2d %k0,%ymm11
.byte 196,65,44,93,224 // vminps %ymm8,%ymm10,%ymm12
@@ -11273,22 +11279,22 @@ _sk_scale_565_skx:
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 65,128,193,255 // add $0xff,%r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 15,135,91,255,255,255 // ja 1e15 <_sk_scale_565_skx+0x25>
+ .byte 15,135,91,255,255,255 // ja 1e19 <_sk_scale_565_skx+0x25>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,131,0,0,0 // lea 0x83(%rip),%r10 # 1f48 <_sk_scale_565_skx+0x158>
+ .byte 76,141,21,131,0,0,0 // lea 0x83(%rip),%r10 # 1f4c <_sk_scale_565_skx+0x158>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 67,15,183,4,88 // movzwl (%r8,%r11,2),%eax
.byte 197,121,110,192 // vmovd %eax,%xmm8
- .byte 233,57,255,255,255 // jmpq 1e15 <_sk_scale_565_skx+0x25>
+ .byte 233,57,255,255,255 // jmpq 1e19 <_sk_scale_565_skx+0x25>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,1,57,196,68,88,4,2 // vpinsrw $0x2,0x4(%r8,%r11,2),%xmm8,%xmm8
.byte 196,2,121,52,12,88 // vpmovzxwq (%r8,%r11,2),%xmm9
.byte 196,65,121,112,201,232 // vpshufd $0xe8,%xmm9,%xmm9
.byte 196,65,123,112,201,232 // vpshuflw $0xe8,%xmm9,%xmm9
.byte 196,67,57,2,193,1 // vpblendd $0x1,%xmm9,%xmm8,%xmm8
- .byte 233,15,255,255,255 // jmpq 1e15 <_sk_scale_565_skx+0x25>
+ .byte 233,15,255,255,255 // jmpq 1e19 <_sk_scale_565_skx+0x25>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,1,57,196,68,88,12,6 // vpinsrw $0x6,0xc(%r8,%r11,2),%xmm8,%xmm8
.byte 196,1,57,196,68,88,10,5 // vpinsrw $0x5,0xa(%r8,%r11,2),%xmm8,%xmm8
@@ -11298,7 +11304,7 @@ _sk_scale_565_skx:
.byte 196,65,122,112,201,232 // vpshufhw $0xe8,%xmm9,%xmm9
.byte 196,65,121,112,201,132 // vpshufd $0x84,%xmm9,%xmm9
.byte 196,65,49,109,192 // vpunpckhqdq %xmm8,%xmm9,%xmm8
- .byte 233,208,254,255,255 // jmpq 1e15 <_sk_scale_565_skx+0x25>
+ .byte 233,208,254,255,255 // jmpq 1e19 <_sk_scale_565_skx+0x25>
.byte 15,31,0 // nopl (%rax)
.byte 134,255 // xchg %bh,%bh
.byte 255 // (bad)
@@ -11348,12 +11354,12 @@ _sk_lerp_u8_skx:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,74 // jne 1ff5 <_sk_lerp_u8_skx+0x62>
+ .byte 117,74 // jne 1ff9 <_sk_lerp_u8_skx+0x62>
.byte 196,2,121,48,4,24 // vpmovzxbw (%r8,%r11,1),%xmm8
- .byte 197,57,219,5,167,11,3,0 // vpand 0x30ba7(%rip),%xmm8,%xmm8 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xa20>
+ .byte 197,57,219,5,211,11,3,0 // vpand 0x30bd3(%rip),%xmm8,%xmm8 # 32b90 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
.byte 196,66,125,51,192 // vpmovzxwd %xmm8,%ymm8
.byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8
- .byte 98,113,60,56,89,5,111,10,3,0 // vmulps 0x30a6f(%rip){1to8},%ymm8,%ymm8 # 32a3c <_sk_srcover_rgba_8888_sse2_lowp+0x8fc>
+ .byte 98,113,60,56,89,5,143,10,3,0 // vmulps 0x30a8f(%rip){1to8},%ymm8,%ymm8 # 32a60 <_sk_srcover_rgba_8888_sse2_lowp+0x904>
.byte 197,252,92,196 // vsubps %ymm4,%ymm0,%ymm0
.byte 196,226,61,168,196 // vfmadd213ps %ymm4,%ymm8,%ymm0
.byte 197,244,92,205 // vsubps %ymm5,%ymm1,%ymm1
@@ -11369,15 +11375,15 @@ _sk_lerp_u8_skx:
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 65,128,193,255 // add $0xff,%r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,166 // ja 1fb1 <_sk_lerp_u8_skx+0x1e>
+ .byte 119,166 // ja 1fb5 <_sk_lerp_u8_skx+0x1e>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,138,0,0,0 // lea 0x8a(%rip),%r10 # 20a0 <_sk_lerp_u8_skx+0x10d>
+ .byte 76,141,21,138,0,0,0 // lea 0x8a(%rip),%r10 # 20a4 <_sk_lerp_u8_skx+0x10d>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 67,15,182,4,24 // movzbl (%r8,%r11,1),%eax
.byte 197,121,110,192 // vmovd %eax,%xmm8
- .byte 235,135 // jmp 1fb1 <_sk_lerp_u8_skx+0x1e>
+ .byte 235,135 // jmp 1fb5 <_sk_lerp_u8_skx+0x1e>
.byte 67,15,182,68,24,2 // movzbl 0x2(%r8,%r11,1),%eax
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 197,57,196,192,2 // vpinsrw $0x2,%eax,%xmm8,%xmm8
@@ -11385,7 +11391,7 @@ _sk_lerp_u8_skx:
.byte 196,65,121,112,201,232 // vpshufd $0xe8,%xmm9,%xmm9
.byte 196,65,123,112,201,232 // vpshuflw $0xe8,%xmm9,%xmm9
.byte 196,67,57,2,193,1 // vpblendd $0x1,%xmm9,%xmm8,%xmm8
- .byte 233,90,255,255,255 // jmpq 1fb1 <_sk_lerp_u8_skx+0x1e>
+ .byte 233,90,255,255,255 // jmpq 1fb5 <_sk_lerp_u8_skx+0x1e>
.byte 67,15,182,68,24,6 // movzbl 0x6(%r8,%r11,1),%eax
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 197,57,196,192,6 // vpinsrw $0x6,%eax,%xmm8,%xmm8
@@ -11398,8 +11404,8 @@ _sk_lerp_u8_skx:
.byte 196,65,122,112,201,232 // vpshufhw $0xe8,%xmm9,%xmm9
.byte 196,65,121,112,201,232 // vpshufd $0xe8,%xmm9,%xmm9
.byte 196,67,49,2,192,12 // vpblendd $0xc,%xmm8,%xmm9,%xmm8
- .byte 233,17,255,255,255 // jmpq 1fb1 <_sk_lerp_u8_skx+0x1e>
- .byte 127,255 // jg 20a1 <_sk_lerp_u8_skx+0x10e>
+ .byte 233,17,255,255,255 // jmpq 1fb5 <_sk_lerp_u8_skx+0x1e>
+ .byte 127,255 // jg 20a5 <_sk_lerp_u8_skx+0x10e>
.byte 255 // (bad)
.byte 255,154,255,255,255,138 // lcall *-0x75000001(%rdx)
.byte 255 // (bad)
@@ -11430,18 +11436,18 @@ _sk_lerp_565_skx:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,165,0,0,0 // jne 2180 <_sk_lerp_565_skx+0xc4>
+ .byte 15,133,165,0,0,0 // jne 2184 <_sk_lerp_565_skx+0xc4>
.byte 196,1,122,111,4,88 // vmovdqu (%r8,%r11,2),%xmm8
.byte 196,66,125,51,192 // vpmovzxwd %xmm8,%ymm8
- .byte 98,113,61,56,219,13,80,9,3,0 // vpandd 0x30950(%rip){1to8},%ymm8,%ymm9 # 32a40 <_sk_srcover_rgba_8888_sse2_lowp+0x900>
+ .byte 98,113,61,56,219,13,112,9,3,0 // vpandd 0x30970(%rip){1to8},%ymm8,%ymm9 # 32a64 <_sk_srcover_rgba_8888_sse2_lowp+0x908>
.byte 196,65,124,91,201 // vcvtdq2ps %ymm9,%ymm9
- .byte 98,113,52,56,89,13,69,9,3,0 // vmulps 0x30945(%rip){1to8},%ymm9,%ymm9 # 32a44 <_sk_srcover_rgba_8888_sse2_lowp+0x904>
- .byte 98,113,61,56,219,21,63,9,3,0 // vpandd 0x3093f(%rip){1to8},%ymm8,%ymm10 # 32a48 <_sk_srcover_rgba_8888_sse2_lowp+0x908>
+ .byte 98,113,52,56,89,13,101,9,3,0 // vmulps 0x30965(%rip){1to8},%ymm9,%ymm9 # 32a68 <_sk_srcover_rgba_8888_sse2_lowp+0x90c>
+ .byte 98,113,61,56,219,21,95,9,3,0 // vpandd 0x3095f(%rip){1to8},%ymm8,%ymm10 # 32a6c <_sk_srcover_rgba_8888_sse2_lowp+0x910>
.byte 196,65,124,91,210 // vcvtdq2ps %ymm10,%ymm10
- .byte 98,113,44,56,89,21,52,9,3,0 // vmulps 0x30934(%rip){1to8},%ymm10,%ymm10 # 32a4c <_sk_srcover_rgba_8888_sse2_lowp+0x90c>
- .byte 98,113,61,56,219,5,46,9,3,0 // vpandd 0x3092e(%rip){1to8},%ymm8,%ymm8 # 32a50 <_sk_srcover_rgba_8888_sse2_lowp+0x910>
+ .byte 98,113,44,56,89,21,84,9,3,0 // vmulps 0x30954(%rip){1to8},%ymm10,%ymm10 # 32a70 <_sk_srcover_rgba_8888_sse2_lowp+0x914>
+ .byte 98,113,61,56,219,5,78,9,3,0 // vpandd 0x3094e(%rip){1to8},%ymm8,%ymm8 # 32a74 <_sk_srcover_rgba_8888_sse2_lowp+0x918>
.byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8
- .byte 98,113,60,56,89,5,35,9,3,0 // vmulps 0x30923(%rip){1to8},%ymm8,%ymm8 # 32a54 <_sk_srcover_rgba_8888_sse2_lowp+0x914>
+ .byte 98,113,60,56,89,5,67,9,3,0 // vmulps 0x30943(%rip){1to8},%ymm8,%ymm8 # 32a78 <_sk_srcover_rgba_8888_sse2_lowp+0x91c>
.byte 98,241,100,40,194,199,1 // vcmpltps %ymm7,%ymm3,%k0
.byte 98,114,126,40,56,216 // vpmovm2d %k0,%ymm11
.byte 196,65,44,93,224 // vminps %ymm8,%ymm10,%ymm12
@@ -11464,22 +11470,22 @@ _sk_lerp_565_skx:
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 65,128,193,255 // add $0xff,%r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 15,135,71,255,255,255 // ja 20e1 <_sk_lerp_565_skx+0x25>
+ .byte 15,135,71,255,255,255 // ja 20e5 <_sk_lerp_565_skx+0x25>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,131,0,0,0 // lea 0x83(%rip),%r10 # 2228 <_sk_lerp_565_skx+0x16c>
+ .byte 76,141,21,131,0,0,0 // lea 0x83(%rip),%r10 # 222c <_sk_lerp_565_skx+0x16c>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 67,15,183,4,88 // movzwl (%r8,%r11,2),%eax
.byte 197,121,110,192 // vmovd %eax,%xmm8
- .byte 233,37,255,255,255 // jmpq 20e1 <_sk_lerp_565_skx+0x25>
+ .byte 233,37,255,255,255 // jmpq 20e5 <_sk_lerp_565_skx+0x25>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,1,57,196,68,88,4,2 // vpinsrw $0x2,0x4(%r8,%r11,2),%xmm8,%xmm8
.byte 196,2,121,52,12,88 // vpmovzxwq (%r8,%r11,2),%xmm9
.byte 196,65,121,112,201,232 // vpshufd $0xe8,%xmm9,%xmm9
.byte 196,65,123,112,201,232 // vpshuflw $0xe8,%xmm9,%xmm9
.byte 196,67,57,2,193,1 // vpblendd $0x1,%xmm9,%xmm8,%xmm8
- .byte 233,251,254,255,255 // jmpq 20e1 <_sk_lerp_565_skx+0x25>
+ .byte 233,251,254,255,255 // jmpq 20e5 <_sk_lerp_565_skx+0x25>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,1,57,196,68,88,12,6 // vpinsrw $0x6,0xc(%r8,%r11,2),%xmm8,%xmm8
.byte 196,1,57,196,68,88,10,5 // vpinsrw $0x5,0xa(%r8,%r11,2),%xmm8,%xmm8
@@ -11489,7 +11495,7 @@ _sk_lerp_565_skx:
.byte 196,65,122,112,201,232 // vpshufhw $0xe8,%xmm9,%xmm9
.byte 196,65,121,112,201,132 // vpshufd $0x84,%xmm9,%xmm9
.byte 196,65,49,109,192 // vpunpckhqdq %xmm8,%xmm9,%xmm8
- .byte 233,188,254,255,255 // jmpq 20e1 <_sk_lerp_565_skx+0x25>
+ .byte 233,188,254,255,255 // jmpq 20e5 <_sk_lerp_565_skx+0x25>
.byte 15,31,0 // nopl (%rax)
.byte 134,255 // xchg %bh,%bh
.byte 255 // (bad)
@@ -11518,7 +11524,7 @@ _sk_load_tables_skx:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 76,139,0 // mov (%rax),%r8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,124 // jne 22ca <_sk_load_tables_skx+0x86>
+ .byte 117,124 // jne 22ce <_sk_load_tables_skx+0x86>
.byte 196,193,126,111,28,144 // vmovdqu (%r8,%rdx,4),%ymm3
.byte 65,184,17,17,17,17 // mov $0x11111111,%r8d
.byte 196,193,123,146,200 // kmovd %r8d,%k1
@@ -11541,7 +11547,7 @@ _sk_load_tables_skx:
.byte 196,162,61,146,20,136 // vgatherdps %ymm8,(%rax,%ymm9,4),%ymm2
.byte 197,229,114,211,24 // vpsrld $0x18,%ymm3,%ymm3
.byte 197,252,91,219 // vcvtdq2ps %ymm3,%ymm3
- .byte 98,241,100,56,89,29,118,7,3,0 // vmulps 0x30776(%rip){1to8},%ymm3,%ymm3 # 32a3c <_sk_srcover_rgba_8888_sse2_lowp+0x8fc>
+ .byte 98,241,100,56,89,29,150,7,3,0 // vmulps 0x30796(%rip){1to8},%ymm3,%ymm3 # 32a60 <_sk_srcover_rgba_8888_sse2_lowp+0x904>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
.byte 65,137,249 // mov %edi,%r9d
@@ -11549,14 +11555,14 @@ _sk_load_tables_skx:
.byte 197,229,239,219 // vpxor %ymm3,%ymm3,%ymm3
.byte 65,128,193,255 // add $0xff,%r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 15,135,113,255,255,255 // ja 2254 <_sk_load_tables_skx+0x10>
+ .byte 15,135,113,255,255,255 // ja 2258 <_sk_load_tables_skx+0x10>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,142,0,0,0 // lea 0x8e(%rip),%r10 # 237c <_sk_load_tables_skx+0x138>
+ .byte 76,141,21,142,0,0,0 // lea 0x8e(%rip),%r10 # 2380 <_sk_load_tables_skx+0x138>
.byte 79,99,12,138 // movslq (%r10,%r9,4),%r9
.byte 77,1,209 // add %r10,%r9
.byte 65,255,225 // jmpq *%r9
.byte 196,193,121,110,28,144 // vmovd (%r8,%rdx,4),%xmm3
- .byte 233,81,255,255,255 // jmpq 2254 <_sk_load_tables_skx+0x10>
+ .byte 233,81,255,255,255 // jmpq 2258 <_sk_load_tables_skx+0x10>
.byte 196,193,121,110,68,144,8 // vmovd 0x8(%r8,%rdx,4),%xmm0
.byte 65,177,4 // mov $0x4,%r9b
.byte 196,193,123,146,201 // kmovd %r9d,%k1
@@ -11564,7 +11570,7 @@ _sk_load_tables_skx:
.byte 196,194,121,53,4,144 // vpmovzxdq (%r8,%rdx,4),%xmm0
.byte 197,249,112,192,232 // vpshufd $0xe8,%xmm0,%xmm0
.byte 196,227,101,2,216,3 // vpblendd $0x3,%ymm0,%ymm3,%ymm3
- .byte 233,38,255,255,255 // jmpq 2254 <_sk_load_tables_skx+0x10>
+ .byte 233,38,255,255,255 // jmpq 2258 <_sk_load_tables_skx+0x10>
.byte 196,193,121,110,68,144,24 // vmovd 0x18(%r8,%rdx,4),%xmm0
.byte 65,177,64 // mov $0x40,%r9b
.byte 196,193,123,146,201 // kmovd %r9d,%k1
@@ -11577,8 +11583,8 @@ _sk_load_tables_skx:
.byte 196,227,101,56,216,1 // vinserti128 $0x1,%xmm0,%ymm3,%ymm3
.byte 196,193,122,111,4,144 // vmovdqu (%r8,%rdx,4),%xmm0
.byte 196,227,125,2,219,240 // vpblendd $0xf0,%ymm3,%ymm0,%ymm3
- .byte 233,216,254,255,255 // jmpq 2254 <_sk_load_tables_skx+0x10>
- .byte 124,255 // jl 237d <_sk_load_tables_skx+0x139>
+ .byte 233,216,254,255,255 // jmpq 2258 <_sk_load_tables_skx+0x10>
+ .byte 124,255 // jl 2381 <_sk_load_tables_skx+0x139>
.byte 255 // (bad)
.byte 255,156,255,255,255,135,255 // lcall *-0x780001(%rdi,%rdi,8)
.byte 255 // (bad)
@@ -11605,7 +11611,7 @@ _sk_load_tables_u16_be_skx:
.byte 76,139,0 // mov (%rax),%r8
.byte 76,141,12,149,0,0,0,0 // lea 0x0(,%rdx,4),%r9
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,210,0,0,0 // jne 2480 <_sk_load_tables_u16_be_skx+0xe8>
+ .byte 15,133,210,0,0,0 // jne 2484 <_sk_load_tables_u16_be_skx+0xe8>
.byte 196,1,121,16,4,72 // vmovupd (%r8,%r9,2),%xmm8
.byte 196,129,121,16,84,72,16 // vmovupd 0x10(%r8,%r9,2),%xmm2
.byte 196,129,121,16,92,72,32 // vmovupd 0x20(%r8,%r9,2),%xmm3
@@ -11620,7 +11626,7 @@ _sk_load_tables_u16_be_skx:
.byte 197,113,105,219 // vpunpckhwd %xmm3,%xmm1,%xmm11
.byte 197,185,108,200 // vpunpcklqdq %xmm0,%xmm8,%xmm1
.byte 197,57,109,192 // vpunpckhqdq %xmm0,%xmm8,%xmm8
- .byte 197,121,111,21,101,7,3,0 // vmovdqa 0x30765(%rip),%xmm10 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xa20>
+ .byte 197,121,111,21,145,7,3,0 // vmovdqa 0x30791(%rip),%xmm10 # 32b90 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
.byte 196,193,113,219,194 // vpand %xmm10,%xmm1,%xmm0
.byte 196,226,125,51,200 // vpmovzxwd %xmm0,%ymm1
.byte 76,139,64,8 // mov 0x8(%rax),%r8
@@ -11646,35 +11652,35 @@ _sk_load_tables_u16_be_skx:
.byte 197,185,235,219 // vpor %xmm3,%xmm8,%xmm3
.byte 196,226,125,51,219 // vpmovzxwd %xmm3,%ymm3
.byte 197,252,91,219 // vcvtdq2ps %ymm3,%ymm3
- .byte 98,241,100,56,89,29,220,5,3,0 // vmulps 0x305dc(%rip){1to8},%ymm3,%ymm3 # 32a58 <_sk_srcover_rgba_8888_sse2_lowp+0x918>
+ .byte 98,241,100,56,89,29,252,5,3,0 // vmulps 0x305fc(%rip){1to8},%ymm3,%ymm3 # 32a7c <_sk_srcover_rgba_8888_sse2_lowp+0x920>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
.byte 196,1,123,16,4,72 // vmovsd (%r8,%r9,2),%xmm8
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 116,85 // je 24e6 <_sk_load_tables_u16_be_skx+0x14e>
+ .byte 116,85 // je 24ea <_sk_load_tables_u16_be_skx+0x14e>
.byte 196,1,57,22,68,72,8 // vmovhpd 0x8(%r8,%r9,2),%xmm8,%xmm8
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,72 // jb 24e6 <_sk_load_tables_u16_be_skx+0x14e>
+ .byte 114,72 // jb 24ea <_sk_load_tables_u16_be_skx+0x14e>
.byte 196,129,123,16,84,72,16 // vmovsd 0x10(%r8,%r9,2),%xmm2
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 116,72 // je 24f3 <_sk_load_tables_u16_be_skx+0x15b>
+ .byte 116,72 // je 24f7 <_sk_load_tables_u16_be_skx+0x15b>
.byte 196,129,105,22,84,72,24 // vmovhpd 0x18(%r8,%r9,2),%xmm2,%xmm2
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 114,59 // jb 24f3 <_sk_load_tables_u16_be_skx+0x15b>
+ .byte 114,59 // jb 24f7 <_sk_load_tables_u16_be_skx+0x15b>
.byte 196,129,123,16,92,72,32 // vmovsd 0x20(%r8,%r9,2),%xmm3
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 15,132,0,255,255,255 // je 23c9 <_sk_load_tables_u16_be_skx+0x31>
+ .byte 15,132,0,255,255,255 // je 23cd <_sk_load_tables_u16_be_skx+0x31>
.byte 196,129,97,22,92,72,40 // vmovhpd 0x28(%r8,%r9,2),%xmm3,%xmm3
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 15,130,239,254,255,255 // jb 23c9 <_sk_load_tables_u16_be_skx+0x31>
+ .byte 15,130,239,254,255,255 // jb 23cd <_sk_load_tables_u16_be_skx+0x31>
.byte 196,1,122,126,76,72,48 // vmovq 0x30(%r8,%r9,2),%xmm9
- .byte 233,227,254,255,255 // jmpq 23c9 <_sk_load_tables_u16_be_skx+0x31>
+ .byte 233,227,254,255,255 // jmpq 23cd <_sk_load_tables_u16_be_skx+0x31>
.byte 197,225,87,219 // vxorpd %xmm3,%xmm3,%xmm3
.byte 197,233,87,210 // vxorpd %xmm2,%xmm2,%xmm2
- .byte 233,214,254,255,255 // jmpq 23c9 <_sk_load_tables_u16_be_skx+0x31>
+ .byte 233,214,254,255,255 // jmpq 23cd <_sk_load_tables_u16_be_skx+0x31>
.byte 197,225,87,219 // vxorpd %xmm3,%xmm3,%xmm3
- .byte 233,205,254,255,255 // jmpq 23c9 <_sk_load_tables_u16_be_skx+0x31>
+ .byte 233,205,254,255,255 // jmpq 23cd <_sk_load_tables_u16_be_skx+0x31>
HIDDEN _sk_load_tables_rgb_u16_be_skx
.globl _sk_load_tables_rgb_u16_be_skx
@@ -11684,7 +11690,7 @@ _sk_load_tables_rgb_u16_be_skx:
.byte 76,139,0 // mov (%rax),%r8
.byte 76,141,12,82 // lea (%rdx,%rdx,2),%r9
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,203,0,0,0 // jne 25d9 <_sk_load_tables_rgb_u16_be_skx+0xdd>
+ .byte 15,133,203,0,0,0 // jne 25dd <_sk_load_tables_rgb_u16_be_skx+0xdd>
.byte 196,1,121,16,28,72 // vmovupd (%r8,%r9,2),%xmm11
.byte 196,129,121,16,92,72,12 // vmovupd 0xc(%r8,%r9,2),%xmm3
.byte 196,129,121,16,84,72,24 // vmovupd 0x18(%r8,%r9,2),%xmm2
@@ -11703,7 +11709,7 @@ _sk_load_tables_rgb_u16_be_skx:
.byte 197,249,105,193 // vpunpckhwd %xmm1,%xmm0,%xmm0
.byte 197,105,108,200 // vpunpcklqdq %xmm0,%xmm2,%xmm9
.byte 197,185,108,195 // vpunpcklqdq %xmm3,%xmm8,%xmm0
- .byte 197,121,111,21,238,5,3,0 // vmovdqa 0x305ee(%rip),%xmm10 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xa20>
+ .byte 197,121,111,21,26,6,3,0 // vmovdqa 0x3061a(%rip),%xmm10 # 32b90 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
.byte 196,193,121,219,194 // vpand %xmm10,%xmm0,%xmm0
.byte 196,226,125,51,200 // vpmovzxwd %xmm0,%ymm1
.byte 76,139,64,8 // mov 0x8(%rax),%r8
@@ -11724,76 +11730,76 @@ _sk_load_tables_rgb_u16_be_skx:
.byte 196,226,125,51,219 // vpmovzxwd %xmm3,%ymm3
.byte 196,226,29,146,20,152 // vgatherdps %ymm12,(%rax,%ymm3,4),%ymm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,241,3,3,0 // vbroadcastss 0x303f1(%rip),%ymm3 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 196,226,125,24,29,13,4,3,0 // vbroadcastss 0x3040d(%rip),%ymm3 # 329e8 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 255,224 // jmpq *%rax
.byte 196,129,121,110,4,72 // vmovd (%r8,%r9,2),%xmm0
.byte 196,65,49,87,201 // vxorpd %xmm9,%xmm9,%xmm9
.byte 196,1,121,196,92,72,4,2 // vpinsrw $0x2,0x4(%r8,%r9,2),%xmm0,%xmm11
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 117,31 // jne 2611 <_sk_load_tables_rgb_u16_be_skx+0x115>
+ .byte 117,31 // jne 2615 <_sk_load_tables_rgb_u16_be_skx+0x115>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
.byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2
.byte 196,65,41,239,210 // vpxor %xmm10,%xmm10,%xmm10
.byte 197,225,239,219 // vpxor %xmm3,%xmm3,%xmm3
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
- .byte 233,47,255,255,255 // jmpq 2540 <_sk_load_tables_rgb_u16_be_skx+0x44>
+ .byte 233,47,255,255,255 // jmpq 2544 <_sk_load_tables_rgb_u16_be_skx+0x44>
.byte 196,129,121,110,68,72,6 // vmovd 0x6(%r8,%r9,2),%xmm0
.byte 196,65,49,87,201 // vxorpd %xmm9,%xmm9,%xmm9
.byte 196,1,121,196,68,72,10,2 // vpinsrw $0x2,0xa(%r8,%r9,2),%xmm0,%xmm8
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,48 // jb 265b <_sk_load_tables_rgb_u16_be_skx+0x15f>
+ .byte 114,48 // jb 265f <_sk_load_tables_rgb_u16_be_skx+0x15f>
.byte 196,129,121,110,68,72,12 // vmovd 0xc(%r8,%r9,2),%xmm0
.byte 196,65,49,87,201 // vxorpd %xmm9,%xmm9,%xmm9
.byte 196,129,121,196,92,72,16,2 // vpinsrw $0x2,0x10(%r8,%r9,2),%xmm0,%xmm3
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 117,48 // jne 2675 <_sk_load_tables_rgb_u16_be_skx+0x179>
+ .byte 117,48 // jne 2679 <_sk_load_tables_rgb_u16_be_skx+0x179>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
.byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2
.byte 196,65,41,239,210 // vpxor %xmm10,%xmm10,%xmm10
- .byte 233,229,254,255,255 // jmpq 2540 <_sk_load_tables_rgb_u16_be_skx+0x44>
+ .byte 233,229,254,255,255 // jmpq 2544 <_sk_load_tables_rgb_u16_be_skx+0x44>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
.byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2
.byte 196,65,41,239,210 // vpxor %xmm10,%xmm10,%xmm10
.byte 197,225,239,219 // vpxor %xmm3,%xmm3,%xmm3
- .byte 233,203,254,255,255 // jmpq 2540 <_sk_load_tables_rgb_u16_be_skx+0x44>
+ .byte 233,203,254,255,255 // jmpq 2544 <_sk_load_tables_rgb_u16_be_skx+0x44>
.byte 196,129,121,110,68,72,18 // vmovd 0x12(%r8,%r9,2),%xmm0
.byte 196,65,49,87,201 // vxorpd %xmm9,%xmm9,%xmm9
.byte 196,1,121,196,84,72,22,2 // vpinsrw $0x2,0x16(%r8,%r9,2),%xmm0,%xmm10
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 114,39 // jb 26b6 <_sk_load_tables_rgb_u16_be_skx+0x1ba>
+ .byte 114,39 // jb 26ba <_sk_load_tables_rgb_u16_be_skx+0x1ba>
.byte 196,129,121,110,68,72,24 // vmovd 0x18(%r8,%r9,2),%xmm0
.byte 196,65,49,87,201 // vxorpd %xmm9,%xmm9,%xmm9
.byte 196,129,121,196,84,72,28,2 // vpinsrw $0x2,0x1c(%r8,%r9,2),%xmm0,%xmm2
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 117,30 // jne 26c7 <_sk_load_tables_rgb_u16_be_skx+0x1cb>
+ .byte 117,30 // jne 26cb <_sk_load_tables_rgb_u16_be_skx+0x1cb>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
- .byte 233,138,254,255,255 // jmpq 2540 <_sk_load_tables_rgb_u16_be_skx+0x44>
+ .byte 233,138,254,255,255 // jmpq 2544 <_sk_load_tables_rgb_u16_be_skx+0x44>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
.byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2
- .byte 233,121,254,255,255 // jmpq 2540 <_sk_load_tables_rgb_u16_be_skx+0x44>
+ .byte 233,121,254,255,255 // jmpq 2544 <_sk_load_tables_rgb_u16_be_skx+0x44>
.byte 196,129,121,110,68,72,30 // vmovd 0x1e(%r8,%r9,2),%xmm0
.byte 196,65,49,87,201 // vxorpd %xmm9,%xmm9,%xmm9
.byte 196,129,121,196,76,72,34,2 // vpinsrw $0x2,0x22(%r8,%r9,2),%xmm0,%xmm1
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 114,25 // jb 26fa <_sk_load_tables_rgb_u16_be_skx+0x1fe>
+ .byte 114,25 // jb 26fe <_sk_load_tables_rgb_u16_be_skx+0x1fe>
.byte 196,129,121,110,68,72,36 // vmovd 0x24(%r8,%r9,2),%xmm0
.byte 196,65,49,87,201 // vxorpd %xmm9,%xmm9,%xmm9
.byte 196,129,121,196,68,72,40,2 // vpinsrw $0x2,0x28(%r8,%r9,2),%xmm0,%xmm0
- .byte 233,70,254,255,255 // jmpq 2540 <_sk_load_tables_rgb_u16_be_skx+0x44>
+ .byte 233,70,254,255,255 // jmpq 2544 <_sk_load_tables_rgb_u16_be_skx+0x44>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
- .byte 233,61,254,255,255 // jmpq 2540 <_sk_load_tables_rgb_u16_be_skx+0x44>
+ .byte 233,61,254,255,255 // jmpq 2544 <_sk_load_tables_rgb_u16_be_skx+0x44>
HIDDEN _sk_byte_tables_skx
.globl _sk_byte_tables_skx
FUNCTION(_sk_byte_tables_skx)
_sk_byte_tables_skx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,98,125,24,5,230,2,3,0 // vbroadcastss 0x302e6(%rip),%ymm8 # 329f4 <_sk_srcover_rgba_8888_sse2_lowp+0x8b4>
+ .byte 196,98,125,24,5,2,3,3,0 // vbroadcastss 0x30302(%rip),%ymm8 # 32a14 <_sk_srcover_rgba_8888_sse2_lowp+0x8b8>
.byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
.byte 197,125,91,200 // vcvtps2dq %ymm0,%ymm9
.byte 196,65,249,126,200 // vmovq %xmm9,%r8
@@ -11923,7 +11929,7 @@ _sk_byte_tables_skx:
.byte 67,15,182,4,17 // movzbl (%r9,%r10,1),%eax
.byte 196,194,125,49,193 // vpmovzxbd %xmm9,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,98,125,24,5,180,0,3,0 // vbroadcastss 0x300b4(%rip),%ymm8 # 32a3c <_sk_srcover_rgba_8888_sse2_lowp+0x8fc>
+ .byte 196,98,125,24,5,212,0,3,0 // vbroadcastss 0x300d4(%rip),%ymm8 # 32a60 <_sk_srcover_rgba_8888_sse2_lowp+0x904>
.byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
.byte 196,226,125,49,201 // vpmovzxbd %xmm1,%ymm1
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
@@ -12044,7 +12050,7 @@ _sk_byte_tables_rgb_skx:
.byte 67,15,182,4,17 // movzbl (%r9,%r10,1),%eax
.byte 196,194,125,49,193 // vpmovzxbd %xmm9,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,98,125,24,5,139,254,2,0 // vbroadcastss 0x2fe8b(%rip),%ymm8 # 32a3c <_sk_srcover_rgba_8888_sse2_lowp+0x8fc>
+ .byte 196,98,125,24,5,171,254,2,0 // vbroadcastss 0x2feab(%rip),%ymm8 # 32a60 <_sk_srcover_rgba_8888_sse2_lowp+0x904>
.byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
.byte 196,194,125,49,202 // vpmovzxbd %xmm10,%ymm1
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
@@ -12141,33 +12147,33 @@ _sk_parametric_r_skx:
.byte 98,114,125,56,168,80,2 // vfmadd213ps 0x8(%rax){1to8},%ymm0,%ymm10
.byte 196,226,125,24,0 // vbroadcastss (%rax),%ymm0
.byte 196,65,124,91,218 // vcvtdq2ps %ymm10,%ymm11
- .byte 196,98,125,24,37,127,253,2,0 // vbroadcastss 0x2fd7f(%rip),%ymm12 # 32a5c <_sk_srcover_rgba_8888_sse2_lowp+0x91c>
- .byte 98,114,37,56,168,37,125,253,2,0 // vfmadd213ps 0x2fd7d(%rip){1to8},%ymm11,%ymm12 # 32a64 <_sk_srcover_rgba_8888_sse2_lowp+0x924>
- .byte 98,113,44,56,84,21,111,253,2,0 // vandps 0x2fd6f(%rip){1to8},%ymm10,%ymm10 # 32a60 <_sk_srcover_rgba_8888_sse2_lowp+0x920>
- .byte 98,113,44,56,86,21,201,252,2,0 // vorps 0x2fcc9(%rip){1to8},%ymm10,%ymm10 # 329c4 <_sk_srcover_rgba_8888_sse2_lowp+0x884>
- .byte 98,114,45,56,188,37,99,253,2,0 // vfnmadd231ps 0x2fd63(%rip){1to8},%ymm10,%ymm12 # 32a68 <_sk_srcover_rgba_8888_sse2_lowp+0x928>
- .byte 98,113,44,56,88,21,93,253,2,0 // vaddps 0x2fd5d(%rip){1to8},%ymm10,%ymm10 # 32a6c <_sk_srcover_rgba_8888_sse2_lowp+0x92c>
- .byte 196,98,125,24,29,88,253,2,0 // vbroadcastss 0x2fd58(%rip),%ymm11 # 32a70 <_sk_srcover_rgba_8888_sse2_lowp+0x930>
+ .byte 196,98,125,24,37,159,253,2,0 // vbroadcastss 0x2fd9f(%rip),%ymm12 # 32a80 <_sk_srcover_rgba_8888_sse2_lowp+0x924>
+ .byte 98,114,37,56,168,37,157,253,2,0 // vfmadd213ps 0x2fd9d(%rip){1to8},%ymm11,%ymm12 # 32a88 <_sk_srcover_rgba_8888_sse2_lowp+0x92c>
+ .byte 98,113,44,56,84,21,143,253,2,0 // vandps 0x2fd8f(%rip){1to8},%ymm10,%ymm10 # 32a84 <_sk_srcover_rgba_8888_sse2_lowp+0x928>
+ .byte 98,113,44,56,86,21,229,252,2,0 // vorps 0x2fce5(%rip){1to8},%ymm10,%ymm10 # 329e4 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 98,114,45,56,188,37,131,253,2,0 // vfnmadd231ps 0x2fd83(%rip){1to8},%ymm10,%ymm12 # 32a8c <_sk_srcover_rgba_8888_sse2_lowp+0x930>
+ .byte 98,113,44,56,88,21,125,253,2,0 // vaddps 0x2fd7d(%rip){1to8},%ymm10,%ymm10 # 32a90 <_sk_srcover_rgba_8888_sse2_lowp+0x934>
+ .byte 196,98,125,24,29,120,253,2,0 // vbroadcastss 0x2fd78(%rip),%ymm11 # 32a94 <_sk_srcover_rgba_8888_sse2_lowp+0x938>
.byte 196,65,36,94,210 // vdivps %ymm10,%ymm11,%ymm10
.byte 196,65,28,92,210 // vsubps %ymm10,%ymm12,%ymm10
.byte 196,193,124,89,194 // vmulps %ymm10,%ymm0,%ymm0
.byte 196,99,125,8,208,1 // vroundps $0x1,%ymm0,%ymm10
.byte 196,65,124,92,210 // vsubps %ymm10,%ymm0,%ymm10
- .byte 98,241,124,56,88,5,56,253,2,0 // vaddps 0x2fd38(%rip){1to8},%ymm0,%ymm0 # 32a74 <_sk_srcover_rgba_8888_sse2_lowp+0x934>
- .byte 98,242,45,56,188,5,50,253,2,0 // vfnmadd231ps 0x2fd32(%rip){1to8},%ymm10,%ymm0 # 32a78 <_sk_srcover_rgba_8888_sse2_lowp+0x938>
- .byte 196,98,125,24,29,45,253,2,0 // vbroadcastss 0x2fd2d(%rip),%ymm11 # 32a7c <_sk_srcover_rgba_8888_sse2_lowp+0x93c>
+ .byte 98,241,124,56,88,5,88,253,2,0 // vaddps 0x2fd58(%rip){1to8},%ymm0,%ymm0 # 32a98 <_sk_srcover_rgba_8888_sse2_lowp+0x93c>
+ .byte 98,242,45,56,188,5,82,253,2,0 // vfnmadd231ps 0x2fd52(%rip){1to8},%ymm10,%ymm0 # 32a9c <_sk_srcover_rgba_8888_sse2_lowp+0x940>
+ .byte 196,98,125,24,29,77,253,2,0 // vbroadcastss 0x2fd4d(%rip),%ymm11 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0x944>
.byte 196,65,36,92,210 // vsubps %ymm10,%ymm11,%ymm10
- .byte 196,98,125,24,29,35,253,2,0 // vbroadcastss 0x2fd23(%rip),%ymm11 # 32a80 <_sk_srcover_rgba_8888_sse2_lowp+0x940>
+ .byte 196,98,125,24,29,67,253,2,0 // vbroadcastss 0x2fd43(%rip),%ymm11 # 32aa4 <_sk_srcover_rgba_8888_sse2_lowp+0x948>
.byte 196,65,36,94,210 // vdivps %ymm10,%ymm11,%ymm10
.byte 196,193,124,88,194 // vaddps %ymm10,%ymm0,%ymm0
- .byte 98,241,124,56,89,5,19,253,2,0 // vmulps 0x2fd13(%rip){1to8},%ymm0,%ymm0 # 32a84 <_sk_srcover_rgba_8888_sse2_lowp+0x944>
+ .byte 98,241,124,56,89,5,51,253,2,0 // vmulps 0x2fd33(%rip){1to8},%ymm0,%ymm0 # 32aa8 <_sk_srcover_rgba_8888_sse2_lowp+0x94c>
.byte 197,253,91,192 // vcvtps2dq %ymm0,%ymm0
.byte 196,98,125,24,80,20 // vbroadcastss 0x14(%rax),%ymm10
.byte 197,172,88,192 // vaddps %ymm0,%ymm10,%ymm0
.byte 196,195,125,74,193,128 // vblendvps %ymm8,%ymm9,%ymm0,%ymm0
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 196,193,124,95,192 // vmaxps %ymm8,%ymm0,%ymm0
- .byte 98,241,124,56,93,5,47,252,2,0 // vminps 0x2fc2f(%rip){1to8},%ymm0,%ymm0 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 98,241,124,56,93,5,75,252,2,0 // vminps 0x2fc4b(%rip){1to8},%ymm0,%ymm0 # 329e8 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -12184,33 +12190,33 @@ _sk_parametric_g_skx:
.byte 98,114,117,56,168,80,2 // vfmadd213ps 0x8(%rax){1to8},%ymm1,%ymm10
.byte 196,226,125,24,8 // vbroadcastss (%rax),%ymm1
.byte 196,65,124,91,218 // vcvtdq2ps %ymm10,%ymm11
- .byte 196,98,125,24,37,130,252,2,0 // vbroadcastss 0x2fc82(%rip),%ymm12 # 32a5c <_sk_srcover_rgba_8888_sse2_lowp+0x91c>
- .byte 98,114,37,56,168,37,128,252,2,0 // vfmadd213ps 0x2fc80(%rip){1to8},%ymm11,%ymm12 # 32a64 <_sk_srcover_rgba_8888_sse2_lowp+0x924>
- .byte 98,113,44,56,84,21,114,252,2,0 // vandps 0x2fc72(%rip){1to8},%ymm10,%ymm10 # 32a60 <_sk_srcover_rgba_8888_sse2_lowp+0x920>
- .byte 98,113,44,56,86,21,204,251,2,0 // vorps 0x2fbcc(%rip){1to8},%ymm10,%ymm10 # 329c4 <_sk_srcover_rgba_8888_sse2_lowp+0x884>
- .byte 98,114,45,56,188,37,102,252,2,0 // vfnmadd231ps 0x2fc66(%rip){1to8},%ymm10,%ymm12 # 32a68 <_sk_srcover_rgba_8888_sse2_lowp+0x928>
- .byte 98,113,44,56,88,21,96,252,2,0 // vaddps 0x2fc60(%rip){1to8},%ymm10,%ymm10 # 32a6c <_sk_srcover_rgba_8888_sse2_lowp+0x92c>
- .byte 196,98,125,24,29,91,252,2,0 // vbroadcastss 0x2fc5b(%rip),%ymm11 # 32a70 <_sk_srcover_rgba_8888_sse2_lowp+0x930>
+ .byte 196,98,125,24,37,162,252,2,0 // vbroadcastss 0x2fca2(%rip),%ymm12 # 32a80 <_sk_srcover_rgba_8888_sse2_lowp+0x924>
+ .byte 98,114,37,56,168,37,160,252,2,0 // vfmadd213ps 0x2fca0(%rip){1to8},%ymm11,%ymm12 # 32a88 <_sk_srcover_rgba_8888_sse2_lowp+0x92c>
+ .byte 98,113,44,56,84,21,146,252,2,0 // vandps 0x2fc92(%rip){1to8},%ymm10,%ymm10 # 32a84 <_sk_srcover_rgba_8888_sse2_lowp+0x928>
+ .byte 98,113,44,56,86,21,232,251,2,0 // vorps 0x2fbe8(%rip){1to8},%ymm10,%ymm10 # 329e4 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 98,114,45,56,188,37,134,252,2,0 // vfnmadd231ps 0x2fc86(%rip){1to8},%ymm10,%ymm12 # 32a8c <_sk_srcover_rgba_8888_sse2_lowp+0x930>
+ .byte 98,113,44,56,88,21,128,252,2,0 // vaddps 0x2fc80(%rip){1to8},%ymm10,%ymm10 # 32a90 <_sk_srcover_rgba_8888_sse2_lowp+0x934>
+ .byte 196,98,125,24,29,123,252,2,0 // vbroadcastss 0x2fc7b(%rip),%ymm11 # 32a94 <_sk_srcover_rgba_8888_sse2_lowp+0x938>
.byte 196,65,36,94,210 // vdivps %ymm10,%ymm11,%ymm10
.byte 196,65,28,92,210 // vsubps %ymm10,%ymm12,%ymm10
.byte 196,193,116,89,202 // vmulps %ymm10,%ymm1,%ymm1
.byte 196,99,125,8,209,1 // vroundps $0x1,%ymm1,%ymm10
.byte 196,65,116,92,210 // vsubps %ymm10,%ymm1,%ymm10
- .byte 98,241,116,56,88,13,59,252,2,0 // vaddps 0x2fc3b(%rip){1to8},%ymm1,%ymm1 # 32a74 <_sk_srcover_rgba_8888_sse2_lowp+0x934>
- .byte 98,242,45,56,188,13,53,252,2,0 // vfnmadd231ps 0x2fc35(%rip){1to8},%ymm10,%ymm1 # 32a78 <_sk_srcover_rgba_8888_sse2_lowp+0x938>
- .byte 196,98,125,24,29,48,252,2,0 // vbroadcastss 0x2fc30(%rip),%ymm11 # 32a7c <_sk_srcover_rgba_8888_sse2_lowp+0x93c>
+ .byte 98,241,116,56,88,13,91,252,2,0 // vaddps 0x2fc5b(%rip){1to8},%ymm1,%ymm1 # 32a98 <_sk_srcover_rgba_8888_sse2_lowp+0x93c>
+ .byte 98,242,45,56,188,13,85,252,2,0 // vfnmadd231ps 0x2fc55(%rip){1to8},%ymm10,%ymm1 # 32a9c <_sk_srcover_rgba_8888_sse2_lowp+0x940>
+ .byte 196,98,125,24,29,80,252,2,0 // vbroadcastss 0x2fc50(%rip),%ymm11 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0x944>
.byte 196,65,36,92,210 // vsubps %ymm10,%ymm11,%ymm10
- .byte 196,98,125,24,29,38,252,2,0 // vbroadcastss 0x2fc26(%rip),%ymm11 # 32a80 <_sk_srcover_rgba_8888_sse2_lowp+0x940>
+ .byte 196,98,125,24,29,70,252,2,0 // vbroadcastss 0x2fc46(%rip),%ymm11 # 32aa4 <_sk_srcover_rgba_8888_sse2_lowp+0x948>
.byte 196,65,36,94,210 // vdivps %ymm10,%ymm11,%ymm10
.byte 196,193,116,88,202 // vaddps %ymm10,%ymm1,%ymm1
- .byte 98,241,116,56,89,13,22,252,2,0 // vmulps 0x2fc16(%rip){1to8},%ymm1,%ymm1 # 32a84 <_sk_srcover_rgba_8888_sse2_lowp+0x944>
+ .byte 98,241,116,56,89,13,54,252,2,0 // vmulps 0x2fc36(%rip){1to8},%ymm1,%ymm1 # 32aa8 <_sk_srcover_rgba_8888_sse2_lowp+0x94c>
.byte 197,253,91,201 // vcvtps2dq %ymm1,%ymm1
.byte 196,98,125,24,80,20 // vbroadcastss 0x14(%rax),%ymm10
.byte 197,172,88,201 // vaddps %ymm1,%ymm10,%ymm1
.byte 196,195,117,74,201,128 // vblendvps %ymm8,%ymm9,%ymm1,%ymm1
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 196,193,116,95,200 // vmaxps %ymm8,%ymm1,%ymm1
- .byte 98,241,116,56,93,13,50,251,2,0 // vminps 0x2fb32(%rip){1to8},%ymm1,%ymm1 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 98,241,116,56,93,13,78,251,2,0 // vminps 0x2fb4e(%rip){1to8},%ymm1,%ymm1 # 329e8 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -12227,33 +12233,33 @@ _sk_parametric_b_skx:
.byte 98,114,109,56,168,80,2 // vfmadd213ps 0x8(%rax){1to8},%ymm2,%ymm10
.byte 196,226,125,24,16 // vbroadcastss (%rax),%ymm2
.byte 196,65,124,91,218 // vcvtdq2ps %ymm10,%ymm11
- .byte 196,98,125,24,37,133,251,2,0 // vbroadcastss 0x2fb85(%rip),%ymm12 # 32a5c <_sk_srcover_rgba_8888_sse2_lowp+0x91c>
- .byte 98,114,37,56,168,37,131,251,2,0 // vfmadd213ps 0x2fb83(%rip){1to8},%ymm11,%ymm12 # 32a64 <_sk_srcover_rgba_8888_sse2_lowp+0x924>
- .byte 98,113,44,56,84,21,117,251,2,0 // vandps 0x2fb75(%rip){1to8},%ymm10,%ymm10 # 32a60 <_sk_srcover_rgba_8888_sse2_lowp+0x920>
- .byte 98,113,44,56,86,21,207,250,2,0 // vorps 0x2facf(%rip){1to8},%ymm10,%ymm10 # 329c4 <_sk_srcover_rgba_8888_sse2_lowp+0x884>
- .byte 98,114,45,56,188,37,105,251,2,0 // vfnmadd231ps 0x2fb69(%rip){1to8},%ymm10,%ymm12 # 32a68 <_sk_srcover_rgba_8888_sse2_lowp+0x928>
- .byte 98,113,44,56,88,21,99,251,2,0 // vaddps 0x2fb63(%rip){1to8},%ymm10,%ymm10 # 32a6c <_sk_srcover_rgba_8888_sse2_lowp+0x92c>
- .byte 196,98,125,24,29,94,251,2,0 // vbroadcastss 0x2fb5e(%rip),%ymm11 # 32a70 <_sk_srcover_rgba_8888_sse2_lowp+0x930>
+ .byte 196,98,125,24,37,165,251,2,0 // vbroadcastss 0x2fba5(%rip),%ymm12 # 32a80 <_sk_srcover_rgba_8888_sse2_lowp+0x924>
+ .byte 98,114,37,56,168,37,163,251,2,0 // vfmadd213ps 0x2fba3(%rip){1to8},%ymm11,%ymm12 # 32a88 <_sk_srcover_rgba_8888_sse2_lowp+0x92c>
+ .byte 98,113,44,56,84,21,149,251,2,0 // vandps 0x2fb95(%rip){1to8},%ymm10,%ymm10 # 32a84 <_sk_srcover_rgba_8888_sse2_lowp+0x928>
+ .byte 98,113,44,56,86,21,235,250,2,0 // vorps 0x2faeb(%rip){1to8},%ymm10,%ymm10 # 329e4 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 98,114,45,56,188,37,137,251,2,0 // vfnmadd231ps 0x2fb89(%rip){1to8},%ymm10,%ymm12 # 32a8c <_sk_srcover_rgba_8888_sse2_lowp+0x930>
+ .byte 98,113,44,56,88,21,131,251,2,0 // vaddps 0x2fb83(%rip){1to8},%ymm10,%ymm10 # 32a90 <_sk_srcover_rgba_8888_sse2_lowp+0x934>
+ .byte 196,98,125,24,29,126,251,2,0 // vbroadcastss 0x2fb7e(%rip),%ymm11 # 32a94 <_sk_srcover_rgba_8888_sse2_lowp+0x938>
.byte 196,65,36,94,210 // vdivps %ymm10,%ymm11,%ymm10
.byte 196,65,28,92,210 // vsubps %ymm10,%ymm12,%ymm10
.byte 196,193,108,89,210 // vmulps %ymm10,%ymm2,%ymm2
.byte 196,99,125,8,210,1 // vroundps $0x1,%ymm2,%ymm10
.byte 196,65,108,92,210 // vsubps %ymm10,%ymm2,%ymm10
- .byte 98,241,108,56,88,21,62,251,2,0 // vaddps 0x2fb3e(%rip){1to8},%ymm2,%ymm2 # 32a74 <_sk_srcover_rgba_8888_sse2_lowp+0x934>
- .byte 98,242,45,56,188,21,56,251,2,0 // vfnmadd231ps 0x2fb38(%rip){1to8},%ymm10,%ymm2 # 32a78 <_sk_srcover_rgba_8888_sse2_lowp+0x938>
- .byte 196,98,125,24,29,51,251,2,0 // vbroadcastss 0x2fb33(%rip),%ymm11 # 32a7c <_sk_srcover_rgba_8888_sse2_lowp+0x93c>
+ .byte 98,241,108,56,88,21,94,251,2,0 // vaddps 0x2fb5e(%rip){1to8},%ymm2,%ymm2 # 32a98 <_sk_srcover_rgba_8888_sse2_lowp+0x93c>
+ .byte 98,242,45,56,188,21,88,251,2,0 // vfnmadd231ps 0x2fb58(%rip){1to8},%ymm10,%ymm2 # 32a9c <_sk_srcover_rgba_8888_sse2_lowp+0x940>
+ .byte 196,98,125,24,29,83,251,2,0 // vbroadcastss 0x2fb53(%rip),%ymm11 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0x944>
.byte 196,65,36,92,210 // vsubps %ymm10,%ymm11,%ymm10
- .byte 196,98,125,24,29,41,251,2,0 // vbroadcastss 0x2fb29(%rip),%ymm11 # 32a80 <_sk_srcover_rgba_8888_sse2_lowp+0x940>
+ .byte 196,98,125,24,29,73,251,2,0 // vbroadcastss 0x2fb49(%rip),%ymm11 # 32aa4 <_sk_srcover_rgba_8888_sse2_lowp+0x948>
.byte 196,65,36,94,210 // vdivps %ymm10,%ymm11,%ymm10
.byte 196,193,108,88,210 // vaddps %ymm10,%ymm2,%ymm2
- .byte 98,241,108,56,89,21,25,251,2,0 // vmulps 0x2fb19(%rip){1to8},%ymm2,%ymm2 # 32a84 <_sk_srcover_rgba_8888_sse2_lowp+0x944>
+ .byte 98,241,108,56,89,21,57,251,2,0 // vmulps 0x2fb39(%rip){1to8},%ymm2,%ymm2 # 32aa8 <_sk_srcover_rgba_8888_sse2_lowp+0x94c>
.byte 197,253,91,210 // vcvtps2dq %ymm2,%ymm2
.byte 196,98,125,24,80,20 // vbroadcastss 0x14(%rax),%ymm10
.byte 197,172,88,210 // vaddps %ymm2,%ymm10,%ymm2
.byte 196,195,109,74,209,128 // vblendvps %ymm8,%ymm9,%ymm2,%ymm2
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 196,193,108,95,208 // vmaxps %ymm8,%ymm2,%ymm2
- .byte 98,241,108,56,93,21,53,250,2,0 // vminps 0x2fa35(%rip){1to8},%ymm2,%ymm2 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 98,241,108,56,93,21,81,250,2,0 // vminps 0x2fa51(%rip){1to8},%ymm2,%ymm2 # 329e8 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -12270,33 +12276,33 @@ _sk_parametric_a_skx:
.byte 98,114,101,56,168,80,2 // vfmadd213ps 0x8(%rax){1to8},%ymm3,%ymm10
.byte 196,226,125,24,24 // vbroadcastss (%rax),%ymm3
.byte 196,65,124,91,218 // vcvtdq2ps %ymm10,%ymm11
- .byte 196,98,125,24,37,136,250,2,0 // vbroadcastss 0x2fa88(%rip),%ymm12 # 32a5c <_sk_srcover_rgba_8888_sse2_lowp+0x91c>
- .byte 98,114,37,56,168,37,134,250,2,0 // vfmadd213ps 0x2fa86(%rip){1to8},%ymm11,%ymm12 # 32a64 <_sk_srcover_rgba_8888_sse2_lowp+0x924>
- .byte 98,113,44,56,84,21,120,250,2,0 // vandps 0x2fa78(%rip){1to8},%ymm10,%ymm10 # 32a60 <_sk_srcover_rgba_8888_sse2_lowp+0x920>
- .byte 98,113,44,56,86,21,210,249,2,0 // vorps 0x2f9d2(%rip){1to8},%ymm10,%ymm10 # 329c4 <_sk_srcover_rgba_8888_sse2_lowp+0x884>
- .byte 98,114,45,56,188,37,108,250,2,0 // vfnmadd231ps 0x2fa6c(%rip){1to8},%ymm10,%ymm12 # 32a68 <_sk_srcover_rgba_8888_sse2_lowp+0x928>
- .byte 98,113,44,56,88,21,102,250,2,0 // vaddps 0x2fa66(%rip){1to8},%ymm10,%ymm10 # 32a6c <_sk_srcover_rgba_8888_sse2_lowp+0x92c>
- .byte 196,98,125,24,29,97,250,2,0 // vbroadcastss 0x2fa61(%rip),%ymm11 # 32a70 <_sk_srcover_rgba_8888_sse2_lowp+0x930>
+ .byte 196,98,125,24,37,168,250,2,0 // vbroadcastss 0x2faa8(%rip),%ymm12 # 32a80 <_sk_srcover_rgba_8888_sse2_lowp+0x924>
+ .byte 98,114,37,56,168,37,166,250,2,0 // vfmadd213ps 0x2faa6(%rip){1to8},%ymm11,%ymm12 # 32a88 <_sk_srcover_rgba_8888_sse2_lowp+0x92c>
+ .byte 98,113,44,56,84,21,152,250,2,0 // vandps 0x2fa98(%rip){1to8},%ymm10,%ymm10 # 32a84 <_sk_srcover_rgba_8888_sse2_lowp+0x928>
+ .byte 98,113,44,56,86,21,238,249,2,0 // vorps 0x2f9ee(%rip){1to8},%ymm10,%ymm10 # 329e4 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 98,114,45,56,188,37,140,250,2,0 // vfnmadd231ps 0x2fa8c(%rip){1to8},%ymm10,%ymm12 # 32a8c <_sk_srcover_rgba_8888_sse2_lowp+0x930>
+ .byte 98,113,44,56,88,21,134,250,2,0 // vaddps 0x2fa86(%rip){1to8},%ymm10,%ymm10 # 32a90 <_sk_srcover_rgba_8888_sse2_lowp+0x934>
+ .byte 196,98,125,24,29,129,250,2,0 // vbroadcastss 0x2fa81(%rip),%ymm11 # 32a94 <_sk_srcover_rgba_8888_sse2_lowp+0x938>
.byte 196,65,36,94,210 // vdivps %ymm10,%ymm11,%ymm10
.byte 196,65,28,92,210 // vsubps %ymm10,%ymm12,%ymm10
.byte 196,193,100,89,218 // vmulps %ymm10,%ymm3,%ymm3
.byte 196,99,125,8,211,1 // vroundps $0x1,%ymm3,%ymm10
.byte 196,65,100,92,210 // vsubps %ymm10,%ymm3,%ymm10
- .byte 98,241,100,56,88,29,65,250,2,0 // vaddps 0x2fa41(%rip){1to8},%ymm3,%ymm3 # 32a74 <_sk_srcover_rgba_8888_sse2_lowp+0x934>
- .byte 98,242,45,56,188,29,59,250,2,0 // vfnmadd231ps 0x2fa3b(%rip){1to8},%ymm10,%ymm3 # 32a78 <_sk_srcover_rgba_8888_sse2_lowp+0x938>
- .byte 196,98,125,24,29,54,250,2,0 // vbroadcastss 0x2fa36(%rip),%ymm11 # 32a7c <_sk_srcover_rgba_8888_sse2_lowp+0x93c>
+ .byte 98,241,100,56,88,29,97,250,2,0 // vaddps 0x2fa61(%rip){1to8},%ymm3,%ymm3 # 32a98 <_sk_srcover_rgba_8888_sse2_lowp+0x93c>
+ .byte 98,242,45,56,188,29,91,250,2,0 // vfnmadd231ps 0x2fa5b(%rip){1to8},%ymm10,%ymm3 # 32a9c <_sk_srcover_rgba_8888_sse2_lowp+0x940>
+ .byte 196,98,125,24,29,86,250,2,0 // vbroadcastss 0x2fa56(%rip),%ymm11 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0x944>
.byte 196,65,36,92,210 // vsubps %ymm10,%ymm11,%ymm10
- .byte 196,98,125,24,29,44,250,2,0 // vbroadcastss 0x2fa2c(%rip),%ymm11 # 32a80 <_sk_srcover_rgba_8888_sse2_lowp+0x940>
+ .byte 196,98,125,24,29,76,250,2,0 // vbroadcastss 0x2fa4c(%rip),%ymm11 # 32aa4 <_sk_srcover_rgba_8888_sse2_lowp+0x948>
.byte 196,65,36,94,210 // vdivps %ymm10,%ymm11,%ymm10
.byte 196,193,100,88,218 // vaddps %ymm10,%ymm3,%ymm3
- .byte 98,241,100,56,89,29,28,250,2,0 // vmulps 0x2fa1c(%rip){1to8},%ymm3,%ymm3 # 32a84 <_sk_srcover_rgba_8888_sse2_lowp+0x944>
+ .byte 98,241,100,56,89,29,60,250,2,0 // vmulps 0x2fa3c(%rip){1to8},%ymm3,%ymm3 # 32aa8 <_sk_srcover_rgba_8888_sse2_lowp+0x94c>
.byte 197,253,91,219 // vcvtps2dq %ymm3,%ymm3
.byte 196,98,125,24,80,20 // vbroadcastss 0x14(%rax),%ymm10
.byte 197,172,88,219 // vaddps %ymm3,%ymm10,%ymm3
.byte 196,195,101,74,217,128 // vblendvps %ymm8,%ymm9,%ymm3,%ymm3
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 196,193,100,95,216 // vmaxps %ymm8,%ymm3,%ymm3
- .byte 98,241,100,56,93,29,56,249,2,0 // vminps 0x2f938(%rip){1to8},%ymm3,%ymm3 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 98,241,100,56,93,29,84,249,2,0 // vminps 0x2f954(%rip){1to8},%ymm3,%ymm3 # 329e8 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -12307,33 +12313,33 @@ _sk_gamma_skx:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 98,226,125,40,24,48 // vbroadcastss (%rax),%ymm22
.byte 197,124,91,200 // vcvtdq2ps %ymm0,%ymm9
- .byte 196,98,125,24,21,179,249,2,0 // vbroadcastss 0x2f9b3(%rip),%ymm10 # 32a5c <_sk_srcover_rgba_8888_sse2_lowp+0x91c>
- .byte 196,98,125,24,29,174,249,2,0 // vbroadcastss 0x2f9ae(%rip),%ymm11 # 32a60 <_sk_srcover_rgba_8888_sse2_lowp+0x920>
+ .byte 196,98,125,24,21,211,249,2,0 // vbroadcastss 0x2f9d3(%rip),%ymm10 # 32a80 <_sk_srcover_rgba_8888_sse2_lowp+0x924>
+ .byte 196,98,125,24,29,206,249,2,0 // vbroadcastss 0x2f9ce(%rip),%ymm11 # 32a84 <_sk_srcover_rgba_8888_sse2_lowp+0x928>
.byte 196,193,124,84,195 // vandps %ymm11,%ymm0,%ymm0
- .byte 196,98,125,24,37,4,249,2,0 // vbroadcastss 0x2f904(%rip),%ymm12 # 329c4 <_sk_srcover_rgba_8888_sse2_lowp+0x884>
+ .byte 196,98,125,24,37,32,249,2,0 // vbroadcastss 0x2f920(%rip),%ymm12 # 329e4 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 196,193,124,86,196 // vorps %ymm12,%ymm0,%ymm0
- .byte 196,98,125,24,45,150,249,2,0 // vbroadcastss 0x2f996(%rip),%ymm13 # 32a64 <_sk_srcover_rgba_8888_sse2_lowp+0x924>
+ .byte 196,98,125,24,45,182,249,2,0 // vbroadcastss 0x2f9b6(%rip),%ymm13 # 32a88 <_sk_srcover_rgba_8888_sse2_lowp+0x92c>
.byte 196,66,45,168,205 // vfmadd213ps %ymm13,%ymm10,%ymm9
- .byte 196,98,125,24,53,140,249,2,0 // vbroadcastss 0x2f98c(%rip),%ymm14 # 32a68 <_sk_srcover_rgba_8888_sse2_lowp+0x928>
+ .byte 196,98,125,24,53,172,249,2,0 // vbroadcastss 0x2f9ac(%rip),%ymm14 # 32a8c <_sk_srcover_rgba_8888_sse2_lowp+0x930>
.byte 196,66,125,188,206 // vfnmadd231ps %ymm14,%ymm0,%ymm9
- .byte 196,98,125,24,61,130,249,2,0 // vbroadcastss 0x2f982(%rip),%ymm15 # 32a6c <_sk_srcover_rgba_8888_sse2_lowp+0x92c>
+ .byte 196,98,125,24,61,162,249,2,0 // vbroadcastss 0x2f9a2(%rip),%ymm15 # 32a90 <_sk_srcover_rgba_8888_sse2_lowp+0x934>
.byte 196,193,124,88,199 // vaddps %ymm15,%ymm0,%ymm0
- .byte 98,226,125,40,24,5,119,249,2,0 // vbroadcastss 0x2f977(%rip),%ymm16 # 32a70 <_sk_srcover_rgba_8888_sse2_lowp+0x930>
+ .byte 98,226,125,40,24,5,151,249,2,0 // vbroadcastss 0x2f997(%rip),%ymm16 # 32a94 <_sk_srcover_rgba_8888_sse2_lowp+0x938>
.byte 98,241,124,32,94,192 // vdivps %ymm0,%ymm16,%ymm0
.byte 197,180,92,192 // vsubps %ymm0,%ymm9,%ymm0
.byte 98,177,124,40,89,198 // vmulps %ymm22,%ymm0,%ymm0
.byte 196,99,125,8,200,1 // vroundps $0x1,%ymm0,%ymm9
.byte 196,65,124,92,201 // vsubps %ymm9,%ymm0,%ymm9
- .byte 98,226,125,40,24,13,86,249,2,0 // vbroadcastss 0x2f956(%rip),%ymm17 # 32a74 <_sk_srcover_rgba_8888_sse2_lowp+0x934>
+ .byte 98,226,125,40,24,13,118,249,2,0 // vbroadcastss 0x2f976(%rip),%ymm17 # 32a98 <_sk_srcover_rgba_8888_sse2_lowp+0x93c>
.byte 98,177,124,40,88,193 // vaddps %ymm17,%ymm0,%ymm0
- .byte 98,226,125,40,24,21,74,249,2,0 // vbroadcastss 0x2f94a(%rip),%ymm18 # 32a78 <_sk_srcover_rgba_8888_sse2_lowp+0x938>
+ .byte 98,226,125,40,24,21,106,249,2,0 // vbroadcastss 0x2f96a(%rip),%ymm18 # 32a9c <_sk_srcover_rgba_8888_sse2_lowp+0x940>
.byte 98,178,53,40,188,194 // vfnmadd231ps %ymm18,%ymm9,%ymm0
- .byte 98,226,125,40,24,29,62,249,2,0 // vbroadcastss 0x2f93e(%rip),%ymm19 # 32a7c <_sk_srcover_rgba_8888_sse2_lowp+0x93c>
+ .byte 98,226,125,40,24,29,94,249,2,0 // vbroadcastss 0x2f95e(%rip),%ymm19 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0x944>
.byte 98,81,100,32,92,201 // vsubps %ymm9,%ymm19,%ymm9
- .byte 98,226,125,40,24,37,50,249,2,0 // vbroadcastss 0x2f932(%rip),%ymm20 # 32a80 <_sk_srcover_rgba_8888_sse2_lowp+0x940>
+ .byte 98,226,125,40,24,37,82,249,2,0 // vbroadcastss 0x2f952(%rip),%ymm20 # 32aa4 <_sk_srcover_rgba_8888_sse2_lowp+0x948>
.byte 98,81,92,32,94,201 // vdivps %ymm9,%ymm20,%ymm9
.byte 196,193,124,88,193 // vaddps %ymm9,%ymm0,%ymm0
- .byte 196,98,125,24,13,34,249,2,0 // vbroadcastss 0x2f922(%rip),%ymm9 # 32a84 <_sk_srcover_rgba_8888_sse2_lowp+0x944>
+ .byte 196,98,125,24,13,66,249,2,0 // vbroadcastss 0x2f942(%rip),%ymm9 # 32aa8 <_sk_srcover_rgba_8888_sse2_lowp+0x94c>
.byte 196,193,124,89,193 // vmulps %ymm9,%ymm0,%ymm0
.byte 197,253,91,192 // vcvtps2dq %ymm0,%ymm0
.byte 98,225,124,40,91,233 // vcvtdq2ps %ymm1,%ymm21
@@ -12379,23 +12385,23 @@ HIDDEN _sk_lab_to_xyz_skx
.globl _sk_lab_to_xyz_skx
FUNCTION(_sk_lab_to_xyz_skx)
_sk_lab_to_xyz_skx:
- .byte 196,98,125,24,5,78,248,2,0 // vbroadcastss 0x2f84e(%rip),%ymm8 # 32a88 <_sk_srcover_rgba_8888_sse2_lowp+0x948>
- .byte 196,98,125,24,13,177,247,2,0 // vbroadcastss 0x2f7b1(%rip),%ymm9 # 329f4 <_sk_srcover_rgba_8888_sse2_lowp+0x8b4>
- .byte 196,98,125,24,21,64,248,2,0 // vbroadcastss 0x2f840(%rip),%ymm10 # 32a8c <_sk_srcover_rgba_8888_sse2_lowp+0x94c>
+ .byte 196,98,125,24,5,110,248,2,0 // vbroadcastss 0x2f86e(%rip),%ymm8 # 32aac <_sk_srcover_rgba_8888_sse2_lowp+0x950>
+ .byte 196,98,125,24,13,205,247,2,0 // vbroadcastss 0x2f7cd(%rip),%ymm9 # 32a14 <_sk_srcover_rgba_8888_sse2_lowp+0x8b8>
+ .byte 196,98,125,24,21,96,248,2,0 // vbroadcastss 0x2f860(%rip),%ymm10 # 32ab0 <_sk_srcover_rgba_8888_sse2_lowp+0x954>
.byte 196,194,53,168,202 // vfmadd213ps %ymm10,%ymm9,%ymm1
.byte 196,194,53,168,210 // vfmadd213ps %ymm10,%ymm9,%ymm2
- .byte 98,114,125,56,168,5,48,248,2,0 // vfmadd213ps 0x2f830(%rip){1to8},%ymm0,%ymm8 # 32a90 <_sk_srcover_rgba_8888_sse2_lowp+0x950>
- .byte 98,241,60,56,89,5,42,248,2,0 // vmulps 0x2f82a(%rip){1to8},%ymm8,%ymm0 # 32a94 <_sk_srcover_rgba_8888_sse2_lowp+0x954>
- .byte 98,242,125,56,152,13,36,248,2,0 // vfmadd132ps 0x2f824(%rip){1to8},%ymm0,%ymm1 # 32a98 <_sk_srcover_rgba_8888_sse2_lowp+0x958>
- .byte 98,242,125,56,156,21,30,248,2,0 // vfnmadd132ps 0x2f81e(%rip){1to8},%ymm0,%ymm2 # 32a9c <_sk_srcover_rgba_8888_sse2_lowp+0x95c>
+ .byte 98,114,125,56,168,5,80,248,2,0 // vfmadd213ps 0x2f850(%rip){1to8},%ymm0,%ymm8 # 32ab4 <_sk_srcover_rgba_8888_sse2_lowp+0x958>
+ .byte 98,241,60,56,89,5,74,248,2,0 // vmulps 0x2f84a(%rip){1to8},%ymm8,%ymm0 # 32ab8 <_sk_srcover_rgba_8888_sse2_lowp+0x95c>
+ .byte 98,242,125,56,152,13,68,248,2,0 // vfmadd132ps 0x2f844(%rip){1to8},%ymm0,%ymm1 # 32abc <_sk_srcover_rgba_8888_sse2_lowp+0x960>
+ .byte 98,242,125,56,156,21,62,248,2,0 // vfnmadd132ps 0x2f83e(%rip){1to8},%ymm0,%ymm2 # 32ac0 <_sk_srcover_rgba_8888_sse2_lowp+0x964>
.byte 197,116,89,193 // vmulps %ymm1,%ymm1,%ymm8
.byte 196,65,116,89,192 // vmulps %ymm8,%ymm1,%ymm8
- .byte 196,98,125,24,13,16,248,2,0 // vbroadcastss 0x2f810(%rip),%ymm9 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0x960>
+ .byte 196,98,125,24,13,48,248,2,0 // vbroadcastss 0x2f830(%rip),%ymm9 # 32ac4 <_sk_srcover_rgba_8888_sse2_lowp+0x968>
.byte 98,209,52,40,194,192,1 // vcmpltps %ymm8,%ymm9,%k0
.byte 98,114,126,40,56,208 // vpmovm2d %k0,%ymm10
- .byte 196,98,125,24,29,254,247,2,0 // vbroadcastss 0x2f7fe(%rip),%ymm11 # 32aa4 <_sk_srcover_rgba_8888_sse2_lowp+0x964>
+ .byte 196,98,125,24,29,30,248,2,0 // vbroadcastss 0x2f81e(%rip),%ymm11 # 32ac8 <_sk_srcover_rgba_8888_sse2_lowp+0x96c>
.byte 196,193,116,88,203 // vaddps %ymm11,%ymm1,%ymm1
- .byte 196,98,125,24,37,244,247,2,0 // vbroadcastss 0x2f7f4(%rip),%ymm12 # 32aa8 <_sk_srcover_rgba_8888_sse2_lowp+0x968>
+ .byte 196,98,125,24,37,20,248,2,0 // vbroadcastss 0x2f814(%rip),%ymm12 # 32acc <_sk_srcover_rgba_8888_sse2_lowp+0x970>
.byte 196,193,116,89,204 // vmulps %ymm12,%ymm1,%ymm1
.byte 196,67,117,74,192,160 // vblendvps %ymm10,%ymm8,%ymm1,%ymm8
.byte 197,252,89,200 // vmulps %ymm0,%ymm0,%ymm1
@@ -12412,8 +12418,8 @@ _sk_lab_to_xyz_skx:
.byte 196,193,108,88,211 // vaddps %ymm11,%ymm2,%ymm2
.byte 196,193,108,89,212 // vmulps %ymm12,%ymm2,%ymm2
.byte 196,227,109,74,208,144 // vblendvps %ymm9,%ymm0,%ymm2,%ymm2
- .byte 98,241,60,56,89,5,153,247,2,0 // vmulps 0x2f799(%rip){1to8},%ymm8,%ymm0 # 32aac <_sk_srcover_rgba_8888_sse2_lowp+0x96c>
- .byte 98,241,108,56,89,21,147,247,2,0 // vmulps 0x2f793(%rip){1to8},%ymm2,%ymm2 # 32ab0 <_sk_srcover_rgba_8888_sse2_lowp+0x970>
+ .byte 98,241,60,56,89,5,185,247,2,0 // vmulps 0x2f7b9(%rip){1to8},%ymm8,%ymm0 # 32ad0 <_sk_srcover_rgba_8888_sse2_lowp+0x974>
+ .byte 98,241,108,56,89,21,179,247,2,0 // vmulps 0x2f7b3(%rip){1to8},%ymm2,%ymm2 # 32ad4 <_sk_srcover_rgba_8888_sse2_lowp+0x978>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -12428,12 +12434,12 @@ _sk_load_a8_skx:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,49 // jne 336a <_sk_load_a8_skx+0x49>
+ .byte 117,49 // jne 336e <_sk_load_a8_skx+0x49>
.byte 196,130,121,48,4,24 // vpmovzxbw (%r8,%r11,1),%xmm0
- .byte 197,249,219,5,25,248,2,0 // vpand 0x2f819(%rip),%xmm0,%xmm0 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xa20>
+ .byte 197,249,219,5,69,248,2,0 // vpand 0x2f845(%rip),%xmm0,%xmm0 # 32b90 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
.byte 196,226,125,51,192 // vpmovzxwd %xmm0,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 98,241,124,56,89,29,226,246,2,0 // vmulps 0x2f6e2(%rip){1to8},%ymm0,%ymm3 # 32a3c <_sk_srcover_rgba_8888_sse2_lowp+0x8fc>
+ .byte 98,241,124,56,89,29,2,247,2,0 // vmulps 0x2f702(%rip){1to8},%ymm0,%ymm3 # 32a60 <_sk_srcover_rgba_8888_sse2_lowp+0x904>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
.byte 197,245,239,201 // vpxor %ymm1,%ymm1,%ymm1
@@ -12444,15 +12450,15 @@ _sk_load_a8_skx:
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 65,128,193,255 // add $0xff,%r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,192 // ja 333f <_sk_load_a8_skx+0x1e>
+ .byte 119,192 // ja 3343 <_sk_load_a8_skx+0x1e>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,134,0,0,0 // lea 0x86(%rip),%r10 # 3410 <_sk_load_a8_skx+0xef>
+ .byte 76,141,21,134,0,0,0 // lea 0x86(%rip),%r10 # 3414 <_sk_load_a8_skx+0xef>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 67,15,182,4,24 // movzbl (%r8,%r11,1),%eax
.byte 197,249,110,192 // vmovd %eax,%xmm0
- .byte 235,161 // jmp 333f <_sk_load_a8_skx+0x1e>
+ .byte 235,161 // jmp 3343 <_sk_load_a8_skx+0x1e>
.byte 67,15,182,68,24,2 // movzbl 0x2(%r8,%r11,1),%eax
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,249,196,192,2 // vpinsrw $0x2,%eax,%xmm0,%xmm0
@@ -12460,7 +12466,7 @@ _sk_load_a8_skx:
.byte 197,249,112,201,232 // vpshufd $0xe8,%xmm1,%xmm1
.byte 197,251,112,201,232 // vpshuflw $0xe8,%xmm1,%xmm1
.byte 196,227,121,2,193,1 // vpblendd $0x1,%xmm1,%xmm0,%xmm0
- .byte 233,119,255,255,255 // jmpq 333f <_sk_load_a8_skx+0x1e>
+ .byte 233,119,255,255,255 // jmpq 3343 <_sk_load_a8_skx+0x1e>
.byte 67,15,182,68,24,6 // movzbl 0x6(%r8,%r11,1),%eax
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,249,196,192,6 // vpinsrw $0x6,%eax,%xmm0,%xmm0
@@ -12473,7 +12479,7 @@ _sk_load_a8_skx:
.byte 197,250,112,201,232 // vpshufhw $0xe8,%xmm1,%xmm1
.byte 197,249,112,201,232 // vpshufd $0xe8,%xmm1,%xmm1
.byte 196,227,113,2,192,12 // vpblendd $0xc,%xmm0,%xmm1,%xmm0
- .byte 233,50,255,255,255 // jmpq 333f <_sk_load_a8_skx+0x1e>
+ .byte 233,50,255,255,255 // jmpq 3343 <_sk_load_a8_skx+0x1e>
.byte 15,31,0 // nopl (%rax)
.byte 131,255,255 // cmp $0xffffffff,%edi
.byte 255,157,255,255,255,142 // lcall *-0x71000001(%rbp)
@@ -12505,12 +12511,12 @@ _sk_load_a8_dst_skx:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,49 // jne 3475 <_sk_load_a8_dst_skx+0x49>
+ .byte 117,49 // jne 3479 <_sk_load_a8_dst_skx+0x49>
.byte 196,130,121,48,36,24 // vpmovzxbw (%r8,%r11,1),%xmm4
- .byte 197,217,219,37,14,247,2,0 // vpand 0x2f70e(%rip),%xmm4,%xmm4 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xa20>
+ .byte 197,217,219,37,58,247,2,0 // vpand 0x2f73a(%rip),%xmm4,%xmm4 # 32b90 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
.byte 196,226,125,51,228 // vpmovzxwd %xmm4,%ymm4
.byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
- .byte 98,241,92,56,89,61,215,245,2,0 // vmulps 0x2f5d7(%rip){1to8},%ymm4,%ymm7 # 32a3c <_sk_srcover_rgba_8888_sse2_lowp+0x8fc>
+ .byte 98,241,92,56,89,61,247,245,2,0 // vmulps 0x2f5f7(%rip){1to8},%ymm4,%ymm7 # 32a60 <_sk_srcover_rgba_8888_sse2_lowp+0x904>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,220,87,228 // vxorps %ymm4,%ymm4,%ymm4
.byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
@@ -12521,15 +12527,15 @@ _sk_load_a8_dst_skx:
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 65,128,193,255 // add $0xff,%r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,192 // ja 344a <_sk_load_a8_dst_skx+0x1e>
+ .byte 119,192 // ja 344e <_sk_load_a8_dst_skx+0x1e>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,131,0,0,0 // lea 0x83(%rip),%r10 # 3518 <_sk_load_a8_dst_skx+0xec>
+ .byte 76,141,21,131,0,0,0 // lea 0x83(%rip),%r10 # 351c <_sk_load_a8_dst_skx+0xec>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 67,15,182,4,24 // movzbl (%r8,%r11,1),%eax
.byte 197,249,110,224 // vmovd %eax,%xmm4
- .byte 235,161 // jmp 344a <_sk_load_a8_dst_skx+0x1e>
+ .byte 235,161 // jmp 344e <_sk_load_a8_dst_skx+0x1e>
.byte 67,15,182,68,24,2 // movzbl 0x2(%r8,%r11,1),%eax
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 197,217,196,224,2 // vpinsrw $0x2,%eax,%xmm4,%xmm4
@@ -12537,7 +12543,7 @@ _sk_load_a8_dst_skx:
.byte 197,249,112,237,232 // vpshufd $0xe8,%xmm5,%xmm5
.byte 197,251,112,237,232 // vpshuflw $0xe8,%xmm5,%xmm5
.byte 196,227,89,2,229,1 // vpblendd $0x1,%xmm5,%xmm4,%xmm4
- .byte 233,119,255,255,255 // jmpq 344a <_sk_load_a8_dst_skx+0x1e>
+ .byte 233,119,255,255,255 // jmpq 344e <_sk_load_a8_dst_skx+0x1e>
.byte 67,15,182,68,24,6 // movzbl 0x6(%r8,%r11,1),%eax
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 197,217,196,224,6 // vpinsrw $0x6,%eax,%xmm4,%xmm4
@@ -12550,7 +12556,7 @@ _sk_load_a8_dst_skx:
.byte 197,250,112,237,232 // vpshufhw $0xe8,%xmm5,%xmm5
.byte 197,249,112,237,232 // vpshufd $0xe8,%xmm5,%xmm5
.byte 196,227,81,2,228,12 // vpblendd $0xc,%xmm4,%xmm5,%xmm4
- .byte 233,50,255,255,255 // jmpq 344a <_sk_load_a8_dst_skx+0x1e>
+ .byte 233,50,255,255,255 // jmpq 344e <_sk_load_a8_dst_skx+0x1e>
.byte 134,255 // xchg %bh,%bh
.byte 255 // (bad)
.byte 255,160,255,255,255,145 // jmpq *-0x6e000001(%rax)
@@ -12626,7 +12632,7 @@ _sk_gather_a8_skx:
.byte 196,227,121,32,192,7 // vpinsrb $0x7,%eax,%xmm0,%xmm0
.byte 196,226,125,49,192 // vpmovzxbd %xmm0,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 98,241,124,56,89,29,26,244,2,0 // vmulps 0x2f41a(%rip){1to8},%ymm0,%ymm3 # 32a3c <_sk_srcover_rgba_8888_sse2_lowp+0x8fc>
+ .byte 98,241,124,56,89,29,58,244,2,0 // vmulps 0x2f43a(%rip){1to8},%ymm0,%ymm3 # 32a60 <_sk_srcover_rgba_8888_sse2_lowp+0x904>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
.byte 197,245,239,201 // vpxor %ymm1,%ymm1,%ymm1
@@ -12647,13 +12653,13 @@ _sk_store_a8_skx:
.byte 77,15,175,193 // imul %r9,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
- .byte 98,113,100,56,89,5,158,243,2,0 // vmulps 0x2f39e(%rip){1to8},%ymm3,%ymm8 # 329f4 <_sk_srcover_rgba_8888_sse2_lowp+0x8b4>
+ .byte 98,113,100,56,89,5,186,243,2,0 // vmulps 0x2f3ba(%rip){1to8},%ymm3,%ymm8 # 32a14 <_sk_srcover_rgba_8888_sse2_lowp+0x8b8>
.byte 196,65,125,91,192 // vcvtps2dq %ymm8,%ymm8
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,66,57,43,193 // vpackusdw %xmm9,%xmm8,%xmm8
.byte 197,57,103,192 // vpackuswb %xmm0,%xmm8,%xmm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,10 // jne 3679 <_sk_store_a8_skx+0x40>
+ .byte 117,10 // jne 367d <_sk_store_a8_skx+0x40>
.byte 196,1,121,214,4,24 // vmovq %xmm8,(%r8,%r11,1)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -12661,25 +12667,25 @@ _sk_store_a8_skx:
.byte 65,128,225,7 // and $0x7,%r9b
.byte 65,128,193,255 // add $0xff,%r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,235 // ja 3675 <_sk_store_a8_skx+0x3c>
+ .byte 119,235 // ja 3679 <_sk_store_a8_skx+0x3c>
.byte 196,66,121,48,192 // vpmovzxbw %xmm8,%xmm8
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,78,0,0,0 // lea 0x4e(%rip),%r10 # 36e8 <_sk_store_a8_skx+0xaf>
+ .byte 76,141,21,78,0,0,0 // lea 0x4e(%rip),%r10 # 36ec <_sk_store_a8_skx+0xaf>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 196,3,121,20,4,24,0 // vpextrb $0x0,%xmm8,(%r8,%r11,1)
- .byte 235,201 // jmp 3675 <_sk_store_a8_skx+0x3c>
+ .byte 235,201 // jmp 3679 <_sk_store_a8_skx+0x3c>
.byte 196,3,121,20,68,24,2,4 // vpextrb $0x4,%xmm8,0x2(%r8,%r11,1)
.byte 196,66,121,49,192 // vpmovzxbd %xmm8,%xmm8
.byte 98,18,126,8,50,4,24 // vpmovqb %xmm8,(%r8,%r11,1)
- .byte 235,179 // jmp 3675 <_sk_store_a8_skx+0x3c>
+ .byte 235,179 // jmp 3679 <_sk_store_a8_skx+0x3c>
.byte 196,3,121,20,68,24,6,12 // vpextrb $0xc,%xmm8,0x6(%r8,%r11,1)
.byte 196,3,121,20,68,24,5,10 // vpextrb $0xa,%xmm8,0x5(%r8,%r11,1)
.byte 196,3,121,20,68,24,4,8 // vpextrb $0x8,%xmm8,0x4(%r8,%r11,1)
.byte 196,66,121,48,192 // vpmovzxbw %xmm8,%xmm8
.byte 98,18,126,8,49,4,24 // vpmovdb %xmm8,(%r8,%r11,1)
- .byte 235,141 // jmp 3675 <_sk_store_a8_skx+0x3c>
+ .byte 235,141 // jmp 3679 <_sk_store_a8_skx+0x3c>
.byte 187,255,255,255,204 // mov $0xccffffff,%ebx
.byte 255 // (bad)
.byte 255 // (bad)
@@ -12712,14 +12718,14 @@ _sk_load_g8_skx:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,54 // jne 3752 <_sk_load_g8_skx+0x4e>
+ .byte 117,54 // jne 3756 <_sk_load_g8_skx+0x4e>
.byte 196,130,121,48,4,24 // vpmovzxbw (%r8,%r11,1),%xmm0
- .byte 197,249,219,5,54,244,2,0 // vpand 0x2f436(%rip),%xmm0,%xmm0 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xa20>
+ .byte 197,249,219,5,98,244,2,0 // vpand 0x2f462(%rip),%xmm0,%xmm0 # 32b90 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
.byte 196,226,125,51,192 // vpmovzxwd %xmm0,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 98,241,124,56,89,5,255,242,2,0 // vmulps 0x2f2ff(%rip){1to8},%ymm0,%ymm0 # 32a3c <_sk_srcover_rgba_8888_sse2_lowp+0x8fc>
+ .byte 98,241,124,56,89,5,31,243,2,0 // vmulps 0x2f31f(%rip){1to8},%ymm0,%ymm0 # 32a60 <_sk_srcover_rgba_8888_sse2_lowp+0x904>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,128,242,2,0 // vbroadcastss 0x2f280(%rip),%ymm3 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 196,226,125,24,29,156,242,2,0 // vbroadcastss 0x2f29c(%rip),%ymm3 # 329e8 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 197,252,40,200 // vmovaps %ymm0,%ymm1
.byte 197,252,40,208 // vmovaps %ymm0,%ymm2
.byte 255,224 // jmpq *%rax
@@ -12728,15 +12734,15 @@ _sk_load_g8_skx:
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 65,128,193,255 // add $0xff,%r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,187 // ja 3722 <_sk_load_g8_skx+0x1e>
+ .byte 119,187 // ja 3726 <_sk_load_g8_skx+0x1e>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,134,0,0,0 // lea 0x86(%rip),%r10 # 37f8 <_sk_load_g8_skx+0xf4>
+ .byte 76,141,21,134,0,0,0 // lea 0x86(%rip),%r10 # 37fc <_sk_load_g8_skx+0xf4>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 67,15,182,4,24 // movzbl (%r8,%r11,1),%eax
.byte 197,249,110,192 // vmovd %eax,%xmm0
- .byte 235,156 // jmp 3722 <_sk_load_g8_skx+0x1e>
+ .byte 235,156 // jmp 3726 <_sk_load_g8_skx+0x1e>
.byte 67,15,182,68,24,2 // movzbl 0x2(%r8,%r11,1),%eax
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,249,196,192,2 // vpinsrw $0x2,%eax,%xmm0,%xmm0
@@ -12744,7 +12750,7 @@ _sk_load_g8_skx:
.byte 197,249,112,201,232 // vpshufd $0xe8,%xmm1,%xmm1
.byte 197,251,112,201,232 // vpshuflw $0xe8,%xmm1,%xmm1
.byte 196,227,121,2,193,1 // vpblendd $0x1,%xmm1,%xmm0,%xmm0
- .byte 233,114,255,255,255 // jmpq 3722 <_sk_load_g8_skx+0x1e>
+ .byte 233,114,255,255,255 // jmpq 3726 <_sk_load_g8_skx+0x1e>
.byte 67,15,182,68,24,6 // movzbl 0x6(%r8,%r11,1),%eax
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,249,196,192,6 // vpinsrw $0x6,%eax,%xmm0,%xmm0
@@ -12757,7 +12763,7 @@ _sk_load_g8_skx:
.byte 197,250,112,201,232 // vpshufhw $0xe8,%xmm1,%xmm1
.byte 197,249,112,201,232 // vpshufd $0xe8,%xmm1,%xmm1
.byte 196,227,113,2,192,12 // vpblendd $0xc,%xmm0,%xmm1,%xmm0
- .byte 233,45,255,255,255 // jmpq 3722 <_sk_load_g8_skx+0x1e>
+ .byte 233,45,255,255,255 // jmpq 3726 <_sk_load_g8_skx+0x1e>
.byte 15,31,0 // nopl (%rax)
.byte 131,255,255 // cmp $0xffffffff,%edi
.byte 255,157,255,255,255,142 // lcall *-0x71000001(%rbp)
@@ -12789,14 +12795,14 @@ _sk_load_g8_dst_skx:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,54 // jne 3862 <_sk_load_g8_dst_skx+0x4e>
+ .byte 117,54 // jne 3866 <_sk_load_g8_dst_skx+0x4e>
.byte 196,130,121,48,36,24 // vpmovzxbw (%r8,%r11,1),%xmm4
- .byte 197,217,219,37,38,243,2,0 // vpand 0x2f326(%rip),%xmm4,%xmm4 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xa20>
+ .byte 197,217,219,37,82,243,2,0 // vpand 0x2f352(%rip),%xmm4,%xmm4 # 32b90 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
.byte 196,226,125,51,228 // vpmovzxwd %xmm4,%ymm4
.byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
- .byte 98,241,92,56,89,37,239,241,2,0 // vmulps 0x2f1ef(%rip){1to8},%ymm4,%ymm4 # 32a3c <_sk_srcover_rgba_8888_sse2_lowp+0x8fc>
+ .byte 98,241,92,56,89,37,15,242,2,0 // vmulps 0x2f20f(%rip){1to8},%ymm4,%ymm4 # 32a60 <_sk_srcover_rgba_8888_sse2_lowp+0x904>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,61,112,241,2,0 // vbroadcastss 0x2f170(%rip),%ymm7 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 196,226,125,24,61,140,241,2,0 // vbroadcastss 0x2f18c(%rip),%ymm7 # 329e8 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 197,252,40,236 // vmovaps %ymm4,%ymm5
.byte 197,252,40,244 // vmovaps %ymm4,%ymm6
.byte 255,224 // jmpq *%rax
@@ -12805,15 +12811,15 @@ _sk_load_g8_dst_skx:
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 65,128,193,255 // add $0xff,%r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,187 // ja 3832 <_sk_load_g8_dst_skx+0x1e>
+ .byte 119,187 // ja 3836 <_sk_load_g8_dst_skx+0x1e>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,134,0,0,0 // lea 0x86(%rip),%r10 # 3908 <_sk_load_g8_dst_skx+0xf4>
+ .byte 76,141,21,134,0,0,0 // lea 0x86(%rip),%r10 # 390c <_sk_load_g8_dst_skx+0xf4>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 67,15,182,4,24 // movzbl (%r8,%r11,1),%eax
.byte 197,249,110,224 // vmovd %eax,%xmm4
- .byte 235,156 // jmp 3832 <_sk_load_g8_dst_skx+0x1e>
+ .byte 235,156 // jmp 3836 <_sk_load_g8_dst_skx+0x1e>
.byte 67,15,182,68,24,2 // movzbl 0x2(%r8,%r11,1),%eax
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 197,217,196,224,2 // vpinsrw $0x2,%eax,%xmm4,%xmm4
@@ -12821,7 +12827,7 @@ _sk_load_g8_dst_skx:
.byte 197,249,112,237,232 // vpshufd $0xe8,%xmm5,%xmm5
.byte 197,251,112,237,232 // vpshuflw $0xe8,%xmm5,%xmm5
.byte 196,227,89,2,229,1 // vpblendd $0x1,%xmm5,%xmm4,%xmm4
- .byte 233,114,255,255,255 // jmpq 3832 <_sk_load_g8_dst_skx+0x1e>
+ .byte 233,114,255,255,255 // jmpq 3836 <_sk_load_g8_dst_skx+0x1e>
.byte 67,15,182,68,24,6 // movzbl 0x6(%r8,%r11,1),%eax
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 197,217,196,224,6 // vpinsrw $0x6,%eax,%xmm4,%xmm4
@@ -12834,7 +12840,7 @@ _sk_load_g8_dst_skx:
.byte 197,250,112,237,232 // vpshufhw $0xe8,%xmm5,%xmm5
.byte 197,249,112,237,232 // vpshufd $0xe8,%xmm5,%xmm5
.byte 196,227,81,2,228,12 // vpblendd $0xc,%xmm4,%xmm5,%xmm4
- .byte 233,45,255,255,255 // jmpq 3832 <_sk_load_g8_dst_skx+0x1e>
+ .byte 233,45,255,255,255 // jmpq 3836 <_sk_load_g8_dst_skx+0x1e>
.byte 15,31,0 // nopl (%rax)
.byte 131,255,255 // cmp $0xffffffff,%edi
.byte 255,157,255,255,255,142 // lcall *-0x71000001(%rbp)
@@ -12910,9 +12916,9 @@ _sk_gather_g8_skx:
.byte 196,227,121,32,192,7 // vpinsrb $0x7,%eax,%xmm0,%xmm0
.byte 196,226,125,49,192 // vpmovzxbd %xmm0,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 98,241,124,56,89,5,42,240,2,0 // vmulps 0x2f02a(%rip){1to8},%ymm0,%ymm0 # 32a3c <_sk_srcover_rgba_8888_sse2_lowp+0x8fc>
+ .byte 98,241,124,56,89,5,74,240,2,0 // vmulps 0x2f04a(%rip){1to8},%ymm0,%ymm0 # 32a60 <_sk_srcover_rgba_8888_sse2_lowp+0x904>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,171,239,2,0 // vbroadcastss 0x2efab(%rip),%ymm3 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 196,226,125,24,29,199,239,2,0 // vbroadcastss 0x2efc7(%rip),%ymm3 # 329e8 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 197,252,40,200 // vmovaps %ymm0,%ymm1
.byte 197,252,40,208 // vmovaps %ymm0,%ymm2
.byte 91 // pop %rbx
@@ -12933,42 +12939,42 @@ _sk_load_565_skx:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,96 // jne 3aa9 <_sk_load_565_skx+0x7b>
+ .byte 117,96 // jne 3aad <_sk_load_565_skx+0x7b>
.byte 196,129,122,111,4,88 // vmovdqu (%r8,%r11,2),%xmm0
.byte 196,226,125,51,208 // vpmovzxwd %xmm0,%ymm2
- .byte 98,241,109,56,219,5,226,239,2,0 // vpandd 0x2efe2(%rip){1to8},%ymm2,%ymm0 # 32a40 <_sk_srcover_rgba_8888_sse2_lowp+0x900>
+ .byte 98,241,109,56,219,5,2,240,2,0 // vpandd 0x2f002(%rip){1to8},%ymm2,%ymm0 # 32a64 <_sk_srcover_rgba_8888_sse2_lowp+0x908>
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 98,241,124,56,89,5,216,239,2,0 // vmulps 0x2efd8(%rip){1to8},%ymm0,%ymm0 # 32a44 <_sk_srcover_rgba_8888_sse2_lowp+0x904>
- .byte 98,241,109,56,219,13,210,239,2,0 // vpandd 0x2efd2(%rip){1to8},%ymm2,%ymm1 # 32a48 <_sk_srcover_rgba_8888_sse2_lowp+0x908>
+ .byte 98,241,124,56,89,5,248,239,2,0 // vmulps 0x2eff8(%rip){1to8},%ymm0,%ymm0 # 32a68 <_sk_srcover_rgba_8888_sse2_lowp+0x90c>
+ .byte 98,241,109,56,219,13,242,239,2,0 // vpandd 0x2eff2(%rip){1to8},%ymm2,%ymm1 # 32a6c <_sk_srcover_rgba_8888_sse2_lowp+0x910>
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
- .byte 98,241,116,56,89,13,200,239,2,0 // vmulps 0x2efc8(%rip){1to8},%ymm1,%ymm1 # 32a4c <_sk_srcover_rgba_8888_sse2_lowp+0x90c>
- .byte 98,241,109,56,219,21,194,239,2,0 // vpandd 0x2efc2(%rip){1to8},%ymm2,%ymm2 # 32a50 <_sk_srcover_rgba_8888_sse2_lowp+0x910>
+ .byte 98,241,116,56,89,13,232,239,2,0 // vmulps 0x2efe8(%rip){1to8},%ymm1,%ymm1 # 32a70 <_sk_srcover_rgba_8888_sse2_lowp+0x914>
+ .byte 98,241,109,56,219,21,226,239,2,0 // vpandd 0x2efe2(%rip){1to8},%ymm2,%ymm2 # 32a74 <_sk_srcover_rgba_8888_sse2_lowp+0x918>
.byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
- .byte 98,241,108,56,89,21,184,239,2,0 // vmulps 0x2efb8(%rip){1to8},%ymm2,%ymm2 # 32a54 <_sk_srcover_rgba_8888_sse2_lowp+0x914>
+ .byte 98,241,108,56,89,21,216,239,2,0 // vmulps 0x2efd8(%rip){1to8},%ymm2,%ymm2 # 32a78 <_sk_srcover_rgba_8888_sse2_lowp+0x91c>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,33,239,2,0 // vbroadcastss 0x2ef21(%rip),%ymm3 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 196,226,125,24,29,61,239,2,0 // vbroadcastss 0x2ef3d(%rip),%ymm3 # 329e8 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 255,224 // jmpq *%rax
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,7 // and $0x7,%r9b
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 65,128,193,255 // add $0xff,%r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,145 // ja 3a4f <_sk_load_565_skx+0x21>
+ .byte 119,145 // ja 3a53 <_sk_load_565_skx+0x21>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,123,0,0,0 // lea 0x7b(%rip),%r10 # 3b44 <_sk_load_565_skx+0x116>
+ .byte 76,141,21,123,0,0,0 // lea 0x7b(%rip),%r10 # 3b48 <_sk_load_565_skx+0x116>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 67,15,183,4,88 // movzwl (%r8,%r11,2),%eax
.byte 197,249,110,192 // vmovd %eax,%xmm0
- .byte 233,111,255,255,255 // jmpq 3a4f <_sk_load_565_skx+0x21>
+ .byte 233,111,255,255,255 // jmpq 3a53 <_sk_load_565_skx+0x21>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 196,129,121,196,68,88,4,2 // vpinsrw $0x2,0x4(%r8,%r11,2),%xmm0,%xmm0
.byte 196,130,121,52,12,88 // vpmovzxwq (%r8,%r11,2),%xmm1
.byte 197,249,112,201,232 // vpshufd $0xe8,%xmm1,%xmm1
.byte 197,251,112,201,232 // vpshuflw $0xe8,%xmm1,%xmm1
.byte 196,227,121,2,193,1 // vpblendd $0x1,%xmm1,%xmm0,%xmm0
- .byte 233,72,255,255,255 // jmpq 3a4f <_sk_load_565_skx+0x21>
+ .byte 233,72,255,255,255 // jmpq 3a53 <_sk_load_565_skx+0x21>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 196,129,121,196,68,88,12,6 // vpinsrw $0x6,0xc(%r8,%r11,2),%xmm0,%xmm0
.byte 196,129,121,196,68,88,10,5 // vpinsrw $0x5,0xa(%r8,%r11,2),%xmm0,%xmm0
@@ -12978,7 +12984,7 @@ _sk_load_565_skx:
.byte 197,250,112,201,232 // vpshufhw $0xe8,%xmm1,%xmm1
.byte 197,249,112,201,132 // vpshufd $0x84,%xmm1,%xmm1
.byte 197,241,109,192 // vpunpckhqdq %xmm0,%xmm1,%xmm0
- .byte 233,14,255,255,255 // jmpq 3a4f <_sk_load_565_skx+0x21>
+ .byte 233,14,255,255,255 // jmpq 3a53 <_sk_load_565_skx+0x21>
.byte 15,31,0 // nopl (%rax)
.byte 142,255 // mov %edi,%?
.byte 255 // (bad)
@@ -13011,42 +13017,42 @@ _sk_load_565_dst_skx:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,96 // jne 3bdb <_sk_load_565_dst_skx+0x7b>
+ .byte 117,96 // jne 3bdf <_sk_load_565_dst_skx+0x7b>
.byte 196,129,122,111,36,88 // vmovdqu (%r8,%r11,2),%xmm4
.byte 196,226,125,51,244 // vpmovzxwd %xmm4,%ymm6
- .byte 98,241,77,56,219,37,176,238,2,0 // vpandd 0x2eeb0(%rip){1to8},%ymm6,%ymm4 # 32a40 <_sk_srcover_rgba_8888_sse2_lowp+0x900>
+ .byte 98,241,77,56,219,37,208,238,2,0 // vpandd 0x2eed0(%rip){1to8},%ymm6,%ymm4 # 32a64 <_sk_srcover_rgba_8888_sse2_lowp+0x908>
.byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
- .byte 98,241,92,56,89,37,166,238,2,0 // vmulps 0x2eea6(%rip){1to8},%ymm4,%ymm4 # 32a44 <_sk_srcover_rgba_8888_sse2_lowp+0x904>
- .byte 98,241,77,56,219,45,160,238,2,0 // vpandd 0x2eea0(%rip){1to8},%ymm6,%ymm5 # 32a48 <_sk_srcover_rgba_8888_sse2_lowp+0x908>
+ .byte 98,241,92,56,89,37,198,238,2,0 // vmulps 0x2eec6(%rip){1to8},%ymm4,%ymm4 # 32a68 <_sk_srcover_rgba_8888_sse2_lowp+0x90c>
+ .byte 98,241,77,56,219,45,192,238,2,0 // vpandd 0x2eec0(%rip){1to8},%ymm6,%ymm5 # 32a6c <_sk_srcover_rgba_8888_sse2_lowp+0x910>
.byte 197,252,91,237 // vcvtdq2ps %ymm5,%ymm5
- .byte 98,241,84,56,89,45,150,238,2,0 // vmulps 0x2ee96(%rip){1to8},%ymm5,%ymm5 # 32a4c <_sk_srcover_rgba_8888_sse2_lowp+0x90c>
- .byte 98,241,77,56,219,53,144,238,2,0 // vpandd 0x2ee90(%rip){1to8},%ymm6,%ymm6 # 32a50 <_sk_srcover_rgba_8888_sse2_lowp+0x910>
+ .byte 98,241,84,56,89,45,182,238,2,0 // vmulps 0x2eeb6(%rip){1to8},%ymm5,%ymm5 # 32a70 <_sk_srcover_rgba_8888_sse2_lowp+0x914>
+ .byte 98,241,77,56,219,53,176,238,2,0 // vpandd 0x2eeb0(%rip){1to8},%ymm6,%ymm6 # 32a74 <_sk_srcover_rgba_8888_sse2_lowp+0x918>
.byte 197,252,91,246 // vcvtdq2ps %ymm6,%ymm6
- .byte 98,241,76,56,89,53,134,238,2,0 // vmulps 0x2ee86(%rip){1to8},%ymm6,%ymm6 # 32a54 <_sk_srcover_rgba_8888_sse2_lowp+0x914>
+ .byte 98,241,76,56,89,53,166,238,2,0 // vmulps 0x2eea6(%rip){1to8},%ymm6,%ymm6 # 32a78 <_sk_srcover_rgba_8888_sse2_lowp+0x91c>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,61,239,237,2,0 // vbroadcastss 0x2edef(%rip),%ymm7 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 196,226,125,24,61,11,238,2,0 // vbroadcastss 0x2ee0b(%rip),%ymm7 # 329e8 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 255,224 // jmpq *%rax
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,7 // and $0x7,%r9b
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 65,128,193,255 // add $0xff,%r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,145 // ja 3b81 <_sk_load_565_dst_skx+0x21>
+ .byte 119,145 // ja 3b85 <_sk_load_565_dst_skx+0x21>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,121,0,0,0 // lea 0x79(%rip),%r10 # 3c74 <_sk_load_565_dst_skx+0x114>
+ .byte 76,141,21,121,0,0,0 // lea 0x79(%rip),%r10 # 3c78 <_sk_load_565_dst_skx+0x114>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 67,15,183,4,88 // movzwl (%r8,%r11,2),%eax
.byte 197,249,110,224 // vmovd %eax,%xmm4
- .byte 233,111,255,255,255 // jmpq 3b81 <_sk_load_565_dst_skx+0x21>
+ .byte 233,111,255,255,255 // jmpq 3b85 <_sk_load_565_dst_skx+0x21>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,129,89,196,100,88,4,2 // vpinsrw $0x2,0x4(%r8,%r11,2),%xmm4,%xmm4
.byte 196,130,121,52,44,88 // vpmovzxwq (%r8,%r11,2),%xmm5
.byte 197,249,112,237,232 // vpshufd $0xe8,%xmm5,%xmm5
.byte 197,251,112,237,232 // vpshuflw $0xe8,%xmm5,%xmm5
.byte 196,227,89,2,229,1 // vpblendd $0x1,%xmm5,%xmm4,%xmm4
- .byte 233,72,255,255,255 // jmpq 3b81 <_sk_load_565_dst_skx+0x21>
+ .byte 233,72,255,255,255 // jmpq 3b85 <_sk_load_565_dst_skx+0x21>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,129,89,196,100,88,12,6 // vpinsrw $0x6,0xc(%r8,%r11,2),%xmm4,%xmm4
.byte 196,129,89,196,100,88,10,5 // vpinsrw $0x5,0xa(%r8,%r11,2),%xmm4,%xmm4
@@ -13056,7 +13062,7 @@ _sk_load_565_dst_skx:
.byte 197,250,112,237,232 // vpshufhw $0xe8,%xmm5,%xmm5
.byte 197,249,112,237,132 // vpshufd $0x84,%xmm5,%xmm5
.byte 197,209,109,228 // vpunpckhqdq %xmm4,%xmm5,%xmm4
- .byte 233,14,255,255,255 // jmpq 3b81 <_sk_load_565_dst_skx+0x21>
+ .byte 233,14,255,255,255 // jmpq 3b85 <_sk_load_565_dst_skx+0x21>
.byte 144 // nop
.byte 144 // nop
.byte 255 // (bad)
@@ -13132,17 +13138,17 @@ _sk_gather_565_skx:
.byte 65,15,183,4,88 // movzwl (%r8,%rbx,2),%eax
.byte 197,249,196,192,7 // vpinsrw $0x7,%eax,%xmm0,%xmm0
.byte 196,226,125,51,208 // vpmovzxwd %xmm0,%ymm2
- .byte 98,241,109,56,219,5,203,236,2,0 // vpandd 0x2eccb(%rip){1to8},%ymm2,%ymm0 # 32a40 <_sk_srcover_rgba_8888_sse2_lowp+0x900>
+ .byte 98,241,109,56,219,5,235,236,2,0 // vpandd 0x2eceb(%rip){1to8},%ymm2,%ymm0 # 32a64 <_sk_srcover_rgba_8888_sse2_lowp+0x908>
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 98,241,124,56,89,5,193,236,2,0 // vmulps 0x2ecc1(%rip){1to8},%ymm0,%ymm0 # 32a44 <_sk_srcover_rgba_8888_sse2_lowp+0x904>
- .byte 98,241,109,56,219,13,187,236,2,0 // vpandd 0x2ecbb(%rip){1to8},%ymm2,%ymm1 # 32a48 <_sk_srcover_rgba_8888_sse2_lowp+0x908>
+ .byte 98,241,124,56,89,5,225,236,2,0 // vmulps 0x2ece1(%rip){1to8},%ymm0,%ymm0 # 32a68 <_sk_srcover_rgba_8888_sse2_lowp+0x90c>
+ .byte 98,241,109,56,219,13,219,236,2,0 // vpandd 0x2ecdb(%rip){1to8},%ymm2,%ymm1 # 32a6c <_sk_srcover_rgba_8888_sse2_lowp+0x910>
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
- .byte 98,241,116,56,89,13,177,236,2,0 // vmulps 0x2ecb1(%rip){1to8},%ymm1,%ymm1 # 32a4c <_sk_srcover_rgba_8888_sse2_lowp+0x90c>
- .byte 98,241,109,56,219,21,171,236,2,0 // vpandd 0x2ecab(%rip){1to8},%ymm2,%ymm2 # 32a50 <_sk_srcover_rgba_8888_sse2_lowp+0x910>
+ .byte 98,241,116,56,89,13,209,236,2,0 // vmulps 0x2ecd1(%rip){1to8},%ymm1,%ymm1 # 32a70 <_sk_srcover_rgba_8888_sse2_lowp+0x914>
+ .byte 98,241,109,56,219,21,203,236,2,0 // vpandd 0x2eccb(%rip){1to8},%ymm2,%ymm2 # 32a74 <_sk_srcover_rgba_8888_sse2_lowp+0x918>
.byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
- .byte 98,241,108,56,89,21,161,236,2,0 // vmulps 0x2eca1(%rip){1to8},%ymm2,%ymm2 # 32a54 <_sk_srcover_rgba_8888_sse2_lowp+0x914>
+ .byte 98,241,108,56,89,21,193,236,2,0 // vmulps 0x2ecc1(%rip){1to8},%ymm2,%ymm2 # 32a78 <_sk_srcover_rgba_8888_sse2_lowp+0x91c>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,10,236,2,0 // vbroadcastss 0x2ec0a(%rip),%ymm3 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 196,226,125,24,29,38,236,2,0 // vbroadcastss 0x2ec26(%rip),%ymm3 # 329e8 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 91 // pop %rbx
.byte 65,92 // pop %r12
.byte 65,94 // pop %r14
@@ -13160,11 +13166,11 @@ _sk_store_565_skx:
.byte 77,1,192 // add %r8,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
- .byte 196,98,125,24,5,206,236,2,0 // vbroadcastss 0x2ecce(%rip),%ymm8 # 32ab4 <_sk_srcover_rgba_8888_sse2_lowp+0x974>
+ .byte 196,98,125,24,5,238,236,2,0 // vbroadcastss 0x2ecee(%rip),%ymm8 # 32ad8 <_sk_srcover_rgba_8888_sse2_lowp+0x97c>
.byte 196,65,124,89,200 // vmulps %ymm8,%ymm0,%ymm9
.byte 196,65,125,91,201 // vcvtps2dq %ymm9,%ymm9
.byte 196,193,53,114,241,11 // vpslld $0xb,%ymm9,%ymm9
- .byte 98,113,116,56,89,21,184,236,2,0 // vmulps 0x2ecb8(%rip){1to8},%ymm1,%ymm10 # 32ab8 <_sk_srcover_rgba_8888_sse2_lowp+0x978>
+ .byte 98,113,116,56,89,21,216,236,2,0 // vmulps 0x2ecd8(%rip){1to8},%ymm1,%ymm10 # 32adc <_sk_srcover_rgba_8888_sse2_lowp+0x980>
.byte 196,65,125,91,210 // vcvtps2dq %ymm10,%ymm10
.byte 196,193,45,114,242,5 // vpslld $0x5,%ymm10,%ymm10
.byte 196,65,45,235,201 // vpor %ymm9,%ymm10,%ymm9
@@ -13174,7 +13180,7 @@ _sk_store_565_skx:
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,66,57,43,193 // vpackusdw %xmm9,%xmm8,%xmm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,10 // jne 3e39 <_sk_store_565_skx+0x72>
+ .byte 117,10 // jne 3e3d <_sk_store_565_skx+0x72>
.byte 196,1,122,127,4,88 // vmovdqu %xmm8,(%r8,%r11,2)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -13182,24 +13188,24 @@ _sk_store_565_skx:
.byte 65,128,225,7 // and $0x7,%r9b
.byte 65,128,193,255 // add $0xff,%r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,235 // ja 3e35 <_sk_store_565_skx+0x6e>
+ .byte 119,235 // ja 3e39 <_sk_store_565_skx+0x6e>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,79,0,0,0 // lea 0x4f(%rip),%r10 # 3ea4 <_sk_store_565_skx+0xdd>
+ .byte 76,141,21,79,0,0,0 // lea 0x4f(%rip),%r10 # 3ea8 <_sk_store_565_skx+0xdd>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 196,3,121,21,4,88,0 // vpextrw $0x0,%xmm8,(%r8,%r11,2)
- .byte 235,206 // jmp 3e35 <_sk_store_565_skx+0x6e>
+ .byte 235,206 // jmp 3e39 <_sk_store_565_skx+0x6e>
.byte 196,3,121,21,68,88,4,2 // vpextrw $0x2,%xmm8,0x4(%r8,%r11,2)
.byte 196,66,121,52,192 // vpmovzxwq %xmm8,%xmm8
.byte 98,18,126,8,52,4,88 // vpmovqw %xmm8,(%r8,%r11,2)
- .byte 235,184 // jmp 3e35 <_sk_store_565_skx+0x6e>
+ .byte 235,184 // jmp 3e39 <_sk_store_565_skx+0x6e>
.byte 196,3,121,21,68,88,12,6 // vpextrw $0x6,%xmm8,0xc(%r8,%r11,2)
.byte 196,3,121,21,68,88,10,5 // vpextrw $0x5,%xmm8,0xa(%r8,%r11,2)
.byte 196,3,121,21,68,88,8,4 // vpextrw $0x4,%xmm8,0x8(%r8,%r11,2)
.byte 196,66,121,51,192 // vpmovzxwd %xmm8,%xmm8
.byte 98,18,126,8,51,4,88 // vpmovdw %xmm8,(%r8,%r11,2)
- .byte 235,146 // jmp 3e35 <_sk_store_565_skx+0x6e>
+ .byte 235,146 // jmp 3e39 <_sk_store_565_skx+0x6e>
.byte 144 // nop
.byte 186,255,255,255,203 // mov $0xcbffffff,%edx
.byte 255 // (bad)
@@ -13211,7 +13217,7 @@ _sk_store_565_skx:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 233,255,255,255,225 // jmpq ffffffffe2003eb8 <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffe1fd1d78>
+ .byte 233,255,255,255,225 // jmpq ffffffffe2003ebc <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffe1fd1d60>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
@@ -13231,21 +13237,21 @@ _sk_load_4444_skx:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,111 // jne 3f4a <_sk_load_4444_skx+0x8a>
+ .byte 117,111 // jne 3f4e <_sk_load_4444_skx+0x8a>
.byte 196,129,122,111,4,88 // vmovdqu (%r8,%r11,2),%xmm0
.byte 196,226,125,51,216 // vpmovzxwd %xmm0,%ymm3
- .byte 98,241,101,56,219,5,204,235,2,0 // vpandd 0x2ebcc(%rip){1to8},%ymm3,%ymm0 # 32abc <_sk_srcover_rgba_8888_sse2_lowp+0x97c>
+ .byte 98,241,101,56,219,5,236,235,2,0 // vpandd 0x2ebec(%rip){1to8},%ymm3,%ymm0 # 32ae0 <_sk_srcover_rgba_8888_sse2_lowp+0x984>
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 98,241,124,56,89,5,194,235,2,0 // vmulps 0x2ebc2(%rip){1to8},%ymm0,%ymm0 # 32ac0 <_sk_srcover_rgba_8888_sse2_lowp+0x980>
- .byte 98,241,101,56,219,13,188,235,2,0 // vpandd 0x2ebbc(%rip){1to8},%ymm3,%ymm1 # 32ac4 <_sk_srcover_rgba_8888_sse2_lowp+0x984>
+ .byte 98,241,124,56,89,5,226,235,2,0 // vmulps 0x2ebe2(%rip){1to8},%ymm0,%ymm0 # 32ae4 <_sk_srcover_rgba_8888_sse2_lowp+0x988>
+ .byte 98,241,101,56,219,13,220,235,2,0 // vpandd 0x2ebdc(%rip){1to8},%ymm3,%ymm1 # 32ae8 <_sk_srcover_rgba_8888_sse2_lowp+0x98c>
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
- .byte 98,241,116,56,89,13,178,235,2,0 // vmulps 0x2ebb2(%rip){1to8},%ymm1,%ymm1 # 32ac8 <_sk_srcover_rgba_8888_sse2_lowp+0x988>
- .byte 98,241,101,56,219,21,172,235,2,0 // vpandd 0x2ebac(%rip){1to8},%ymm3,%ymm2 # 32acc <_sk_srcover_rgba_8888_sse2_lowp+0x98c>
+ .byte 98,241,116,56,89,13,210,235,2,0 // vmulps 0x2ebd2(%rip){1to8},%ymm1,%ymm1 # 32aec <_sk_srcover_rgba_8888_sse2_lowp+0x990>
+ .byte 98,241,101,56,219,21,204,235,2,0 // vpandd 0x2ebcc(%rip){1to8},%ymm3,%ymm2 # 32af0 <_sk_srcover_rgba_8888_sse2_lowp+0x994>
.byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
- .byte 98,241,108,56,89,21,162,235,2,0 // vmulps 0x2eba2(%rip){1to8},%ymm2,%ymm2 # 32ad0 <_sk_srcover_rgba_8888_sse2_lowp+0x990>
- .byte 98,241,101,56,219,29,156,235,2,0 // vpandd 0x2eb9c(%rip){1to8},%ymm3,%ymm3 # 32ad4 <_sk_srcover_rgba_8888_sse2_lowp+0x994>
+ .byte 98,241,108,56,89,21,194,235,2,0 // vmulps 0x2ebc2(%rip){1to8},%ymm2,%ymm2 # 32af4 <_sk_srcover_rgba_8888_sse2_lowp+0x998>
+ .byte 98,241,101,56,219,29,188,235,2,0 // vpandd 0x2ebbc(%rip){1to8},%ymm3,%ymm3 # 32af8 <_sk_srcover_rgba_8888_sse2_lowp+0x99c>
.byte 197,252,91,219 // vcvtdq2ps %ymm3,%ymm3
- .byte 98,241,100,56,89,29,146,235,2,0 // vmulps 0x2eb92(%rip){1to8},%ymm3,%ymm3 # 32ad8 <_sk_srcover_rgba_8888_sse2_lowp+0x998>
+ .byte 98,241,100,56,89,29,178,235,2,0 // vmulps 0x2ebb2(%rip){1to8},%ymm3,%ymm3 # 32afc <_sk_srcover_rgba_8888_sse2_lowp+0x9a0>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
.byte 65,137,249 // mov %edi,%r9d
@@ -13253,22 +13259,22 @@ _sk_load_4444_skx:
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 65,128,193,255 // add $0xff,%r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,130 // ja 3ee1 <_sk_load_4444_skx+0x21>
+ .byte 119,130 // ja 3ee5 <_sk_load_4444_skx+0x21>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,122,0,0,0 // lea 0x7a(%rip),%r10 # 3fe4 <_sk_load_4444_skx+0x124>
+ .byte 76,141,21,122,0,0,0 // lea 0x7a(%rip),%r10 # 3fe8 <_sk_load_4444_skx+0x124>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 67,15,183,4,88 // movzwl (%r8,%r11,2),%eax
.byte 197,249,110,192 // vmovd %eax,%xmm0
- .byte 233,96,255,255,255 // jmpq 3ee1 <_sk_load_4444_skx+0x21>
+ .byte 233,96,255,255,255 // jmpq 3ee5 <_sk_load_4444_skx+0x21>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 196,129,121,196,68,88,4,2 // vpinsrw $0x2,0x4(%r8,%r11,2),%xmm0,%xmm0
.byte 196,130,121,52,12,88 // vpmovzxwq (%r8,%r11,2),%xmm1
.byte 197,249,112,201,232 // vpshufd $0xe8,%xmm1,%xmm1
.byte 197,251,112,201,232 // vpshuflw $0xe8,%xmm1,%xmm1
.byte 196,227,121,2,193,1 // vpblendd $0x1,%xmm1,%xmm0,%xmm0
- .byte 233,57,255,255,255 // jmpq 3ee1 <_sk_load_4444_skx+0x21>
+ .byte 233,57,255,255,255 // jmpq 3ee5 <_sk_load_4444_skx+0x21>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 196,129,121,196,68,88,12,6 // vpinsrw $0x6,0xc(%r8,%r11,2),%xmm0,%xmm0
.byte 196,129,121,196,68,88,10,5 // vpinsrw $0x5,0xa(%r8,%r11,2),%xmm0,%xmm0
@@ -13278,7 +13284,7 @@ _sk_load_4444_skx:
.byte 197,250,112,201,232 // vpshufhw $0xe8,%xmm1,%xmm1
.byte 197,249,112,201,132 // vpshufd $0x84,%xmm1,%xmm1
.byte 197,241,109,192 // vpunpckhqdq %xmm0,%xmm1,%xmm0
- .byte 233,255,254,255,255 // jmpq 3ee1 <_sk_load_4444_skx+0x21>
+ .byte 233,255,254,255,255 // jmpq 3ee5 <_sk_load_4444_skx+0x21>
.byte 102,144 // xchg %ax,%ax
.byte 143 // (bad)
.byte 255 // (bad)
@@ -13312,21 +13318,21 @@ _sk_load_4444_dst_skx:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,111 // jne 408a <_sk_load_4444_dst_skx+0x8a>
+ .byte 117,111 // jne 408e <_sk_load_4444_dst_skx+0x8a>
.byte 196,129,122,111,36,88 // vmovdqu (%r8,%r11,2),%xmm4
.byte 196,226,125,51,252 // vpmovzxwd %xmm4,%ymm7
- .byte 98,241,69,56,219,37,140,234,2,0 // vpandd 0x2ea8c(%rip){1to8},%ymm7,%ymm4 # 32abc <_sk_srcover_rgba_8888_sse2_lowp+0x97c>
+ .byte 98,241,69,56,219,37,172,234,2,0 // vpandd 0x2eaac(%rip){1to8},%ymm7,%ymm4 # 32ae0 <_sk_srcover_rgba_8888_sse2_lowp+0x984>
.byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
- .byte 98,241,92,56,89,37,130,234,2,0 // vmulps 0x2ea82(%rip){1to8},%ymm4,%ymm4 # 32ac0 <_sk_srcover_rgba_8888_sse2_lowp+0x980>
- .byte 98,241,69,56,219,45,124,234,2,0 // vpandd 0x2ea7c(%rip){1to8},%ymm7,%ymm5 # 32ac4 <_sk_srcover_rgba_8888_sse2_lowp+0x984>
+ .byte 98,241,92,56,89,37,162,234,2,0 // vmulps 0x2eaa2(%rip){1to8},%ymm4,%ymm4 # 32ae4 <_sk_srcover_rgba_8888_sse2_lowp+0x988>
+ .byte 98,241,69,56,219,45,156,234,2,0 // vpandd 0x2ea9c(%rip){1to8},%ymm7,%ymm5 # 32ae8 <_sk_srcover_rgba_8888_sse2_lowp+0x98c>
.byte 197,252,91,237 // vcvtdq2ps %ymm5,%ymm5
- .byte 98,241,84,56,89,45,114,234,2,0 // vmulps 0x2ea72(%rip){1to8},%ymm5,%ymm5 # 32ac8 <_sk_srcover_rgba_8888_sse2_lowp+0x988>
- .byte 98,241,69,56,219,53,108,234,2,0 // vpandd 0x2ea6c(%rip){1to8},%ymm7,%ymm6 # 32acc <_sk_srcover_rgba_8888_sse2_lowp+0x98c>
+ .byte 98,241,84,56,89,45,146,234,2,0 // vmulps 0x2ea92(%rip){1to8},%ymm5,%ymm5 # 32aec <_sk_srcover_rgba_8888_sse2_lowp+0x990>
+ .byte 98,241,69,56,219,53,140,234,2,0 // vpandd 0x2ea8c(%rip){1to8},%ymm7,%ymm6 # 32af0 <_sk_srcover_rgba_8888_sse2_lowp+0x994>
.byte 197,252,91,246 // vcvtdq2ps %ymm6,%ymm6
- .byte 98,241,76,56,89,53,98,234,2,0 // vmulps 0x2ea62(%rip){1to8},%ymm6,%ymm6 # 32ad0 <_sk_srcover_rgba_8888_sse2_lowp+0x990>
- .byte 98,241,69,56,219,61,92,234,2,0 // vpandd 0x2ea5c(%rip){1to8},%ymm7,%ymm7 # 32ad4 <_sk_srcover_rgba_8888_sse2_lowp+0x994>
+ .byte 98,241,76,56,89,53,130,234,2,0 // vmulps 0x2ea82(%rip){1to8},%ymm6,%ymm6 # 32af4 <_sk_srcover_rgba_8888_sse2_lowp+0x998>
+ .byte 98,241,69,56,219,61,124,234,2,0 // vpandd 0x2ea7c(%rip){1to8},%ymm7,%ymm7 # 32af8 <_sk_srcover_rgba_8888_sse2_lowp+0x99c>
.byte 197,252,91,255 // vcvtdq2ps %ymm7,%ymm7
- .byte 98,241,68,56,89,61,82,234,2,0 // vmulps 0x2ea52(%rip){1to8},%ymm7,%ymm7 # 32ad8 <_sk_srcover_rgba_8888_sse2_lowp+0x998>
+ .byte 98,241,68,56,89,61,114,234,2,0 // vmulps 0x2ea72(%rip){1to8},%ymm7,%ymm7 # 32afc <_sk_srcover_rgba_8888_sse2_lowp+0x9a0>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
.byte 65,137,249 // mov %edi,%r9d
@@ -13334,22 +13340,22 @@ _sk_load_4444_dst_skx:
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 65,128,193,255 // add $0xff,%r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,130 // ja 4021 <_sk_load_4444_dst_skx+0x21>
+ .byte 119,130 // ja 4025 <_sk_load_4444_dst_skx+0x21>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,122,0,0,0 // lea 0x7a(%rip),%r10 # 4124 <_sk_load_4444_dst_skx+0x124>
+ .byte 76,141,21,122,0,0,0 // lea 0x7a(%rip),%r10 # 4128 <_sk_load_4444_dst_skx+0x124>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 67,15,183,4,88 // movzwl (%r8,%r11,2),%eax
.byte 197,249,110,224 // vmovd %eax,%xmm4
- .byte 233,96,255,255,255 // jmpq 4021 <_sk_load_4444_dst_skx+0x21>
+ .byte 233,96,255,255,255 // jmpq 4025 <_sk_load_4444_dst_skx+0x21>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,129,89,196,100,88,4,2 // vpinsrw $0x2,0x4(%r8,%r11,2),%xmm4,%xmm4
.byte 196,130,121,52,44,88 // vpmovzxwq (%r8,%r11,2),%xmm5
.byte 197,249,112,237,232 // vpshufd $0xe8,%xmm5,%xmm5
.byte 197,251,112,237,232 // vpshuflw $0xe8,%xmm5,%xmm5
.byte 196,227,89,2,229,1 // vpblendd $0x1,%xmm5,%xmm4,%xmm4
- .byte 233,57,255,255,255 // jmpq 4021 <_sk_load_4444_dst_skx+0x21>
+ .byte 233,57,255,255,255 // jmpq 4025 <_sk_load_4444_dst_skx+0x21>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,129,89,196,100,88,12,6 // vpinsrw $0x6,0xc(%r8,%r11,2),%xmm4,%xmm4
.byte 196,129,89,196,100,88,10,5 // vpinsrw $0x5,0xa(%r8,%r11,2),%xmm4,%xmm4
@@ -13359,7 +13365,7 @@ _sk_load_4444_dst_skx:
.byte 197,250,112,237,232 // vpshufhw $0xe8,%xmm5,%xmm5
.byte 197,249,112,237,132 // vpshufd $0x84,%xmm5,%xmm5
.byte 197,209,109,228 // vpunpckhqdq %xmm4,%xmm5,%xmm4
- .byte 233,255,254,255,255 // jmpq 4021 <_sk_load_4444_dst_skx+0x21>
+ .byte 233,255,254,255,255 // jmpq 4025 <_sk_load_4444_dst_skx+0x21>
.byte 102,144 // xchg %ax,%ax
.byte 143 // (bad)
.byte 255 // (bad)
@@ -13435,18 +13441,18 @@ _sk_gather_4444_skx:
.byte 65,15,183,4,88 // movzwl (%r8,%rbx,2),%eax
.byte 197,249,196,192,7 // vpinsrw $0x7,%eax,%xmm0,%xmm0
.byte 196,226,125,51,216 // vpmovzxwd %xmm0,%ymm3
- .byte 98,241,101,56,219,5,151,232,2,0 // vpandd 0x2e897(%rip){1to8},%ymm3,%ymm0 # 32abc <_sk_srcover_rgba_8888_sse2_lowp+0x97c>
+ .byte 98,241,101,56,219,5,183,232,2,0 // vpandd 0x2e8b7(%rip){1to8},%ymm3,%ymm0 # 32ae0 <_sk_srcover_rgba_8888_sse2_lowp+0x984>
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 98,241,124,56,89,5,141,232,2,0 // vmulps 0x2e88d(%rip){1to8},%ymm0,%ymm0 # 32ac0 <_sk_srcover_rgba_8888_sse2_lowp+0x980>
- .byte 98,241,101,56,219,13,135,232,2,0 // vpandd 0x2e887(%rip){1to8},%ymm3,%ymm1 # 32ac4 <_sk_srcover_rgba_8888_sse2_lowp+0x984>
+ .byte 98,241,124,56,89,5,173,232,2,0 // vmulps 0x2e8ad(%rip){1to8},%ymm0,%ymm0 # 32ae4 <_sk_srcover_rgba_8888_sse2_lowp+0x988>
+ .byte 98,241,101,56,219,13,167,232,2,0 // vpandd 0x2e8a7(%rip){1to8},%ymm3,%ymm1 # 32ae8 <_sk_srcover_rgba_8888_sse2_lowp+0x98c>
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
- .byte 98,241,116,56,89,13,125,232,2,0 // vmulps 0x2e87d(%rip){1to8},%ymm1,%ymm1 # 32ac8 <_sk_srcover_rgba_8888_sse2_lowp+0x988>
- .byte 98,241,101,56,219,21,119,232,2,0 // vpandd 0x2e877(%rip){1to8},%ymm3,%ymm2 # 32acc <_sk_srcover_rgba_8888_sse2_lowp+0x98c>
+ .byte 98,241,116,56,89,13,157,232,2,0 // vmulps 0x2e89d(%rip){1to8},%ymm1,%ymm1 # 32aec <_sk_srcover_rgba_8888_sse2_lowp+0x990>
+ .byte 98,241,101,56,219,21,151,232,2,0 // vpandd 0x2e897(%rip){1to8},%ymm3,%ymm2 # 32af0 <_sk_srcover_rgba_8888_sse2_lowp+0x994>
.byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
- .byte 98,241,108,56,89,21,109,232,2,0 // vmulps 0x2e86d(%rip){1to8},%ymm2,%ymm2 # 32ad0 <_sk_srcover_rgba_8888_sse2_lowp+0x990>
- .byte 98,241,101,56,219,29,103,232,2,0 // vpandd 0x2e867(%rip){1to8},%ymm3,%ymm3 # 32ad4 <_sk_srcover_rgba_8888_sse2_lowp+0x994>
+ .byte 98,241,108,56,89,21,141,232,2,0 // vmulps 0x2e88d(%rip){1to8},%ymm2,%ymm2 # 32af4 <_sk_srcover_rgba_8888_sse2_lowp+0x998>
+ .byte 98,241,101,56,219,29,135,232,2,0 // vpandd 0x2e887(%rip){1to8},%ymm3,%ymm3 # 32af8 <_sk_srcover_rgba_8888_sse2_lowp+0x99c>
.byte 197,252,91,219 // vcvtdq2ps %ymm3,%ymm3
- .byte 98,241,100,56,89,29,93,232,2,0 // vmulps 0x2e85d(%rip){1to8},%ymm3,%ymm3 # 32ad8 <_sk_srcover_rgba_8888_sse2_lowp+0x998>
+ .byte 98,241,100,56,89,29,125,232,2,0 // vmulps 0x2e87d(%rip){1to8},%ymm3,%ymm3 # 32afc <_sk_srcover_rgba_8888_sse2_lowp+0x9a0>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 91 // pop %rbx
.byte 65,92 // pop %r12
@@ -13465,7 +13471,7 @@ _sk_store_4444_skx:
.byte 77,1,192 // add %r8,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
- .byte 196,98,125,24,5,55,232,2,0 // vbroadcastss 0x2e837(%rip),%ymm8 # 32adc <_sk_srcover_rgba_8888_sse2_lowp+0x99c>
+ .byte 196,98,125,24,5,87,232,2,0 // vbroadcastss 0x2e857(%rip),%ymm8 # 32b00 <_sk_srcover_rgba_8888_sse2_lowp+0x9a4>
.byte 196,65,124,89,200 // vmulps %ymm8,%ymm0,%ymm9
.byte 196,65,125,91,201 // vcvtps2dq %ymm9,%ymm9
.byte 196,193,53,114,241,12 // vpslld $0xc,%ymm9,%ymm9
@@ -13483,7 +13489,7 @@ _sk_store_4444_skx:
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,66,57,43,193 // vpackusdw %xmm9,%xmm8,%xmm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,10 // jne 4308 <_sk_store_4444_skx+0x82>
+ .byte 117,10 // jne 430c <_sk_store_4444_skx+0x82>
.byte 196,1,122,127,4,88 // vmovdqu %xmm8,(%r8,%r11,2)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -13491,24 +13497,24 @@ _sk_store_4444_skx:
.byte 65,128,225,7 // and $0x7,%r9b
.byte 65,128,193,255 // add $0xff,%r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,235 // ja 4304 <_sk_store_4444_skx+0x7e>
+ .byte 119,235 // ja 4308 <_sk_store_4444_skx+0x7e>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,80,0,0,0 // lea 0x50(%rip),%r10 # 4374 <_sk_store_4444_skx+0xee>
+ .byte 76,141,21,80,0,0,0 // lea 0x50(%rip),%r10 # 4378 <_sk_store_4444_skx+0xee>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 196,3,121,21,4,88,0 // vpextrw $0x0,%xmm8,(%r8,%r11,2)
- .byte 235,206 // jmp 4304 <_sk_store_4444_skx+0x7e>
+ .byte 235,206 // jmp 4308 <_sk_store_4444_skx+0x7e>
.byte 196,3,121,21,68,88,4,2 // vpextrw $0x2,%xmm8,0x4(%r8,%r11,2)
.byte 196,66,121,52,192 // vpmovzxwq %xmm8,%xmm8
.byte 98,18,126,8,52,4,88 // vpmovqw %xmm8,(%r8,%r11,2)
- .byte 235,184 // jmp 4304 <_sk_store_4444_skx+0x7e>
+ .byte 235,184 // jmp 4308 <_sk_store_4444_skx+0x7e>
.byte 196,3,121,21,68,88,12,6 // vpextrw $0x6,%xmm8,0xc(%r8,%r11,2)
.byte 196,3,121,21,68,88,10,5 // vpextrw $0x5,%xmm8,0xa(%r8,%r11,2)
.byte 196,3,121,21,68,88,8,4 // vpextrw $0x4,%xmm8,0x8(%r8,%r11,2)
.byte 196,66,121,51,192 // vpmovzxwd %xmm8,%xmm8
.byte 98,18,126,8,51,4,88 // vpmovdw %xmm8,(%r8,%r11,2)
- .byte 235,146 // jmp 4304 <_sk_store_4444_skx+0x7e>
+ .byte 235,146 // jmp 4308 <_sk_store_4444_skx+0x7e>
.byte 102,144 // xchg %ax,%ax
.byte 185,255,255,255,202 // mov $0xcaffffff,%ecx
.byte 255 // (bad)
@@ -13520,7 +13526,7 @@ _sk_store_4444_skx:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 232,255,255,255,224 // callq ffffffffe1004388 <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffe0fd2248>
+ .byte 232,255,255,255,224 // callq ffffffffe100438c <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffe0fd2230>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
@@ -13540,13 +13546,13 @@ _sk_load_8888_skx:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,97 // jne 440d <_sk_load_8888_skx+0x7d>
+ .byte 117,97 // jne 4411 <_sk_load_8888_skx+0x7d>
.byte 196,129,126,111,28,152 // vmovdqu (%r8,%r11,4),%ymm3
.byte 184,17,17,17,17 // mov $0x11111111,%eax
.byte 197,251,146,200 // kmovd %eax,%k1
.byte 98,241,127,169,111,195 // vmovdqu8 %ymm3,%ymm0{%k1}{z}
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,98,125,24,5,110,230,2,0 // vbroadcastss 0x2e66e(%rip),%ymm8 # 32a3c <_sk_srcover_rgba_8888_sse2_lowp+0x8fc>
+ .byte 196,98,125,24,5,142,230,2,0 // vbroadcastss 0x2e68e(%rip),%ymm8 # 32a60 <_sk_srcover_rgba_8888_sse2_lowp+0x904>
.byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
.byte 197,245,114,211,8 // vpsrld $0x8,%ymm3,%ymm1
.byte 98,241,127,169,111,201 // vmovdqu8 %ymm1,%ymm1{%k1}{z}
@@ -13566,14 +13572,14 @@ _sk_load_8888_skx:
.byte 197,229,239,219 // vpxor %ymm3,%ymm3,%ymm3
.byte 65,128,193,255 // add $0xff,%r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,144 // ja 43b2 <_sk_load_8888_skx+0x22>
+ .byte 119,144 // ja 43b6 <_sk_load_8888_skx+0x22>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,139,0,0,0 // lea 0x8b(%rip),%r10 # 44b8 <_sk_load_8888_skx+0x128>
+ .byte 76,141,21,139,0,0,0 // lea 0x8b(%rip),%r10 # 44bc <_sk_load_8888_skx+0x128>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 196,129,121,110,28,152 // vmovd (%r8,%r11,4),%xmm3
- .byte 233,113,255,255,255 // jmpq 43b2 <_sk_load_8888_skx+0x22>
+ .byte 233,113,255,255,255 // jmpq 43b6 <_sk_load_8888_skx+0x22>
.byte 196,129,121,110,68,152,8 // vmovd 0x8(%r8,%r11,4),%xmm0
.byte 176,4 // mov $0x4,%al
.byte 197,251,146,200 // kmovd %eax,%k1
@@ -13581,7 +13587,7 @@ _sk_load_8888_skx:
.byte 196,130,121,53,4,152 // vpmovzxdq (%r8,%r11,4),%xmm0
.byte 197,249,112,192,232 // vpshufd $0xe8,%xmm0,%xmm0
.byte 196,227,101,2,216,3 // vpblendd $0x3,%ymm0,%ymm3,%ymm3
- .byte 233,72,255,255,255 // jmpq 43b2 <_sk_load_8888_skx+0x22>
+ .byte 233,72,255,255,255 // jmpq 43b6 <_sk_load_8888_skx+0x22>
.byte 196,129,121,110,68,152,24 // vmovd 0x18(%r8,%r11,4),%xmm0
.byte 176,64 // mov $0x40,%al
.byte 197,251,146,200 // kmovd %eax,%k1
@@ -13594,9 +13600,9 @@ _sk_load_8888_skx:
.byte 196,227,101,56,216,1 // vinserti128 $0x1,%xmm0,%ymm3,%ymm3
.byte 196,129,122,111,4,152 // vmovdqu (%r8,%r11,4),%xmm0
.byte 196,227,125,2,219,240 // vpblendd $0xf0,%ymm3,%ymm0,%ymm3
- .byte 233,252,254,255,255 // jmpq 43b2 <_sk_load_8888_skx+0x22>
+ .byte 233,252,254,255,255 // jmpq 43b6 <_sk_load_8888_skx+0x22>
.byte 102,144 // xchg %ax,%ax
- .byte 126,255 // jle 44b9 <_sk_load_8888_skx+0x129>
+ .byte 126,255 // jle 44bd <_sk_load_8888_skx+0x129>
.byte 255 // (bad)
.byte 255,156,255,255,255,137,255 // lcall *-0x760001(%rdi,%rdi,8)
.byte 255 // (bad)
@@ -13627,13 +13633,13 @@ _sk_load_8888_dst_skx:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,97 // jne 4551 <_sk_load_8888_dst_skx+0x7d>
+ .byte 117,97 // jne 4555 <_sk_load_8888_dst_skx+0x7d>
.byte 196,129,126,111,60,152 // vmovdqu (%r8,%r11,4),%ymm7
.byte 184,17,17,17,17 // mov $0x11111111,%eax
.byte 197,251,146,200 // kmovd %eax,%k1
.byte 98,241,127,169,111,231 // vmovdqu8 %ymm7,%ymm4{%k1}{z}
.byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
- .byte 196,98,125,24,5,42,229,2,0 // vbroadcastss 0x2e52a(%rip),%ymm8 # 32a3c <_sk_srcover_rgba_8888_sse2_lowp+0x8fc>
+ .byte 196,98,125,24,5,74,229,2,0 // vbroadcastss 0x2e54a(%rip),%ymm8 # 32a60 <_sk_srcover_rgba_8888_sse2_lowp+0x904>
.byte 196,193,92,89,224 // vmulps %ymm8,%ymm4,%ymm4
.byte 197,213,114,215,8 // vpsrld $0x8,%ymm7,%ymm5
.byte 98,241,127,169,111,237 // vmovdqu8 %ymm5,%ymm5{%k1}{z}
@@ -13653,14 +13659,14 @@ _sk_load_8888_dst_skx:
.byte 197,197,239,255 // vpxor %ymm7,%ymm7,%ymm7
.byte 65,128,193,255 // add $0xff,%r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,144 // ja 44f6 <_sk_load_8888_dst_skx+0x22>
+ .byte 119,144 // ja 44fa <_sk_load_8888_dst_skx+0x22>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,139,0,0,0 // lea 0x8b(%rip),%r10 # 45fc <_sk_load_8888_dst_skx+0x128>
+ .byte 76,141,21,139,0,0,0 // lea 0x8b(%rip),%r10 # 4600 <_sk_load_8888_dst_skx+0x128>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 196,129,121,110,60,152 // vmovd (%r8,%r11,4),%xmm7
- .byte 233,113,255,255,255 // jmpq 44f6 <_sk_load_8888_dst_skx+0x22>
+ .byte 233,113,255,255,255 // jmpq 44fa <_sk_load_8888_dst_skx+0x22>
.byte 196,129,121,110,100,152,8 // vmovd 0x8(%r8,%r11,4),%xmm4
.byte 176,4 // mov $0x4,%al
.byte 197,251,146,200 // kmovd %eax,%k1
@@ -13668,7 +13674,7 @@ _sk_load_8888_dst_skx:
.byte 196,130,121,53,36,152 // vpmovzxdq (%r8,%r11,4),%xmm4
.byte 197,249,112,228,232 // vpshufd $0xe8,%xmm4,%xmm4
.byte 196,227,69,2,252,3 // vpblendd $0x3,%ymm4,%ymm7,%ymm7
- .byte 233,72,255,255,255 // jmpq 44f6 <_sk_load_8888_dst_skx+0x22>
+ .byte 233,72,255,255,255 // jmpq 44fa <_sk_load_8888_dst_skx+0x22>
.byte 196,129,121,110,100,152,24 // vmovd 0x18(%r8,%r11,4),%xmm4
.byte 176,64 // mov $0x40,%al
.byte 197,251,146,200 // kmovd %eax,%k1
@@ -13681,9 +13687,9 @@ _sk_load_8888_dst_skx:
.byte 196,227,69,56,252,1 // vinserti128 $0x1,%xmm4,%ymm7,%ymm7
.byte 196,129,122,111,36,152 // vmovdqu (%r8,%r11,4),%xmm4
.byte 196,227,93,2,255,240 // vpblendd $0xf0,%ymm7,%ymm4,%ymm7
- .byte 233,252,254,255,255 // jmpq 44f6 <_sk_load_8888_dst_skx+0x22>
+ .byte 233,252,254,255,255 // jmpq 44fa <_sk_load_8888_dst_skx+0x22>
.byte 102,144 // xchg %ax,%ax
- .byte 126,255 // jle 45fd <_sk_load_8888_dst_skx+0x129>
+ .byte 126,255 // jle 4601 <_sk_load_8888_dst_skx+0x129>
.byte 255 // (bad)
.byte 255,156,255,255,255,137,255 // lcall *-0x760001(%rdi,%rdi,8)
.byte 255 // (bad)
@@ -13727,7 +13733,7 @@ _sk_gather_8888_skx:
.byte 197,251,146,200 // kmovd %eax,%k1
.byte 98,209,127,169,111,192 // vmovdqu8 %ymm8,%ymm0{%k1}{z}
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,29,189,227,2,0 // vbroadcastss 0x2e3bd(%rip),%ymm3 # 32a3c <_sk_srcover_rgba_8888_sse2_lowp+0x8fc>
+ .byte 196,226,125,24,29,221,227,2,0 // vbroadcastss 0x2e3dd(%rip),%ymm3 # 32a60 <_sk_srcover_rgba_8888_sse2_lowp+0x904>
.byte 197,252,89,195 // vmulps %ymm3,%ymm0,%ymm0
.byte 196,193,117,114,208,8 // vpsrld $0x8,%ymm8,%ymm1
.byte 98,241,127,169,111,201 // vmovdqu8 %ymm1,%ymm1{%k1}{z}
@@ -13754,7 +13760,7 @@ _sk_store_8888_skx:
.byte 73,193,224,2 // shl $0x2,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
- .byte 196,98,125,24,5,22,227,2,0 // vbroadcastss 0x2e316(%rip),%ymm8 # 329f4 <_sk_srcover_rgba_8888_sse2_lowp+0x8b4>
+ .byte 196,98,125,24,5,50,227,2,0 // vbroadcastss 0x2e332(%rip),%ymm8 # 32a14 <_sk_srcover_rgba_8888_sse2_lowp+0x8b8>
.byte 196,65,124,89,200 // vmulps %ymm8,%ymm0,%ymm9
.byte 196,65,125,91,201 // vcvtps2dq %ymm9,%ymm9
.byte 196,65,116,89,208 // vmulps %ymm8,%ymm1,%ymm10
@@ -13770,7 +13776,7 @@ _sk_store_8888_skx:
.byte 196,65,45,235,192 // vpor %ymm8,%ymm10,%ymm8
.byte 196,65,53,235,192 // vpor %ymm8,%ymm9,%ymm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,10 // jne 4736 <_sk_store_8888_skx+0x78>
+ .byte 117,10 // jne 473a <_sk_store_8888_skx+0x78>
.byte 196,1,126,127,4,152 // vmovdqu %ymm8,(%r8,%r11,4)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -13778,18 +13784,18 @@ _sk_store_8888_skx:
.byte 65,128,225,7 // and $0x7,%r9b
.byte 65,128,193,255 // add $0xff,%r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,235 // ja 4732 <_sk_store_8888_skx+0x74>
+ .byte 119,235 // ja 4736 <_sk_store_8888_skx+0x74>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,90,0,0,0 // lea 0x5a(%rip),%r10 # 47ac <_sk_store_8888_skx+0xee>
+ .byte 76,141,21,90,0,0,0 // lea 0x5a(%rip),%r10 # 47b0 <_sk_store_8888_skx+0xee>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 196,1,121,126,4,152 // vmovd %xmm8,(%r8,%r11,4)
- .byte 235,207 // jmp 4732 <_sk_store_8888_skx+0x74>
+ .byte 235,207 // jmp 4736 <_sk_store_8888_skx+0x74>
.byte 196,3,121,22,68,152,8,2 // vpextrd $0x2,%xmm8,0x8(%r8,%r11,4)
.byte 196,66,121,53,192 // vpmovzxdq %xmm8,%xmm8
.byte 98,18,126,8,53,4,152 // vpmovqd %xmm8,(%r8,%r11,4)
- .byte 235,185 // jmp 4732 <_sk_store_8888_skx+0x74>
+ .byte 235,185 // jmp 4736 <_sk_store_8888_skx+0x74>
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,3,121,22,76,152,24,2 // vpextrd $0x2,%xmm9,0x18(%r8,%r11,4)
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
@@ -13797,7 +13803,7 @@ _sk_store_8888_skx:
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,1,121,126,76,152,16 // vmovd %xmm9,0x10(%r8,%r11,4)
.byte 196,1,122,127,4,152 // vmovdqu %xmm8,(%r8,%r11,4)
- .byte 235,136 // jmp 4732 <_sk_store_8888_skx+0x74>
+ .byte 235,136 // jmp 4736 <_sk_store_8888_skx+0x74>
.byte 102,144 // xchg %ax,%ax
.byte 175 // scas %es:(%rdi),%eax
.byte 255 // (bad)
@@ -13810,7 +13816,7 @@ _sk_store_8888_skx:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 233,255,255,255,219 // jmpq ffffffffdc0047c0 <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffdbfd2680>
+ .byte 233,255,255,255,219 // jmpq ffffffffdc0047c4 <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffdbfd2668>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,205 // dec %ebp
@@ -13830,13 +13836,13 @@ _sk_load_bgra_skx:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,97 // jne 4845 <_sk_load_bgra_skx+0x7d>
+ .byte 117,97 // jne 4849 <_sk_load_bgra_skx+0x7d>
.byte 196,129,126,111,28,152 // vmovdqu (%r8,%r11,4),%ymm3
.byte 184,17,17,17,17 // mov $0x11111111,%eax
.byte 197,251,146,200 // kmovd %eax,%k1
.byte 98,241,127,169,111,195 // vmovdqu8 %ymm3,%ymm0{%k1}{z}
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,98,125,24,5,54,226,2,0 // vbroadcastss 0x2e236(%rip),%ymm8 # 32a3c <_sk_srcover_rgba_8888_sse2_lowp+0x8fc>
+ .byte 196,98,125,24,5,86,226,2,0 // vbroadcastss 0x2e256(%rip),%ymm8 # 32a60 <_sk_srcover_rgba_8888_sse2_lowp+0x904>
.byte 196,193,124,89,208 // vmulps %ymm8,%ymm0,%ymm2
.byte 197,253,114,211,8 // vpsrld $0x8,%ymm3,%ymm0
.byte 98,241,127,169,111,192 // vmovdqu8 %ymm0,%ymm0{%k1}{z}
@@ -13856,14 +13862,14 @@ _sk_load_bgra_skx:
.byte 197,229,239,219 // vpxor %ymm3,%ymm3,%ymm3
.byte 65,128,193,255 // add $0xff,%r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,144 // ja 47ea <_sk_load_bgra_skx+0x22>
+ .byte 119,144 // ja 47ee <_sk_load_bgra_skx+0x22>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,139,0,0,0 // lea 0x8b(%rip),%r10 # 48f0 <_sk_load_bgra_skx+0x128>
+ .byte 76,141,21,139,0,0,0 // lea 0x8b(%rip),%r10 # 48f4 <_sk_load_bgra_skx+0x128>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 196,129,121,110,28,152 // vmovd (%r8,%r11,4),%xmm3
- .byte 233,113,255,255,255 // jmpq 47ea <_sk_load_bgra_skx+0x22>
+ .byte 233,113,255,255,255 // jmpq 47ee <_sk_load_bgra_skx+0x22>
.byte 196,129,121,110,68,152,8 // vmovd 0x8(%r8,%r11,4),%xmm0
.byte 176,4 // mov $0x4,%al
.byte 197,251,146,200 // kmovd %eax,%k1
@@ -13871,7 +13877,7 @@ _sk_load_bgra_skx:
.byte 196,130,121,53,4,152 // vpmovzxdq (%r8,%r11,4),%xmm0
.byte 197,249,112,192,232 // vpshufd $0xe8,%xmm0,%xmm0
.byte 196,227,101,2,216,3 // vpblendd $0x3,%ymm0,%ymm3,%ymm3
- .byte 233,72,255,255,255 // jmpq 47ea <_sk_load_bgra_skx+0x22>
+ .byte 233,72,255,255,255 // jmpq 47ee <_sk_load_bgra_skx+0x22>
.byte 196,129,121,110,68,152,24 // vmovd 0x18(%r8,%r11,4),%xmm0
.byte 176,64 // mov $0x40,%al
.byte 197,251,146,200 // kmovd %eax,%k1
@@ -13884,9 +13890,9 @@ _sk_load_bgra_skx:
.byte 196,227,101,56,216,1 // vinserti128 $0x1,%xmm0,%ymm3,%ymm3
.byte 196,129,122,111,4,152 // vmovdqu (%r8,%r11,4),%xmm0
.byte 196,227,125,2,219,240 // vpblendd $0xf0,%ymm3,%ymm0,%ymm3
- .byte 233,252,254,255,255 // jmpq 47ea <_sk_load_bgra_skx+0x22>
+ .byte 233,252,254,255,255 // jmpq 47ee <_sk_load_bgra_skx+0x22>
.byte 102,144 // xchg %ax,%ax
- .byte 126,255 // jle 48f1 <_sk_load_bgra_skx+0x129>
+ .byte 126,255 // jle 48f5 <_sk_load_bgra_skx+0x129>
.byte 255 // (bad)
.byte 255,156,255,255,255,137,255 // lcall *-0x760001(%rdi,%rdi,8)
.byte 255 // (bad)
@@ -13917,13 +13923,13 @@ _sk_load_bgra_dst_skx:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,97 // jne 4989 <_sk_load_bgra_dst_skx+0x7d>
+ .byte 117,97 // jne 498d <_sk_load_bgra_dst_skx+0x7d>
.byte 196,129,126,111,60,152 // vmovdqu (%r8,%r11,4),%ymm7
.byte 184,17,17,17,17 // mov $0x11111111,%eax
.byte 197,251,146,200 // kmovd %eax,%k1
.byte 98,241,127,169,111,231 // vmovdqu8 %ymm7,%ymm4{%k1}{z}
.byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
- .byte 196,98,125,24,5,242,224,2,0 // vbroadcastss 0x2e0f2(%rip),%ymm8 # 32a3c <_sk_srcover_rgba_8888_sse2_lowp+0x8fc>
+ .byte 196,98,125,24,5,18,225,2,0 // vbroadcastss 0x2e112(%rip),%ymm8 # 32a60 <_sk_srcover_rgba_8888_sse2_lowp+0x904>
.byte 196,193,92,89,240 // vmulps %ymm8,%ymm4,%ymm6
.byte 197,221,114,215,8 // vpsrld $0x8,%ymm7,%ymm4
.byte 98,241,127,169,111,228 // vmovdqu8 %ymm4,%ymm4{%k1}{z}
@@ -13943,14 +13949,14 @@ _sk_load_bgra_dst_skx:
.byte 197,197,239,255 // vpxor %ymm7,%ymm7,%ymm7
.byte 65,128,193,255 // add $0xff,%r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,144 // ja 492e <_sk_load_bgra_dst_skx+0x22>
+ .byte 119,144 // ja 4932 <_sk_load_bgra_dst_skx+0x22>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,139,0,0,0 // lea 0x8b(%rip),%r10 # 4a34 <_sk_load_bgra_dst_skx+0x128>
+ .byte 76,141,21,139,0,0,0 // lea 0x8b(%rip),%r10 # 4a38 <_sk_load_bgra_dst_skx+0x128>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 196,129,121,110,60,152 // vmovd (%r8,%r11,4),%xmm7
- .byte 233,113,255,255,255 // jmpq 492e <_sk_load_bgra_dst_skx+0x22>
+ .byte 233,113,255,255,255 // jmpq 4932 <_sk_load_bgra_dst_skx+0x22>
.byte 196,129,121,110,100,152,8 // vmovd 0x8(%r8,%r11,4),%xmm4
.byte 176,4 // mov $0x4,%al
.byte 197,251,146,200 // kmovd %eax,%k1
@@ -13958,7 +13964,7 @@ _sk_load_bgra_dst_skx:
.byte 196,130,121,53,36,152 // vpmovzxdq (%r8,%r11,4),%xmm4
.byte 197,249,112,228,232 // vpshufd $0xe8,%xmm4,%xmm4
.byte 196,227,69,2,252,3 // vpblendd $0x3,%ymm4,%ymm7,%ymm7
- .byte 233,72,255,255,255 // jmpq 492e <_sk_load_bgra_dst_skx+0x22>
+ .byte 233,72,255,255,255 // jmpq 4932 <_sk_load_bgra_dst_skx+0x22>
.byte 196,129,121,110,100,152,24 // vmovd 0x18(%r8,%r11,4),%xmm4
.byte 176,64 // mov $0x40,%al
.byte 197,251,146,200 // kmovd %eax,%k1
@@ -13971,9 +13977,9 @@ _sk_load_bgra_dst_skx:
.byte 196,227,69,56,252,1 // vinserti128 $0x1,%xmm4,%ymm7,%ymm7
.byte 196,129,122,111,36,152 // vmovdqu (%r8,%r11,4),%xmm4
.byte 196,227,93,2,255,240 // vpblendd $0xf0,%ymm7,%ymm4,%ymm7
- .byte 233,252,254,255,255 // jmpq 492e <_sk_load_bgra_dst_skx+0x22>
+ .byte 233,252,254,255,255 // jmpq 4932 <_sk_load_bgra_dst_skx+0x22>
.byte 102,144 // xchg %ax,%ax
- .byte 126,255 // jle 4a35 <_sk_load_bgra_dst_skx+0x129>
+ .byte 126,255 // jle 4a39 <_sk_load_bgra_dst_skx+0x129>
.byte 255 // (bad)
.byte 255,156,255,255,255,137,255 // lcall *-0x760001(%rdi,%rdi,8)
.byte 255 // (bad)
@@ -14017,7 +14023,7 @@ _sk_gather_bgra_skx:
.byte 197,251,146,200 // kmovd %eax,%k1
.byte 98,209,127,169,111,192 // vmovdqu8 %ymm8,%ymm0{%k1}{z}
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,29,133,223,2,0 // vbroadcastss 0x2df85(%rip),%ymm3 # 32a3c <_sk_srcover_rgba_8888_sse2_lowp+0x8fc>
+ .byte 196,226,125,24,29,165,223,2,0 // vbroadcastss 0x2dfa5(%rip),%ymm3 # 32a60 <_sk_srcover_rgba_8888_sse2_lowp+0x904>
.byte 197,252,89,211 // vmulps %ymm3,%ymm0,%ymm2
.byte 196,193,125,114,208,8 // vpsrld $0x8,%ymm8,%ymm0
.byte 98,241,127,169,111,192 // vmovdqu8 %ymm0,%ymm0{%k1}{z}
@@ -14044,7 +14050,7 @@ _sk_store_bgra_skx:
.byte 73,193,224,2 // shl $0x2,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
- .byte 196,98,125,24,5,222,222,2,0 // vbroadcastss 0x2dede(%rip),%ymm8 # 329f4 <_sk_srcover_rgba_8888_sse2_lowp+0x8b4>
+ .byte 196,98,125,24,5,250,222,2,0 // vbroadcastss 0x2defa(%rip),%ymm8 # 32a14 <_sk_srcover_rgba_8888_sse2_lowp+0x8b8>
.byte 196,65,108,89,200 // vmulps %ymm8,%ymm2,%ymm9
.byte 196,65,125,91,201 // vcvtps2dq %ymm9,%ymm9
.byte 196,65,116,89,208 // vmulps %ymm8,%ymm1,%ymm10
@@ -14060,7 +14066,7 @@ _sk_store_bgra_skx:
.byte 196,65,45,235,192 // vpor %ymm8,%ymm10,%ymm8
.byte 196,65,53,235,192 // vpor %ymm8,%ymm9,%ymm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,10 // jne 4b6e <_sk_store_bgra_skx+0x78>
+ .byte 117,10 // jne 4b72 <_sk_store_bgra_skx+0x78>
.byte 196,1,126,127,4,152 // vmovdqu %ymm8,(%r8,%r11,4)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -14068,18 +14074,18 @@ _sk_store_bgra_skx:
.byte 65,128,225,7 // and $0x7,%r9b
.byte 65,128,193,255 // add $0xff,%r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,235 // ja 4b6a <_sk_store_bgra_skx+0x74>
+ .byte 119,235 // ja 4b6e <_sk_store_bgra_skx+0x74>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,90,0,0,0 // lea 0x5a(%rip),%r10 # 4be4 <_sk_store_bgra_skx+0xee>
+ .byte 76,141,21,90,0,0,0 // lea 0x5a(%rip),%r10 # 4be8 <_sk_store_bgra_skx+0xee>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 196,1,121,126,4,152 // vmovd %xmm8,(%r8,%r11,4)
- .byte 235,207 // jmp 4b6a <_sk_store_bgra_skx+0x74>
+ .byte 235,207 // jmp 4b6e <_sk_store_bgra_skx+0x74>
.byte 196,3,121,22,68,152,8,2 // vpextrd $0x2,%xmm8,0x8(%r8,%r11,4)
.byte 196,66,121,53,192 // vpmovzxdq %xmm8,%xmm8
.byte 98,18,126,8,53,4,152 // vpmovqd %xmm8,(%r8,%r11,4)
- .byte 235,185 // jmp 4b6a <_sk_store_bgra_skx+0x74>
+ .byte 235,185 // jmp 4b6e <_sk_store_bgra_skx+0x74>
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,3,121,22,76,152,24,2 // vpextrd $0x2,%xmm9,0x18(%r8,%r11,4)
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
@@ -14087,7 +14093,7 @@ _sk_store_bgra_skx:
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,1,121,126,76,152,16 // vmovd %xmm9,0x10(%r8,%r11,4)
.byte 196,1,122,127,4,152 // vmovdqu %xmm8,(%r8,%r11,4)
- .byte 235,136 // jmp 4b6a <_sk_store_bgra_skx+0x74>
+ .byte 235,136 // jmp 4b6e <_sk_store_bgra_skx+0x74>
.byte 102,144 // xchg %ax,%ax
.byte 175 // scas %es:(%rdi),%eax
.byte 255 // (bad)
@@ -14100,7 +14106,7 @@ _sk_store_bgra_skx:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 233,255,255,255,219 // jmpq ffffffffdc004bf8 <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffdbfd2ab8>
+ .byte 233,255,255,255,219 // jmpq ffffffffdc004bfc <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffdbfd2aa0>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,205 // dec %ebp
@@ -14120,7 +14126,7 @@ _sk_load_f16_skx:
.byte 76,3,0 // add (%rax),%r8
.byte 72,99,194 // movslq %edx,%rax
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,101 // jne 4c81 <_sk_load_f16_skx+0x81>
+ .byte 117,101 // jne 4c85 <_sk_load_f16_skx+0x81>
.byte 196,65,121,16,4,192 // vmovupd (%r8,%rax,8),%xmm8
.byte 196,193,121,16,84,192,16 // vmovupd 0x10(%r8,%rax,8),%xmm2
.byte 196,193,121,16,76,192,32 // vmovupd 0x20(%r8,%rax,8),%xmm1
@@ -14146,29 +14152,29 @@ _sk_load_f16_skx:
.byte 196,65,123,16,4,192 // vmovsd (%r8,%rax,8),%xmm8
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 116,85 // je 4ce7 <_sk_load_f16_skx+0xe7>
+ .byte 116,85 // je 4ceb <_sk_load_f16_skx+0xe7>
.byte 196,65,57,22,68,192,8 // vmovhpd 0x8(%r8,%rax,8),%xmm8,%xmm8
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,72 // jb 4ce7 <_sk_load_f16_skx+0xe7>
+ .byte 114,72 // jb 4ceb <_sk_load_f16_skx+0xe7>
.byte 196,193,123,16,84,192,16 // vmovsd 0x10(%r8,%rax,8),%xmm2
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 116,72 // je 4cf4 <_sk_load_f16_skx+0xf4>
+ .byte 116,72 // je 4cf8 <_sk_load_f16_skx+0xf4>
.byte 196,193,105,22,84,192,24 // vmovhpd 0x18(%r8,%rax,8),%xmm2,%xmm2
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 114,59 // jb 4cf4 <_sk_load_f16_skx+0xf4>
+ .byte 114,59 // jb 4cf8 <_sk_load_f16_skx+0xf4>
.byte 196,193,123,16,76,192,32 // vmovsd 0x20(%r8,%rax,8),%xmm1
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 15,132,109,255,255,255 // je 4c37 <_sk_load_f16_skx+0x37>
+ .byte 15,132,109,255,255,255 // je 4c3b <_sk_load_f16_skx+0x37>
.byte 196,193,113,22,76,192,40 // vmovhpd 0x28(%r8,%rax,8),%xmm1,%xmm1
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 15,130,92,255,255,255 // jb 4c37 <_sk_load_f16_skx+0x37>
+ .byte 15,130,92,255,255,255 // jb 4c3b <_sk_load_f16_skx+0x37>
.byte 196,65,122,126,76,192,48 // vmovq 0x30(%r8,%rax,8),%xmm9
- .byte 233,80,255,255,255 // jmpq 4c37 <_sk_load_f16_skx+0x37>
+ .byte 233,80,255,255,255 // jmpq 4c3b <_sk_load_f16_skx+0x37>
.byte 197,241,87,201 // vxorpd %xmm1,%xmm1,%xmm1
.byte 197,233,87,210 // vxorpd %xmm2,%xmm2,%xmm2
- .byte 233,67,255,255,255 // jmpq 4c37 <_sk_load_f16_skx+0x37>
+ .byte 233,67,255,255,255 // jmpq 4c3b <_sk_load_f16_skx+0x37>
.byte 197,241,87,201 // vxorpd %xmm1,%xmm1,%xmm1
- .byte 233,58,255,255,255 // jmpq 4c37 <_sk_load_f16_skx+0x37>
+ .byte 233,58,255,255,255 // jmpq 4c3b <_sk_load_f16_skx+0x37>
HIDDEN _sk_load_f16_dst_skx
.globl _sk_load_f16_dst_skx
@@ -14182,7 +14188,7 @@ _sk_load_f16_dst_skx:
.byte 76,3,0 // add (%rax),%r8
.byte 72,99,194 // movslq %edx,%rax
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,101 // jne 4d7e <_sk_load_f16_dst_skx+0x81>
+ .byte 117,101 // jne 4d82 <_sk_load_f16_dst_skx+0x81>
.byte 196,65,121,16,4,192 // vmovupd (%r8,%rax,8),%xmm8
.byte 196,193,121,16,116,192,16 // vmovupd 0x10(%r8,%rax,8),%xmm6
.byte 196,193,121,16,108,192,32 // vmovupd 0x20(%r8,%rax,8),%xmm5
@@ -14208,29 +14214,29 @@ _sk_load_f16_dst_skx:
.byte 196,65,123,16,4,192 // vmovsd (%r8,%rax,8),%xmm8
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 116,85 // je 4de4 <_sk_load_f16_dst_skx+0xe7>
+ .byte 116,85 // je 4de8 <_sk_load_f16_dst_skx+0xe7>
.byte 196,65,57,22,68,192,8 // vmovhpd 0x8(%r8,%rax,8),%xmm8,%xmm8
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,72 // jb 4de4 <_sk_load_f16_dst_skx+0xe7>
+ .byte 114,72 // jb 4de8 <_sk_load_f16_dst_skx+0xe7>
.byte 196,193,123,16,116,192,16 // vmovsd 0x10(%r8,%rax,8),%xmm6
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 116,72 // je 4df1 <_sk_load_f16_dst_skx+0xf4>
+ .byte 116,72 // je 4df5 <_sk_load_f16_dst_skx+0xf4>
.byte 196,193,73,22,116,192,24 // vmovhpd 0x18(%r8,%rax,8),%xmm6,%xmm6
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 114,59 // jb 4df1 <_sk_load_f16_dst_skx+0xf4>
+ .byte 114,59 // jb 4df5 <_sk_load_f16_dst_skx+0xf4>
.byte 196,193,123,16,108,192,32 // vmovsd 0x20(%r8,%rax,8),%xmm5
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 15,132,109,255,255,255 // je 4d34 <_sk_load_f16_dst_skx+0x37>
+ .byte 15,132,109,255,255,255 // je 4d38 <_sk_load_f16_dst_skx+0x37>
.byte 196,193,81,22,108,192,40 // vmovhpd 0x28(%r8,%rax,8),%xmm5,%xmm5
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 15,130,92,255,255,255 // jb 4d34 <_sk_load_f16_dst_skx+0x37>
+ .byte 15,130,92,255,255,255 // jb 4d38 <_sk_load_f16_dst_skx+0x37>
.byte 196,65,122,126,76,192,48 // vmovq 0x30(%r8,%rax,8),%xmm9
- .byte 233,80,255,255,255 // jmpq 4d34 <_sk_load_f16_dst_skx+0x37>
+ .byte 233,80,255,255,255 // jmpq 4d38 <_sk_load_f16_dst_skx+0x37>
.byte 197,209,87,237 // vxorpd %xmm5,%xmm5,%xmm5
.byte 197,201,87,246 // vxorpd %xmm6,%xmm6,%xmm6
- .byte 233,67,255,255,255 // jmpq 4d34 <_sk_load_f16_dst_skx+0x37>
+ .byte 233,67,255,255,255 // jmpq 4d38 <_sk_load_f16_dst_skx+0x37>
.byte 197,209,87,237 // vxorpd %xmm5,%xmm5,%xmm5
- .byte 233,58,255,255,255 // jmpq 4d34 <_sk_load_f16_dst_skx+0x37>
+ .byte 233,58,255,255,255 // jmpq 4d38 <_sk_load_f16_dst_skx+0x37>
HIDDEN _sk_gather_f16_skx
.globl _sk_gather_f16_skx
@@ -14305,7 +14311,7 @@ _sk_store_f16_skx:
.byte 196,65,57,98,205 // vpunpckldq %xmm13,%xmm8,%xmm9
.byte 196,65,57,106,197 // vpunpckhdq %xmm13,%xmm8,%xmm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,31 // jne 4f3f <_sk_store_f16_skx+0x7b>
+ .byte 117,31 // jne 4f43 <_sk_store_f16_skx+0x7b>
.byte 196,65,122,127,28,192 // vmovdqu %xmm11,(%r8,%rax,8)
.byte 196,65,122,127,84,192,16 // vmovdqu %xmm10,0x10(%r8,%rax,8)
.byte 196,65,122,127,76,192,32 // vmovdqu %xmm9,0x20(%r8,%rax,8)
@@ -14314,22 +14320,22 @@ _sk_store_f16_skx:
.byte 255,224 // jmpq *%rax
.byte 196,65,121,214,28,192 // vmovq %xmm11,(%r8,%rax,8)
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 116,240 // je 4f3b <_sk_store_f16_skx+0x77>
+ .byte 116,240 // je 4f3f <_sk_store_f16_skx+0x77>
.byte 196,65,121,23,92,192,8 // vmovhpd %xmm11,0x8(%r8,%rax,8)
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,227 // jb 4f3b <_sk_store_f16_skx+0x77>
+ .byte 114,227 // jb 4f3f <_sk_store_f16_skx+0x77>
.byte 196,65,121,214,84,192,16 // vmovq %xmm10,0x10(%r8,%rax,8)
- .byte 116,218 // je 4f3b <_sk_store_f16_skx+0x77>
+ .byte 116,218 // je 4f3f <_sk_store_f16_skx+0x77>
.byte 196,65,121,23,84,192,24 // vmovhpd %xmm10,0x18(%r8,%rax,8)
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 114,205 // jb 4f3b <_sk_store_f16_skx+0x77>
+ .byte 114,205 // jb 4f3f <_sk_store_f16_skx+0x77>
.byte 196,65,121,214,76,192,32 // vmovq %xmm9,0x20(%r8,%rax,8)
- .byte 116,196 // je 4f3b <_sk_store_f16_skx+0x77>
+ .byte 116,196 // je 4f3f <_sk_store_f16_skx+0x77>
.byte 196,65,121,23,76,192,40 // vmovhpd %xmm9,0x28(%r8,%rax,8)
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 114,183 // jb 4f3b <_sk_store_f16_skx+0x77>
+ .byte 114,183 // jb 4f3f <_sk_store_f16_skx+0x77>
.byte 196,65,121,214,68,192,48 // vmovq %xmm8,0x30(%r8,%rax,8)
- .byte 235,174 // jmp 4f3b <_sk_store_f16_skx+0x77>
+ .byte 235,174 // jmp 4f3f <_sk_store_f16_skx+0x77>
HIDDEN _sk_load_u16_be_skx
.globl _sk_load_u16_be_skx
@@ -14344,7 +14350,7 @@ _sk_load_u16_be_skx:
.byte 76,3,0 // add (%rax),%r8
.byte 73,99,193 // movslq %r9d,%rax
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,204,0,0,0 // jne 5080 <_sk_load_u16_be_skx+0xf3>
+ .byte 15,133,204,0,0,0 // jne 5084 <_sk_load_u16_be_skx+0xf3>
.byte 196,65,121,16,4,64 // vmovupd (%r8,%rax,2),%xmm8
.byte 196,193,121,16,84,64,16 // vmovupd 0x10(%r8,%rax,2),%xmm2
.byte 196,193,121,16,92,64,32 // vmovupd 0x20(%r8,%rax,2),%xmm3
@@ -14363,7 +14369,7 @@ _sk_load_u16_be_skx:
.byte 197,241,235,192 // vpor %xmm0,%xmm1,%xmm0
.byte 196,226,125,51,192 // vpmovzxwd %xmm0,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,98,125,24,21,67,218,2,0 // vbroadcastss 0x2da43(%rip),%ymm10 # 32a58 <_sk_srcover_rgba_8888_sse2_lowp+0x918>
+ .byte 196,98,125,24,21,99,218,2,0 // vbroadcastss 0x2da63(%rip),%ymm10 # 32a7c <_sk_srcover_rgba_8888_sse2_lowp+0x920>
.byte 196,193,124,89,194 // vmulps %ymm10,%ymm0,%ymm0
.byte 197,185,109,202 // vpunpckhqdq %xmm2,%xmm8,%xmm1
.byte 197,233,113,241,8 // vpsllw $0x8,%xmm1,%xmm2
@@ -14391,29 +14397,29 @@ _sk_load_u16_be_skx:
.byte 196,65,123,16,4,64 // vmovsd (%r8,%rax,2),%xmm8
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 116,85 // je 50e6 <_sk_load_u16_be_skx+0x159>
+ .byte 116,85 // je 50ea <_sk_load_u16_be_skx+0x159>
.byte 196,65,57,22,68,64,8 // vmovhpd 0x8(%r8,%rax,2),%xmm8,%xmm8
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,72 // jb 50e6 <_sk_load_u16_be_skx+0x159>
+ .byte 114,72 // jb 50ea <_sk_load_u16_be_skx+0x159>
.byte 196,193,123,16,84,64,16 // vmovsd 0x10(%r8,%rax,2),%xmm2
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 116,72 // je 50f3 <_sk_load_u16_be_skx+0x166>
+ .byte 116,72 // je 50f7 <_sk_load_u16_be_skx+0x166>
.byte 196,193,105,22,84,64,24 // vmovhpd 0x18(%r8,%rax,2),%xmm2,%xmm2
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 114,59 // jb 50f3 <_sk_load_u16_be_skx+0x166>
+ .byte 114,59 // jb 50f7 <_sk_load_u16_be_skx+0x166>
.byte 196,193,123,16,92,64,32 // vmovsd 0x20(%r8,%rax,2),%xmm3
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 15,132,6,255,255,255 // je 4fcf <_sk_load_u16_be_skx+0x42>
+ .byte 15,132,6,255,255,255 // je 4fd3 <_sk_load_u16_be_skx+0x42>
.byte 196,193,97,22,92,64,40 // vmovhpd 0x28(%r8,%rax,2),%xmm3,%xmm3
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 15,130,245,254,255,255 // jb 4fcf <_sk_load_u16_be_skx+0x42>
+ .byte 15,130,245,254,255,255 // jb 4fd3 <_sk_load_u16_be_skx+0x42>
.byte 196,65,122,126,76,64,48 // vmovq 0x30(%r8,%rax,2),%xmm9
- .byte 233,233,254,255,255 // jmpq 4fcf <_sk_load_u16_be_skx+0x42>
+ .byte 233,233,254,255,255 // jmpq 4fd3 <_sk_load_u16_be_skx+0x42>
.byte 197,225,87,219 // vxorpd %xmm3,%xmm3,%xmm3
.byte 197,233,87,210 // vxorpd %xmm2,%xmm2,%xmm2
- .byte 233,220,254,255,255 // jmpq 4fcf <_sk_load_u16_be_skx+0x42>
+ .byte 233,220,254,255,255 // jmpq 4fd3 <_sk_load_u16_be_skx+0x42>
.byte 197,225,87,219 // vxorpd %xmm3,%xmm3,%xmm3
- .byte 233,211,254,255,255 // jmpq 4fcf <_sk_load_u16_be_skx+0x42>
+ .byte 233,211,254,255,255 // jmpq 4fd3 <_sk_load_u16_be_skx+0x42>
HIDDEN _sk_load_rgb_u16_be_skx
.globl _sk_load_rgb_u16_be_skx
@@ -14430,7 +14436,7 @@ _sk_load_rgb_u16_be_skx:
.byte 72,141,4,64 // lea (%rax,%rax,2),%rax
.byte 72,193,248,32 // sar $0x20,%rax
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,202,0,0,0 // jne 51f1 <_sk_load_rgb_u16_be_skx+0xf5>
+ .byte 15,133,202,0,0,0 // jne 51f5 <_sk_load_rgb_u16_be_skx+0xf5>
.byte 196,65,121,16,28,64 // vmovupd (%r8,%rax,2),%xmm11
.byte 196,193,121,16,92,64,12 // vmovupd 0xc(%r8,%rax,2),%xmm3
.byte 196,193,121,16,84,64,24 // vmovupd 0x18(%r8,%rax,2),%xmm2
@@ -14454,7 +14460,7 @@ _sk_load_rgb_u16_be_skx:
.byte 197,241,235,192 // vpor %xmm0,%xmm1,%xmm0
.byte 196,226,125,51,192 // vpmovzxwd %xmm0,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,98,125,24,13,181,216,2,0 // vbroadcastss 0x2d8b5(%rip),%ymm9 # 32a58 <_sk_srcover_rgba_8888_sse2_lowp+0x918>
+ .byte 196,98,125,24,13,213,216,2,0 // vbroadcastss 0x2d8d5(%rip),%ymm9 # 32a7c <_sk_srcover_rgba_8888_sse2_lowp+0x920>
.byte 196,193,124,89,193 // vmulps %ymm9,%ymm0,%ymm0
.byte 197,185,109,203 // vpunpckhqdq %xmm3,%xmm8,%xmm1
.byte 197,225,113,241,8 // vpsllw $0x8,%xmm1,%xmm3
@@ -14470,69 +14476,69 @@ _sk_load_rgb_u16_be_skx:
.byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
.byte 196,193,108,89,209 // vmulps %ymm9,%ymm2,%ymm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,217,215,2,0 // vbroadcastss 0x2d7d9(%rip),%ymm3 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 196,226,125,24,29,245,215,2,0 // vbroadcastss 0x2d7f5(%rip),%ymm3 # 329e8 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 255,224 // jmpq *%rax
.byte 196,193,121,110,4,64 // vmovd (%r8,%rax,2),%xmm0
.byte 196,65,49,87,201 // vxorpd %xmm9,%xmm9,%xmm9
.byte 196,65,121,196,92,64,4,2 // vpinsrw $0x2,0x4(%r8,%rax,2),%xmm0,%xmm11
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 117,31 // jne 5229 <_sk_load_rgb_u16_be_skx+0x12d>
+ .byte 117,31 // jne 522d <_sk_load_rgb_u16_be_skx+0x12d>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
.byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2
.byte 196,65,41,239,210 // vpxor %xmm10,%xmm10,%xmm10
.byte 197,225,239,219 // vpxor %xmm3,%xmm3,%xmm3
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
- .byte 233,48,255,255,255 // jmpq 5159 <_sk_load_rgb_u16_be_skx+0x5d>
+ .byte 233,48,255,255,255 // jmpq 515d <_sk_load_rgb_u16_be_skx+0x5d>
.byte 196,193,121,110,68,64,6 // vmovd 0x6(%r8,%rax,2),%xmm0
.byte 196,65,49,87,201 // vxorpd %xmm9,%xmm9,%xmm9
.byte 196,65,121,196,68,64,10,2 // vpinsrw $0x2,0xa(%r8,%rax,2),%xmm0,%xmm8
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,48 // jb 5273 <_sk_load_rgb_u16_be_skx+0x177>
+ .byte 114,48 // jb 5277 <_sk_load_rgb_u16_be_skx+0x177>
.byte 196,193,121,110,68,64,12 // vmovd 0xc(%r8,%rax,2),%xmm0
.byte 196,65,49,87,201 // vxorpd %xmm9,%xmm9,%xmm9
.byte 196,193,121,196,92,64,16,2 // vpinsrw $0x2,0x10(%r8,%rax,2),%xmm0,%xmm3
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 117,48 // jne 528d <_sk_load_rgb_u16_be_skx+0x191>
+ .byte 117,48 // jne 5291 <_sk_load_rgb_u16_be_skx+0x191>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
.byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2
.byte 196,65,41,239,210 // vpxor %xmm10,%xmm10,%xmm10
- .byte 233,230,254,255,255 // jmpq 5159 <_sk_load_rgb_u16_be_skx+0x5d>
+ .byte 233,230,254,255,255 // jmpq 515d <_sk_load_rgb_u16_be_skx+0x5d>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
.byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2
.byte 196,65,41,239,210 // vpxor %xmm10,%xmm10,%xmm10
.byte 197,225,239,219 // vpxor %xmm3,%xmm3,%xmm3
- .byte 233,204,254,255,255 // jmpq 5159 <_sk_load_rgb_u16_be_skx+0x5d>
+ .byte 233,204,254,255,255 // jmpq 515d <_sk_load_rgb_u16_be_skx+0x5d>
.byte 196,193,121,110,68,64,18 // vmovd 0x12(%r8,%rax,2),%xmm0
.byte 196,65,49,87,201 // vxorpd %xmm9,%xmm9,%xmm9
.byte 196,65,121,196,84,64,22,2 // vpinsrw $0x2,0x16(%r8,%rax,2),%xmm0,%xmm10
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 114,39 // jb 52ce <_sk_load_rgb_u16_be_skx+0x1d2>
+ .byte 114,39 // jb 52d2 <_sk_load_rgb_u16_be_skx+0x1d2>
.byte 196,193,121,110,68,64,24 // vmovd 0x18(%r8,%rax,2),%xmm0
.byte 196,65,49,87,201 // vxorpd %xmm9,%xmm9,%xmm9
.byte 196,193,121,196,84,64,28,2 // vpinsrw $0x2,0x1c(%r8,%rax,2),%xmm0,%xmm2
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 117,30 // jne 52df <_sk_load_rgb_u16_be_skx+0x1e3>
+ .byte 117,30 // jne 52e3 <_sk_load_rgb_u16_be_skx+0x1e3>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
- .byte 233,139,254,255,255 // jmpq 5159 <_sk_load_rgb_u16_be_skx+0x5d>
+ .byte 233,139,254,255,255 // jmpq 515d <_sk_load_rgb_u16_be_skx+0x5d>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
.byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2
- .byte 233,122,254,255,255 // jmpq 5159 <_sk_load_rgb_u16_be_skx+0x5d>
+ .byte 233,122,254,255,255 // jmpq 515d <_sk_load_rgb_u16_be_skx+0x5d>
.byte 196,193,121,110,68,64,30 // vmovd 0x1e(%r8,%rax,2),%xmm0
.byte 196,65,49,87,201 // vxorpd %xmm9,%xmm9,%xmm9
.byte 196,193,121,196,76,64,34,2 // vpinsrw $0x2,0x22(%r8,%rax,2),%xmm0,%xmm1
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 114,25 // jb 5312 <_sk_load_rgb_u16_be_skx+0x216>
+ .byte 114,25 // jb 5316 <_sk_load_rgb_u16_be_skx+0x216>
.byte 196,193,121,110,68,64,36 // vmovd 0x24(%r8,%rax,2),%xmm0
.byte 196,65,49,87,201 // vxorpd %xmm9,%xmm9,%xmm9
.byte 196,193,121,196,68,64,40,2 // vpinsrw $0x2,0x28(%r8,%rax,2),%xmm0,%xmm0
- .byte 233,71,254,255,255 // jmpq 5159 <_sk_load_rgb_u16_be_skx+0x5d>
+ .byte 233,71,254,255,255 // jmpq 515d <_sk_load_rgb_u16_be_skx+0x5d>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
- .byte 233,62,254,255,255 // jmpq 5159 <_sk_load_rgb_u16_be_skx+0x5d>
+ .byte 233,62,254,255,255 // jmpq 515d <_sk_load_rgb_u16_be_skx+0x5d>
HIDDEN _sk_store_u16_be_skx
.globl _sk_store_u16_be_skx
@@ -14546,7 +14552,7 @@ _sk_store_u16_be_skx:
.byte 77,1,192 // add %r8,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 73,99,193 // movslq %r9d,%rax
- .byte 196,98,125,24,5,158,215,2,0 // vbroadcastss 0x2d79e(%rip),%ymm8 # 32ae0 <_sk_srcover_rgba_8888_sse2_lowp+0x9a0>
+ .byte 196,98,125,24,5,190,215,2,0 // vbroadcastss 0x2d7be(%rip),%ymm8 # 32b04 <_sk_srcover_rgba_8888_sse2_lowp+0x9a8>
.byte 196,65,124,89,200 // vmulps %ymm8,%ymm0,%ymm9
.byte 196,65,125,91,201 // vcvtps2dq %ymm9,%ymm9
.byte 196,67,125,57,202,1 // vextracti128 $0x1,%ymm9,%xmm10
@@ -14584,7 +14590,7 @@ _sk_store_u16_be_skx:
.byte 196,65,17,98,200 // vpunpckldq %xmm8,%xmm13,%xmm9
.byte 196,65,17,106,192 // vpunpckhdq %xmm8,%xmm13,%xmm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,31 // jne 5426 <_sk_store_u16_be_skx+0x10b>
+ .byte 117,31 // jne 542a <_sk_store_u16_be_skx+0x10b>
.byte 196,65,122,127,28,64 // vmovdqu %xmm11,(%r8,%rax,2)
.byte 196,65,122,127,84,64,16 // vmovdqu %xmm10,0x10(%r8,%rax,2)
.byte 196,65,122,127,76,64,32 // vmovdqu %xmm9,0x20(%r8,%rax,2)
@@ -14593,22 +14599,22 @@ _sk_store_u16_be_skx:
.byte 255,224 // jmpq *%rax
.byte 196,65,121,214,28,64 // vmovq %xmm11,(%r8,%rax,2)
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 116,240 // je 5422 <_sk_store_u16_be_skx+0x107>
+ .byte 116,240 // je 5426 <_sk_store_u16_be_skx+0x107>
.byte 196,65,121,23,92,64,8 // vmovhpd %xmm11,0x8(%r8,%rax,2)
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,227 // jb 5422 <_sk_store_u16_be_skx+0x107>
+ .byte 114,227 // jb 5426 <_sk_store_u16_be_skx+0x107>
.byte 196,65,121,214,84,64,16 // vmovq %xmm10,0x10(%r8,%rax,2)
- .byte 116,218 // je 5422 <_sk_store_u16_be_skx+0x107>
+ .byte 116,218 // je 5426 <_sk_store_u16_be_skx+0x107>
.byte 196,65,121,23,84,64,24 // vmovhpd %xmm10,0x18(%r8,%rax,2)
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 114,205 // jb 5422 <_sk_store_u16_be_skx+0x107>
+ .byte 114,205 // jb 5426 <_sk_store_u16_be_skx+0x107>
.byte 196,65,121,214,76,64,32 // vmovq %xmm9,0x20(%r8,%rax,2)
- .byte 116,196 // je 5422 <_sk_store_u16_be_skx+0x107>
+ .byte 116,196 // je 5426 <_sk_store_u16_be_skx+0x107>
.byte 196,65,121,23,76,64,40 // vmovhpd %xmm9,0x28(%r8,%rax,2)
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 114,183 // jb 5422 <_sk_store_u16_be_skx+0x107>
+ .byte 114,183 // jb 5426 <_sk_store_u16_be_skx+0x107>
.byte 196,65,121,214,68,64,48 // vmovq %xmm8,0x30(%r8,%rax,2)
- .byte 235,174 // jmp 5422 <_sk_store_u16_be_skx+0x107>
+ .byte 235,174 // jmp 5426 <_sk_store_u16_be_skx+0x107>
HIDDEN _sk_load_f32_skx
.globl _sk_load_f32_skx
@@ -14618,7 +14624,7 @@ _sk_load_f32_skx:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,197,87,255 // vxorpd %ymm7,%ymm7,%ymm7
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 15,135,63,1,0,0 // ja 55c9 <_sk_load_f32_skx+0x155>
+ .byte 15,135,63,1,0,0 // ja 55cd <_sk_load_f32_skx+0x155>
.byte 68,141,12,149,0,0,0,0 // lea 0x0(,%rdx,4),%r9d
.byte 76,99,80,8 // movslq 0x8(%rax),%r10
.byte 76,99,193 // movslq %ecx,%r8
@@ -14626,7 +14632,7 @@ _sk_load_f32_skx:
.byte 73,193,224,2 // shl $0x2,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 77,99,201 // movslq %r9d,%r9
- .byte 76,141,21,46,1,0,0 // lea 0x12e(%rip),%r10 # 55dc <_sk_load_f32_skx+0x168>
+ .byte 76,141,21,46,1,0,0 // lea 0x12e(%rip),%r10 # 55e0 <_sk_load_f32_skx+0x168>
.byte 73,99,4,186 // movslq (%r10,%rdi,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 197,245,87,201 // vxorpd %ymm1,%ymm1,%ymm1
@@ -14685,7 +14691,7 @@ _sk_load_f32_skx:
.byte 196,65,61,87,192 // vxorpd %ymm8,%ymm8,%ymm8
.byte 196,65,53,87,201 // vxorpd %ymm9,%ymm9,%ymm9
.byte 197,245,87,201 // vxorpd %ymm1,%ymm1,%ymm1
- .byte 235,196 // jmp 559d <_sk_load_f32_skx+0x129>
+ .byte 235,196 // jmp 55a1 <_sk_load_f32_skx+0x129>
.byte 15,31,0 // nopl (%rax)
.byte 37,255,255,255,181 // and $0xb5ffffff,%eax
.byte 255 // (bad)
@@ -14714,7 +14720,7 @@ _sk_load_f32_dst_skx:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,229,87,219 // vxorpd %ymm3,%ymm3,%ymm3
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 15,135,63,1,0,0 // ja 5751 <_sk_load_f32_dst_skx+0x155>
+ .byte 15,135,63,1,0,0 // ja 5755 <_sk_load_f32_dst_skx+0x155>
.byte 68,141,12,149,0,0,0,0 // lea 0x0(,%rdx,4),%r9d
.byte 76,99,80,8 // movslq 0x8(%rax),%r10
.byte 76,99,193 // movslq %ecx,%r8
@@ -14722,7 +14728,7 @@ _sk_load_f32_dst_skx:
.byte 73,193,224,2 // shl $0x2,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 77,99,201 // movslq %r9d,%r9
- .byte 76,141,21,46,1,0,0 // lea 0x12e(%rip),%r10 # 5764 <_sk_load_f32_dst_skx+0x168>
+ .byte 76,141,21,46,1,0,0 // lea 0x12e(%rip),%r10 # 5768 <_sk_load_f32_dst_skx+0x168>
.byte 73,99,4,186 // movslq (%r10,%rdi,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 197,213,87,237 // vxorpd %ymm5,%ymm5,%ymm5
@@ -14781,7 +14787,7 @@ _sk_load_f32_dst_skx:
.byte 196,65,61,87,192 // vxorpd %ymm8,%ymm8,%ymm8
.byte 196,65,53,87,201 // vxorpd %ymm9,%ymm9,%ymm9
.byte 197,213,87,237 // vxorpd %ymm5,%ymm5,%ymm5
- .byte 235,196 // jmp 5725 <_sk_load_f32_dst_skx+0x129>
+ .byte 235,196 // jmp 5729 <_sk_load_f32_dst_skx+0x129>
.byte 15,31,0 // nopl (%rax)
.byte 37,255,255,255,181 // and $0xb5ffffff,%eax
.byte 255 // (bad)
@@ -14823,7 +14829,7 @@ _sk_store_f32_skx:
.byte 196,65,37,20,196 // vunpcklpd %ymm12,%ymm11,%ymm8
.byte 196,65,37,21,220 // vunpckhpd %ymm12,%ymm11,%ymm11
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,55 // jne 5803 <_sk_store_f32_skx+0x7f>
+ .byte 117,55 // jne 5807 <_sk_store_f32_skx+0x7f>
.byte 196,67,45,24,225,1 // vinsertf128 $0x1,%xmm9,%ymm10,%ymm12
.byte 196,67,61,24,235,1 // vinsertf128 $0x1,%xmm11,%ymm8,%ymm13
.byte 196,67,45,6,201,49 // vperm2f128 $0x31,%ymm9,%ymm10,%ymm9
@@ -14836,22 +14842,22 @@ _sk_store_f32_skx:
.byte 255,224 // jmpq *%rax
.byte 196,65,121,17,20,128 // vmovupd %xmm10,(%r8,%rax,4)
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 116,240 // je 57ff <_sk_store_f32_skx+0x7b>
+ .byte 116,240 // je 5803 <_sk_store_f32_skx+0x7b>
.byte 196,65,121,17,76,128,16 // vmovupd %xmm9,0x10(%r8,%rax,4)
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,227 // jb 57ff <_sk_store_f32_skx+0x7b>
+ .byte 114,227 // jb 5803 <_sk_store_f32_skx+0x7b>
.byte 196,65,121,17,68,128,32 // vmovupd %xmm8,0x20(%r8,%rax,4)
- .byte 116,218 // je 57ff <_sk_store_f32_skx+0x7b>
+ .byte 116,218 // je 5803 <_sk_store_f32_skx+0x7b>
.byte 196,65,121,17,92,128,48 // vmovupd %xmm11,0x30(%r8,%rax,4)
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 114,205 // jb 57ff <_sk_store_f32_skx+0x7b>
+ .byte 114,205 // jb 5803 <_sk_store_f32_skx+0x7b>
.byte 196,67,125,25,84,128,64,1 // vextractf128 $0x1,%ymm10,0x40(%r8,%rax,4)
- .byte 116,195 // je 57ff <_sk_store_f32_skx+0x7b>
+ .byte 116,195 // je 5803 <_sk_store_f32_skx+0x7b>
.byte 196,67,125,25,76,128,80,1 // vextractf128 $0x1,%ymm9,0x50(%r8,%rax,4)
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 114,181 // jb 57ff <_sk_store_f32_skx+0x7b>
+ .byte 114,181 // jb 5803 <_sk_store_f32_skx+0x7b>
.byte 196,67,125,25,68,128,96,1 // vextractf128 $0x1,%ymm8,0x60(%r8,%rax,4)
- .byte 235,171 // jmp 57ff <_sk_store_f32_skx+0x7b>
+ .byte 235,171 // jmp 5803 <_sk_store_f32_skx+0x7b>
HIDDEN _sk_repeat_x_skx
.globl _sk_repeat_x_skx
@@ -14888,7 +14894,7 @@ _sk_mirror_x_skx:
.byte 196,65,124,92,218 // vsubps %ymm10,%ymm0,%ymm11
.byte 196,193,58,88,192 // vaddss %xmm8,%xmm8,%xmm0
.byte 196,98,125,24,192 // vbroadcastss %xmm0,%ymm8
- .byte 197,178,89,5,15,209,2,0 // vmulss 0x2d10f(%rip),%xmm9,%xmm0 # 329c4 <_sk_srcover_rgba_8888_sse2_lowp+0x884>
+ .byte 197,178,89,5,43,209,2,0 // vmulss 0x2d12b(%rip),%xmm9,%xmm0 # 329e4 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 196,226,125,24,192 // vbroadcastss %xmm0,%ymm0
.byte 197,164,89,192 // vmulps %ymm0,%ymm11,%ymm0
.byte 196,227,125,8,192,1 // vroundps $0x1,%ymm0,%ymm0
@@ -14911,7 +14917,7 @@ _sk_mirror_y_skx:
.byte 196,65,116,92,218 // vsubps %ymm10,%ymm1,%ymm11
.byte 196,193,58,88,200 // vaddss %xmm8,%xmm8,%xmm1
.byte 196,98,125,24,193 // vbroadcastss %xmm1,%ymm8
- .byte 197,178,89,13,190,208,2,0 // vmulss 0x2d0be(%rip),%xmm9,%xmm1 # 329c4 <_sk_srcover_rgba_8888_sse2_lowp+0x884>
+ .byte 197,178,89,13,218,208,2,0 // vmulss 0x2d0da(%rip),%xmm9,%xmm1 # 329e4 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 196,226,125,24,201 // vbroadcastss %xmm1,%ymm1
.byte 197,164,89,201 // vmulps %ymm1,%ymm11,%ymm1
.byte 196,227,125,8,201,1 // vroundps $0x1,%ymm1,%ymm1
@@ -14929,7 +14935,7 @@ FUNCTION(_sk_clamp_x_1_skx)
_sk_clamp_x_1_skx:
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 197,188,95,192 // vmaxps %ymm0,%ymm8,%ymm0
- .byte 98,241,124,56,93,5,133,208,2,0 // vminps 0x2d085(%rip){1to8},%ymm0,%ymm0 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 98,241,124,56,93,5,161,208,2,0 // vminps 0x2d0a1(%rip){1to8},%ymm0,%ymm0 # 329e8 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -14941,7 +14947,7 @@ _sk_repeat_x_1_skx:
.byte 196,193,124,92,192 // vsubps %ymm8,%ymm0,%ymm0
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 197,188,95,192 // vmaxps %ymm0,%ymm8,%ymm0
- .byte 98,241,124,56,93,5,99,208,2,0 // vminps 0x2d063(%rip){1to8},%ymm0,%ymm0 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 98,241,124,56,93,5,127,208,2,0 // vminps 0x2d07f(%rip){1to8},%ymm0,%ymm0 # 329e8 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -14949,9 +14955,9 @@ HIDDEN _sk_mirror_x_1_skx
.globl _sk_mirror_x_1_skx
FUNCTION(_sk_mirror_x_1_skx)
_sk_mirror_x_1_skx:
- .byte 196,98,125,24,5,110,208,2,0 // vbroadcastss 0x2d06e(%rip),%ymm8 # 329e0 <_sk_srcover_rgba_8888_sse2_lowp+0x8a0>
+ .byte 196,98,125,24,5,138,208,2,0 // vbroadcastss 0x2d08a(%rip),%ymm8 # 32a00 <_sk_srcover_rgba_8888_sse2_lowp+0x8a4>
.byte 196,193,124,88,192 // vaddps %ymm8,%ymm0,%ymm0
- .byte 98,113,124,56,89,13,67,208,2,0 // vmulps 0x2d043(%rip){1to8},%ymm0,%ymm9 # 329c4 <_sk_srcover_rgba_8888_sse2_lowp+0x884>
+ .byte 98,113,124,56,89,13,95,208,2,0 // vmulps 0x2d05f(%rip){1to8},%ymm0,%ymm9 # 329e4 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 196,67,125,8,201,1 // vroundps $0x1,%ymm9,%ymm9
.byte 196,65,52,88,201 // vaddps %ymm9,%ymm9,%ymm9
.byte 196,193,124,92,193 // vsubps %ymm9,%ymm0,%ymm0
@@ -14960,7 +14966,7 @@ _sk_mirror_x_1_skx:
.byte 197,60,92,200 // vsubps %ymm0,%ymm8,%ymm9
.byte 197,180,84,192 // vandps %ymm0,%ymm9,%ymm0
.byte 197,188,95,192 // vmaxps %ymm0,%ymm8,%ymm0
- .byte 98,241,124,56,93,5,23,208,2,0 // vminps 0x2d017(%rip){1to8},%ymm0,%ymm0 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 98,241,124,56,93,5,51,208,2,0 // vminps 0x2d033(%rip){1to8},%ymm0,%ymm0 # 329e8 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -14968,9 +14974,9 @@ HIDDEN _sk_luminance_to_alpha_skx
.globl _sk_luminance_to_alpha_skx
FUNCTION(_sk_luminance_to_alpha_skx)
_sk_luminance_to_alpha_skx:
- .byte 98,241,116,56,89,29,37,209,2,0 // vmulps 0x2d125(%rip){1to8},%ymm1,%ymm3 # 32ae4 <_sk_srcover_rgba_8888_sse2_lowp+0x9a4>
- .byte 98,242,125,56,184,29,31,209,2,0 // vfmadd231ps 0x2d11f(%rip){1to8},%ymm0,%ymm3 # 32ae8 <_sk_srcover_rgba_8888_sse2_lowp+0x9a8>
- .byte 98,242,109,56,184,29,25,209,2,0 // vfmadd231ps 0x2d119(%rip){1to8},%ymm2,%ymm3 # 32aec <_sk_srcover_rgba_8888_sse2_lowp+0x9ac>
+ .byte 98,241,116,56,89,29,69,209,2,0 // vmulps 0x2d145(%rip){1to8},%ymm1,%ymm3 # 32b08 <_sk_srcover_rgba_8888_sse2_lowp+0x9ac>
+ .byte 98,242,125,56,184,29,63,209,2,0 // vfmadd231ps 0x2d13f(%rip){1to8},%ymm0,%ymm3 # 32b0c <_sk_srcover_rgba_8888_sse2_lowp+0x9b0>
+ .byte 98,242,109,56,184,29,57,209,2,0 // vfmadd231ps 0x2d139(%rip){1to8},%ymm2,%ymm3 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0x9b4>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
.byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
@@ -15152,7 +15158,7 @@ _sk_evenly_spaced_gradient_skx:
.byte 197,244,89,200 // vmulps %ymm0,%ymm1,%ymm1
.byte 197,126,91,209 // vcvttps2dq %ymm1,%ymm10
.byte 73,131,249,8 // cmp $0x8,%r9
- .byte 119,73 // ja 5cd1 <_sk_evenly_spaced_gradient_skx+0x70>
+ .byte 119,73 // ja 5cd5 <_sk_evenly_spaced_gradient_skx+0x70>
.byte 196,66,45,22,0 // vpermps (%r8),%ymm10,%ymm8
.byte 76,139,64,40 // mov 0x28(%rax),%r8
.byte 196,66,45,22,8 // vpermps (%r8),%ymm10,%ymm9
@@ -15168,7 +15174,7 @@ _sk_evenly_spaced_gradient_skx:
.byte 196,194,45,22,24 // vpermps (%r8),%ymm10,%ymm3
.byte 72,139,64,64 // mov 0x40(%rax),%rax
.byte 196,98,45,22,40 // vpermps (%rax),%ymm10,%ymm13
- .byte 233,147,0,0,0 // jmpq 5d64 <_sk_evenly_spaced_gradient_skx+0x103>
+ .byte 233,147,0,0,0 // jmpq 5d68 <_sk_evenly_spaced_gradient_skx+0x103>
.byte 197,245,118,201 // vpcmpeqd %ymm1,%ymm1,%ymm1
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 196,2,117,146,4,144 // vgatherdps %ymm1,(%r8,%ymm10,4),%ymm8
@@ -15212,11 +15218,11 @@ HIDDEN _sk_gauss_a_to_rgba_skx
.globl _sk_gauss_a_to_rgba_skx
FUNCTION(_sk_gauss_a_to_rgba_skx)
_sk_gauss_a_to_rgba_skx:
- .byte 196,226,125,24,5,103,205,2,0 // vbroadcastss 0x2cd67(%rip),%ymm0 # 32af0 <_sk_srcover_rgba_8888_sse2_lowp+0x9b0>
- .byte 98,242,101,56,168,5,97,205,2,0 // vfmadd213ps 0x2cd61(%rip){1to8},%ymm3,%ymm0 # 32af4 <_sk_srcover_rgba_8888_sse2_lowp+0x9b4>
- .byte 98,242,101,56,168,5,91,205,2,0 // vfmadd213ps 0x2cd5b(%rip){1to8},%ymm3,%ymm0 # 32af8 <_sk_srcover_rgba_8888_sse2_lowp+0x9b8>
- .byte 98,242,101,56,168,5,85,205,2,0 // vfmadd213ps 0x2cd55(%rip){1to8},%ymm3,%ymm0 # 32afc <_sk_srcover_rgba_8888_sse2_lowp+0x9bc>
- .byte 98,242,101,56,168,5,79,205,2,0 // vfmadd213ps 0x2cd4f(%rip){1to8},%ymm3,%ymm0 # 32b00 <_sk_srcover_rgba_8888_sse2_lowp+0x9c0>
+ .byte 196,226,125,24,5,135,205,2,0 // vbroadcastss 0x2cd87(%rip),%ymm0 # 32b14 <_sk_srcover_rgba_8888_sse2_lowp+0x9b8>
+ .byte 98,242,101,56,168,5,129,205,2,0 // vfmadd213ps 0x2cd81(%rip){1to8},%ymm3,%ymm0 # 32b18 <_sk_srcover_rgba_8888_sse2_lowp+0x9bc>
+ .byte 98,242,101,56,168,5,123,205,2,0 // vfmadd213ps 0x2cd7b(%rip){1to8},%ymm3,%ymm0 # 32b1c <_sk_srcover_rgba_8888_sse2_lowp+0x9c0>
+ .byte 98,242,101,56,168,5,117,205,2,0 // vfmadd213ps 0x2cd75(%rip){1to8},%ymm3,%ymm0 # 32b20 <_sk_srcover_rgba_8888_sse2_lowp+0x9c4>
+ .byte 98,242,101,56,168,5,111,205,2,0 // vfmadd213ps 0x2cd6f(%rip){1to8},%ymm3,%ymm0 # 32b24 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,252,40,200 // vmovaps %ymm0,%ymm1
.byte 197,252,40,208 // vmovaps %ymm0,%ymm2
@@ -15230,11 +15236,11 @@ _sk_gradient_skx:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 76,139,0 // mov (%rax),%r8
.byte 73,131,248,1 // cmp $0x1,%r8
- .byte 15,134,229,0,0,0 // jbe 5eb5 <_sk_gradient_skx+0xf4>
+ .byte 15,134,229,0,0,0 // jbe 5eb9 <_sk_gradient_skx+0xf4>
.byte 76,139,72,72 // mov 0x48(%rax),%r9
.byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
.byte 65,186,1,0,0,0 // mov $0x1,%r10d
- .byte 196,226,125,24,21,229,203,2,0 // vbroadcastss 0x2cbe5(%rip),%ymm2 # 329cc <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+ .byte 196,226,125,24,21,1,204,2,0 // vbroadcastss 0x2cc01(%rip),%ymm2 # 329ec <_sk_srcover_rgba_8888_sse2_lowp+0x890>
.byte 196,65,53,239,201 // vpxor %ymm9,%ymm9,%ymm9
.byte 196,130,125,24,28,145 // vbroadcastss (%r9,%r10,4),%ymm3
.byte 98,241,100,40,194,192,2 // vcmpleps %ymm0,%ymm3,%k0
@@ -15243,10 +15249,10 @@ _sk_gradient_skx:
.byte 197,53,254,203 // vpaddd %ymm3,%ymm9,%ymm9
.byte 73,131,194,1 // add $0x1,%r10
.byte 77,57,208 // cmp %r10,%r8
- .byte 117,218 // jne 5dec <_sk_gradient_skx+0x2b>
+ .byte 117,218 // jne 5df0 <_sk_gradient_skx+0x2b>
.byte 76,139,72,8 // mov 0x8(%rax),%r9
.byte 73,131,248,8 // cmp $0x8,%r8
- .byte 15,134,158,0,0,0 // jbe 5ebe <_sk_gradient_skx+0xfd>
+ .byte 15,134,158,0,0,0 // jbe 5ec2 <_sk_gradient_skx+0xfd>
.byte 197,245,118,201 // vpcmpeqd %ymm1,%ymm1,%ymm1
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 196,2,117,146,4,137 // vgatherdps %ymm1,(%r9,%ymm9,4),%ymm8
@@ -15278,7 +15284,7 @@ _sk_gradient_skx:
.byte 196,65,20,87,237 // vxorps %ymm13,%ymm13,%ymm13
.byte 72,139,64,64 // mov 0x40(%rax),%rax
.byte 196,34,13,146,44,136 // vgatherdps %ymm14,(%rax,%ymm9,4),%ymm13
- .byte 235,77 // jmp 5f02 <_sk_gradient_skx+0x141>
+ .byte 235,77 // jmp 5f06 <_sk_gradient_skx+0x141>
.byte 76,139,72,8 // mov 0x8(%rax),%r9
.byte 196,65,52,87,201 // vxorps %ymm9,%ymm9,%ymm9
.byte 196,66,53,22,1 // vpermps (%r9),%ymm9,%ymm8
@@ -15334,24 +15340,24 @@ _sk_xy_to_unit_angle_skx:
.byte 196,65,52,95,226 // vmaxps %ymm10,%ymm9,%ymm12
.byte 196,65,36,94,220 // vdivps %ymm12,%ymm11,%ymm11
.byte 196,65,36,89,227 // vmulps %ymm11,%ymm11,%ymm12
- .byte 196,98,125,24,45,119,203,2,0 // vbroadcastss 0x2cb77(%rip),%ymm13 # 32b04 <_sk_srcover_rgba_8888_sse2_lowp+0x9c4>
- .byte 98,114,29,56,168,45,113,203,2,0 // vfmadd213ps 0x2cb71(%rip){1to8},%ymm12,%ymm13 # 32b08 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
- .byte 98,114,29,56,168,45,107,203,2,0 // vfmadd213ps 0x2cb6b(%rip){1to8},%ymm12,%ymm13 # 32b0c <_sk_srcover_rgba_8888_sse2_lowp+0x9cc>
- .byte 98,114,29,56,168,45,101,203,2,0 // vfmadd213ps 0x2cb65(%rip){1to8},%ymm12,%ymm13 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0x9d0>
+ .byte 196,98,125,24,45,151,203,2,0 // vbroadcastss 0x2cb97(%rip),%ymm13 # 32b28 <_sk_srcover_rgba_8888_sse2_lowp+0x9cc>
+ .byte 98,114,29,56,168,45,145,203,2,0 // vfmadd213ps 0x2cb91(%rip){1to8},%ymm12,%ymm13 # 32b2c <_sk_srcover_rgba_8888_sse2_lowp+0x9d0>
+ .byte 98,114,29,56,168,45,139,203,2,0 // vfmadd213ps 0x2cb8b(%rip){1to8},%ymm12,%ymm13 # 32b30 <_sk_srcover_rgba_8888_sse2_lowp+0x9d4>
+ .byte 98,114,29,56,168,45,133,203,2,0 // vfmadd213ps 0x2cb85(%rip){1to8},%ymm12,%ymm13 # 32b34 <_sk_srcover_rgba_8888_sse2_lowp+0x9d8>
.byte 196,65,36,89,221 // vmulps %ymm13,%ymm11,%ymm11
.byte 98,209,52,40,194,194,1 // vcmpltps %ymm10,%ymm9,%k0
.byte 98,114,126,40,56,200 // vpmovm2d %k0,%ymm9
- .byte 196,98,125,24,21,78,203,2,0 // vbroadcastss 0x2cb4e(%rip),%ymm10 # 32b14 <_sk_srcover_rgba_8888_sse2_lowp+0x9d4>
+ .byte 196,98,125,24,21,110,203,2,0 // vbroadcastss 0x2cb6e(%rip),%ymm10 # 32b38 <_sk_srcover_rgba_8888_sse2_lowp+0x9dc>
.byte 196,65,44,92,211 // vsubps %ymm11,%ymm10,%ymm10
.byte 196,67,37,74,202,144 // vblendvps %ymm9,%ymm10,%ymm11,%ymm9
.byte 98,209,124,40,194,192,1 // vcmpltps %ymm8,%ymm0,%k0
.byte 98,242,126,40,56,192 // vpmovm2d %k0,%ymm0
- .byte 196,98,125,24,21,221,201,2,0 // vbroadcastss 0x2c9dd(%rip),%ymm10 # 329c4 <_sk_srcover_rgba_8888_sse2_lowp+0x884>
+ .byte 196,98,125,24,21,249,201,2,0 // vbroadcastss 0x2c9f9(%rip),%ymm10 # 329e4 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 196,65,44,92,209 // vsubps %ymm9,%ymm10,%ymm10
.byte 196,195,53,74,194,0 // vblendvps %ymm0,%ymm10,%ymm9,%ymm0
.byte 98,209,116,40,194,192,1 // vcmpltps %ymm8,%ymm1,%k0
.byte 98,114,126,40,56,200 // vpmovm2d %k0,%ymm9
- .byte 196,98,125,24,21,192,201,2,0 // vbroadcastss 0x2c9c0(%rip),%ymm10 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 196,98,125,24,21,220,201,2,0 // vbroadcastss 0x2c9dc(%rip),%ymm10 # 329e8 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 197,44,92,208 // vsubps %ymm0,%ymm10,%ymm10
.byte 196,195,125,74,194,144 // vblendvps %ymm9,%ymm10,%ymm0,%ymm0
.byte 98,209,124,40,194,192,3 // vcmpunordps %ymm8,%ymm0,%k0
@@ -15380,20 +15386,20 @@ _sk_xy_to_2pt_conical_quadratic_max_skx:
.byte 197,50,89,80,44 // vmulss 0x2c(%rax),%xmm9,%xmm10
.byte 196,66,125,24,210 // vbroadcastss %xmm10,%ymm10
.byte 197,44,88,208 // vaddps %ymm0,%ymm10,%ymm10
- .byte 98,113,44,56,89,21,184,202,2,0 // vmulps 0x2cab8(%rip){1to8},%ymm10,%ymm10 # 32b18 <_sk_srcover_rgba_8888_sse2_lowp+0x9d8>
+ .byte 98,113,44,56,89,21,216,202,2,0 // vmulps 0x2cad8(%rip){1to8},%ymm10,%ymm10 # 32b3c <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
.byte 197,116,89,217 // vmulps %ymm1,%ymm1,%ymm11
.byte 196,98,125,184,216 // vfmadd231ps %ymm0,%ymm0,%ymm11
.byte 196,193,50,89,193 // vmulss %xmm9,%xmm9,%xmm0
.byte 196,226,125,24,192 // vbroadcastss %xmm0,%ymm0
.byte 197,164,92,192 // vsubps %ymm0,%ymm11,%ymm0
- .byte 98,113,60,56,89,5,155,202,2,0 // vmulps 0x2ca9b(%rip){1to8},%ymm8,%ymm8 # 32b1c <_sk_srcover_rgba_8888_sse2_lowp+0x9dc>
+ .byte 98,113,60,56,89,5,187,202,2,0 // vmulps 0x2cabb(%rip){1to8},%ymm8,%ymm8 # 32b40 <_sk_srcover_rgba_8888_sse2_lowp+0x9e4>
.byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
.byte 196,194,45,184,194 // vfmadd231ps %ymm10,%ymm10,%ymm0
.byte 197,252,81,192 // vsqrtps %ymm0,%ymm0
.byte 196,98,125,24,64,36 // vbroadcastss 0x24(%rax),%ymm8
- .byte 98,113,44,56,87,13,130,202,2,0 // vxorps 0x2ca82(%rip){1to8},%ymm10,%ymm9 # 32b20 <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
+ .byte 98,113,44,56,87,13,162,202,2,0 // vxorps 0x2caa2(%rip){1to8},%ymm10,%ymm9 # 32b44 <_sk_srcover_rgba_8888_sse2_lowp+0x9e8>
.byte 196,65,124,92,210 // vsubps %ymm10,%ymm0,%ymm10
- .byte 98,113,60,56,89,5,23,201,2,0 // vmulps 0x2c917(%rip){1to8},%ymm8,%ymm8 # 329c4 <_sk_srcover_rgba_8888_sse2_lowp+0x884>
+ .byte 98,113,60,56,89,5,51,201,2,0 // vmulps 0x2c933(%rip){1to8},%ymm8,%ymm8 # 329e4 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 196,65,44,89,208 // vmulps %ymm8,%ymm10,%ymm10
.byte 197,180,92,192 // vsubps %ymm0,%ymm9,%ymm0
.byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
@@ -15411,20 +15417,20 @@ _sk_xy_to_2pt_conical_quadratic_min_skx:
.byte 197,50,89,80,44 // vmulss 0x2c(%rax),%xmm9,%xmm10
.byte 196,66,125,24,210 // vbroadcastss %xmm10,%ymm10
.byte 197,44,88,208 // vaddps %ymm0,%ymm10,%ymm10
- .byte 98,113,44,56,89,21,48,202,2,0 // vmulps 0x2ca30(%rip){1to8},%ymm10,%ymm10 # 32b18 <_sk_srcover_rgba_8888_sse2_lowp+0x9d8>
+ .byte 98,113,44,56,89,21,80,202,2,0 // vmulps 0x2ca50(%rip){1to8},%ymm10,%ymm10 # 32b3c <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
.byte 197,116,89,217 // vmulps %ymm1,%ymm1,%ymm11
.byte 196,98,125,184,216 // vfmadd231ps %ymm0,%ymm0,%ymm11
.byte 196,193,50,89,193 // vmulss %xmm9,%xmm9,%xmm0
.byte 196,226,125,24,192 // vbroadcastss %xmm0,%ymm0
.byte 197,164,92,192 // vsubps %ymm0,%ymm11,%ymm0
- .byte 98,113,60,56,89,5,19,202,2,0 // vmulps 0x2ca13(%rip){1to8},%ymm8,%ymm8 # 32b1c <_sk_srcover_rgba_8888_sse2_lowp+0x9dc>
+ .byte 98,113,60,56,89,5,51,202,2,0 // vmulps 0x2ca33(%rip){1to8},%ymm8,%ymm8 # 32b40 <_sk_srcover_rgba_8888_sse2_lowp+0x9e4>
.byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
.byte 196,194,45,184,194 // vfmadd231ps %ymm10,%ymm10,%ymm0
.byte 197,252,81,192 // vsqrtps %ymm0,%ymm0
.byte 196,98,125,24,64,36 // vbroadcastss 0x24(%rax),%ymm8
- .byte 98,113,44,56,87,13,250,201,2,0 // vxorps 0x2c9fa(%rip){1to8},%ymm10,%ymm9 # 32b20 <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
+ .byte 98,113,44,56,87,13,26,202,2,0 // vxorps 0x2ca1a(%rip){1to8},%ymm10,%ymm9 # 32b44 <_sk_srcover_rgba_8888_sse2_lowp+0x9e8>
.byte 196,65,124,92,210 // vsubps %ymm10,%ymm0,%ymm10
- .byte 98,113,60,56,89,5,143,200,2,0 // vmulps 0x2c88f(%rip){1to8},%ymm8,%ymm8 # 329c4 <_sk_srcover_rgba_8888_sse2_lowp+0x884>
+ .byte 98,113,60,56,89,5,171,200,2,0 // vmulps 0x2c8ab(%rip){1to8},%ymm8,%ymm8 # 329e4 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 196,65,44,89,208 // vmulps %ymm8,%ymm10,%ymm10
.byte 197,180,92,192 // vsubps %ymm0,%ymm9,%ymm0
.byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
@@ -15441,13 +15447,13 @@ _sk_xy_to_2pt_conical_linear_skx:
.byte 197,58,89,72,44 // vmulss 0x2c(%rax),%xmm8,%xmm9
.byte 196,66,125,24,201 // vbroadcastss %xmm9,%ymm9
.byte 197,52,88,200 // vaddps %ymm0,%ymm9,%ymm9
- .byte 98,113,52,56,89,13,174,201,2,0 // vmulps 0x2c9ae(%rip){1to8},%ymm9,%ymm9 # 32b18 <_sk_srcover_rgba_8888_sse2_lowp+0x9d8>
+ .byte 98,113,52,56,89,13,206,201,2,0 // vmulps 0x2c9ce(%rip){1to8},%ymm9,%ymm9 # 32b3c <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
.byte 197,116,89,209 // vmulps %ymm1,%ymm1,%ymm10
.byte 196,98,125,184,208 // vfmadd231ps %ymm0,%ymm0,%ymm10
.byte 196,193,58,89,192 // vmulss %xmm8,%xmm8,%xmm0
.byte 196,226,125,24,192 // vbroadcastss %xmm0,%ymm0
.byte 197,172,92,192 // vsubps %ymm0,%ymm10,%ymm0
- .byte 98,241,124,56,87,5,149,201,2,0 // vxorps 0x2c995(%rip){1to8},%ymm0,%ymm0 # 32b20 <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
+ .byte 98,241,124,56,87,5,181,201,2,0 // vxorps 0x2c9b5(%rip){1to8},%ymm0,%ymm0 # 32b44 <_sk_srcover_rgba_8888_sse2_lowp+0x9e8>
.byte 196,193,124,94,193 // vdivps %ymm9,%ymm0,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -15489,7 +15495,7 @@ HIDDEN _sk_save_xy_skx
FUNCTION(_sk_save_xy_skx)
_sk_save_xy_skx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,98,125,24,5,198,199,2,0 // vbroadcastss 0x2c7c6(%rip),%ymm8 # 329c4 <_sk_srcover_rgba_8888_sse2_lowp+0x884>
+ .byte 196,98,125,24,5,226,199,2,0 // vbroadcastss 0x2c7e2(%rip),%ymm8 # 329e4 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 196,65,124,88,200 // vaddps %ymm8,%ymm0,%ymm9
.byte 196,67,125,8,209,1 // vroundps $0x1,%ymm9,%ymm10
.byte 196,65,52,92,202 // vsubps %ymm10,%ymm9,%ymm9
@@ -15524,8 +15530,8 @@ FUNCTION(_sk_bilinear_nx_skx)
_sk_bilinear_nx_skx:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,252,16,0 // vmovups (%rax),%ymm0
- .byte 98,241,124,56,88,5,177,200,2,0 // vaddps 0x2c8b1(%rip){1to8},%ymm0,%ymm0 # 32b24 <_sk_srcover_rgba_8888_sse2_lowp+0x9e4>
- .byte 196,98,125,24,5,76,199,2,0 // vbroadcastss 0x2c74c(%rip),%ymm8 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 98,241,124,56,88,5,209,200,2,0 // vaddps 0x2c8d1(%rip){1to8},%ymm0,%ymm0 # 32b48 <_sk_srcover_rgba_8888_sse2_lowp+0x9ec>
+ .byte 196,98,125,24,5,104,199,2,0 // vbroadcastss 0x2c768(%rip),%ymm8 # 329e8 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 197,60,92,64,64 // vsubps 0x40(%rax),%ymm8,%ymm8
.byte 197,124,17,128,128,0,0,0 // vmovups %ymm8,0x80(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -15538,7 +15544,7 @@ _sk_bilinear_px_skx:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,252,16,0 // vmovups (%rax),%ymm0
.byte 197,124,16,64,64 // vmovups 0x40(%rax),%ymm8
- .byte 98,241,124,56,88,5,34,199,2,0 // vaddps 0x2c722(%rip){1to8},%ymm0,%ymm0 # 329c4 <_sk_srcover_rgba_8888_sse2_lowp+0x884>
+ .byte 98,241,124,56,88,5,62,199,2,0 // vaddps 0x2c73e(%rip){1to8},%ymm0,%ymm0 # 329e4 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 197,124,17,128,128,0,0,0 // vmovups %ymm8,0x80(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -15549,8 +15555,8 @@ FUNCTION(_sk_bilinear_ny_skx)
_sk_bilinear_ny_skx:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,252,16,72,32 // vmovups 0x20(%rax),%ymm1
- .byte 98,241,116,56,88,13,101,200,2,0 // vaddps 0x2c865(%rip){1to8},%ymm1,%ymm1 # 32b24 <_sk_srcover_rgba_8888_sse2_lowp+0x9e4>
- .byte 196,98,125,24,5,0,199,2,0 // vbroadcastss 0x2c700(%rip),%ymm8 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 98,241,116,56,88,13,133,200,2,0 // vaddps 0x2c885(%rip){1to8},%ymm1,%ymm1 # 32b48 <_sk_srcover_rgba_8888_sse2_lowp+0x9ec>
+ .byte 196,98,125,24,5,28,199,2,0 // vbroadcastss 0x2c71c(%rip),%ymm8 # 329e8 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 197,60,92,64,96 // vsubps 0x60(%rax),%ymm8,%ymm8
.byte 197,124,17,128,160,0,0,0 // vmovups %ymm8,0xa0(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -15563,7 +15569,7 @@ _sk_bilinear_py_skx:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,252,16,72,32 // vmovups 0x20(%rax),%ymm1
.byte 197,124,16,64,96 // vmovups 0x60(%rax),%ymm8
- .byte 98,241,116,56,88,13,213,198,2,0 // vaddps 0x2c6d5(%rip){1to8},%ymm1,%ymm1 # 329c4 <_sk_srcover_rgba_8888_sse2_lowp+0x884>
+ .byte 98,241,116,56,88,13,241,198,2,0 // vaddps 0x2c6f1(%rip){1to8},%ymm1,%ymm1 # 329e4 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 197,124,17,128,160,0,0,0 // vmovups %ymm8,0xa0(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -15574,12 +15580,12 @@ FUNCTION(_sk_bicubic_n3x_skx)
_sk_bicubic_n3x_skx:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,252,16,0 // vmovups (%rax),%ymm0
- .byte 98,241,124,56,88,5,29,200,2,0 // vaddps 0x2c81d(%rip){1to8},%ymm0,%ymm0 # 32b28 <_sk_srcover_rgba_8888_sse2_lowp+0x9e8>
- .byte 196,98,125,24,5,180,198,2,0 // vbroadcastss 0x2c6b4(%rip),%ymm8 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 98,241,124,56,88,5,61,200,2,0 // vaddps 0x2c83d(%rip){1to8},%ymm0,%ymm0 # 32b4c <_sk_srcover_rgba_8888_sse2_lowp+0x9f0>
+ .byte 196,98,125,24,5,208,198,2,0 // vbroadcastss 0x2c6d0(%rip),%ymm8 # 329e8 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 197,60,92,64,64 // vsubps 0x40(%rax),%ymm8,%ymm8
.byte 196,65,60,89,200 // vmulps %ymm8,%ymm8,%ymm9
- .byte 196,98,125,24,21,5,200,2,0 // vbroadcastss 0x2c805(%rip),%ymm10 # 32b2c <_sk_srcover_rgba_8888_sse2_lowp+0x9ec>
- .byte 98,114,61,56,168,21,7,199,2,0 // vfmadd213ps 0x2c707(%rip){1to8},%ymm8,%ymm10 # 32a38 <_sk_srcover_rgba_8888_sse2_lowp+0x8f8>
+ .byte 196,98,125,24,21,37,200,2,0 // vbroadcastss 0x2c825(%rip),%ymm10 # 32b50 <_sk_srcover_rgba_8888_sse2_lowp+0x9f4>
+ .byte 98,114,61,56,168,21,39,199,2,0 // vfmadd213ps 0x2c727(%rip){1to8},%ymm8,%ymm10 # 32a5c <_sk_srcover_rgba_8888_sse2_lowp+0x900>
.byte 196,65,44,89,193 // vmulps %ymm9,%ymm10,%ymm8
.byte 197,124,17,128,128,0,0,0 // vmovups %ymm8,0x80(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -15591,13 +15597,13 @@ FUNCTION(_sk_bicubic_n1x_skx)
_sk_bicubic_n1x_skx:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,252,16,0 // vmovups (%rax),%ymm0
- .byte 98,241,124,56,88,5,210,199,2,0 // vaddps 0x2c7d2(%rip){1to8},%ymm0,%ymm0 # 32b24 <_sk_srcover_rgba_8888_sse2_lowp+0x9e4>
- .byte 196,98,125,24,5,109,198,2,0 // vbroadcastss 0x2c66d(%rip),%ymm8 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 98,241,124,56,88,5,242,199,2,0 // vaddps 0x2c7f2(%rip){1to8},%ymm0,%ymm0 # 32b48 <_sk_srcover_rgba_8888_sse2_lowp+0x9ec>
+ .byte 196,98,125,24,5,137,198,2,0 // vbroadcastss 0x2c689(%rip),%ymm8 # 329e8 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 197,60,92,64,64 // vsubps 0x40(%rax),%ymm8,%ymm8
- .byte 196,98,125,24,13,199,199,2,0 // vbroadcastss 0x2c7c7(%rip),%ymm9 # 32b30 <_sk_srcover_rgba_8888_sse2_lowp+0x9f0>
- .byte 98,114,61,56,168,13,193,199,2,0 // vfmadd213ps 0x2c7c1(%rip){1to8},%ymm8,%ymm9 # 32b34 <_sk_srcover_rgba_8888_sse2_lowp+0x9f4>
- .byte 98,114,61,56,168,13,71,198,2,0 // vfmadd213ps 0x2c647(%rip){1to8},%ymm8,%ymm9 # 329c4 <_sk_srcover_rgba_8888_sse2_lowp+0x884>
- .byte 98,114,61,56,168,13,177,199,2,0 // vfmadd213ps 0x2c7b1(%rip){1to8},%ymm8,%ymm9 # 32b38 <_sk_srcover_rgba_8888_sse2_lowp+0x9f8>
+ .byte 196,98,125,24,13,231,199,2,0 // vbroadcastss 0x2c7e7(%rip),%ymm9 # 32b54 <_sk_srcover_rgba_8888_sse2_lowp+0x9f8>
+ .byte 98,114,61,56,168,13,225,199,2,0 // vfmadd213ps 0x2c7e1(%rip){1to8},%ymm8,%ymm9 # 32b58 <_sk_srcover_rgba_8888_sse2_lowp+0x9fc>
+ .byte 98,114,61,56,168,13,99,198,2,0 // vfmadd213ps 0x2c663(%rip){1to8},%ymm8,%ymm9 # 329e4 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 98,114,61,56,168,13,209,199,2,0 // vfmadd213ps 0x2c7d1(%rip){1to8},%ymm8,%ymm9 # 32b5c <_sk_srcover_rgba_8888_sse2_lowp+0xa00>
.byte 197,124,17,136,128,0,0,0 // vmovups %ymm9,0x80(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -15607,13 +15613,13 @@ HIDDEN _sk_bicubic_p1x_skx
FUNCTION(_sk_bicubic_p1x_skx)
_sk_bicubic_p1x_skx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,98,125,24,5,38,198,2,0 // vbroadcastss 0x2c626(%rip),%ymm8 # 329c4 <_sk_srcover_rgba_8888_sse2_lowp+0x884>
+ .byte 196,98,125,24,5,66,198,2,0 // vbroadcastss 0x2c642(%rip),%ymm8 # 329e4 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 197,188,88,0 // vaddps (%rax),%ymm8,%ymm0
.byte 197,124,16,72,64 // vmovups 0x40(%rax),%ymm9
- .byte 196,98,125,24,21,128,199,2,0 // vbroadcastss 0x2c780(%rip),%ymm10 # 32b30 <_sk_srcover_rgba_8888_sse2_lowp+0x9f0>
- .byte 98,114,53,56,168,21,122,199,2,0 // vfmadd213ps 0x2c77a(%rip){1to8},%ymm9,%ymm10 # 32b34 <_sk_srcover_rgba_8888_sse2_lowp+0x9f4>
+ .byte 196,98,125,24,21,160,199,2,0 // vbroadcastss 0x2c7a0(%rip),%ymm10 # 32b54 <_sk_srcover_rgba_8888_sse2_lowp+0x9f8>
+ .byte 98,114,53,56,168,21,154,199,2,0 // vfmadd213ps 0x2c79a(%rip){1to8},%ymm9,%ymm10 # 32b58 <_sk_srcover_rgba_8888_sse2_lowp+0x9fc>
.byte 196,66,53,168,208 // vfmadd213ps %ymm8,%ymm9,%ymm10
- .byte 98,114,53,56,168,21,111,199,2,0 // vfmadd213ps 0x2c76f(%rip){1to8},%ymm9,%ymm10 # 32b38 <_sk_srcover_rgba_8888_sse2_lowp+0x9f8>
+ .byte 98,114,53,56,168,21,143,199,2,0 // vfmadd213ps 0x2c78f(%rip){1to8},%ymm9,%ymm10 # 32b5c <_sk_srcover_rgba_8888_sse2_lowp+0xa00>
.byte 197,124,17,144,128,0,0,0 // vmovups %ymm10,0x80(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -15625,10 +15631,10 @@ _sk_bicubic_p3x_skx:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,252,16,0 // vmovups (%rax),%ymm0
.byte 197,124,16,64,64 // vmovups 0x40(%rax),%ymm8
- .byte 98,241,124,56,88,5,74,199,2,0 // vaddps 0x2c74a(%rip){1to8},%ymm0,%ymm0 # 32b34 <_sk_srcover_rgba_8888_sse2_lowp+0x9f4>
+ .byte 98,241,124,56,88,5,106,199,2,0 // vaddps 0x2c76a(%rip){1to8},%ymm0,%ymm0 # 32b58 <_sk_srcover_rgba_8888_sse2_lowp+0x9fc>
.byte 196,65,60,89,200 // vmulps %ymm8,%ymm8,%ymm9
- .byte 196,98,125,24,21,52,199,2,0 // vbroadcastss 0x2c734(%rip),%ymm10 # 32b2c <_sk_srcover_rgba_8888_sse2_lowp+0x9ec>
- .byte 98,114,61,56,168,21,54,198,2,0 // vfmadd213ps 0x2c636(%rip){1to8},%ymm8,%ymm10 # 32a38 <_sk_srcover_rgba_8888_sse2_lowp+0x8f8>
+ .byte 196,98,125,24,21,84,199,2,0 // vbroadcastss 0x2c754(%rip),%ymm10 # 32b50 <_sk_srcover_rgba_8888_sse2_lowp+0x9f4>
+ .byte 98,114,61,56,168,21,86,198,2,0 // vfmadd213ps 0x2c656(%rip){1to8},%ymm8,%ymm10 # 32a5c <_sk_srcover_rgba_8888_sse2_lowp+0x900>
.byte 196,65,52,89,194 // vmulps %ymm10,%ymm9,%ymm8
.byte 197,124,17,128,128,0,0,0 // vmovups %ymm8,0x80(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -15640,12 +15646,12 @@ FUNCTION(_sk_bicubic_n3y_skx)
_sk_bicubic_n3y_skx:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,252,16,72,32 // vmovups 0x20(%rax),%ymm1
- .byte 98,241,116,56,88,13,4,199,2,0 // vaddps 0x2c704(%rip){1to8},%ymm1,%ymm1 # 32b28 <_sk_srcover_rgba_8888_sse2_lowp+0x9e8>
- .byte 196,98,125,24,5,155,197,2,0 // vbroadcastss 0x2c59b(%rip),%ymm8 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 98,241,116,56,88,13,36,199,2,0 // vaddps 0x2c724(%rip){1to8},%ymm1,%ymm1 # 32b4c <_sk_srcover_rgba_8888_sse2_lowp+0x9f0>
+ .byte 196,98,125,24,5,183,197,2,0 // vbroadcastss 0x2c5b7(%rip),%ymm8 # 329e8 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 197,60,92,64,96 // vsubps 0x60(%rax),%ymm8,%ymm8
.byte 196,65,60,89,200 // vmulps %ymm8,%ymm8,%ymm9
- .byte 196,98,125,24,21,236,198,2,0 // vbroadcastss 0x2c6ec(%rip),%ymm10 # 32b2c <_sk_srcover_rgba_8888_sse2_lowp+0x9ec>
- .byte 98,114,61,56,168,21,238,197,2,0 // vfmadd213ps 0x2c5ee(%rip){1to8},%ymm8,%ymm10 # 32a38 <_sk_srcover_rgba_8888_sse2_lowp+0x8f8>
+ .byte 196,98,125,24,21,12,199,2,0 // vbroadcastss 0x2c70c(%rip),%ymm10 # 32b50 <_sk_srcover_rgba_8888_sse2_lowp+0x9f4>
+ .byte 98,114,61,56,168,21,14,198,2,0 // vfmadd213ps 0x2c60e(%rip){1to8},%ymm8,%ymm10 # 32a5c <_sk_srcover_rgba_8888_sse2_lowp+0x900>
.byte 196,65,44,89,193 // vmulps %ymm9,%ymm10,%ymm8
.byte 197,124,17,128,160,0,0,0 // vmovups %ymm8,0xa0(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -15657,13 +15663,13 @@ FUNCTION(_sk_bicubic_n1y_skx)
_sk_bicubic_n1y_skx:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,252,16,72,32 // vmovups 0x20(%rax),%ymm1
- .byte 98,241,116,56,88,13,184,198,2,0 // vaddps 0x2c6b8(%rip){1to8},%ymm1,%ymm1 # 32b24 <_sk_srcover_rgba_8888_sse2_lowp+0x9e4>
- .byte 196,98,125,24,5,83,197,2,0 // vbroadcastss 0x2c553(%rip),%ymm8 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 98,241,116,56,88,13,216,198,2,0 // vaddps 0x2c6d8(%rip){1to8},%ymm1,%ymm1 # 32b48 <_sk_srcover_rgba_8888_sse2_lowp+0x9ec>
+ .byte 196,98,125,24,5,111,197,2,0 // vbroadcastss 0x2c56f(%rip),%ymm8 # 329e8 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 197,60,92,64,96 // vsubps 0x60(%rax),%ymm8,%ymm8
- .byte 196,98,125,24,13,173,198,2,0 // vbroadcastss 0x2c6ad(%rip),%ymm9 # 32b30 <_sk_srcover_rgba_8888_sse2_lowp+0x9f0>
- .byte 98,114,61,56,168,13,167,198,2,0 // vfmadd213ps 0x2c6a7(%rip){1to8},%ymm8,%ymm9 # 32b34 <_sk_srcover_rgba_8888_sse2_lowp+0x9f4>
- .byte 98,114,61,56,168,13,45,197,2,0 // vfmadd213ps 0x2c52d(%rip){1to8},%ymm8,%ymm9 # 329c4 <_sk_srcover_rgba_8888_sse2_lowp+0x884>
- .byte 98,114,61,56,168,13,151,198,2,0 // vfmadd213ps 0x2c697(%rip){1to8},%ymm8,%ymm9 # 32b38 <_sk_srcover_rgba_8888_sse2_lowp+0x9f8>
+ .byte 196,98,125,24,13,205,198,2,0 // vbroadcastss 0x2c6cd(%rip),%ymm9 # 32b54 <_sk_srcover_rgba_8888_sse2_lowp+0x9f8>
+ .byte 98,114,61,56,168,13,199,198,2,0 // vfmadd213ps 0x2c6c7(%rip){1to8},%ymm8,%ymm9 # 32b58 <_sk_srcover_rgba_8888_sse2_lowp+0x9fc>
+ .byte 98,114,61,56,168,13,73,197,2,0 // vfmadd213ps 0x2c549(%rip){1to8},%ymm8,%ymm9 # 329e4 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 98,114,61,56,168,13,183,198,2,0 // vfmadd213ps 0x2c6b7(%rip){1to8},%ymm8,%ymm9 # 32b5c <_sk_srcover_rgba_8888_sse2_lowp+0xa00>
.byte 197,124,17,136,160,0,0,0 // vmovups %ymm9,0xa0(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -15673,13 +15679,13 @@ HIDDEN _sk_bicubic_p1y_skx
FUNCTION(_sk_bicubic_p1y_skx)
_sk_bicubic_p1y_skx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,98,125,24,5,12,197,2,0 // vbroadcastss 0x2c50c(%rip),%ymm8 # 329c4 <_sk_srcover_rgba_8888_sse2_lowp+0x884>
+ .byte 196,98,125,24,5,40,197,2,0 // vbroadcastss 0x2c528(%rip),%ymm8 # 329e4 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 197,188,88,72,32 // vaddps 0x20(%rax),%ymm8,%ymm1
.byte 197,124,16,72,96 // vmovups 0x60(%rax),%ymm9
- .byte 196,98,125,24,21,101,198,2,0 // vbroadcastss 0x2c665(%rip),%ymm10 # 32b30 <_sk_srcover_rgba_8888_sse2_lowp+0x9f0>
- .byte 98,114,53,56,168,21,95,198,2,0 // vfmadd213ps 0x2c65f(%rip){1to8},%ymm9,%ymm10 # 32b34 <_sk_srcover_rgba_8888_sse2_lowp+0x9f4>
+ .byte 196,98,125,24,21,133,198,2,0 // vbroadcastss 0x2c685(%rip),%ymm10 # 32b54 <_sk_srcover_rgba_8888_sse2_lowp+0x9f8>
+ .byte 98,114,53,56,168,21,127,198,2,0 // vfmadd213ps 0x2c67f(%rip){1to8},%ymm9,%ymm10 # 32b58 <_sk_srcover_rgba_8888_sse2_lowp+0x9fc>
.byte 196,66,53,168,208 // vfmadd213ps %ymm8,%ymm9,%ymm10
- .byte 98,114,53,56,168,21,84,198,2,0 // vfmadd213ps 0x2c654(%rip){1to8},%ymm9,%ymm10 # 32b38 <_sk_srcover_rgba_8888_sse2_lowp+0x9f8>
+ .byte 98,114,53,56,168,21,116,198,2,0 // vfmadd213ps 0x2c674(%rip){1to8},%ymm9,%ymm10 # 32b5c <_sk_srcover_rgba_8888_sse2_lowp+0xa00>
.byte 197,124,17,144,160,0,0,0 // vmovups %ymm10,0xa0(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -15691,10 +15697,10 @@ _sk_bicubic_p3y_skx:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,252,16,72,32 // vmovups 0x20(%rax),%ymm1
.byte 197,124,16,64,96 // vmovups 0x60(%rax),%ymm8
- .byte 98,241,116,56,88,13,46,198,2,0 // vaddps 0x2c62e(%rip){1to8},%ymm1,%ymm1 # 32b34 <_sk_srcover_rgba_8888_sse2_lowp+0x9f4>
+ .byte 98,241,116,56,88,13,78,198,2,0 // vaddps 0x2c64e(%rip){1to8},%ymm1,%ymm1 # 32b58 <_sk_srcover_rgba_8888_sse2_lowp+0x9fc>
.byte 196,65,60,89,200 // vmulps %ymm8,%ymm8,%ymm9
- .byte 196,98,125,24,21,24,198,2,0 // vbroadcastss 0x2c618(%rip),%ymm10 # 32b2c <_sk_srcover_rgba_8888_sse2_lowp+0x9ec>
- .byte 98,114,61,56,168,21,26,197,2,0 // vfmadd213ps 0x2c51a(%rip){1to8},%ymm8,%ymm10 # 32a38 <_sk_srcover_rgba_8888_sse2_lowp+0x8f8>
+ .byte 196,98,125,24,21,56,198,2,0 // vbroadcastss 0x2c638(%rip),%ymm10 # 32b50 <_sk_srcover_rgba_8888_sse2_lowp+0x9f4>
+ .byte 98,114,61,56,168,21,58,197,2,0 // vfmadd213ps 0x2c53a(%rip){1to8},%ymm8,%ymm10 # 32a5c <_sk_srcover_rgba_8888_sse2_lowp+0x900>
.byte 196,65,52,89,194 // vmulps %ymm10,%ymm9,%ymm8
.byte 197,124,17,128,160,0,0,0 // vmovups %ymm8,0xa0(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -15820,7 +15826,7 @@ _sk_clut_3D_skx:
.byte 98,226,61,40,64,224 // vpmulld %ymm0,%ymm8,%ymm20
.byte 98,209,93,32,254,193 // vpaddd %ymm9,%ymm20,%ymm0
.byte 72,139,0 // mov (%rax),%rax
- .byte 98,98,125,40,88,29,34,196,2,0 // vpbroadcastd 0x2c422(%rip),%ymm27 # 32b40 <_sk_srcover_rgba_8888_sse2_lowp+0xa00>
+ .byte 98,98,125,40,88,29,66,196,2,0 // vpbroadcastd 0x2c442(%rip),%ymm27 # 32b64 <_sk_srcover_rgba_8888_sse2_lowp+0xa08>
.byte 98,146,125,40,64,195 // vpmulld %ymm27,%ymm0,%ymm0
.byte 196,65,45,239,210 // vpxor %ymm10,%ymm10,%ymm10
.byte 197,245,118,201 // vpcmpeqd %ymm1,%ymm1,%ymm1
@@ -15833,9 +15839,9 @@ _sk_clut_3D_skx:
.byte 196,65,37,118,219 // vpcmpeqd %ymm11,%ymm11,%ymm11
.byte 196,162,37,146,12,144 // vgatherdps %ymm11,(%rax,%ymm10,4),%ymm1
.byte 98,97,124,40,40,233 // vmovaps %ymm1,%ymm29
- .byte 196,98,125,24,21,216,195,2,0 // vbroadcastss 0x2c3d8(%rip),%ymm10 # 32b3c <_sk_srcover_rgba_8888_sse2_lowp+0x9fc>
+ .byte 196,98,125,24,21,248,195,2,0 // vbroadcastss 0x2c3f8(%rip),%ymm10 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xa04>
.byte 98,81,60,32,88,218 // vaddps %ymm10,%ymm24,%ymm11
- .byte 98,226,125,40,88,5,96,194,2,0 // vpbroadcastd 0x2c260(%rip),%ymm16 # 329d4 <_sk_srcover_rgba_8888_sse2_lowp+0x894>
+ .byte 98,226,125,40,88,5,124,194,2,0 // vpbroadcastd 0x2c27c(%rip),%ymm16 # 329f4 <_sk_srcover_rgba_8888_sse2_lowp+0x898>
.byte 98,177,125,40,254,192 // vpaddd %ymm16,%ymm0,%ymm0
.byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
.byte 196,65,29,118,228 // vpcmpeqd %ymm12,%ymm12,%ymm12
@@ -16075,7 +16081,7 @@ _sk_clut_4D_skx:
.byte 98,162,45,40,64,229 // vpmulld %ymm21,%ymm10,%ymm20
.byte 98,241,93,32,254,193 // vpaddd %ymm1,%ymm20,%ymm0
.byte 72,139,0 // mov (%rax),%rax
- .byte 98,226,125,40,88,5,180,190,2,0 // vpbroadcastd 0x2beb4(%rip),%ymm16 # 32b40 <_sk_srcover_rgba_8888_sse2_lowp+0xa00>
+ .byte 98,226,125,40,88,5,212,190,2,0 // vpbroadcastd 0x2bed4(%rip),%ymm16 # 32b64 <_sk_srcover_rgba_8888_sse2_lowp+0xa08>
.byte 98,50,125,40,64,216 // vpmulld %ymm16,%ymm0,%ymm11
.byte 196,65,28,87,228 // vxorps %ymm12,%ymm12,%ymm12
.byte 197,253,118,192 // vpcmpeqd %ymm0,%ymm0,%ymm0
@@ -16087,9 +16093,9 @@ _sk_clut_4D_skx:
.byte 196,65,29,118,228 // vpcmpeqd %ymm12,%ymm12,%ymm12
.byte 196,98,29,146,44,128 // vgatherdps %ymm12,(%rax,%ymm0,4),%ymm13
.byte 197,124,17,172,36,192,4,0,0 // vmovups %ymm13,0x4c0(%rsp)
- .byte 196,226,125,24,5,102,190,2,0 // vbroadcastss 0x2be66(%rip),%ymm0 # 32b3c <_sk_srcover_rgba_8888_sse2_lowp+0x9fc>
+ .byte 196,226,125,24,5,134,190,2,0 // vbroadcastss 0x2be86(%rip),%ymm0 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xa04>
.byte 98,113,28,32,88,224 // vaddps %ymm0,%ymm28,%ymm12
- .byte 98,226,125,40,88,13,238,188,2,0 // vpbroadcastd 0x2bcee(%rip),%ymm17 # 329d4 <_sk_srcover_rgba_8888_sse2_lowp+0x894>
+ .byte 98,226,125,40,88,13,10,189,2,0 // vpbroadcastd 0x2bd0a(%rip),%ymm17 # 329f4 <_sk_srcover_rgba_8888_sse2_lowp+0x898>
.byte 98,49,37,40,254,217 // vpaddd %ymm17,%ymm11,%ymm11
.byte 197,236,87,210 // vxorps %ymm2,%ymm2,%ymm2
.byte 196,65,21,118,237 // vpcmpeqd %ymm13,%ymm13,%ymm13
@@ -16494,7 +16500,7 @@ _sk_clut_4D_skx:
.byte 197,228,92,214 // vsubps %ymm6,%ymm3,%ymm2
.byte 196,226,93,168,214 // vfmadd213ps %ymm6,%ymm4,%ymm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,140,179,2,0 // vbroadcastss 0x2b38c(%rip),%ymm3 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 196,226,125,24,29,168,179,2,0 // vbroadcastss 0x2b3a8(%rip),%ymm3 # 329e8 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 98,145,124,40,40,227 // vmovaps %ymm27,%ymm4
.byte 197,252,16,108,36,128 // vmovups -0x80(%rsp),%ymm5
.byte 197,252,16,116,36,160 // vmovups -0x60(%rsp),%ymm6
@@ -16526,13 +16532,13 @@ _sk_start_pipeline_hsw:
.byte 73,137,246 // mov %rsi,%r14
.byte 72,137,77,192 // mov %rcx,-0x40(%rbp)
.byte 72,57,203 // cmp %rcx,%rbx
- .byte 15,131,151,0,0,0 // jae 772a <_sk_start_pipeline_hsw+0xca>
+ .byte 15,131,151,0,0,0 // jae 772e <_sk_start_pipeline_hsw+0xca>
.byte 72,139,69,208 // mov -0x30(%rbp),%rax
.byte 72,141,64,8 // lea 0x8(%rax),%rax
.byte 72,137,69,200 // mov %rax,-0x38(%rbp)
.byte 72,139,85,208 // mov -0x30(%rbp),%rdx
.byte 76,57,125,200 // cmp %r15,-0x38(%rbp)
- .byte 119,67 // ja 76ec <_sk_start_pipeline_hsw+0x8c>
+ .byte 119,67 // ja 76f0 <_sk_start_pipeline_hsw+0x8c>
.byte 76,139,101,208 // mov -0x30(%rbp),%r12
.byte 49,255 // xor %edi,%edi
.byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
@@ -16551,10 +16557,10 @@ _sk_start_pipeline_hsw:
.byte 73,131,196,16 // add $0x10,%r12
.byte 77,57,252 // cmp %r15,%r12
.byte 73,137,212 // mov %rdx,%r12
- .byte 118,193 // jbe 76ad <_sk_start_pipeline_hsw+0x4d>
+ .byte 118,193 // jbe 76b1 <_sk_start_pipeline_hsw+0x4d>
.byte 76,137,255 // mov %r15,%rdi
.byte 72,41,215 // sub %rdx,%rdi
- .byte 116,41 // je 771d <_sk_start_pipeline_hsw+0xbd>
+ .byte 116,41 // je 7721 <_sk_start_pipeline_hsw+0xbd>
.byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
.byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
.byte 197,236,87,210 // vxorps %ymm2,%ymm2,%ymm2
@@ -16568,7 +16574,7 @@ _sk_start_pipeline_hsw:
.byte 65,255,213 // callq *%r13
.byte 72,255,195 // inc %rbx
.byte 72,59,93,192 // cmp -0x40(%rbp),%rbx
- .byte 15,133,117,255,255,255 // jne 769f <_sk_start_pipeline_hsw+0x3f>
+ .byte 15,133,117,255,255,255 // jne 76a3 <_sk_start_pipeline_hsw+0x3f>
.byte 72,131,196,24 // add $0x18,%rsp
.byte 91 // pop %rbx
.byte 65,92 // pop %r12
@@ -16592,14 +16598,14 @@ _sk_seed_shader_hsw:
.byte 197,249,110,194 // vmovd %edx,%xmm0
.byte 196,226,125,88,192 // vpbroadcastd %xmm0,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 197,252,88,5,238,172,2,0 // vaddps 0x2acee(%rip),%ymm0,%ymm0 # 32440 <_sk_srcover_rgba_8888_sse2_lowp+0x300>
+ .byte 197,252,88,5,10,173,2,0 // vaddps 0x2ad0a(%rip),%ymm0,%ymm0 # 32460 <_sk_srcover_rgba_8888_sse2_lowp+0x304>
.byte 197,249,110,201 // vmovd %ecx,%xmm1
.byte 196,226,125,88,201 // vpbroadcastd %xmm1,%ymm1
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
- .byte 196,226,125,24,21,92,178,2,0 // vbroadcastss 0x2b25c(%rip),%ymm2 # 329c4 <_sk_srcover_rgba_8888_sse2_lowp+0x884>
+ .byte 196,226,125,24,21,120,178,2,0 // vbroadcastss 0x2b278(%rip),%ymm2 # 329e4 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 197,244,88,202 // vaddps %ymm2,%ymm1,%ymm1
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,21,81,178,2,0 // vbroadcastss 0x2b251(%rip),%ymm2 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 196,226,125,24,21,109,178,2,0 // vbroadcastss 0x2b26d(%rip),%ymm2 # 329e8 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 197,228,87,219 // vxorps %ymm3,%ymm3,%ymm3
.byte 197,220,87,228 // vxorps %ymm4,%ymm4,%ymm4
.byte 197,212,87,237 // vxorps %ymm5,%ymm5,%ymm5
@@ -16614,17 +16620,17 @@ _sk_dither_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,121,110,194 // vmovd %edx,%xmm8
.byte 196,66,125,88,192 // vpbroadcastd %xmm8,%ymm8
- .byte 197,61,254,5,192,172,2,0 // vpaddd 0x2acc0(%rip),%ymm8,%ymm8 # 32460 <_sk_srcover_rgba_8888_sse2_lowp+0x320>
+ .byte 197,61,254,5,220,172,2,0 // vpaddd 0x2acdc(%rip),%ymm8,%ymm8 # 32480 <_sk_srcover_rgba_8888_sse2_lowp+0x324>
.byte 197,121,110,201 // vmovd %ecx,%xmm9
.byte 196,66,125,88,201 // vpbroadcastd %xmm9,%ymm9
.byte 196,65,53,239,200 // vpxor %ymm8,%ymm9,%ymm9
- .byte 196,98,125,88,21,21,178,2,0 // vpbroadcastd 0x2b215(%rip),%ymm10 # 329cc <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+ .byte 196,98,125,88,21,49,178,2,0 // vpbroadcastd 0x2b231(%rip),%ymm10 # 329ec <_sk_srcover_rgba_8888_sse2_lowp+0x890>
.byte 196,65,53,219,218 // vpand %ymm10,%ymm9,%ymm11
.byte 196,193,37,114,243,5 // vpslld $0x5,%ymm11,%ymm11
.byte 196,65,61,219,210 // vpand %ymm10,%ymm8,%ymm10
.byte 196,193,45,114,242,4 // vpslld $0x4,%ymm10,%ymm10
- .byte 196,98,125,88,37,250,177,2,0 // vpbroadcastd 0x2b1fa(%rip),%ymm12 # 329d0 <_sk_srcover_rgba_8888_sse2_lowp+0x890>
- .byte 196,98,125,88,45,245,177,2,0 // vpbroadcastd 0x2b1f5(%rip),%ymm13 # 329d4 <_sk_srcover_rgba_8888_sse2_lowp+0x894>
+ .byte 196,98,125,88,37,22,178,2,0 // vpbroadcastd 0x2b216(%rip),%ymm12 # 329f0 <_sk_srcover_rgba_8888_sse2_lowp+0x894>
+ .byte 196,98,125,88,45,17,178,2,0 // vpbroadcastd 0x2b211(%rip),%ymm13 # 329f4 <_sk_srcover_rgba_8888_sse2_lowp+0x898>
.byte 196,65,53,219,245 // vpand %ymm13,%ymm9,%ymm14
.byte 196,193,13,114,246,2 // vpslld $0x2,%ymm14,%ymm14
.byte 196,65,37,235,222 // vpor %ymm14,%ymm11,%ymm11
@@ -16639,8 +16645,8 @@ _sk_dither_hsw:
.byte 196,65,61,235,195 // vpor %ymm11,%ymm8,%ymm8
.byte 196,65,61,235,193 // vpor %ymm9,%ymm8,%ymm8
.byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8
- .byte 196,98,125,24,13,167,177,2,0 // vbroadcastss 0x2b1a7(%rip),%ymm9 # 329d8 <_sk_srcover_rgba_8888_sse2_lowp+0x898>
- .byte 196,98,125,24,21,162,177,2,0 // vbroadcastss 0x2b1a2(%rip),%ymm10 # 329dc <_sk_srcover_rgba_8888_sse2_lowp+0x89c>
+ .byte 196,98,125,24,13,195,177,2,0 // vbroadcastss 0x2b1c3(%rip),%ymm9 # 329f8 <_sk_srcover_rgba_8888_sse2_lowp+0x89c>
+ .byte 196,98,125,24,21,190,177,2,0 // vbroadcastss 0x2b1be(%rip),%ymm10 # 329fc <_sk_srcover_rgba_8888_sse2_lowp+0x8a0>
.byte 196,66,61,184,209 // vfmadd231ps %ymm9,%ymm8,%ymm10
.byte 196,98,125,24,0 // vbroadcastss (%rax),%ymm8
.byte 196,65,44,89,192 // vmulps %ymm8,%ymm10,%ymm8
@@ -16674,7 +16680,7 @@ HIDDEN _sk_black_color_hsw
FUNCTION(_sk_black_color_hsw)
_sk_black_color_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,42,177,2,0 // vbroadcastss 0x2b12a(%rip),%ymm3 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 196,226,125,24,29,70,177,2,0 // vbroadcastss 0x2b146(%rip),%ymm3 # 329e8 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
.byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
.byte 197,236,87,210 // vxorps %ymm2,%ymm2,%ymm2
@@ -16685,7 +16691,7 @@ HIDDEN _sk_white_color_hsw
FUNCTION(_sk_white_color_hsw)
_sk_white_color_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,5,17,177,2,0 // vbroadcastss 0x2b111(%rip),%ymm0 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 196,226,125,24,5,45,177,2,0 // vbroadcastss 0x2b12d(%rip),%ymm0 # 329e8 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 197,252,40,200 // vmovaps %ymm0,%ymm1
.byte 197,252,40,208 // vmovaps %ymm0,%ymm2
.byte 197,252,40,216 // vmovaps %ymm0,%ymm3
@@ -16731,7 +16737,7 @@ HIDDEN _sk_srcatop_hsw
FUNCTION(_sk_srcatop_hsw)
_sk_srcatop_hsw:
.byte 197,252,89,199 // vmulps %ymm7,%ymm0,%ymm0
- .byte 196,98,125,24,5,176,176,2,0 // vbroadcastss 0x2b0b0(%rip),%ymm8 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 196,98,125,24,5,204,176,2,0 // vbroadcastss 0x2b0cc(%rip),%ymm8 # 329e8 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
.byte 196,226,61,184,196 // vfmadd231ps %ymm4,%ymm8,%ymm0
.byte 197,244,89,207 // vmulps %ymm7,%ymm1,%ymm1
@@ -16747,7 +16753,7 @@ HIDDEN _sk_dstatop_hsw
.globl _sk_dstatop_hsw
FUNCTION(_sk_dstatop_hsw)
_sk_dstatop_hsw:
- .byte 196,98,125,24,5,127,176,2,0 // vbroadcastss 0x2b07f(%rip),%ymm8 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 196,98,125,24,5,155,176,2,0 // vbroadcastss 0x2b09b(%rip),%ymm8 # 329e8 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 197,60,92,199 // vsubps %ymm7,%ymm8,%ymm8
.byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
.byte 196,226,101,184,196 // vfmadd231ps %ymm4,%ymm3,%ymm0
@@ -16786,7 +16792,7 @@ HIDDEN _sk_srcout_hsw
.globl _sk_srcout_hsw
FUNCTION(_sk_srcout_hsw)
_sk_srcout_hsw:
- .byte 196,98,125,24,5,34,176,2,0 // vbroadcastss 0x2b022(%rip),%ymm8 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 196,98,125,24,5,62,176,2,0 // vbroadcastss 0x2b03e(%rip),%ymm8 # 329e8 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 197,60,92,199 // vsubps %ymm7,%ymm8,%ymm8
.byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
.byte 197,188,89,201 // vmulps %ymm1,%ymm8,%ymm1
@@ -16799,7 +16805,7 @@ HIDDEN _sk_dstout_hsw
.globl _sk_dstout_hsw
FUNCTION(_sk_dstout_hsw)
_sk_dstout_hsw:
- .byte 196,226,125,24,5,1,176,2,0 // vbroadcastss 0x2b001(%rip),%ymm0 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 196,226,125,24,5,29,176,2,0 // vbroadcastss 0x2b01d(%rip),%ymm0 # 329e8 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 197,252,92,219 // vsubps %ymm3,%ymm0,%ymm3
.byte 197,228,89,196 // vmulps %ymm4,%ymm3,%ymm0
.byte 197,228,89,205 // vmulps %ymm5,%ymm3,%ymm1
@@ -16812,7 +16818,7 @@ HIDDEN _sk_srcover_hsw
.globl _sk_srcover_hsw
FUNCTION(_sk_srcover_hsw)
_sk_srcover_hsw:
- .byte 196,98,125,24,5,224,175,2,0 // vbroadcastss 0x2afe0(%rip),%ymm8 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 196,98,125,24,5,252,175,2,0 // vbroadcastss 0x2affc(%rip),%ymm8 # 329e8 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
.byte 196,194,93,184,192 // vfmadd231ps %ymm8,%ymm4,%ymm0
.byte 196,194,85,184,200 // vfmadd231ps %ymm8,%ymm5,%ymm1
@@ -16825,7 +16831,7 @@ HIDDEN _sk_dstover_hsw
.globl _sk_dstover_hsw
FUNCTION(_sk_dstover_hsw)
_sk_dstover_hsw:
- .byte 196,98,125,24,5,187,175,2,0 // vbroadcastss 0x2afbb(%rip),%ymm8 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 196,98,125,24,5,215,175,2,0 // vbroadcastss 0x2afd7(%rip),%ymm8 # 329e8 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 197,60,92,199 // vsubps %ymm7,%ymm8,%ymm8
.byte 196,226,61,168,196 // vfmadd213ps %ymm4,%ymm8,%ymm0
.byte 196,226,61,168,205 // vfmadd213ps %ymm5,%ymm8,%ymm1
@@ -16849,7 +16855,7 @@ HIDDEN _sk_multiply_hsw
.globl _sk_multiply_hsw
FUNCTION(_sk_multiply_hsw)
_sk_multiply_hsw:
- .byte 196,98,125,24,5,130,175,2,0 // vbroadcastss 0x2af82(%rip),%ymm8 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 196,98,125,24,5,158,175,2,0 // vbroadcastss 0x2af9e(%rip),%ymm8 # 329e8 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 197,60,92,207 // vsubps %ymm7,%ymm8,%ymm9
.byte 197,52,89,208 // vmulps %ymm0,%ymm9,%ymm10
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
@@ -16872,7 +16878,7 @@ HIDDEN _sk_plus__hsw
FUNCTION(_sk_plus__hsw)
_sk_plus__hsw:
.byte 197,252,88,196 // vaddps %ymm4,%ymm0,%ymm0
- .byte 196,98,125,24,5,49,175,2,0 // vbroadcastss 0x2af31(%rip),%ymm8 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 196,98,125,24,5,77,175,2,0 // vbroadcastss 0x2af4d(%rip),%ymm8 # 329e8 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 196,193,124,93,192 // vminps %ymm8,%ymm0,%ymm0
.byte 197,244,88,205 // vaddps %ymm5,%ymm1,%ymm1
.byte 196,193,116,93,200 // vminps %ymm8,%ymm1,%ymm1
@@ -16902,7 +16908,7 @@ HIDDEN _sk_xor__hsw
.globl _sk_xor__hsw
FUNCTION(_sk_xor__hsw)
_sk_xor__hsw:
- .byte 196,98,125,24,5,220,174,2,0 // vbroadcastss 0x2aedc(%rip),%ymm8 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 196,98,125,24,5,248,174,2,0 // vbroadcastss 0x2aef8(%rip),%ymm8 # 329e8 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 197,60,92,207 // vsubps %ymm7,%ymm8,%ymm9
.byte 197,180,89,192 // vmulps %ymm0,%ymm9,%ymm0
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
@@ -16936,7 +16942,7 @@ _sk_darken_hsw:
.byte 197,100,89,206 // vmulps %ymm6,%ymm3,%ymm9
.byte 196,193,108,95,209 // vmaxps %ymm9,%ymm2,%ymm2
.byte 197,188,92,210 // vsubps %ymm2,%ymm8,%ymm2
- .byte 196,98,125,24,5,96,174,2,0 // vbroadcastss 0x2ae60(%rip),%ymm8 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 196,98,125,24,5,124,174,2,0 // vbroadcastss 0x2ae7c(%rip),%ymm8 # 329e8 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
.byte 196,194,69,184,216 // vfmadd231ps %ymm8,%ymm7,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -16961,7 +16967,7 @@ _sk_lighten_hsw:
.byte 197,100,89,206 // vmulps %ymm6,%ymm3,%ymm9
.byte 196,193,108,93,209 // vminps %ymm9,%ymm2,%ymm2
.byte 197,188,92,210 // vsubps %ymm2,%ymm8,%ymm2
- .byte 196,98,125,24,5,11,174,2,0 // vbroadcastss 0x2ae0b(%rip),%ymm8 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 196,98,125,24,5,39,174,2,0 // vbroadcastss 0x2ae27(%rip),%ymm8 # 329e8 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
.byte 196,194,69,184,216 // vfmadd231ps %ymm8,%ymm7,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -16989,7 +16995,7 @@ _sk_difference_hsw:
.byte 196,193,108,93,209 // vminps %ymm9,%ymm2,%ymm2
.byte 197,236,88,210 // vaddps %ymm2,%ymm2,%ymm2
.byte 197,188,92,210 // vsubps %ymm2,%ymm8,%ymm2
- .byte 196,98,125,24,5,170,173,2,0 // vbroadcastss 0x2adaa(%rip),%ymm8 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 196,98,125,24,5,198,173,2,0 // vbroadcastss 0x2adc6(%rip),%ymm8 # 329e8 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
.byte 196,194,69,184,216 // vfmadd231ps %ymm8,%ymm7,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -17011,7 +17017,7 @@ _sk_exclusion_hsw:
.byte 197,236,89,214 // vmulps %ymm6,%ymm2,%ymm2
.byte 197,236,88,210 // vaddps %ymm2,%ymm2,%ymm2
.byte 197,188,92,210 // vsubps %ymm2,%ymm8,%ymm2
- .byte 196,98,125,24,5,100,173,2,0 // vbroadcastss 0x2ad64(%rip),%ymm8 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 196,98,125,24,5,128,173,2,0 // vbroadcastss 0x2ad80(%rip),%ymm8 # 329e8 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
.byte 196,194,69,184,216 // vfmadd231ps %ymm8,%ymm7,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -17021,7 +17027,7 @@ HIDDEN _sk_colorburn_hsw
.globl _sk_colorburn_hsw
FUNCTION(_sk_colorburn_hsw)
_sk_colorburn_hsw:
- .byte 196,98,125,24,5,78,173,2,0 // vbroadcastss 0x2ad4e(%rip),%ymm8 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 196,98,125,24,5,106,173,2,0 // vbroadcastss 0x2ad6a(%rip),%ymm8 # 329e8 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 197,60,92,207 // vsubps %ymm7,%ymm8,%ymm9
.byte 197,52,89,216 // vmulps %ymm0,%ymm9,%ymm11
.byte 196,65,44,87,210 // vxorps %ymm10,%ymm10,%ymm10
@@ -17079,7 +17085,7 @@ HIDDEN _sk_colordodge_hsw
FUNCTION(_sk_colordodge_hsw)
_sk_colordodge_hsw:
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
- .byte 196,98,125,24,13,94,172,2,0 // vbroadcastss 0x2ac5e(%rip),%ymm9 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 196,98,125,24,13,122,172,2,0 // vbroadcastss 0x2ac7a(%rip),%ymm9 # 329e8 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 197,52,92,215 // vsubps %ymm7,%ymm9,%ymm10
.byte 197,44,89,216 // vmulps %ymm0,%ymm10,%ymm11
.byte 197,52,92,203 // vsubps %ymm3,%ymm9,%ymm9
@@ -17132,7 +17138,7 @@ HIDDEN _sk_hardlight_hsw
.globl _sk_hardlight_hsw
FUNCTION(_sk_hardlight_hsw)
_sk_hardlight_hsw:
- .byte 196,98,125,24,5,120,171,2,0 // vbroadcastss 0x2ab78(%rip),%ymm8 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 196,98,125,24,5,148,171,2,0 // vbroadcastss 0x2ab94(%rip),%ymm8 # 329e8 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 197,60,92,215 // vsubps %ymm7,%ymm8,%ymm10
.byte 197,44,89,216 // vmulps %ymm0,%ymm10,%ymm11
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
@@ -17183,7 +17189,7 @@ HIDDEN _sk_overlay_hsw
.globl _sk_overlay_hsw
FUNCTION(_sk_overlay_hsw)
_sk_overlay_hsw:
- .byte 196,98,125,24,5,172,170,2,0 // vbroadcastss 0x2aaac(%rip),%ymm8 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 196,98,125,24,5,200,170,2,0 // vbroadcastss 0x2aac8(%rip),%ymm8 # 329e8 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 197,60,92,215 // vsubps %ymm7,%ymm8,%ymm10
.byte 197,44,89,216 // vmulps %ymm0,%ymm10,%ymm11
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
@@ -17244,10 +17250,10 @@ _sk_softlight_hsw:
.byte 196,65,20,88,197 // vaddps %ymm13,%ymm13,%ymm8
.byte 196,65,60,88,192 // vaddps %ymm8,%ymm8,%ymm8
.byte 196,66,61,168,192 // vfmadd213ps %ymm8,%ymm8,%ymm8
- .byte 196,98,125,24,29,199,169,2,0 // vbroadcastss 0x2a9c7(%rip),%ymm11 # 329e0 <_sk_srcover_rgba_8888_sse2_lowp+0x8a0>
+ .byte 196,98,125,24,29,227,169,2,0 // vbroadcastss 0x2a9e3(%rip),%ymm11 # 32a00 <_sk_srcover_rgba_8888_sse2_lowp+0x8a4>
.byte 196,65,20,88,227 // vaddps %ymm11,%ymm13,%ymm12
.byte 196,65,28,89,192 // vmulps %ymm8,%ymm12,%ymm8
- .byte 196,98,125,24,37,184,169,2,0 // vbroadcastss 0x2a9b8(%rip),%ymm12 # 329e4 <_sk_srcover_rgba_8888_sse2_lowp+0x8a4>
+ .byte 196,98,125,24,37,212,169,2,0 // vbroadcastss 0x2a9d4(%rip),%ymm12 # 32a04 <_sk_srcover_rgba_8888_sse2_lowp+0x8a8>
.byte 196,66,21,184,196 // vfmadd231ps %ymm12,%ymm13,%ymm8
.byte 196,65,124,82,245 // vrsqrtps %ymm13,%ymm14
.byte 196,65,124,83,246 // vrcpps %ymm14,%ymm14
@@ -17257,7 +17263,7 @@ _sk_softlight_hsw:
.byte 197,4,194,255,2 // vcmpleps %ymm7,%ymm15,%ymm15
.byte 196,67,13,74,240,240 // vblendvps %ymm15,%ymm8,%ymm14,%ymm14
.byte 197,116,88,249 // vaddps %ymm1,%ymm1,%ymm15
- .byte 196,98,125,24,5,103,169,2,0 // vbroadcastss 0x2a967(%rip),%ymm8 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 196,98,125,24,5,131,169,2,0 // vbroadcastss 0x2a983(%rip),%ymm8 # 329e8 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 196,65,60,92,237 // vsubps %ymm13,%ymm8,%ymm13
.byte 197,132,92,195 // vsubps %ymm3,%ymm15,%ymm0
.byte 196,98,125,168,235 // vfmadd213ps %ymm3,%ymm0,%ymm13
@@ -17370,11 +17376,11 @@ _sk_hue_hsw:
.byte 196,65,28,89,210 // vmulps %ymm10,%ymm12,%ymm10
.byte 196,65,44,94,214 // vdivps %ymm14,%ymm10,%ymm10
.byte 196,67,45,74,224,240 // vblendvps %ymm15,%ymm8,%ymm10,%ymm12
- .byte 196,98,125,24,53,127,167,2,0 // vbroadcastss 0x2a77f(%rip),%ymm14 # 329e8 <_sk_srcover_rgba_8888_sse2_lowp+0x8a8>
- .byte 196,98,125,24,61,122,167,2,0 // vbroadcastss 0x2a77a(%rip),%ymm15 # 329ec <_sk_srcover_rgba_8888_sse2_lowp+0x8ac>
+ .byte 196,98,125,24,53,155,167,2,0 // vbroadcastss 0x2a79b(%rip),%ymm14 # 32a08 <_sk_srcover_rgba_8888_sse2_lowp+0x8ac>
+ .byte 196,98,125,24,61,150,167,2,0 // vbroadcastss 0x2a796(%rip),%ymm15 # 32a0c <_sk_srcover_rgba_8888_sse2_lowp+0x8b0>
.byte 196,65,84,89,239 // vmulps %ymm15,%ymm5,%ymm13
.byte 196,66,93,184,238 // vfmadd231ps %ymm14,%ymm4,%ymm13
- .byte 196,226,125,24,5,107,167,2,0 // vbroadcastss 0x2a76b(%rip),%ymm0 # 329f0 <_sk_srcover_rgba_8888_sse2_lowp+0x8b0>
+ .byte 196,226,125,24,5,135,167,2,0 // vbroadcastss 0x2a787(%rip),%ymm0 # 32a10 <_sk_srcover_rgba_8888_sse2_lowp+0x8b4>
.byte 196,98,77,184,232 // vfmadd231ps %ymm0,%ymm6,%ymm13
.byte 196,65,116,89,215 // vmulps %ymm15,%ymm1,%ymm10
.byte 196,66,53,184,214 // vfmadd231ps %ymm14,%ymm9,%ymm10
@@ -17429,7 +17435,7 @@ _sk_hue_hsw:
.byte 196,193,124,95,192 // vmaxps %ymm8,%ymm0,%ymm0
.byte 196,65,36,95,200 // vmaxps %ymm8,%ymm11,%ymm9
.byte 196,65,116,95,192 // vmaxps %ymm8,%ymm1,%ymm8
- .byte 196,226,125,24,13,44,166,2,0 // vbroadcastss 0x2a62c(%rip),%ymm1 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 196,226,125,24,13,72,166,2,0 // vbroadcastss 0x2a648(%rip),%ymm1 # 329e8 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 197,116,92,215 // vsubps %ymm7,%ymm1,%ymm10
.byte 197,172,89,210 // vmulps %ymm2,%ymm10,%ymm2
.byte 197,116,92,219 // vsubps %ymm3,%ymm1,%ymm11
@@ -17483,11 +17489,11 @@ _sk_saturation_hsw:
.byte 196,65,28,89,210 // vmulps %ymm10,%ymm12,%ymm10
.byte 196,65,44,94,214 // vdivps %ymm14,%ymm10,%ymm10
.byte 196,67,45,74,224,240 // vblendvps %ymm15,%ymm8,%ymm10,%ymm12
- .byte 196,98,125,24,53,95,165,2,0 // vbroadcastss 0x2a55f(%rip),%ymm14 # 329e8 <_sk_srcover_rgba_8888_sse2_lowp+0x8a8>
- .byte 196,98,125,24,61,90,165,2,0 // vbroadcastss 0x2a55a(%rip),%ymm15 # 329ec <_sk_srcover_rgba_8888_sse2_lowp+0x8ac>
+ .byte 196,98,125,24,53,123,165,2,0 // vbroadcastss 0x2a57b(%rip),%ymm14 # 32a08 <_sk_srcover_rgba_8888_sse2_lowp+0x8ac>
+ .byte 196,98,125,24,61,118,165,2,0 // vbroadcastss 0x2a576(%rip),%ymm15 # 32a0c <_sk_srcover_rgba_8888_sse2_lowp+0x8b0>
.byte 196,65,84,89,239 // vmulps %ymm15,%ymm5,%ymm13
.byte 196,66,93,184,238 // vfmadd231ps %ymm14,%ymm4,%ymm13
- .byte 196,226,125,24,5,75,165,2,0 // vbroadcastss 0x2a54b(%rip),%ymm0 # 329f0 <_sk_srcover_rgba_8888_sse2_lowp+0x8b0>
+ .byte 196,226,125,24,5,103,165,2,0 // vbroadcastss 0x2a567(%rip),%ymm0 # 32a10 <_sk_srcover_rgba_8888_sse2_lowp+0x8b4>
.byte 196,98,77,184,232 // vfmadd231ps %ymm0,%ymm6,%ymm13
.byte 196,65,116,89,215 // vmulps %ymm15,%ymm1,%ymm10
.byte 196,66,53,184,214 // vfmadd231ps %ymm14,%ymm9,%ymm10
@@ -17542,7 +17548,7 @@ _sk_saturation_hsw:
.byte 196,193,124,95,192 // vmaxps %ymm8,%ymm0,%ymm0
.byte 196,65,36,95,200 // vmaxps %ymm8,%ymm11,%ymm9
.byte 196,65,116,95,192 // vmaxps %ymm8,%ymm1,%ymm8
- .byte 196,226,125,24,13,12,164,2,0 // vbroadcastss 0x2a40c(%rip),%ymm1 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 196,226,125,24,13,40,164,2,0 // vbroadcastss 0x2a428(%rip),%ymm1 # 329e8 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 197,116,92,215 // vsubps %ymm7,%ymm1,%ymm10
.byte 197,172,89,210 // vmulps %ymm2,%ymm10,%ymm2
.byte 197,116,92,219 // vsubps %ymm3,%ymm1,%ymm11
@@ -17570,11 +17576,11 @@ _sk_color_hsw:
.byte 197,108,89,199 // vmulps %ymm7,%ymm2,%ymm8
.byte 197,116,89,215 // vmulps %ymm7,%ymm1,%ymm10
.byte 197,52,89,223 // vmulps %ymm7,%ymm9,%ymm11
- .byte 196,98,125,24,45,193,163,2,0 // vbroadcastss 0x2a3c1(%rip),%ymm13 # 329e8 <_sk_srcover_rgba_8888_sse2_lowp+0x8a8>
- .byte 196,98,125,24,53,188,163,2,0 // vbroadcastss 0x2a3bc(%rip),%ymm14 # 329ec <_sk_srcover_rgba_8888_sse2_lowp+0x8ac>
+ .byte 196,98,125,24,45,221,163,2,0 // vbroadcastss 0x2a3dd(%rip),%ymm13 # 32a08 <_sk_srcover_rgba_8888_sse2_lowp+0x8ac>
+ .byte 196,98,125,24,53,216,163,2,0 // vbroadcastss 0x2a3d8(%rip),%ymm14 # 32a0c <_sk_srcover_rgba_8888_sse2_lowp+0x8b0>
.byte 196,65,84,89,230 // vmulps %ymm14,%ymm5,%ymm12
.byte 196,66,93,184,229 // vfmadd231ps %ymm13,%ymm4,%ymm12
- .byte 196,98,125,24,61,173,163,2,0 // vbroadcastss 0x2a3ad(%rip),%ymm15 # 329f0 <_sk_srcover_rgba_8888_sse2_lowp+0x8b0>
+ .byte 196,98,125,24,61,201,163,2,0 // vbroadcastss 0x2a3c9(%rip),%ymm15 # 32a10 <_sk_srcover_rgba_8888_sse2_lowp+0x8b4>
.byte 196,66,77,184,231 // vfmadd231ps %ymm15,%ymm6,%ymm12
.byte 196,65,44,89,206 // vmulps %ymm14,%ymm10,%ymm9
.byte 196,66,61,184,205 // vfmadd231ps %ymm13,%ymm8,%ymm9
@@ -17630,7 +17636,7 @@ _sk_color_hsw:
.byte 196,193,116,95,206 // vmaxps %ymm14,%ymm1,%ymm1
.byte 196,65,44,95,198 // vmaxps %ymm14,%ymm10,%ymm8
.byte 196,65,124,95,206 // vmaxps %ymm14,%ymm0,%ymm9
- .byte 196,226,125,24,5,99,162,2,0 // vbroadcastss 0x2a263(%rip),%ymm0 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 196,226,125,24,5,127,162,2,0 // vbroadcastss 0x2a27f(%rip),%ymm0 # 329e8 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 197,124,92,215 // vsubps %ymm7,%ymm0,%ymm10
.byte 197,172,89,210 // vmulps %ymm2,%ymm10,%ymm2
.byte 197,124,92,219 // vsubps %ymm3,%ymm0,%ymm11
@@ -17658,11 +17664,11 @@ _sk_luminosity_hsw:
.byte 197,100,89,196 // vmulps %ymm4,%ymm3,%ymm8
.byte 197,100,89,213 // vmulps %ymm5,%ymm3,%ymm10
.byte 197,100,89,222 // vmulps %ymm6,%ymm3,%ymm11
- .byte 196,98,125,24,45,24,162,2,0 // vbroadcastss 0x2a218(%rip),%ymm13 # 329e8 <_sk_srcover_rgba_8888_sse2_lowp+0x8a8>
- .byte 196,98,125,24,53,19,162,2,0 // vbroadcastss 0x2a213(%rip),%ymm14 # 329ec <_sk_srcover_rgba_8888_sse2_lowp+0x8ac>
+ .byte 196,98,125,24,45,52,162,2,0 // vbroadcastss 0x2a234(%rip),%ymm13 # 32a08 <_sk_srcover_rgba_8888_sse2_lowp+0x8ac>
+ .byte 196,98,125,24,53,47,162,2,0 // vbroadcastss 0x2a22f(%rip),%ymm14 # 32a0c <_sk_srcover_rgba_8888_sse2_lowp+0x8b0>
.byte 196,65,116,89,230 // vmulps %ymm14,%ymm1,%ymm12
.byte 196,66,109,184,229 // vfmadd231ps %ymm13,%ymm2,%ymm12
- .byte 196,98,125,24,61,4,162,2,0 // vbroadcastss 0x2a204(%rip),%ymm15 # 329f0 <_sk_srcover_rgba_8888_sse2_lowp+0x8b0>
+ .byte 196,98,125,24,61,32,162,2,0 // vbroadcastss 0x2a220(%rip),%ymm15 # 32a10 <_sk_srcover_rgba_8888_sse2_lowp+0x8b4>
.byte 196,66,53,184,231 // vfmadd231ps %ymm15,%ymm9,%ymm12
.byte 196,65,44,89,206 // vmulps %ymm14,%ymm10,%ymm9
.byte 196,66,61,184,205 // vfmadd231ps %ymm13,%ymm8,%ymm9
@@ -17718,7 +17724,7 @@ _sk_luminosity_hsw:
.byte 196,193,116,95,206 // vmaxps %ymm14,%ymm1,%ymm1
.byte 196,65,44,95,198 // vmaxps %ymm14,%ymm10,%ymm8
.byte 196,65,124,95,206 // vmaxps %ymm14,%ymm0,%ymm9
- .byte 196,226,125,24,5,186,160,2,0 // vbroadcastss 0x2a0ba(%rip),%ymm0 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 196,226,125,24,5,214,160,2,0 // vbroadcastss 0x2a0d6(%rip),%ymm0 # 329e8 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 197,124,92,215 // vsubps %ymm7,%ymm0,%ymm10
.byte 197,172,89,210 // vmulps %ymm2,%ymm10,%ymm2
.byte 197,124,92,219 // vsubps %ymm3,%ymm0,%ymm11
@@ -17747,19 +17753,19 @@ _sk_srcover_rgba_8888_hsw:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,179,0,0,0 // jne 8a23 <_sk_srcover_rgba_8888_hsw+0xd3>
+ .byte 15,133,179,0,0,0 // jne 8a27 <_sk_srcover_rgba_8888_hsw+0xd3>
.byte 196,129,126,111,60,152 // vmovdqu (%r8,%r11,4),%ymm7
- .byte 197,197,219,37,2,155,2,0 // vpand 0x29b02(%rip),%ymm7,%ymm4 # 32480 <_sk_srcover_rgba_8888_sse2_lowp+0x340>
+ .byte 197,197,219,37,30,155,2,0 // vpand 0x29b1e(%rip),%ymm7,%ymm4 # 324a0 <_sk_srcover_rgba_8888_sse2_lowp+0x344>
.byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
- .byte 196,226,69,0,45,21,155,2,0 // vpshufb 0x29b15(%rip),%ymm7,%ymm5 # 324a0 <_sk_srcover_rgba_8888_sse2_lowp+0x360>
+ .byte 196,226,69,0,45,49,155,2,0 // vpshufb 0x29b31(%rip),%ymm7,%ymm5 # 324c0 <_sk_srcover_rgba_8888_sse2_lowp+0x364>
.byte 197,252,91,237 // vcvtdq2ps %ymm5,%ymm5
- .byte 196,226,69,0,53,40,155,2,0 // vpshufb 0x29b28(%rip),%ymm7,%ymm6 # 324c0 <_sk_srcover_rgba_8888_sse2_lowp+0x380>
+ .byte 196,226,69,0,53,68,155,2,0 // vpshufb 0x29b44(%rip),%ymm7,%ymm6 # 324e0 <_sk_srcover_rgba_8888_sse2_lowp+0x384>
.byte 197,252,91,246 // vcvtdq2ps %ymm6,%ymm6
.byte 197,197,114,215,24 // vpsrld $0x18,%ymm7,%ymm7
.byte 197,252,91,255 // vcvtdq2ps %ymm7,%ymm7
- .byte 196,98,125,24,5,26,160,2,0 // vbroadcastss 0x2a01a(%rip),%ymm8 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 196,98,125,24,5,54,160,2,0 // vbroadcastss 0x2a036(%rip),%ymm8 # 329e8 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
- .byte 196,98,125,24,13,57,160,2,0 // vbroadcastss 0x2a039(%rip),%ymm9 # 329f4 <_sk_srcover_rgba_8888_sse2_lowp+0x8b4>
+ .byte 196,98,125,24,13,85,160,2,0 // vbroadcastss 0x2a055(%rip),%ymm9 # 32a14 <_sk_srcover_rgba_8888_sse2_lowp+0x8b8>
.byte 196,193,124,89,193 // vmulps %ymm9,%ymm0,%ymm0
.byte 196,194,93,184,192 // vfmadd231ps %ymm8,%ymm4,%ymm0
.byte 196,193,116,89,201 // vmulps %ymm9,%ymm1,%ymm1
@@ -17779,7 +17785,7 @@ _sk_srcover_rgba_8888_hsw:
.byte 196,65,53,235,202 // vpor %ymm10,%ymm9,%ymm9
.byte 196,65,61,235,193 // vpor %ymm9,%ymm8,%ymm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,65 // jne 8a5a <_sk_srcover_rgba_8888_hsw+0x10a>
+ .byte 117,65 // jne 8a5e <_sk_srcover_rgba_8888_hsw+0x10a>
.byte 196,1,126,127,4,152 // vmovdqu %ymm8,(%r8,%r11,4)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -17788,33 +17794,33 @@ _sk_srcover_rgba_8888_hsw:
.byte 197,197,239,255 // vpxor %ymm7,%ymm7,%ymm7
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 15,135,59,255,255,255 // ja 8976 <_sk_srcover_rgba_8888_hsw+0x26>
+ .byte 15,135,59,255,255,255 // ja 897a <_sk_srcover_rgba_8888_hsw+0x26>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,254,0,0,0 // lea 0xfe(%rip),%r10 # 8b44 <_sk_srcover_rgba_8888_hsw+0x1f4>
+ .byte 76,141,21,254,0,0,0 // lea 0xfe(%rip),%r10 # 8b48 <_sk_srcover_rgba_8888_hsw+0x1f4>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 196,129,121,110,60,152 // vmovd (%r8,%r11,4),%xmm7
- .byte 233,28,255,255,255 // jmpq 8976 <_sk_srcover_rgba_8888_hsw+0x26>
+ .byte 233,28,255,255,255 // jmpq 897a <_sk_srcover_rgba_8888_hsw+0x26>
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,7 // and $0x7,%r9b
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,181 // ja 8a1f <_sk_srcover_rgba_8888_hsw+0xcf>
+ .byte 119,181 // ja 8a23 <_sk_srcover_rgba_8888_hsw+0xcf>
.byte 65,15,182,193 // movzbl %r9b,%eax
- .byte 76,141,13,235,0,0,0 // lea 0xeb(%rip),%r9 # 8b60 <_sk_srcover_rgba_8888_hsw+0x210>
+ .byte 76,141,13,235,0,0,0 // lea 0xeb(%rip),%r9 # 8b64 <_sk_srcover_rgba_8888_hsw+0x210>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 196,1,121,126,4,152 // vmovd %xmm8,(%r8,%r11,4)
- .byte 235,153 // jmp 8a1f <_sk_srcover_rgba_8888_hsw+0xcf>
+ .byte 235,153 // jmp 8a23 <_sk_srcover_rgba_8888_hsw+0xcf>
.byte 196,129,121,110,100,152,8 // vmovd 0x8(%r8,%r11,4),%xmm4
.byte 196,226,121,89,228 // vpbroadcastq %xmm4,%xmm4
.byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
.byte 196,227,85,2,252,4 // vpblendd $0x4,%ymm4,%ymm5,%ymm7
.byte 196,129,122,126,36,152 // vmovq (%r8,%r11,4),%xmm4
.byte 196,227,69,2,252,3 // vpblendd $0x3,%ymm4,%ymm7,%ymm7
- .byte 233,201,254,255,255 // jmpq 8976 <_sk_srcover_rgba_8888_hsw+0x26>
+ .byte 233,201,254,255,255 // jmpq 897a <_sk_srcover_rgba_8888_hsw+0x26>
.byte 196,129,121,110,100,152,24 // vmovd 0x18(%r8,%r11,4),%xmm4
.byte 196,226,125,89,228 // vpbroadcastq %xmm4,%ymm4
.byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
@@ -17827,10 +17833,10 @@ _sk_srcover_rgba_8888_hsw:
.byte 196,227,69,56,252,1 // vinserti128 $0x1,%xmm4,%ymm7,%ymm7
.byte 196,129,122,111,36,152 // vmovdqu (%r8,%r11,4),%xmm4
.byte 196,227,93,2,255,240 // vpblendd $0xf0,%ymm7,%ymm4,%ymm7
- .byte 233,122,254,255,255 // jmpq 8976 <_sk_srcover_rgba_8888_hsw+0x26>
+ .byte 233,122,254,255,255 // jmpq 897a <_sk_srcover_rgba_8888_hsw+0x26>
.byte 196,3,121,22,68,152,8,2 // vpextrd $0x2,%xmm8,0x8(%r8,%r11,4)
.byte 196,1,121,214,4,152 // vmovq %xmm8,(%r8,%r11,4)
- .byte 233,16,255,255,255 // jmpq 8a1f <_sk_srcover_rgba_8888_hsw+0xcf>
+ .byte 233,16,255,255,255 // jmpq 8a23 <_sk_srcover_rgba_8888_hsw+0xcf>
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,3,121,22,76,152,24,2 // vpextrd $0x2,%xmm9,0x18(%r8,%r11,4)
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
@@ -17838,7 +17844,7 @@ _sk_srcover_rgba_8888_hsw:
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,1,121,126,76,152,16 // vmovd %xmm9,0x10(%r8,%r11,4)
.byte 196,1,122,127,4,152 // vmovdqu %xmm8,(%r8,%r11,4)
- .byte 233,220,254,255,255 // jmpq 8a1f <_sk_srcover_rgba_8888_hsw+0xcf>
+ .byte 233,220,254,255,255 // jmpq 8a23 <_sk_srcover_rgba_8888_hsw+0xcf>
.byte 144 // nop
.byte 11,255 // or %edi,%edi
.byte 255 // (bad)
@@ -17850,7 +17856,7 @@ _sk_srcover_rgba_8888_hsw:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 127,255 // jg 8b59 <_sk_srcover_rgba_8888_hsw+0x209>
+ .byte 127,255 // jg 8b5d <_sk_srcover_rgba_8888_hsw+0x209>
.byte 255 // (bad)
.byte 255,105,255 // ljmp *-0x1(%rcx)
.byte 255 // (bad)
@@ -17887,7 +17893,7 @@ HIDDEN _sk_clamp_1_hsw
.globl _sk_clamp_1_hsw
FUNCTION(_sk_clamp_1_hsw)
_sk_clamp_1_hsw:
- .byte 196,98,125,24,5,38,158,2,0 // vbroadcastss 0x29e26(%rip),%ymm8 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 196,98,125,24,5,66,158,2,0 // vbroadcastss 0x29e42(%rip),%ymm8 # 329e8 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 196,193,124,93,192 // vminps %ymm8,%ymm0,%ymm0
.byte 196,193,116,93,200 // vminps %ymm8,%ymm1,%ymm1
.byte 196,193,108,93,208 // vminps %ymm8,%ymm2,%ymm2
@@ -17899,7 +17905,7 @@ HIDDEN _sk_clamp_a_hsw
.globl _sk_clamp_a_hsw
FUNCTION(_sk_clamp_a_hsw)
_sk_clamp_a_hsw:
- .byte 196,98,125,24,5,5,158,2,0 // vbroadcastss 0x29e05(%rip),%ymm8 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 196,98,125,24,5,33,158,2,0 // vbroadcastss 0x29e21(%rip),%ymm8 # 329e8 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 196,193,100,93,216 // vminps %ymm8,%ymm3,%ymm3
.byte 197,252,93,195 // vminps %ymm3,%ymm0,%ymm0
.byte 197,244,93,203 // vminps %ymm3,%ymm1,%ymm1
@@ -17911,7 +17917,7 @@ HIDDEN _sk_clamp_a_dst_hsw
.globl _sk_clamp_a_dst_hsw
FUNCTION(_sk_clamp_a_dst_hsw)
_sk_clamp_a_dst_hsw:
- .byte 196,98,125,24,5,231,157,2,0 // vbroadcastss 0x29de7(%rip),%ymm8 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 196,98,125,24,5,3,158,2,0 // vbroadcastss 0x29e03(%rip),%ymm8 # 329e8 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 196,193,68,93,248 // vminps %ymm8,%ymm7,%ymm7
.byte 197,220,93,231 // vminps %ymm7,%ymm4,%ymm4
.byte 197,212,93,239 // vminps %ymm7,%ymm5,%ymm5
@@ -17944,7 +17950,7 @@ HIDDEN _sk_invert_hsw
.globl _sk_invert_hsw
FUNCTION(_sk_invert_hsw)
_sk_invert_hsw:
- .byte 196,98,125,24,5,162,157,2,0 // vbroadcastss 0x29da2(%rip),%ymm8 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 196,98,125,24,5,190,157,2,0 // vbroadcastss 0x29dbe(%rip),%ymm8 # 329e8 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 197,188,92,192 // vsubps %ymm0,%ymm8,%ymm0
.byte 197,188,92,201 // vsubps %ymm1,%ymm8,%ymm1
.byte 197,188,92,210 // vsubps %ymm2,%ymm8,%ymm2
@@ -17998,10 +18004,11 @@ HIDDEN _sk_unpremul_hsw
.globl _sk_unpremul_hsw
FUNCTION(_sk_unpremul_hsw)
_sk_unpremul_hsw:
- .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
- .byte 196,65,100,194,200,0 // vcmpeqps %ymm8,%ymm3,%ymm9
- .byte 196,98,125,24,21,50,157,2,0 // vbroadcastss 0x29d32(%rip),%ymm10 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
- .byte 197,44,94,211 // vdivps %ymm3,%ymm10,%ymm10
+ .byte 196,98,125,24,5,89,157,2,0 // vbroadcastss 0x29d59(%rip),%ymm8 # 329e8 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+ .byte 197,60,94,195 // vdivps %ymm3,%ymm8,%ymm8
+ .byte 196,98,125,24,13,124,157,2,0 // vbroadcastss 0x29d7c(%rip),%ymm9 # 32a18 <_sk_srcover_rgba_8888_sse2_lowp+0x8bc>
+ .byte 196,65,60,194,201,1 // vcmpltps %ymm9,%ymm8,%ymm9
+ .byte 196,65,44,87,210 // vxorps %ymm10,%ymm10,%ymm10
.byte 196,67,45,74,192,144 // vblendvps %ymm9,%ymm8,%ymm10,%ymm8
.byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
.byte 197,188,89,201 // vmulps %ymm1,%ymm8,%ymm1
@@ -18013,16 +18020,16 @@ HIDDEN _sk_from_srgb_hsw
.globl _sk_from_srgb_hsw
FUNCTION(_sk_from_srgb_hsw)
_sk_from_srgb_hsw:
- .byte 196,98,125,24,5,63,157,2,0 // vbroadcastss 0x29d3f(%rip),%ymm8 # 329f8 <_sk_srcover_rgba_8888_sse2_lowp+0x8b8>
+ .byte 196,98,125,24,5,86,157,2,0 // vbroadcastss 0x29d56(%rip),%ymm8 # 32a1c <_sk_srcover_rgba_8888_sse2_lowp+0x8c0>
.byte 196,65,124,89,200 // vmulps %ymm8,%ymm0,%ymm9
.byte 197,124,89,208 // vmulps %ymm0,%ymm0,%ymm10
- .byte 196,98,125,24,29,49,157,2,0 // vbroadcastss 0x29d31(%rip),%ymm11 # 329fc <_sk_srcover_rgba_8888_sse2_lowp+0x8bc>
- .byte 196,98,125,24,37,20,157,2,0 // vbroadcastss 0x29d14(%rip),%ymm12 # 329e8 <_sk_srcover_rgba_8888_sse2_lowp+0x8a8>
+ .byte 196,98,125,24,29,72,157,2,0 // vbroadcastss 0x29d48(%rip),%ymm11 # 32a20 <_sk_srcover_rgba_8888_sse2_lowp+0x8c4>
+ .byte 196,98,125,24,37,39,157,2,0 // vbroadcastss 0x29d27(%rip),%ymm12 # 32a08 <_sk_srcover_rgba_8888_sse2_lowp+0x8ac>
.byte 196,65,124,40,236 // vmovaps %ymm12,%ymm13
.byte 196,66,125,168,235 // vfmadd213ps %ymm11,%ymm0,%ymm13
- .byte 196,98,125,24,53,25,157,2,0 // vbroadcastss 0x29d19(%rip),%ymm14 # 32a00 <_sk_srcover_rgba_8888_sse2_lowp+0x8c0>
+ .byte 196,98,125,24,53,48,157,2,0 // vbroadcastss 0x29d30(%rip),%ymm14 # 32a24 <_sk_srcover_rgba_8888_sse2_lowp+0x8c8>
.byte 196,66,45,168,238 // vfmadd213ps %ymm14,%ymm10,%ymm13
- .byte 196,98,125,24,21,15,157,2,0 // vbroadcastss 0x29d0f(%rip),%ymm10 # 32a04 <_sk_srcover_rgba_8888_sse2_lowp+0x8c4>
+ .byte 196,98,125,24,21,38,157,2,0 // vbroadcastss 0x29d26(%rip),%ymm10 # 32a28 <_sk_srcover_rgba_8888_sse2_lowp+0x8cc>
.byte 196,193,124,194,194,1 // vcmpltps %ymm10,%ymm0,%ymm0
.byte 196,195,21,74,193,0 // vblendvps %ymm0,%ymm9,%ymm13,%ymm0
.byte 196,65,116,89,200 // vmulps %ymm8,%ymm1,%ymm9
@@ -18045,16 +18052,16 @@ HIDDEN _sk_from_srgb_dst_hsw
.globl _sk_from_srgb_dst_hsw
FUNCTION(_sk_from_srgb_dst_hsw)
_sk_from_srgb_dst_hsw:
- .byte 196,98,125,24,5,167,156,2,0 // vbroadcastss 0x29ca7(%rip),%ymm8 # 329f8 <_sk_srcover_rgba_8888_sse2_lowp+0x8b8>
+ .byte 196,98,125,24,5,190,156,2,0 // vbroadcastss 0x29cbe(%rip),%ymm8 # 32a1c <_sk_srcover_rgba_8888_sse2_lowp+0x8c0>
.byte 196,65,92,89,200 // vmulps %ymm8,%ymm4,%ymm9
.byte 197,92,89,212 // vmulps %ymm4,%ymm4,%ymm10
- .byte 196,98,125,24,29,153,156,2,0 // vbroadcastss 0x29c99(%rip),%ymm11 # 329fc <_sk_srcover_rgba_8888_sse2_lowp+0x8bc>
- .byte 196,98,125,24,37,124,156,2,0 // vbroadcastss 0x29c7c(%rip),%ymm12 # 329e8 <_sk_srcover_rgba_8888_sse2_lowp+0x8a8>
+ .byte 196,98,125,24,29,176,156,2,0 // vbroadcastss 0x29cb0(%rip),%ymm11 # 32a20 <_sk_srcover_rgba_8888_sse2_lowp+0x8c4>
+ .byte 196,98,125,24,37,143,156,2,0 // vbroadcastss 0x29c8f(%rip),%ymm12 # 32a08 <_sk_srcover_rgba_8888_sse2_lowp+0x8ac>
.byte 196,65,124,40,236 // vmovaps %ymm12,%ymm13
.byte 196,66,93,168,235 // vfmadd213ps %ymm11,%ymm4,%ymm13
- .byte 196,98,125,24,53,129,156,2,0 // vbroadcastss 0x29c81(%rip),%ymm14 # 32a00 <_sk_srcover_rgba_8888_sse2_lowp+0x8c0>
+ .byte 196,98,125,24,53,152,156,2,0 // vbroadcastss 0x29c98(%rip),%ymm14 # 32a24 <_sk_srcover_rgba_8888_sse2_lowp+0x8c8>
.byte 196,66,45,168,238 // vfmadd213ps %ymm14,%ymm10,%ymm13
- .byte 196,98,125,24,21,119,156,2,0 // vbroadcastss 0x29c77(%rip),%ymm10 # 32a04 <_sk_srcover_rgba_8888_sse2_lowp+0x8c4>
+ .byte 196,98,125,24,21,142,156,2,0 // vbroadcastss 0x29c8e(%rip),%ymm10 # 32a28 <_sk_srcover_rgba_8888_sse2_lowp+0x8cc>
.byte 196,193,92,194,226,1 // vcmpltps %ymm10,%ymm4,%ymm4
.byte 196,195,21,74,225,64 // vblendvps %ymm4,%ymm9,%ymm13,%ymm4
.byte 196,65,84,89,200 // vmulps %ymm8,%ymm5,%ymm9
@@ -18078,19 +18085,19 @@ HIDDEN _sk_to_srgb_hsw
FUNCTION(_sk_to_srgb_hsw)
_sk_to_srgb_hsw:
.byte 197,124,82,200 // vrsqrtps %ymm0,%ymm9
- .byte 196,98,125,24,5,27,156,2,0 // vbroadcastss 0x29c1b(%rip),%ymm8 # 32a08 <_sk_srcover_rgba_8888_sse2_lowp+0x8c8>
+ .byte 196,98,125,24,5,50,156,2,0 // vbroadcastss 0x29c32(%rip),%ymm8 # 32a2c <_sk_srcover_rgba_8888_sse2_lowp+0x8d0>
.byte 196,65,124,89,208 // vmulps %ymm8,%ymm0,%ymm10
- .byte 196,98,125,24,29,17,156,2,0 // vbroadcastss 0x29c11(%rip),%ymm11 # 32a0c <_sk_srcover_rgba_8888_sse2_lowp+0x8cc>
- .byte 196,98,125,24,37,12,156,2,0 // vbroadcastss 0x29c0c(%rip),%ymm12 # 32a10 <_sk_srcover_rgba_8888_sse2_lowp+0x8d0>
+ .byte 196,98,125,24,29,40,156,2,0 // vbroadcastss 0x29c28(%rip),%ymm11 # 32a30 <_sk_srcover_rgba_8888_sse2_lowp+0x8d4>
+ .byte 196,98,125,24,37,35,156,2,0 // vbroadcastss 0x29c23(%rip),%ymm12 # 32a34 <_sk_srcover_rgba_8888_sse2_lowp+0x8d8>
.byte 196,65,124,40,236 // vmovaps %ymm12,%ymm13
.byte 196,66,53,168,235 // vfmadd213ps %ymm11,%ymm9,%ymm13
- .byte 196,98,125,24,53,45,157,2,0 // vbroadcastss 0x29d2d(%rip),%ymm14 # 32b44 <_sk_srcover_rgba_8888_sse2_lowp+0xa04>
+ .byte 196,98,125,24,53,68,157,2,0 // vbroadcastss 0x29d44(%rip),%ymm14 # 32b68 <_sk_srcover_rgba_8888_sse2_lowp+0xa0c>
.byte 196,66,53,168,238 // vfmadd213ps %ymm14,%ymm9,%ymm13
- .byte 196,98,125,24,61,35,157,2,0 // vbroadcastss 0x29d23(%rip),%ymm15 # 32b48 <_sk_srcover_rgba_8888_sse2_lowp+0xa08>
+ .byte 196,98,125,24,61,58,157,2,0 // vbroadcastss 0x29d3a(%rip),%ymm15 # 32b6c <_sk_srcover_rgba_8888_sse2_lowp+0xa10>
.byte 196,65,52,88,207 // vaddps %ymm15,%ymm9,%ymm9
.byte 196,65,124,83,201 // vrcpps %ymm9,%ymm9
.byte 196,65,20,89,201 // vmulps %ymm9,%ymm13,%ymm9
- .byte 196,98,125,24,45,223,155,2,0 // vbroadcastss 0x29bdf(%rip),%ymm13 # 32a1c <_sk_srcover_rgba_8888_sse2_lowp+0x8dc>
+ .byte 196,98,125,24,45,246,155,2,0 // vbroadcastss 0x29bf6(%rip),%ymm13 # 32a40 <_sk_srcover_rgba_8888_sse2_lowp+0x8e4>
.byte 196,193,124,194,197,1 // vcmpltps %ymm13,%ymm0,%ymm0
.byte 196,195,53,74,194,0 // vblendvps %ymm0,%ymm10,%ymm9,%ymm0
.byte 197,124,82,201 // vrsqrtps %ymm1,%ymm9
@@ -18124,26 +18131,26 @@ _sk_rgb_to_hsl_hsw:
.byte 197,116,93,202 // vminps %ymm2,%ymm1,%ymm9
.byte 196,65,124,93,201 // vminps %ymm9,%ymm0,%ymm9
.byte 196,65,60,92,209 // vsubps %ymm9,%ymm8,%ymm10
- .byte 196,98,125,24,29,250,154,2,0 // vbroadcastss 0x29afa(%rip),%ymm11 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 196,98,125,24,29,13,155,2,0 // vbroadcastss 0x29b0d(%rip),%ymm11 # 329e8 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 196,65,36,94,218 // vdivps %ymm10,%ymm11,%ymm11
.byte 197,116,92,226 // vsubps %ymm2,%ymm1,%ymm12
.byte 197,116,194,234,1 // vcmpltps %ymm2,%ymm1,%ymm13
- .byte 196,98,125,24,53,59,155,2,0 // vbroadcastss 0x29b3b(%rip),%ymm14 # 32a20 <_sk_srcover_rgba_8888_sse2_lowp+0x8e0>
+ .byte 196,98,125,24,53,82,155,2,0 // vbroadcastss 0x29b52(%rip),%ymm14 # 32a44 <_sk_srcover_rgba_8888_sse2_lowp+0x8e8>
.byte 196,65,4,87,255 // vxorps %ymm15,%ymm15,%ymm15
.byte 196,67,5,74,238,208 // vblendvps %ymm13,%ymm14,%ymm15,%ymm13
.byte 196,66,37,168,229 // vfmadd213ps %ymm13,%ymm11,%ymm12
.byte 197,236,92,208 // vsubps %ymm0,%ymm2,%ymm2
.byte 197,124,92,233 // vsubps %ymm1,%ymm0,%ymm13
- .byte 196,98,125,24,53,34,155,2,0 // vbroadcastss 0x29b22(%rip),%ymm14 # 32a28 <_sk_srcover_rgba_8888_sse2_lowp+0x8e8>
+ .byte 196,98,125,24,53,57,155,2,0 // vbroadcastss 0x29b39(%rip),%ymm14 # 32a4c <_sk_srcover_rgba_8888_sse2_lowp+0x8f0>
.byte 196,66,37,168,238 // vfmadd213ps %ymm14,%ymm11,%ymm13
- .byte 196,98,125,24,53,16,155,2,0 // vbroadcastss 0x29b10(%rip),%ymm14 # 32a24 <_sk_srcover_rgba_8888_sse2_lowp+0x8e4>
+ .byte 196,98,125,24,53,39,155,2,0 // vbroadcastss 0x29b27(%rip),%ymm14 # 32a48 <_sk_srcover_rgba_8888_sse2_lowp+0x8ec>
.byte 196,194,37,168,214 // vfmadd213ps %ymm14,%ymm11,%ymm2
.byte 197,188,194,201,0 // vcmpeqps %ymm1,%ymm8,%ymm1
.byte 196,227,21,74,202,16 // vblendvps %ymm1,%ymm2,%ymm13,%ymm1
.byte 197,188,194,192,0 // vcmpeqps %ymm0,%ymm8,%ymm0
.byte 196,195,117,74,196,0 // vblendvps %ymm0,%ymm12,%ymm1,%ymm0
.byte 196,193,60,88,201 // vaddps %ymm9,%ymm8,%ymm1
- .byte 196,98,125,24,29,135,154,2,0 // vbroadcastss 0x29a87(%rip),%ymm11 # 329c4 <_sk_srcover_rgba_8888_sse2_lowp+0x884>
+ .byte 196,98,125,24,29,154,154,2,0 // vbroadcastss 0x29a9a(%rip),%ymm11 # 329e4 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 196,193,116,89,211 // vmulps %ymm11,%ymm1,%ymm2
.byte 197,36,194,218,1 // vcmpltps %ymm2,%ymm11,%ymm11
.byte 196,65,12,92,224 // vsubps %ymm8,%ymm14,%ymm12
@@ -18153,7 +18160,7 @@ _sk_rgb_to_hsl_hsw:
.byte 197,172,94,201 // vdivps %ymm1,%ymm10,%ymm1
.byte 196,195,125,74,199,128 // vblendvps %ymm8,%ymm15,%ymm0,%ymm0
.byte 196,195,117,74,207,128 // vblendvps %ymm8,%ymm15,%ymm1,%ymm1
- .byte 196,98,125,24,5,182,154,2,0 // vbroadcastss 0x29ab6(%rip),%ymm8 # 32a2c <_sk_srcover_rgba_8888_sse2_lowp+0x8ec>
+ .byte 196,98,125,24,5,205,154,2,0 // vbroadcastss 0x29acd(%rip),%ymm8 # 32a50 <_sk_srcover_rgba_8888_sse2_lowp+0x8f4>
.byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -18170,30 +18177,30 @@ _sk_hsl_to_rgb_hsw:
.byte 197,252,17,92,36,128 // vmovups %ymm3,-0x80(%rsp)
.byte 197,252,40,233 // vmovaps %ymm1,%ymm5
.byte 197,252,40,224 // vmovaps %ymm0,%ymm4
- .byte 196,98,125,24,5,19,154,2,0 // vbroadcastss 0x29a13(%rip),%ymm8 # 329c4 <_sk_srcover_rgba_8888_sse2_lowp+0x884>
+ .byte 196,98,125,24,5,38,154,2,0 // vbroadcastss 0x29a26(%rip),%ymm8 # 329e4 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 197,60,194,202,2 // vcmpleps %ymm2,%ymm8,%ymm9
.byte 197,84,89,210 // vmulps %ymm2,%ymm5,%ymm10
.byte 196,65,84,92,218 // vsubps %ymm10,%ymm5,%ymm11
.byte 196,67,45,74,203,144 // vblendvps %ymm9,%ymm11,%ymm10,%ymm9
.byte 197,52,88,210 // vaddps %ymm2,%ymm9,%ymm10
- .byte 196,98,125,24,13,82,154,2,0 // vbroadcastss 0x29a52(%rip),%ymm9 # 32a24 <_sk_srcover_rgba_8888_sse2_lowp+0x8e4>
+ .byte 196,98,125,24,13,105,154,2,0 // vbroadcastss 0x29a69(%rip),%ymm9 # 32a48 <_sk_srcover_rgba_8888_sse2_lowp+0x8ec>
.byte 196,66,109,170,202 // vfmsub213ps %ymm10,%ymm2,%ymm9
- .byte 196,98,125,24,29,80,154,2,0 // vbroadcastss 0x29a50(%rip),%ymm11 # 32a30 <_sk_srcover_rgba_8888_sse2_lowp+0x8f0>
+ .byte 196,98,125,24,29,103,154,2,0 // vbroadcastss 0x29a67(%rip),%ymm11 # 32a54 <_sk_srcover_rgba_8888_sse2_lowp+0x8f8>
.byte 196,65,92,88,219 // vaddps %ymm11,%ymm4,%ymm11
.byte 196,67,125,8,227,1 // vroundps $0x1,%ymm11,%ymm12
.byte 196,65,36,92,252 // vsubps %ymm12,%ymm11,%ymm15
.byte 196,65,44,92,217 // vsubps %ymm9,%ymm10,%ymm11
- .byte 196,98,125,24,45,34,154,2,0 // vbroadcastss 0x29a22(%rip),%ymm13 # 32a20 <_sk_srcover_rgba_8888_sse2_lowp+0x8e0>
+ .byte 196,98,125,24,45,57,154,2,0 // vbroadcastss 0x29a39(%rip),%ymm13 # 32a44 <_sk_srcover_rgba_8888_sse2_lowp+0x8e8>
.byte 196,193,4,89,197 // vmulps %ymm13,%ymm15,%ymm0
- .byte 196,98,125,24,53,28,154,2,0 // vbroadcastss 0x29a1c(%rip),%ymm14 # 32a28 <_sk_srcover_rgba_8888_sse2_lowp+0x8e8>
+ .byte 196,98,125,24,53,51,154,2,0 // vbroadcastss 0x29a33(%rip),%ymm14 # 32a4c <_sk_srcover_rgba_8888_sse2_lowp+0x8f0>
.byte 197,12,92,224 // vsubps %ymm0,%ymm14,%ymm12
.byte 196,66,37,168,225 // vfmadd213ps %ymm9,%ymm11,%ymm12
- .byte 196,226,125,24,29,22,154,2,0 // vbroadcastss 0x29a16(%rip),%ymm3 # 32a34 <_sk_srcover_rgba_8888_sse2_lowp+0x8f4>
+ .byte 196,226,125,24,29,45,154,2,0 // vbroadcastss 0x29a2d(%rip),%ymm3 # 32a58 <_sk_srcover_rgba_8888_sse2_lowp+0x8fc>
.byte 196,193,100,194,255,2 // vcmpleps %ymm15,%ymm3,%ymm7
.byte 196,195,29,74,249,112 // vblendvps %ymm7,%ymm9,%ymm12,%ymm7
.byte 196,65,60,194,231,2 // vcmpleps %ymm15,%ymm8,%ymm12
.byte 196,227,45,74,255,192 // vblendvps %ymm12,%ymm7,%ymm10,%ymm7
- .byte 196,98,125,24,37,237,153,2,0 // vbroadcastss 0x299ed(%rip),%ymm12 # 32a2c <_sk_srcover_rgba_8888_sse2_lowp+0x8ec>
+ .byte 196,98,125,24,37,4,154,2,0 // vbroadcastss 0x29a04(%rip),%ymm12 # 32a50 <_sk_srcover_rgba_8888_sse2_lowp+0x8f4>
.byte 196,65,28,194,255,2 // vcmpleps %ymm15,%ymm12,%ymm15
.byte 196,194,37,168,193 // vfmadd213ps %ymm9,%ymm11,%ymm0
.byte 196,99,125,74,255,240 // vblendvps %ymm15,%ymm7,%ymm0,%ymm15
@@ -18209,7 +18216,7 @@ _sk_hsl_to_rgb_hsw:
.byte 197,156,194,192,2 // vcmpleps %ymm0,%ymm12,%ymm0
.byte 196,194,37,168,249 // vfmadd213ps %ymm9,%ymm11,%ymm7
.byte 196,227,69,74,201,0 // vblendvps %ymm0,%ymm1,%ymm7,%ymm1
- .byte 196,226,125,24,5,161,153,2,0 // vbroadcastss 0x299a1(%rip),%ymm0 # 32a38 <_sk_srcover_rgba_8888_sse2_lowp+0x8f8>
+ .byte 196,226,125,24,5,184,153,2,0 // vbroadcastss 0x299b8(%rip),%ymm0 # 32a5c <_sk_srcover_rgba_8888_sse2_lowp+0x900>
.byte 197,220,88,192 // vaddps %ymm0,%ymm4,%ymm0
.byte 196,227,125,8,224,1 // vroundps $0x1,%ymm0,%ymm4
.byte 197,252,92,196 // vsubps %ymm4,%ymm0,%ymm0
@@ -18261,12 +18268,12 @@ _sk_scale_u8_hsw:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,58 // jne 9186 <_sk_scale_u8_hsw+0x52>
+ .byte 117,58 // jne 9193 <_sk_scale_u8_hsw+0x52>
.byte 196,2,121,48,4,24 // vpmovzxbw (%r8,%r11,1),%xmm8
- .byte 197,57,219,5,6,154,2,0 // vpand 0x29a06(%rip),%xmm8,%xmm8 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xa20>
+ .byte 197,57,219,5,41,154,2,0 // vpand 0x29a29(%rip),%xmm8,%xmm8 # 32b90 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
.byte 196,66,125,51,192 // vpmovzxwd %xmm8,%ymm8
.byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8
- .byte 196,98,125,24,13,207,152,2,0 // vbroadcastss 0x298cf(%rip),%ymm9 # 32a3c <_sk_srcover_rgba_8888_sse2_lowp+0x8fc>
+ .byte 196,98,125,24,13,230,152,2,0 // vbroadcastss 0x298e6(%rip),%ymm9 # 32a60 <_sk_srcover_rgba_8888_sse2_lowp+0x904>
.byte 196,65,60,89,193 // vmulps %ymm9,%ymm8,%ymm8
.byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
.byte 197,188,89,201 // vmulps %ymm1,%ymm8,%ymm1
@@ -18279,15 +18286,15 @@ _sk_scale_u8_hsw:
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,183 // ja 9152 <_sk_scale_u8_hsw+0x1e>
+ .byte 119,183 // ja 915f <_sk_scale_u8_hsw+0x1e>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,122,0,0,0 // lea 0x7a(%rip),%r10 # 9220 <_sk_scale_u8_hsw+0xec>
+ .byte 76,141,21,121,0,0,0 // lea 0x79(%rip),%r10 # 922c <_sk_scale_u8_hsw+0xeb>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 67,15,182,4,24 // movzbl (%r8,%r11,1),%eax
.byte 197,121,110,192 // vmovd %eax,%xmm8
- .byte 235,152 // jmp 9152 <_sk_scale_u8_hsw+0x1e>
+ .byte 235,152 // jmp 915f <_sk_scale_u8_hsw+0x1e>
.byte 67,15,182,68,24,2 // movzbl 0x2(%r8,%r11,1),%eax
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 197,57,196,192,2 // vpinsrw $0x2,%eax,%xmm8,%xmm8
@@ -18295,7 +18302,7 @@ _sk_scale_u8_hsw:
.byte 197,121,110,200 // vmovd %eax,%xmm9
.byte 196,66,121,48,201 // vpmovzxbw %xmm9,%xmm9
.byte 196,67,57,2,193,1 // vpblendd $0x1,%xmm9,%xmm8,%xmm8
- .byte 233,111,255,255,255 // jmpq 9152 <_sk_scale_u8_hsw+0x1e>
+ .byte 233,111,255,255,255 // jmpq 915f <_sk_scale_u8_hsw+0x1e>
.byte 67,15,182,68,24,6 // movzbl 0x6(%r8,%r11,1),%eax
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 197,57,196,192,6 // vpinsrw $0x6,%eax,%xmm8,%xmm8
@@ -18306,22 +18313,24 @@ _sk_scale_u8_hsw:
.byte 196,1,121,110,12,24 // vmovd (%r8,%r11,1),%xmm9
.byte 196,66,121,48,201 // vpmovzxbw %xmm9,%xmm9
.byte 196,67,49,2,192,12 // vpblendd $0xc,%xmm8,%xmm9,%xmm8
- .byte 233,51,255,255,255 // jmpq 9152 <_sk_scale_u8_hsw+0x1e>
+ .byte 233,51,255,255,255 // jmpq 915f <_sk_scale_u8_hsw+0x1e>
.byte 144 // nop
- .byte 143 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,170,255,255,255,154 // ljmp *-0x65000001(%rdx)
+ .byte 255,171,255,255,255,155 // ljmp *-0x64000001(%rbx)
+ .byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
+ .byte 234 // (bad)
.byte 255 // (bad)
- .byte 233,255,255,255,222 // jmpq ffffffffdf009230 <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffdefd70f0>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,211 // callq *%rbx
+ .byte 223,255 // (bad)
.byte 255 // (bad)
+ .byte 255,212 // callq *%rsp
.byte 255 // (bad)
- .byte 255,195 // inc %ebx
+ .byte 255 // (bad)
+ .byte 255,196 // inc %esp
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // .byte 0xff
@@ -18338,23 +18347,23 @@ _sk_scale_565_hsw:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,161,0,0,0 // jne 92fc <_sk_scale_565_hsw+0xc0>
+ .byte 15,133,161,0,0,0 // jne 9308 <_sk_scale_565_hsw+0xc0>
.byte 196,1,122,111,4,88 // vmovdqu (%r8,%r11,2),%xmm8
.byte 196,66,125,51,192 // vpmovzxwd %xmm8,%ymm8
- .byte 196,98,125,88,13,209,151,2,0 // vpbroadcastd 0x297d1(%rip),%ymm9 # 32a40 <_sk_srcover_rgba_8888_sse2_lowp+0x900>
+ .byte 196,98,125,88,13,233,151,2,0 // vpbroadcastd 0x297e9(%rip),%ymm9 # 32a64 <_sk_srcover_rgba_8888_sse2_lowp+0x908>
.byte 196,65,61,219,201 // vpand %ymm9,%ymm8,%ymm9
.byte 196,65,124,91,201 // vcvtdq2ps %ymm9,%ymm9
- .byte 196,98,125,24,21,194,151,2,0 // vbroadcastss 0x297c2(%rip),%ymm10 # 32a44 <_sk_srcover_rgba_8888_sse2_lowp+0x904>
+ .byte 196,98,125,24,21,218,151,2,0 // vbroadcastss 0x297da(%rip),%ymm10 # 32a68 <_sk_srcover_rgba_8888_sse2_lowp+0x90c>
.byte 196,65,52,89,202 // vmulps %ymm10,%ymm9,%ymm9
- .byte 196,98,125,88,21,184,151,2,0 // vpbroadcastd 0x297b8(%rip),%ymm10 # 32a48 <_sk_srcover_rgba_8888_sse2_lowp+0x908>
+ .byte 196,98,125,88,21,208,151,2,0 // vpbroadcastd 0x297d0(%rip),%ymm10 # 32a6c <_sk_srcover_rgba_8888_sse2_lowp+0x910>
.byte 196,65,61,219,210 // vpand %ymm10,%ymm8,%ymm10
.byte 196,65,124,91,210 // vcvtdq2ps %ymm10,%ymm10
- .byte 196,98,125,24,29,169,151,2,0 // vbroadcastss 0x297a9(%rip),%ymm11 # 32a4c <_sk_srcover_rgba_8888_sse2_lowp+0x90c>
+ .byte 196,98,125,24,29,193,151,2,0 // vbroadcastss 0x297c1(%rip),%ymm11 # 32a70 <_sk_srcover_rgba_8888_sse2_lowp+0x914>
.byte 196,65,44,89,211 // vmulps %ymm11,%ymm10,%ymm10
- .byte 196,98,125,88,29,159,151,2,0 // vpbroadcastd 0x2979f(%rip),%ymm11 # 32a50 <_sk_srcover_rgba_8888_sse2_lowp+0x910>
+ .byte 196,98,125,88,29,183,151,2,0 // vpbroadcastd 0x297b7(%rip),%ymm11 # 32a74 <_sk_srcover_rgba_8888_sse2_lowp+0x918>
.byte 196,65,61,219,195 // vpand %ymm11,%ymm8,%ymm8
.byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8
- .byte 196,98,125,24,29,144,151,2,0 // vbroadcastss 0x29790(%rip),%ymm11 # 32a54 <_sk_srcover_rgba_8888_sse2_lowp+0x914>
+ .byte 196,98,125,24,29,168,151,2,0 // vbroadcastss 0x297a8(%rip),%ymm11 # 32a78 <_sk_srcover_rgba_8888_sse2_lowp+0x91c>
.byte 196,65,60,89,195 // vmulps %ymm11,%ymm8,%ymm8
.byte 197,100,194,223,1 // vcmpltps %ymm7,%ymm3,%ymm11
.byte 196,65,44,93,224 // vminps %ymm8,%ymm10,%ymm12
@@ -18373,27 +18382,27 @@ _sk_scale_565_hsw:
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 15,135,76,255,255,255 // ja 9261 <_sk_scale_565_hsw+0x25>
+ .byte 15,135,76,255,255,255 // ja 926d <_sk_scale_565_hsw+0x25>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,100,0,0,0 // lea 0x64(%rip),%r10 # 9384 <_sk_scale_565_hsw+0x148>
+ .byte 76,141,21,100,0,0,0 // lea 0x64(%rip),%r10 # 9390 <_sk_scale_565_hsw+0x148>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 67,15,183,4,88 // movzwl (%r8,%r11,2),%eax
.byte 197,121,110,192 // vmovd %eax,%xmm8
- .byte 233,42,255,255,255 // jmpq 9261 <_sk_scale_565_hsw+0x25>
+ .byte 233,42,255,255,255 // jmpq 926d <_sk_scale_565_hsw+0x25>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,1,57,196,68,88,4,2 // vpinsrw $0x2,0x4(%r8,%r11,2),%xmm8,%xmm8
.byte 196,1,121,110,12,88 // vmovd (%r8,%r11,2),%xmm9
.byte 196,67,57,2,193,1 // vpblendd $0x1,%xmm9,%xmm8,%xmm8
- .byte 233,12,255,255,255 // jmpq 9261 <_sk_scale_565_hsw+0x25>
+ .byte 233,12,255,255,255 // jmpq 926d <_sk_scale_565_hsw+0x25>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,1,57,196,68,88,12,6 // vpinsrw $0x6,0xc(%r8,%r11,2),%xmm8,%xmm8
.byte 196,1,57,196,68,88,10,5 // vpinsrw $0x5,0xa(%r8,%r11,2),%xmm8,%xmm8
.byte 196,1,57,196,68,88,8,4 // vpinsrw $0x4,0x8(%r8,%r11,2),%xmm8,%xmm8
.byte 196,1,122,126,12,88 // vmovq (%r8,%r11,2),%xmm9
.byte 196,67,49,2,192,12 // vpblendd $0xc,%xmm8,%xmm9,%xmm8
- .byte 233,222,254,255,255 // jmpq 9261 <_sk_scale_565_hsw+0x25>
+ .byte 233,222,254,255,255 // jmpq 926d <_sk_scale_565_hsw+0x25>
.byte 144 // nop
.byte 165 // movsl %ds:(%rsi),%es:(%rdi)
.byte 255 // (bad)
@@ -18443,12 +18452,12 @@ _sk_lerp_u8_hsw:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,78 // jne 9435 <_sk_lerp_u8_hsw+0x66>
+ .byte 117,78 // jne 9441 <_sk_lerp_u8_hsw+0x66>
.byte 196,2,121,48,4,24 // vpmovzxbw (%r8,%r11,1),%xmm8
- .byte 197,57,219,5,107,151,2,0 // vpand 0x2976b(%rip),%xmm8,%xmm8 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xa20>
+ .byte 197,57,219,5,143,151,2,0 // vpand 0x2978f(%rip),%xmm8,%xmm8 # 32b90 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
.byte 196,66,125,51,192 // vpmovzxwd %xmm8,%ymm8
.byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8
- .byte 196,98,125,24,13,52,150,2,0 // vbroadcastss 0x29634(%rip),%ymm9 # 32a3c <_sk_srcover_rgba_8888_sse2_lowp+0x8fc>
+ .byte 196,98,125,24,13,76,150,2,0 // vbroadcastss 0x2964c(%rip),%ymm9 # 32a60 <_sk_srcover_rgba_8888_sse2_lowp+0x904>
.byte 196,65,60,89,193 // vmulps %ymm9,%ymm8,%ymm8
.byte 197,252,92,196 // vsubps %ymm4,%ymm0,%ymm0
.byte 196,226,61,168,196 // vfmadd213ps %ymm4,%ymm8,%ymm0
@@ -18465,15 +18474,15 @@ _sk_lerp_u8_hsw:
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,163 // ja 93ed <_sk_lerp_u8_hsw+0x1e>
+ .byte 119,163 // ja 93f9 <_sk_lerp_u8_hsw+0x1e>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,123,0,0,0 // lea 0x7b(%rip),%r10 # 94d0 <_sk_lerp_u8_hsw+0x101>
+ .byte 76,141,21,123,0,0,0 // lea 0x7b(%rip),%r10 # 94dc <_sk_lerp_u8_hsw+0x101>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 67,15,182,4,24 // movzbl (%r8,%r11,1),%eax
.byte 197,121,110,192 // vmovd %eax,%xmm8
- .byte 235,132 // jmp 93ed <_sk_lerp_u8_hsw+0x1e>
+ .byte 235,132 // jmp 93f9 <_sk_lerp_u8_hsw+0x1e>
.byte 67,15,182,68,24,2 // movzbl 0x2(%r8,%r11,1),%eax
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 197,57,196,192,2 // vpinsrw $0x2,%eax,%xmm8,%xmm8
@@ -18481,7 +18490,7 @@ _sk_lerp_u8_hsw:
.byte 197,121,110,200 // vmovd %eax,%xmm9
.byte 196,66,121,48,201 // vpmovzxbw %xmm9,%xmm9
.byte 196,67,57,2,193,1 // vpblendd $0x1,%xmm9,%xmm8,%xmm8
- .byte 233,91,255,255,255 // jmpq 93ed <_sk_lerp_u8_hsw+0x1e>
+ .byte 233,91,255,255,255 // jmpq 93f9 <_sk_lerp_u8_hsw+0x1e>
.byte 67,15,182,68,24,6 // movzbl 0x6(%r8,%r11,1),%eax
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 197,57,196,192,6 // vpinsrw $0x6,%eax,%xmm8,%xmm8
@@ -18492,7 +18501,7 @@ _sk_lerp_u8_hsw:
.byte 196,1,121,110,12,24 // vmovd (%r8,%r11,1),%xmm9
.byte 196,66,121,48,201 // vpmovzxbw %xmm9,%xmm9
.byte 196,67,49,2,192,12 // vpblendd $0xc,%xmm8,%xmm9,%xmm8
- .byte 233,31,255,255,255 // jmpq 93ed <_sk_lerp_u8_hsw+0x1e>
+ .byte 233,31,255,255,255 // jmpq 93f9 <_sk_lerp_u8_hsw+0x1e>
.byte 102,144 // xchg %ax,%ax
.byte 142,255 // mov %edi,%?
.byte 255 // (bad)
@@ -18500,7 +18509,7 @@ _sk_lerp_u8_hsw:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 232,255,255,255,221 // callq ffffffffde0094e0 <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffddfd73a0>
+ .byte 232,255,255,255,221 // callq ffffffffde0094ec <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffddfd7390>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,210 // callq *%rdx
@@ -18523,23 +18532,23 @@ _sk_lerp_565_hsw:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,181,0,0,0 // jne 95c0 <_sk_lerp_565_hsw+0xd4>
+ .byte 15,133,181,0,0,0 // jne 95cc <_sk_lerp_565_hsw+0xd4>
.byte 196,1,122,111,4,88 // vmovdqu (%r8,%r11,2),%xmm8
.byte 196,66,125,51,192 // vpmovzxwd %xmm8,%ymm8
- .byte 196,98,125,88,13,33,149,2,0 // vpbroadcastd 0x29521(%rip),%ymm9 # 32a40 <_sk_srcover_rgba_8888_sse2_lowp+0x900>
+ .byte 196,98,125,88,13,57,149,2,0 // vpbroadcastd 0x29539(%rip),%ymm9 # 32a64 <_sk_srcover_rgba_8888_sse2_lowp+0x908>
.byte 196,65,61,219,201 // vpand %ymm9,%ymm8,%ymm9
.byte 196,65,124,91,201 // vcvtdq2ps %ymm9,%ymm9
- .byte 196,98,125,24,21,18,149,2,0 // vbroadcastss 0x29512(%rip),%ymm10 # 32a44 <_sk_srcover_rgba_8888_sse2_lowp+0x904>
+ .byte 196,98,125,24,21,42,149,2,0 // vbroadcastss 0x2952a(%rip),%ymm10 # 32a68 <_sk_srcover_rgba_8888_sse2_lowp+0x90c>
.byte 196,65,52,89,202 // vmulps %ymm10,%ymm9,%ymm9
- .byte 196,98,125,88,21,8,149,2,0 // vpbroadcastd 0x29508(%rip),%ymm10 # 32a48 <_sk_srcover_rgba_8888_sse2_lowp+0x908>
+ .byte 196,98,125,88,21,32,149,2,0 // vpbroadcastd 0x29520(%rip),%ymm10 # 32a6c <_sk_srcover_rgba_8888_sse2_lowp+0x910>
.byte 196,65,61,219,210 // vpand %ymm10,%ymm8,%ymm10
.byte 196,65,124,91,210 // vcvtdq2ps %ymm10,%ymm10
- .byte 196,98,125,24,29,249,148,2,0 // vbroadcastss 0x294f9(%rip),%ymm11 # 32a4c <_sk_srcover_rgba_8888_sse2_lowp+0x90c>
+ .byte 196,98,125,24,29,17,149,2,0 // vbroadcastss 0x29511(%rip),%ymm11 # 32a70 <_sk_srcover_rgba_8888_sse2_lowp+0x914>
.byte 196,65,44,89,211 // vmulps %ymm11,%ymm10,%ymm10
- .byte 196,98,125,88,29,239,148,2,0 // vpbroadcastd 0x294ef(%rip),%ymm11 # 32a50 <_sk_srcover_rgba_8888_sse2_lowp+0x910>
+ .byte 196,98,125,88,29,7,149,2,0 // vpbroadcastd 0x29507(%rip),%ymm11 # 32a74 <_sk_srcover_rgba_8888_sse2_lowp+0x918>
.byte 196,65,61,219,195 // vpand %ymm11,%ymm8,%ymm8
.byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8
- .byte 196,98,125,24,29,224,148,2,0 // vbroadcastss 0x294e0(%rip),%ymm11 # 32a54 <_sk_srcover_rgba_8888_sse2_lowp+0x914>
+ .byte 196,98,125,24,29,248,148,2,0 // vbroadcastss 0x294f8(%rip),%ymm11 # 32a78 <_sk_srcover_rgba_8888_sse2_lowp+0x91c>
.byte 196,65,60,89,195 // vmulps %ymm11,%ymm8,%ymm8
.byte 197,100,194,223,1 // vcmpltps %ymm7,%ymm3,%ymm11
.byte 196,65,44,93,224 // vminps %ymm8,%ymm10,%ymm12
@@ -18562,27 +18571,27 @@ _sk_lerp_565_hsw:
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 15,135,56,255,255,255 // ja 9511 <_sk_lerp_565_hsw+0x25>
+ .byte 15,135,56,255,255,255 // ja 951d <_sk_lerp_565_hsw+0x25>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,100,0,0,0 // lea 0x64(%rip),%r10 # 9648 <_sk_lerp_565_hsw+0x15c>
+ .byte 76,141,21,100,0,0,0 // lea 0x64(%rip),%r10 # 9654 <_sk_lerp_565_hsw+0x15c>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 67,15,183,4,88 // movzwl (%r8,%r11,2),%eax
.byte 197,121,110,192 // vmovd %eax,%xmm8
- .byte 233,22,255,255,255 // jmpq 9511 <_sk_lerp_565_hsw+0x25>
+ .byte 233,22,255,255,255 // jmpq 951d <_sk_lerp_565_hsw+0x25>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,1,57,196,68,88,4,2 // vpinsrw $0x2,0x4(%r8,%r11,2),%xmm8,%xmm8
.byte 196,1,121,110,12,88 // vmovd (%r8,%r11,2),%xmm9
.byte 196,67,57,2,193,1 // vpblendd $0x1,%xmm9,%xmm8,%xmm8
- .byte 233,248,254,255,255 // jmpq 9511 <_sk_lerp_565_hsw+0x25>
+ .byte 233,248,254,255,255 // jmpq 951d <_sk_lerp_565_hsw+0x25>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,1,57,196,68,88,12,6 // vpinsrw $0x6,0xc(%r8,%r11,2),%xmm8,%xmm8
.byte 196,1,57,196,68,88,10,5 // vpinsrw $0x5,0xa(%r8,%r11,2),%xmm8,%xmm8
.byte 196,1,57,196,68,88,8,4 // vpinsrw $0x4,0x8(%r8,%r11,2),%xmm8,%xmm8
.byte 196,1,122,126,12,88 // vmovq (%r8,%r11,2),%xmm9
.byte 196,67,49,2,192,12 // vpblendd $0xc,%xmm8,%xmm9,%xmm8
- .byte 233,202,254,255,255 // jmpq 9511 <_sk_lerp_565_hsw+0x25>
+ .byte 233,202,254,255,255 // jmpq 951d <_sk_lerp_565_hsw+0x25>
.byte 144 // nop
.byte 165 // movsl %ds:(%rsi),%es:(%rdi)
.byte 255 // (bad)
@@ -18611,9 +18620,9 @@ _sk_load_tables_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 76,139,0 // mov (%rax),%r8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,116 // jne 96e2 <_sk_load_tables_hsw+0x7e>
+ .byte 117,116 // jne 96ee <_sk_load_tables_hsw+0x7e>
.byte 196,193,126,111,28,144 // vmovdqu (%r8,%rdx,4),%ymm3
- .byte 197,229,219,13,100,142,2,0 // vpand 0x28e64(%rip),%ymm3,%ymm1 # 324e0 <_sk_srcover_rgba_8888_sse2_lowp+0x3a0>
+ .byte 197,229,219,13,120,142,2,0 // vpand 0x28e78(%rip),%ymm3,%ymm1 # 32500 <_sk_srcover_rgba_8888_sse2_lowp+0x3a4>
.byte 196,65,61,118,192 // vpcmpeqd %ymm8,%ymm8,%ymm8
.byte 76,139,64,8 // mov 0x8(%rax),%r8
.byte 76,139,72,16 // mov 0x10(%rax),%r9
@@ -18621,16 +18630,16 @@ _sk_load_tables_hsw:
.byte 197,253,239,192 // vpxor %ymm0,%ymm0,%ymm0
.byte 196,65,53,118,201 // vpcmpeqd %ymm9,%ymm9,%ymm9
.byte 196,194,53,146,4,136 // vgatherdps %ymm9,(%r8,%ymm1,4),%ymm0
- .byte 196,98,101,0,13,91,142,2,0 // vpshufb 0x28e5b(%rip),%ymm3,%ymm9 # 32500 <_sk_srcover_rgba_8888_sse2_lowp+0x3c0>
+ .byte 196,98,101,0,13,111,142,2,0 // vpshufb 0x28e6f(%rip),%ymm3,%ymm9 # 32520 <_sk_srcover_rgba_8888_sse2_lowp+0x3c4>
.byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
.byte 196,65,45,118,210 // vpcmpeqd %ymm10,%ymm10,%ymm10
.byte 196,130,45,146,12,137 // vgatherdps %ymm10,(%r9,%ymm9,4),%ymm1
.byte 72,139,64,24 // mov 0x18(%rax),%rax
- .byte 196,98,101,0,13,95,142,2,0 // vpshufb 0x28e5f(%rip),%ymm3,%ymm9 # 32520 <_sk_srcover_rgba_8888_sse2_lowp+0x3e0>
+ .byte 196,98,101,0,13,115,142,2,0 // vpshufb 0x28e73(%rip),%ymm3,%ymm9 # 32540 <_sk_srcover_rgba_8888_sse2_lowp+0x3e4>
.byte 196,162,61,146,20,136 // vgatherdps %ymm8,(%rax,%ymm9,4),%ymm2
.byte 197,229,114,211,24 // vpsrld $0x18,%ymm3,%ymm3
.byte 197,252,91,219 // vcvtdq2ps %ymm3,%ymm3
- .byte 196,98,125,24,5,99,147,2,0 // vbroadcastss 0x29363(%rip),%ymm8 # 32a3c <_sk_srcover_rgba_8888_sse2_lowp+0x8fc>
+ .byte 196,98,125,24,5,123,147,2,0 // vbroadcastss 0x2937b(%rip),%ymm8 # 32a60 <_sk_srcover_rgba_8888_sse2_lowp+0x904>
.byte 196,193,100,89,216 // vmulps %ymm8,%ymm3,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -18639,21 +18648,21 @@ _sk_load_tables_hsw:
.byte 197,229,239,219 // vpxor %ymm3,%ymm3,%ymm3
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 15,135,122,255,255,255 // ja 9674 <_sk_load_tables_hsw+0x10>
+ .byte 15,135,122,255,255,255 // ja 9680 <_sk_load_tables_hsw+0x10>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,139,0,0,0 // lea 0x8b(%rip),%r10 # 9790 <_sk_load_tables_hsw+0x12c>
+ .byte 76,141,21,139,0,0,0 // lea 0x8b(%rip),%r10 # 979c <_sk_load_tables_hsw+0x12c>
.byte 79,99,12,138 // movslq (%r10,%r9,4),%r9
.byte 77,1,209 // add %r10,%r9
.byte 65,255,225 // jmpq *%r9
.byte 196,193,121,110,28,144 // vmovd (%r8,%rdx,4),%xmm3
- .byte 233,90,255,255,255 // jmpq 9674 <_sk_load_tables_hsw+0x10>
+ .byte 233,90,255,255,255 // jmpq 9680 <_sk_load_tables_hsw+0x10>
.byte 196,193,121,110,68,144,8 // vmovd 0x8(%r8,%rdx,4),%xmm0
.byte 196,226,121,89,192 // vpbroadcastq %xmm0,%xmm0
.byte 197,245,239,201 // vpxor %ymm1,%ymm1,%ymm1
.byte 196,227,117,2,216,4 // vpblendd $0x4,%ymm0,%ymm1,%ymm3
.byte 196,193,122,126,4,144 // vmovq (%r8,%rdx,4),%xmm0
.byte 196,227,101,2,216,3 // vpblendd $0x3,%ymm0,%ymm3,%ymm3
- .byte 233,51,255,255,255 // jmpq 9674 <_sk_load_tables_hsw+0x10>
+ .byte 233,51,255,255,255 // jmpq 9680 <_sk_load_tables_hsw+0x10>
.byte 196,193,121,110,68,144,24 // vmovd 0x18(%r8,%rdx,4),%xmm0
.byte 196,226,125,89,192 // vpbroadcastq %xmm0,%ymm0
.byte 197,245,239,201 // vpxor %ymm1,%ymm1,%ymm1
@@ -18666,8 +18675,8 @@ _sk_load_tables_hsw:
.byte 196,227,101,56,216,1 // vinserti128 $0x1,%xmm0,%ymm3,%ymm3
.byte 196,193,122,111,4,144 // vmovdqu (%r8,%rdx,4),%xmm0
.byte 196,227,125,2,219,240 // vpblendd $0xf0,%ymm3,%ymm0,%ymm3
- .byte 233,228,254,255,255 // jmpq 9674 <_sk_load_tables_hsw+0x10>
- .byte 127,255 // jg 9791 <_sk_load_tables_hsw+0x12d>
+ .byte 233,228,254,255,255 // jmpq 9680 <_sk_load_tables_hsw+0x10>
+ .byte 127,255 // jg 979d <_sk_load_tables_hsw+0x12d>
.byte 255 // (bad)
.byte 255,160,255,255,255,138 // jmpq *-0x75000001(%rax)
.byte 255 // (bad)
@@ -18695,7 +18704,7 @@ _sk_load_tables_u16_be_hsw:
.byte 76,139,0 // mov (%rax),%r8
.byte 76,141,12,149,0,0,0,0 // lea 0x0(,%rdx,4),%r9
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,215,0,0,0 // jne 9899 <_sk_load_tables_u16_be_hsw+0xed>
+ .byte 15,133,215,0,0,0 // jne 98a5 <_sk_load_tables_u16_be_hsw+0xed>
.byte 196,1,121,16,4,72 // vmovupd (%r8,%r9,2),%xmm8
.byte 196,129,121,16,84,72,16 // vmovupd 0x10(%r8,%r9,2),%xmm2
.byte 196,129,121,16,92,72,32 // vmovupd 0x20(%r8,%r9,2),%xmm3
@@ -18711,7 +18720,7 @@ _sk_load_tables_u16_be_hsw:
.byte 197,185,108,200 // vpunpcklqdq %xmm0,%xmm8,%xmm1
.byte 197,57,109,192 // vpunpckhqdq %xmm0,%xmm8,%xmm8
.byte 196,65,49,108,214 // vpunpcklqdq %xmm14,%xmm9,%xmm10
- .byte 197,121,111,29,76,147,2,0 // vmovdqa 0x2934c(%rip),%xmm11 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xa20>
+ .byte 197,121,111,29,112,147,2,0 // vmovdqa 0x29370(%rip),%xmm11 # 32b90 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
.byte 196,193,113,219,195 // vpand %xmm11,%xmm1,%xmm0
.byte 196,226,125,51,200 // vpmovzxwd %xmm0,%ymm1
.byte 196,65,29,118,228 // vpcmpeqd %ymm12,%ymm12,%ymm12
@@ -18736,36 +18745,36 @@ _sk_load_tables_u16_be_hsw:
.byte 197,185,235,219 // vpor %xmm3,%xmm8,%xmm3
.byte 196,226,125,51,219 // vpmovzxwd %xmm3,%ymm3
.byte 197,252,91,219 // vcvtdq2ps %ymm3,%ymm3
- .byte 196,98,125,24,5,200,145,2,0 // vbroadcastss 0x291c8(%rip),%ymm8 # 32a58 <_sk_srcover_rgba_8888_sse2_lowp+0x918>
+ .byte 196,98,125,24,5,224,145,2,0 // vbroadcastss 0x291e0(%rip),%ymm8 # 32a7c <_sk_srcover_rgba_8888_sse2_lowp+0x920>
.byte 196,193,100,89,216 // vmulps %ymm8,%ymm3,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
.byte 196,1,123,16,4,72 // vmovsd (%r8,%r9,2),%xmm8
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 116,85 // je 98ff <_sk_load_tables_u16_be_hsw+0x153>
+ .byte 116,85 // je 990b <_sk_load_tables_u16_be_hsw+0x153>
.byte 196,1,57,22,68,72,8 // vmovhpd 0x8(%r8,%r9,2),%xmm8,%xmm8
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,72 // jb 98ff <_sk_load_tables_u16_be_hsw+0x153>
+ .byte 114,72 // jb 990b <_sk_load_tables_u16_be_hsw+0x153>
.byte 196,129,123,16,84,72,16 // vmovsd 0x10(%r8,%r9,2),%xmm2
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 116,72 // je 990c <_sk_load_tables_u16_be_hsw+0x160>
+ .byte 116,72 // je 9918 <_sk_load_tables_u16_be_hsw+0x160>
.byte 196,129,105,22,84,72,24 // vmovhpd 0x18(%r8,%r9,2),%xmm2,%xmm2
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 114,59 // jb 990c <_sk_load_tables_u16_be_hsw+0x160>
+ .byte 114,59 // jb 9918 <_sk_load_tables_u16_be_hsw+0x160>
.byte 196,129,123,16,92,72,32 // vmovsd 0x20(%r8,%r9,2),%xmm3
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 15,132,251,254,255,255 // je 97dd <_sk_load_tables_u16_be_hsw+0x31>
+ .byte 15,132,251,254,255,255 // je 97e9 <_sk_load_tables_u16_be_hsw+0x31>
.byte 196,129,97,22,92,72,40 // vmovhpd 0x28(%r8,%r9,2),%xmm3,%xmm3
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 15,130,234,254,255,255 // jb 97dd <_sk_load_tables_u16_be_hsw+0x31>
+ .byte 15,130,234,254,255,255 // jb 97e9 <_sk_load_tables_u16_be_hsw+0x31>
.byte 196,1,122,126,76,72,48 // vmovq 0x30(%r8,%r9,2),%xmm9
- .byte 233,222,254,255,255 // jmpq 97dd <_sk_load_tables_u16_be_hsw+0x31>
+ .byte 233,222,254,255,255 // jmpq 97e9 <_sk_load_tables_u16_be_hsw+0x31>
.byte 197,225,87,219 // vxorpd %xmm3,%xmm3,%xmm3
.byte 197,233,87,210 // vxorpd %xmm2,%xmm2,%xmm2
- .byte 233,209,254,255,255 // jmpq 97dd <_sk_load_tables_u16_be_hsw+0x31>
+ .byte 233,209,254,255,255 // jmpq 97e9 <_sk_load_tables_u16_be_hsw+0x31>
.byte 197,225,87,219 // vxorpd %xmm3,%xmm3,%xmm3
- .byte 233,200,254,255,255 // jmpq 97dd <_sk_load_tables_u16_be_hsw+0x31>
+ .byte 233,200,254,255,255 // jmpq 97e9 <_sk_load_tables_u16_be_hsw+0x31>
HIDDEN _sk_load_tables_rgb_u16_be_hsw
.globl _sk_load_tables_rgb_u16_be_hsw
@@ -18775,7 +18784,7 @@ _sk_load_tables_rgb_u16_be_hsw:
.byte 76,139,0 // mov (%rax),%r8
.byte 76,141,12,82 // lea (%rdx,%rdx,2),%r9
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,206,0,0,0 // jne 99f5 <_sk_load_tables_rgb_u16_be_hsw+0xe0>
+ .byte 15,133,206,0,0,0 // jne 9a01 <_sk_load_tables_rgb_u16_be_hsw+0xe0>
.byte 196,1,122,111,28,72 // vmovdqu (%r8,%r9,2),%xmm11
.byte 196,129,122,111,92,72,12 // vmovdqu 0xc(%r8,%r9,2),%xmm3
.byte 196,129,122,111,84,72,24 // vmovdqu 0x18(%r8,%r9,2),%xmm2
@@ -18796,7 +18805,7 @@ _sk_load_tables_rgb_u16_be_hsw:
.byte 197,105,108,192 // vpunpcklqdq %xmm0,%xmm2,%xmm8
.byte 197,241,108,195 // vpunpcklqdq %xmm3,%xmm1,%xmm0
.byte 197,241,109,203 // vpunpckhqdq %xmm3,%xmm1,%xmm1
- .byte 197,249,111,29,204,145,2,0 // vmovdqa 0x291cc(%rip),%xmm3 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xa20>
+ .byte 197,249,111,29,240,145,2,0 // vmovdqa 0x291f0(%rip),%xmm3 # 32b90 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
.byte 197,249,219,195 // vpand %xmm3,%xmm0,%xmm0
.byte 196,98,125,51,200 // vpmovzxwd %xmm0,%ymm9
.byte 196,65,45,118,210 // vpcmpeqd %ymm10,%ymm10,%ymm10
@@ -18816,76 +18825,76 @@ _sk_load_tables_rgb_u16_be_hsw:
.byte 196,226,125,51,219 // vpmovzxwd %xmm3,%ymm3
.byte 196,226,45,146,20,152 // vgatherdps %ymm10,(%rax,%ymm3,4),%ymm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,213,143,2,0 // vbroadcastss 0x28fd5(%rip),%ymm3 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 196,226,125,24,29,233,143,2,0 // vbroadcastss 0x28fe9(%rip),%ymm3 # 329e8 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 255,224 // jmpq *%rax
.byte 196,129,121,110,4,72 // vmovd (%r8,%r9,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,1,121,196,92,72,4,2 // vpinsrw $0x2,0x4(%r8,%r9,2),%xmm0,%xmm11
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 117,31 // jne 9a2d <_sk_load_tables_rgb_u16_be_hsw+0x118>
+ .byte 117,31 // jne 9a39 <_sk_load_tables_rgb_u16_be_hsw+0x118>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
.byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2
.byte 196,65,41,239,210 // vpxor %xmm10,%xmm10,%xmm10
.byte 197,225,239,219 // vpxor %xmm3,%xmm3,%xmm3
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
- .byte 233,47,255,255,255 // jmpq 995c <_sk_load_tables_rgb_u16_be_hsw+0x47>
+ .byte 233,47,255,255,255 // jmpq 9968 <_sk_load_tables_rgb_u16_be_hsw+0x47>
.byte 196,129,121,110,68,72,6 // vmovd 0x6(%r8,%r9,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,1,121,196,68,72,10,2 // vpinsrw $0x2,0xa(%r8,%r9,2),%xmm0,%xmm8
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,48 // jb 9a77 <_sk_load_tables_rgb_u16_be_hsw+0x162>
+ .byte 114,48 // jb 9a83 <_sk_load_tables_rgb_u16_be_hsw+0x162>
.byte 196,129,121,110,68,72,12 // vmovd 0xc(%r8,%r9,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,129,121,196,92,72,16,2 // vpinsrw $0x2,0x10(%r8,%r9,2),%xmm0,%xmm3
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 117,48 // jne 9a91 <_sk_load_tables_rgb_u16_be_hsw+0x17c>
+ .byte 117,48 // jne 9a9d <_sk_load_tables_rgb_u16_be_hsw+0x17c>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
.byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2
.byte 196,65,41,239,210 // vpxor %xmm10,%xmm10,%xmm10
- .byte 233,229,254,255,255 // jmpq 995c <_sk_load_tables_rgb_u16_be_hsw+0x47>
+ .byte 233,229,254,255,255 // jmpq 9968 <_sk_load_tables_rgb_u16_be_hsw+0x47>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
.byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2
.byte 196,65,41,239,210 // vpxor %xmm10,%xmm10,%xmm10
.byte 197,225,239,219 // vpxor %xmm3,%xmm3,%xmm3
- .byte 233,203,254,255,255 // jmpq 995c <_sk_load_tables_rgb_u16_be_hsw+0x47>
+ .byte 233,203,254,255,255 // jmpq 9968 <_sk_load_tables_rgb_u16_be_hsw+0x47>
.byte 196,129,121,110,68,72,18 // vmovd 0x12(%r8,%r9,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,1,121,196,84,72,22,2 // vpinsrw $0x2,0x16(%r8,%r9,2),%xmm0,%xmm10
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 114,39 // jb 9ad2 <_sk_load_tables_rgb_u16_be_hsw+0x1bd>
+ .byte 114,39 // jb 9ade <_sk_load_tables_rgb_u16_be_hsw+0x1bd>
.byte 196,129,121,110,68,72,24 // vmovd 0x18(%r8,%r9,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,129,121,196,84,72,28,2 // vpinsrw $0x2,0x1c(%r8,%r9,2),%xmm0,%xmm2
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 117,30 // jne 9ae3 <_sk_load_tables_rgb_u16_be_hsw+0x1ce>
+ .byte 117,30 // jne 9aef <_sk_load_tables_rgb_u16_be_hsw+0x1ce>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
- .byte 233,138,254,255,255 // jmpq 995c <_sk_load_tables_rgb_u16_be_hsw+0x47>
+ .byte 233,138,254,255,255 // jmpq 9968 <_sk_load_tables_rgb_u16_be_hsw+0x47>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
.byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2
- .byte 233,121,254,255,255 // jmpq 995c <_sk_load_tables_rgb_u16_be_hsw+0x47>
+ .byte 233,121,254,255,255 // jmpq 9968 <_sk_load_tables_rgb_u16_be_hsw+0x47>
.byte 196,129,121,110,68,72,30 // vmovd 0x1e(%r8,%r9,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,129,121,196,76,72,34,2 // vpinsrw $0x2,0x22(%r8,%r9,2),%xmm0,%xmm1
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 114,25 // jb 9b16 <_sk_load_tables_rgb_u16_be_hsw+0x201>
+ .byte 114,25 // jb 9b22 <_sk_load_tables_rgb_u16_be_hsw+0x201>
.byte 196,129,121,110,68,72,36 // vmovd 0x24(%r8,%r9,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,129,121,196,68,72,40,2 // vpinsrw $0x2,0x28(%r8,%r9,2),%xmm0,%xmm0
- .byte 233,70,254,255,255 // jmpq 995c <_sk_load_tables_rgb_u16_be_hsw+0x47>
+ .byte 233,70,254,255,255 // jmpq 9968 <_sk_load_tables_rgb_u16_be_hsw+0x47>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
- .byte 233,61,254,255,255 // jmpq 995c <_sk_load_tables_rgb_u16_be_hsw+0x47>
+ .byte 233,61,254,255,255 // jmpq 9968 <_sk_load_tables_rgb_u16_be_hsw+0x47>
HIDDEN _sk_byte_tables_hsw
.globl _sk_byte_tables_hsw
FUNCTION(_sk_byte_tables_hsw)
_sk_byte_tables_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,98,125,24,5,202,142,2,0 // vbroadcastss 0x28eca(%rip),%ymm8 # 329f4 <_sk_srcover_rgba_8888_sse2_lowp+0x8b4>
+ .byte 196,98,125,24,5,222,142,2,0 // vbroadcastss 0x28ede(%rip),%ymm8 # 32a14 <_sk_srcover_rgba_8888_sse2_lowp+0x8b8>
.byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
.byte 197,125,91,200 // vcvtps2dq %ymm0,%ymm9
.byte 196,65,249,126,200 // vmovq %xmm9,%r8
@@ -19015,7 +19024,7 @@ _sk_byte_tables_hsw:
.byte 67,15,182,4,17 // movzbl (%r9,%r10,1),%eax
.byte 196,194,125,49,193 // vpmovzxbd %xmm9,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,98,125,24,5,152,140,2,0 // vbroadcastss 0x28c98(%rip),%ymm8 # 32a3c <_sk_srcover_rgba_8888_sse2_lowp+0x8fc>
+ .byte 196,98,125,24,5,176,140,2,0 // vbroadcastss 0x28cb0(%rip),%ymm8 # 32a60 <_sk_srcover_rgba_8888_sse2_lowp+0x904>
.byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
.byte 196,226,125,49,201 // vpmovzxbd %xmm1,%ymm1
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
@@ -19137,7 +19146,7 @@ _sk_byte_tables_rgb_hsw:
.byte 67,15,182,4,17 // movzbl (%r9,%r10,1),%eax
.byte 196,194,125,49,193 // vpmovzxbd %xmm9,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,98,125,24,5,108,138,2,0 // vbroadcastss 0x28a6c(%rip),%ymm8 # 32a3c <_sk_srcover_rgba_8888_sse2_lowp+0x8fc>
+ .byte 196,98,125,24,5,132,138,2,0 // vbroadcastss 0x28a84(%rip),%ymm8 # 32a60 <_sk_srcover_rgba_8888_sse2_lowp+0x904>
.byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
.byte 196,226,125,49,201 // vpmovzxbd %xmm1,%ymm1
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
@@ -19240,33 +19249,33 @@ _sk_parametric_r_hsw:
.byte 196,66,125,168,211 // vfmadd213ps %ymm11,%ymm0,%ymm10
.byte 196,226,125,24,0 // vbroadcastss (%rax),%ymm0
.byte 196,65,124,91,218 // vcvtdq2ps %ymm10,%ymm11
- .byte 196,98,125,24,37,82,137,2,0 // vbroadcastss 0x28952(%rip),%ymm12 # 32a5c <_sk_srcover_rgba_8888_sse2_lowp+0x91c>
- .byte 196,98,125,24,45,77,137,2,0 // vbroadcastss 0x2894d(%rip),%ymm13 # 32a60 <_sk_srcover_rgba_8888_sse2_lowp+0x920>
+ .byte 196,98,125,24,37,106,137,2,0 // vbroadcastss 0x2896a(%rip),%ymm12 # 32a80 <_sk_srcover_rgba_8888_sse2_lowp+0x924>
+ .byte 196,98,125,24,45,101,137,2,0 // vbroadcastss 0x28965(%rip),%ymm13 # 32a84 <_sk_srcover_rgba_8888_sse2_lowp+0x928>
.byte 196,65,44,84,213 // vandps %ymm13,%ymm10,%ymm10
- .byte 196,98,125,24,45,163,136,2,0 // vbroadcastss 0x288a3(%rip),%ymm13 # 329c4 <_sk_srcover_rgba_8888_sse2_lowp+0x884>
+ .byte 196,98,125,24,45,183,136,2,0 // vbroadcastss 0x288b7(%rip),%ymm13 # 329e4 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 196,65,44,86,213 // vorps %ymm13,%ymm10,%ymm10
- .byte 196,98,125,24,45,53,137,2,0 // vbroadcastss 0x28935(%rip),%ymm13 # 32a64 <_sk_srcover_rgba_8888_sse2_lowp+0x924>
+ .byte 196,98,125,24,45,77,137,2,0 // vbroadcastss 0x2894d(%rip),%ymm13 # 32a88 <_sk_srcover_rgba_8888_sse2_lowp+0x92c>
.byte 196,66,37,184,236 // vfmadd231ps %ymm12,%ymm11,%ymm13
- .byte 196,98,125,24,29,43,137,2,0 // vbroadcastss 0x2892b(%rip),%ymm11 # 32a68 <_sk_srcover_rgba_8888_sse2_lowp+0x928>
+ .byte 196,98,125,24,29,67,137,2,0 // vbroadcastss 0x28943(%rip),%ymm11 # 32a8c <_sk_srcover_rgba_8888_sse2_lowp+0x930>
.byte 196,66,45,172,221 // vfnmadd213ps %ymm13,%ymm10,%ymm11
- .byte 196,98,125,24,37,33,137,2,0 // vbroadcastss 0x28921(%rip),%ymm12 # 32a6c <_sk_srcover_rgba_8888_sse2_lowp+0x92c>
+ .byte 196,98,125,24,37,57,137,2,0 // vbroadcastss 0x28939(%rip),%ymm12 # 32a90 <_sk_srcover_rgba_8888_sse2_lowp+0x934>
.byte 196,65,44,88,212 // vaddps %ymm12,%ymm10,%ymm10
- .byte 196,98,125,24,37,23,137,2,0 // vbroadcastss 0x28917(%rip),%ymm12 # 32a70 <_sk_srcover_rgba_8888_sse2_lowp+0x930>
+ .byte 196,98,125,24,37,47,137,2,0 // vbroadcastss 0x2892f(%rip),%ymm12 # 32a94 <_sk_srcover_rgba_8888_sse2_lowp+0x938>
.byte 196,65,28,94,210 // vdivps %ymm10,%ymm12,%ymm10
.byte 196,65,36,92,210 // vsubps %ymm10,%ymm11,%ymm10
.byte 196,193,124,89,194 // vmulps %ymm10,%ymm0,%ymm0
.byte 196,99,125,8,208,1 // vroundps $0x1,%ymm0,%ymm10
.byte 196,65,124,92,210 // vsubps %ymm10,%ymm0,%ymm10
- .byte 196,98,125,24,29,248,136,2,0 // vbroadcastss 0x288f8(%rip),%ymm11 # 32a74 <_sk_srcover_rgba_8888_sse2_lowp+0x934>
+ .byte 196,98,125,24,29,16,137,2,0 // vbroadcastss 0x28910(%rip),%ymm11 # 32a98 <_sk_srcover_rgba_8888_sse2_lowp+0x93c>
.byte 196,193,124,88,195 // vaddps %ymm11,%ymm0,%ymm0
- .byte 196,98,125,24,29,238,136,2,0 // vbroadcastss 0x288ee(%rip),%ymm11 # 32a78 <_sk_srcover_rgba_8888_sse2_lowp+0x938>
+ .byte 196,98,125,24,29,6,137,2,0 // vbroadcastss 0x28906(%rip),%ymm11 # 32a9c <_sk_srcover_rgba_8888_sse2_lowp+0x940>
.byte 196,98,45,172,216 // vfnmadd213ps %ymm0,%ymm10,%ymm11
- .byte 196,226,125,24,5,228,136,2,0 // vbroadcastss 0x288e4(%rip),%ymm0 # 32a7c <_sk_srcover_rgba_8888_sse2_lowp+0x93c>
+ .byte 196,226,125,24,5,252,136,2,0 // vbroadcastss 0x288fc(%rip),%ymm0 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0x944>
.byte 196,193,124,92,194 // vsubps %ymm10,%ymm0,%ymm0
- .byte 196,98,125,24,21,218,136,2,0 // vbroadcastss 0x288da(%rip),%ymm10 # 32a80 <_sk_srcover_rgba_8888_sse2_lowp+0x940>
+ .byte 196,98,125,24,21,242,136,2,0 // vbroadcastss 0x288f2(%rip),%ymm10 # 32aa4 <_sk_srcover_rgba_8888_sse2_lowp+0x948>
.byte 197,172,94,192 // vdivps %ymm0,%ymm10,%ymm0
.byte 197,164,88,192 // vaddps %ymm0,%ymm11,%ymm0
- .byte 196,98,125,24,21,205,136,2,0 // vbroadcastss 0x288cd(%rip),%ymm10 # 32a84 <_sk_srcover_rgba_8888_sse2_lowp+0x944>
+ .byte 196,98,125,24,21,229,136,2,0 // vbroadcastss 0x288e5(%rip),%ymm10 # 32aa8 <_sk_srcover_rgba_8888_sse2_lowp+0x94c>
.byte 196,193,124,89,194 // vmulps %ymm10,%ymm0,%ymm0
.byte 197,253,91,192 // vcvtps2dq %ymm0,%ymm0
.byte 196,98,125,24,80,20 // vbroadcastss 0x14(%rax),%ymm10
@@ -19274,7 +19283,7 @@ _sk_parametric_r_hsw:
.byte 196,195,125,74,193,128 // vblendvps %ymm8,%ymm9,%ymm0,%ymm0
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 196,193,124,95,192 // vmaxps %ymm8,%ymm0,%ymm0
- .byte 196,98,125,24,5,229,135,2,0 // vbroadcastss 0x287e5(%rip),%ymm8 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 196,98,125,24,5,249,135,2,0 // vbroadcastss 0x287f9(%rip),%ymm8 # 329e8 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 196,193,124,93,192 // vminps %ymm8,%ymm0,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -19294,33 +19303,33 @@ _sk_parametric_g_hsw:
.byte 196,66,117,168,211 // vfmadd213ps %ymm11,%ymm1,%ymm10
.byte 196,226,125,24,8 // vbroadcastss (%rax),%ymm1
.byte 196,65,124,91,218 // vcvtdq2ps %ymm10,%ymm11
- .byte 196,98,125,24,37,45,136,2,0 // vbroadcastss 0x2882d(%rip),%ymm12 # 32a5c <_sk_srcover_rgba_8888_sse2_lowp+0x91c>
- .byte 196,98,125,24,45,40,136,2,0 // vbroadcastss 0x28828(%rip),%ymm13 # 32a60 <_sk_srcover_rgba_8888_sse2_lowp+0x920>
+ .byte 196,98,125,24,37,69,136,2,0 // vbroadcastss 0x28845(%rip),%ymm12 # 32a80 <_sk_srcover_rgba_8888_sse2_lowp+0x924>
+ .byte 196,98,125,24,45,64,136,2,0 // vbroadcastss 0x28840(%rip),%ymm13 # 32a84 <_sk_srcover_rgba_8888_sse2_lowp+0x928>
.byte 196,65,44,84,213 // vandps %ymm13,%ymm10,%ymm10
- .byte 196,98,125,24,45,126,135,2,0 // vbroadcastss 0x2877e(%rip),%ymm13 # 329c4 <_sk_srcover_rgba_8888_sse2_lowp+0x884>
+ .byte 196,98,125,24,45,146,135,2,0 // vbroadcastss 0x28792(%rip),%ymm13 # 329e4 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 196,65,44,86,213 // vorps %ymm13,%ymm10,%ymm10
- .byte 196,98,125,24,45,16,136,2,0 // vbroadcastss 0x28810(%rip),%ymm13 # 32a64 <_sk_srcover_rgba_8888_sse2_lowp+0x924>
+ .byte 196,98,125,24,45,40,136,2,0 // vbroadcastss 0x28828(%rip),%ymm13 # 32a88 <_sk_srcover_rgba_8888_sse2_lowp+0x92c>
.byte 196,66,37,184,236 // vfmadd231ps %ymm12,%ymm11,%ymm13
- .byte 196,98,125,24,29,6,136,2,0 // vbroadcastss 0x28806(%rip),%ymm11 # 32a68 <_sk_srcover_rgba_8888_sse2_lowp+0x928>
+ .byte 196,98,125,24,29,30,136,2,0 // vbroadcastss 0x2881e(%rip),%ymm11 # 32a8c <_sk_srcover_rgba_8888_sse2_lowp+0x930>
.byte 196,66,45,172,221 // vfnmadd213ps %ymm13,%ymm10,%ymm11
- .byte 196,98,125,24,37,252,135,2,0 // vbroadcastss 0x287fc(%rip),%ymm12 # 32a6c <_sk_srcover_rgba_8888_sse2_lowp+0x92c>
+ .byte 196,98,125,24,37,20,136,2,0 // vbroadcastss 0x28814(%rip),%ymm12 # 32a90 <_sk_srcover_rgba_8888_sse2_lowp+0x934>
.byte 196,65,44,88,212 // vaddps %ymm12,%ymm10,%ymm10
- .byte 196,98,125,24,37,242,135,2,0 // vbroadcastss 0x287f2(%rip),%ymm12 # 32a70 <_sk_srcover_rgba_8888_sse2_lowp+0x930>
+ .byte 196,98,125,24,37,10,136,2,0 // vbroadcastss 0x2880a(%rip),%ymm12 # 32a94 <_sk_srcover_rgba_8888_sse2_lowp+0x938>
.byte 196,65,28,94,210 // vdivps %ymm10,%ymm12,%ymm10
.byte 196,65,36,92,210 // vsubps %ymm10,%ymm11,%ymm10
.byte 196,193,116,89,202 // vmulps %ymm10,%ymm1,%ymm1
.byte 196,99,125,8,209,1 // vroundps $0x1,%ymm1,%ymm10
.byte 196,65,116,92,210 // vsubps %ymm10,%ymm1,%ymm10
- .byte 196,98,125,24,29,211,135,2,0 // vbroadcastss 0x287d3(%rip),%ymm11 # 32a74 <_sk_srcover_rgba_8888_sse2_lowp+0x934>
+ .byte 196,98,125,24,29,235,135,2,0 // vbroadcastss 0x287eb(%rip),%ymm11 # 32a98 <_sk_srcover_rgba_8888_sse2_lowp+0x93c>
.byte 196,193,116,88,203 // vaddps %ymm11,%ymm1,%ymm1
- .byte 196,98,125,24,29,201,135,2,0 // vbroadcastss 0x287c9(%rip),%ymm11 # 32a78 <_sk_srcover_rgba_8888_sse2_lowp+0x938>
+ .byte 196,98,125,24,29,225,135,2,0 // vbroadcastss 0x287e1(%rip),%ymm11 # 32a9c <_sk_srcover_rgba_8888_sse2_lowp+0x940>
.byte 196,98,45,172,217 // vfnmadd213ps %ymm1,%ymm10,%ymm11
- .byte 196,226,125,24,13,191,135,2,0 // vbroadcastss 0x287bf(%rip),%ymm1 # 32a7c <_sk_srcover_rgba_8888_sse2_lowp+0x93c>
+ .byte 196,226,125,24,13,215,135,2,0 // vbroadcastss 0x287d7(%rip),%ymm1 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0x944>
.byte 196,193,116,92,202 // vsubps %ymm10,%ymm1,%ymm1
- .byte 196,98,125,24,21,181,135,2,0 // vbroadcastss 0x287b5(%rip),%ymm10 # 32a80 <_sk_srcover_rgba_8888_sse2_lowp+0x940>
+ .byte 196,98,125,24,21,205,135,2,0 // vbroadcastss 0x287cd(%rip),%ymm10 # 32aa4 <_sk_srcover_rgba_8888_sse2_lowp+0x948>
.byte 197,172,94,201 // vdivps %ymm1,%ymm10,%ymm1
.byte 197,164,88,201 // vaddps %ymm1,%ymm11,%ymm1
- .byte 196,98,125,24,21,168,135,2,0 // vbroadcastss 0x287a8(%rip),%ymm10 # 32a84 <_sk_srcover_rgba_8888_sse2_lowp+0x944>
+ .byte 196,98,125,24,21,192,135,2,0 // vbroadcastss 0x287c0(%rip),%ymm10 # 32aa8 <_sk_srcover_rgba_8888_sse2_lowp+0x94c>
.byte 196,193,116,89,202 // vmulps %ymm10,%ymm1,%ymm1
.byte 197,253,91,201 // vcvtps2dq %ymm1,%ymm1
.byte 196,98,125,24,80,20 // vbroadcastss 0x14(%rax),%ymm10
@@ -19328,7 +19337,7 @@ _sk_parametric_g_hsw:
.byte 196,195,117,74,201,128 // vblendvps %ymm8,%ymm9,%ymm1,%ymm1
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 196,193,116,95,200 // vmaxps %ymm8,%ymm1,%ymm1
- .byte 196,98,125,24,5,192,134,2,0 // vbroadcastss 0x286c0(%rip),%ymm8 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 196,98,125,24,5,212,134,2,0 // vbroadcastss 0x286d4(%rip),%ymm8 # 329e8 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 196,193,116,93,200 // vminps %ymm8,%ymm1,%ymm1
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -19348,33 +19357,33 @@ _sk_parametric_b_hsw:
.byte 196,66,109,168,211 // vfmadd213ps %ymm11,%ymm2,%ymm10
.byte 196,226,125,24,16 // vbroadcastss (%rax),%ymm2
.byte 196,65,124,91,218 // vcvtdq2ps %ymm10,%ymm11
- .byte 196,98,125,24,37,8,135,2,0 // vbroadcastss 0x28708(%rip),%ymm12 # 32a5c <_sk_srcover_rgba_8888_sse2_lowp+0x91c>
- .byte 196,98,125,24,45,3,135,2,0 // vbroadcastss 0x28703(%rip),%ymm13 # 32a60 <_sk_srcover_rgba_8888_sse2_lowp+0x920>
+ .byte 196,98,125,24,37,32,135,2,0 // vbroadcastss 0x28720(%rip),%ymm12 # 32a80 <_sk_srcover_rgba_8888_sse2_lowp+0x924>
+ .byte 196,98,125,24,45,27,135,2,0 // vbroadcastss 0x2871b(%rip),%ymm13 # 32a84 <_sk_srcover_rgba_8888_sse2_lowp+0x928>
.byte 196,65,44,84,213 // vandps %ymm13,%ymm10,%ymm10
- .byte 196,98,125,24,45,89,134,2,0 // vbroadcastss 0x28659(%rip),%ymm13 # 329c4 <_sk_srcover_rgba_8888_sse2_lowp+0x884>
+ .byte 196,98,125,24,45,109,134,2,0 // vbroadcastss 0x2866d(%rip),%ymm13 # 329e4 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 196,65,44,86,213 // vorps %ymm13,%ymm10,%ymm10
- .byte 196,98,125,24,45,235,134,2,0 // vbroadcastss 0x286eb(%rip),%ymm13 # 32a64 <_sk_srcover_rgba_8888_sse2_lowp+0x924>
+ .byte 196,98,125,24,45,3,135,2,0 // vbroadcastss 0x28703(%rip),%ymm13 # 32a88 <_sk_srcover_rgba_8888_sse2_lowp+0x92c>
.byte 196,66,37,184,236 // vfmadd231ps %ymm12,%ymm11,%ymm13
- .byte 196,98,125,24,29,225,134,2,0 // vbroadcastss 0x286e1(%rip),%ymm11 # 32a68 <_sk_srcover_rgba_8888_sse2_lowp+0x928>
+ .byte 196,98,125,24,29,249,134,2,0 // vbroadcastss 0x286f9(%rip),%ymm11 # 32a8c <_sk_srcover_rgba_8888_sse2_lowp+0x930>
.byte 196,66,45,172,221 // vfnmadd213ps %ymm13,%ymm10,%ymm11
- .byte 196,98,125,24,37,215,134,2,0 // vbroadcastss 0x286d7(%rip),%ymm12 # 32a6c <_sk_srcover_rgba_8888_sse2_lowp+0x92c>
+ .byte 196,98,125,24,37,239,134,2,0 // vbroadcastss 0x286ef(%rip),%ymm12 # 32a90 <_sk_srcover_rgba_8888_sse2_lowp+0x934>
.byte 196,65,44,88,212 // vaddps %ymm12,%ymm10,%ymm10
- .byte 196,98,125,24,37,205,134,2,0 // vbroadcastss 0x286cd(%rip),%ymm12 # 32a70 <_sk_srcover_rgba_8888_sse2_lowp+0x930>
+ .byte 196,98,125,24,37,229,134,2,0 // vbroadcastss 0x286e5(%rip),%ymm12 # 32a94 <_sk_srcover_rgba_8888_sse2_lowp+0x938>
.byte 196,65,28,94,210 // vdivps %ymm10,%ymm12,%ymm10
.byte 196,65,36,92,210 // vsubps %ymm10,%ymm11,%ymm10
.byte 196,193,108,89,210 // vmulps %ymm10,%ymm2,%ymm2
.byte 196,99,125,8,210,1 // vroundps $0x1,%ymm2,%ymm10
.byte 196,65,108,92,210 // vsubps %ymm10,%ymm2,%ymm10
- .byte 196,98,125,24,29,174,134,2,0 // vbroadcastss 0x286ae(%rip),%ymm11 # 32a74 <_sk_srcover_rgba_8888_sse2_lowp+0x934>
+ .byte 196,98,125,24,29,198,134,2,0 // vbroadcastss 0x286c6(%rip),%ymm11 # 32a98 <_sk_srcover_rgba_8888_sse2_lowp+0x93c>
.byte 196,193,108,88,211 // vaddps %ymm11,%ymm2,%ymm2
- .byte 196,98,125,24,29,164,134,2,0 // vbroadcastss 0x286a4(%rip),%ymm11 # 32a78 <_sk_srcover_rgba_8888_sse2_lowp+0x938>
+ .byte 196,98,125,24,29,188,134,2,0 // vbroadcastss 0x286bc(%rip),%ymm11 # 32a9c <_sk_srcover_rgba_8888_sse2_lowp+0x940>
.byte 196,98,45,172,218 // vfnmadd213ps %ymm2,%ymm10,%ymm11
- .byte 196,226,125,24,21,154,134,2,0 // vbroadcastss 0x2869a(%rip),%ymm2 # 32a7c <_sk_srcover_rgba_8888_sse2_lowp+0x93c>
+ .byte 196,226,125,24,21,178,134,2,0 // vbroadcastss 0x286b2(%rip),%ymm2 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0x944>
.byte 196,193,108,92,210 // vsubps %ymm10,%ymm2,%ymm2
- .byte 196,98,125,24,21,144,134,2,0 // vbroadcastss 0x28690(%rip),%ymm10 # 32a80 <_sk_srcover_rgba_8888_sse2_lowp+0x940>
+ .byte 196,98,125,24,21,168,134,2,0 // vbroadcastss 0x286a8(%rip),%ymm10 # 32aa4 <_sk_srcover_rgba_8888_sse2_lowp+0x948>
.byte 197,172,94,210 // vdivps %ymm2,%ymm10,%ymm2
.byte 197,164,88,210 // vaddps %ymm2,%ymm11,%ymm2
- .byte 196,98,125,24,21,131,134,2,0 // vbroadcastss 0x28683(%rip),%ymm10 # 32a84 <_sk_srcover_rgba_8888_sse2_lowp+0x944>
+ .byte 196,98,125,24,21,155,134,2,0 // vbroadcastss 0x2869b(%rip),%ymm10 # 32aa8 <_sk_srcover_rgba_8888_sse2_lowp+0x94c>
.byte 196,193,108,89,210 // vmulps %ymm10,%ymm2,%ymm2
.byte 197,253,91,210 // vcvtps2dq %ymm2,%ymm2
.byte 196,98,125,24,80,20 // vbroadcastss 0x14(%rax),%ymm10
@@ -19382,7 +19391,7 @@ _sk_parametric_b_hsw:
.byte 196,195,109,74,209,128 // vblendvps %ymm8,%ymm9,%ymm2,%ymm2
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 196,193,108,95,208 // vmaxps %ymm8,%ymm2,%ymm2
- .byte 196,98,125,24,5,155,133,2,0 // vbroadcastss 0x2859b(%rip),%ymm8 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 196,98,125,24,5,175,133,2,0 // vbroadcastss 0x285af(%rip),%ymm8 # 329e8 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 196,193,108,93,208 // vminps %ymm8,%ymm2,%ymm2
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -19402,33 +19411,33 @@ _sk_parametric_a_hsw:
.byte 196,66,101,168,211 // vfmadd213ps %ymm11,%ymm3,%ymm10
.byte 196,226,125,24,24 // vbroadcastss (%rax),%ymm3
.byte 196,65,124,91,218 // vcvtdq2ps %ymm10,%ymm11
- .byte 196,98,125,24,37,227,133,2,0 // vbroadcastss 0x285e3(%rip),%ymm12 # 32a5c <_sk_srcover_rgba_8888_sse2_lowp+0x91c>
- .byte 196,98,125,24,45,222,133,2,0 // vbroadcastss 0x285de(%rip),%ymm13 # 32a60 <_sk_srcover_rgba_8888_sse2_lowp+0x920>
+ .byte 196,98,125,24,37,251,133,2,0 // vbroadcastss 0x285fb(%rip),%ymm12 # 32a80 <_sk_srcover_rgba_8888_sse2_lowp+0x924>
+ .byte 196,98,125,24,45,246,133,2,0 // vbroadcastss 0x285f6(%rip),%ymm13 # 32a84 <_sk_srcover_rgba_8888_sse2_lowp+0x928>
.byte 196,65,44,84,213 // vandps %ymm13,%ymm10,%ymm10
- .byte 196,98,125,24,45,52,133,2,0 // vbroadcastss 0x28534(%rip),%ymm13 # 329c4 <_sk_srcover_rgba_8888_sse2_lowp+0x884>
+ .byte 196,98,125,24,45,72,133,2,0 // vbroadcastss 0x28548(%rip),%ymm13 # 329e4 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 196,65,44,86,213 // vorps %ymm13,%ymm10,%ymm10
- .byte 196,98,125,24,45,198,133,2,0 // vbroadcastss 0x285c6(%rip),%ymm13 # 32a64 <_sk_srcover_rgba_8888_sse2_lowp+0x924>
+ .byte 196,98,125,24,45,222,133,2,0 // vbroadcastss 0x285de(%rip),%ymm13 # 32a88 <_sk_srcover_rgba_8888_sse2_lowp+0x92c>
.byte 196,66,37,184,236 // vfmadd231ps %ymm12,%ymm11,%ymm13
- .byte 196,98,125,24,29,188,133,2,0 // vbroadcastss 0x285bc(%rip),%ymm11 # 32a68 <_sk_srcover_rgba_8888_sse2_lowp+0x928>
+ .byte 196,98,125,24,29,212,133,2,0 // vbroadcastss 0x285d4(%rip),%ymm11 # 32a8c <_sk_srcover_rgba_8888_sse2_lowp+0x930>
.byte 196,66,45,172,221 // vfnmadd213ps %ymm13,%ymm10,%ymm11
- .byte 196,98,125,24,37,178,133,2,0 // vbroadcastss 0x285b2(%rip),%ymm12 # 32a6c <_sk_srcover_rgba_8888_sse2_lowp+0x92c>
+ .byte 196,98,125,24,37,202,133,2,0 // vbroadcastss 0x285ca(%rip),%ymm12 # 32a90 <_sk_srcover_rgba_8888_sse2_lowp+0x934>
.byte 196,65,44,88,212 // vaddps %ymm12,%ymm10,%ymm10
- .byte 196,98,125,24,37,168,133,2,0 // vbroadcastss 0x285a8(%rip),%ymm12 # 32a70 <_sk_srcover_rgba_8888_sse2_lowp+0x930>
+ .byte 196,98,125,24,37,192,133,2,0 // vbroadcastss 0x285c0(%rip),%ymm12 # 32a94 <_sk_srcover_rgba_8888_sse2_lowp+0x938>
.byte 196,65,28,94,210 // vdivps %ymm10,%ymm12,%ymm10
.byte 196,65,36,92,210 // vsubps %ymm10,%ymm11,%ymm10
.byte 196,193,100,89,218 // vmulps %ymm10,%ymm3,%ymm3
.byte 196,99,125,8,211,1 // vroundps $0x1,%ymm3,%ymm10
.byte 196,65,100,92,210 // vsubps %ymm10,%ymm3,%ymm10
- .byte 196,98,125,24,29,137,133,2,0 // vbroadcastss 0x28589(%rip),%ymm11 # 32a74 <_sk_srcover_rgba_8888_sse2_lowp+0x934>
+ .byte 196,98,125,24,29,161,133,2,0 // vbroadcastss 0x285a1(%rip),%ymm11 # 32a98 <_sk_srcover_rgba_8888_sse2_lowp+0x93c>
.byte 196,193,100,88,219 // vaddps %ymm11,%ymm3,%ymm3
- .byte 196,98,125,24,29,127,133,2,0 // vbroadcastss 0x2857f(%rip),%ymm11 # 32a78 <_sk_srcover_rgba_8888_sse2_lowp+0x938>
+ .byte 196,98,125,24,29,151,133,2,0 // vbroadcastss 0x28597(%rip),%ymm11 # 32a9c <_sk_srcover_rgba_8888_sse2_lowp+0x940>
.byte 196,98,45,172,219 // vfnmadd213ps %ymm3,%ymm10,%ymm11
- .byte 196,226,125,24,29,117,133,2,0 // vbroadcastss 0x28575(%rip),%ymm3 # 32a7c <_sk_srcover_rgba_8888_sse2_lowp+0x93c>
+ .byte 196,226,125,24,29,141,133,2,0 // vbroadcastss 0x2858d(%rip),%ymm3 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0x944>
.byte 196,193,100,92,218 // vsubps %ymm10,%ymm3,%ymm3
- .byte 196,98,125,24,21,107,133,2,0 // vbroadcastss 0x2856b(%rip),%ymm10 # 32a80 <_sk_srcover_rgba_8888_sse2_lowp+0x940>
+ .byte 196,98,125,24,21,131,133,2,0 // vbroadcastss 0x28583(%rip),%ymm10 # 32aa4 <_sk_srcover_rgba_8888_sse2_lowp+0x948>
.byte 197,172,94,219 // vdivps %ymm3,%ymm10,%ymm3
.byte 197,164,88,219 // vaddps %ymm3,%ymm11,%ymm3
- .byte 196,98,125,24,21,94,133,2,0 // vbroadcastss 0x2855e(%rip),%ymm10 # 32a84 <_sk_srcover_rgba_8888_sse2_lowp+0x944>
+ .byte 196,98,125,24,21,118,133,2,0 // vbroadcastss 0x28576(%rip),%ymm10 # 32aa8 <_sk_srcover_rgba_8888_sse2_lowp+0x94c>
.byte 196,193,100,89,218 // vmulps %ymm10,%ymm3,%ymm3
.byte 197,253,91,219 // vcvtps2dq %ymm3,%ymm3
.byte 196,98,125,24,80,20 // vbroadcastss 0x14(%rax),%ymm10
@@ -19436,7 +19445,7 @@ _sk_parametric_a_hsw:
.byte 196,195,101,74,217,128 // vblendvps %ymm8,%ymm9,%ymm3,%ymm3
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 196,193,100,95,216 // vmaxps %ymm8,%ymm3,%ymm3
- .byte 196,98,125,24,5,118,132,2,0 // vbroadcastss 0x28476(%rip),%ymm8 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 196,98,125,24,5,138,132,2,0 // vbroadcastss 0x2848a(%rip),%ymm8 # 329e8 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 196,193,100,93,216 // vminps %ymm8,%ymm3,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -19455,35 +19464,35 @@ _sk_gamma_hsw:
.byte 197,252,40,241 // vmovaps %ymm1,%ymm6
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,124,91,208 // vcvtdq2ps %ymm0,%ymm10
- .byte 196,98,125,24,29,201,132,2,0 // vbroadcastss 0x284c9(%rip),%ymm11 # 32a5c <_sk_srcover_rgba_8888_sse2_lowp+0x91c>
- .byte 196,226,125,24,45,196,132,2,0 // vbroadcastss 0x284c4(%rip),%ymm5 # 32a60 <_sk_srcover_rgba_8888_sse2_lowp+0x920>
+ .byte 196,98,125,24,29,225,132,2,0 // vbroadcastss 0x284e1(%rip),%ymm11 # 32a80 <_sk_srcover_rgba_8888_sse2_lowp+0x924>
+ .byte 196,226,125,24,45,220,132,2,0 // vbroadcastss 0x284dc(%rip),%ymm5 # 32a84 <_sk_srcover_rgba_8888_sse2_lowp+0x928>
.byte 197,124,84,205 // vandps %ymm5,%ymm0,%ymm9
- .byte 196,226,125,24,37,27,132,2,0 // vbroadcastss 0x2841b(%rip),%ymm4 # 329c4 <_sk_srcover_rgba_8888_sse2_lowp+0x884>
+ .byte 196,226,125,24,37,47,132,2,0 // vbroadcastss 0x2842f(%rip),%ymm4 # 329e4 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 197,52,86,228 // vorps %ymm4,%ymm9,%ymm12
- .byte 196,98,125,24,45,174,132,2,0 // vbroadcastss 0x284ae(%rip),%ymm13 # 32a64 <_sk_srcover_rgba_8888_sse2_lowp+0x924>
+ .byte 196,98,125,24,45,198,132,2,0 // vbroadcastss 0x284c6(%rip),%ymm13 # 32a88 <_sk_srcover_rgba_8888_sse2_lowp+0x92c>
.byte 196,66,37,168,213 // vfmadd213ps %ymm13,%ymm11,%ymm10
- .byte 196,98,125,24,13,164,132,2,0 // vbroadcastss 0x284a4(%rip),%ymm9 # 32a68 <_sk_srcover_rgba_8888_sse2_lowp+0x928>
+ .byte 196,98,125,24,13,188,132,2,0 // vbroadcastss 0x284bc(%rip),%ymm9 # 32a8c <_sk_srcover_rgba_8888_sse2_lowp+0x930>
.byte 196,66,29,188,209 // vfnmadd231ps %ymm9,%ymm12,%ymm10
.byte 197,124,91,246 // vcvtdq2ps %ymm6,%ymm14
.byte 196,66,37,168,245 // vfmadd213ps %ymm13,%ymm11,%ymm14
.byte 197,124,91,255 // vcvtdq2ps %ymm7,%ymm15
.byte 196,66,37,168,253 // vfmadd213ps %ymm13,%ymm11,%ymm15
- .byte 196,98,125,24,29,136,132,2,0 // vbroadcastss 0x28488(%rip),%ymm11 # 32a6c <_sk_srcover_rgba_8888_sse2_lowp+0x92c>
+ .byte 196,98,125,24,29,160,132,2,0 // vbroadcastss 0x284a0(%rip),%ymm11 # 32a90 <_sk_srcover_rgba_8888_sse2_lowp+0x934>
.byte 196,65,28,88,227 // vaddps %ymm11,%ymm12,%ymm12
- .byte 196,98,125,24,45,126,132,2,0 // vbroadcastss 0x2847e(%rip),%ymm13 # 32a70 <_sk_srcover_rgba_8888_sse2_lowp+0x930>
+ .byte 196,98,125,24,45,150,132,2,0 // vbroadcastss 0x28496(%rip),%ymm13 # 32a94 <_sk_srcover_rgba_8888_sse2_lowp+0x938>
.byte 196,65,20,94,228 // vdivps %ymm12,%ymm13,%ymm12
.byte 196,65,44,92,212 // vsubps %ymm12,%ymm10,%ymm10
.byte 196,98,125,24,32 // vbroadcastss (%rax),%ymm12
.byte 196,65,44,89,212 // vmulps %ymm12,%ymm10,%ymm10
.byte 196,67,125,8,194,1 // vroundps $0x1,%ymm10,%ymm8
.byte 196,65,44,92,192 // vsubps %ymm8,%ymm10,%ymm8
- .byte 196,226,125,24,21,90,132,2,0 // vbroadcastss 0x2845a(%rip),%ymm2 # 32a74 <_sk_srcover_rgba_8888_sse2_lowp+0x934>
+ .byte 196,226,125,24,21,114,132,2,0 // vbroadcastss 0x28472(%rip),%ymm2 # 32a98 <_sk_srcover_rgba_8888_sse2_lowp+0x93c>
.byte 197,44,88,210 // vaddps %ymm2,%ymm10,%ymm10
- .byte 196,226,125,24,29,81,132,2,0 // vbroadcastss 0x28451(%rip),%ymm3 # 32a78 <_sk_srcover_rgba_8888_sse2_lowp+0x938>
+ .byte 196,226,125,24,29,105,132,2,0 // vbroadcastss 0x28469(%rip),%ymm3 # 32a9c <_sk_srcover_rgba_8888_sse2_lowp+0x940>
.byte 196,98,61,188,211 // vfnmadd231ps %ymm3,%ymm8,%ymm10
- .byte 196,226,125,24,13,71,132,2,0 // vbroadcastss 0x28447(%rip),%ymm1 # 32a7c <_sk_srcover_rgba_8888_sse2_lowp+0x93c>
+ .byte 196,226,125,24,13,95,132,2,0 // vbroadcastss 0x2845f(%rip),%ymm1 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0x944>
.byte 196,65,116,92,192 // vsubps %ymm8,%ymm1,%ymm8
- .byte 196,226,125,24,5,61,132,2,0 // vbroadcastss 0x2843d(%rip),%ymm0 # 32a80 <_sk_srcover_rgba_8888_sse2_lowp+0x940>
+ .byte 196,226,125,24,5,85,132,2,0 // vbroadcastss 0x28455(%rip),%ymm0 # 32aa4 <_sk_srcover_rgba_8888_sse2_lowp+0x948>
.byte 196,65,124,94,192 // vdivps %ymm8,%ymm0,%ymm8
.byte 196,65,44,88,192 // vaddps %ymm8,%ymm10,%ymm8
.byte 197,204,84,245 // vandps %ymm5,%ymm6,%ymm6
@@ -19514,7 +19523,7 @@ _sk_gamma_hsw:
.byte 197,244,92,205 // vsubps %ymm5,%ymm1,%ymm1
.byte 197,252,94,193 // vdivps %ymm1,%ymm0,%ymm0
.byte 197,236,88,192 // vaddps %ymm0,%ymm2,%ymm0
- .byte 196,226,125,24,13,174,131,2,0 // vbroadcastss 0x283ae(%rip),%ymm1 # 32a84 <_sk_srcover_rgba_8888_sse2_lowp+0x944>
+ .byte 196,226,125,24,13,198,131,2,0 // vbroadcastss 0x283c6(%rip),%ymm1 # 32aa8 <_sk_srcover_rgba_8888_sse2_lowp+0x94c>
.byte 197,188,89,209 // vmulps %ymm1,%ymm8,%ymm2
.byte 197,204,89,217 // vmulps %ymm1,%ymm6,%ymm3
.byte 197,252,89,225 // vmulps %ymm1,%ymm0,%ymm4
@@ -19534,26 +19543,26 @@ HIDDEN _sk_lab_to_xyz_hsw
.globl _sk_lab_to_xyz_hsw
FUNCTION(_sk_lab_to_xyz_hsw)
_sk_lab_to_xyz_hsw:
- .byte 196,98,125,24,5,108,131,2,0 // vbroadcastss 0x2836c(%rip),%ymm8 # 32a88 <_sk_srcover_rgba_8888_sse2_lowp+0x948>
- .byte 196,98,125,24,13,207,130,2,0 // vbroadcastss 0x282cf(%rip),%ymm9 # 329f4 <_sk_srcover_rgba_8888_sse2_lowp+0x8b4>
- .byte 196,98,125,24,21,94,131,2,0 // vbroadcastss 0x2835e(%rip),%ymm10 # 32a8c <_sk_srcover_rgba_8888_sse2_lowp+0x94c>
+ .byte 196,98,125,24,5,132,131,2,0 // vbroadcastss 0x28384(%rip),%ymm8 # 32aac <_sk_srcover_rgba_8888_sse2_lowp+0x950>
+ .byte 196,98,125,24,13,227,130,2,0 // vbroadcastss 0x282e3(%rip),%ymm9 # 32a14 <_sk_srcover_rgba_8888_sse2_lowp+0x8b8>
+ .byte 196,98,125,24,21,118,131,2,0 // vbroadcastss 0x28376(%rip),%ymm10 # 32ab0 <_sk_srcover_rgba_8888_sse2_lowp+0x954>
.byte 196,194,53,168,202 // vfmadd213ps %ymm10,%ymm9,%ymm1
.byte 196,194,53,168,210 // vfmadd213ps %ymm10,%ymm9,%ymm2
- .byte 196,98,125,24,13,79,131,2,0 // vbroadcastss 0x2834f(%rip),%ymm9 # 32a90 <_sk_srcover_rgba_8888_sse2_lowp+0x950>
+ .byte 196,98,125,24,13,103,131,2,0 // vbroadcastss 0x28367(%rip),%ymm9 # 32ab4 <_sk_srcover_rgba_8888_sse2_lowp+0x958>
.byte 196,66,125,184,200 // vfmadd231ps %ymm8,%ymm0,%ymm9
- .byte 196,226,125,24,5,69,131,2,0 // vbroadcastss 0x28345(%rip),%ymm0 # 32a94 <_sk_srcover_rgba_8888_sse2_lowp+0x954>
+ .byte 196,226,125,24,5,93,131,2,0 // vbroadcastss 0x2835d(%rip),%ymm0 # 32ab8 <_sk_srcover_rgba_8888_sse2_lowp+0x95c>
.byte 197,180,89,192 // vmulps %ymm0,%ymm9,%ymm0
- .byte 196,98,125,24,5,60,131,2,0 // vbroadcastss 0x2833c(%rip),%ymm8 # 32a98 <_sk_srcover_rgba_8888_sse2_lowp+0x958>
+ .byte 196,98,125,24,5,84,131,2,0 // vbroadcastss 0x28354(%rip),%ymm8 # 32abc <_sk_srcover_rgba_8888_sse2_lowp+0x960>
.byte 196,98,117,168,192 // vfmadd213ps %ymm0,%ymm1,%ymm8
- .byte 196,98,125,24,13,50,131,2,0 // vbroadcastss 0x28332(%rip),%ymm9 # 32a9c <_sk_srcover_rgba_8888_sse2_lowp+0x95c>
+ .byte 196,98,125,24,13,74,131,2,0 // vbroadcastss 0x2834a(%rip),%ymm9 # 32ac0 <_sk_srcover_rgba_8888_sse2_lowp+0x964>
.byte 196,98,109,172,200 // vfnmadd213ps %ymm0,%ymm2,%ymm9
.byte 196,193,60,89,200 // vmulps %ymm8,%ymm8,%ymm1
.byte 197,188,89,201 // vmulps %ymm1,%ymm8,%ymm1
- .byte 196,226,125,24,21,31,131,2,0 // vbroadcastss 0x2831f(%rip),%ymm2 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0x960>
+ .byte 196,226,125,24,21,55,131,2,0 // vbroadcastss 0x28337(%rip),%ymm2 # 32ac4 <_sk_srcover_rgba_8888_sse2_lowp+0x968>
.byte 197,108,194,209,1 // vcmpltps %ymm1,%ymm2,%ymm10
- .byte 196,98,125,24,29,21,131,2,0 // vbroadcastss 0x28315(%rip),%ymm11 # 32aa4 <_sk_srcover_rgba_8888_sse2_lowp+0x964>
+ .byte 196,98,125,24,29,45,131,2,0 // vbroadcastss 0x2832d(%rip),%ymm11 # 32ac8 <_sk_srcover_rgba_8888_sse2_lowp+0x96c>
.byte 196,65,60,88,195 // vaddps %ymm11,%ymm8,%ymm8
- .byte 196,98,125,24,37,11,131,2,0 // vbroadcastss 0x2830b(%rip),%ymm12 # 32aa8 <_sk_srcover_rgba_8888_sse2_lowp+0x968>
+ .byte 196,98,125,24,37,35,131,2,0 // vbroadcastss 0x28323(%rip),%ymm12 # 32acc <_sk_srcover_rgba_8888_sse2_lowp+0x970>
.byte 196,65,60,89,196 // vmulps %ymm12,%ymm8,%ymm8
.byte 196,99,61,74,193,160 // vblendvps %ymm10,%ymm1,%ymm8,%ymm8
.byte 197,252,89,200 // vmulps %ymm0,%ymm0,%ymm1
@@ -19568,9 +19577,9 @@ _sk_lab_to_xyz_hsw:
.byte 196,65,52,88,203 // vaddps %ymm11,%ymm9,%ymm9
.byte 196,65,52,89,204 // vmulps %ymm12,%ymm9,%ymm9
.byte 196,227,53,74,208,32 // vblendvps %ymm2,%ymm0,%ymm9,%ymm2
- .byte 196,226,125,24,5,192,130,2,0 // vbroadcastss 0x282c0(%rip),%ymm0 # 32aac <_sk_srcover_rgba_8888_sse2_lowp+0x96c>
+ .byte 196,226,125,24,5,216,130,2,0 // vbroadcastss 0x282d8(%rip),%ymm0 # 32ad0 <_sk_srcover_rgba_8888_sse2_lowp+0x974>
.byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
- .byte 196,98,125,24,5,183,130,2,0 // vbroadcastss 0x282b7(%rip),%ymm8 # 32ab0 <_sk_srcover_rgba_8888_sse2_lowp+0x970>
+ .byte 196,98,125,24,5,207,130,2,0 // vbroadcastss 0x282cf(%rip),%ymm8 # 32ad4 <_sk_srcover_rgba_8888_sse2_lowp+0x978>
.byte 196,193,108,89,208 // vmulps %ymm8,%ymm2,%ymm2
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -19586,12 +19595,12 @@ _sk_load_a8_hsw:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,52 // jne a84e <_sk_load_a8_hsw+0x4c>
+ .byte 117,52 // jne a85a <_sk_load_a8_hsw+0x4c>
.byte 196,130,121,48,4,24 // vpmovzxbw (%r8,%r11,1),%xmm0
- .byte 197,249,219,5,56,131,2,0 // vpand 0x28338(%rip),%xmm0,%xmm0 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xa20>
+ .byte 197,249,219,5,92,131,2,0 // vpand 0x2835c(%rip),%xmm0,%xmm0 # 32b90 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
.byte 196,226,125,51,192 // vpmovzxwd %xmm0,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,13,2,130,2,0 // vbroadcastss 0x28202(%rip),%ymm1 # 32a3c <_sk_srcover_rgba_8888_sse2_lowp+0x8fc>
+ .byte 196,226,125,24,13,26,130,2,0 // vbroadcastss 0x2821a(%rip),%ymm1 # 32a60 <_sk_srcover_rgba_8888_sse2_lowp+0x904>
.byte 197,252,89,217 // vmulps %ymm1,%ymm0,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
@@ -19603,15 +19612,15 @@ _sk_load_a8_hsw:
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,190 // ja a820 <_sk_load_a8_hsw+0x1e>
+ .byte 119,190 // ja a82c <_sk_load_a8_hsw+0x1e>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,119,0,0,0 // lea 0x77(%rip),%r10 # a8e4 <_sk_load_a8_hsw+0xe2>
+ .byte 76,141,21,119,0,0,0 // lea 0x77(%rip),%r10 # a8f0 <_sk_load_a8_hsw+0xe2>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 67,15,182,4,24 // movzbl (%r8,%r11,1),%eax
.byte 197,249,110,192 // vmovd %eax,%xmm0
- .byte 235,159 // jmp a820 <_sk_load_a8_hsw+0x1e>
+ .byte 235,159 // jmp a82c <_sk_load_a8_hsw+0x1e>
.byte 67,15,182,68,24,2 // movzbl 0x2(%r8,%r11,1),%eax
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,249,196,192,2 // vpinsrw $0x2,%eax,%xmm0,%xmm0
@@ -19619,7 +19628,7 @@ _sk_load_a8_hsw:
.byte 197,249,110,200 // vmovd %eax,%xmm1
.byte 196,226,121,48,201 // vpmovzxbw %xmm1,%xmm1
.byte 196,227,121,2,193,1 // vpblendd $0x1,%xmm1,%xmm0,%xmm0
- .byte 233,119,255,255,255 // jmpq a820 <_sk_load_a8_hsw+0x1e>
+ .byte 233,119,255,255,255 // jmpq a82c <_sk_load_a8_hsw+0x1e>
.byte 67,15,182,68,24,6 // movzbl 0x6(%r8,%r11,1),%eax
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,249,196,192,6 // vpinsrw $0x6,%eax,%xmm0,%xmm0
@@ -19630,7 +19639,7 @@ _sk_load_a8_hsw:
.byte 196,129,121,110,12,24 // vmovd (%r8,%r11,1),%xmm1
.byte 196,226,121,48,201 // vpmovzxbw %xmm1,%xmm1
.byte 196,227,113,2,192,12 // vpblendd $0xc,%xmm0,%xmm1,%xmm0
- .byte 233,60,255,255,255 // jmpq a820 <_sk_load_a8_hsw+0x1e>
+ .byte 233,60,255,255,255 // jmpq a82c <_sk_load_a8_hsw+0x1e>
.byte 146 // xchg %eax,%edx
.byte 255 // (bad)
.byte 255 // (bad)
@@ -19662,12 +19671,12 @@ _sk_load_a8_dst_hsw:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,52 // jne a94c <_sk_load_a8_dst_hsw+0x4c>
+ .byte 117,52 // jne a958 <_sk_load_a8_dst_hsw+0x4c>
.byte 196,130,121,48,36,24 // vpmovzxbw (%r8,%r11,1),%xmm4
- .byte 197,217,219,37,58,130,2,0 // vpand 0x2823a(%rip),%xmm4,%xmm4 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xa20>
+ .byte 197,217,219,37,94,130,2,0 // vpand 0x2825e(%rip),%xmm4,%xmm4 # 32b90 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
.byte 196,226,125,51,228 // vpmovzxwd %xmm4,%ymm4
.byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
- .byte 196,226,125,24,45,4,129,2,0 // vbroadcastss 0x28104(%rip),%ymm5 # 32a3c <_sk_srcover_rgba_8888_sse2_lowp+0x8fc>
+ .byte 196,226,125,24,45,28,129,2,0 // vbroadcastss 0x2811c(%rip),%ymm5 # 32a60 <_sk_srcover_rgba_8888_sse2_lowp+0x904>
.byte 197,220,89,253 // vmulps %ymm5,%ymm4,%ymm7
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,220,87,228 // vxorps %ymm4,%ymm4,%ymm4
@@ -19679,15 +19688,15 @@ _sk_load_a8_dst_hsw:
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,190 // ja a91e <_sk_load_a8_dst_hsw+0x1e>
+ .byte 119,190 // ja a92a <_sk_load_a8_dst_hsw+0x1e>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,121,0,0,0 // lea 0x79(%rip),%r10 # a9e4 <_sk_load_a8_dst_hsw+0xe4>
+ .byte 76,141,21,121,0,0,0 // lea 0x79(%rip),%r10 # a9f0 <_sk_load_a8_dst_hsw+0xe4>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 67,15,182,4,24 // movzbl (%r8,%r11,1),%eax
.byte 197,249,110,224 // vmovd %eax,%xmm4
- .byte 235,159 // jmp a91e <_sk_load_a8_dst_hsw+0x1e>
+ .byte 235,159 // jmp a92a <_sk_load_a8_dst_hsw+0x1e>
.byte 67,15,182,68,24,2 // movzbl 0x2(%r8,%r11,1),%eax
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 197,217,196,224,2 // vpinsrw $0x2,%eax,%xmm4,%xmm4
@@ -19695,7 +19704,7 @@ _sk_load_a8_dst_hsw:
.byte 197,249,110,232 // vmovd %eax,%xmm5
.byte 196,226,121,48,237 // vpmovzxbw %xmm5,%xmm5
.byte 196,227,89,2,229,1 // vpblendd $0x1,%xmm5,%xmm4,%xmm4
- .byte 233,119,255,255,255 // jmpq a91e <_sk_load_a8_dst_hsw+0x1e>
+ .byte 233,119,255,255,255 // jmpq a92a <_sk_load_a8_dst_hsw+0x1e>
.byte 67,15,182,68,24,6 // movzbl 0x6(%r8,%r11,1),%eax
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 197,217,196,224,6 // vpinsrw $0x6,%eax,%xmm4,%xmm4
@@ -19706,7 +19715,7 @@ _sk_load_a8_dst_hsw:
.byte 196,129,121,110,44,24 // vmovd (%r8,%r11,1),%xmm5
.byte 196,226,121,48,237 // vpmovzxbw %xmm5,%xmm5
.byte 196,227,81,2,228,12 // vpblendd $0xc,%xmm4,%xmm5,%xmm4
- .byte 233,60,255,255,255 // jmpq a91e <_sk_load_a8_dst_hsw+0x1e>
+ .byte 233,60,255,255,255 // jmpq a92a <_sk_load_a8_dst_hsw+0x1e>
.byte 102,144 // xchg %ax,%ax
.byte 144 // nop
.byte 255 // (bad)
@@ -19715,7 +19724,7 @@ _sk_load_a8_dst_hsw:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 232,255,255,255,221 // callq ffffffffde00a9f4 <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffddfd88b4>
+ .byte 232,255,255,255,221 // callq ffffffffde00aa00 <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffddfd88a4>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,210 // callq *%rdx
@@ -19782,7 +19791,7 @@ _sk_gather_a8_hsw:
.byte 196,227,121,32,192,7 // vpinsrb $0x7,%eax,%xmm0,%xmm0
.byte 196,226,125,49,192 // vpmovzxbd %xmm0,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,13,75,127,2,0 // vbroadcastss 0x27f4b(%rip),%ymm1 # 32a3c <_sk_srcover_rgba_8888_sse2_lowp+0x8fc>
+ .byte 196,226,125,24,13,99,127,2,0 // vbroadcastss 0x27f63(%rip),%ymm1 # 32a60 <_sk_srcover_rgba_8888_sse2_lowp+0x904>
.byte 197,252,89,217 // vmulps %ymm1,%ymm0,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
@@ -19804,14 +19813,14 @@ _sk_store_a8_hsw:
.byte 77,15,175,193 // imul %r9,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
- .byte 196,98,125,24,5,204,126,2,0 // vbroadcastss 0x27ecc(%rip),%ymm8 # 329f4 <_sk_srcover_rgba_8888_sse2_lowp+0x8b4>
+ .byte 196,98,125,24,5,224,126,2,0 // vbroadcastss 0x27ee0(%rip),%ymm8 # 32a14 <_sk_srcover_rgba_8888_sse2_lowp+0x8b8>
.byte 196,65,100,89,192 // vmulps %ymm8,%ymm3,%ymm8
.byte 196,65,125,91,192 // vcvtps2dq %ymm8,%ymm8
.byte 196,67,125,25,193,1 // vextractf128 $0x1,%ymm8,%xmm9
.byte 196,66,57,43,193 // vpackusdw %xmm9,%xmm8,%xmm8
.byte 197,57,103,192 // vpackuswb %xmm0,%xmm8,%xmm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,10 // jne ab50 <_sk_store_a8_hsw+0x44>
+ .byte 117,10 // jne ab5c <_sk_store_a8_hsw+0x44>
.byte 196,1,121,214,4,24 // vmovq %xmm8,(%r8,%r11,1)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -19819,25 +19828,25 @@ _sk_store_a8_hsw:
.byte 65,128,225,7 // and $0x7,%r9b
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,236 // ja ab4c <_sk_store_a8_hsw+0x40>
+ .byte 119,236 // ja ab58 <_sk_store_a8_hsw+0x40>
.byte 196,66,121,48,192 // vpmovzxbw %xmm8,%xmm8
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,88,0,0,0 // lea 0x58(%rip),%r10 # abc8 <_sk_store_a8_hsw+0xbc>
+ .byte 76,141,21,88,0,0,0 // lea 0x58(%rip),%r10 # abd4 <_sk_store_a8_hsw+0xbc>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 196,3,121,20,4,24,0 // vpextrb $0x0,%xmm8,(%r8,%r11,1)
- .byte 235,202 // jmp ab4c <_sk_store_a8_hsw+0x40>
+ .byte 235,202 // jmp ab58 <_sk_store_a8_hsw+0x40>
.byte 196,3,121,20,68,24,2,4 // vpextrb $0x4,%xmm8,0x2(%r8,%r11,1)
- .byte 196,98,57,0,5,221,127,2,0 // vpshufb 0x27fdd(%rip),%xmm8,%xmm8 # 32b70 <_sk_srcover_rgba_8888_sse2_lowp+0xa30>
+ .byte 196,98,57,0,5,1,128,2,0 // vpshufb 0x28001(%rip),%xmm8,%xmm8 # 32ba0 <_sk_srcover_rgba_8888_sse2_lowp+0xa44>
.byte 196,3,121,21,4,24,0 // vpextrw $0x0,%xmm8,(%r8,%r11,1)
- .byte 235,176 // jmp ab4c <_sk_store_a8_hsw+0x40>
+ .byte 235,176 // jmp ab58 <_sk_store_a8_hsw+0x40>
.byte 196,3,121,20,68,24,6,12 // vpextrb $0xc,%xmm8,0x6(%r8,%r11,1)
.byte 196,3,121,20,68,24,5,10 // vpextrb $0xa,%xmm8,0x5(%r8,%r11,1)
.byte 196,3,121,20,68,24,4,8 // vpextrb $0x8,%xmm8,0x4(%r8,%r11,1)
- .byte 196,98,57,0,5,195,127,2,0 // vpshufb 0x27fc3(%rip),%xmm8,%xmm8 # 32b80 <_sk_srcover_rgba_8888_sse2_lowp+0xa40>
+ .byte 196,98,57,0,5,231,127,2,0 // vpshufb 0x27fe7(%rip),%xmm8,%xmm8 # 32bb0 <_sk_srcover_rgba_8888_sse2_lowp+0xa54>
.byte 196,1,121,126,4,24 // vmovd %xmm8,(%r8,%r11,1)
- .byte 235,135 // jmp ab4c <_sk_store_a8_hsw+0x40>
+ .byte 235,135 // jmp ab58 <_sk_store_a8_hsw+0x40>
.byte 15,31,0 // nopl (%rax)
.byte 177,255 // mov $0xff,%cl
.byte 255 // (bad)
@@ -19870,15 +19879,15 @@ _sk_load_g8_hsw:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,57 // jne ac35 <_sk_load_g8_hsw+0x51>
+ .byte 117,57 // jne ac41 <_sk_load_g8_hsw+0x51>
.byte 196,130,121,48,4,24 // vpmovzxbw (%r8,%r11,1),%xmm0
- .byte 197,249,219,5,86,127,2,0 // vpand 0x27f56(%rip),%xmm0,%xmm0 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xa20>
+ .byte 197,249,219,5,122,127,2,0 // vpand 0x27f7a(%rip),%xmm0,%xmm0 # 32b90 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
.byte 196,226,125,51,192 // vpmovzxwd %xmm0,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,13,32,126,2,0 // vbroadcastss 0x27e20(%rip),%ymm1 # 32a3c <_sk_srcover_rgba_8888_sse2_lowp+0x8fc>
+ .byte 196,226,125,24,13,56,126,2,0 // vbroadcastss 0x27e38(%rip),%ymm1 # 32a60 <_sk_srcover_rgba_8888_sse2_lowp+0x904>
.byte 197,252,89,193 // vmulps %ymm1,%ymm0,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,157,125,2,0 // vbroadcastss 0x27d9d(%rip),%ymm3 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 196,226,125,24,29,177,125,2,0 // vbroadcastss 0x27db1(%rip),%ymm3 # 329e8 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 197,252,40,200 // vmovaps %ymm0,%ymm1
.byte 197,252,40,208 // vmovaps %ymm0,%ymm2
.byte 255,224 // jmpq *%rax
@@ -19887,15 +19896,15 @@ _sk_load_g8_hsw:
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,185 // ja ac02 <_sk_load_g8_hsw+0x1e>
+ .byte 119,185 // ja ac0e <_sk_load_g8_hsw+0x1e>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,120,0,0,0 // lea 0x78(%rip),%r10 # accc <_sk_load_g8_hsw+0xe8>
+ .byte 76,141,21,120,0,0,0 // lea 0x78(%rip),%r10 # acd8 <_sk_load_g8_hsw+0xe8>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 67,15,182,4,24 // movzbl (%r8,%r11,1),%eax
.byte 197,249,110,192 // vmovd %eax,%xmm0
- .byte 235,154 // jmp ac02 <_sk_load_g8_hsw+0x1e>
+ .byte 235,154 // jmp ac0e <_sk_load_g8_hsw+0x1e>
.byte 67,15,182,68,24,2 // movzbl 0x2(%r8,%r11,1),%eax
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,249,196,192,2 // vpinsrw $0x2,%eax,%xmm0,%xmm0
@@ -19903,7 +19912,7 @@ _sk_load_g8_hsw:
.byte 197,249,110,200 // vmovd %eax,%xmm1
.byte 196,226,121,48,201 // vpmovzxbw %xmm1,%xmm1
.byte 196,227,121,2,193,1 // vpblendd $0x1,%xmm1,%xmm0,%xmm0
- .byte 233,114,255,255,255 // jmpq ac02 <_sk_load_g8_hsw+0x1e>
+ .byte 233,114,255,255,255 // jmpq ac0e <_sk_load_g8_hsw+0x1e>
.byte 67,15,182,68,24,6 // movzbl 0x6(%r8,%r11,1),%eax
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,249,196,192,6 // vpinsrw $0x6,%eax,%xmm0,%xmm0
@@ -19914,7 +19923,7 @@ _sk_load_g8_hsw:
.byte 196,129,121,110,12,24 // vmovd (%r8,%r11,1),%xmm1
.byte 196,226,121,48,201 // vpmovzxbw %xmm1,%xmm1
.byte 196,227,113,2,192,12 // vpblendd $0xc,%xmm0,%xmm1,%xmm0
- .byte 233,55,255,255,255 // jmpq ac02 <_sk_load_g8_hsw+0x1e>
+ .byte 233,55,255,255,255 // jmpq ac0e <_sk_load_g8_hsw+0x1e>
.byte 144 // nop
.byte 145 // xchg %eax,%ecx
.byte 255 // (bad)
@@ -19923,7 +19932,7 @@ _sk_load_g8_hsw:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 233,255,255,255,222 // jmpq ffffffffdf00acdc <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffdefd8b9c>
+ .byte 233,255,255,255,222 // jmpq ffffffffdf00ace8 <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffdefd8b8c>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,211 // callq *%rbx
@@ -19945,15 +19954,15 @@ _sk_load_g8_dst_hsw:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,57 // jne ad39 <_sk_load_g8_dst_hsw+0x51>
+ .byte 117,57 // jne ad45 <_sk_load_g8_dst_hsw+0x51>
.byte 196,130,121,48,36,24 // vpmovzxbw (%r8,%r11,1),%xmm4
- .byte 197,217,219,37,82,126,2,0 // vpand 0x27e52(%rip),%xmm4,%xmm4 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xa20>
+ .byte 197,217,219,37,118,126,2,0 // vpand 0x27e76(%rip),%xmm4,%xmm4 # 32b90 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
.byte 196,226,125,51,228 // vpmovzxwd %xmm4,%ymm4
.byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
- .byte 196,226,125,24,45,28,125,2,0 // vbroadcastss 0x27d1c(%rip),%ymm5 # 32a3c <_sk_srcover_rgba_8888_sse2_lowp+0x8fc>
+ .byte 196,226,125,24,45,52,125,2,0 // vbroadcastss 0x27d34(%rip),%ymm5 # 32a60 <_sk_srcover_rgba_8888_sse2_lowp+0x904>
.byte 197,220,89,229 // vmulps %ymm5,%ymm4,%ymm4
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,61,153,124,2,0 // vbroadcastss 0x27c99(%rip),%ymm7 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 196,226,125,24,61,173,124,2,0 // vbroadcastss 0x27cad(%rip),%ymm7 # 329e8 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 197,252,40,236 // vmovaps %ymm4,%ymm5
.byte 197,252,40,244 // vmovaps %ymm4,%ymm6
.byte 255,224 // jmpq *%rax
@@ -19962,15 +19971,15 @@ _sk_load_g8_dst_hsw:
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,185 // ja ad06 <_sk_load_g8_dst_hsw+0x1e>
+ .byte 119,185 // ja ad12 <_sk_load_g8_dst_hsw+0x1e>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,120,0,0,0 // lea 0x78(%rip),%r10 # add0 <_sk_load_g8_dst_hsw+0xe8>
+ .byte 76,141,21,120,0,0,0 // lea 0x78(%rip),%r10 # addc <_sk_load_g8_dst_hsw+0xe8>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 67,15,182,4,24 // movzbl (%r8,%r11,1),%eax
.byte 197,249,110,224 // vmovd %eax,%xmm4
- .byte 235,154 // jmp ad06 <_sk_load_g8_dst_hsw+0x1e>
+ .byte 235,154 // jmp ad12 <_sk_load_g8_dst_hsw+0x1e>
.byte 67,15,182,68,24,2 // movzbl 0x2(%r8,%r11,1),%eax
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 197,217,196,224,2 // vpinsrw $0x2,%eax,%xmm4,%xmm4
@@ -19978,7 +19987,7 @@ _sk_load_g8_dst_hsw:
.byte 197,249,110,232 // vmovd %eax,%xmm5
.byte 196,226,121,48,237 // vpmovzxbw %xmm5,%xmm5
.byte 196,227,89,2,229,1 // vpblendd $0x1,%xmm5,%xmm4,%xmm4
- .byte 233,114,255,255,255 // jmpq ad06 <_sk_load_g8_dst_hsw+0x1e>
+ .byte 233,114,255,255,255 // jmpq ad12 <_sk_load_g8_dst_hsw+0x1e>
.byte 67,15,182,68,24,6 // movzbl 0x6(%r8,%r11,1),%eax
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 197,217,196,224,6 // vpinsrw $0x6,%eax,%xmm4,%xmm4
@@ -19989,7 +19998,7 @@ _sk_load_g8_dst_hsw:
.byte 196,129,121,110,44,24 // vmovd (%r8,%r11,1),%xmm5
.byte 196,226,121,48,237 // vpmovzxbw %xmm5,%xmm5
.byte 196,227,81,2,228,12 // vpblendd $0xc,%xmm4,%xmm5,%xmm4
- .byte 233,55,255,255,255 // jmpq ad06 <_sk_load_g8_dst_hsw+0x1e>
+ .byte 233,55,255,255,255 // jmpq ad12 <_sk_load_g8_dst_hsw+0x1e>
.byte 144 // nop
.byte 145 // xchg %eax,%ecx
.byte 255 // (bad)
@@ -19998,7 +20007,7 @@ _sk_load_g8_dst_hsw:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 233,255,255,255,222 // jmpq ffffffffdf00ade0 <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffdefd8ca0>
+ .byte 233,255,255,255,222 // jmpq ffffffffdf00adec <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffdefd8c90>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,211 // callq *%rbx
@@ -20065,10 +20074,10 @@ _sk_gather_g8_hsw:
.byte 196,227,121,32,192,7 // vpinsrb $0x7,%eax,%xmm0,%xmm0
.byte 196,226,125,49,192 // vpmovzxbd %xmm0,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,13,95,123,2,0 // vbroadcastss 0x27b5f(%rip),%ymm1 # 32a3c <_sk_srcover_rgba_8888_sse2_lowp+0x8fc>
+ .byte 196,226,125,24,13,119,123,2,0 // vbroadcastss 0x27b77(%rip),%ymm1 # 32a60 <_sk_srcover_rgba_8888_sse2_lowp+0x904>
.byte 197,252,89,193 // vmulps %ymm1,%ymm0,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,220,122,2,0 // vbroadcastss 0x27adc(%rip),%ymm3 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 196,226,125,24,29,240,122,2,0 // vbroadcastss 0x27af0(%rip),%ymm3 # 329e8 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 197,252,40,200 // vmovaps %ymm0,%ymm1
.byte 197,252,40,208 // vmovaps %ymm0,%ymm2
.byte 91 // pop %rbx
@@ -20089,53 +20098,53 @@ _sk_load_565_hsw:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,114 // jne af8a <_sk_load_565_hsw+0x8d>
+ .byte 117,114 // jne af96 <_sk_load_565_hsw+0x8d>
.byte 196,129,122,111,4,88 // vmovdqu (%r8,%r11,2),%xmm0
.byte 196,226,125,51,208 // vpmovzxwd %xmm0,%ymm2
- .byte 196,226,125,88,5,20,123,2,0 // vpbroadcastd 0x27b14(%rip),%ymm0 # 32a40 <_sk_srcover_rgba_8888_sse2_lowp+0x900>
+ .byte 196,226,125,88,5,44,123,2,0 // vpbroadcastd 0x27b2c(%rip),%ymm0 # 32a64 <_sk_srcover_rgba_8888_sse2_lowp+0x908>
.byte 197,237,219,192 // vpand %ymm0,%ymm2,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,13,7,123,2,0 // vbroadcastss 0x27b07(%rip),%ymm1 # 32a44 <_sk_srcover_rgba_8888_sse2_lowp+0x904>
+ .byte 196,226,125,24,13,31,123,2,0 // vbroadcastss 0x27b1f(%rip),%ymm1 # 32a68 <_sk_srcover_rgba_8888_sse2_lowp+0x90c>
.byte 197,252,89,193 // vmulps %ymm1,%ymm0,%ymm0
- .byte 196,226,125,88,13,254,122,2,0 // vpbroadcastd 0x27afe(%rip),%ymm1 # 32a48 <_sk_srcover_rgba_8888_sse2_lowp+0x908>
+ .byte 196,226,125,88,13,22,123,2,0 // vpbroadcastd 0x27b16(%rip),%ymm1 # 32a6c <_sk_srcover_rgba_8888_sse2_lowp+0x910>
.byte 197,237,219,201 // vpand %ymm1,%ymm2,%ymm1
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
- .byte 196,226,125,24,29,241,122,2,0 // vbroadcastss 0x27af1(%rip),%ymm3 # 32a4c <_sk_srcover_rgba_8888_sse2_lowp+0x90c>
+ .byte 196,226,125,24,29,9,123,2,0 // vbroadcastss 0x27b09(%rip),%ymm3 # 32a70 <_sk_srcover_rgba_8888_sse2_lowp+0x914>
.byte 197,244,89,203 // vmulps %ymm3,%ymm1,%ymm1
- .byte 196,226,125,88,29,232,122,2,0 // vpbroadcastd 0x27ae8(%rip),%ymm3 # 32a50 <_sk_srcover_rgba_8888_sse2_lowp+0x910>
+ .byte 196,226,125,88,29,0,123,2,0 // vpbroadcastd 0x27b00(%rip),%ymm3 # 32a74 <_sk_srcover_rgba_8888_sse2_lowp+0x918>
.byte 197,237,219,211 // vpand %ymm3,%ymm2,%ymm2
.byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
- .byte 196,226,125,24,29,219,122,2,0 // vbroadcastss 0x27adb(%rip),%ymm3 # 32a54 <_sk_srcover_rgba_8888_sse2_lowp+0x914>
+ .byte 196,226,125,24,29,243,122,2,0 // vbroadcastss 0x27af3(%rip),%ymm3 # 32a78 <_sk_srcover_rgba_8888_sse2_lowp+0x91c>
.byte 197,236,89,211 // vmulps %ymm3,%ymm2,%ymm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,64,122,2,0 // vbroadcastss 0x27a40(%rip),%ymm3 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 196,226,125,24,29,84,122,2,0 // vbroadcastss 0x27a54(%rip),%ymm3 # 329e8 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 255,224 // jmpq *%rax
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,7 // and $0x7,%r9b
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,128 // ja af1e <_sk_load_565_hsw+0x21>
+ .byte 119,128 // ja af2a <_sk_load_565_hsw+0x21>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,99,0,0,0 // lea 0x63(%rip),%r10 # b00c <_sk_load_565_hsw+0x10f>
+ .byte 76,141,21,99,0,0,0 // lea 0x63(%rip),%r10 # b018 <_sk_load_565_hsw+0x10f>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 67,15,183,4,88 // movzwl (%r8,%r11,2),%eax
.byte 197,249,110,192 // vmovd %eax,%xmm0
- .byte 233,94,255,255,255 // jmpq af1e <_sk_load_565_hsw+0x21>
+ .byte 233,94,255,255,255 // jmpq af2a <_sk_load_565_hsw+0x21>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 196,129,121,196,68,88,4,2 // vpinsrw $0x2,0x4(%r8,%r11,2),%xmm0,%xmm0
.byte 196,129,121,110,12,88 // vmovd (%r8,%r11,2),%xmm1
.byte 196,227,121,2,193,1 // vpblendd $0x1,%xmm1,%xmm0,%xmm0
- .byte 233,65,255,255,255 // jmpq af1e <_sk_load_565_hsw+0x21>
+ .byte 233,65,255,255,255 // jmpq af2a <_sk_load_565_hsw+0x21>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 196,129,121,196,68,88,12,6 // vpinsrw $0x6,0xc(%r8,%r11,2),%xmm0,%xmm0
.byte 196,129,121,196,68,88,10,5 // vpinsrw $0x5,0xa(%r8,%r11,2),%xmm0,%xmm0
.byte 196,129,121,196,68,88,8,4 // vpinsrw $0x4,0x8(%r8,%r11,2),%xmm0,%xmm0
.byte 196,129,122,126,12,88 // vmovq (%r8,%r11,2),%xmm1
.byte 196,227,113,2,192,12 // vpblendd $0xc,%xmm0,%xmm1,%xmm0
- .byte 233,20,255,255,255 // jmpq af1e <_sk_load_565_hsw+0x21>
+ .byte 233,20,255,255,255 // jmpq af2a <_sk_load_565_hsw+0x21>
.byte 102,144 // xchg %ax,%ax
.byte 166 // cmpsb %es:(%rdi),%ds:(%rsi)
.byte 255 // (bad)
@@ -20168,53 +20177,53 @@ _sk_load_565_dst_hsw:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,114 // jne b0b5 <_sk_load_565_dst_hsw+0x8d>
+ .byte 117,114 // jne b0c1 <_sk_load_565_dst_hsw+0x8d>
.byte 196,129,122,111,36,88 // vmovdqu (%r8,%r11,2),%xmm4
.byte 196,226,125,51,244 // vpmovzxwd %xmm4,%ymm6
- .byte 196,226,125,88,37,233,121,2,0 // vpbroadcastd 0x279e9(%rip),%ymm4 # 32a40 <_sk_srcover_rgba_8888_sse2_lowp+0x900>
+ .byte 196,226,125,88,37,1,122,2,0 // vpbroadcastd 0x27a01(%rip),%ymm4 # 32a64 <_sk_srcover_rgba_8888_sse2_lowp+0x908>
.byte 197,205,219,228 // vpand %ymm4,%ymm6,%ymm4
.byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
- .byte 196,226,125,24,45,220,121,2,0 // vbroadcastss 0x279dc(%rip),%ymm5 # 32a44 <_sk_srcover_rgba_8888_sse2_lowp+0x904>
+ .byte 196,226,125,24,45,244,121,2,0 // vbroadcastss 0x279f4(%rip),%ymm5 # 32a68 <_sk_srcover_rgba_8888_sse2_lowp+0x90c>
.byte 197,220,89,229 // vmulps %ymm5,%ymm4,%ymm4
- .byte 196,226,125,88,45,211,121,2,0 // vpbroadcastd 0x279d3(%rip),%ymm5 # 32a48 <_sk_srcover_rgba_8888_sse2_lowp+0x908>
+ .byte 196,226,125,88,45,235,121,2,0 // vpbroadcastd 0x279eb(%rip),%ymm5 # 32a6c <_sk_srcover_rgba_8888_sse2_lowp+0x910>
.byte 197,205,219,237 // vpand %ymm5,%ymm6,%ymm5
.byte 197,252,91,237 // vcvtdq2ps %ymm5,%ymm5
- .byte 196,226,125,24,61,198,121,2,0 // vbroadcastss 0x279c6(%rip),%ymm7 # 32a4c <_sk_srcover_rgba_8888_sse2_lowp+0x90c>
+ .byte 196,226,125,24,61,222,121,2,0 // vbroadcastss 0x279de(%rip),%ymm7 # 32a70 <_sk_srcover_rgba_8888_sse2_lowp+0x914>
.byte 197,212,89,239 // vmulps %ymm7,%ymm5,%ymm5
- .byte 196,226,125,88,61,189,121,2,0 // vpbroadcastd 0x279bd(%rip),%ymm7 # 32a50 <_sk_srcover_rgba_8888_sse2_lowp+0x910>
+ .byte 196,226,125,88,61,213,121,2,0 // vpbroadcastd 0x279d5(%rip),%ymm7 # 32a74 <_sk_srcover_rgba_8888_sse2_lowp+0x918>
.byte 197,205,219,247 // vpand %ymm7,%ymm6,%ymm6
.byte 197,252,91,246 // vcvtdq2ps %ymm6,%ymm6
- .byte 196,226,125,24,61,176,121,2,0 // vbroadcastss 0x279b0(%rip),%ymm7 # 32a54 <_sk_srcover_rgba_8888_sse2_lowp+0x914>
+ .byte 196,226,125,24,61,200,121,2,0 // vbroadcastss 0x279c8(%rip),%ymm7 # 32a78 <_sk_srcover_rgba_8888_sse2_lowp+0x91c>
.byte 197,204,89,247 // vmulps %ymm7,%ymm6,%ymm6
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,61,21,121,2,0 // vbroadcastss 0x27915(%rip),%ymm7 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 196,226,125,24,61,41,121,2,0 // vbroadcastss 0x27929(%rip),%ymm7 # 329e8 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 255,224 // jmpq *%rax
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,7 // and $0x7,%r9b
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,128 // ja b049 <_sk_load_565_dst_hsw+0x21>
+ .byte 119,128 // ja b055 <_sk_load_565_dst_hsw+0x21>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,100,0,0,0 // lea 0x64(%rip),%r10 # b138 <_sk_load_565_dst_hsw+0x110>
+ .byte 76,141,21,100,0,0,0 // lea 0x64(%rip),%r10 # b144 <_sk_load_565_dst_hsw+0x110>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 67,15,183,4,88 // movzwl (%r8,%r11,2),%eax
.byte 197,249,110,224 // vmovd %eax,%xmm4
- .byte 233,94,255,255,255 // jmpq b049 <_sk_load_565_dst_hsw+0x21>
+ .byte 233,94,255,255,255 // jmpq b055 <_sk_load_565_dst_hsw+0x21>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,129,89,196,100,88,4,2 // vpinsrw $0x2,0x4(%r8,%r11,2),%xmm4,%xmm4
.byte 196,129,121,110,44,88 // vmovd (%r8,%r11,2),%xmm5
.byte 196,227,89,2,229,1 // vpblendd $0x1,%xmm5,%xmm4,%xmm4
- .byte 233,65,255,255,255 // jmpq b049 <_sk_load_565_dst_hsw+0x21>
+ .byte 233,65,255,255,255 // jmpq b055 <_sk_load_565_dst_hsw+0x21>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,129,89,196,100,88,12,6 // vpinsrw $0x6,0xc(%r8,%r11,2),%xmm4,%xmm4
.byte 196,129,89,196,100,88,10,5 // vpinsrw $0x5,0xa(%r8,%r11,2),%xmm4,%xmm4
.byte 196,129,89,196,100,88,8,4 // vpinsrw $0x4,0x8(%r8,%r11,2),%xmm4,%xmm4
.byte 196,129,122,126,44,88 // vmovq (%r8,%r11,2),%xmm5
.byte 196,227,81,2,228,12 // vpblendd $0xc,%xmm4,%xmm5,%xmm4
- .byte 233,20,255,255,255 // jmpq b049 <_sk_load_565_dst_hsw+0x21>
+ .byte 233,20,255,255,255 // jmpq b055 <_sk_load_565_dst_hsw+0x21>
.byte 15,31,0 // nopl (%rax)
.byte 165 // movsl %ds:(%rsi),%es:(%rdi)
.byte 255 // (bad)
@@ -20293,23 +20302,23 @@ _sk_gather_565_hsw:
.byte 65,15,183,4,88 // movzwl (%r8,%rbx,2),%eax
.byte 197,249,196,192,7 // vpinsrw $0x7,%eax,%xmm0,%xmm0
.byte 196,226,125,51,208 // vpmovzxwd %xmm0,%ymm2
- .byte 196,226,125,88,5,4,120,2,0 // vpbroadcastd 0x27804(%rip),%ymm0 # 32a40 <_sk_srcover_rgba_8888_sse2_lowp+0x900>
+ .byte 196,226,125,88,5,28,120,2,0 // vpbroadcastd 0x2781c(%rip),%ymm0 # 32a64 <_sk_srcover_rgba_8888_sse2_lowp+0x908>
.byte 197,237,219,192 // vpand %ymm0,%ymm2,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,13,247,119,2,0 // vbroadcastss 0x277f7(%rip),%ymm1 # 32a44 <_sk_srcover_rgba_8888_sse2_lowp+0x904>
+ .byte 196,226,125,24,13,15,120,2,0 // vbroadcastss 0x2780f(%rip),%ymm1 # 32a68 <_sk_srcover_rgba_8888_sse2_lowp+0x90c>
.byte 197,252,89,193 // vmulps %ymm1,%ymm0,%ymm0
- .byte 196,226,125,88,13,238,119,2,0 // vpbroadcastd 0x277ee(%rip),%ymm1 # 32a48 <_sk_srcover_rgba_8888_sse2_lowp+0x908>
+ .byte 196,226,125,88,13,6,120,2,0 // vpbroadcastd 0x27806(%rip),%ymm1 # 32a6c <_sk_srcover_rgba_8888_sse2_lowp+0x910>
.byte 197,237,219,201 // vpand %ymm1,%ymm2,%ymm1
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
- .byte 196,226,125,24,29,225,119,2,0 // vbroadcastss 0x277e1(%rip),%ymm3 # 32a4c <_sk_srcover_rgba_8888_sse2_lowp+0x90c>
+ .byte 196,226,125,24,29,249,119,2,0 // vbroadcastss 0x277f9(%rip),%ymm3 # 32a70 <_sk_srcover_rgba_8888_sse2_lowp+0x914>
.byte 197,244,89,203 // vmulps %ymm3,%ymm1,%ymm1
- .byte 196,226,125,88,29,216,119,2,0 // vpbroadcastd 0x277d8(%rip),%ymm3 # 32a50 <_sk_srcover_rgba_8888_sse2_lowp+0x910>
+ .byte 196,226,125,88,29,240,119,2,0 // vpbroadcastd 0x277f0(%rip),%ymm3 # 32a74 <_sk_srcover_rgba_8888_sse2_lowp+0x918>
.byte 197,237,219,211 // vpand %ymm3,%ymm2,%ymm2
.byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
- .byte 196,226,125,24,29,203,119,2,0 // vbroadcastss 0x277cb(%rip),%ymm3 # 32a54 <_sk_srcover_rgba_8888_sse2_lowp+0x914>
+ .byte 196,226,125,24,29,227,119,2,0 // vbroadcastss 0x277e3(%rip),%ymm3 # 32a78 <_sk_srcover_rgba_8888_sse2_lowp+0x91c>
.byte 197,236,89,211 // vmulps %ymm3,%ymm2,%ymm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,48,119,2,0 // vbroadcastss 0x27730(%rip),%ymm3 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 196,226,125,24,29,68,119,2,0 // vbroadcastss 0x27744(%rip),%ymm3 # 329e8 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 91 // pop %rbx
.byte 65,92 // pop %r12
.byte 65,94 // pop %r14
@@ -20327,11 +20336,11 @@ _sk_store_565_hsw:
.byte 77,1,192 // add %r8,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
- .byte 196,98,125,24,5,244,119,2,0 // vbroadcastss 0x277f4(%rip),%ymm8 # 32ab4 <_sk_srcover_rgba_8888_sse2_lowp+0x974>
+ .byte 196,98,125,24,5,12,120,2,0 // vbroadcastss 0x2780c(%rip),%ymm8 # 32ad8 <_sk_srcover_rgba_8888_sse2_lowp+0x97c>
.byte 196,65,124,89,200 // vmulps %ymm8,%ymm0,%ymm9
.byte 196,65,125,91,201 // vcvtps2dq %ymm9,%ymm9
.byte 196,193,53,114,241,11 // vpslld $0xb,%ymm9,%ymm9
- .byte 196,98,125,24,21,223,119,2,0 // vbroadcastss 0x277df(%rip),%ymm10 # 32ab8 <_sk_srcover_rgba_8888_sse2_lowp+0x978>
+ .byte 196,98,125,24,21,247,119,2,0 // vbroadcastss 0x277f7(%rip),%ymm10 # 32adc <_sk_srcover_rgba_8888_sse2_lowp+0x980>
.byte 196,65,116,89,210 // vmulps %ymm10,%ymm1,%ymm10
.byte 196,65,125,91,210 // vcvtps2dq %ymm10,%ymm10
.byte 196,193,45,114,242,5 // vpslld $0x5,%ymm10,%ymm10
@@ -20342,7 +20351,7 @@ _sk_store_565_hsw:
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,66,57,43,193 // vpackusdw %xmm9,%xmm8,%xmm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,10 // jne b317 <_sk_store_565_hsw+0x76>
+ .byte 117,10 // jne b323 <_sk_store_565_hsw+0x76>
.byte 196,1,122,127,4,88 // vmovdqu %xmm8,(%r8,%r11,2)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -20350,22 +20359,22 @@ _sk_store_565_hsw:
.byte 65,128,225,7 // and $0x7,%r9b
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,236 // ja b313 <_sk_store_565_hsw+0x72>
+ .byte 119,236 // ja b31f <_sk_store_565_hsw+0x72>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,66,0,0,0 // lea 0x42(%rip),%r10 # b374 <_sk_store_565_hsw+0xd3>
+ .byte 76,141,21,66,0,0,0 // lea 0x42(%rip),%r10 # b380 <_sk_store_565_hsw+0xd3>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 196,3,121,21,4,88,0 // vpextrw $0x0,%xmm8,(%r8,%r11,2)
- .byte 235,207 // jmp b313 <_sk_store_565_hsw+0x72>
+ .byte 235,207 // jmp b31f <_sk_store_565_hsw+0x72>
.byte 196,3,121,21,68,88,4,2 // vpextrw $0x2,%xmm8,0x4(%r8,%r11,2)
.byte 196,1,121,126,4,88 // vmovd %xmm8,(%r8,%r11,2)
- .byte 235,191 // jmp b313 <_sk_store_565_hsw+0x72>
+ .byte 235,191 // jmp b31f <_sk_store_565_hsw+0x72>
.byte 196,3,121,21,68,88,12,6 // vpextrw $0x6,%xmm8,0xc(%r8,%r11,2)
.byte 196,3,121,21,68,88,10,5 // vpextrw $0x5,%xmm8,0xa(%r8,%r11,2)
.byte 196,3,121,21,68,88,8,4 // vpextrw $0x4,%xmm8,0x8(%r8,%r11,2)
.byte 196,1,121,214,4,88 // vmovq %xmm8,(%r8,%r11,2)
- .byte 235,159 // jmp b313 <_sk_store_565_hsw+0x72>
+ .byte 235,159 // jmp b31f <_sk_store_565_hsw+0x72>
.byte 199 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
@@ -20383,7 +20392,7 @@ _sk_store_565_hsw:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 232,255,255,255,224 // callq ffffffffe100b38c <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffe0fd924c>
+ .byte 232,255,255,255,224 // callq ffffffffe100b398 <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffe0fd923c>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // .byte 0xff
@@ -20400,28 +20409,28 @@ _sk_load_4444_hsw:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,138,0,0,0 // jne b439 <_sk_load_4444_hsw+0xa9>
+ .byte 15,133,138,0,0,0 // jne b445 <_sk_load_4444_hsw+0xa9>
.byte 196,129,122,111,4,88 // vmovdqu (%r8,%r11,2),%xmm0
.byte 196,226,125,51,216 // vpmovzxwd %xmm0,%ymm3
- .byte 196,226,125,88,5,249,118,2,0 // vpbroadcastd 0x276f9(%rip),%ymm0 # 32abc <_sk_srcover_rgba_8888_sse2_lowp+0x97c>
+ .byte 196,226,125,88,5,17,119,2,0 // vpbroadcastd 0x27711(%rip),%ymm0 # 32ae0 <_sk_srcover_rgba_8888_sse2_lowp+0x984>
.byte 197,229,219,192 // vpand %ymm0,%ymm3,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,13,236,118,2,0 // vbroadcastss 0x276ec(%rip),%ymm1 # 32ac0 <_sk_srcover_rgba_8888_sse2_lowp+0x980>
+ .byte 196,226,125,24,13,4,119,2,0 // vbroadcastss 0x27704(%rip),%ymm1 # 32ae4 <_sk_srcover_rgba_8888_sse2_lowp+0x988>
.byte 197,252,89,193 // vmulps %ymm1,%ymm0,%ymm0
- .byte 196,226,125,88,13,227,118,2,0 // vpbroadcastd 0x276e3(%rip),%ymm1 # 32ac4 <_sk_srcover_rgba_8888_sse2_lowp+0x984>
+ .byte 196,226,125,88,13,251,118,2,0 // vpbroadcastd 0x276fb(%rip),%ymm1 # 32ae8 <_sk_srcover_rgba_8888_sse2_lowp+0x98c>
.byte 197,229,219,201 // vpand %ymm1,%ymm3,%ymm1
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
- .byte 196,226,125,24,21,214,118,2,0 // vbroadcastss 0x276d6(%rip),%ymm2 # 32ac8 <_sk_srcover_rgba_8888_sse2_lowp+0x988>
+ .byte 196,226,125,24,21,238,118,2,0 // vbroadcastss 0x276ee(%rip),%ymm2 # 32aec <_sk_srcover_rgba_8888_sse2_lowp+0x990>
.byte 197,244,89,202 // vmulps %ymm2,%ymm1,%ymm1
- .byte 196,226,125,88,21,205,118,2,0 // vpbroadcastd 0x276cd(%rip),%ymm2 # 32acc <_sk_srcover_rgba_8888_sse2_lowp+0x98c>
+ .byte 196,226,125,88,21,229,118,2,0 // vpbroadcastd 0x276e5(%rip),%ymm2 # 32af0 <_sk_srcover_rgba_8888_sse2_lowp+0x994>
.byte 197,229,219,210 // vpand %ymm2,%ymm3,%ymm2
.byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
- .byte 196,98,125,24,5,192,118,2,0 // vbroadcastss 0x276c0(%rip),%ymm8 # 32ad0 <_sk_srcover_rgba_8888_sse2_lowp+0x990>
+ .byte 196,98,125,24,5,216,118,2,0 // vbroadcastss 0x276d8(%rip),%ymm8 # 32af4 <_sk_srcover_rgba_8888_sse2_lowp+0x998>
.byte 196,193,108,89,208 // vmulps %ymm8,%ymm2,%ymm2
- .byte 196,98,125,88,5,182,118,2,0 // vpbroadcastd 0x276b6(%rip),%ymm8 # 32ad4 <_sk_srcover_rgba_8888_sse2_lowp+0x994>
+ .byte 196,98,125,88,5,206,118,2,0 // vpbroadcastd 0x276ce(%rip),%ymm8 # 32af8 <_sk_srcover_rgba_8888_sse2_lowp+0x99c>
.byte 196,193,101,219,216 // vpand %ymm8,%ymm3,%ymm3
.byte 197,252,91,219 // vcvtdq2ps %ymm3,%ymm3
- .byte 196,98,125,24,5,168,118,2,0 // vbroadcastss 0x276a8(%rip),%ymm8 # 32ad8 <_sk_srcover_rgba_8888_sse2_lowp+0x998>
+ .byte 196,98,125,24,5,192,118,2,0 // vbroadcastss 0x276c0(%rip),%ymm8 # 32afc <_sk_srcover_rgba_8888_sse2_lowp+0x9a0>
.byte 196,193,100,89,216 // vmulps %ymm8,%ymm3,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -20430,27 +20439,27 @@ _sk_load_4444_hsw:
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 15,135,100,255,255,255 // ja b3b5 <_sk_load_4444_hsw+0x25>
+ .byte 15,135,100,255,255,255 // ja b3c1 <_sk_load_4444_hsw+0x25>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,100,0,0,0 // lea 0x64(%rip),%r10 # b4c0 <_sk_load_4444_hsw+0x130>
+ .byte 76,141,21,100,0,0,0 // lea 0x64(%rip),%r10 # b4cc <_sk_load_4444_hsw+0x130>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 67,15,183,4,88 // movzwl (%r8,%r11,2),%eax
.byte 197,249,110,192 // vmovd %eax,%xmm0
- .byte 233,66,255,255,255 // jmpq b3b5 <_sk_load_4444_hsw+0x25>
+ .byte 233,66,255,255,255 // jmpq b3c1 <_sk_load_4444_hsw+0x25>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 196,129,121,196,68,88,4,2 // vpinsrw $0x2,0x4(%r8,%r11,2),%xmm0,%xmm0
.byte 196,129,121,110,12,88 // vmovd (%r8,%r11,2),%xmm1
.byte 196,227,121,2,193,1 // vpblendd $0x1,%xmm1,%xmm0,%xmm0
- .byte 233,37,255,255,255 // jmpq b3b5 <_sk_load_4444_hsw+0x25>
+ .byte 233,37,255,255,255 // jmpq b3c1 <_sk_load_4444_hsw+0x25>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 196,129,121,196,68,88,12,6 // vpinsrw $0x6,0xc(%r8,%r11,2),%xmm0,%xmm0
.byte 196,129,121,196,68,88,10,5 // vpinsrw $0x5,0xa(%r8,%r11,2),%xmm0,%xmm0
.byte 196,129,121,196,68,88,8,4 // vpinsrw $0x4,0x8(%r8,%r11,2),%xmm0,%xmm0
.byte 196,129,122,126,12,88 // vmovq (%r8,%r11,2),%xmm1
.byte 196,227,113,2,192,12 // vpblendd $0xc,%xmm0,%xmm1,%xmm0
- .byte 233,248,254,255,255 // jmpq b3b5 <_sk_load_4444_hsw+0x25>
+ .byte 233,248,254,255,255 // jmpq b3c1 <_sk_load_4444_hsw+0x25>
.byte 15,31,0 // nopl (%rax)
.byte 165 // movsl %ds:(%rsi),%es:(%rdi)
.byte 255 // (bad)
@@ -20486,28 +20495,28 @@ _sk_load_4444_dst_hsw:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,138,0,0,0 // jne b585 <_sk_load_4444_dst_hsw+0xa9>
+ .byte 15,133,138,0,0,0 // jne b591 <_sk_load_4444_dst_hsw+0xa9>
.byte 196,129,122,111,36,88 // vmovdqu (%r8,%r11,2),%xmm4
.byte 196,226,125,51,252 // vpmovzxwd %xmm4,%ymm7
- .byte 196,226,125,88,37,173,117,2,0 // vpbroadcastd 0x275ad(%rip),%ymm4 # 32abc <_sk_srcover_rgba_8888_sse2_lowp+0x97c>
+ .byte 196,226,125,88,37,197,117,2,0 // vpbroadcastd 0x275c5(%rip),%ymm4 # 32ae0 <_sk_srcover_rgba_8888_sse2_lowp+0x984>
.byte 197,197,219,228 // vpand %ymm4,%ymm7,%ymm4
.byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
- .byte 196,226,125,24,45,160,117,2,0 // vbroadcastss 0x275a0(%rip),%ymm5 # 32ac0 <_sk_srcover_rgba_8888_sse2_lowp+0x980>
+ .byte 196,226,125,24,45,184,117,2,0 // vbroadcastss 0x275b8(%rip),%ymm5 # 32ae4 <_sk_srcover_rgba_8888_sse2_lowp+0x988>
.byte 197,220,89,229 // vmulps %ymm5,%ymm4,%ymm4
- .byte 196,226,125,88,45,151,117,2,0 // vpbroadcastd 0x27597(%rip),%ymm5 # 32ac4 <_sk_srcover_rgba_8888_sse2_lowp+0x984>
+ .byte 196,226,125,88,45,175,117,2,0 // vpbroadcastd 0x275af(%rip),%ymm5 # 32ae8 <_sk_srcover_rgba_8888_sse2_lowp+0x98c>
.byte 197,197,219,237 // vpand %ymm5,%ymm7,%ymm5
.byte 197,252,91,237 // vcvtdq2ps %ymm5,%ymm5
- .byte 196,226,125,24,53,138,117,2,0 // vbroadcastss 0x2758a(%rip),%ymm6 # 32ac8 <_sk_srcover_rgba_8888_sse2_lowp+0x988>
+ .byte 196,226,125,24,53,162,117,2,0 // vbroadcastss 0x275a2(%rip),%ymm6 # 32aec <_sk_srcover_rgba_8888_sse2_lowp+0x990>
.byte 197,212,89,238 // vmulps %ymm6,%ymm5,%ymm5
- .byte 196,226,125,88,53,129,117,2,0 // vpbroadcastd 0x27581(%rip),%ymm6 # 32acc <_sk_srcover_rgba_8888_sse2_lowp+0x98c>
+ .byte 196,226,125,88,53,153,117,2,0 // vpbroadcastd 0x27599(%rip),%ymm6 # 32af0 <_sk_srcover_rgba_8888_sse2_lowp+0x994>
.byte 197,197,219,246 // vpand %ymm6,%ymm7,%ymm6
.byte 197,252,91,246 // vcvtdq2ps %ymm6,%ymm6
- .byte 196,98,125,24,5,116,117,2,0 // vbroadcastss 0x27574(%rip),%ymm8 # 32ad0 <_sk_srcover_rgba_8888_sse2_lowp+0x990>
+ .byte 196,98,125,24,5,140,117,2,0 // vbroadcastss 0x2758c(%rip),%ymm8 # 32af4 <_sk_srcover_rgba_8888_sse2_lowp+0x998>
.byte 196,193,76,89,240 // vmulps %ymm8,%ymm6,%ymm6
- .byte 196,98,125,88,5,106,117,2,0 // vpbroadcastd 0x2756a(%rip),%ymm8 # 32ad4 <_sk_srcover_rgba_8888_sse2_lowp+0x994>
+ .byte 196,98,125,88,5,130,117,2,0 // vpbroadcastd 0x27582(%rip),%ymm8 # 32af8 <_sk_srcover_rgba_8888_sse2_lowp+0x99c>
.byte 196,193,69,219,248 // vpand %ymm8,%ymm7,%ymm7
.byte 197,252,91,255 // vcvtdq2ps %ymm7,%ymm7
- .byte 196,98,125,24,5,92,117,2,0 // vbroadcastss 0x2755c(%rip),%ymm8 # 32ad8 <_sk_srcover_rgba_8888_sse2_lowp+0x998>
+ .byte 196,98,125,24,5,116,117,2,0 // vbroadcastss 0x27574(%rip),%ymm8 # 32afc <_sk_srcover_rgba_8888_sse2_lowp+0x9a0>
.byte 196,193,68,89,248 // vmulps %ymm8,%ymm7,%ymm7
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -20516,27 +20525,27 @@ _sk_load_4444_dst_hsw:
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 15,135,100,255,255,255 // ja b501 <_sk_load_4444_dst_hsw+0x25>
+ .byte 15,135,100,255,255,255 // ja b50d <_sk_load_4444_dst_hsw+0x25>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,100,0,0,0 // lea 0x64(%rip),%r10 # b60c <_sk_load_4444_dst_hsw+0x130>
+ .byte 76,141,21,100,0,0,0 // lea 0x64(%rip),%r10 # b618 <_sk_load_4444_dst_hsw+0x130>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 67,15,183,4,88 // movzwl (%r8,%r11,2),%eax
.byte 197,249,110,224 // vmovd %eax,%xmm4
- .byte 233,66,255,255,255 // jmpq b501 <_sk_load_4444_dst_hsw+0x25>
+ .byte 233,66,255,255,255 // jmpq b50d <_sk_load_4444_dst_hsw+0x25>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,129,89,196,100,88,4,2 // vpinsrw $0x2,0x4(%r8,%r11,2),%xmm4,%xmm4
.byte 196,129,121,110,44,88 // vmovd (%r8,%r11,2),%xmm5
.byte 196,227,89,2,229,1 // vpblendd $0x1,%xmm5,%xmm4,%xmm4
- .byte 233,37,255,255,255 // jmpq b501 <_sk_load_4444_dst_hsw+0x25>
+ .byte 233,37,255,255,255 // jmpq b50d <_sk_load_4444_dst_hsw+0x25>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,129,89,196,100,88,12,6 // vpinsrw $0x6,0xc(%r8,%r11,2),%xmm4,%xmm4
.byte 196,129,89,196,100,88,10,5 // vpinsrw $0x5,0xa(%r8,%r11,2),%xmm4,%xmm4
.byte 196,129,89,196,100,88,8,4 // vpinsrw $0x4,0x8(%r8,%r11,2),%xmm4,%xmm4
.byte 196,129,122,126,44,88 // vmovq (%r8,%r11,2),%xmm5
.byte 196,227,81,2,228,12 // vpblendd $0xc,%xmm4,%xmm5,%xmm4
- .byte 233,248,254,255,255 // jmpq b501 <_sk_load_4444_dst_hsw+0x25>
+ .byte 233,248,254,255,255 // jmpq b50d <_sk_load_4444_dst_hsw+0x25>
.byte 15,31,0 // nopl (%rax)
.byte 165 // movsl %ds:(%rsi),%es:(%rdi)
.byte 255 // (bad)
@@ -20615,25 +20624,25 @@ _sk_gather_4444_hsw:
.byte 65,15,183,4,88 // movzwl (%r8,%rbx,2),%eax
.byte 197,249,196,192,7 // vpinsrw $0x7,%eax,%xmm0,%xmm0
.byte 196,226,125,51,216 // vpmovzxwd %xmm0,%ymm3
- .byte 196,226,125,88,5,172,115,2,0 // vpbroadcastd 0x273ac(%rip),%ymm0 # 32abc <_sk_srcover_rgba_8888_sse2_lowp+0x97c>
+ .byte 196,226,125,88,5,196,115,2,0 // vpbroadcastd 0x273c4(%rip),%ymm0 # 32ae0 <_sk_srcover_rgba_8888_sse2_lowp+0x984>
.byte 197,229,219,192 // vpand %ymm0,%ymm3,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,13,159,115,2,0 // vbroadcastss 0x2739f(%rip),%ymm1 # 32ac0 <_sk_srcover_rgba_8888_sse2_lowp+0x980>
+ .byte 196,226,125,24,13,183,115,2,0 // vbroadcastss 0x273b7(%rip),%ymm1 # 32ae4 <_sk_srcover_rgba_8888_sse2_lowp+0x988>
.byte 197,252,89,193 // vmulps %ymm1,%ymm0,%ymm0
- .byte 196,226,125,88,13,150,115,2,0 // vpbroadcastd 0x27396(%rip),%ymm1 # 32ac4 <_sk_srcover_rgba_8888_sse2_lowp+0x984>
+ .byte 196,226,125,88,13,174,115,2,0 // vpbroadcastd 0x273ae(%rip),%ymm1 # 32ae8 <_sk_srcover_rgba_8888_sse2_lowp+0x98c>
.byte 197,229,219,201 // vpand %ymm1,%ymm3,%ymm1
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
- .byte 196,226,125,24,21,137,115,2,0 // vbroadcastss 0x27389(%rip),%ymm2 # 32ac8 <_sk_srcover_rgba_8888_sse2_lowp+0x988>
+ .byte 196,226,125,24,21,161,115,2,0 // vbroadcastss 0x273a1(%rip),%ymm2 # 32aec <_sk_srcover_rgba_8888_sse2_lowp+0x990>
.byte 197,244,89,202 // vmulps %ymm2,%ymm1,%ymm1
- .byte 196,226,125,88,21,128,115,2,0 // vpbroadcastd 0x27380(%rip),%ymm2 # 32acc <_sk_srcover_rgba_8888_sse2_lowp+0x98c>
+ .byte 196,226,125,88,21,152,115,2,0 // vpbroadcastd 0x27398(%rip),%ymm2 # 32af0 <_sk_srcover_rgba_8888_sse2_lowp+0x994>
.byte 197,229,219,210 // vpand %ymm2,%ymm3,%ymm2
.byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
- .byte 196,98,125,24,5,115,115,2,0 // vbroadcastss 0x27373(%rip),%ymm8 # 32ad0 <_sk_srcover_rgba_8888_sse2_lowp+0x990>
+ .byte 196,98,125,24,5,139,115,2,0 // vbroadcastss 0x2738b(%rip),%ymm8 # 32af4 <_sk_srcover_rgba_8888_sse2_lowp+0x998>
.byte 196,193,108,89,208 // vmulps %ymm8,%ymm2,%ymm2
- .byte 196,98,125,88,5,105,115,2,0 // vpbroadcastd 0x27369(%rip),%ymm8 # 32ad4 <_sk_srcover_rgba_8888_sse2_lowp+0x994>
+ .byte 196,98,125,88,5,129,115,2,0 // vpbroadcastd 0x27381(%rip),%ymm8 # 32af8 <_sk_srcover_rgba_8888_sse2_lowp+0x99c>
.byte 196,193,101,219,216 // vpand %ymm8,%ymm3,%ymm3
.byte 197,252,91,219 // vcvtdq2ps %ymm3,%ymm3
- .byte 196,98,125,24,5,91,115,2,0 // vbroadcastss 0x2735b(%rip),%ymm8 # 32ad8 <_sk_srcover_rgba_8888_sse2_lowp+0x998>
+ .byte 196,98,125,24,5,115,115,2,0 // vbroadcastss 0x27373(%rip),%ymm8 # 32afc <_sk_srcover_rgba_8888_sse2_lowp+0x9a0>
.byte 196,193,100,89,216 // vmulps %ymm8,%ymm3,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 91 // pop %rbx
@@ -20653,7 +20662,7 @@ _sk_store_4444_hsw:
.byte 77,1,192 // add %r8,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
- .byte 196,98,125,24,5,48,115,2,0 // vbroadcastss 0x27330(%rip),%ymm8 # 32adc <_sk_srcover_rgba_8888_sse2_lowp+0x99c>
+ .byte 196,98,125,24,5,72,115,2,0 // vbroadcastss 0x27348(%rip),%ymm8 # 32b00 <_sk_srcover_rgba_8888_sse2_lowp+0x9a4>
.byte 196,65,124,89,200 // vmulps %ymm8,%ymm0,%ymm9
.byte 196,65,125,91,201 // vcvtps2dq %ymm9,%ymm9
.byte 196,193,53,114,241,12 // vpslld $0xc,%ymm9,%ymm9
@@ -20671,7 +20680,7 @@ _sk_store_4444_hsw:
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,66,57,43,193 // vpackusdw %xmm9,%xmm8,%xmm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,10 // jne b80f <_sk_store_4444_hsw+0x82>
+ .byte 117,10 // jne b81b <_sk_store_4444_hsw+0x82>
.byte 196,1,122,127,4,88 // vmovdqu %xmm8,(%r8,%r11,2)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -20679,22 +20688,22 @@ _sk_store_4444_hsw:
.byte 65,128,225,7 // and $0x7,%r9b
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,236 // ja b80b <_sk_store_4444_hsw+0x7e>
+ .byte 119,236 // ja b817 <_sk_store_4444_hsw+0x7e>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,66,0,0,0 // lea 0x42(%rip),%r10 # b86c <_sk_store_4444_hsw+0xdf>
+ .byte 76,141,21,66,0,0,0 // lea 0x42(%rip),%r10 # b878 <_sk_store_4444_hsw+0xdf>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 196,3,121,21,4,88,0 // vpextrw $0x0,%xmm8,(%r8,%r11,2)
- .byte 235,207 // jmp b80b <_sk_store_4444_hsw+0x7e>
+ .byte 235,207 // jmp b817 <_sk_store_4444_hsw+0x7e>
.byte 196,3,121,21,68,88,4,2 // vpextrw $0x2,%xmm8,0x4(%r8,%r11,2)
.byte 196,1,121,126,4,88 // vmovd %xmm8,(%r8,%r11,2)
- .byte 235,191 // jmp b80b <_sk_store_4444_hsw+0x7e>
+ .byte 235,191 // jmp b817 <_sk_store_4444_hsw+0x7e>
.byte 196,3,121,21,68,88,12,6 // vpextrw $0x6,%xmm8,0xc(%r8,%r11,2)
.byte 196,3,121,21,68,88,10,5 // vpextrw $0x5,%xmm8,0xa(%r8,%r11,2)
.byte 196,3,121,21,68,88,8,4 // vpextrw $0x4,%xmm8,0x8(%r8,%r11,2)
.byte 196,1,121,214,4,88 // vmovq %xmm8,(%r8,%r11,2)
- .byte 235,159 // jmp b80b <_sk_store_4444_hsw+0x7e>
+ .byte 235,159 // jmp b817 <_sk_store_4444_hsw+0x7e>
.byte 199 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
@@ -20712,7 +20721,7 @@ _sk_store_4444_hsw:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 232,255,255,255,224 // callq ffffffffe100b884 <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffe0fd9744>
+ .byte 232,255,255,255,224 // callq ffffffffe100b890 <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffe0fd9734>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // .byte 0xff
@@ -20729,16 +20738,16 @@ _sk_load_8888_hsw:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,86 // jne b8fa <_sk_load_8888_hsw+0x72>
+ .byte 117,86 // jne b906 <_sk_load_8888_hsw+0x72>
.byte 196,129,126,111,28,152 // vmovdqu (%r8,%r11,4),%ymm3
- .byte 197,229,219,5,142,108,2,0 // vpand 0x26c8e(%rip),%ymm3,%ymm0 # 32540 <_sk_srcover_rgba_8888_sse2_lowp+0x400>
+ .byte 197,229,219,5,162,108,2,0 // vpand 0x26ca2(%rip),%ymm3,%ymm0 # 32560 <_sk_srcover_rgba_8888_sse2_lowp+0x404>
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,98,125,24,5,125,113,2,0 // vbroadcastss 0x2717d(%rip),%ymm8 # 32a3c <_sk_srcover_rgba_8888_sse2_lowp+0x8fc>
+ .byte 196,98,125,24,5,149,113,2,0 // vbroadcastss 0x27195(%rip),%ymm8 # 32a60 <_sk_srcover_rgba_8888_sse2_lowp+0x904>
.byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
- .byte 196,226,101,0,13,147,108,2,0 // vpshufb 0x26c93(%rip),%ymm3,%ymm1 # 32560 <_sk_srcover_rgba_8888_sse2_lowp+0x420>
+ .byte 196,226,101,0,13,167,108,2,0 // vpshufb 0x26ca7(%rip),%ymm3,%ymm1 # 32580 <_sk_srcover_rgba_8888_sse2_lowp+0x424>
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
.byte 196,193,116,89,200 // vmulps %ymm8,%ymm1,%ymm1
- .byte 196,226,101,0,21,161,108,2,0 // vpshufb 0x26ca1(%rip),%ymm3,%ymm2 # 32580 <_sk_srcover_rgba_8888_sse2_lowp+0x440>
+ .byte 196,226,101,0,21,181,108,2,0 // vpshufb 0x26cb5(%rip),%ymm3,%ymm2 # 325a0 <_sk_srcover_rgba_8888_sse2_lowp+0x444>
.byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
.byte 196,193,108,89,208 // vmulps %ymm8,%ymm2,%ymm2
.byte 197,229,114,211,24 // vpsrld $0x18,%ymm3,%ymm3
@@ -20751,21 +20760,21 @@ _sk_load_8888_hsw:
.byte 197,229,239,219 // vpxor %ymm3,%ymm3,%ymm3
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,156 // ja b8aa <_sk_load_8888_hsw+0x22>
+ .byte 119,156 // ja b8b6 <_sk_load_8888_hsw+0x22>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,135,0,0,0 // lea 0x87(%rip),%r10 # b9a0 <_sk_load_8888_hsw+0x118>
+ .byte 76,141,21,135,0,0,0 // lea 0x87(%rip),%r10 # b9ac <_sk_load_8888_hsw+0x118>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 196,129,121,110,28,152 // vmovd (%r8,%r11,4),%xmm3
- .byte 235,128 // jmp b8aa <_sk_load_8888_hsw+0x22>
+ .byte 235,128 // jmp b8b6 <_sk_load_8888_hsw+0x22>
.byte 196,129,121,110,68,152,8 // vmovd 0x8(%r8,%r11,4),%xmm0
.byte 196,226,121,89,192 // vpbroadcastq %xmm0,%xmm0
.byte 197,245,239,201 // vpxor %ymm1,%ymm1,%ymm1
.byte 196,227,117,2,216,4 // vpblendd $0x4,%ymm0,%ymm1,%ymm3
.byte 196,129,122,126,4,152 // vmovq (%r8,%r11,4),%xmm0
.byte 196,227,101,2,216,3 // vpblendd $0x3,%ymm0,%ymm3,%ymm3
- .byte 233,89,255,255,255 // jmpq b8aa <_sk_load_8888_hsw+0x22>
+ .byte 233,89,255,255,255 // jmpq b8b6 <_sk_load_8888_hsw+0x22>
.byte 196,129,121,110,68,152,24 // vmovd 0x18(%r8,%r11,4),%xmm0
.byte 196,226,125,89,192 // vpbroadcastq %xmm0,%ymm0
.byte 197,245,239,201 // vpxor %ymm1,%ymm1,%ymm1
@@ -20778,7 +20787,7 @@ _sk_load_8888_hsw:
.byte 196,227,101,56,216,1 // vinserti128 $0x1,%xmm0,%ymm3,%ymm3
.byte 196,129,122,111,4,152 // vmovdqu (%r8,%r11,4),%xmm0
.byte 196,227,125,2,219,240 // vpblendd $0xf0,%ymm3,%ymm0,%ymm3
- .byte 233,10,255,255,255 // jmpq b8aa <_sk_load_8888_hsw+0x22>
+ .byte 233,10,255,255,255 // jmpq b8b6 <_sk_load_8888_hsw+0x22>
.byte 130 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
@@ -20812,16 +20821,16 @@ _sk_load_8888_dst_hsw:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,86 // jne ba2e <_sk_load_8888_dst_hsw+0x72>
+ .byte 117,86 // jne ba3a <_sk_load_8888_dst_hsw+0x72>
.byte 196,129,126,111,60,152 // vmovdqu (%r8,%r11,4),%ymm7
- .byte 197,197,219,37,186,107,2,0 // vpand 0x26bba(%rip),%ymm7,%ymm4 # 325a0 <_sk_srcover_rgba_8888_sse2_lowp+0x460>
+ .byte 197,197,219,37,206,107,2,0 // vpand 0x26bce(%rip),%ymm7,%ymm4 # 325c0 <_sk_srcover_rgba_8888_sse2_lowp+0x464>
.byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
- .byte 196,98,125,24,5,73,112,2,0 // vbroadcastss 0x27049(%rip),%ymm8 # 32a3c <_sk_srcover_rgba_8888_sse2_lowp+0x8fc>
+ .byte 196,98,125,24,5,97,112,2,0 // vbroadcastss 0x27061(%rip),%ymm8 # 32a60 <_sk_srcover_rgba_8888_sse2_lowp+0x904>
.byte 196,193,92,89,224 // vmulps %ymm8,%ymm4,%ymm4
- .byte 196,226,69,0,45,191,107,2,0 // vpshufb 0x26bbf(%rip),%ymm7,%ymm5 # 325c0 <_sk_srcover_rgba_8888_sse2_lowp+0x480>
+ .byte 196,226,69,0,45,211,107,2,0 // vpshufb 0x26bd3(%rip),%ymm7,%ymm5 # 325e0 <_sk_srcover_rgba_8888_sse2_lowp+0x484>
.byte 197,252,91,237 // vcvtdq2ps %ymm5,%ymm5
.byte 196,193,84,89,232 // vmulps %ymm8,%ymm5,%ymm5
- .byte 196,226,69,0,53,205,107,2,0 // vpshufb 0x26bcd(%rip),%ymm7,%ymm6 # 325e0 <_sk_srcover_rgba_8888_sse2_lowp+0x4a0>
+ .byte 196,226,69,0,53,225,107,2,0 // vpshufb 0x26be1(%rip),%ymm7,%ymm6 # 32600 <_sk_srcover_rgba_8888_sse2_lowp+0x4a4>
.byte 197,252,91,246 // vcvtdq2ps %ymm6,%ymm6
.byte 196,193,76,89,240 // vmulps %ymm8,%ymm6,%ymm6
.byte 197,197,114,215,24 // vpsrld $0x18,%ymm7,%ymm7
@@ -20834,21 +20843,21 @@ _sk_load_8888_dst_hsw:
.byte 197,197,239,255 // vpxor %ymm7,%ymm7,%ymm7
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,156 // ja b9de <_sk_load_8888_dst_hsw+0x22>
+ .byte 119,156 // ja b9ea <_sk_load_8888_dst_hsw+0x22>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,135,0,0,0 // lea 0x87(%rip),%r10 # bad4 <_sk_load_8888_dst_hsw+0x118>
+ .byte 76,141,21,135,0,0,0 // lea 0x87(%rip),%r10 # bae0 <_sk_load_8888_dst_hsw+0x118>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 196,129,121,110,60,152 // vmovd (%r8,%r11,4),%xmm7
- .byte 235,128 // jmp b9de <_sk_load_8888_dst_hsw+0x22>
+ .byte 235,128 // jmp b9ea <_sk_load_8888_dst_hsw+0x22>
.byte 196,129,121,110,100,152,8 // vmovd 0x8(%r8,%r11,4),%xmm4
.byte 196,226,121,89,228 // vpbroadcastq %xmm4,%xmm4
.byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
.byte 196,227,85,2,252,4 // vpblendd $0x4,%ymm4,%ymm5,%ymm7
.byte 196,129,122,126,36,152 // vmovq (%r8,%r11,4),%xmm4
.byte 196,227,69,2,252,3 // vpblendd $0x3,%ymm4,%ymm7,%ymm7
- .byte 233,89,255,255,255 // jmpq b9de <_sk_load_8888_dst_hsw+0x22>
+ .byte 233,89,255,255,255 // jmpq b9ea <_sk_load_8888_dst_hsw+0x22>
.byte 196,129,121,110,100,152,24 // vmovd 0x18(%r8,%r11,4),%xmm4
.byte 196,226,125,89,228 // vpbroadcastq %xmm4,%ymm4
.byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
@@ -20861,7 +20870,7 @@ _sk_load_8888_dst_hsw:
.byte 196,227,69,56,252,1 // vinserti128 $0x1,%xmm4,%ymm7,%ymm7
.byte 196,129,122,111,36,152 // vmovdqu (%r8,%r11,4),%xmm4
.byte 196,227,93,2,255,240 // vpblendd $0xf0,%ymm7,%ymm4,%ymm7
- .byte 233,10,255,255,255 // jmpq b9de <_sk_load_8888_dst_hsw+0x22>
+ .byte 233,10,255,255,255 // jmpq b9ea <_sk_load_8888_dst_hsw+0x22>
.byte 130 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
@@ -20905,14 +20914,14 @@ _sk_gather_8888_hsw:
.byte 197,254,91,192 // vcvttps2dq %ymm0,%ymm0
.byte 197,245,254,192 // vpaddd %ymm0,%ymm1,%ymm0
.byte 196,66,101,144,4,128 // vpgatherdd %ymm3,(%r8,%ymm0,4),%ymm8
- .byte 197,189,219,5,185,106,2,0 // vpand 0x26ab9(%rip),%ymm8,%ymm0 # 32600 <_sk_srcover_rgba_8888_sse2_lowp+0x4c0>
+ .byte 197,189,219,5,205,106,2,0 // vpand 0x26acd(%rip),%ymm8,%ymm0 # 32620 <_sk_srcover_rgba_8888_sse2_lowp+0x4c4>
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,29,232,110,2,0 // vbroadcastss 0x26ee8(%rip),%ymm3 # 32a3c <_sk_srcover_rgba_8888_sse2_lowp+0x8fc>
+ .byte 196,226,125,24,29,0,111,2,0 // vbroadcastss 0x26f00(%rip),%ymm3 # 32a60 <_sk_srcover_rgba_8888_sse2_lowp+0x904>
.byte 197,252,89,195 // vmulps %ymm3,%ymm0,%ymm0
- .byte 196,226,61,0,13,191,106,2,0 // vpshufb 0x26abf(%rip),%ymm8,%ymm1 # 32620 <_sk_srcover_rgba_8888_sse2_lowp+0x4e0>
+ .byte 196,226,61,0,13,211,106,2,0 // vpshufb 0x26ad3(%rip),%ymm8,%ymm1 # 32640 <_sk_srcover_rgba_8888_sse2_lowp+0x4e4>
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
.byte 197,244,89,203 // vmulps %ymm3,%ymm1,%ymm1
- .byte 196,226,61,0,21,206,106,2,0 // vpshufb 0x26ace(%rip),%ymm8,%ymm2 # 32640 <_sk_srcover_rgba_8888_sse2_lowp+0x500>
+ .byte 196,226,61,0,21,226,106,2,0 // vpshufb 0x26ae2(%rip),%ymm8,%ymm2 # 32660 <_sk_srcover_rgba_8888_sse2_lowp+0x504>
.byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
.byte 197,236,89,211 // vmulps %ymm3,%ymm2,%ymm2
.byte 196,193,61,114,208,24 // vpsrld $0x18,%ymm8,%ymm8
@@ -20932,7 +20941,7 @@ _sk_store_8888_hsw:
.byte 73,193,224,2 // shl $0x2,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
- .byte 196,98,125,24,5,71,110,2,0 // vbroadcastss 0x26e47(%rip),%ymm8 # 329f4 <_sk_srcover_rgba_8888_sse2_lowp+0x8b4>
+ .byte 196,98,125,24,5,91,110,2,0 // vbroadcastss 0x26e5b(%rip),%ymm8 # 32a14 <_sk_srcover_rgba_8888_sse2_lowp+0x8b8>
.byte 196,65,124,89,200 // vmulps %ymm8,%ymm0,%ymm9
.byte 196,65,125,91,201 // vcvtps2dq %ymm9,%ymm9
.byte 196,65,116,89,208 // vmulps %ymm8,%ymm1,%ymm10
@@ -20948,7 +20957,7 @@ _sk_store_8888_hsw:
.byte 196,65,45,235,192 // vpor %ymm8,%ymm10,%ymm8
.byte 196,65,53,235,192 // vpor %ymm8,%ymm9,%ymm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,10 // jne bc05 <_sk_store_8888_hsw+0x78>
+ .byte 117,10 // jne bc11 <_sk_store_8888_hsw+0x78>
.byte 196,1,126,127,4,152 // vmovdqu %ymm8,(%r8,%r11,4)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -20956,17 +20965,17 @@ _sk_store_8888_hsw:
.byte 65,128,225,7 // and $0x7,%r9b
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,236 // ja bc01 <_sk_store_8888_hsw+0x74>
+ .byte 119,236 // ja bc0d <_sk_store_8888_hsw+0x74>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,84,0,0,0 // lea 0x54(%rip),%r10 # bc74 <_sk_store_8888_hsw+0xe7>
+ .byte 76,141,21,84,0,0,0 // lea 0x54(%rip),%r10 # bc80 <_sk_store_8888_hsw+0xe7>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 196,1,121,126,4,152 // vmovd %xmm8,(%r8,%r11,4)
- .byte 235,208 // jmp bc01 <_sk_store_8888_hsw+0x74>
+ .byte 235,208 // jmp bc0d <_sk_store_8888_hsw+0x74>
.byte 196,3,121,22,68,152,8,2 // vpextrd $0x2,%xmm8,0x8(%r8,%r11,4)
.byte 196,1,121,214,4,152 // vmovq %xmm8,(%r8,%r11,4)
- .byte 235,192 // jmp bc01 <_sk_store_8888_hsw+0x74>
+ .byte 235,192 // jmp bc0d <_sk_store_8888_hsw+0x74>
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,3,121,22,76,152,24,2 // vpextrd $0x2,%xmm9,0x18(%r8,%r11,4)
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
@@ -20974,7 +20983,7 @@ _sk_store_8888_hsw:
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,1,121,126,76,152,16 // vmovd %xmm9,0x10(%r8,%r11,4)
.byte 196,1,122,127,4,152 // vmovdqu %xmm8,(%r8,%r11,4)
- .byte 235,143 // jmp bc01 <_sk_store_8888_hsw+0x74>
+ .byte 235,143 // jmp bc0d <_sk_store_8888_hsw+0x74>
.byte 102,144 // xchg %ax,%ax
.byte 181,255 // mov $0xff,%ch
.byte 255 // (bad)
@@ -20986,7 +20995,7 @@ _sk_store_8888_hsw:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 233,255,255,255,219 // jmpq ffffffffdc00bc88 <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffdbfd9b48>
+ .byte 233,255,255,255,219 // jmpq ffffffffdc00bc94 <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffdbfd9b38>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,205 // dec %ebp
@@ -21006,16 +21015,16 @@ _sk_load_bgra_hsw:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,86 // jne bd02 <_sk_load_bgra_hsw+0x72>
+ .byte 117,86 // jne bd0e <_sk_load_bgra_hsw+0x72>
.byte 196,129,126,111,28,152 // vmovdqu (%r8,%r11,4),%ymm3
- .byte 197,229,219,5,166,105,2,0 // vpand 0x269a6(%rip),%ymm3,%ymm0 # 32660 <_sk_srcover_rgba_8888_sse2_lowp+0x520>
+ .byte 197,229,219,5,186,105,2,0 // vpand 0x269ba(%rip),%ymm3,%ymm0 # 32680 <_sk_srcover_rgba_8888_sse2_lowp+0x524>
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,98,125,24,5,117,109,2,0 // vbroadcastss 0x26d75(%rip),%ymm8 # 32a3c <_sk_srcover_rgba_8888_sse2_lowp+0x8fc>
+ .byte 196,98,125,24,5,141,109,2,0 // vbroadcastss 0x26d8d(%rip),%ymm8 # 32a60 <_sk_srcover_rgba_8888_sse2_lowp+0x904>
.byte 196,193,124,89,208 // vmulps %ymm8,%ymm0,%ymm2
- .byte 196,226,101,0,5,171,105,2,0 // vpshufb 0x269ab(%rip),%ymm3,%ymm0 # 32680 <_sk_srcover_rgba_8888_sse2_lowp+0x540>
+ .byte 196,226,101,0,5,191,105,2,0 // vpshufb 0x269bf(%rip),%ymm3,%ymm0 # 326a0 <_sk_srcover_rgba_8888_sse2_lowp+0x544>
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
.byte 196,193,124,89,200 // vmulps %ymm8,%ymm0,%ymm1
- .byte 196,226,101,0,5,185,105,2,0 // vpshufb 0x269b9(%rip),%ymm3,%ymm0 # 326a0 <_sk_srcover_rgba_8888_sse2_lowp+0x560>
+ .byte 196,226,101,0,5,205,105,2,0 // vpshufb 0x269cd(%rip),%ymm3,%ymm0 # 326c0 <_sk_srcover_rgba_8888_sse2_lowp+0x564>
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
.byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
.byte 197,229,114,211,24 // vpsrld $0x18,%ymm3,%ymm3
@@ -21028,21 +21037,21 @@ _sk_load_bgra_hsw:
.byte 197,229,239,219 // vpxor %ymm3,%ymm3,%ymm3
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,156 // ja bcb2 <_sk_load_bgra_hsw+0x22>
+ .byte 119,156 // ja bcbe <_sk_load_bgra_hsw+0x22>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,135,0,0,0 // lea 0x87(%rip),%r10 # bda8 <_sk_load_bgra_hsw+0x118>
+ .byte 76,141,21,135,0,0,0 // lea 0x87(%rip),%r10 # bdb4 <_sk_load_bgra_hsw+0x118>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 196,129,121,110,28,152 // vmovd (%r8,%r11,4),%xmm3
- .byte 235,128 // jmp bcb2 <_sk_load_bgra_hsw+0x22>
+ .byte 235,128 // jmp bcbe <_sk_load_bgra_hsw+0x22>
.byte 196,129,121,110,68,152,8 // vmovd 0x8(%r8,%r11,4),%xmm0
.byte 196,226,121,89,192 // vpbroadcastq %xmm0,%xmm0
.byte 197,245,239,201 // vpxor %ymm1,%ymm1,%ymm1
.byte 196,227,117,2,216,4 // vpblendd $0x4,%ymm0,%ymm1,%ymm3
.byte 196,129,122,126,4,152 // vmovq (%r8,%r11,4),%xmm0
.byte 196,227,101,2,216,3 // vpblendd $0x3,%ymm0,%ymm3,%ymm3
- .byte 233,89,255,255,255 // jmpq bcb2 <_sk_load_bgra_hsw+0x22>
+ .byte 233,89,255,255,255 // jmpq bcbe <_sk_load_bgra_hsw+0x22>
.byte 196,129,121,110,68,152,24 // vmovd 0x18(%r8,%r11,4),%xmm0
.byte 196,226,125,89,192 // vpbroadcastq %xmm0,%ymm0
.byte 197,245,239,201 // vpxor %ymm1,%ymm1,%ymm1
@@ -21055,7 +21064,7 @@ _sk_load_bgra_hsw:
.byte 196,227,101,56,216,1 // vinserti128 $0x1,%xmm0,%ymm3,%ymm3
.byte 196,129,122,111,4,152 // vmovdqu (%r8,%r11,4),%xmm0
.byte 196,227,125,2,219,240 // vpblendd $0xf0,%ymm3,%ymm0,%ymm3
- .byte 233,10,255,255,255 // jmpq bcb2 <_sk_load_bgra_hsw+0x22>
+ .byte 233,10,255,255,255 // jmpq bcbe <_sk_load_bgra_hsw+0x22>
.byte 130 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
@@ -21089,16 +21098,16 @@ _sk_load_bgra_dst_hsw:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,86 // jne be36 <_sk_load_bgra_dst_hsw+0x72>
+ .byte 117,86 // jne be42 <_sk_load_bgra_dst_hsw+0x72>
.byte 196,129,126,111,60,152 // vmovdqu (%r8,%r11,4),%ymm7
- .byte 197,197,219,37,210,104,2,0 // vpand 0x268d2(%rip),%ymm7,%ymm4 # 326c0 <_sk_srcover_rgba_8888_sse2_lowp+0x580>
+ .byte 197,197,219,37,230,104,2,0 // vpand 0x268e6(%rip),%ymm7,%ymm4 # 326e0 <_sk_srcover_rgba_8888_sse2_lowp+0x584>
.byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
- .byte 196,98,125,24,5,65,108,2,0 // vbroadcastss 0x26c41(%rip),%ymm8 # 32a3c <_sk_srcover_rgba_8888_sse2_lowp+0x8fc>
+ .byte 196,98,125,24,5,89,108,2,0 // vbroadcastss 0x26c59(%rip),%ymm8 # 32a60 <_sk_srcover_rgba_8888_sse2_lowp+0x904>
.byte 196,193,92,89,240 // vmulps %ymm8,%ymm4,%ymm6
- .byte 196,226,69,0,37,215,104,2,0 // vpshufb 0x268d7(%rip),%ymm7,%ymm4 # 326e0 <_sk_srcover_rgba_8888_sse2_lowp+0x5a0>
+ .byte 196,226,69,0,37,235,104,2,0 // vpshufb 0x268eb(%rip),%ymm7,%ymm4 # 32700 <_sk_srcover_rgba_8888_sse2_lowp+0x5a4>
.byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
.byte 196,193,92,89,232 // vmulps %ymm8,%ymm4,%ymm5
- .byte 196,226,69,0,37,229,104,2,0 // vpshufb 0x268e5(%rip),%ymm7,%ymm4 # 32700 <_sk_srcover_rgba_8888_sse2_lowp+0x5c0>
+ .byte 196,226,69,0,37,249,104,2,0 // vpshufb 0x268f9(%rip),%ymm7,%ymm4 # 32720 <_sk_srcover_rgba_8888_sse2_lowp+0x5c4>
.byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
.byte 196,193,92,89,224 // vmulps %ymm8,%ymm4,%ymm4
.byte 197,197,114,215,24 // vpsrld $0x18,%ymm7,%ymm7
@@ -21111,21 +21120,21 @@ _sk_load_bgra_dst_hsw:
.byte 197,197,239,255 // vpxor %ymm7,%ymm7,%ymm7
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,156 // ja bde6 <_sk_load_bgra_dst_hsw+0x22>
+ .byte 119,156 // ja bdf2 <_sk_load_bgra_dst_hsw+0x22>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,135,0,0,0 // lea 0x87(%rip),%r10 # bedc <_sk_load_bgra_dst_hsw+0x118>
+ .byte 76,141,21,135,0,0,0 // lea 0x87(%rip),%r10 # bee8 <_sk_load_bgra_dst_hsw+0x118>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 196,129,121,110,60,152 // vmovd (%r8,%r11,4),%xmm7
- .byte 235,128 // jmp bde6 <_sk_load_bgra_dst_hsw+0x22>
+ .byte 235,128 // jmp bdf2 <_sk_load_bgra_dst_hsw+0x22>
.byte 196,129,121,110,100,152,8 // vmovd 0x8(%r8,%r11,4),%xmm4
.byte 196,226,121,89,228 // vpbroadcastq %xmm4,%xmm4
.byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
.byte 196,227,85,2,252,4 // vpblendd $0x4,%ymm4,%ymm5,%ymm7
.byte 196,129,122,126,36,152 // vmovq (%r8,%r11,4),%xmm4
.byte 196,227,69,2,252,3 // vpblendd $0x3,%ymm4,%ymm7,%ymm7
- .byte 233,89,255,255,255 // jmpq bde6 <_sk_load_bgra_dst_hsw+0x22>
+ .byte 233,89,255,255,255 // jmpq bdf2 <_sk_load_bgra_dst_hsw+0x22>
.byte 196,129,121,110,100,152,24 // vmovd 0x18(%r8,%r11,4),%xmm4
.byte 196,226,125,89,228 // vpbroadcastq %xmm4,%ymm4
.byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
@@ -21138,7 +21147,7 @@ _sk_load_bgra_dst_hsw:
.byte 196,227,69,56,252,1 // vinserti128 $0x1,%xmm4,%ymm7,%ymm7
.byte 196,129,122,111,36,152 // vmovdqu (%r8,%r11,4),%xmm4
.byte 196,227,93,2,255,240 // vpblendd $0xf0,%ymm7,%ymm4,%ymm7
- .byte 233,10,255,255,255 // jmpq bde6 <_sk_load_bgra_dst_hsw+0x22>
+ .byte 233,10,255,255,255 // jmpq bdf2 <_sk_load_bgra_dst_hsw+0x22>
.byte 130 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
@@ -21182,14 +21191,14 @@ _sk_gather_bgra_hsw:
.byte 197,254,91,192 // vcvttps2dq %ymm0,%ymm0
.byte 197,245,254,192 // vpaddd %ymm0,%ymm1,%ymm0
.byte 196,66,101,144,4,128 // vpgatherdd %ymm3,(%r8,%ymm0,4),%ymm8
- .byte 197,189,219,5,209,103,2,0 // vpand 0x267d1(%rip),%ymm8,%ymm0 # 32720 <_sk_srcover_rgba_8888_sse2_lowp+0x5e0>
+ .byte 197,189,219,5,229,103,2,0 // vpand 0x267e5(%rip),%ymm8,%ymm0 # 32740 <_sk_srcover_rgba_8888_sse2_lowp+0x5e4>
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,29,224,106,2,0 // vbroadcastss 0x26ae0(%rip),%ymm3 # 32a3c <_sk_srcover_rgba_8888_sse2_lowp+0x8fc>
+ .byte 196,226,125,24,29,248,106,2,0 // vbroadcastss 0x26af8(%rip),%ymm3 # 32a60 <_sk_srcover_rgba_8888_sse2_lowp+0x904>
.byte 197,252,89,211 // vmulps %ymm3,%ymm0,%ymm2
- .byte 196,226,61,0,5,215,103,2,0 // vpshufb 0x267d7(%rip),%ymm8,%ymm0 # 32740 <_sk_srcover_rgba_8888_sse2_lowp+0x600>
+ .byte 196,226,61,0,5,235,103,2,0 // vpshufb 0x267eb(%rip),%ymm8,%ymm0 # 32760 <_sk_srcover_rgba_8888_sse2_lowp+0x604>
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
.byte 197,252,89,203 // vmulps %ymm3,%ymm0,%ymm1
- .byte 196,226,61,0,5,230,103,2,0 // vpshufb 0x267e6(%rip),%ymm8,%ymm0 # 32760 <_sk_srcover_rgba_8888_sse2_lowp+0x620>
+ .byte 196,226,61,0,5,250,103,2,0 // vpshufb 0x267fa(%rip),%ymm8,%ymm0 # 32780 <_sk_srcover_rgba_8888_sse2_lowp+0x624>
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
.byte 197,252,89,195 // vmulps %ymm3,%ymm0,%ymm0
.byte 196,193,61,114,208,24 // vpsrld $0x18,%ymm8,%ymm8
@@ -21209,7 +21218,7 @@ _sk_store_bgra_hsw:
.byte 73,193,224,2 // shl $0x2,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
- .byte 196,98,125,24,5,63,106,2,0 // vbroadcastss 0x26a3f(%rip),%ymm8 # 329f4 <_sk_srcover_rgba_8888_sse2_lowp+0x8b4>
+ .byte 196,98,125,24,5,83,106,2,0 // vbroadcastss 0x26a53(%rip),%ymm8 # 32a14 <_sk_srcover_rgba_8888_sse2_lowp+0x8b8>
.byte 196,65,108,89,200 // vmulps %ymm8,%ymm2,%ymm9
.byte 196,65,125,91,201 // vcvtps2dq %ymm9,%ymm9
.byte 196,65,116,89,208 // vmulps %ymm8,%ymm1,%ymm10
@@ -21225,7 +21234,7 @@ _sk_store_bgra_hsw:
.byte 196,65,45,235,192 // vpor %ymm8,%ymm10,%ymm8
.byte 196,65,53,235,192 // vpor %ymm8,%ymm9,%ymm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,10 // jne c00d <_sk_store_bgra_hsw+0x78>
+ .byte 117,10 // jne c019 <_sk_store_bgra_hsw+0x78>
.byte 196,1,126,127,4,152 // vmovdqu %ymm8,(%r8,%r11,4)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -21233,17 +21242,17 @@ _sk_store_bgra_hsw:
.byte 65,128,225,7 // and $0x7,%r9b
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,236 // ja c009 <_sk_store_bgra_hsw+0x74>
+ .byte 119,236 // ja c015 <_sk_store_bgra_hsw+0x74>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,84,0,0,0 // lea 0x54(%rip),%r10 # c07c <_sk_store_bgra_hsw+0xe7>
+ .byte 76,141,21,84,0,0,0 // lea 0x54(%rip),%r10 # c088 <_sk_store_bgra_hsw+0xe7>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 196,1,121,126,4,152 // vmovd %xmm8,(%r8,%r11,4)
- .byte 235,208 // jmp c009 <_sk_store_bgra_hsw+0x74>
+ .byte 235,208 // jmp c015 <_sk_store_bgra_hsw+0x74>
.byte 196,3,121,22,68,152,8,2 // vpextrd $0x2,%xmm8,0x8(%r8,%r11,4)
.byte 196,1,121,214,4,152 // vmovq %xmm8,(%r8,%r11,4)
- .byte 235,192 // jmp c009 <_sk_store_bgra_hsw+0x74>
+ .byte 235,192 // jmp c015 <_sk_store_bgra_hsw+0x74>
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,3,121,22,76,152,24,2 // vpextrd $0x2,%xmm9,0x18(%r8,%r11,4)
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
@@ -21251,7 +21260,7 @@ _sk_store_bgra_hsw:
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,1,121,126,76,152,16 // vmovd %xmm9,0x10(%r8,%r11,4)
.byte 196,1,122,127,4,152 // vmovdqu %xmm8,(%r8,%r11,4)
- .byte 235,143 // jmp c009 <_sk_store_bgra_hsw+0x74>
+ .byte 235,143 // jmp c015 <_sk_store_bgra_hsw+0x74>
.byte 102,144 // xchg %ax,%ax
.byte 181,255 // mov $0xff,%ch
.byte 255 // (bad)
@@ -21263,7 +21272,7 @@ _sk_store_bgra_hsw:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 233,255,255,255,219 // jmpq ffffffffdc00c090 <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffdbfd9f50>
+ .byte 233,255,255,255,219 // jmpq ffffffffdc00c09c <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffdbfd9f40>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,205 // dec %ebp
@@ -21283,7 +21292,7 @@ _sk_load_f16_hsw:
.byte 76,3,0 // add (%rax),%r8
.byte 72,99,194 // movslq %edx,%rax
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,101 // jne c119 <_sk_load_f16_hsw+0x81>
+ .byte 117,101 // jne c125 <_sk_load_f16_hsw+0x81>
.byte 196,65,121,16,4,192 // vmovupd (%r8,%rax,8),%xmm8
.byte 196,193,121,16,84,192,16 // vmovupd 0x10(%r8,%rax,8),%xmm2
.byte 196,193,121,16,92,192,32 // vmovupd 0x20(%r8,%rax,8),%xmm3
@@ -21309,29 +21318,29 @@ _sk_load_f16_hsw:
.byte 196,65,123,16,4,192 // vmovsd (%r8,%rax,8),%xmm8
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 116,85 // je c17f <_sk_load_f16_hsw+0xe7>
+ .byte 116,85 // je c18b <_sk_load_f16_hsw+0xe7>
.byte 196,65,57,22,68,192,8 // vmovhpd 0x8(%r8,%rax,8),%xmm8,%xmm8
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,72 // jb c17f <_sk_load_f16_hsw+0xe7>
+ .byte 114,72 // jb c18b <_sk_load_f16_hsw+0xe7>
.byte 196,193,123,16,84,192,16 // vmovsd 0x10(%r8,%rax,8),%xmm2
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 116,72 // je c18c <_sk_load_f16_hsw+0xf4>
+ .byte 116,72 // je c198 <_sk_load_f16_hsw+0xf4>
.byte 196,193,105,22,84,192,24 // vmovhpd 0x18(%r8,%rax,8),%xmm2,%xmm2
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 114,59 // jb c18c <_sk_load_f16_hsw+0xf4>
+ .byte 114,59 // jb c198 <_sk_load_f16_hsw+0xf4>
.byte 196,193,123,16,92,192,32 // vmovsd 0x20(%r8,%rax,8),%xmm3
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 15,132,109,255,255,255 // je c0cf <_sk_load_f16_hsw+0x37>
+ .byte 15,132,109,255,255,255 // je c0db <_sk_load_f16_hsw+0x37>
.byte 196,193,97,22,92,192,40 // vmovhpd 0x28(%r8,%rax,8),%xmm3,%xmm3
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 15,130,92,255,255,255 // jb c0cf <_sk_load_f16_hsw+0x37>
+ .byte 15,130,92,255,255,255 // jb c0db <_sk_load_f16_hsw+0x37>
.byte 196,65,122,126,76,192,48 // vmovq 0x30(%r8,%rax,8),%xmm9
- .byte 233,80,255,255,255 // jmpq c0cf <_sk_load_f16_hsw+0x37>
+ .byte 233,80,255,255,255 // jmpq c0db <_sk_load_f16_hsw+0x37>
.byte 197,225,87,219 // vxorpd %xmm3,%xmm3,%xmm3
.byte 197,233,87,210 // vxorpd %xmm2,%xmm2,%xmm2
- .byte 233,67,255,255,255 // jmpq c0cf <_sk_load_f16_hsw+0x37>
+ .byte 233,67,255,255,255 // jmpq c0db <_sk_load_f16_hsw+0x37>
.byte 197,225,87,219 // vxorpd %xmm3,%xmm3,%xmm3
- .byte 233,58,255,255,255 // jmpq c0cf <_sk_load_f16_hsw+0x37>
+ .byte 233,58,255,255,255 // jmpq c0db <_sk_load_f16_hsw+0x37>
HIDDEN _sk_load_f16_dst_hsw
.globl _sk_load_f16_dst_hsw
@@ -21345,7 +21354,7 @@ _sk_load_f16_dst_hsw:
.byte 76,3,0 // add (%rax),%r8
.byte 72,99,194 // movslq %edx,%rax
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,101 // jne c216 <_sk_load_f16_dst_hsw+0x81>
+ .byte 117,101 // jne c222 <_sk_load_f16_dst_hsw+0x81>
.byte 196,65,121,16,4,192 // vmovupd (%r8,%rax,8),%xmm8
.byte 196,193,121,16,116,192,16 // vmovupd 0x10(%r8,%rax,8),%xmm6
.byte 196,193,121,16,124,192,32 // vmovupd 0x20(%r8,%rax,8),%xmm7
@@ -21371,29 +21380,29 @@ _sk_load_f16_dst_hsw:
.byte 196,65,123,16,4,192 // vmovsd (%r8,%rax,8),%xmm8
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 116,85 // je c27c <_sk_load_f16_dst_hsw+0xe7>
+ .byte 116,85 // je c288 <_sk_load_f16_dst_hsw+0xe7>
.byte 196,65,57,22,68,192,8 // vmovhpd 0x8(%r8,%rax,8),%xmm8,%xmm8
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,72 // jb c27c <_sk_load_f16_dst_hsw+0xe7>
+ .byte 114,72 // jb c288 <_sk_load_f16_dst_hsw+0xe7>
.byte 196,193,123,16,116,192,16 // vmovsd 0x10(%r8,%rax,8),%xmm6
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 116,72 // je c289 <_sk_load_f16_dst_hsw+0xf4>
+ .byte 116,72 // je c295 <_sk_load_f16_dst_hsw+0xf4>
.byte 196,193,73,22,116,192,24 // vmovhpd 0x18(%r8,%rax,8),%xmm6,%xmm6
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 114,59 // jb c289 <_sk_load_f16_dst_hsw+0xf4>
+ .byte 114,59 // jb c295 <_sk_load_f16_dst_hsw+0xf4>
.byte 196,193,123,16,124,192,32 // vmovsd 0x20(%r8,%rax,8),%xmm7
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 15,132,109,255,255,255 // je c1cc <_sk_load_f16_dst_hsw+0x37>
+ .byte 15,132,109,255,255,255 // je c1d8 <_sk_load_f16_dst_hsw+0x37>
.byte 196,193,65,22,124,192,40 // vmovhpd 0x28(%r8,%rax,8),%xmm7,%xmm7
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 15,130,92,255,255,255 // jb c1cc <_sk_load_f16_dst_hsw+0x37>
+ .byte 15,130,92,255,255,255 // jb c1d8 <_sk_load_f16_dst_hsw+0x37>
.byte 196,65,122,126,76,192,48 // vmovq 0x30(%r8,%rax,8),%xmm9
- .byte 233,80,255,255,255 // jmpq c1cc <_sk_load_f16_dst_hsw+0x37>
+ .byte 233,80,255,255,255 // jmpq c1d8 <_sk_load_f16_dst_hsw+0x37>
.byte 197,193,87,255 // vxorpd %xmm7,%xmm7,%xmm7
.byte 197,201,87,246 // vxorpd %xmm6,%xmm6,%xmm6
- .byte 233,67,255,255,255 // jmpq c1cc <_sk_load_f16_dst_hsw+0x37>
+ .byte 233,67,255,255,255 // jmpq c1d8 <_sk_load_f16_dst_hsw+0x37>
.byte 197,193,87,255 // vxorpd %xmm7,%xmm7,%xmm7
- .byte 233,58,255,255,255 // jmpq c1cc <_sk_load_f16_dst_hsw+0x37>
+ .byte 233,58,255,255,255 // jmpq c1d8 <_sk_load_f16_dst_hsw+0x37>
HIDDEN _sk_gather_f16_hsw
.globl _sk_gather_f16_hsw
@@ -21466,7 +21475,7 @@ _sk_store_f16_hsw:
.byte 196,65,57,98,205 // vpunpckldq %xmm13,%xmm8,%xmm9
.byte 196,65,57,106,197 // vpunpckhdq %xmm13,%xmm8,%xmm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,31 // jne c3c6 <_sk_store_f16_hsw+0x7b>
+ .byte 117,31 // jne c3d2 <_sk_store_f16_hsw+0x7b>
.byte 196,65,122,127,28,192 // vmovdqu %xmm11,(%r8,%rax,8)
.byte 196,65,122,127,84,192,16 // vmovdqu %xmm10,0x10(%r8,%rax,8)
.byte 196,65,122,127,76,192,32 // vmovdqu %xmm9,0x20(%r8,%rax,8)
@@ -21475,22 +21484,22 @@ _sk_store_f16_hsw:
.byte 255,224 // jmpq *%rax
.byte 196,65,121,214,28,192 // vmovq %xmm11,(%r8,%rax,8)
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 116,240 // je c3c2 <_sk_store_f16_hsw+0x77>
+ .byte 116,240 // je c3ce <_sk_store_f16_hsw+0x77>
.byte 196,65,121,23,92,192,8 // vmovhpd %xmm11,0x8(%r8,%rax,8)
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,227 // jb c3c2 <_sk_store_f16_hsw+0x77>
+ .byte 114,227 // jb c3ce <_sk_store_f16_hsw+0x77>
.byte 196,65,121,214,84,192,16 // vmovq %xmm10,0x10(%r8,%rax,8)
- .byte 116,218 // je c3c2 <_sk_store_f16_hsw+0x77>
+ .byte 116,218 // je c3ce <_sk_store_f16_hsw+0x77>
.byte 196,65,121,23,84,192,24 // vmovhpd %xmm10,0x18(%r8,%rax,8)
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 114,205 // jb c3c2 <_sk_store_f16_hsw+0x77>
+ .byte 114,205 // jb c3ce <_sk_store_f16_hsw+0x77>
.byte 196,65,121,214,76,192,32 // vmovq %xmm9,0x20(%r8,%rax,8)
- .byte 116,196 // je c3c2 <_sk_store_f16_hsw+0x77>
+ .byte 116,196 // je c3ce <_sk_store_f16_hsw+0x77>
.byte 196,65,121,23,76,192,40 // vmovhpd %xmm9,0x28(%r8,%rax,8)
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 114,183 // jb c3c2 <_sk_store_f16_hsw+0x77>
+ .byte 114,183 // jb c3ce <_sk_store_f16_hsw+0x77>
.byte 196,65,121,214,68,192,48 // vmovq %xmm8,0x30(%r8,%rax,8)
- .byte 235,174 // jmp c3c2 <_sk_store_f16_hsw+0x77>
+ .byte 235,174 // jmp c3ce <_sk_store_f16_hsw+0x77>
HIDDEN _sk_load_u16_be_hsw
.globl _sk_load_u16_be_hsw
@@ -21505,7 +21514,7 @@ _sk_load_u16_be_hsw:
.byte 76,3,0 // add (%rax),%r8
.byte 73,99,193 // movslq %r9d,%rax
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,204,0,0,0 // jne c507 <_sk_load_u16_be_hsw+0xf3>
+ .byte 15,133,204,0,0,0 // jne c513 <_sk_load_u16_be_hsw+0xf3>
.byte 196,65,121,16,4,64 // vmovupd (%r8,%rax,2),%xmm8
.byte 196,193,121,16,84,64,16 // vmovupd 0x10(%r8,%rax,2),%xmm2
.byte 196,193,121,16,92,64,32 // vmovupd 0x20(%r8,%rax,2),%xmm3
@@ -21524,7 +21533,7 @@ _sk_load_u16_be_hsw:
.byte 197,241,235,192 // vpor %xmm0,%xmm1,%xmm0
.byte 196,226,125,51,192 // vpmovzxwd %xmm0,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,98,125,24,21,188,101,2,0 // vbroadcastss 0x265bc(%rip),%ymm10 # 32a58 <_sk_srcover_rgba_8888_sse2_lowp+0x918>
+ .byte 196,98,125,24,21,212,101,2,0 // vbroadcastss 0x265d4(%rip),%ymm10 # 32a7c <_sk_srcover_rgba_8888_sse2_lowp+0x920>
.byte 196,193,124,89,194 // vmulps %ymm10,%ymm0,%ymm0
.byte 197,185,109,202 // vpunpckhqdq %xmm2,%xmm8,%xmm1
.byte 197,233,113,241,8 // vpsllw $0x8,%xmm1,%xmm2
@@ -21552,29 +21561,29 @@ _sk_load_u16_be_hsw:
.byte 196,65,123,16,4,64 // vmovsd (%r8,%rax,2),%xmm8
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 116,85 // je c56d <_sk_load_u16_be_hsw+0x159>
+ .byte 116,85 // je c579 <_sk_load_u16_be_hsw+0x159>
.byte 196,65,57,22,68,64,8 // vmovhpd 0x8(%r8,%rax,2),%xmm8,%xmm8
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,72 // jb c56d <_sk_load_u16_be_hsw+0x159>
+ .byte 114,72 // jb c579 <_sk_load_u16_be_hsw+0x159>
.byte 196,193,123,16,84,64,16 // vmovsd 0x10(%r8,%rax,2),%xmm2
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 116,72 // je c57a <_sk_load_u16_be_hsw+0x166>
+ .byte 116,72 // je c586 <_sk_load_u16_be_hsw+0x166>
.byte 196,193,105,22,84,64,24 // vmovhpd 0x18(%r8,%rax,2),%xmm2,%xmm2
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 114,59 // jb c57a <_sk_load_u16_be_hsw+0x166>
+ .byte 114,59 // jb c586 <_sk_load_u16_be_hsw+0x166>
.byte 196,193,123,16,92,64,32 // vmovsd 0x20(%r8,%rax,2),%xmm3
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 15,132,6,255,255,255 // je c456 <_sk_load_u16_be_hsw+0x42>
+ .byte 15,132,6,255,255,255 // je c462 <_sk_load_u16_be_hsw+0x42>
.byte 196,193,97,22,92,64,40 // vmovhpd 0x28(%r8,%rax,2),%xmm3,%xmm3
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 15,130,245,254,255,255 // jb c456 <_sk_load_u16_be_hsw+0x42>
+ .byte 15,130,245,254,255,255 // jb c462 <_sk_load_u16_be_hsw+0x42>
.byte 196,65,122,126,76,64,48 // vmovq 0x30(%r8,%rax,2),%xmm9
- .byte 233,233,254,255,255 // jmpq c456 <_sk_load_u16_be_hsw+0x42>
+ .byte 233,233,254,255,255 // jmpq c462 <_sk_load_u16_be_hsw+0x42>
.byte 197,225,87,219 // vxorpd %xmm3,%xmm3,%xmm3
.byte 197,233,87,210 // vxorpd %xmm2,%xmm2,%xmm2
- .byte 233,220,254,255,255 // jmpq c456 <_sk_load_u16_be_hsw+0x42>
+ .byte 233,220,254,255,255 // jmpq c462 <_sk_load_u16_be_hsw+0x42>
.byte 197,225,87,219 // vxorpd %xmm3,%xmm3,%xmm3
- .byte 233,211,254,255,255 // jmpq c456 <_sk_load_u16_be_hsw+0x42>
+ .byte 233,211,254,255,255 // jmpq c462 <_sk_load_u16_be_hsw+0x42>
HIDDEN _sk_load_rgb_u16_be_hsw
.globl _sk_load_rgb_u16_be_hsw
@@ -21591,7 +21600,7 @@ _sk_load_rgb_u16_be_hsw:
.byte 72,141,4,64 // lea (%rax,%rax,2),%rax
.byte 72,193,248,32 // sar $0x20,%rax
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,205,0,0,0 // jne c67b <_sk_load_rgb_u16_be_hsw+0xf8>
+ .byte 15,133,205,0,0,0 // jne c687 <_sk_load_rgb_u16_be_hsw+0xf8>
.byte 196,65,122,111,28,64 // vmovdqu (%r8,%rax,2),%xmm11
.byte 196,193,122,111,92,64,12 // vmovdqu 0xc(%r8,%rax,2),%xmm3
.byte 196,193,122,111,84,64,24 // vmovdqu 0x18(%r8,%rax,2),%xmm2
@@ -21616,7 +21625,7 @@ _sk_load_rgb_u16_be_hsw:
.byte 197,241,235,192 // vpor %xmm0,%xmm1,%xmm0
.byte 196,226,125,51,192 // vpmovzxwd %xmm0,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,98,125,24,13,43,100,2,0 // vbroadcastss 0x2642b(%rip),%ymm9 # 32a58 <_sk_srcover_rgba_8888_sse2_lowp+0x918>
+ .byte 196,98,125,24,13,67,100,2,0 // vbroadcastss 0x26443(%rip),%ymm9 # 32a7c <_sk_srcover_rgba_8888_sse2_lowp+0x920>
.byte 196,193,124,89,193 // vmulps %ymm9,%ymm0,%ymm0
.byte 197,185,109,203 // vpunpckhqdq %xmm3,%xmm8,%xmm1
.byte 197,225,113,241,8 // vpsllw $0x8,%xmm1,%xmm3
@@ -21632,69 +21641,69 @@ _sk_load_rgb_u16_be_hsw:
.byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
.byte 196,193,108,89,209 // vmulps %ymm9,%ymm2,%ymm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,79,99,2,0 // vbroadcastss 0x2634f(%rip),%ymm3 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 196,226,125,24,29,99,99,2,0 // vbroadcastss 0x26363(%rip),%ymm3 # 329e8 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 255,224 // jmpq *%rax
.byte 196,193,121,110,4,64 // vmovd (%r8,%rax,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,65,121,196,92,64,4,2 // vpinsrw $0x2,0x4(%r8,%rax,2),%xmm0,%xmm11
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 117,31 // jne c6b3 <_sk_load_rgb_u16_be_hsw+0x130>
+ .byte 117,31 // jne c6bf <_sk_load_rgb_u16_be_hsw+0x130>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
.byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2
.byte 196,65,41,239,210 // vpxor %xmm10,%xmm10,%xmm10
.byte 197,225,239,219 // vpxor %xmm3,%xmm3,%xmm3
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
- .byte 233,48,255,255,255 // jmpq c5e3 <_sk_load_rgb_u16_be_hsw+0x60>
+ .byte 233,48,255,255,255 // jmpq c5ef <_sk_load_rgb_u16_be_hsw+0x60>
.byte 196,193,121,110,68,64,6 // vmovd 0x6(%r8,%rax,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,65,121,196,68,64,10,2 // vpinsrw $0x2,0xa(%r8,%rax,2),%xmm0,%xmm8
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,48 // jb c6fd <_sk_load_rgb_u16_be_hsw+0x17a>
+ .byte 114,48 // jb c709 <_sk_load_rgb_u16_be_hsw+0x17a>
.byte 196,193,121,110,68,64,12 // vmovd 0xc(%r8,%rax,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,193,121,196,92,64,16,2 // vpinsrw $0x2,0x10(%r8,%rax,2),%xmm0,%xmm3
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 117,48 // jne c717 <_sk_load_rgb_u16_be_hsw+0x194>
+ .byte 117,48 // jne c723 <_sk_load_rgb_u16_be_hsw+0x194>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
.byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2
.byte 196,65,41,239,210 // vpxor %xmm10,%xmm10,%xmm10
- .byte 233,230,254,255,255 // jmpq c5e3 <_sk_load_rgb_u16_be_hsw+0x60>
+ .byte 233,230,254,255,255 // jmpq c5ef <_sk_load_rgb_u16_be_hsw+0x60>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
.byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2
.byte 196,65,41,239,210 // vpxor %xmm10,%xmm10,%xmm10
.byte 197,225,239,219 // vpxor %xmm3,%xmm3,%xmm3
- .byte 233,204,254,255,255 // jmpq c5e3 <_sk_load_rgb_u16_be_hsw+0x60>
+ .byte 233,204,254,255,255 // jmpq c5ef <_sk_load_rgb_u16_be_hsw+0x60>
.byte 196,193,121,110,68,64,18 // vmovd 0x12(%r8,%rax,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,65,121,196,84,64,22,2 // vpinsrw $0x2,0x16(%r8,%rax,2),%xmm0,%xmm10
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 114,39 // jb c758 <_sk_load_rgb_u16_be_hsw+0x1d5>
+ .byte 114,39 // jb c764 <_sk_load_rgb_u16_be_hsw+0x1d5>
.byte 196,193,121,110,68,64,24 // vmovd 0x18(%r8,%rax,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,193,121,196,84,64,28,2 // vpinsrw $0x2,0x1c(%r8,%rax,2),%xmm0,%xmm2
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 117,30 // jne c769 <_sk_load_rgb_u16_be_hsw+0x1e6>
+ .byte 117,30 // jne c775 <_sk_load_rgb_u16_be_hsw+0x1e6>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
- .byte 233,139,254,255,255 // jmpq c5e3 <_sk_load_rgb_u16_be_hsw+0x60>
+ .byte 233,139,254,255,255 // jmpq c5ef <_sk_load_rgb_u16_be_hsw+0x60>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
.byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2
- .byte 233,122,254,255,255 // jmpq c5e3 <_sk_load_rgb_u16_be_hsw+0x60>
+ .byte 233,122,254,255,255 // jmpq c5ef <_sk_load_rgb_u16_be_hsw+0x60>
.byte 196,193,121,110,68,64,30 // vmovd 0x1e(%r8,%rax,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,193,121,196,76,64,34,2 // vpinsrw $0x2,0x22(%r8,%rax,2),%xmm0,%xmm1
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 114,25 // jb c79c <_sk_load_rgb_u16_be_hsw+0x219>
+ .byte 114,25 // jb c7a8 <_sk_load_rgb_u16_be_hsw+0x219>
.byte 196,193,121,110,68,64,36 // vmovd 0x24(%r8,%rax,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,193,121,196,68,64,40,2 // vpinsrw $0x2,0x28(%r8,%rax,2),%xmm0,%xmm0
- .byte 233,71,254,255,255 // jmpq c5e3 <_sk_load_rgb_u16_be_hsw+0x60>
+ .byte 233,71,254,255,255 // jmpq c5ef <_sk_load_rgb_u16_be_hsw+0x60>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
- .byte 233,62,254,255,255 // jmpq c5e3 <_sk_load_rgb_u16_be_hsw+0x60>
+ .byte 233,62,254,255,255 // jmpq c5ef <_sk_load_rgb_u16_be_hsw+0x60>
HIDDEN _sk_store_u16_be_hsw
.globl _sk_store_u16_be_hsw
@@ -21708,7 +21717,7 @@ _sk_store_u16_be_hsw:
.byte 77,1,192 // add %r8,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 73,99,193 // movslq %r9d,%rax
- .byte 196,98,125,24,5,20,99,2,0 // vbroadcastss 0x26314(%rip),%ymm8 # 32ae0 <_sk_srcover_rgba_8888_sse2_lowp+0x9a0>
+ .byte 196,98,125,24,5,44,99,2,0 // vbroadcastss 0x2632c(%rip),%ymm8 # 32b04 <_sk_srcover_rgba_8888_sse2_lowp+0x9a8>
.byte 196,65,124,89,200 // vmulps %ymm8,%ymm0,%ymm9
.byte 196,65,125,91,201 // vcvtps2dq %ymm9,%ymm9
.byte 196,67,125,25,202,1 // vextractf128 $0x1,%ymm9,%xmm10
@@ -21746,7 +21755,7 @@ _sk_store_u16_be_hsw:
.byte 196,65,17,98,200 // vpunpckldq %xmm8,%xmm13,%xmm9
.byte 196,65,17,106,192 // vpunpckhdq %xmm8,%xmm13,%xmm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,31 // jne c8b0 <_sk_store_u16_be_hsw+0x10b>
+ .byte 117,31 // jne c8bc <_sk_store_u16_be_hsw+0x10b>
.byte 196,65,122,127,28,64 // vmovdqu %xmm11,(%r8,%rax,2)
.byte 196,65,122,127,84,64,16 // vmovdqu %xmm10,0x10(%r8,%rax,2)
.byte 196,65,122,127,76,64,32 // vmovdqu %xmm9,0x20(%r8,%rax,2)
@@ -21755,22 +21764,22 @@ _sk_store_u16_be_hsw:
.byte 255,224 // jmpq *%rax
.byte 196,65,121,214,28,64 // vmovq %xmm11,(%r8,%rax,2)
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 116,240 // je c8ac <_sk_store_u16_be_hsw+0x107>
+ .byte 116,240 // je c8b8 <_sk_store_u16_be_hsw+0x107>
.byte 196,65,121,23,92,64,8 // vmovhpd %xmm11,0x8(%r8,%rax,2)
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,227 // jb c8ac <_sk_store_u16_be_hsw+0x107>
+ .byte 114,227 // jb c8b8 <_sk_store_u16_be_hsw+0x107>
.byte 196,65,121,214,84,64,16 // vmovq %xmm10,0x10(%r8,%rax,2)
- .byte 116,218 // je c8ac <_sk_store_u16_be_hsw+0x107>
+ .byte 116,218 // je c8b8 <_sk_store_u16_be_hsw+0x107>
.byte 196,65,121,23,84,64,24 // vmovhpd %xmm10,0x18(%r8,%rax,2)
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 114,205 // jb c8ac <_sk_store_u16_be_hsw+0x107>
+ .byte 114,205 // jb c8b8 <_sk_store_u16_be_hsw+0x107>
.byte 196,65,121,214,76,64,32 // vmovq %xmm9,0x20(%r8,%rax,2)
- .byte 116,196 // je c8ac <_sk_store_u16_be_hsw+0x107>
+ .byte 116,196 // je c8b8 <_sk_store_u16_be_hsw+0x107>
.byte 196,65,121,23,76,64,40 // vmovhpd %xmm9,0x28(%r8,%rax,2)
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 114,183 // jb c8ac <_sk_store_u16_be_hsw+0x107>
+ .byte 114,183 // jb c8b8 <_sk_store_u16_be_hsw+0x107>
.byte 196,65,121,214,68,64,48 // vmovq %xmm8,0x30(%r8,%rax,2)
- .byte 235,174 // jmp c8ac <_sk_store_u16_be_hsw+0x107>
+ .byte 235,174 // jmp c8b8 <_sk_store_u16_be_hsw+0x107>
HIDDEN _sk_load_f32_hsw
.globl _sk_load_f32_hsw
@@ -21779,7 +21788,7 @@ _sk_load_f32_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,253,87,192 // vxorpd %ymm0,%ymm0,%ymm0
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 15,135,97,1,0,0 // ja ca6f <_sk_load_f32_hsw+0x171>
+ .byte 15,135,97,1,0,0 // ja ca7b <_sk_load_f32_hsw+0x171>
.byte 72,131,236,24 // sub $0x18,%rsp
.byte 197,253,17,100,36,128 // vmovupd %ymm4,-0x80(%rsp)
.byte 197,253,17,108,36,160 // vmovupd %ymm5,-0x60(%rsp)
@@ -21792,7 +21801,7 @@ _sk_load_f32_hsw:
.byte 73,193,224,2 // shl $0x2,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 77,99,201 // movslq %r9d,%r9
- .byte 76,141,21,50,1,0,0 // lea 0x132(%rip),%r10 # ca80 <_sk_load_f32_hsw+0x182>
+ .byte 76,141,21,50,1,0,0 // lea 0x132(%rip),%r10 # ca8c <_sk_load_f32_hsw+0x182>
.byte 73,99,4,186 // movslq (%r10,%rdi,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 197,221,87,228 // vxorpd %ymm4,%ymm4,%ymm4
@@ -21855,7 +21864,7 @@ _sk_load_f32_hsw:
.byte 197,229,87,219 // vxorpd %ymm3,%ymm3,%ymm3
.byte 196,65,45,87,210 // vxorpd %ymm10,%ymm10,%ymm10
.byte 197,245,87,201 // vxorpd %ymm1,%ymm1,%ymm1
- .byte 235,203 // jmp ca49 <_sk_load_f32_hsw+0x14b>
+ .byte 235,203 // jmp ca55 <_sk_load_f32_hsw+0x14b>
.byte 102,144 // xchg %ax,%ax
.byte 27,255 // sbb %edi,%edi
.byte 255 // (bad)
@@ -21867,7 +21876,7 @@ _sk_load_f32_hsw:
.byte 255,92,255,255 // lcall *-0x1(%rdi,%rdi,8)
.byte 255,70,255 // incl -0x1(%rsi)
.byte 255 // (bad)
- .byte 255,53,255,255,255,40 // pushq 0x28ffffff(%rip) # 2900ca9c <_sk_srcover_rgba_8888_sse2_lowp+0x28fda95c>
+ .byte 255,53,255,255,255,40 // pushq 0x28ffffff(%rip) # 2900caa8 <_sk_srcover_rgba_8888_sse2_lowp+0x28fda94c>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // .byte 0xff
@@ -21879,7 +21888,7 @@ _sk_load_f32_dst_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,221,87,228 // vxorpd %ymm4,%ymm4,%ymm4
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 15,135,97,1,0,0 // ja cc11 <_sk_load_f32_dst_hsw+0x171>
+ .byte 15,135,97,1,0,0 // ja cc1d <_sk_load_f32_dst_hsw+0x171>
.byte 72,131,236,24 // sub $0x18,%rsp
.byte 197,253,17,68,36,128 // vmovupd %ymm0,-0x80(%rsp)
.byte 197,253,17,76,36,160 // vmovupd %ymm1,-0x60(%rsp)
@@ -21892,7 +21901,7 @@ _sk_load_f32_dst_hsw:
.byte 73,193,224,2 // shl $0x2,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 77,99,201 // movslq %r9d,%r9
- .byte 76,141,21,48,1,0,0 // lea 0x130(%rip),%r10 # cc20 <_sk_load_f32_dst_hsw+0x180>
+ .byte 76,141,21,48,1,0,0 // lea 0x130(%rip),%r10 # cc2c <_sk_load_f32_dst_hsw+0x180>
.byte 73,99,4,186 // movslq (%r10,%rdi,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 197,253,87,192 // vxorpd %ymm0,%ymm0,%ymm0
@@ -21955,7 +21964,7 @@ _sk_load_f32_dst_hsw:
.byte 197,197,87,255 // vxorpd %ymm7,%ymm7,%ymm7
.byte 196,65,45,87,210 // vxorpd %ymm10,%ymm10,%ymm10
.byte 197,213,87,237 // vxorpd %ymm5,%ymm5,%ymm5
- .byte 235,203 // jmp cbeb <_sk_load_f32_dst_hsw+0x14b>
+ .byte 235,203 // jmp cbf7 <_sk_load_f32_dst_hsw+0x14b>
.byte 29,255,255,255,163 // sbb $0xa3ffffff,%eax
.byte 255 // (bad)
.byte 255 // (bad)
@@ -21995,7 +22004,7 @@ _sk_store_f32_hsw:
.byte 196,65,37,20,196 // vunpcklpd %ymm12,%ymm11,%ymm8
.byte 196,65,37,21,220 // vunpckhpd %ymm12,%ymm11,%ymm11
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,55 // jne ccbf <_sk_store_f32_hsw+0x7f>
+ .byte 117,55 // jne cccb <_sk_store_f32_hsw+0x7f>
.byte 196,67,45,24,225,1 // vinsertf128 $0x1,%xmm9,%ymm10,%ymm12
.byte 196,67,61,24,235,1 // vinsertf128 $0x1,%xmm11,%ymm8,%ymm13
.byte 196,67,45,6,201,49 // vperm2f128 $0x31,%ymm9,%ymm10,%ymm9
@@ -22008,22 +22017,22 @@ _sk_store_f32_hsw:
.byte 255,224 // jmpq *%rax
.byte 196,65,121,17,20,128 // vmovupd %xmm10,(%r8,%rax,4)
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 116,240 // je ccbb <_sk_store_f32_hsw+0x7b>
+ .byte 116,240 // je ccc7 <_sk_store_f32_hsw+0x7b>
.byte 196,65,121,17,76,128,16 // vmovupd %xmm9,0x10(%r8,%rax,4)
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,227 // jb ccbb <_sk_store_f32_hsw+0x7b>
+ .byte 114,227 // jb ccc7 <_sk_store_f32_hsw+0x7b>
.byte 196,65,121,17,68,128,32 // vmovupd %xmm8,0x20(%r8,%rax,4)
- .byte 116,218 // je ccbb <_sk_store_f32_hsw+0x7b>
+ .byte 116,218 // je ccc7 <_sk_store_f32_hsw+0x7b>
.byte 196,65,121,17,92,128,48 // vmovupd %xmm11,0x30(%r8,%rax,4)
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 114,205 // jb ccbb <_sk_store_f32_hsw+0x7b>
+ .byte 114,205 // jb ccc7 <_sk_store_f32_hsw+0x7b>
.byte 196,67,125,25,84,128,64,1 // vextractf128 $0x1,%ymm10,0x40(%r8,%rax,4)
- .byte 116,195 // je ccbb <_sk_store_f32_hsw+0x7b>
+ .byte 116,195 // je ccc7 <_sk_store_f32_hsw+0x7b>
.byte 196,67,125,25,76,128,80,1 // vextractf128 $0x1,%ymm9,0x50(%r8,%rax,4)
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 114,181 // jb ccbb <_sk_store_f32_hsw+0x7b>
+ .byte 114,181 // jb ccc7 <_sk_store_f32_hsw+0x7b>
.byte 196,67,125,25,68,128,96,1 // vextractf128 $0x1,%ymm8,0x60(%r8,%rax,4)
- .byte 235,171 // jmp ccbb <_sk_store_f32_hsw+0x7b>
+ .byte 235,171 // jmp ccc7 <_sk_store_f32_hsw+0x7b>
HIDDEN _sk_repeat_x_hsw
.globl _sk_repeat_x_hsw
@@ -22062,7 +22071,7 @@ _sk_mirror_x_hsw:
.byte 196,65,124,92,218 // vsubps %ymm10,%ymm0,%ymm11
.byte 196,193,58,88,192 // vaddss %xmm8,%xmm8,%xmm0
.byte 196,98,125,24,192 // vbroadcastss %xmm0,%ymm8
- .byte 197,178,89,5,77,92,2,0 // vmulss 0x25c4d(%rip),%xmm9,%xmm0 # 329c4 <_sk_srcover_rgba_8888_sse2_lowp+0x884>
+ .byte 197,178,89,5,97,92,2,0 // vmulss 0x25c61(%rip),%xmm9,%xmm0 # 329e4 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 196,226,125,24,192 // vbroadcastss %xmm0,%ymm0
.byte 197,164,89,192 // vmulps %ymm0,%ymm11,%ymm0
.byte 196,227,125,8,192,1 // vroundps $0x1,%ymm0,%ymm0
@@ -22085,7 +22094,7 @@ _sk_mirror_y_hsw:
.byte 196,65,116,92,218 // vsubps %ymm10,%ymm1,%ymm11
.byte 196,193,58,88,200 // vaddss %xmm8,%xmm8,%xmm1
.byte 196,98,125,24,193 // vbroadcastss %xmm1,%ymm8
- .byte 197,178,89,13,252,91,2,0 // vmulss 0x25bfc(%rip),%xmm9,%xmm1 # 329c4 <_sk_srcover_rgba_8888_sse2_lowp+0x884>
+ .byte 197,178,89,13,16,92,2,0 // vmulss 0x25c10(%rip),%xmm9,%xmm1 # 329e4 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 196,226,125,24,201 // vbroadcastss %xmm1,%ymm1
.byte 197,164,89,201 // vmulps %ymm1,%ymm11,%ymm1
.byte 196,227,125,8,201,1 // vroundps $0x1,%ymm1,%ymm1
@@ -22103,7 +22112,7 @@ FUNCTION(_sk_clamp_x_1_hsw)
_sk_clamp_x_1_hsw:
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 197,188,95,192 // vmaxps %ymm0,%ymm8,%ymm0
- .byte 196,98,125,24,5,196,91,2,0 // vbroadcastss 0x25bc4(%rip),%ymm8 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 196,98,125,24,5,216,91,2,0 // vbroadcastss 0x25bd8(%rip),%ymm8 # 329e8 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 196,193,124,93,192 // vminps %ymm8,%ymm0,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -22116,7 +22125,7 @@ _sk_repeat_x_1_hsw:
.byte 196,193,124,92,192 // vsubps %ymm8,%ymm0,%ymm0
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 197,188,95,192 // vmaxps %ymm0,%ymm8,%ymm0
- .byte 196,98,125,24,5,158,91,2,0 // vbroadcastss 0x25b9e(%rip),%ymm8 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 196,98,125,24,5,178,91,2,0 // vbroadcastss 0x25bb2(%rip),%ymm8 # 329e8 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 196,193,124,93,192 // vminps %ymm8,%ymm0,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -22125,9 +22134,9 @@ HIDDEN _sk_mirror_x_1_hsw
.globl _sk_mirror_x_1_hsw
FUNCTION(_sk_mirror_x_1_hsw)
_sk_mirror_x_1_hsw:
- .byte 196,98,125,24,5,164,91,2,0 // vbroadcastss 0x25ba4(%rip),%ymm8 # 329e0 <_sk_srcover_rgba_8888_sse2_lowp+0x8a0>
+ .byte 196,98,125,24,5,184,91,2,0 // vbroadcastss 0x25bb8(%rip),%ymm8 # 32a00 <_sk_srcover_rgba_8888_sse2_lowp+0x8a4>
.byte 196,193,124,88,192 // vaddps %ymm8,%ymm0,%ymm0
- .byte 196,98,125,24,13,122,91,2,0 // vbroadcastss 0x25b7a(%rip),%ymm9 # 329c4 <_sk_srcover_rgba_8888_sse2_lowp+0x884>
+ .byte 196,98,125,24,13,142,91,2,0 // vbroadcastss 0x25b8e(%rip),%ymm9 # 329e4 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 196,65,124,89,201 // vmulps %ymm9,%ymm0,%ymm9
.byte 196,67,125,8,201,1 // vroundps $0x1,%ymm9,%ymm9
.byte 196,65,52,88,201 // vaddps %ymm9,%ymm9,%ymm9
@@ -22137,7 +22146,7 @@ _sk_mirror_x_1_hsw:
.byte 197,60,92,200 // vsubps %ymm0,%ymm8,%ymm9
.byte 197,180,84,192 // vandps %ymm0,%ymm9,%ymm0
.byte 197,188,95,192 // vmaxps %ymm0,%ymm8,%ymm0
- .byte 196,98,125,24,5,74,91,2,0 // vbroadcastss 0x25b4a(%rip),%ymm8 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 196,98,125,24,5,94,91,2,0 // vbroadcastss 0x25b5e(%rip),%ymm8 # 329e8 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 196,193,124,93,192 // vminps %ymm8,%ymm0,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -22146,11 +22155,11 @@ HIDDEN _sk_luminance_to_alpha_hsw
.globl _sk_luminance_to_alpha_hsw
FUNCTION(_sk_luminance_to_alpha_hsw)
_sk_luminance_to_alpha_hsw:
- .byte 196,226,125,24,29,88,92,2,0 // vbroadcastss 0x25c58(%rip),%ymm3 # 32ae8 <_sk_srcover_rgba_8888_sse2_lowp+0x9a8>
- .byte 196,98,125,24,5,75,92,2,0 // vbroadcastss 0x25c4b(%rip),%ymm8 # 32ae4 <_sk_srcover_rgba_8888_sse2_lowp+0x9a4>
+ .byte 196,226,125,24,29,112,92,2,0 // vbroadcastss 0x25c70(%rip),%ymm3 # 32b0c <_sk_srcover_rgba_8888_sse2_lowp+0x9b0>
+ .byte 196,98,125,24,5,99,92,2,0 // vbroadcastss 0x25c63(%rip),%ymm8 # 32b08 <_sk_srcover_rgba_8888_sse2_lowp+0x9ac>
.byte 196,193,116,89,200 // vmulps %ymm8,%ymm1,%ymm1
.byte 196,226,125,184,203 // vfmadd231ps %ymm3,%ymm0,%ymm1
- .byte 196,226,125,24,29,64,92,2,0 // vbroadcastss 0x25c40(%rip),%ymm3 # 32aec <_sk_srcover_rgba_8888_sse2_lowp+0x9ac>
+ .byte 196,226,125,24,29,88,92,2,0 // vbroadcastss 0x25c58(%rip),%ymm3 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0x9b4>
.byte 196,226,109,168,217 // vfmadd213ps %ymm1,%ymm2,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
@@ -22349,9 +22358,9 @@ _sk_evenly_spaced_gradient_hsw:
.byte 76,139,64,8 // mov 0x8(%rax),%r8
.byte 77,137,202 // mov %r9,%r10
.byte 73,255,202 // dec %r10
- .byte 120,7 // js d1a4 <_sk_evenly_spaced_gradient_hsw+0x18>
+ .byte 120,7 // js d1b0 <_sk_evenly_spaced_gradient_hsw+0x18>
.byte 196,193,242,42,202 // vcvtsi2ss %r10,%xmm1,%xmm1
- .byte 235,22 // jmp d1ba <_sk_evenly_spaced_gradient_hsw+0x2e>
+ .byte 235,22 // jmp d1c6 <_sk_evenly_spaced_gradient_hsw+0x2e>
.byte 77,137,211 // mov %r10,%r11
.byte 73,209,235 // shr %r11
.byte 65,131,226,1 // and $0x1,%r10d
@@ -22362,7 +22371,7 @@ _sk_evenly_spaced_gradient_hsw:
.byte 197,244,89,200 // vmulps %ymm0,%ymm1,%ymm1
.byte 197,126,91,225 // vcvttps2dq %ymm1,%ymm12
.byte 73,131,249,8 // cmp $0x8,%r9
- .byte 119,73 // ja d216 <_sk_evenly_spaced_gradient_hsw+0x8a>
+ .byte 119,73 // ja d222 <_sk_evenly_spaced_gradient_hsw+0x8a>
.byte 196,66,29,22,0 // vpermps (%r8),%ymm12,%ymm8
.byte 76,139,64,40 // mov 0x28(%rax),%r8
.byte 196,66,29,22,8 // vpermps (%r8),%ymm12,%ymm9
@@ -22378,7 +22387,7 @@ _sk_evenly_spaced_gradient_hsw:
.byte 196,194,29,22,24 // vpermps (%r8),%ymm12,%ymm3
.byte 72,139,64,64 // mov 0x40(%rax),%rax
.byte 196,98,29,22,16 // vpermps (%rax),%ymm12,%ymm10
- .byte 233,147,0,0,0 // jmpq d2a9 <_sk_evenly_spaced_gradient_hsw+0x11d>
+ .byte 233,147,0,0,0 // jmpq d2b5 <_sk_evenly_spaced_gradient_hsw+0x11d>
.byte 196,65,13,118,246 // vpcmpeqd %ymm14,%ymm14,%ymm14
.byte 196,65,44,87,210 // vxorps %ymm10,%ymm10,%ymm10
.byte 197,245,118,201 // vpcmpeqd %ymm1,%ymm1,%ymm1
@@ -22422,14 +22431,14 @@ HIDDEN _sk_gauss_a_to_rgba_hsw
.globl _sk_gauss_a_to_rgba_hsw
FUNCTION(_sk_gauss_a_to_rgba_hsw)
_sk_gauss_a_to_rgba_hsw:
- .byte 196,226,125,24,5,38,88,2,0 // vbroadcastss 0x25826(%rip),%ymm0 # 32af4 <_sk_srcover_rgba_8888_sse2_lowp+0x9b4>
- .byte 196,226,125,24,13,25,88,2,0 // vbroadcastss 0x25819(%rip),%ymm1 # 32af0 <_sk_srcover_rgba_8888_sse2_lowp+0x9b0>
+ .byte 196,226,125,24,5,62,88,2,0 // vbroadcastss 0x2583e(%rip),%ymm0 # 32b18 <_sk_srcover_rgba_8888_sse2_lowp+0x9bc>
+ .byte 196,226,125,24,13,49,88,2,0 // vbroadcastss 0x25831(%rip),%ymm1 # 32b14 <_sk_srcover_rgba_8888_sse2_lowp+0x9b8>
.byte 196,226,101,168,200 // vfmadd213ps %ymm0,%ymm3,%ymm1
- .byte 196,226,125,24,5,19,88,2,0 // vbroadcastss 0x25813(%rip),%ymm0 # 32af8 <_sk_srcover_rgba_8888_sse2_lowp+0x9b8>
+ .byte 196,226,125,24,5,43,88,2,0 // vbroadcastss 0x2582b(%rip),%ymm0 # 32b1c <_sk_srcover_rgba_8888_sse2_lowp+0x9c0>
.byte 196,226,101,184,193 // vfmadd231ps %ymm1,%ymm3,%ymm0
- .byte 196,226,125,24,13,9,88,2,0 // vbroadcastss 0x25809(%rip),%ymm1 # 32afc <_sk_srcover_rgba_8888_sse2_lowp+0x9bc>
+ .byte 196,226,125,24,13,33,88,2,0 // vbroadcastss 0x25821(%rip),%ymm1 # 32b20 <_sk_srcover_rgba_8888_sse2_lowp+0x9c4>
.byte 196,226,101,184,200 // vfmadd231ps %ymm0,%ymm3,%ymm1
- .byte 196,226,125,24,5,255,87,2,0 // vbroadcastss 0x257ff(%rip),%ymm0 # 32b00 <_sk_srcover_rgba_8888_sse2_lowp+0x9c0>
+ .byte 196,226,125,24,5,23,88,2,0 // vbroadcastss 0x25817(%rip),%ymm0 # 32b24 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
.byte 196,226,101,184,193 // vfmadd231ps %ymm1,%ymm3,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,252,40,200 // vmovaps %ymm0,%ymm1
@@ -22444,11 +22453,11 @@ _sk_gradient_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 76,139,0 // mov (%rax),%r8
.byte 73,131,248,1 // cmp $0x1,%r8
- .byte 15,134,220,0,0,0 // jbe d401 <_sk_gradient_hsw+0xeb>
+ .byte 15,134,220,0,0,0 // jbe d40d <_sk_gradient_hsw+0xeb>
.byte 76,139,72,72 // mov 0x48(%rax),%r9
.byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
.byte 65,186,1,0,0,0 // mov $0x1,%r10d
- .byte 196,226,125,24,21,144,86,2,0 // vbroadcastss 0x25690(%rip),%ymm2 # 329cc <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+ .byte 196,226,125,24,21,164,86,2,0 // vbroadcastss 0x256a4(%rip),%ymm2 # 329ec <_sk_srcover_rgba_8888_sse2_lowp+0x890>
.byte 196,65,53,239,201 // vpxor %ymm9,%ymm9,%ymm9
.byte 196,130,125,24,28,145 // vbroadcastss (%r9,%r10,4),%ymm3
.byte 197,228,194,216,2 // vcmpleps %ymm0,%ymm3,%ymm3
@@ -22456,10 +22465,10 @@ _sk_gradient_hsw:
.byte 197,53,254,203 // vpaddd %ymm3,%ymm9,%ymm9
.byte 73,255,194 // inc %r10
.byte 77,57,208 // cmp %r10,%r8
- .byte 117,227 // jne d341 <_sk_gradient_hsw+0x2b>
+ .byte 117,227 // jne d34d <_sk_gradient_hsw+0x2b>
.byte 76,139,72,8 // mov 0x8(%rax),%r9
.byte 73,131,248,8 // cmp $0x8,%r8
- .byte 15,134,158,0,0,0 // jbe d40a <_sk_gradient_hsw+0xf4>
+ .byte 15,134,158,0,0,0 // jbe d416 <_sk_gradient_hsw+0xf4>
.byte 196,65,13,118,246 // vpcmpeqd %ymm14,%ymm14,%ymm14
.byte 196,65,36,87,219 // vxorps %ymm11,%ymm11,%ymm11
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
@@ -22491,7 +22500,7 @@ _sk_gradient_hsw:
.byte 196,130,5,146,28,136 // vgatherdps %ymm15,(%r8,%ymm9,4),%ymm3
.byte 72,139,64,64 // mov 0x40(%rax),%rax
.byte 196,34,13,146,28,136 // vgatherdps %ymm14,(%rax,%ymm9,4),%ymm11
- .byte 235,77 // jmp d44e <_sk_gradient_hsw+0x138>
+ .byte 235,77 // jmp d45a <_sk_gradient_hsw+0x138>
.byte 76,139,72,8 // mov 0x8(%rax),%r9
.byte 196,65,52,87,201 // vxorps %ymm9,%ymm9,%ymm9
.byte 196,66,53,22,1 // vpermps (%r9),%ymm9,%ymm8
@@ -22551,24 +22560,24 @@ _sk_xy_to_unit_angle_hsw:
.byte 196,65,52,95,226 // vmaxps %ymm10,%ymm9,%ymm12
.byte 196,65,36,94,220 // vdivps %ymm12,%ymm11,%ymm11
.byte 196,65,36,89,227 // vmulps %ymm11,%ymm11,%ymm12
- .byte 196,98,125,24,45,27,86,2,0 // vbroadcastss 0x2561b(%rip),%ymm13 # 32b04 <_sk_srcover_rgba_8888_sse2_lowp+0x9c4>
- .byte 196,98,125,24,53,22,86,2,0 // vbroadcastss 0x25616(%rip),%ymm14 # 32b08 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
+ .byte 196,98,125,24,45,51,86,2,0 // vbroadcastss 0x25633(%rip),%ymm13 # 32b28 <_sk_srcover_rgba_8888_sse2_lowp+0x9cc>
+ .byte 196,98,125,24,53,46,86,2,0 // vbroadcastss 0x2562e(%rip),%ymm14 # 32b2c <_sk_srcover_rgba_8888_sse2_lowp+0x9d0>
.byte 196,66,29,184,245 // vfmadd231ps %ymm13,%ymm12,%ymm14
- .byte 196,98,125,24,45,12,86,2,0 // vbroadcastss 0x2560c(%rip),%ymm13 # 32b0c <_sk_srcover_rgba_8888_sse2_lowp+0x9cc>
+ .byte 196,98,125,24,45,36,86,2,0 // vbroadcastss 0x25624(%rip),%ymm13 # 32b30 <_sk_srcover_rgba_8888_sse2_lowp+0x9d4>
.byte 196,66,29,184,238 // vfmadd231ps %ymm14,%ymm12,%ymm13
- .byte 196,98,125,24,53,2,86,2,0 // vbroadcastss 0x25602(%rip),%ymm14 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0x9d0>
+ .byte 196,98,125,24,53,26,86,2,0 // vbroadcastss 0x2561a(%rip),%ymm14 # 32b34 <_sk_srcover_rgba_8888_sse2_lowp+0x9d8>
.byte 196,66,29,184,245 // vfmadd231ps %ymm13,%ymm12,%ymm14
.byte 196,65,36,89,222 // vmulps %ymm14,%ymm11,%ymm11
.byte 196,65,52,194,202,1 // vcmpltps %ymm10,%ymm9,%ymm9
- .byte 196,98,125,24,21,237,85,2,0 // vbroadcastss 0x255ed(%rip),%ymm10 # 32b14 <_sk_srcover_rgba_8888_sse2_lowp+0x9d4>
+ .byte 196,98,125,24,21,5,86,2,0 // vbroadcastss 0x25605(%rip),%ymm10 # 32b38 <_sk_srcover_rgba_8888_sse2_lowp+0x9dc>
.byte 196,65,44,92,211 // vsubps %ymm11,%ymm10,%ymm10
.byte 196,67,37,74,202,144 // vblendvps %ymm9,%ymm10,%ymm11,%ymm9
.byte 196,193,124,194,192,1 // vcmpltps %ymm8,%ymm0,%ymm0
- .byte 196,98,125,24,21,131,84,2,0 // vbroadcastss 0x25483(%rip),%ymm10 # 329c4 <_sk_srcover_rgba_8888_sse2_lowp+0x884>
+ .byte 196,98,125,24,21,151,84,2,0 // vbroadcastss 0x25497(%rip),%ymm10 # 329e4 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 196,65,44,92,209 // vsubps %ymm9,%ymm10,%ymm10
.byte 196,195,53,74,194,0 // vblendvps %ymm0,%ymm10,%ymm9,%ymm0
.byte 196,65,116,194,200,1 // vcmpltps %ymm8,%ymm1,%ymm9
- .byte 196,98,125,24,21,109,84,2,0 // vbroadcastss 0x2546d(%rip),%ymm10 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 196,98,125,24,21,129,84,2,0 // vbroadcastss 0x25481(%rip),%ymm10 # 329e8 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 197,44,92,208 // vsubps %ymm0,%ymm10,%ymm10
.byte 196,195,125,74,194,144 // vblendvps %ymm9,%ymm10,%ymm0,%ymm0
.byte 196,65,124,194,200,3 // vcmpunordps %ymm8,%ymm0,%ymm9
@@ -22596,23 +22605,23 @@ _sk_xy_to_2pt_conical_quadratic_max_hsw:
.byte 197,50,89,80,44 // vmulss 0x2c(%rax),%xmm9,%xmm10
.byte 196,66,125,24,210 // vbroadcastss %xmm10,%ymm10
.byte 197,44,88,208 // vaddps %ymm0,%ymm10,%ymm10
- .byte 196,98,125,24,29,109,85,2,0 // vbroadcastss 0x2556d(%rip),%ymm11 # 32b18 <_sk_srcover_rgba_8888_sse2_lowp+0x9d8>
+ .byte 196,98,125,24,29,133,85,2,0 // vbroadcastss 0x25585(%rip),%ymm11 # 32b3c <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
.byte 196,65,44,89,211 // vmulps %ymm11,%ymm10,%ymm10
.byte 197,116,89,217 // vmulps %ymm1,%ymm1,%ymm11
.byte 196,98,125,184,216 // vfmadd231ps %ymm0,%ymm0,%ymm11
.byte 196,193,50,89,193 // vmulss %xmm9,%xmm9,%xmm0
.byte 196,226,125,24,192 // vbroadcastss %xmm0,%ymm0
.byte 197,164,92,192 // vsubps %ymm0,%ymm11,%ymm0
- .byte 196,98,125,24,13,76,85,2,0 // vbroadcastss 0x2554c(%rip),%ymm9 # 32b1c <_sk_srcover_rgba_8888_sse2_lowp+0x9dc>
+ .byte 196,98,125,24,13,100,85,2,0 // vbroadcastss 0x25564(%rip),%ymm9 # 32b40 <_sk_srcover_rgba_8888_sse2_lowp+0x9e4>
.byte 196,65,60,89,193 // vmulps %ymm9,%ymm8,%ymm8
.byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
.byte 196,194,45,184,194 // vfmadd231ps %ymm10,%ymm10,%ymm0
.byte 197,252,81,192 // vsqrtps %ymm0,%ymm0
.byte 196,98,125,24,64,36 // vbroadcastss 0x24(%rax),%ymm8
- .byte 196,98,125,24,13,47,85,2,0 // vbroadcastss 0x2552f(%rip),%ymm9 # 32b20 <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
+ .byte 196,98,125,24,13,71,85,2,0 // vbroadcastss 0x25547(%rip),%ymm9 # 32b44 <_sk_srcover_rgba_8888_sse2_lowp+0x9e8>
.byte 196,65,44,87,201 // vxorps %ymm9,%ymm10,%ymm9
.byte 196,65,124,92,210 // vsubps %ymm10,%ymm0,%ymm10
- .byte 196,98,125,24,29,192,83,2,0 // vbroadcastss 0x253c0(%rip),%ymm11 # 329c4 <_sk_srcover_rgba_8888_sse2_lowp+0x884>
+ .byte 196,98,125,24,29,212,83,2,0 // vbroadcastss 0x253d4(%rip),%ymm11 # 329e4 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 196,65,60,89,195 // vmulps %ymm11,%ymm8,%ymm8
.byte 196,65,44,89,208 // vmulps %ymm8,%ymm10,%ymm10
.byte 197,180,92,192 // vsubps %ymm0,%ymm9,%ymm0
@@ -22631,23 +22640,23 @@ _sk_xy_to_2pt_conical_quadratic_min_hsw:
.byte 197,50,89,80,44 // vmulss 0x2c(%rax),%xmm9,%xmm10
.byte 196,66,125,24,210 // vbroadcastss %xmm10,%ymm10
.byte 197,44,88,208 // vaddps %ymm0,%ymm10,%ymm10
- .byte 196,98,125,24,29,213,84,2,0 // vbroadcastss 0x254d5(%rip),%ymm11 # 32b18 <_sk_srcover_rgba_8888_sse2_lowp+0x9d8>
+ .byte 196,98,125,24,29,237,84,2,0 // vbroadcastss 0x254ed(%rip),%ymm11 # 32b3c <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
.byte 196,65,44,89,211 // vmulps %ymm11,%ymm10,%ymm10
.byte 197,116,89,217 // vmulps %ymm1,%ymm1,%ymm11
.byte 196,98,125,184,216 // vfmadd231ps %ymm0,%ymm0,%ymm11
.byte 196,193,50,89,193 // vmulss %xmm9,%xmm9,%xmm0
.byte 196,226,125,24,192 // vbroadcastss %xmm0,%ymm0
.byte 197,164,92,192 // vsubps %ymm0,%ymm11,%ymm0
- .byte 196,98,125,24,13,180,84,2,0 // vbroadcastss 0x254b4(%rip),%ymm9 # 32b1c <_sk_srcover_rgba_8888_sse2_lowp+0x9dc>
+ .byte 196,98,125,24,13,204,84,2,0 // vbroadcastss 0x254cc(%rip),%ymm9 # 32b40 <_sk_srcover_rgba_8888_sse2_lowp+0x9e4>
.byte 196,65,60,89,193 // vmulps %ymm9,%ymm8,%ymm8
.byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
.byte 196,194,45,184,194 // vfmadd231ps %ymm10,%ymm10,%ymm0
.byte 197,252,81,192 // vsqrtps %ymm0,%ymm0
.byte 196,98,125,24,64,36 // vbroadcastss 0x24(%rax),%ymm8
- .byte 196,98,125,24,13,151,84,2,0 // vbroadcastss 0x25497(%rip),%ymm9 # 32b20 <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
+ .byte 196,98,125,24,13,175,84,2,0 // vbroadcastss 0x254af(%rip),%ymm9 # 32b44 <_sk_srcover_rgba_8888_sse2_lowp+0x9e8>
.byte 196,65,44,87,201 // vxorps %ymm9,%ymm10,%ymm9
.byte 196,65,124,92,210 // vsubps %ymm10,%ymm0,%ymm10
- .byte 196,98,125,24,29,40,83,2,0 // vbroadcastss 0x25328(%rip),%ymm11 # 329c4 <_sk_srcover_rgba_8888_sse2_lowp+0x884>
+ .byte 196,98,125,24,29,60,83,2,0 // vbroadcastss 0x2533c(%rip),%ymm11 # 329e4 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 196,65,60,89,195 // vmulps %ymm11,%ymm8,%ymm8
.byte 196,65,44,89,208 // vmulps %ymm8,%ymm10,%ymm10
.byte 197,180,92,192 // vsubps %ymm0,%ymm9,%ymm0
@@ -22665,14 +22674,14 @@ _sk_xy_to_2pt_conical_linear_hsw:
.byte 197,58,89,72,44 // vmulss 0x2c(%rax),%xmm8,%xmm9
.byte 196,66,125,24,201 // vbroadcastss %xmm9,%ymm9
.byte 197,52,88,200 // vaddps %ymm0,%ymm9,%ymm9
- .byte 196,98,125,24,21,67,84,2,0 // vbroadcastss 0x25443(%rip),%ymm10 # 32b18 <_sk_srcover_rgba_8888_sse2_lowp+0x9d8>
+ .byte 196,98,125,24,21,91,84,2,0 // vbroadcastss 0x2545b(%rip),%ymm10 # 32b3c <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
.byte 196,65,52,89,202 // vmulps %ymm10,%ymm9,%ymm9
.byte 197,116,89,209 // vmulps %ymm1,%ymm1,%ymm10
.byte 196,98,125,184,208 // vfmadd231ps %ymm0,%ymm0,%ymm10
.byte 196,193,58,89,192 // vmulss %xmm8,%xmm8,%xmm0
.byte 196,226,125,24,192 // vbroadcastss %xmm0,%ymm0
.byte 197,172,92,192 // vsubps %ymm0,%ymm10,%ymm0
- .byte 196,98,125,24,5,38,84,2,0 // vbroadcastss 0x25426(%rip),%ymm8 # 32b20 <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
+ .byte 196,98,125,24,5,62,84,2,0 // vbroadcastss 0x2543e(%rip),%ymm8 # 32b44 <_sk_srcover_rgba_8888_sse2_lowp+0x9e8>
.byte 196,193,124,87,192 // vxorps %ymm8,%ymm0,%ymm0
.byte 196,193,124,94,193 // vdivps %ymm9,%ymm0,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -22715,7 +22724,7 @@ HIDDEN _sk_save_xy_hsw
FUNCTION(_sk_save_xy_hsw)
_sk_save_xy_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,98,125,24,5,85,82,2,0 // vbroadcastss 0x25255(%rip),%ymm8 # 329c4 <_sk_srcover_rgba_8888_sse2_lowp+0x884>
+ .byte 196,98,125,24,5,105,82,2,0 // vbroadcastss 0x25269(%rip),%ymm8 # 329e4 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 196,65,124,88,200 // vaddps %ymm8,%ymm0,%ymm9
.byte 196,67,125,8,209,1 // vroundps $0x1,%ymm9,%ymm10
.byte 196,65,52,92,202 // vsubps %ymm10,%ymm9,%ymm9
@@ -22749,9 +22758,9 @@ HIDDEN _sk_bilinear_nx_hsw
FUNCTION(_sk_bilinear_nx_hsw)
_sk_bilinear_nx_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,5,69,83,2,0 // vbroadcastss 0x25345(%rip),%ymm0 # 32b24 <_sk_srcover_rgba_8888_sse2_lowp+0x9e4>
+ .byte 196,226,125,24,5,93,83,2,0 // vbroadcastss 0x2535d(%rip),%ymm0 # 32b48 <_sk_srcover_rgba_8888_sse2_lowp+0x9ec>
.byte 197,252,88,0 // vaddps (%rax),%ymm0,%ymm0
- .byte 196,98,125,24,5,220,81,2,0 // vbroadcastss 0x251dc(%rip),%ymm8 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 196,98,125,24,5,240,81,2,0 // vbroadcastss 0x251f0(%rip),%ymm8 # 329e8 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 197,60,92,64,64 // vsubps 0x40(%rax),%ymm8,%ymm8
.byte 197,124,17,128,128,0,0,0 // vmovups %ymm8,0x80(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -22762,7 +22771,7 @@ HIDDEN _sk_bilinear_px_hsw
FUNCTION(_sk_bilinear_px_hsw)
_sk_bilinear_px_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,5,188,81,2,0 // vbroadcastss 0x251bc(%rip),%ymm0 # 329c4 <_sk_srcover_rgba_8888_sse2_lowp+0x884>
+ .byte 196,226,125,24,5,208,81,2,0 // vbroadcastss 0x251d0(%rip),%ymm0 # 329e4 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 197,252,88,0 // vaddps (%rax),%ymm0,%ymm0
.byte 197,124,16,64,64 // vmovups 0x40(%rax),%ymm8
.byte 197,124,17,128,128,0,0,0 // vmovups %ymm8,0x80(%rax)
@@ -22774,9 +22783,9 @@ HIDDEN _sk_bilinear_ny_hsw
FUNCTION(_sk_bilinear_ny_hsw)
_sk_bilinear_ny_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,13,252,82,2,0 // vbroadcastss 0x252fc(%rip),%ymm1 # 32b24 <_sk_srcover_rgba_8888_sse2_lowp+0x9e4>
+ .byte 196,226,125,24,13,20,83,2,0 // vbroadcastss 0x25314(%rip),%ymm1 # 32b48 <_sk_srcover_rgba_8888_sse2_lowp+0x9ec>
.byte 197,244,88,72,32 // vaddps 0x20(%rax),%ymm1,%ymm1
- .byte 196,98,125,24,5,146,81,2,0 // vbroadcastss 0x25192(%rip),%ymm8 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 196,98,125,24,5,166,81,2,0 // vbroadcastss 0x251a6(%rip),%ymm8 # 329e8 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 197,60,92,64,96 // vsubps 0x60(%rax),%ymm8,%ymm8
.byte 197,124,17,128,160,0,0,0 // vmovups %ymm8,0xa0(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -22787,7 +22796,7 @@ HIDDEN _sk_bilinear_py_hsw
FUNCTION(_sk_bilinear_py_hsw)
_sk_bilinear_py_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,13,114,81,2,0 // vbroadcastss 0x25172(%rip),%ymm1 # 329c4 <_sk_srcover_rgba_8888_sse2_lowp+0x884>
+ .byte 196,226,125,24,13,134,81,2,0 // vbroadcastss 0x25186(%rip),%ymm1 # 329e4 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 197,244,88,72,32 // vaddps 0x20(%rax),%ymm1,%ymm1
.byte 197,124,16,64,96 // vmovups 0x60(%rax),%ymm8
.byte 197,124,17,128,160,0,0,0 // vmovups %ymm8,0xa0(%rax)
@@ -22799,13 +22808,13 @@ HIDDEN _sk_bicubic_n3x_hsw
FUNCTION(_sk_bicubic_n3x_hsw)
_sk_bicubic_n3x_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,5,181,82,2,0 // vbroadcastss 0x252b5(%rip),%ymm0 # 32b28 <_sk_srcover_rgba_8888_sse2_lowp+0x9e8>
+ .byte 196,226,125,24,5,205,82,2,0 // vbroadcastss 0x252cd(%rip),%ymm0 # 32b4c <_sk_srcover_rgba_8888_sse2_lowp+0x9f0>
.byte 197,252,88,0 // vaddps (%rax),%ymm0,%ymm0
- .byte 196,98,125,24,5,72,81,2,0 // vbroadcastss 0x25148(%rip),%ymm8 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 196,98,125,24,5,92,81,2,0 // vbroadcastss 0x2515c(%rip),%ymm8 # 329e8 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 197,60,92,64,64 // vsubps 0x40(%rax),%ymm8,%ymm8
.byte 196,65,60,89,200 // vmulps %ymm8,%ymm8,%ymm9
- .byte 196,98,125,24,21,165,81,2,0 // vbroadcastss 0x251a5(%rip),%ymm10 # 32a38 <_sk_srcover_rgba_8888_sse2_lowp+0x8f8>
- .byte 196,98,125,24,29,144,82,2,0 // vbroadcastss 0x25290(%rip),%ymm11 # 32b2c <_sk_srcover_rgba_8888_sse2_lowp+0x9ec>
+ .byte 196,98,125,24,21,189,81,2,0 // vbroadcastss 0x251bd(%rip),%ymm10 # 32a5c <_sk_srcover_rgba_8888_sse2_lowp+0x900>
+ .byte 196,98,125,24,29,168,82,2,0 // vbroadcastss 0x252a8(%rip),%ymm11 # 32b50 <_sk_srcover_rgba_8888_sse2_lowp+0x9f4>
.byte 196,66,61,168,218 // vfmadd213ps %ymm10,%ymm8,%ymm11
.byte 196,65,36,89,193 // vmulps %ymm9,%ymm11,%ymm8
.byte 197,124,17,128,128,0,0,0 // vmovups %ymm8,0x80(%rax)
@@ -22817,16 +22826,16 @@ HIDDEN _sk_bicubic_n1x_hsw
FUNCTION(_sk_bicubic_n1x_hsw)
_sk_bicubic_n1x_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,5,103,82,2,0 // vbroadcastss 0x25267(%rip),%ymm0 # 32b24 <_sk_srcover_rgba_8888_sse2_lowp+0x9e4>
+ .byte 196,226,125,24,5,127,82,2,0 // vbroadcastss 0x2527f(%rip),%ymm0 # 32b48 <_sk_srcover_rgba_8888_sse2_lowp+0x9ec>
.byte 197,252,88,0 // vaddps (%rax),%ymm0,%ymm0
- .byte 196,98,125,24,5,254,80,2,0 // vbroadcastss 0x250fe(%rip),%ymm8 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 196,98,125,24,5,18,81,2,0 // vbroadcastss 0x25112(%rip),%ymm8 # 329e8 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 197,60,92,64,64 // vsubps 0x40(%rax),%ymm8,%ymm8
- .byte 196,98,125,24,13,92,82,2,0 // vbroadcastss 0x2525c(%rip),%ymm9 # 32b34 <_sk_srcover_rgba_8888_sse2_lowp+0x9f4>
- .byte 196,98,125,24,21,79,82,2,0 // vbroadcastss 0x2524f(%rip),%ymm10 # 32b30 <_sk_srcover_rgba_8888_sse2_lowp+0x9f0>
+ .byte 196,98,125,24,13,116,82,2,0 // vbroadcastss 0x25274(%rip),%ymm9 # 32b58 <_sk_srcover_rgba_8888_sse2_lowp+0x9fc>
+ .byte 196,98,125,24,21,103,82,2,0 // vbroadcastss 0x25267(%rip),%ymm10 # 32b54 <_sk_srcover_rgba_8888_sse2_lowp+0x9f8>
.byte 196,66,61,168,209 // vfmadd213ps %ymm9,%ymm8,%ymm10
- .byte 196,98,125,24,13,213,80,2,0 // vbroadcastss 0x250d5(%rip),%ymm9 # 329c4 <_sk_srcover_rgba_8888_sse2_lowp+0x884>
+ .byte 196,98,125,24,13,233,80,2,0 // vbroadcastss 0x250e9(%rip),%ymm9 # 329e4 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 196,66,61,184,202 // vfmadd231ps %ymm10,%ymm8,%ymm9
- .byte 196,98,125,24,21,59,82,2,0 // vbroadcastss 0x2523b(%rip),%ymm10 # 32b38 <_sk_srcover_rgba_8888_sse2_lowp+0x9f8>
+ .byte 196,98,125,24,21,83,82,2,0 // vbroadcastss 0x25253(%rip),%ymm10 # 32b5c <_sk_srcover_rgba_8888_sse2_lowp+0xa00>
.byte 196,66,61,184,209 // vfmadd231ps %ymm9,%ymm8,%ymm10
.byte 197,124,17,144,128,0,0,0 // vmovups %ymm10,0x80(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -22837,14 +22846,14 @@ HIDDEN _sk_bicubic_p1x_hsw
FUNCTION(_sk_bicubic_p1x_hsw)
_sk_bicubic_p1x_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,98,125,24,5,171,80,2,0 // vbroadcastss 0x250ab(%rip),%ymm8 # 329c4 <_sk_srcover_rgba_8888_sse2_lowp+0x884>
+ .byte 196,98,125,24,5,191,80,2,0 // vbroadcastss 0x250bf(%rip),%ymm8 # 329e4 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 197,188,88,0 // vaddps (%rax),%ymm8,%ymm0
.byte 197,124,16,72,64 // vmovups 0x40(%rax),%ymm9
- .byte 196,98,125,24,21,9,82,2,0 // vbroadcastss 0x25209(%rip),%ymm10 # 32b34 <_sk_srcover_rgba_8888_sse2_lowp+0x9f4>
- .byte 196,98,125,24,29,252,81,2,0 // vbroadcastss 0x251fc(%rip),%ymm11 # 32b30 <_sk_srcover_rgba_8888_sse2_lowp+0x9f0>
+ .byte 196,98,125,24,21,33,82,2,0 // vbroadcastss 0x25221(%rip),%ymm10 # 32b58 <_sk_srcover_rgba_8888_sse2_lowp+0x9fc>
+ .byte 196,98,125,24,29,20,82,2,0 // vbroadcastss 0x25214(%rip),%ymm11 # 32b54 <_sk_srcover_rgba_8888_sse2_lowp+0x9f8>
.byte 196,66,53,168,218 // vfmadd213ps %ymm10,%ymm9,%ymm11
.byte 196,66,53,168,216 // vfmadd213ps %ymm8,%ymm9,%ymm11
- .byte 196,98,125,24,5,241,81,2,0 // vbroadcastss 0x251f1(%rip),%ymm8 # 32b38 <_sk_srcover_rgba_8888_sse2_lowp+0x9f8>
+ .byte 196,98,125,24,5,9,82,2,0 // vbroadcastss 0x25209(%rip),%ymm8 # 32b5c <_sk_srcover_rgba_8888_sse2_lowp+0xa00>
.byte 196,66,53,184,195 // vfmadd231ps %ymm11,%ymm9,%ymm8
.byte 197,124,17,128,128,0,0,0 // vmovups %ymm8,0x80(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -22855,12 +22864,12 @@ HIDDEN _sk_bicubic_p3x_hsw
FUNCTION(_sk_bicubic_p3x_hsw)
_sk_bicubic_p3x_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,5,209,81,2,0 // vbroadcastss 0x251d1(%rip),%ymm0 # 32b34 <_sk_srcover_rgba_8888_sse2_lowp+0x9f4>
+ .byte 196,226,125,24,5,233,81,2,0 // vbroadcastss 0x251e9(%rip),%ymm0 # 32b58 <_sk_srcover_rgba_8888_sse2_lowp+0x9fc>
.byte 197,252,88,0 // vaddps (%rax),%ymm0,%ymm0
.byte 197,124,16,64,64 // vmovups 0x40(%rax),%ymm8
.byte 196,65,60,89,200 // vmulps %ymm8,%ymm8,%ymm9
- .byte 196,98,125,24,21,190,80,2,0 // vbroadcastss 0x250be(%rip),%ymm10 # 32a38 <_sk_srcover_rgba_8888_sse2_lowp+0x8f8>
- .byte 196,98,125,24,29,169,81,2,0 // vbroadcastss 0x251a9(%rip),%ymm11 # 32b2c <_sk_srcover_rgba_8888_sse2_lowp+0x9ec>
+ .byte 196,98,125,24,21,214,80,2,0 // vbroadcastss 0x250d6(%rip),%ymm10 # 32a5c <_sk_srcover_rgba_8888_sse2_lowp+0x900>
+ .byte 196,98,125,24,29,193,81,2,0 // vbroadcastss 0x251c1(%rip),%ymm11 # 32b50 <_sk_srcover_rgba_8888_sse2_lowp+0x9f4>
.byte 196,66,61,168,218 // vfmadd213ps %ymm10,%ymm8,%ymm11
.byte 196,65,52,89,195 // vmulps %ymm11,%ymm9,%ymm8
.byte 197,124,17,128,128,0,0,0 // vmovups %ymm8,0x80(%rax)
@@ -22872,13 +22881,13 @@ HIDDEN _sk_bicubic_n3y_hsw
FUNCTION(_sk_bicubic_n3y_hsw)
_sk_bicubic_n3y_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,13,132,81,2,0 // vbroadcastss 0x25184(%rip),%ymm1 # 32b28 <_sk_srcover_rgba_8888_sse2_lowp+0x9e8>
+ .byte 196,226,125,24,13,156,81,2,0 // vbroadcastss 0x2519c(%rip),%ymm1 # 32b4c <_sk_srcover_rgba_8888_sse2_lowp+0x9f0>
.byte 197,244,88,72,32 // vaddps 0x20(%rax),%ymm1,%ymm1
- .byte 196,98,125,24,5,22,80,2,0 // vbroadcastss 0x25016(%rip),%ymm8 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 196,98,125,24,5,42,80,2,0 // vbroadcastss 0x2502a(%rip),%ymm8 # 329e8 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 197,60,92,64,96 // vsubps 0x60(%rax),%ymm8,%ymm8
.byte 196,65,60,89,200 // vmulps %ymm8,%ymm8,%ymm9
- .byte 196,98,125,24,21,115,80,2,0 // vbroadcastss 0x25073(%rip),%ymm10 # 32a38 <_sk_srcover_rgba_8888_sse2_lowp+0x8f8>
- .byte 196,98,125,24,29,94,81,2,0 // vbroadcastss 0x2515e(%rip),%ymm11 # 32b2c <_sk_srcover_rgba_8888_sse2_lowp+0x9ec>
+ .byte 196,98,125,24,21,139,80,2,0 // vbroadcastss 0x2508b(%rip),%ymm10 # 32a5c <_sk_srcover_rgba_8888_sse2_lowp+0x900>
+ .byte 196,98,125,24,29,118,81,2,0 // vbroadcastss 0x25176(%rip),%ymm11 # 32b50 <_sk_srcover_rgba_8888_sse2_lowp+0x9f4>
.byte 196,66,61,168,218 // vfmadd213ps %ymm10,%ymm8,%ymm11
.byte 196,65,36,89,193 // vmulps %ymm9,%ymm11,%ymm8
.byte 197,124,17,128,160,0,0,0 // vmovups %ymm8,0xa0(%rax)
@@ -22890,16 +22899,16 @@ HIDDEN _sk_bicubic_n1y_hsw
FUNCTION(_sk_bicubic_n1y_hsw)
_sk_bicubic_n1y_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,13,53,81,2,0 // vbroadcastss 0x25135(%rip),%ymm1 # 32b24 <_sk_srcover_rgba_8888_sse2_lowp+0x9e4>
+ .byte 196,226,125,24,13,77,81,2,0 // vbroadcastss 0x2514d(%rip),%ymm1 # 32b48 <_sk_srcover_rgba_8888_sse2_lowp+0x9ec>
.byte 197,244,88,72,32 // vaddps 0x20(%rax),%ymm1,%ymm1
- .byte 196,98,125,24,5,203,79,2,0 // vbroadcastss 0x24fcb(%rip),%ymm8 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 196,98,125,24,5,223,79,2,0 // vbroadcastss 0x24fdf(%rip),%ymm8 # 329e8 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 197,60,92,64,96 // vsubps 0x60(%rax),%ymm8,%ymm8
- .byte 196,98,125,24,13,41,81,2,0 // vbroadcastss 0x25129(%rip),%ymm9 # 32b34 <_sk_srcover_rgba_8888_sse2_lowp+0x9f4>
- .byte 196,98,125,24,21,28,81,2,0 // vbroadcastss 0x2511c(%rip),%ymm10 # 32b30 <_sk_srcover_rgba_8888_sse2_lowp+0x9f0>
+ .byte 196,98,125,24,13,65,81,2,0 // vbroadcastss 0x25141(%rip),%ymm9 # 32b58 <_sk_srcover_rgba_8888_sse2_lowp+0x9fc>
+ .byte 196,98,125,24,21,52,81,2,0 // vbroadcastss 0x25134(%rip),%ymm10 # 32b54 <_sk_srcover_rgba_8888_sse2_lowp+0x9f8>
.byte 196,66,61,168,209 // vfmadd213ps %ymm9,%ymm8,%ymm10
- .byte 196,98,125,24,13,162,79,2,0 // vbroadcastss 0x24fa2(%rip),%ymm9 # 329c4 <_sk_srcover_rgba_8888_sse2_lowp+0x884>
+ .byte 196,98,125,24,13,182,79,2,0 // vbroadcastss 0x24fb6(%rip),%ymm9 # 329e4 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 196,66,61,184,202 // vfmadd231ps %ymm10,%ymm8,%ymm9
- .byte 196,98,125,24,21,8,81,2,0 // vbroadcastss 0x25108(%rip),%ymm10 # 32b38 <_sk_srcover_rgba_8888_sse2_lowp+0x9f8>
+ .byte 196,98,125,24,21,32,81,2,0 // vbroadcastss 0x25120(%rip),%ymm10 # 32b5c <_sk_srcover_rgba_8888_sse2_lowp+0xa00>
.byte 196,66,61,184,209 // vfmadd231ps %ymm9,%ymm8,%ymm10
.byte 197,124,17,144,160,0,0,0 // vmovups %ymm10,0xa0(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -22910,14 +22919,14 @@ HIDDEN _sk_bicubic_p1y_hsw
FUNCTION(_sk_bicubic_p1y_hsw)
_sk_bicubic_p1y_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,98,125,24,5,120,79,2,0 // vbroadcastss 0x24f78(%rip),%ymm8 # 329c4 <_sk_srcover_rgba_8888_sse2_lowp+0x884>
+ .byte 196,98,125,24,5,140,79,2,0 // vbroadcastss 0x24f8c(%rip),%ymm8 # 329e4 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 197,188,88,72,32 // vaddps 0x20(%rax),%ymm8,%ymm1
.byte 197,124,16,72,96 // vmovups 0x60(%rax),%ymm9
- .byte 196,98,125,24,21,213,80,2,0 // vbroadcastss 0x250d5(%rip),%ymm10 # 32b34 <_sk_srcover_rgba_8888_sse2_lowp+0x9f4>
- .byte 196,98,125,24,29,200,80,2,0 // vbroadcastss 0x250c8(%rip),%ymm11 # 32b30 <_sk_srcover_rgba_8888_sse2_lowp+0x9f0>
+ .byte 196,98,125,24,21,237,80,2,0 // vbroadcastss 0x250ed(%rip),%ymm10 # 32b58 <_sk_srcover_rgba_8888_sse2_lowp+0x9fc>
+ .byte 196,98,125,24,29,224,80,2,0 // vbroadcastss 0x250e0(%rip),%ymm11 # 32b54 <_sk_srcover_rgba_8888_sse2_lowp+0x9f8>
.byte 196,66,53,168,218 // vfmadd213ps %ymm10,%ymm9,%ymm11
.byte 196,66,53,168,216 // vfmadd213ps %ymm8,%ymm9,%ymm11
- .byte 196,98,125,24,5,189,80,2,0 // vbroadcastss 0x250bd(%rip),%ymm8 # 32b38 <_sk_srcover_rgba_8888_sse2_lowp+0x9f8>
+ .byte 196,98,125,24,5,213,80,2,0 // vbroadcastss 0x250d5(%rip),%ymm8 # 32b5c <_sk_srcover_rgba_8888_sse2_lowp+0xa00>
.byte 196,66,53,184,195 // vfmadd231ps %ymm11,%ymm9,%ymm8
.byte 197,124,17,128,160,0,0,0 // vmovups %ymm8,0xa0(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -22928,12 +22937,12 @@ HIDDEN _sk_bicubic_p3y_hsw
FUNCTION(_sk_bicubic_p3y_hsw)
_sk_bicubic_p3y_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,13,157,80,2,0 // vbroadcastss 0x2509d(%rip),%ymm1 # 32b34 <_sk_srcover_rgba_8888_sse2_lowp+0x9f4>
+ .byte 196,226,125,24,13,181,80,2,0 // vbroadcastss 0x250b5(%rip),%ymm1 # 32b58 <_sk_srcover_rgba_8888_sse2_lowp+0x9fc>
.byte 197,244,88,72,32 // vaddps 0x20(%rax),%ymm1,%ymm1
.byte 197,124,16,64,96 // vmovups 0x60(%rax),%ymm8
.byte 196,65,60,89,200 // vmulps %ymm8,%ymm8,%ymm9
- .byte 196,98,125,24,21,137,79,2,0 // vbroadcastss 0x24f89(%rip),%ymm10 # 32a38 <_sk_srcover_rgba_8888_sse2_lowp+0x8f8>
- .byte 196,98,125,24,29,116,80,2,0 // vbroadcastss 0x25074(%rip),%ymm11 # 32b2c <_sk_srcover_rgba_8888_sse2_lowp+0x9ec>
+ .byte 196,98,125,24,21,161,79,2,0 // vbroadcastss 0x24fa1(%rip),%ymm10 # 32a5c <_sk_srcover_rgba_8888_sse2_lowp+0x900>
+ .byte 196,98,125,24,29,140,80,2,0 // vbroadcastss 0x2508c(%rip),%ymm11 # 32b50 <_sk_srcover_rgba_8888_sse2_lowp+0x9f4>
.byte 196,66,61,168,218 // vfmadd213ps %ymm10,%ymm8,%ymm11
.byte 196,65,52,89,195 // vmulps %ymm11,%ymm9,%ymm8
.byte 197,124,17,128,160,0,0,0 // vmovups %ymm8,0xa0(%rax)
@@ -23073,7 +23082,7 @@ _sk_clut_3D_hsw:
.byte 196,98,93,64,218 // vpmulld %ymm2,%ymm4,%ymm11
.byte 72,139,0 // mov (%rax),%rax
.byte 197,165,254,193 // vpaddd %ymm1,%ymm11,%ymm0
- .byte 196,98,125,88,61,54,78,2,0 // vpbroadcastd 0x24e36(%rip),%ymm15 # 32b40 <_sk_srcover_rgba_8888_sse2_lowp+0xa00>
+ .byte 196,98,125,88,61,78,78,2,0 // vpbroadcastd 0x24e4e(%rip),%ymm15 # 32b64 <_sk_srcover_rgba_8888_sse2_lowp+0xa08>
.byte 196,194,125,64,199 // vpmulld %ymm15,%ymm0,%ymm0
.byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
.byte 197,237,118,210 // vpcmpeqd %ymm2,%ymm2,%ymm2
@@ -23085,13 +23094,13 @@ _sk_clut_3D_hsw:
.byte 197,213,118,237 // vpcmpeqd %ymm5,%ymm5,%ymm5
.byte 196,226,85,146,60,144 // vgatherdps %ymm5,(%rax,%ymm2,4),%ymm7
.byte 197,252,17,188,36,0,2,0,0 // vmovups %ymm7,0x200(%rsp)
- .byte 196,226,125,88,61,132,76,2,0 // vpbroadcastd 0x24c84(%rip),%ymm7 # 329d4 <_sk_srcover_rgba_8888_sse2_lowp+0x894>
+ .byte 196,226,125,88,61,152,76,2,0 // vpbroadcastd 0x24c98(%rip),%ymm7 # 329f4 <_sk_srcover_rgba_8888_sse2_lowp+0x898>
.byte 197,253,254,199 // vpaddd %ymm7,%ymm0,%ymm0
.byte 197,236,87,210 // vxorps %ymm2,%ymm2,%ymm2
.byte 197,213,118,237 // vpcmpeqd %ymm5,%ymm5,%ymm5
.byte 196,226,85,146,20,128 // vgatherdps %ymm5,(%rax,%ymm0,4),%ymm2
.byte 197,252,17,148,36,32,1,0,0 // vmovups %ymm2,0x120(%rsp)
- .byte 196,226,125,24,5,200,77,2,0 // vbroadcastss 0x24dc8(%rip),%ymm0 # 32b3c <_sk_srcover_rgba_8888_sse2_lowp+0x9fc>
+ .byte 196,226,125,24,5,224,77,2,0 // vbroadcastss 0x24de0(%rip),%ymm0 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xa04>
.byte 197,172,88,232 // vaddps %ymm0,%ymm10,%ymm5
.byte 197,254,91,237 // vcvttps2dq %ymm5,%ymm5
.byte 196,226,93,64,213 // vpmulld %ymm5,%ymm4,%ymm2
@@ -23353,7 +23362,7 @@ _sk_clut_4D_hsw:
.byte 197,254,127,132,36,0,1,0,0 // vmovdqu %ymm0,0x100(%rsp)
.byte 196,98,109,64,200 // vpmulld %ymm0,%ymm2,%ymm9
.byte 197,181,254,199 // vpaddd %ymm7,%ymm9,%ymm0
- .byte 196,98,125,88,21,97,72,2,0 // vpbroadcastd 0x24861(%rip),%ymm10 # 32b40 <_sk_srcover_rgba_8888_sse2_lowp+0xa00>
+ .byte 196,98,125,88,21,121,72,2,0 // vpbroadcastd 0x24879(%rip),%ymm10 # 32b64 <_sk_srcover_rgba_8888_sse2_lowp+0xa08>
.byte 196,194,125,64,194 // vpmulld %ymm10,%ymm0,%ymm0
.byte 197,213,118,237 // vpcmpeqd %ymm5,%ymm5,%ymm5
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
@@ -23365,13 +23374,13 @@ _sk_clut_4D_hsw:
.byte 196,65,36,87,219 // vxorps %ymm11,%ymm11,%ymm11
.byte 196,98,61,146,28,168 // vgatherdps %ymm8,(%rax,%ymm5,4),%ymm11
.byte 197,124,17,156,36,192,0,0,0 // vmovups %ymm11,0xc0(%rsp)
- .byte 196,98,125,88,29,172,70,2,0 // vpbroadcastd 0x246ac(%rip),%ymm11 # 329d4 <_sk_srcover_rgba_8888_sse2_lowp+0x894>
+ .byte 196,98,125,88,29,192,70,2,0 // vpbroadcastd 0x246c0(%rip),%ymm11 # 329f4 <_sk_srcover_rgba_8888_sse2_lowp+0x898>
.byte 196,193,125,254,195 // vpaddd %ymm11,%ymm0,%ymm0
.byte 196,65,61,118,192 // vpcmpeqd %ymm8,%ymm8,%ymm8
.byte 197,212,87,237 // vxorps %ymm5,%ymm5,%ymm5
.byte 196,226,61,146,44,128 // vgatherdps %ymm8,(%rax,%ymm0,4),%ymm5
.byte 197,252,17,108,36,32 // vmovups %ymm5,0x20(%rsp)
- .byte 196,226,125,24,5,241,71,2,0 // vbroadcastss 0x247f1(%rip),%ymm0 # 32b3c <_sk_srcover_rgba_8888_sse2_lowp+0x9fc>
+ .byte 196,226,125,24,5,9,72,2,0 // vbroadcastss 0x24809(%rip),%ymm0 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xa04>
.byte 197,116,88,192 // vaddps %ymm0,%ymm1,%ymm8
.byte 196,65,126,91,192 // vcvttps2dq %ymm8,%ymm8
.byte 196,194,109,64,232 // vpmulld %ymm8,%ymm2,%ymm5
@@ -23804,7 +23813,7 @@ _sk_clut_4D_hsw:
.byte 196,193,100,92,210 // vsubps %ymm10,%ymm3,%ymm2
.byte 196,194,77,168,210 // vfmadd213ps %ymm10,%ymm6,%ymm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,207,60,2,0 // vbroadcastss 0x23ccf(%rip),%ymm3 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 196,226,125,24,29,227,60,2,0 // vbroadcastss 0x23ce3(%rip),%ymm3 # 329e8 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 197,252,16,164,36,96,6,0,0 // vmovups 0x660(%rsp),%ymm4
.byte 197,252,16,172,36,128,6,0,0 // vmovups 0x680(%rsp),%ymm5
.byte 197,252,16,180,36,160,6,0,0 // vmovups 0x6a0(%rsp),%ymm6
@@ -23835,13 +23844,13 @@ _sk_start_pipeline_avx:
.byte 73,137,246 // mov %rsi,%r14
.byte 72,137,77,192 // mov %rcx,-0x40(%rbp)
.byte 72,57,203 // cmp %rcx,%rbx
- .byte 15,131,151,0,0,0 // jae edf2 <_sk_start_pipeline_avx+0xca>
+ .byte 15,131,151,0,0,0 // jae edfe <_sk_start_pipeline_avx+0xca>
.byte 72,139,69,208 // mov -0x30(%rbp),%rax
.byte 72,141,64,8 // lea 0x8(%rax),%rax
.byte 72,137,69,200 // mov %rax,-0x38(%rbp)
.byte 72,139,85,208 // mov -0x30(%rbp),%rdx
.byte 76,57,125,200 // cmp %r15,-0x38(%rbp)
- .byte 119,67 // ja edb4 <_sk_start_pipeline_avx+0x8c>
+ .byte 119,67 // ja edc0 <_sk_start_pipeline_avx+0x8c>
.byte 76,139,101,208 // mov -0x30(%rbp),%r12
.byte 49,255 // xor %edi,%edi
.byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
@@ -23860,10 +23869,10 @@ _sk_start_pipeline_avx:
.byte 73,131,196,16 // add $0x10,%r12
.byte 77,57,252 // cmp %r15,%r12
.byte 73,137,212 // mov %rdx,%r12
- .byte 118,193 // jbe ed75 <_sk_start_pipeline_avx+0x4d>
+ .byte 118,193 // jbe ed81 <_sk_start_pipeline_avx+0x4d>
.byte 76,137,255 // mov %r15,%rdi
.byte 72,41,215 // sub %rdx,%rdi
- .byte 116,41 // je ede5 <_sk_start_pipeline_avx+0xbd>
+ .byte 116,41 // je edf1 <_sk_start_pipeline_avx+0xbd>
.byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
.byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
.byte 197,236,87,210 // vxorps %ymm2,%ymm2,%ymm2
@@ -23877,7 +23886,7 @@ _sk_start_pipeline_avx:
.byte 65,255,213 // callq *%r13
.byte 72,255,195 // inc %rbx
.byte 72,59,93,192 // cmp -0x40(%rbp),%rbx
- .byte 15,133,117,255,255,255 // jne ed67 <_sk_start_pipeline_avx+0x3f>
+ .byte 15,133,117,255,255,255 // jne ed73 <_sk_start_pipeline_avx+0x3f>
.byte 72,131,196,24 // add $0x18,%rsp
.byte 91 // pop %rbx
.byte 65,92 // pop %r12
@@ -23902,15 +23911,15 @@ _sk_seed_shader_avx:
.byte 197,249,112,192,0 // vpshufd $0x0,%xmm0,%xmm0
.byte 196,227,125,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm0,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 197,252,88,5,96,57,2,0 // vaddps 0x23960(%rip),%ymm0,%ymm0 # 32780 <_sk_srcover_rgba_8888_sse2_lowp+0x640>
+ .byte 197,252,88,5,116,57,2,0 // vaddps 0x23974(%rip),%ymm0,%ymm0 # 327a0 <_sk_srcover_rgba_8888_sse2_lowp+0x644>
.byte 197,249,110,201 // vmovd %ecx,%xmm1
.byte 197,249,112,201,0 // vpshufd $0x0,%xmm1,%xmm1
.byte 196,227,117,24,201,1 // vinsertf128 $0x1,%xmm1,%ymm1,%ymm1
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
- .byte 196,226,125,24,21,136,59,2,0 // vbroadcastss 0x23b88(%rip),%ymm2 # 329c4 <_sk_srcover_rgba_8888_sse2_lowp+0x884>
+ .byte 196,226,125,24,21,156,59,2,0 // vbroadcastss 0x23b9c(%rip),%ymm2 # 329e4 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 197,244,88,202 // vaddps %ymm2,%ymm1,%ymm1
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,21,125,59,2,0 // vbroadcastss 0x23b7d(%rip),%ymm2 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 196,226,125,24,21,145,59,2,0 // vbroadcastss 0x23b91(%rip),%ymm2 # 329e8 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 197,228,87,219 // vxorps %ymm3,%ymm3,%ymm3
.byte 197,220,87,228 // vxorps %ymm4,%ymm4,%ymm4
.byte 197,212,87,237 // vxorps %ymm5,%ymm5,%ymm5
@@ -23924,46 +23933,46 @@ FUNCTION(_sk_dither_avx)
_sk_dither_avx:
.byte 197,121,110,194 // vmovd %edx,%xmm8
.byte 196,65,121,112,192,0 // vpshufd $0x0,%xmm8,%xmm8
- .byte 197,57,254,13,29,61,2,0 // vpaddd 0x23d1d(%rip),%xmm8,%xmm9 # 32b90 <_sk_srcover_rgba_8888_sse2_lowp+0xa50>
- .byte 197,57,254,5,37,61,2,0 // vpaddd 0x23d25(%rip),%xmm8,%xmm8 # 32ba0 <_sk_srcover_rgba_8888_sse2_lowp+0xa60>
+ .byte 197,57,254,13,65,61,2,0 // vpaddd 0x23d41(%rip),%xmm8,%xmm9 # 32bc0 <_sk_srcover_rgba_8888_sse2_lowp+0xa64>
+ .byte 197,57,254,5,73,61,2,0 // vpaddd 0x23d49(%rip),%xmm8,%xmm8 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xa74>
.byte 196,67,53,24,208,1 // vinsertf128 $0x1,%xmm8,%ymm9,%ymm10
.byte 197,121,110,217 // vmovd %ecx,%xmm11
.byte 196,65,121,112,219,0 // vpshufd $0x0,%xmm11,%xmm11
.byte 196,67,37,24,219,1 // vinsertf128 $0x1,%xmm11,%ymm11,%ymm11
.byte 196,65,36,87,218 // vxorps %ymm10,%ymm11,%ymm11
- .byte 196,98,125,24,21,45,59,2,0 // vbroadcastss 0x23b2d(%rip),%ymm10 # 329cc <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+ .byte 196,98,125,24,21,65,59,2,0 // vbroadcastss 0x23b41(%rip),%ymm10 # 329ec <_sk_srcover_rgba_8888_sse2_lowp+0x890>
.byte 196,65,36,84,210 // vandps %ymm10,%ymm11,%ymm10
.byte 196,193,25,114,242,5 // vpslld $0x5,%xmm10,%xmm12
.byte 196,67,125,25,210,1 // vextractf128 $0x1,%ymm10,%xmm10
.byte 196,193,41,114,242,5 // vpslld $0x5,%xmm10,%xmm10
.byte 196,67,29,24,210,1 // vinsertf128 $0x1,%xmm10,%ymm12,%ymm10
- .byte 197,123,18,37,220,68,2,0 // vmovddup 0x244dc(%rip),%xmm12 # 333a0 <_sk_srcover_rgba_8888_sse2_lowp+0x1260>
+ .byte 197,123,18,37,16,69,2,0 // vmovddup 0x24510(%rip),%xmm12 # 333e0 <_sk_srcover_rgba_8888_sse2_lowp+0x1284>
.byte 196,65,49,219,236 // vpand %xmm12,%xmm9,%xmm13
.byte 196,193,17,114,245,4 // vpslld $0x4,%xmm13,%xmm13
.byte 196,65,57,219,228 // vpand %xmm12,%xmm8,%xmm12
.byte 196,193,25,114,244,4 // vpslld $0x4,%xmm12,%xmm12
.byte 196,67,21,24,228,1 // vinsertf128 $0x1,%xmm12,%ymm13,%ymm12
- .byte 196,98,125,24,45,235,58,2,0 // vbroadcastss 0x23aeb(%rip),%ymm13 # 329d4 <_sk_srcover_rgba_8888_sse2_lowp+0x894>
+ .byte 196,98,125,24,45,255,58,2,0 // vbroadcastss 0x23aff(%rip),%ymm13 # 329f4 <_sk_srcover_rgba_8888_sse2_lowp+0x898>
.byte 196,65,36,84,237 // vandps %ymm13,%ymm11,%ymm13
.byte 196,193,9,114,245,2 // vpslld $0x2,%xmm13,%xmm14
.byte 196,67,125,25,237,1 // vextractf128 $0x1,%ymm13,%xmm13
.byte 196,193,17,114,245,2 // vpslld $0x2,%xmm13,%xmm13
.byte 196,67,13,24,237,1 // vinsertf128 $0x1,%xmm13,%ymm14,%ymm13
- .byte 197,123,18,53,154,68,2,0 // vmovddup 0x2449a(%rip),%xmm14 # 333a8 <_sk_srcover_rgba_8888_sse2_lowp+0x1268>
+ .byte 197,123,18,53,206,68,2,0 // vmovddup 0x244ce(%rip),%xmm14 # 333e8 <_sk_srcover_rgba_8888_sse2_lowp+0x128c>
.byte 196,65,49,219,254 // vpand %xmm14,%xmm9,%xmm15
.byte 196,65,1,254,255 // vpaddd %xmm15,%xmm15,%xmm15
.byte 196,65,57,219,246 // vpand %xmm14,%xmm8,%xmm14
.byte 196,65,9,254,246 // vpaddd %xmm14,%xmm14,%xmm14
.byte 196,67,5,24,246,1 // vinsertf128 $0x1,%xmm14,%ymm15,%ymm14
.byte 196,65,12,86,228 // vorps %ymm12,%ymm14,%ymm12
- .byte 196,98,125,24,53,154,58,2,0 // vbroadcastss 0x23a9a(%rip),%ymm14 # 329d0 <_sk_srcover_rgba_8888_sse2_lowp+0x890>
+ .byte 196,98,125,24,53,174,58,2,0 // vbroadcastss 0x23aae(%rip),%ymm14 # 329f0 <_sk_srcover_rgba_8888_sse2_lowp+0x894>
.byte 196,65,36,84,222 // vandps %ymm14,%ymm11,%ymm11
.byte 196,193,9,114,211,1 // vpsrld $0x1,%xmm11,%xmm14
.byte 196,67,125,25,219,1 // vextractf128 $0x1,%ymm11,%xmm11
.byte 196,193,33,114,211,1 // vpsrld $0x1,%xmm11,%xmm11
.byte 196,67,13,24,219,1 // vinsertf128 $0x1,%xmm11,%ymm14,%ymm11
.byte 196,65,20,86,219 // vorps %ymm11,%ymm13,%ymm11
- .byte 197,123,18,45,80,68,2,0 // vmovddup 0x24450(%rip),%xmm13 # 333b0 <_sk_srcover_rgba_8888_sse2_lowp+0x1270>
+ .byte 197,123,18,45,132,68,2,0 // vmovddup 0x24484(%rip),%xmm13 # 333f0 <_sk_srcover_rgba_8888_sse2_lowp+0x1294>
.byte 196,65,49,219,205 // vpand %xmm13,%xmm9,%xmm9
.byte 196,65,57,219,197 // vpand %xmm13,%xmm8,%xmm8
.byte 196,193,49,114,209,2 // vpsrld $0x2,%xmm9,%xmm9
@@ -23974,9 +23983,9 @@ _sk_dither_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 196,65,60,86,195 // vorps %ymm11,%ymm8,%ymm8
.byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8
- .byte 196,98,125,24,13,61,58,2,0 // vbroadcastss 0x23a3d(%rip),%ymm9 # 329d8 <_sk_srcover_rgba_8888_sse2_lowp+0x898>
+ .byte 196,98,125,24,13,81,58,2,0 // vbroadcastss 0x23a51(%rip),%ymm9 # 329f8 <_sk_srcover_rgba_8888_sse2_lowp+0x89c>
.byte 196,65,60,89,193 // vmulps %ymm9,%ymm8,%ymm8
- .byte 196,98,125,24,13,51,58,2,0 // vbroadcastss 0x23a33(%rip),%ymm9 # 329dc <_sk_srcover_rgba_8888_sse2_lowp+0x89c>
+ .byte 196,98,125,24,13,71,58,2,0 // vbroadcastss 0x23a47(%rip),%ymm9 # 329fc <_sk_srcover_rgba_8888_sse2_lowp+0x8a0>
.byte 196,65,60,88,193 // vaddps %ymm9,%ymm8,%ymm8
.byte 196,98,125,24,8 // vbroadcastss (%rax),%ymm9
.byte 196,65,60,89,193 // vmulps %ymm9,%ymm8,%ymm8
@@ -24010,7 +24019,7 @@ HIDDEN _sk_black_color_avx
FUNCTION(_sk_black_color_avx)
_sk_black_color_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,187,57,2,0 // vbroadcastss 0x239bb(%rip),%ymm3 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 196,226,125,24,29,207,57,2,0 // vbroadcastss 0x239cf(%rip),%ymm3 # 329e8 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
.byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
.byte 197,236,87,210 // vxorps %ymm2,%ymm2,%ymm2
@@ -24021,7 +24030,7 @@ HIDDEN _sk_white_color_avx
FUNCTION(_sk_white_color_avx)
_sk_white_color_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,5,162,57,2,0 // vbroadcastss 0x239a2(%rip),%ymm0 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 196,226,125,24,5,182,57,2,0 // vbroadcastss 0x239b6(%rip),%ymm0 # 329e8 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 197,252,40,200 // vmovaps %ymm0,%ymm1
.byte 197,252,40,208 // vmovaps %ymm0,%ymm2
.byte 197,252,40,216 // vmovaps %ymm0,%ymm3
@@ -24067,7 +24076,7 @@ HIDDEN _sk_srcatop_avx
FUNCTION(_sk_srcatop_avx)
_sk_srcatop_avx:
.byte 197,252,89,199 // vmulps %ymm7,%ymm0,%ymm0
- .byte 196,98,125,24,5,65,57,2,0 // vbroadcastss 0x23941(%rip),%ymm8 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 196,98,125,24,5,85,57,2,0 // vbroadcastss 0x23955(%rip),%ymm8 # 329e8 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
.byte 197,60,89,204 // vmulps %ymm4,%ymm8,%ymm9
.byte 197,180,88,192 // vaddps %ymm0,%ymm9,%ymm0
@@ -24088,7 +24097,7 @@ HIDDEN _sk_dstatop_avx
FUNCTION(_sk_dstatop_avx)
_sk_dstatop_avx:
.byte 197,100,89,196 // vmulps %ymm4,%ymm3,%ymm8
- .byte 196,98,125,24,13,255,56,2,0 // vbroadcastss 0x238ff(%rip),%ymm9 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 196,98,125,24,13,19,57,2,0 // vbroadcastss 0x23913(%rip),%ymm9 # 329e8 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 197,52,92,207 // vsubps %ymm7,%ymm9,%ymm9
.byte 197,180,89,192 // vmulps %ymm0,%ymm9,%ymm0
.byte 197,188,88,192 // vaddps %ymm0,%ymm8,%ymm0
@@ -24130,7 +24139,7 @@ HIDDEN _sk_srcout_avx
.globl _sk_srcout_avx
FUNCTION(_sk_srcout_avx)
_sk_srcout_avx:
- .byte 196,98,125,24,5,154,56,2,0 // vbroadcastss 0x2389a(%rip),%ymm8 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 196,98,125,24,5,174,56,2,0 // vbroadcastss 0x238ae(%rip),%ymm8 # 329e8 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 197,60,92,199 // vsubps %ymm7,%ymm8,%ymm8
.byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
.byte 197,188,89,201 // vmulps %ymm1,%ymm8,%ymm1
@@ -24143,7 +24152,7 @@ HIDDEN _sk_dstout_avx
.globl _sk_dstout_avx
FUNCTION(_sk_dstout_avx)
_sk_dstout_avx:
- .byte 196,226,125,24,5,121,56,2,0 // vbroadcastss 0x23879(%rip),%ymm0 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 196,226,125,24,5,141,56,2,0 // vbroadcastss 0x2388d(%rip),%ymm0 # 329e8 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 197,252,92,219 // vsubps %ymm3,%ymm0,%ymm3
.byte 197,228,89,196 // vmulps %ymm4,%ymm3,%ymm0
.byte 197,228,89,205 // vmulps %ymm5,%ymm3,%ymm1
@@ -24156,7 +24165,7 @@ HIDDEN _sk_srcover_avx
.globl _sk_srcover_avx
FUNCTION(_sk_srcover_avx)
_sk_srcover_avx:
- .byte 196,98,125,24,5,88,56,2,0 // vbroadcastss 0x23858(%rip),%ymm8 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 196,98,125,24,5,108,56,2,0 // vbroadcastss 0x2386c(%rip),%ymm8 # 329e8 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
.byte 197,60,89,204 // vmulps %ymm4,%ymm8,%ymm9
.byte 197,180,88,192 // vaddps %ymm0,%ymm9,%ymm0
@@ -24173,7 +24182,7 @@ HIDDEN _sk_dstover_avx
.globl _sk_dstover_avx
FUNCTION(_sk_dstover_avx)
_sk_dstover_avx:
- .byte 196,98,125,24,5,39,56,2,0 // vbroadcastss 0x23827(%rip),%ymm8 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 196,98,125,24,5,59,56,2,0 // vbroadcastss 0x2383b(%rip),%ymm8 # 329e8 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 197,60,92,199 // vsubps %ymm7,%ymm8,%ymm8
.byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
.byte 197,252,88,196 // vaddps %ymm4,%ymm0,%ymm0
@@ -24201,7 +24210,7 @@ HIDDEN _sk_multiply_avx
.globl _sk_multiply_avx
FUNCTION(_sk_multiply_avx)
_sk_multiply_avx:
- .byte 196,98,125,24,5,226,55,2,0 // vbroadcastss 0x237e2(%rip),%ymm8 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 196,98,125,24,5,246,55,2,0 // vbroadcastss 0x237f6(%rip),%ymm8 # 329e8 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 197,60,92,207 // vsubps %ymm7,%ymm8,%ymm9
.byte 197,52,89,208 // vmulps %ymm0,%ymm9,%ymm10
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
@@ -24232,7 +24241,7 @@ HIDDEN _sk_plus__avx
FUNCTION(_sk_plus__avx)
_sk_plus__avx:
.byte 197,252,88,196 // vaddps %ymm4,%ymm0,%ymm0
- .byte 196,98,125,24,5,113,55,2,0 // vbroadcastss 0x23771(%rip),%ymm8 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 196,98,125,24,5,133,55,2,0 // vbroadcastss 0x23785(%rip),%ymm8 # 329e8 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 196,193,124,93,192 // vminps %ymm8,%ymm0,%ymm0
.byte 197,244,88,205 // vaddps %ymm5,%ymm1,%ymm1
.byte 196,193,116,93,200 // vminps %ymm8,%ymm1,%ymm1
@@ -24266,7 +24275,7 @@ HIDDEN _sk_xor__avx
.globl _sk_xor__avx
FUNCTION(_sk_xor__avx)
_sk_xor__avx:
- .byte 196,98,125,24,5,16,55,2,0 // vbroadcastss 0x23710(%rip),%ymm8 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 196,98,125,24,5,36,55,2,0 // vbroadcastss 0x23724(%rip),%ymm8 # 329e8 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 197,60,92,207 // vsubps %ymm7,%ymm8,%ymm9
.byte 197,180,89,192 // vmulps %ymm0,%ymm9,%ymm0
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
@@ -24303,7 +24312,7 @@ _sk_darken_avx:
.byte 197,100,89,206 // vmulps %ymm6,%ymm3,%ymm9
.byte 196,193,108,95,209 // vmaxps %ymm9,%ymm2,%ymm2
.byte 197,188,92,210 // vsubps %ymm2,%ymm8,%ymm2
- .byte 196,98,125,24,5,140,54,2,0 // vbroadcastss 0x2368c(%rip),%ymm8 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 196,98,125,24,5,160,54,2,0 // vbroadcastss 0x236a0(%rip),%ymm8 # 329e8 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
.byte 197,60,89,199 // vmulps %ymm7,%ymm8,%ymm8
.byte 197,188,88,219 // vaddps %ymm3,%ymm8,%ymm3
@@ -24329,7 +24338,7 @@ _sk_lighten_avx:
.byte 197,100,89,206 // vmulps %ymm6,%ymm3,%ymm9
.byte 196,193,108,93,209 // vminps %ymm9,%ymm2,%ymm2
.byte 197,188,92,210 // vsubps %ymm2,%ymm8,%ymm2
- .byte 196,98,125,24,5,52,54,2,0 // vbroadcastss 0x23634(%rip),%ymm8 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 196,98,125,24,5,72,54,2,0 // vbroadcastss 0x23648(%rip),%ymm8 # 329e8 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
.byte 197,60,89,199 // vmulps %ymm7,%ymm8,%ymm8
.byte 197,188,88,219 // vaddps %ymm3,%ymm8,%ymm3
@@ -24358,7 +24367,7 @@ _sk_difference_avx:
.byte 196,193,108,93,209 // vminps %ymm9,%ymm2,%ymm2
.byte 197,236,88,210 // vaddps %ymm2,%ymm2,%ymm2
.byte 197,188,92,210 // vsubps %ymm2,%ymm8,%ymm2
- .byte 196,98,125,24,5,208,53,2,0 // vbroadcastss 0x235d0(%rip),%ymm8 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 196,98,125,24,5,228,53,2,0 // vbroadcastss 0x235e4(%rip),%ymm8 # 329e8 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
.byte 197,60,89,199 // vmulps %ymm7,%ymm8,%ymm8
.byte 197,188,88,219 // vaddps %ymm3,%ymm8,%ymm3
@@ -24381,7 +24390,7 @@ _sk_exclusion_avx:
.byte 197,236,89,214 // vmulps %ymm6,%ymm2,%ymm2
.byte 197,236,88,210 // vaddps %ymm2,%ymm2,%ymm2
.byte 197,188,92,210 // vsubps %ymm2,%ymm8,%ymm2
- .byte 196,98,125,24,5,135,53,2,0 // vbroadcastss 0x23587(%rip),%ymm8 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 196,98,125,24,5,155,53,2,0 // vbroadcastss 0x2359b(%rip),%ymm8 # 329e8 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
.byte 197,60,89,199 // vmulps %ymm7,%ymm8,%ymm8
.byte 197,188,88,219 // vaddps %ymm3,%ymm8,%ymm3
@@ -24392,7 +24401,7 @@ HIDDEN _sk_colorburn_avx
.globl _sk_colorburn_avx
FUNCTION(_sk_colorburn_avx)
_sk_colorburn_avx:
- .byte 196,98,125,24,5,110,53,2,0 // vbroadcastss 0x2356e(%rip),%ymm8 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 196,98,125,24,5,130,53,2,0 // vbroadcastss 0x23582(%rip),%ymm8 # 329e8 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 197,60,92,207 // vsubps %ymm7,%ymm8,%ymm9
.byte 197,52,89,216 // vmulps %ymm0,%ymm9,%ymm11
.byte 196,65,44,87,210 // vxorps %ymm10,%ymm10,%ymm10
@@ -24454,7 +24463,7 @@ HIDDEN _sk_colordodge_avx
FUNCTION(_sk_colordodge_avx)
_sk_colordodge_avx:
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
- .byte 196,98,125,24,13,114,52,2,0 // vbroadcastss 0x23472(%rip),%ymm9 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 196,98,125,24,13,134,52,2,0 // vbroadcastss 0x23486(%rip),%ymm9 # 329e8 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 197,52,92,215 // vsubps %ymm7,%ymm9,%ymm10
.byte 197,44,89,216 // vmulps %ymm0,%ymm10,%ymm11
.byte 197,52,92,203 // vsubps %ymm3,%ymm9,%ymm9
@@ -24511,7 +24520,7 @@ HIDDEN _sk_hardlight_avx
.globl _sk_hardlight_avx
FUNCTION(_sk_hardlight_avx)
_sk_hardlight_avx:
- .byte 196,98,125,24,5,125,51,2,0 // vbroadcastss 0x2337d(%rip),%ymm8 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 196,98,125,24,5,145,51,2,0 // vbroadcastss 0x23391(%rip),%ymm8 # 329e8 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 197,60,92,215 // vsubps %ymm7,%ymm8,%ymm10
.byte 197,44,89,200 // vmulps %ymm0,%ymm10,%ymm9
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
@@ -24566,7 +24575,7 @@ HIDDEN _sk_overlay_avx
.globl _sk_overlay_avx
FUNCTION(_sk_overlay_avx)
_sk_overlay_avx:
- .byte 196,98,125,24,5,162,50,2,0 // vbroadcastss 0x232a2(%rip),%ymm8 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 196,98,125,24,5,182,50,2,0 // vbroadcastss 0x232b6(%rip),%ymm8 # 329e8 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 197,60,92,215 // vsubps %ymm7,%ymm8,%ymm10
.byte 197,44,89,200 // vmulps %ymm0,%ymm10,%ymm9
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
@@ -24632,10 +24641,10 @@ _sk_softlight_avx:
.byte 196,65,60,88,192 // vaddps %ymm8,%ymm8,%ymm8
.byte 196,65,60,89,216 // vmulps %ymm8,%ymm8,%ymm11
.byte 196,65,60,88,195 // vaddps %ymm11,%ymm8,%ymm8
- .byte 196,98,125,24,29,169,49,2,0 // vbroadcastss 0x231a9(%rip),%ymm11 # 329e0 <_sk_srcover_rgba_8888_sse2_lowp+0x8a0>
+ .byte 196,98,125,24,29,189,49,2,0 // vbroadcastss 0x231bd(%rip),%ymm11 # 32a00 <_sk_srcover_rgba_8888_sse2_lowp+0x8a4>
.byte 196,65,28,88,235 // vaddps %ymm11,%ymm12,%ymm13
.byte 196,65,20,89,192 // vmulps %ymm8,%ymm13,%ymm8
- .byte 196,98,125,24,45,154,49,2,0 // vbroadcastss 0x2319a(%rip),%ymm13 # 329e4 <_sk_srcover_rgba_8888_sse2_lowp+0x8a4>
+ .byte 196,98,125,24,45,174,49,2,0 // vbroadcastss 0x231ae(%rip),%ymm13 # 32a04 <_sk_srcover_rgba_8888_sse2_lowp+0x8a8>
.byte 196,65,28,89,245 // vmulps %ymm13,%ymm12,%ymm14
.byte 196,65,12,88,192 // vaddps %ymm8,%ymm14,%ymm8
.byte 196,65,124,82,244 // vrsqrtps %ymm12,%ymm14
@@ -24646,7 +24655,7 @@ _sk_softlight_avx:
.byte 197,4,194,255,2 // vcmpleps %ymm7,%ymm15,%ymm15
.byte 196,67,13,74,240,240 // vblendvps %ymm15,%ymm8,%ymm14,%ymm14
.byte 197,116,88,249 // vaddps %ymm1,%ymm1,%ymm15
- .byte 196,98,125,24,5,68,49,2,0 // vbroadcastss 0x23144(%rip),%ymm8 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 196,98,125,24,5,88,49,2,0 // vbroadcastss 0x23158(%rip),%ymm8 # 329e8 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 196,65,60,92,228 // vsubps %ymm12,%ymm8,%ymm12
.byte 197,132,92,195 // vsubps %ymm3,%ymm15,%ymm0
.byte 196,65,124,89,228 // vmulps %ymm12,%ymm0,%ymm12
@@ -24773,12 +24782,12 @@ _sk_hue_avx:
.byte 196,65,28,89,219 // vmulps %ymm11,%ymm12,%ymm11
.byte 196,65,36,94,222 // vdivps %ymm14,%ymm11,%ymm11
.byte 196,67,37,74,224,240 // vblendvps %ymm15,%ymm8,%ymm11,%ymm12
- .byte 196,98,125,24,53,39,47,2,0 // vbroadcastss 0x22f27(%rip),%ymm14 # 329e8 <_sk_srcover_rgba_8888_sse2_lowp+0x8a8>
+ .byte 196,98,125,24,53,59,47,2,0 // vbroadcastss 0x22f3b(%rip),%ymm14 # 32a08 <_sk_srcover_rgba_8888_sse2_lowp+0x8ac>
.byte 196,65,92,89,222 // vmulps %ymm14,%ymm4,%ymm11
- .byte 196,98,125,24,61,29,47,2,0 // vbroadcastss 0x22f1d(%rip),%ymm15 # 329ec <_sk_srcover_rgba_8888_sse2_lowp+0x8ac>
+ .byte 196,98,125,24,61,49,47,2,0 // vbroadcastss 0x22f31(%rip),%ymm15 # 32a0c <_sk_srcover_rgba_8888_sse2_lowp+0x8b0>
.byte 196,65,84,89,239 // vmulps %ymm15,%ymm5,%ymm13
.byte 196,65,36,88,221 // vaddps %ymm13,%ymm11,%ymm11
- .byte 196,226,125,24,5,14,47,2,0 // vbroadcastss 0x22f0e(%rip),%ymm0 # 329f0 <_sk_srcover_rgba_8888_sse2_lowp+0x8b0>
+ .byte 196,226,125,24,5,34,47,2,0 // vbroadcastss 0x22f22(%rip),%ymm0 # 32a10 <_sk_srcover_rgba_8888_sse2_lowp+0x8b4>
.byte 197,76,89,232 // vmulps %ymm0,%ymm6,%ymm13
.byte 196,65,36,88,221 // vaddps %ymm13,%ymm11,%ymm11
.byte 196,65,52,89,238 // vmulps %ymm14,%ymm9,%ymm13
@@ -24839,7 +24848,7 @@ _sk_hue_avx:
.byte 196,65,36,95,208 // vmaxps %ymm8,%ymm11,%ymm10
.byte 196,195,109,74,209,240 // vblendvps %ymm15,%ymm9,%ymm2,%ymm2
.byte 196,193,108,95,208 // vmaxps %ymm8,%ymm2,%ymm2
- .byte 196,98,125,24,5,187,45,2,0 // vbroadcastss 0x22dbb(%rip),%ymm8 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 196,98,125,24,5,207,45,2,0 // vbroadcastss 0x22dcf(%rip),%ymm8 # 329e8 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 197,60,92,207 // vsubps %ymm7,%ymm8,%ymm9
.byte 197,180,89,201 // vmulps %ymm1,%ymm9,%ymm1
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
@@ -24896,12 +24905,12 @@ _sk_saturation_avx:
.byte 196,65,28,89,219 // vmulps %ymm11,%ymm12,%ymm11
.byte 196,65,36,94,222 // vdivps %ymm14,%ymm11,%ymm11
.byte 196,67,37,74,224,240 // vblendvps %ymm15,%ymm8,%ymm11,%ymm12
- .byte 196,98,125,24,53,229,44,2,0 // vbroadcastss 0x22ce5(%rip),%ymm14 # 329e8 <_sk_srcover_rgba_8888_sse2_lowp+0x8a8>
+ .byte 196,98,125,24,53,249,44,2,0 // vbroadcastss 0x22cf9(%rip),%ymm14 # 32a08 <_sk_srcover_rgba_8888_sse2_lowp+0x8ac>
.byte 196,65,92,89,222 // vmulps %ymm14,%ymm4,%ymm11
- .byte 196,98,125,24,61,219,44,2,0 // vbroadcastss 0x22cdb(%rip),%ymm15 # 329ec <_sk_srcover_rgba_8888_sse2_lowp+0x8ac>
+ .byte 196,98,125,24,61,239,44,2,0 // vbroadcastss 0x22cef(%rip),%ymm15 # 32a0c <_sk_srcover_rgba_8888_sse2_lowp+0x8b0>
.byte 196,65,84,89,239 // vmulps %ymm15,%ymm5,%ymm13
.byte 196,65,36,88,221 // vaddps %ymm13,%ymm11,%ymm11
- .byte 196,226,125,24,5,204,44,2,0 // vbroadcastss 0x22ccc(%rip),%ymm0 # 329f0 <_sk_srcover_rgba_8888_sse2_lowp+0x8b0>
+ .byte 196,226,125,24,5,224,44,2,0 // vbroadcastss 0x22ce0(%rip),%ymm0 # 32a10 <_sk_srcover_rgba_8888_sse2_lowp+0x8b4>
.byte 197,76,89,232 // vmulps %ymm0,%ymm6,%ymm13
.byte 196,65,36,88,221 // vaddps %ymm13,%ymm11,%ymm11
.byte 196,65,52,89,238 // vmulps %ymm14,%ymm9,%ymm13
@@ -24962,7 +24971,7 @@ _sk_saturation_avx:
.byte 196,65,36,95,208 // vmaxps %ymm8,%ymm11,%ymm10
.byte 196,195,109,74,209,240 // vblendvps %ymm15,%ymm9,%ymm2,%ymm2
.byte 196,193,108,95,208 // vmaxps %ymm8,%ymm2,%ymm2
- .byte 196,98,125,24,5,121,43,2,0 // vbroadcastss 0x22b79(%rip),%ymm8 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 196,98,125,24,5,141,43,2,0 // vbroadcastss 0x22b8d(%rip),%ymm8 # 329e8 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 197,60,92,207 // vsubps %ymm7,%ymm8,%ymm9
.byte 197,180,89,201 // vmulps %ymm1,%ymm9,%ymm1
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
@@ -24991,12 +25000,12 @@ _sk_color_avx:
.byte 197,252,17,68,36,168 // vmovups %ymm0,-0x58(%rsp)
.byte 197,124,89,199 // vmulps %ymm7,%ymm0,%ymm8
.byte 197,116,89,207 // vmulps %ymm7,%ymm1,%ymm9
- .byte 196,98,125,24,45,43,43,2,0 // vbroadcastss 0x22b2b(%rip),%ymm13 # 329e8 <_sk_srcover_rgba_8888_sse2_lowp+0x8a8>
+ .byte 196,98,125,24,45,63,43,2,0 // vbroadcastss 0x22b3f(%rip),%ymm13 # 32a08 <_sk_srcover_rgba_8888_sse2_lowp+0x8ac>
.byte 196,65,92,89,213 // vmulps %ymm13,%ymm4,%ymm10
- .byte 196,98,125,24,53,33,43,2,0 // vbroadcastss 0x22b21(%rip),%ymm14 # 329ec <_sk_srcover_rgba_8888_sse2_lowp+0x8ac>
+ .byte 196,98,125,24,53,53,43,2,0 // vbroadcastss 0x22b35(%rip),%ymm14 # 32a0c <_sk_srcover_rgba_8888_sse2_lowp+0x8b0>
.byte 196,65,84,89,222 // vmulps %ymm14,%ymm5,%ymm11
.byte 196,65,44,88,211 // vaddps %ymm11,%ymm10,%ymm10
- .byte 196,98,125,24,61,18,43,2,0 // vbroadcastss 0x22b12(%rip),%ymm15 # 329f0 <_sk_srcover_rgba_8888_sse2_lowp+0x8b0>
+ .byte 196,98,125,24,61,38,43,2,0 // vbroadcastss 0x22b26(%rip),%ymm15 # 32a10 <_sk_srcover_rgba_8888_sse2_lowp+0x8b4>
.byte 196,65,76,89,223 // vmulps %ymm15,%ymm6,%ymm11
.byte 196,193,44,88,195 // vaddps %ymm11,%ymm10,%ymm0
.byte 196,65,60,89,221 // vmulps %ymm13,%ymm8,%ymm11
@@ -25059,7 +25068,7 @@ _sk_color_avx:
.byte 196,65,44,95,207 // vmaxps %ymm15,%ymm10,%ymm9
.byte 196,195,37,74,192,0 // vblendvps %ymm0,%ymm8,%ymm11,%ymm0
.byte 196,65,124,95,199 // vmaxps %ymm15,%ymm0,%ymm8
- .byte 196,226,125,24,5,173,41,2,0 // vbroadcastss 0x229ad(%rip),%ymm0 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 196,226,125,24,5,193,41,2,0 // vbroadcastss 0x229c1(%rip),%ymm0 # 329e8 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 197,124,92,215 // vsubps %ymm7,%ymm0,%ymm10
.byte 197,172,89,84,36,168 // vmulps -0x58(%rsp),%ymm10,%ymm2
.byte 197,124,92,219 // vsubps %ymm3,%ymm0,%ymm11
@@ -25089,12 +25098,12 @@ _sk_luminosity_avx:
.byte 197,252,40,208 // vmovaps %ymm0,%ymm2
.byte 197,100,89,196 // vmulps %ymm4,%ymm3,%ymm8
.byte 197,100,89,205 // vmulps %ymm5,%ymm3,%ymm9
- .byte 196,98,125,24,45,91,41,2,0 // vbroadcastss 0x2295b(%rip),%ymm13 # 329e8 <_sk_srcover_rgba_8888_sse2_lowp+0x8a8>
+ .byte 196,98,125,24,45,111,41,2,0 // vbroadcastss 0x2296f(%rip),%ymm13 # 32a08 <_sk_srcover_rgba_8888_sse2_lowp+0x8ac>
.byte 196,65,108,89,213 // vmulps %ymm13,%ymm2,%ymm10
- .byte 196,98,125,24,53,81,41,2,0 // vbroadcastss 0x22951(%rip),%ymm14 # 329ec <_sk_srcover_rgba_8888_sse2_lowp+0x8ac>
+ .byte 196,98,125,24,53,101,41,2,0 // vbroadcastss 0x22965(%rip),%ymm14 # 32a0c <_sk_srcover_rgba_8888_sse2_lowp+0x8b0>
.byte 196,65,116,89,222 // vmulps %ymm14,%ymm1,%ymm11
.byte 196,65,44,88,211 // vaddps %ymm11,%ymm10,%ymm10
- .byte 196,98,125,24,61,66,41,2,0 // vbroadcastss 0x22942(%rip),%ymm15 # 329f0 <_sk_srcover_rgba_8888_sse2_lowp+0x8b0>
+ .byte 196,98,125,24,61,86,41,2,0 // vbroadcastss 0x22956(%rip),%ymm15 # 32a10 <_sk_srcover_rgba_8888_sse2_lowp+0x8b4>
.byte 196,65,28,89,223 // vmulps %ymm15,%ymm12,%ymm11
.byte 196,193,44,88,195 // vaddps %ymm11,%ymm10,%ymm0
.byte 196,65,60,89,221 // vmulps %ymm13,%ymm8,%ymm11
@@ -25157,7 +25166,7 @@ _sk_luminosity_avx:
.byte 196,65,44,95,207 // vmaxps %ymm15,%ymm10,%ymm9
.byte 196,195,37,74,192,0 // vblendvps %ymm0,%ymm8,%ymm11,%ymm0
.byte 196,65,124,95,199 // vmaxps %ymm15,%ymm0,%ymm8
- .byte 196,226,125,24,5,221,39,2,0 // vbroadcastss 0x227dd(%rip),%ymm0 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 196,226,125,24,5,241,39,2,0 // vbroadcastss 0x227f1(%rip),%ymm0 # 329e8 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 197,124,92,215 // vsubps %ymm7,%ymm0,%ymm10
.byte 197,172,89,210 // vmulps %ymm2,%ymm10,%ymm2
.byte 197,124,92,219 // vsubps %ymm3,%ymm0,%ymm11
@@ -25189,9 +25198,9 @@ _sk_srcover_rgba_8888_avx:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,42,1,0,0 // jne 10380 <_sk_srcover_rgba_8888_avx+0x14a>
+ .byte 15,133,42,1,0,0 // jne 1038c <_sk_srcover_rgba_8888_avx+0x14a>
.byte 196,1,125,16,4,152 // vmovupd (%r8,%r11,4),%ymm8
- .byte 197,125,40,13,60,37,2,0 // vmovapd 0x2253c(%rip),%ymm9 # 327a0 <_sk_srcover_rgba_8888_sse2_lowp+0x660>
+ .byte 197,125,40,13,80,37,2,0 // vmovapd 0x22550(%rip),%ymm9 # 327c0 <_sk_srcover_rgba_8888_sse2_lowp+0x664>
.byte 196,193,61,84,225 // vandpd %ymm9,%ymm8,%ymm4
.byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
.byte 196,193,81,114,208,8 // vpsrld $0x8,%xmm8,%xmm5
@@ -25209,9 +25218,9 @@ _sk_srcover_rgba_8888_avx:
.byte 197,193,114,215,24 // vpsrld $0x18,%xmm7,%xmm7
.byte 196,227,61,24,255,1 // vinsertf128 $0x1,%xmm7,%ymm8,%ymm7
.byte 197,252,91,255 // vcvtdq2ps %ymm7,%ymm7
- .byte 196,98,125,24,5,3,39,2,0 // vbroadcastss 0x22703(%rip),%ymm8 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 196,98,125,24,5,23,39,2,0 // vbroadcastss 0x22717(%rip),%ymm8 # 329e8 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
- .byte 196,98,125,24,13,34,39,2,0 // vbroadcastss 0x22722(%rip),%ymm9 # 329f4 <_sk_srcover_rgba_8888_sse2_lowp+0x8b4>
+ .byte 196,98,125,24,13,54,39,2,0 // vbroadcastss 0x22736(%rip),%ymm9 # 32a14 <_sk_srcover_rgba_8888_sse2_lowp+0x8b8>
.byte 196,193,124,89,193 // vmulps %ymm9,%ymm0,%ymm0
.byte 197,60,89,212 // vmulps %ymm4,%ymm8,%ymm10
.byte 196,193,124,88,194 // vaddps %ymm10,%ymm0,%ymm0
@@ -25244,7 +25253,7 @@ _sk_srcover_rgba_8888_avx:
.byte 196,65,53,86,202 // vorpd %ymm10,%ymm9,%ymm9
.byte 196,65,61,86,193 // vorpd %ymm9,%ymm8,%ymm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,66 // jne 103b8 <_sk_srcover_rgba_8888_avx+0x182>
+ .byte 117,66 // jne 103c4 <_sk_srcover_rgba_8888_avx+0x182>
.byte 196,1,124,17,4,152 // vmovups %ymm8,(%r8,%r11,4)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -25253,33 +25262,33 @@ _sk_srcover_rgba_8888_avx:
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 15,135,195,254,255,255 // ja 1025c <_sk_srcover_rgba_8888_avx+0x26>
+ .byte 15,135,195,254,255,255 // ja 10268 <_sk_srcover_rgba_8888_avx+0x26>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,4,1,0,0 // lea 0x104(%rip),%r10 # 104a8 <_sk_srcover_rgba_8888_avx+0x272>
+ .byte 76,141,21,4,1,0,0 // lea 0x104(%rip),%r10 # 104b4 <_sk_srcover_rgba_8888_avx+0x272>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 196,1,122,16,4,152 // vmovss (%r8,%r11,4),%xmm8
- .byte 233,164,254,255,255 // jmpq 1025c <_sk_srcover_rgba_8888_avx+0x26>
+ .byte 233,164,254,255,255 // jmpq 10268 <_sk_srcover_rgba_8888_avx+0x26>
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,7 // and $0x7,%r9b
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,180 // ja 1037c <_sk_srcover_rgba_8888_avx+0x146>
+ .byte 119,180 // ja 10388 <_sk_srcover_rgba_8888_avx+0x146>
.byte 65,15,182,193 // movzbl %r9b,%eax
- .byte 76,141,13,241,0,0,0 // lea 0xf1(%rip),%r9 # 104c4 <_sk_srcover_rgba_8888_avx+0x28e>
+ .byte 76,141,13,241,0,0,0 // lea 0xf1(%rip),%r9 # 104d0 <_sk_srcover_rgba_8888_avx+0x28e>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 196,1,121,126,4,152 // vmovd %xmm8,(%r8,%r11,4)
- .byte 235,152 // jmp 1037c <_sk_srcover_rgba_8888_avx+0x146>
+ .byte 235,152 // jmp 10388 <_sk_srcover_rgba_8888_avx+0x146>
.byte 196,129,121,110,100,152,8 // vmovd 0x8(%r8,%r11,4),%xmm4
.byte 197,249,112,228,68 // vpshufd $0x44,%xmm4,%xmm4
.byte 197,212,87,237 // vxorps %ymm5,%ymm5,%ymm5
.byte 196,99,85,12,196,4 // vblendps $0x4,%ymm4,%ymm5,%ymm8
.byte 196,129,123,16,36,152 // vmovsd (%r8,%r11,4),%xmm4
.byte 196,99,61,13,196,1 // vblendpd $0x1,%ymm4,%ymm8,%ymm8
- .byte 233,81,254,255,255 // jmpq 1025c <_sk_srcover_rgba_8888_avx+0x26>
+ .byte 233,81,254,255,255 // jmpq 10268 <_sk_srcover_rgba_8888_avx+0x26>
.byte 196,129,121,110,100,152,24 // vmovd 0x18(%r8,%r11,4),%xmm4
.byte 197,249,112,228,68 // vpshufd $0x44,%xmm4,%xmm4
.byte 196,227,125,24,228,1 // vinsertf128 $0x1,%xmm4,%ymm0,%ymm4
@@ -25293,10 +25302,10 @@ _sk_srcover_rgba_8888_avx:
.byte 196,99,61,24,196,1 // vinsertf128 $0x1,%xmm4,%ymm8,%ymm8
.byte 196,129,121,16,36,152 // vmovupd (%r8,%r11,4),%xmm4
.byte 196,67,93,13,192,12 // vblendpd $0xc,%ymm8,%ymm4,%ymm8
- .byte 233,252,253,255,255 // jmpq 1025c <_sk_srcover_rgba_8888_avx+0x26>
+ .byte 233,252,253,255,255 // jmpq 10268 <_sk_srcover_rgba_8888_avx+0x26>
.byte 196,3,121,22,68,152,8,2 // vpextrd $0x2,%xmm8,0x8(%r8,%r11,4)
.byte 196,1,121,214,4,152 // vmovq %xmm8,(%r8,%r11,4)
- .byte 233,9,255,255,255 // jmpq 1037c <_sk_srcover_rgba_8888_avx+0x146>
+ .byte 233,9,255,255,255 // jmpq 10388 <_sk_srcover_rgba_8888_avx+0x146>
.byte 196,67,125,25,193,1 // vextractf128 $0x1,%ymm8,%xmm9
.byte 196,3,121,22,76,152,24,2 // vpextrd $0x2,%xmm9,0x18(%r8,%r11,4)
.byte 196,67,125,25,193,1 // vextractf128 $0x1,%ymm8,%xmm9
@@ -25304,7 +25313,7 @@ _sk_srcover_rgba_8888_avx:
.byte 196,67,125,25,193,1 // vextractf128 $0x1,%ymm8,%xmm9
.byte 196,1,122,17,76,152,16 // vmovss %xmm9,0x10(%r8,%r11,4)
.byte 196,1,121,17,4,152 // vmovupd %xmm8,(%r8,%r11,4)
- .byte 233,213,254,255,255 // jmpq 1037c <_sk_srcover_rgba_8888_avx+0x146>
+ .byte 233,213,254,255,255 // jmpq 10388 <_sk_srcover_rgba_8888_avx+0x146>
.byte 144 // nop
.byte 5,255,255,255,82 // add $0x52ffffff,%eax
.byte 255 // (bad)
@@ -25316,7 +25325,7 @@ _sk_srcover_rgba_8888_avx:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 127,255 // jg 104bd <_sk_srcover_rgba_8888_avx+0x287>
+ .byte 127,255 // jg 104c9 <_sk_srcover_rgba_8888_avx+0x287>
.byte 255 // (bad)
.byte 255,99,255 // jmpq *-0x1(%rbx)
.byte 255 // (bad)
@@ -25353,7 +25362,7 @@ HIDDEN _sk_clamp_1_avx
.globl _sk_clamp_1_avx
FUNCTION(_sk_clamp_1_avx)
_sk_clamp_1_avx:
- .byte 196,98,125,24,5,194,36,2,0 // vbroadcastss 0x224c2(%rip),%ymm8 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 196,98,125,24,5,214,36,2,0 // vbroadcastss 0x224d6(%rip),%ymm8 # 329e8 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 196,193,124,93,192 // vminps %ymm8,%ymm0,%ymm0
.byte 196,193,116,93,200 // vminps %ymm8,%ymm1,%ymm1
.byte 196,193,108,93,208 // vminps %ymm8,%ymm2,%ymm2
@@ -25365,7 +25374,7 @@ HIDDEN _sk_clamp_a_avx
.globl _sk_clamp_a_avx
FUNCTION(_sk_clamp_a_avx)
_sk_clamp_a_avx:
- .byte 196,98,125,24,5,161,36,2,0 // vbroadcastss 0x224a1(%rip),%ymm8 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 196,98,125,24,5,181,36,2,0 // vbroadcastss 0x224b5(%rip),%ymm8 # 329e8 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 196,193,100,93,216 // vminps %ymm8,%ymm3,%ymm3
.byte 197,252,93,195 // vminps %ymm3,%ymm0,%ymm0
.byte 197,244,93,203 // vminps %ymm3,%ymm1,%ymm1
@@ -25377,7 +25386,7 @@ HIDDEN _sk_clamp_a_dst_avx
.globl _sk_clamp_a_dst_avx
FUNCTION(_sk_clamp_a_dst_avx)
_sk_clamp_a_dst_avx:
- .byte 196,98,125,24,5,131,36,2,0 // vbroadcastss 0x22483(%rip),%ymm8 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 196,98,125,24,5,151,36,2,0 // vbroadcastss 0x22497(%rip),%ymm8 # 329e8 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 196,193,68,93,248 // vminps %ymm8,%ymm7,%ymm7
.byte 197,220,93,231 // vminps %ymm7,%ymm4,%ymm4
.byte 197,212,93,239 // vminps %ymm7,%ymm5,%ymm5
@@ -25410,7 +25419,7 @@ HIDDEN _sk_invert_avx
.globl _sk_invert_avx
FUNCTION(_sk_invert_avx)
_sk_invert_avx:
- .byte 196,98,125,24,5,62,36,2,0 // vbroadcastss 0x2243e(%rip),%ymm8 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 196,98,125,24,5,82,36,2,0 // vbroadcastss 0x22452(%rip),%ymm8 # 329e8 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 197,188,92,192 // vsubps %ymm0,%ymm8,%ymm0
.byte 197,188,92,201 // vsubps %ymm1,%ymm8,%ymm1
.byte 197,188,92,210 // vsubps %ymm2,%ymm8,%ymm2
@@ -25464,10 +25473,11 @@ HIDDEN _sk_unpremul_avx
.globl _sk_unpremul_avx
FUNCTION(_sk_unpremul_avx)
_sk_unpremul_avx:
- .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
- .byte 196,65,100,194,200,0 // vcmpeqps %ymm8,%ymm3,%ymm9
- .byte 196,98,125,24,21,206,35,2,0 // vbroadcastss 0x223ce(%rip),%ymm10 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
- .byte 197,44,94,211 // vdivps %ymm3,%ymm10,%ymm10
+ .byte 196,98,125,24,5,237,35,2,0 // vbroadcastss 0x223ed(%rip),%ymm8 # 329e8 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+ .byte 197,60,94,195 // vdivps %ymm3,%ymm8,%ymm8
+ .byte 196,98,125,24,13,16,36,2,0 // vbroadcastss 0x22410(%rip),%ymm9 # 32a18 <_sk_srcover_rgba_8888_sse2_lowp+0x8bc>
+ .byte 196,65,60,194,201,1 // vcmpltps %ymm9,%ymm8,%ymm9
+ .byte 196,65,44,87,210 // vxorps %ymm10,%ymm10,%ymm10
.byte 196,67,45,74,192,144 // vblendvps %ymm9,%ymm8,%ymm10,%ymm8
.byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
.byte 197,188,89,201 // vmulps %ymm1,%ymm8,%ymm1
@@ -25479,17 +25489,17 @@ HIDDEN _sk_from_srgb_avx
.globl _sk_from_srgb_avx
FUNCTION(_sk_from_srgb_avx)
_sk_from_srgb_avx:
- .byte 196,98,125,24,5,219,35,2,0 // vbroadcastss 0x223db(%rip),%ymm8 # 329f8 <_sk_srcover_rgba_8888_sse2_lowp+0x8b8>
+ .byte 196,98,125,24,5,234,35,2,0 // vbroadcastss 0x223ea(%rip),%ymm8 # 32a1c <_sk_srcover_rgba_8888_sse2_lowp+0x8c0>
.byte 196,65,124,89,200 // vmulps %ymm8,%ymm0,%ymm9
.byte 197,124,89,208 // vmulps %ymm0,%ymm0,%ymm10
- .byte 196,98,125,24,29,185,35,2,0 // vbroadcastss 0x223b9(%rip),%ymm11 # 329e8 <_sk_srcover_rgba_8888_sse2_lowp+0x8a8>
+ .byte 196,98,125,24,29,196,35,2,0 // vbroadcastss 0x223c4(%rip),%ymm11 # 32a08 <_sk_srcover_rgba_8888_sse2_lowp+0x8ac>
.byte 196,65,124,89,227 // vmulps %ymm11,%ymm0,%ymm12
- .byte 196,98,125,24,45,191,35,2,0 // vbroadcastss 0x223bf(%rip),%ymm13 # 329fc <_sk_srcover_rgba_8888_sse2_lowp+0x8bc>
+ .byte 196,98,125,24,45,206,35,2,0 // vbroadcastss 0x223ce(%rip),%ymm13 # 32a20 <_sk_srcover_rgba_8888_sse2_lowp+0x8c4>
.byte 196,65,28,88,229 // vaddps %ymm13,%ymm12,%ymm12
.byte 196,65,44,89,212 // vmulps %ymm12,%ymm10,%ymm10
- .byte 196,98,125,24,37,176,35,2,0 // vbroadcastss 0x223b0(%rip),%ymm12 # 32a00 <_sk_srcover_rgba_8888_sse2_lowp+0x8c0>
+ .byte 196,98,125,24,37,191,35,2,0 // vbroadcastss 0x223bf(%rip),%ymm12 # 32a24 <_sk_srcover_rgba_8888_sse2_lowp+0x8c8>
.byte 196,65,44,88,212 // vaddps %ymm12,%ymm10,%ymm10
- .byte 196,98,125,24,53,166,35,2,0 // vbroadcastss 0x223a6(%rip),%ymm14 # 32a04 <_sk_srcover_rgba_8888_sse2_lowp+0x8c4>
+ .byte 196,98,125,24,53,181,35,2,0 // vbroadcastss 0x223b5(%rip),%ymm14 # 32a28 <_sk_srcover_rgba_8888_sse2_lowp+0x8cc>
.byte 196,193,124,194,198,1 // vcmpltps %ymm14,%ymm0,%ymm0
.byte 196,195,45,74,193,0 // vblendvps %ymm0,%ymm9,%ymm10,%ymm0
.byte 196,65,116,89,200 // vmulps %ymm8,%ymm1,%ymm9
@@ -25515,17 +25525,17 @@ HIDDEN _sk_from_srgb_dst_avx
.globl _sk_from_srgb_dst_avx
FUNCTION(_sk_from_srgb_dst_avx)
_sk_from_srgb_dst_avx:
- .byte 196,98,125,24,5,47,35,2,0 // vbroadcastss 0x2232f(%rip),%ymm8 # 329f8 <_sk_srcover_rgba_8888_sse2_lowp+0x8b8>
+ .byte 196,98,125,24,5,62,35,2,0 // vbroadcastss 0x2233e(%rip),%ymm8 # 32a1c <_sk_srcover_rgba_8888_sse2_lowp+0x8c0>
.byte 196,65,92,89,200 // vmulps %ymm8,%ymm4,%ymm9
.byte 197,92,89,212 // vmulps %ymm4,%ymm4,%ymm10
- .byte 196,98,125,24,29,13,35,2,0 // vbroadcastss 0x2230d(%rip),%ymm11 # 329e8 <_sk_srcover_rgba_8888_sse2_lowp+0x8a8>
+ .byte 196,98,125,24,29,24,35,2,0 // vbroadcastss 0x22318(%rip),%ymm11 # 32a08 <_sk_srcover_rgba_8888_sse2_lowp+0x8ac>
.byte 196,65,92,89,227 // vmulps %ymm11,%ymm4,%ymm12
- .byte 196,98,125,24,45,19,35,2,0 // vbroadcastss 0x22313(%rip),%ymm13 # 329fc <_sk_srcover_rgba_8888_sse2_lowp+0x8bc>
+ .byte 196,98,125,24,45,34,35,2,0 // vbroadcastss 0x22322(%rip),%ymm13 # 32a20 <_sk_srcover_rgba_8888_sse2_lowp+0x8c4>
.byte 196,65,28,88,229 // vaddps %ymm13,%ymm12,%ymm12
.byte 196,65,44,89,212 // vmulps %ymm12,%ymm10,%ymm10
- .byte 196,98,125,24,37,4,35,2,0 // vbroadcastss 0x22304(%rip),%ymm12 # 32a00 <_sk_srcover_rgba_8888_sse2_lowp+0x8c0>
+ .byte 196,98,125,24,37,19,35,2,0 // vbroadcastss 0x22313(%rip),%ymm12 # 32a24 <_sk_srcover_rgba_8888_sse2_lowp+0x8c8>
.byte 196,65,44,88,212 // vaddps %ymm12,%ymm10,%ymm10
- .byte 196,98,125,24,53,250,34,2,0 // vbroadcastss 0x222fa(%rip),%ymm14 # 32a04 <_sk_srcover_rgba_8888_sse2_lowp+0x8c4>
+ .byte 196,98,125,24,53,9,35,2,0 // vbroadcastss 0x22309(%rip),%ymm14 # 32a28 <_sk_srcover_rgba_8888_sse2_lowp+0x8cc>
.byte 196,193,92,194,230,1 // vcmpltps %ymm14,%ymm4,%ymm4
.byte 196,195,45,74,225,64 // vblendvps %ymm4,%ymm9,%ymm10,%ymm4
.byte 196,65,84,89,200 // vmulps %ymm8,%ymm5,%ymm9
@@ -25552,20 +25562,20 @@ HIDDEN _sk_to_srgb_avx
FUNCTION(_sk_to_srgb_avx)
_sk_to_srgb_avx:
.byte 197,124,82,200 // vrsqrtps %ymm0,%ymm9
- .byte 196,98,125,24,5,143,34,2,0 // vbroadcastss 0x2228f(%rip),%ymm8 # 32a08 <_sk_srcover_rgba_8888_sse2_lowp+0x8c8>
+ .byte 196,98,125,24,5,158,34,2,0 // vbroadcastss 0x2229e(%rip),%ymm8 # 32a2c <_sk_srcover_rgba_8888_sse2_lowp+0x8d0>
.byte 196,65,124,89,208 // vmulps %ymm8,%ymm0,%ymm10
- .byte 196,98,125,24,29,137,34,2,0 // vbroadcastss 0x22289(%rip),%ymm11 # 32a10 <_sk_srcover_rgba_8888_sse2_lowp+0x8d0>
+ .byte 196,98,125,24,29,152,34,2,0 // vbroadcastss 0x22298(%rip),%ymm11 # 32a34 <_sk_srcover_rgba_8888_sse2_lowp+0x8d8>
.byte 196,65,52,89,227 // vmulps %ymm11,%ymm9,%ymm12
- .byte 196,98,125,24,45,119,34,2,0 // vbroadcastss 0x22277(%rip),%ymm13 # 32a0c <_sk_srcover_rgba_8888_sse2_lowp+0x8cc>
+ .byte 196,98,125,24,45,134,34,2,0 // vbroadcastss 0x22286(%rip),%ymm13 # 32a30 <_sk_srcover_rgba_8888_sse2_lowp+0x8d4>
.byte 196,65,28,88,229 // vaddps %ymm13,%ymm12,%ymm12
.byte 196,65,52,89,228 // vmulps %ymm12,%ymm9,%ymm12
- .byte 196,98,125,24,53,156,35,2,0 // vbroadcastss 0x2239c(%rip),%ymm14 # 32b44 <_sk_srcover_rgba_8888_sse2_lowp+0xa04>
+ .byte 196,98,125,24,53,171,35,2,0 // vbroadcastss 0x223ab(%rip),%ymm14 # 32b68 <_sk_srcover_rgba_8888_sse2_lowp+0xa0c>
.byte 196,65,28,88,230 // vaddps %ymm14,%ymm12,%ymm12
- .byte 196,98,125,24,61,146,35,2,0 // vbroadcastss 0x22392(%rip),%ymm15 # 32b48 <_sk_srcover_rgba_8888_sse2_lowp+0xa08>
+ .byte 196,98,125,24,61,161,35,2,0 // vbroadcastss 0x223a1(%rip),%ymm15 # 32b6c <_sk_srcover_rgba_8888_sse2_lowp+0xa10>
.byte 196,65,52,88,207 // vaddps %ymm15,%ymm9,%ymm9
.byte 196,65,124,83,201 // vrcpps %ymm9,%ymm9
.byte 196,65,52,89,204 // vmulps %ymm12,%ymm9,%ymm9
- .byte 196,98,125,24,37,78,34,2,0 // vbroadcastss 0x2224e(%rip),%ymm12 # 32a1c <_sk_srcover_rgba_8888_sse2_lowp+0x8dc>
+ .byte 196,98,125,24,37,93,34,2,0 // vbroadcastss 0x2225d(%rip),%ymm12 # 32a40 <_sk_srcover_rgba_8888_sse2_lowp+0x8e4>
.byte 196,193,124,194,196,1 // vcmpltps %ymm12,%ymm0,%ymm0
.byte 196,195,53,74,194,0 // vblendvps %ymm0,%ymm10,%ymm9,%ymm0
.byte 197,124,82,201 // vrsqrtps %ymm1,%ymm9
@@ -25602,7 +25612,7 @@ _sk_rgb_to_hsl_avx:
.byte 197,116,93,202 // vminps %ymm2,%ymm1,%ymm9
.byte 196,65,124,93,201 // vminps %ymm9,%ymm0,%ymm9
.byte 196,65,60,92,209 // vsubps %ymm9,%ymm8,%ymm10
- .byte 196,98,125,24,29,90,33,2,0 // vbroadcastss 0x2215a(%rip),%ymm11 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 196,98,125,24,29,101,33,2,0 // vbroadcastss 0x22165(%rip),%ymm11 # 329e8 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 196,65,36,94,218 // vdivps %ymm10,%ymm11,%ymm11
.byte 197,116,92,226 // vsubps %ymm2,%ymm1,%ymm12
.byte 196,65,28,89,227 // vmulps %ymm11,%ymm12,%ymm12
@@ -25612,19 +25622,19 @@ _sk_rgb_to_hsl_avx:
.byte 196,193,108,89,211 // vmulps %ymm11,%ymm2,%ymm2
.byte 197,252,92,201 // vsubps %ymm1,%ymm0,%ymm1
.byte 196,193,116,89,203 // vmulps %ymm11,%ymm1,%ymm1
- .byte 196,98,125,24,29,135,33,2,0 // vbroadcastss 0x22187(%rip),%ymm11 # 32a28 <_sk_srcover_rgba_8888_sse2_lowp+0x8e8>
+ .byte 196,98,125,24,29,150,33,2,0 // vbroadcastss 0x22196(%rip),%ymm11 # 32a4c <_sk_srcover_rgba_8888_sse2_lowp+0x8f0>
.byte 196,193,116,88,203 // vaddps %ymm11,%ymm1,%ymm1
- .byte 196,98,125,24,29,117,33,2,0 // vbroadcastss 0x22175(%rip),%ymm11 # 32a24 <_sk_srcover_rgba_8888_sse2_lowp+0x8e4>
+ .byte 196,98,125,24,29,132,33,2,0 // vbroadcastss 0x22184(%rip),%ymm11 # 32a48 <_sk_srcover_rgba_8888_sse2_lowp+0x8ec>
.byte 196,193,108,88,211 // vaddps %ymm11,%ymm2,%ymm2
.byte 196,227,117,74,202,224 // vblendvps %ymm14,%ymm2,%ymm1,%ymm1
- .byte 196,226,125,24,21,93,33,2,0 // vbroadcastss 0x2215d(%rip),%ymm2 # 32a20 <_sk_srcover_rgba_8888_sse2_lowp+0x8e0>
+ .byte 196,226,125,24,21,108,33,2,0 // vbroadcastss 0x2216c(%rip),%ymm2 # 32a44 <_sk_srcover_rgba_8888_sse2_lowp+0x8e8>
.byte 196,65,12,87,246 // vxorps %ymm14,%ymm14,%ymm14
.byte 196,227,13,74,210,208 // vblendvps %ymm13,%ymm2,%ymm14,%ymm2
.byte 197,188,194,192,0 // vcmpeqps %ymm0,%ymm8,%ymm0
.byte 196,193,108,88,212 // vaddps %ymm12,%ymm2,%ymm2
.byte 196,227,117,74,194,0 // vblendvps %ymm0,%ymm2,%ymm1,%ymm0
.byte 196,193,60,88,201 // vaddps %ymm9,%ymm8,%ymm1
- .byte 196,98,125,24,37,216,32,2,0 // vbroadcastss 0x220d8(%rip),%ymm12 # 329c4 <_sk_srcover_rgba_8888_sse2_lowp+0x884>
+ .byte 196,98,125,24,37,227,32,2,0 // vbroadcastss 0x220e3(%rip),%ymm12 # 329e4 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 196,193,116,89,212 // vmulps %ymm12,%ymm1,%ymm2
.byte 197,28,194,226,1 // vcmpltps %ymm2,%ymm12,%ymm12
.byte 196,65,36,92,216 // vsubps %ymm8,%ymm11,%ymm11
@@ -25634,7 +25644,7 @@ _sk_rgb_to_hsl_avx:
.byte 197,172,94,201 // vdivps %ymm1,%ymm10,%ymm1
.byte 196,195,125,74,198,128 // vblendvps %ymm8,%ymm14,%ymm0,%ymm0
.byte 196,195,117,74,206,128 // vblendvps %ymm8,%ymm14,%ymm1,%ymm1
- .byte 196,98,125,24,5,7,33,2,0 // vbroadcastss 0x22107(%rip),%ymm8 # 32a2c <_sk_srcover_rgba_8888_sse2_lowp+0x8ec>
+ .byte 196,98,125,24,5,22,33,2,0 // vbroadcastss 0x22116(%rip),%ymm8 # 32a50 <_sk_srcover_rgba_8888_sse2_lowp+0x8f4>
.byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -25651,7 +25661,7 @@ _sk_hsl_to_rgb_avx:
.byte 197,252,17,92,36,128 // vmovups %ymm3,-0x80(%rsp)
.byte 197,252,40,225 // vmovaps %ymm1,%ymm4
.byte 197,252,40,216 // vmovaps %ymm0,%ymm3
- .byte 196,98,125,24,5,100,32,2,0 // vbroadcastss 0x22064(%rip),%ymm8 # 329c4 <_sk_srcover_rgba_8888_sse2_lowp+0x884>
+ .byte 196,98,125,24,5,111,32,2,0 // vbroadcastss 0x2206f(%rip),%ymm8 # 329e4 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 197,60,194,202,2 // vcmpleps %ymm2,%ymm8,%ymm9
.byte 197,92,89,210 // vmulps %ymm2,%ymm4,%ymm10
.byte 196,65,92,92,218 // vsubps %ymm10,%ymm4,%ymm11
@@ -25659,23 +25669,23 @@ _sk_hsl_to_rgb_avx:
.byte 197,52,88,210 // vaddps %ymm2,%ymm9,%ymm10
.byte 197,108,88,202 // vaddps %ymm2,%ymm2,%ymm9
.byte 196,65,52,92,202 // vsubps %ymm10,%ymm9,%ymm9
- .byte 196,98,125,24,29,166,32,2,0 // vbroadcastss 0x220a6(%rip),%ymm11 # 32a30 <_sk_srcover_rgba_8888_sse2_lowp+0x8f0>
+ .byte 196,98,125,24,29,181,32,2,0 // vbroadcastss 0x220b5(%rip),%ymm11 # 32a54 <_sk_srcover_rgba_8888_sse2_lowp+0x8f8>
.byte 196,65,100,88,219 // vaddps %ymm11,%ymm3,%ymm11
.byte 196,67,125,8,227,1 // vroundps $0x1,%ymm11,%ymm12
.byte 196,65,36,92,252 // vsubps %ymm12,%ymm11,%ymm15
.byte 196,65,44,92,217 // vsubps %ymm9,%ymm10,%ymm11
- .byte 196,98,125,24,37,120,32,2,0 // vbroadcastss 0x22078(%rip),%ymm12 # 32a20 <_sk_srcover_rgba_8888_sse2_lowp+0x8e0>
+ .byte 196,98,125,24,37,135,32,2,0 // vbroadcastss 0x22087(%rip),%ymm12 # 32a44 <_sk_srcover_rgba_8888_sse2_lowp+0x8e8>
.byte 196,193,4,89,196 // vmulps %ymm12,%ymm15,%ymm0
- .byte 196,98,125,24,45,114,32,2,0 // vbroadcastss 0x22072(%rip),%ymm13 # 32a28 <_sk_srcover_rgba_8888_sse2_lowp+0x8e8>
+ .byte 196,98,125,24,45,129,32,2,0 // vbroadcastss 0x22081(%rip),%ymm13 # 32a4c <_sk_srcover_rgba_8888_sse2_lowp+0x8f0>
.byte 197,20,92,240 // vsubps %ymm0,%ymm13,%ymm14
.byte 196,65,36,89,246 // vmulps %ymm14,%ymm11,%ymm14
.byte 196,65,52,88,246 // vaddps %ymm14,%ymm9,%ymm14
- .byte 196,226,125,24,13,103,32,2,0 // vbroadcastss 0x22067(%rip),%ymm1 # 32a34 <_sk_srcover_rgba_8888_sse2_lowp+0x8f4>
+ .byte 196,226,125,24,13,118,32,2,0 // vbroadcastss 0x22076(%rip),%ymm1 # 32a58 <_sk_srcover_rgba_8888_sse2_lowp+0x8fc>
.byte 196,193,116,194,255,2 // vcmpleps %ymm15,%ymm1,%ymm7
.byte 196,195,13,74,249,112 // vblendvps %ymm7,%ymm9,%ymm14,%ymm7
.byte 196,65,60,194,247,2 // vcmpleps %ymm15,%ymm8,%ymm14
.byte 196,227,45,74,255,224 // vblendvps %ymm14,%ymm7,%ymm10,%ymm7
- .byte 196,98,125,24,53,62,32,2,0 // vbroadcastss 0x2203e(%rip),%ymm14 # 32a2c <_sk_srcover_rgba_8888_sse2_lowp+0x8ec>
+ .byte 196,98,125,24,53,77,32,2,0 // vbroadcastss 0x2204d(%rip),%ymm14 # 32a50 <_sk_srcover_rgba_8888_sse2_lowp+0x8f4>
.byte 196,65,12,194,255,2 // vcmpleps %ymm15,%ymm14,%ymm15
.byte 196,193,124,89,195 // vmulps %ymm11,%ymm0,%ymm0
.byte 197,180,88,192 // vaddps %ymm0,%ymm9,%ymm0
@@ -25694,7 +25704,7 @@ _sk_hsl_to_rgb_avx:
.byte 197,164,89,247 // vmulps %ymm7,%ymm11,%ymm6
.byte 197,180,88,246 // vaddps %ymm6,%ymm9,%ymm6
.byte 196,227,77,74,237,0 // vblendvps %ymm0,%ymm5,%ymm6,%ymm5
- .byte 196,226,125,24,5,232,31,2,0 // vbroadcastss 0x21fe8(%rip),%ymm0 # 32a38 <_sk_srcover_rgba_8888_sse2_lowp+0x8f8>
+ .byte 196,226,125,24,5,247,31,2,0 // vbroadcastss 0x21ff7(%rip),%ymm0 # 32a5c <_sk_srcover_rgba_8888_sse2_lowp+0x900>
.byte 197,228,88,192 // vaddps %ymm0,%ymm3,%ymm0
.byte 196,227,125,8,216,1 // vroundps $0x1,%ymm0,%ymm3
.byte 197,252,92,195 // vsubps %ymm3,%ymm0,%ymm0
@@ -25748,15 +25758,15 @@ _sk_scale_u8_avx:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,75 // jne 10b56 <_sk_scale_u8_avx+0x63>
+ .byte 117,75 // jne 10b6b <_sk_scale_u8_avx+0x63>
.byte 196,2,121,48,4,24 // vpmovzxbw (%r8,%r11,1),%xmm8
- .byte 197,57,219,5,71,32,2,0 // vpand 0x22047(%rip),%xmm8,%xmm8 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xa20>
+ .byte 197,57,219,5,98,32,2,0 // vpand 0x22062(%rip),%xmm8,%xmm8 # 32b90 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
.byte 196,66,121,51,200 // vpmovzxwd %xmm8,%xmm9
.byte 196,65,121,112,192,78 // vpshufd $0x4e,%xmm8,%xmm8
.byte 196,66,121,51,192 // vpmovzxwd %xmm8,%xmm8
.byte 196,67,53,24,192,1 // vinsertf128 $0x1,%xmm8,%ymm9,%ymm8
.byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8
- .byte 196,98,125,24,13,255,30,2,0 // vbroadcastss 0x21eff(%rip),%ymm9 # 32a3c <_sk_srcover_rgba_8888_sse2_lowp+0x8fc>
+ .byte 196,98,125,24,13,14,31,2,0 // vbroadcastss 0x21f0e(%rip),%ymm9 # 32a60 <_sk_srcover_rgba_8888_sse2_lowp+0x904>
.byte 196,65,60,89,193 // vmulps %ymm9,%ymm8,%ymm8
.byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
.byte 197,188,89,201 // vmulps %ymm1,%ymm8,%ymm1
@@ -25769,15 +25779,15 @@ _sk_scale_u8_avx:
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,166 // ja 10b11 <_sk_scale_u8_avx+0x1e>
+ .byte 119,166 // ja 10b26 <_sk_scale_u8_avx+0x1e>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,122,0,0,0 // lea 0x7a(%rip),%r10 # 10bf0 <_sk_scale_u8_avx+0xfd>
+ .byte 76,141,21,121,0,0,0 // lea 0x79(%rip),%r10 # 10c04 <_sk_scale_u8_avx+0xfc>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 67,15,182,4,24 // movzbl (%r8,%r11,1),%eax
.byte 197,121,110,192 // vmovd %eax,%xmm8
- .byte 235,135 // jmp 10b11 <_sk_scale_u8_avx+0x1e>
+ .byte 235,135 // jmp 10b26 <_sk_scale_u8_avx+0x1e>
.byte 67,15,182,68,24,2 // movzbl 0x2(%r8,%r11,1),%eax
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 197,57,196,192,2 // vpinsrw $0x2,%eax,%xmm8,%xmm8
@@ -25785,7 +25795,7 @@ _sk_scale_u8_avx:
.byte 197,121,110,200 // vmovd %eax,%xmm9
.byte 196,66,121,48,201 // vpmovzxbw %xmm9,%xmm9
.byte 196,67,57,14,193,3 // vpblendw $0x3,%xmm9,%xmm8,%xmm8
- .byte 233,94,255,255,255 // jmpq 10b11 <_sk_scale_u8_avx+0x1e>
+ .byte 233,94,255,255,255 // jmpq 10b26 <_sk_scale_u8_avx+0x1e>
.byte 67,15,182,68,24,6 // movzbl 0x6(%r8,%r11,1),%eax
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 197,57,196,192,6 // vpinsrw $0x6,%eax,%xmm8,%xmm8
@@ -25796,22 +25806,24 @@ _sk_scale_u8_avx:
.byte 196,1,121,110,12,24 // vmovd (%r8,%r11,1),%xmm9
.byte 196,66,121,48,201 // vpmovzxbw %xmm9,%xmm9
.byte 196,67,49,14,192,240 // vpblendw $0xf0,%xmm8,%xmm9,%xmm8
- .byte 233,34,255,255,255 // jmpq 10b11 <_sk_scale_u8_avx+0x1e>
+ .byte 233,34,255,255,255 // jmpq 10b26 <_sk_scale_u8_avx+0x1e>
.byte 144 // nop
- .byte 143 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,170,255,255,255,154 // ljmp *-0x65000001(%rdx)
+ .byte 255,171,255,255,255,155 // ljmp *-0x64000001(%rbx)
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 233,255,255,255,222 // jmpq ffffffffdf010c00 <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffdefdeac0>
+ .byte 234 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,211 // callq *%rbx
.byte 255 // (bad)
+ .byte 223,255 // (bad)
.byte 255 // (bad)
- .byte 255,195 // inc %ebx
+ .byte 255,212 // callq *%rsp
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 255,196 // inc %esp
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // .byte 0xff
@@ -25828,26 +25840,26 @@ _sk_scale_565_avx:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,178,0,0,0 // jne 10cdd <_sk_scale_565_avx+0xd1>
+ .byte 15,133,178,0,0,0 // jne 10cf1 <_sk_scale_565_avx+0xd1>
.byte 196,1,122,111,4,88 // vmovdqu (%r8,%r11,2),%xmm8
.byte 196,66,121,51,200 // vpmovzxwd %xmm8,%xmm9
.byte 196,65,121,112,192,78 // vpshufd $0x4e,%xmm8,%xmm8
.byte 196,66,121,51,192 // vpmovzxwd %xmm8,%xmm8
.byte 196,67,53,24,192,1 // vinsertf128 $0x1,%xmm8,%ymm9,%ymm8
- .byte 196,98,125,24,13,240,29,2,0 // vbroadcastss 0x21df0(%rip),%ymm9 # 32a40 <_sk_srcover_rgba_8888_sse2_lowp+0x900>
+ .byte 196,98,125,24,13,0,30,2,0 // vbroadcastss 0x21e00(%rip),%ymm9 # 32a64 <_sk_srcover_rgba_8888_sse2_lowp+0x908>
.byte 196,65,60,84,201 // vandps %ymm9,%ymm8,%ymm9
.byte 196,65,124,91,201 // vcvtdq2ps %ymm9,%ymm9
- .byte 196,98,125,24,21,225,29,2,0 // vbroadcastss 0x21de1(%rip),%ymm10 # 32a44 <_sk_srcover_rgba_8888_sse2_lowp+0x904>
+ .byte 196,98,125,24,21,241,29,2,0 // vbroadcastss 0x21df1(%rip),%ymm10 # 32a68 <_sk_srcover_rgba_8888_sse2_lowp+0x90c>
.byte 196,65,52,89,202 // vmulps %ymm10,%ymm9,%ymm9
- .byte 196,98,125,24,21,215,29,2,0 // vbroadcastss 0x21dd7(%rip),%ymm10 # 32a48 <_sk_srcover_rgba_8888_sse2_lowp+0x908>
+ .byte 196,98,125,24,21,231,29,2,0 // vbroadcastss 0x21de7(%rip),%ymm10 # 32a6c <_sk_srcover_rgba_8888_sse2_lowp+0x910>
.byte 196,65,60,84,210 // vandps %ymm10,%ymm8,%ymm10
.byte 196,65,124,91,210 // vcvtdq2ps %ymm10,%ymm10
- .byte 196,98,125,24,29,200,29,2,0 // vbroadcastss 0x21dc8(%rip),%ymm11 # 32a4c <_sk_srcover_rgba_8888_sse2_lowp+0x90c>
+ .byte 196,98,125,24,29,216,29,2,0 // vbroadcastss 0x21dd8(%rip),%ymm11 # 32a70 <_sk_srcover_rgba_8888_sse2_lowp+0x914>
.byte 196,65,44,89,211 // vmulps %ymm11,%ymm10,%ymm10
- .byte 196,98,125,24,29,190,29,2,0 // vbroadcastss 0x21dbe(%rip),%ymm11 # 32a50 <_sk_srcover_rgba_8888_sse2_lowp+0x910>
+ .byte 196,98,125,24,29,206,29,2,0 // vbroadcastss 0x21dce(%rip),%ymm11 # 32a74 <_sk_srcover_rgba_8888_sse2_lowp+0x918>
.byte 196,65,60,84,195 // vandps %ymm11,%ymm8,%ymm8
.byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8
- .byte 196,98,125,24,29,175,29,2,0 // vbroadcastss 0x21daf(%rip),%ymm11 # 32a54 <_sk_srcover_rgba_8888_sse2_lowp+0x914>
+ .byte 196,98,125,24,29,191,29,2,0 // vbroadcastss 0x21dbf(%rip),%ymm11 # 32a78 <_sk_srcover_rgba_8888_sse2_lowp+0x91c>
.byte 196,65,60,89,195 // vmulps %ymm11,%ymm8,%ymm8
.byte 197,100,194,223,1 // vcmpltps %ymm7,%ymm3,%ymm11
.byte 196,65,44,93,224 // vminps %ymm8,%ymm10,%ymm12
@@ -25866,27 +25878,27 @@ _sk_scale_565_avx:
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 15,135,59,255,255,255 // ja 10c31 <_sk_scale_565_avx+0x25>
+ .byte 15,135,59,255,255,255 // ja 10c45 <_sk_scale_565_avx+0x25>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,99,0,0,0 // lea 0x63(%rip),%r10 # 10d64 <_sk_scale_565_avx+0x158>
+ .byte 76,141,21,99,0,0,0 // lea 0x63(%rip),%r10 # 10d78 <_sk_scale_565_avx+0x158>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 67,15,183,4,88 // movzwl (%r8,%r11,2),%eax
.byte 197,121,110,192 // vmovd %eax,%xmm8
- .byte 233,25,255,255,255 // jmpq 10c31 <_sk_scale_565_avx+0x25>
+ .byte 233,25,255,255,255 // jmpq 10c45 <_sk_scale_565_avx+0x25>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,1,57,196,68,88,4,2 // vpinsrw $0x2,0x4(%r8,%r11,2),%xmm8,%xmm8
.byte 196,1,121,110,12,88 // vmovd (%r8,%r11,2),%xmm9
.byte 196,67,57,14,193,3 // vpblendw $0x3,%xmm9,%xmm8,%xmm8
- .byte 233,251,254,255,255 // jmpq 10c31 <_sk_scale_565_avx+0x25>
+ .byte 233,251,254,255,255 // jmpq 10c45 <_sk_scale_565_avx+0x25>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,1,57,196,68,88,12,6 // vpinsrw $0x6,0xc(%r8,%r11,2),%xmm8,%xmm8
.byte 196,1,57,196,68,88,10,5 // vpinsrw $0x5,0xa(%r8,%r11,2),%xmm8,%xmm8
.byte 196,1,57,196,68,88,8,4 // vpinsrw $0x4,0x8(%r8,%r11,2),%xmm8,%xmm8
.byte 196,1,122,126,12,88 // vmovq (%r8,%r11,2),%xmm9
.byte 196,67,49,14,192,240 // vpblendw $0xf0,%xmm8,%xmm9,%xmm8
- .byte 233,205,254,255,255 // jmpq 10c31 <_sk_scale_565_avx+0x25>
+ .byte 233,205,254,255,255 // jmpq 10c45 <_sk_scale_565_avx+0x25>
.byte 166 // cmpsb %es:(%rdi),%ds:(%rsi)
.byte 255 // (bad)
.byte 255 // (bad)
@@ -25938,15 +25950,15 @@ _sk_lerp_u8_avx:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,111 // jne 10e46 <_sk_lerp_u8_avx+0x87>
+ .byte 117,111 // jne 10e5a <_sk_lerp_u8_avx+0x87>
.byte 196,2,121,48,4,24 // vpmovzxbw (%r8,%r11,1),%xmm8
- .byte 197,57,219,5,123,29,2,0 // vpand 0x21d7b(%rip),%xmm8,%xmm8 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xa20>
+ .byte 197,57,219,5,151,29,2,0 // vpand 0x21d97(%rip),%xmm8,%xmm8 # 32b90 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
.byte 196,66,121,51,200 // vpmovzxwd %xmm8,%xmm9
.byte 196,65,121,112,192,78 // vpshufd $0x4e,%xmm8,%xmm8
.byte 196,66,121,51,192 // vpmovzxwd %xmm8,%xmm8
.byte 196,67,53,24,192,1 // vinsertf128 $0x1,%xmm8,%ymm9,%ymm8
.byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8
- .byte 196,98,125,24,13,51,28,2,0 // vbroadcastss 0x21c33(%rip),%ymm9 # 32a3c <_sk_srcover_rgba_8888_sse2_lowp+0x8fc>
+ .byte 196,98,125,24,13,67,28,2,0 // vbroadcastss 0x21c43(%rip),%ymm9 # 32a60 <_sk_srcover_rgba_8888_sse2_lowp+0x904>
.byte 196,65,60,89,193 // vmulps %ymm9,%ymm8,%ymm8
.byte 197,252,92,196 // vsubps %ymm4,%ymm0,%ymm0
.byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
@@ -25967,15 +25979,15 @@ _sk_lerp_u8_avx:
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,130 // ja 10ddd <_sk_lerp_u8_avx+0x1e>
+ .byte 119,130 // ja 10df1 <_sk_lerp_u8_avx+0x1e>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,126,0,0,0 // lea 0x7e(%rip),%r10 # 10ee4 <_sk_lerp_u8_avx+0x125>
+ .byte 76,141,21,126,0,0,0 // lea 0x7e(%rip),%r10 # 10ef8 <_sk_lerp_u8_avx+0x125>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 67,15,182,4,24 // movzbl (%r8,%r11,1),%eax
.byte 197,121,110,192 // vmovd %eax,%xmm8
- .byte 233,96,255,255,255 // jmpq 10ddd <_sk_lerp_u8_avx+0x1e>
+ .byte 233,96,255,255,255 // jmpq 10df1 <_sk_lerp_u8_avx+0x1e>
.byte 67,15,182,68,24,2 // movzbl 0x2(%r8,%r11,1),%eax
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 197,57,196,192,2 // vpinsrw $0x2,%eax,%xmm8,%xmm8
@@ -25983,7 +25995,7 @@ _sk_lerp_u8_avx:
.byte 197,121,110,200 // vmovd %eax,%xmm9
.byte 196,66,121,48,201 // vpmovzxbw %xmm9,%xmm9
.byte 196,67,57,14,193,3 // vpblendw $0x3,%xmm9,%xmm8,%xmm8
- .byte 233,55,255,255,255 // jmpq 10ddd <_sk_lerp_u8_avx+0x1e>
+ .byte 233,55,255,255,255 // jmpq 10df1 <_sk_lerp_u8_avx+0x1e>
.byte 67,15,182,68,24,6 // movzbl 0x6(%r8,%r11,1),%eax
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 197,57,196,192,6 // vpinsrw $0x6,%eax,%xmm8,%xmm8
@@ -25994,7 +26006,7 @@ _sk_lerp_u8_avx:
.byte 196,1,121,110,12,24 // vmovd (%r8,%r11,1),%xmm9
.byte 196,66,121,48,201 // vpmovzxbw %xmm9,%xmm9
.byte 196,67,49,14,192,240 // vpblendw $0xf0,%xmm8,%xmm9,%xmm8
- .byte 233,251,254,255,255 // jmpq 10ddd <_sk_lerp_u8_avx+0x1e>
+ .byte 233,251,254,255,255 // jmpq 10df1 <_sk_lerp_u8_avx+0x1e>
.byte 102,144 // xchg %ax,%ax
.byte 139,255 // mov %edi,%edi
.byte 255 // (bad)
@@ -26002,7 +26014,7 @@ _sk_lerp_u8_avx:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 232,255,255,255,221 // callq ffffffffde010ef4 <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffddfdedb4>
+ .byte 232,255,255,255,221 // callq ffffffffde010f08 <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffddfdedac>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,210 // callq *%rdx
@@ -26025,26 +26037,26 @@ _sk_lerp_565_avx:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,214,0,0,0 // jne 10ff5 <_sk_lerp_565_avx+0xf5>
+ .byte 15,133,214,0,0,0 // jne 11009 <_sk_lerp_565_avx+0xf5>
.byte 196,1,122,111,4,88 // vmovdqu (%r8,%r11,2),%xmm8
.byte 196,66,121,51,200 // vpmovzxwd %xmm8,%xmm9
.byte 196,65,121,112,192,78 // vpshufd $0x4e,%xmm8,%xmm8
.byte 196,66,121,51,192 // vpmovzxwd %xmm8,%xmm8
.byte 196,67,53,24,192,1 // vinsertf128 $0x1,%xmm8,%ymm9,%ymm8
- .byte 196,98,125,24,13,252,26,2,0 // vbroadcastss 0x21afc(%rip),%ymm9 # 32a40 <_sk_srcover_rgba_8888_sse2_lowp+0x900>
+ .byte 196,98,125,24,13,12,27,2,0 // vbroadcastss 0x21b0c(%rip),%ymm9 # 32a64 <_sk_srcover_rgba_8888_sse2_lowp+0x908>
.byte 196,65,60,84,201 // vandps %ymm9,%ymm8,%ymm9
.byte 196,65,124,91,201 // vcvtdq2ps %ymm9,%ymm9
- .byte 196,98,125,24,21,237,26,2,0 // vbroadcastss 0x21aed(%rip),%ymm10 # 32a44 <_sk_srcover_rgba_8888_sse2_lowp+0x904>
+ .byte 196,98,125,24,21,253,26,2,0 // vbroadcastss 0x21afd(%rip),%ymm10 # 32a68 <_sk_srcover_rgba_8888_sse2_lowp+0x90c>
.byte 196,65,52,89,202 // vmulps %ymm10,%ymm9,%ymm9
- .byte 196,98,125,24,21,227,26,2,0 // vbroadcastss 0x21ae3(%rip),%ymm10 # 32a48 <_sk_srcover_rgba_8888_sse2_lowp+0x908>
+ .byte 196,98,125,24,21,243,26,2,0 // vbroadcastss 0x21af3(%rip),%ymm10 # 32a6c <_sk_srcover_rgba_8888_sse2_lowp+0x910>
.byte 196,65,60,84,210 // vandps %ymm10,%ymm8,%ymm10
.byte 196,65,124,91,210 // vcvtdq2ps %ymm10,%ymm10
- .byte 196,98,125,24,29,212,26,2,0 // vbroadcastss 0x21ad4(%rip),%ymm11 # 32a4c <_sk_srcover_rgba_8888_sse2_lowp+0x90c>
+ .byte 196,98,125,24,29,228,26,2,0 // vbroadcastss 0x21ae4(%rip),%ymm11 # 32a70 <_sk_srcover_rgba_8888_sse2_lowp+0x914>
.byte 196,65,44,89,211 // vmulps %ymm11,%ymm10,%ymm10
- .byte 196,98,125,24,29,202,26,2,0 // vbroadcastss 0x21aca(%rip),%ymm11 # 32a50 <_sk_srcover_rgba_8888_sse2_lowp+0x910>
+ .byte 196,98,125,24,29,218,26,2,0 // vbroadcastss 0x21ada(%rip),%ymm11 # 32a74 <_sk_srcover_rgba_8888_sse2_lowp+0x918>
.byte 196,65,60,84,195 // vandps %ymm11,%ymm8,%ymm8
.byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8
- .byte 196,98,125,24,29,187,26,2,0 // vbroadcastss 0x21abb(%rip),%ymm11 # 32a54 <_sk_srcover_rgba_8888_sse2_lowp+0x914>
+ .byte 196,98,125,24,29,203,26,2,0 // vbroadcastss 0x21acb(%rip),%ymm11 # 32a78 <_sk_srcover_rgba_8888_sse2_lowp+0x91c>
.byte 196,65,60,89,195 // vmulps %ymm11,%ymm8,%ymm8
.byte 197,100,194,223,1 // vcmpltps %ymm7,%ymm3,%ymm11
.byte 196,65,44,93,224 // vminps %ymm8,%ymm10,%ymm12
@@ -26071,27 +26083,27 @@ _sk_lerp_565_avx:
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 15,135,23,255,255,255 // ja 10f25 <_sk_lerp_565_avx+0x25>
+ .byte 15,135,23,255,255,255 // ja 10f39 <_sk_lerp_565_avx+0x25>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,99,0,0,0 // lea 0x63(%rip),%r10 # 1107c <_sk_lerp_565_avx+0x17c>
+ .byte 76,141,21,99,0,0,0 // lea 0x63(%rip),%r10 # 11090 <_sk_lerp_565_avx+0x17c>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 67,15,183,4,88 // movzwl (%r8,%r11,2),%eax
.byte 197,121,110,192 // vmovd %eax,%xmm8
- .byte 233,245,254,255,255 // jmpq 10f25 <_sk_lerp_565_avx+0x25>
+ .byte 233,245,254,255,255 // jmpq 10f39 <_sk_lerp_565_avx+0x25>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,1,57,196,68,88,4,2 // vpinsrw $0x2,0x4(%r8,%r11,2),%xmm8,%xmm8
.byte 196,1,121,110,12,88 // vmovd (%r8,%r11,2),%xmm9
.byte 196,67,57,14,193,3 // vpblendw $0x3,%xmm9,%xmm8,%xmm8
- .byte 233,215,254,255,255 // jmpq 10f25 <_sk_lerp_565_avx+0x25>
+ .byte 233,215,254,255,255 // jmpq 10f39 <_sk_lerp_565_avx+0x25>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,1,57,196,68,88,12,6 // vpinsrw $0x6,0xc(%r8,%r11,2),%xmm8,%xmm8
.byte 196,1,57,196,68,88,10,5 // vpinsrw $0x5,0xa(%r8,%r11,2),%xmm8,%xmm8
.byte 196,1,57,196,68,88,8,4 // vpinsrw $0x4,0x8(%r8,%r11,2),%xmm8,%xmm8
.byte 196,1,122,126,12,88 // vmovq (%r8,%r11,2),%xmm9
.byte 196,67,49,14,192,240 // vpblendw $0xf0,%xmm8,%xmm9,%xmm8
- .byte 233,169,254,255,255 // jmpq 10f25 <_sk_lerp_565_avx+0x25>
+ .byte 233,169,254,255,255 // jmpq 10f39 <_sk_lerp_565_avx+0x25>
.byte 166 // cmpsb %es:(%rdi),%ds:(%rsi)
.byte 255 // (bad)
.byte 255 // (bad)
@@ -26119,9 +26131,9 @@ _sk_load_tables_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 76,139,0 // mov (%rax),%r8
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,4,2,0,0 // jne 112b0 <_sk_load_tables_avx+0x218>
+ .byte 15,133,4,2,0,0 // jne 112c4 <_sk_load_tables_avx+0x218>
.byte 196,65,125,16,20,144 // vmovupd (%r8,%rdx,4),%ymm10
- .byte 197,125,40,13,6,23,2,0 // vmovapd 0x21706(%rip),%ymm9 # 327c0 <_sk_srcover_rgba_8888_sse2_lowp+0x680>
+ .byte 197,125,40,13,18,23,2,0 // vmovapd 0x21712(%rip),%ymm9 # 327e0 <_sk_srcover_rgba_8888_sse2_lowp+0x684>
.byte 196,193,45,84,201 // vandpd %ymm9,%ymm10,%ymm1
.byte 196,227,125,25,200,1 // vextractf128 $0x1,%ymm1,%xmm0
.byte 196,193,249,126,192 // vmovq %xmm0,%r8
@@ -26213,7 +26225,7 @@ _sk_load_tables_avx:
.byte 196,193,65,114,213,24 // vpsrld $0x18,%xmm13,%xmm7
.byte 196,227,101,24,223,1 // vinsertf128 $0x1,%xmm7,%ymm3,%ymm3
.byte 197,252,91,219 // vcvtdq2ps %ymm3,%ymm3
- .byte 196,226,125,24,61,154,23,2,0 // vbroadcastss 0x2179a(%rip),%ymm7 # 32a3c <_sk_srcover_rgba_8888_sse2_lowp+0x8fc>
+ .byte 196,226,125,24,61,170,23,2,0 // vbroadcastss 0x217aa(%rip),%ymm7 # 32a60 <_sk_srcover_rgba_8888_sse2_lowp+0x904>
.byte 197,228,89,223 // vmulps %ymm7,%ymm3,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,252,16,124,36,200 // vmovups -0x38(%rsp),%ymm7
@@ -26223,21 +26235,21 @@ _sk_load_tables_avx:
.byte 196,65,44,87,210 // vxorps %ymm10,%ymm10,%ymm10
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 15,135,233,253,255,255 // ja 110b2 <_sk_load_tables_avx+0x1a>
+ .byte 15,135,233,253,255,255 // ja 110c6 <_sk_load_tables_avx+0x1a>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,148,0,0,0 // lea 0x94(%rip),%r10 # 11368 <_sk_load_tables_avx+0x2d0>
+ .byte 76,141,21,148,0,0,0 // lea 0x94(%rip),%r10 # 1137c <_sk_load_tables_avx+0x2d0>
.byte 79,99,12,138 // movslq (%r10,%r9,4),%r9
.byte 77,1,209 // add %r10,%r9
.byte 65,255,225 // jmpq *%r9
.byte 196,65,122,16,20,144 // vmovss (%r8,%rdx,4),%xmm10
- .byte 233,201,253,255,255 // jmpq 110b2 <_sk_load_tables_avx+0x1a>
+ .byte 233,201,253,255,255 // jmpq 110c6 <_sk_load_tables_avx+0x1a>
.byte 196,193,121,110,68,144,8 // vmovd 0x8(%r8,%rdx,4),%xmm0
.byte 197,249,112,192,68 // vpshufd $0x44,%xmm0,%xmm0
.byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
.byte 196,99,117,12,208,4 // vblendps $0x4,%ymm0,%ymm1,%ymm10
.byte 196,193,123,16,4,144 // vmovsd (%r8,%rdx,4),%xmm0
.byte 196,99,45,13,208,1 // vblendpd $0x1,%ymm0,%ymm10,%ymm10
- .byte 233,162,253,255,255 // jmpq 110b2 <_sk_load_tables_avx+0x1a>
+ .byte 233,162,253,255,255 // jmpq 110c6 <_sk_load_tables_avx+0x1a>
.byte 196,193,121,110,68,144,24 // vmovd 0x18(%r8,%rdx,4),%xmm0
.byte 197,249,112,192,68 // vpshufd $0x44,%xmm0,%xmm0
.byte 196,227,125,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm0,%ymm0
@@ -26251,9 +26263,9 @@ _sk_load_tables_avx:
.byte 196,99,45,24,208,1 // vinsertf128 $0x1,%xmm0,%ymm10,%ymm10
.byte 196,193,121,16,4,144 // vmovupd (%r8,%rdx,4),%xmm0
.byte 196,67,125,13,210,12 // vblendpd $0xc,%ymm10,%ymm0,%ymm10
- .byte 233,77,253,255,255 // jmpq 110b2 <_sk_load_tables_avx+0x1a>
+ .byte 233,77,253,255,255 // jmpq 110c6 <_sk_load_tables_avx+0x1a>
.byte 15,31,0 // nopl (%rax)
- .byte 118,255 // jbe 11369 <_sk_load_tables_avx+0x2d1>
+ .byte 118,255 // jbe 1137d <_sk_load_tables_avx+0x2d1>
.byte 255 // (bad)
.byte 255,151,255,255,255,129 // callq *-0x7e000001(%rdi)
.byte 255 // (bad)
@@ -26283,7 +26295,7 @@ _sk_load_tables_u16_be_avx:
.byte 72,133,255 // test %rdi,%rdi
.byte 197,252,17,124,36,200 // vmovups %ymm7,-0x38(%rsp)
.byte 197,252,17,116,36,168 // vmovups %ymm6,-0x58(%rsp)
- .byte 15,133,75,2,0,0 // jne 115f1 <_sk_load_tables_u16_be_avx+0x26d>
+ .byte 15,133,75,2,0,0 // jne 11605 <_sk_load_tables_u16_be_avx+0x26d>
.byte 196,1,121,16,4,72 // vmovupd (%r8,%r9,2),%xmm8
.byte 196,129,121,16,84,72,16 // vmovupd 0x10(%r8,%r9,2),%xmm2
.byte 196,129,121,16,92,72,32 // vmovupd 0x20(%r8,%r9,2),%xmm3
@@ -26299,7 +26311,7 @@ _sk_load_tables_u16_be_avx:
.byte 197,177,108,208 // vpunpcklqdq %xmm0,%xmm9,%xmm2
.byte 197,49,109,232 // vpunpckhqdq %xmm0,%xmm9,%xmm13
.byte 196,65,57,108,212 // vpunpcklqdq %xmm12,%xmm8,%xmm10
- .byte 197,121,111,29,104,23,2,0 // vmovdqa 0x21768(%rip),%xmm11 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xa20>
+ .byte 197,121,111,29,132,23,2,0 // vmovdqa 0x21784(%rip),%xmm11 # 32b90 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
.byte 196,193,105,219,195 // vpand %xmm11,%xmm2,%xmm0
.byte 197,249,112,208,78 // vpshufd $0x4e,%xmm0,%xmm2
.byte 196,226,121,51,210 // vpmovzxwd %xmm2,%xmm2
@@ -26393,7 +26405,7 @@ _sk_load_tables_u16_be_avx:
.byte 196,226,121,51,219 // vpmovzxwd %xmm3,%xmm3
.byte 196,227,77,24,219,1 // vinsertf128 $0x1,%xmm3,%ymm6,%ymm3
.byte 197,252,91,219 // vcvtdq2ps %ymm3,%ymm3
- .byte 196,226,125,24,53,123,20,2,0 // vbroadcastss 0x2147b(%rip),%ymm6 # 32a58 <_sk_srcover_rgba_8888_sse2_lowp+0x918>
+ .byte 196,226,125,24,53,139,20,2,0 // vbroadcastss 0x2148b(%rip),%ymm6 # 32a7c <_sk_srcover_rgba_8888_sse2_lowp+0x920>
.byte 197,228,89,222 // vmulps %ymm6,%ymm3,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,252,16,116,36,168 // vmovups -0x58(%rsp),%ymm6
@@ -26402,29 +26414,29 @@ _sk_load_tables_u16_be_avx:
.byte 196,1,123,16,4,72 // vmovsd (%r8,%r9,2),%xmm8
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 116,85 // je 11657 <_sk_load_tables_u16_be_avx+0x2d3>
+ .byte 116,85 // je 1166b <_sk_load_tables_u16_be_avx+0x2d3>
.byte 196,1,57,22,68,72,8 // vmovhpd 0x8(%r8,%r9,2),%xmm8,%xmm8
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,72 // jb 11657 <_sk_load_tables_u16_be_avx+0x2d3>
+ .byte 114,72 // jb 1166b <_sk_load_tables_u16_be_avx+0x2d3>
.byte 196,129,123,16,84,72,16 // vmovsd 0x10(%r8,%r9,2),%xmm2
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 116,72 // je 11664 <_sk_load_tables_u16_be_avx+0x2e0>
+ .byte 116,72 // je 11678 <_sk_load_tables_u16_be_avx+0x2e0>
.byte 196,129,105,22,84,72,24 // vmovhpd 0x18(%r8,%r9,2),%xmm2,%xmm2
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 114,59 // jb 11664 <_sk_load_tables_u16_be_avx+0x2e0>
+ .byte 114,59 // jb 11678 <_sk_load_tables_u16_be_avx+0x2e0>
.byte 196,129,123,16,92,72,32 // vmovsd 0x20(%r8,%r9,2),%xmm3
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 15,132,135,253,255,255 // je 113c1 <_sk_load_tables_u16_be_avx+0x3d>
+ .byte 15,132,135,253,255,255 // je 113d5 <_sk_load_tables_u16_be_avx+0x3d>
.byte 196,129,97,22,92,72,40 // vmovhpd 0x28(%r8,%r9,2),%xmm3,%xmm3
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 15,130,118,253,255,255 // jb 113c1 <_sk_load_tables_u16_be_avx+0x3d>
+ .byte 15,130,118,253,255,255 // jb 113d5 <_sk_load_tables_u16_be_avx+0x3d>
.byte 196,1,122,126,76,72,48 // vmovq 0x30(%r8,%r9,2),%xmm9
- .byte 233,106,253,255,255 // jmpq 113c1 <_sk_load_tables_u16_be_avx+0x3d>
+ .byte 233,106,253,255,255 // jmpq 113d5 <_sk_load_tables_u16_be_avx+0x3d>
.byte 197,225,87,219 // vxorpd %xmm3,%xmm3,%xmm3
.byte 197,233,87,210 // vxorpd %xmm2,%xmm2,%xmm2
- .byte 233,93,253,255,255 // jmpq 113c1 <_sk_load_tables_u16_be_avx+0x3d>
+ .byte 233,93,253,255,255 // jmpq 113d5 <_sk_load_tables_u16_be_avx+0x3d>
.byte 197,225,87,219 // vxorpd %xmm3,%xmm3,%xmm3
- .byte 233,84,253,255,255 // jmpq 113c1 <_sk_load_tables_u16_be_avx+0x3d>
+ .byte 233,84,253,255,255 // jmpq 113d5 <_sk_load_tables_u16_be_avx+0x3d>
HIDDEN _sk_load_tables_rgb_u16_be_avx
.globl _sk_load_tables_rgb_u16_be_avx
@@ -26436,7 +26448,7 @@ _sk_load_tables_rgb_u16_be_avx:
.byte 72,133,255 // test %rdi,%rdi
.byte 197,252,17,124,36,200 // vmovups %ymm7,-0x38(%rsp)
.byte 197,252,17,116,36,168 // vmovups %ymm6,-0x58(%rsp)
- .byte 15,133,54,2,0,0 // jne 118c1 <_sk_load_tables_rgb_u16_be_avx+0x254>
+ .byte 15,133,54,2,0,0 // jne 118d5 <_sk_load_tables_rgb_u16_be_avx+0x254>
.byte 196,1,122,111,28,72 // vmovdqu (%r8,%r9,2),%xmm11
.byte 196,129,122,111,92,72,12 // vmovdqu 0xc(%r8,%r9,2),%xmm3
.byte 196,129,122,111,84,72,24 // vmovdqu 0x18(%r8,%r9,2),%xmm2
@@ -26457,7 +26469,7 @@ _sk_load_tables_rgb_u16_be_avx:
.byte 197,105,108,216 // vpunpcklqdq %xmm0,%xmm2,%xmm11
.byte 197,241,108,211 // vpunpcklqdq %xmm3,%xmm1,%xmm2
.byte 197,241,109,203 // vpunpckhqdq %xmm3,%xmm1,%xmm1
- .byte 197,121,111,53,104,20,2,0 // vmovdqa 0x21468(%rip),%xmm14 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xa20>
+ .byte 197,121,111,53,132,20,2,0 // vmovdqa 0x21484(%rip),%xmm14 # 32b90 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
.byte 196,193,105,219,214 // vpand %xmm14,%xmm2,%xmm2
.byte 197,249,112,218,78 // vpshufd $0x4e,%xmm2,%xmm3
.byte 196,226,121,51,219 // vpmovzxwd %xmm3,%xmm3
@@ -26543,7 +26555,7 @@ _sk_load_tables_rgb_u16_be_avx:
.byte 196,227,105,33,215,48 // vinsertps $0x30,%xmm7,%xmm2,%xmm2
.byte 196,227,77,24,210,1 // vinsertf128 $0x1,%xmm2,%ymm6,%ymm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,21,17,2,0 // vbroadcastss 0x21115(%rip),%ymm3 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 196,226,125,24,29,33,17,2,0 // vbroadcastss 0x21121(%rip),%ymm3 # 329e8 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 197,252,16,116,36,168 // vmovups -0x58(%rsp),%ymm6
.byte 197,252,16,124,36,200 // vmovups -0x38(%rsp),%ymm7
.byte 255,224 // jmpq *%rax
@@ -26551,70 +26563,70 @@ _sk_load_tables_rgb_u16_be_avx:
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,1,121,196,92,72,4,2 // vpinsrw $0x2,0x4(%r8,%r9,2),%xmm0,%xmm11
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 117,31 // jne 118f9 <_sk_load_tables_rgb_u16_be_avx+0x28c>
+ .byte 117,31 // jne 1190d <_sk_load_tables_rgb_u16_be_avx+0x28c>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
.byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2
.byte 196,65,41,239,210 // vpxor %xmm10,%xmm10,%xmm10
.byte 197,225,239,219 // vpxor %xmm3,%xmm3,%xmm3
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
- .byte 233,199,253,255,255 // jmpq 116c0 <_sk_load_tables_rgb_u16_be_avx+0x53>
+ .byte 233,199,253,255,255 // jmpq 116d4 <_sk_load_tables_rgb_u16_be_avx+0x53>
.byte 196,129,121,110,68,72,6 // vmovd 0x6(%r8,%r9,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,1,121,196,68,72,10,2 // vpinsrw $0x2,0xa(%r8,%r9,2),%xmm0,%xmm8
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,48 // jb 11943 <_sk_load_tables_rgb_u16_be_avx+0x2d6>
+ .byte 114,48 // jb 11957 <_sk_load_tables_rgb_u16_be_avx+0x2d6>
.byte 196,129,121,110,68,72,12 // vmovd 0xc(%r8,%r9,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,129,121,196,92,72,16,2 // vpinsrw $0x2,0x10(%r8,%r9,2),%xmm0,%xmm3
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 117,48 // jne 1195d <_sk_load_tables_rgb_u16_be_avx+0x2f0>
+ .byte 117,48 // jne 11971 <_sk_load_tables_rgb_u16_be_avx+0x2f0>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
.byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2
.byte 196,65,41,239,210 // vpxor %xmm10,%xmm10,%xmm10
- .byte 233,125,253,255,255 // jmpq 116c0 <_sk_load_tables_rgb_u16_be_avx+0x53>
+ .byte 233,125,253,255,255 // jmpq 116d4 <_sk_load_tables_rgb_u16_be_avx+0x53>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
.byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2
.byte 196,65,41,239,210 // vpxor %xmm10,%xmm10,%xmm10
.byte 197,225,239,219 // vpxor %xmm3,%xmm3,%xmm3
- .byte 233,99,253,255,255 // jmpq 116c0 <_sk_load_tables_rgb_u16_be_avx+0x53>
+ .byte 233,99,253,255,255 // jmpq 116d4 <_sk_load_tables_rgb_u16_be_avx+0x53>
.byte 196,129,121,110,68,72,18 // vmovd 0x12(%r8,%r9,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,1,121,196,84,72,22,2 // vpinsrw $0x2,0x16(%r8,%r9,2),%xmm0,%xmm10
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 114,39 // jb 1199e <_sk_load_tables_rgb_u16_be_avx+0x331>
+ .byte 114,39 // jb 119b2 <_sk_load_tables_rgb_u16_be_avx+0x331>
.byte 196,129,121,110,68,72,24 // vmovd 0x18(%r8,%r9,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,129,121,196,84,72,28,2 // vpinsrw $0x2,0x1c(%r8,%r9,2),%xmm0,%xmm2
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 117,30 // jne 119af <_sk_load_tables_rgb_u16_be_avx+0x342>
+ .byte 117,30 // jne 119c3 <_sk_load_tables_rgb_u16_be_avx+0x342>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
- .byte 233,34,253,255,255 // jmpq 116c0 <_sk_load_tables_rgb_u16_be_avx+0x53>
+ .byte 233,34,253,255,255 // jmpq 116d4 <_sk_load_tables_rgb_u16_be_avx+0x53>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
.byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2
- .byte 233,17,253,255,255 // jmpq 116c0 <_sk_load_tables_rgb_u16_be_avx+0x53>
+ .byte 233,17,253,255,255 // jmpq 116d4 <_sk_load_tables_rgb_u16_be_avx+0x53>
.byte 196,129,121,110,68,72,30 // vmovd 0x1e(%r8,%r9,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,129,121,196,76,72,34,2 // vpinsrw $0x2,0x22(%r8,%r9,2),%xmm0,%xmm1
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 114,25 // jb 119e2 <_sk_load_tables_rgb_u16_be_avx+0x375>
+ .byte 114,25 // jb 119f6 <_sk_load_tables_rgb_u16_be_avx+0x375>
.byte 196,129,121,110,68,72,36 // vmovd 0x24(%r8,%r9,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,129,121,196,68,72,40,2 // vpinsrw $0x2,0x28(%r8,%r9,2),%xmm0,%xmm0
- .byte 233,222,252,255,255 // jmpq 116c0 <_sk_load_tables_rgb_u16_be_avx+0x53>
+ .byte 233,222,252,255,255 // jmpq 116d4 <_sk_load_tables_rgb_u16_be_avx+0x53>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
- .byte 233,213,252,255,255 // jmpq 116c0 <_sk_load_tables_rgb_u16_be_avx+0x53>
+ .byte 233,213,252,255,255 // jmpq 116d4 <_sk_load_tables_rgb_u16_be_avx+0x53>
HIDDEN _sk_byte_tables_avx
.globl _sk_byte_tables_avx
FUNCTION(_sk_byte_tables_avx)
_sk_byte_tables_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,98,125,24,5,254,15,2,0 // vbroadcastss 0x20ffe(%rip),%ymm8 # 329f4 <_sk_srcover_rgba_8888_sse2_lowp+0x8b4>
+ .byte 196,98,125,24,5,10,16,2,0 // vbroadcastss 0x2100a(%rip),%ymm8 # 32a14 <_sk_srcover_rgba_8888_sse2_lowp+0x8b8>
.byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
.byte 197,125,91,200 // vcvtps2dq %ymm0,%ymm9
.byte 196,65,249,126,200 // vmovq %xmm9,%r8
@@ -26749,7 +26761,7 @@ _sk_byte_tables_avx:
.byte 196,194,121,49,204 // vpmovzxbd %xmm12,%xmm1
.byte 196,194,121,49,213 // vpmovzxbd %xmm13,%xmm2
.byte 196,227,117,24,202,1 // vinsertf128 $0x1,%xmm2,%ymm1,%ymm1
- .byte 196,98,125,24,13,182,13,2,0 // vbroadcastss 0x20db6(%rip),%ymm9 # 32a3c <_sk_srcover_rgba_8888_sse2_lowp+0x8fc>
+ .byte 196,98,125,24,13,198,13,2,0 // vbroadcastss 0x20dc6(%rip),%ymm9 # 32a60 <_sk_srcover_rgba_8888_sse2_lowp+0x904>
.byte 196,193,124,89,193 // vmulps %ymm9,%ymm0,%ymm0
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
.byte 196,193,116,89,201 // vmulps %ymm9,%ymm1,%ymm1
@@ -26877,7 +26889,7 @@ _sk_byte_tables_rgb_avx:
.byte 196,194,121,49,203 // vpmovzxbd %xmm11,%xmm1
.byte 196,227,125,24,193,1 // vinsertf128 $0x1,%xmm1,%ymm0,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,98,125,24,13,107,11,2,0 // vbroadcastss 0x20b6b(%rip),%ymm9 # 32a3c <_sk_srcover_rgba_8888_sse2_lowp+0x8fc>
+ .byte 196,98,125,24,13,123,11,2,0 // vbroadcastss 0x20b7b(%rip),%ymm9 # 32a60 <_sk_srcover_rgba_8888_sse2_lowp+0x904>
.byte 196,193,124,89,193 // vmulps %ymm9,%ymm0,%ymm0
.byte 196,194,121,49,202 // vpmovzxbd %xmm10,%xmm1
.byte 196,194,121,49,212 // vpmovzxbd %xmm12,%xmm2
@@ -27114,36 +27126,36 @@ _sk_parametric_r_avx:
.byte 196,193,124,88,195 // vaddps %ymm11,%ymm0,%ymm0
.byte 196,98,125,24,16 // vbroadcastss (%rax),%ymm10
.byte 197,124,91,216 // vcvtdq2ps %ymm0,%ymm11
- .byte 196,98,125,24,37,252,7,2,0 // vbroadcastss 0x207fc(%rip),%ymm12 # 32a5c <_sk_srcover_rgba_8888_sse2_lowp+0x91c>
+ .byte 196,98,125,24,37,12,8,2,0 // vbroadcastss 0x2080c(%rip),%ymm12 # 32a80 <_sk_srcover_rgba_8888_sse2_lowp+0x924>
.byte 196,65,36,89,220 // vmulps %ymm12,%ymm11,%ymm11
- .byte 196,98,125,24,37,242,7,2,0 // vbroadcastss 0x207f2(%rip),%ymm12 # 32a60 <_sk_srcover_rgba_8888_sse2_lowp+0x920>
+ .byte 196,98,125,24,37,2,8,2,0 // vbroadcastss 0x20802(%rip),%ymm12 # 32a84 <_sk_srcover_rgba_8888_sse2_lowp+0x928>
.byte 196,193,124,84,196 // vandps %ymm12,%ymm0,%ymm0
- .byte 196,98,125,24,37,72,7,2,0 // vbroadcastss 0x20748(%rip),%ymm12 # 329c4 <_sk_srcover_rgba_8888_sse2_lowp+0x884>
+ .byte 196,98,125,24,37,84,7,2,0 // vbroadcastss 0x20754(%rip),%ymm12 # 329e4 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 196,193,124,86,196 // vorps %ymm12,%ymm0,%ymm0
- .byte 196,98,125,24,37,218,7,2,0 // vbroadcastss 0x207da(%rip),%ymm12 # 32a64 <_sk_srcover_rgba_8888_sse2_lowp+0x924>
+ .byte 196,98,125,24,37,234,7,2,0 // vbroadcastss 0x207ea(%rip),%ymm12 # 32a88 <_sk_srcover_rgba_8888_sse2_lowp+0x92c>
.byte 196,65,36,88,220 // vaddps %ymm12,%ymm11,%ymm11
- .byte 196,98,125,24,37,208,7,2,0 // vbroadcastss 0x207d0(%rip),%ymm12 # 32a68 <_sk_srcover_rgba_8888_sse2_lowp+0x928>
+ .byte 196,98,125,24,37,224,7,2,0 // vbroadcastss 0x207e0(%rip),%ymm12 # 32a8c <_sk_srcover_rgba_8888_sse2_lowp+0x930>
.byte 196,65,124,89,228 // vmulps %ymm12,%ymm0,%ymm12
.byte 196,65,36,92,220 // vsubps %ymm12,%ymm11,%ymm11
- .byte 196,98,125,24,37,193,7,2,0 // vbroadcastss 0x207c1(%rip),%ymm12 # 32a6c <_sk_srcover_rgba_8888_sse2_lowp+0x92c>
+ .byte 196,98,125,24,37,209,7,2,0 // vbroadcastss 0x207d1(%rip),%ymm12 # 32a90 <_sk_srcover_rgba_8888_sse2_lowp+0x934>
.byte 196,193,124,88,196 // vaddps %ymm12,%ymm0,%ymm0
- .byte 196,98,125,24,37,183,7,2,0 // vbroadcastss 0x207b7(%rip),%ymm12 # 32a70 <_sk_srcover_rgba_8888_sse2_lowp+0x930>
+ .byte 196,98,125,24,37,199,7,2,0 // vbroadcastss 0x207c7(%rip),%ymm12 # 32a94 <_sk_srcover_rgba_8888_sse2_lowp+0x938>
.byte 197,156,94,192 // vdivps %ymm0,%ymm12,%ymm0
.byte 197,164,92,192 // vsubps %ymm0,%ymm11,%ymm0
.byte 197,172,89,192 // vmulps %ymm0,%ymm10,%ymm0
.byte 196,99,125,8,208,1 // vroundps $0x1,%ymm0,%ymm10
.byte 196,65,124,92,210 // vsubps %ymm10,%ymm0,%ymm10
- .byte 196,98,125,24,29,155,7,2,0 // vbroadcastss 0x2079b(%rip),%ymm11 # 32a74 <_sk_srcover_rgba_8888_sse2_lowp+0x934>
+ .byte 196,98,125,24,29,171,7,2,0 // vbroadcastss 0x207ab(%rip),%ymm11 # 32a98 <_sk_srcover_rgba_8888_sse2_lowp+0x93c>
.byte 196,193,124,88,195 // vaddps %ymm11,%ymm0,%ymm0
- .byte 196,98,125,24,29,145,7,2,0 // vbroadcastss 0x20791(%rip),%ymm11 # 32a78 <_sk_srcover_rgba_8888_sse2_lowp+0x938>
+ .byte 196,98,125,24,29,161,7,2,0 // vbroadcastss 0x207a1(%rip),%ymm11 # 32a9c <_sk_srcover_rgba_8888_sse2_lowp+0x940>
.byte 196,65,44,89,219 // vmulps %ymm11,%ymm10,%ymm11
.byte 196,193,124,92,195 // vsubps %ymm11,%ymm0,%ymm0
- .byte 196,98,125,24,29,130,7,2,0 // vbroadcastss 0x20782(%rip),%ymm11 # 32a7c <_sk_srcover_rgba_8888_sse2_lowp+0x93c>
+ .byte 196,98,125,24,29,146,7,2,0 // vbroadcastss 0x20792(%rip),%ymm11 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0x944>
.byte 196,65,36,92,210 // vsubps %ymm10,%ymm11,%ymm10
- .byte 196,98,125,24,29,120,7,2,0 // vbroadcastss 0x20778(%rip),%ymm11 # 32a80 <_sk_srcover_rgba_8888_sse2_lowp+0x940>
+ .byte 196,98,125,24,29,136,7,2,0 // vbroadcastss 0x20788(%rip),%ymm11 # 32aa4 <_sk_srcover_rgba_8888_sse2_lowp+0x948>
.byte 196,65,36,94,210 // vdivps %ymm10,%ymm11,%ymm10
.byte 196,193,124,88,194 // vaddps %ymm10,%ymm0,%ymm0
- .byte 196,98,125,24,21,105,7,2,0 // vbroadcastss 0x20769(%rip),%ymm10 # 32a84 <_sk_srcover_rgba_8888_sse2_lowp+0x944>
+ .byte 196,98,125,24,21,121,7,2,0 // vbroadcastss 0x20779(%rip),%ymm10 # 32aa8 <_sk_srcover_rgba_8888_sse2_lowp+0x94c>
.byte 196,193,124,89,194 // vmulps %ymm10,%ymm0,%ymm0
.byte 197,253,91,192 // vcvtps2dq %ymm0,%ymm0
.byte 196,98,125,24,80,20 // vbroadcastss 0x14(%rax),%ymm10
@@ -27151,7 +27163,7 @@ _sk_parametric_r_avx:
.byte 196,195,125,74,193,128 // vblendvps %ymm8,%ymm9,%ymm0,%ymm0
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 196,193,124,95,192 // vmaxps %ymm8,%ymm0,%ymm0
- .byte 196,98,125,24,5,129,6,2,0 // vbroadcastss 0x20681(%rip),%ymm8 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 196,98,125,24,5,141,6,2,0 // vbroadcastss 0x2068d(%rip),%ymm8 # 329e8 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 196,193,124,93,192 // vminps %ymm8,%ymm0,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -27173,36 +27185,36 @@ _sk_parametric_g_avx:
.byte 196,193,116,88,203 // vaddps %ymm11,%ymm1,%ymm1
.byte 196,98,125,24,16 // vbroadcastss (%rax),%ymm10
.byte 197,124,91,217 // vcvtdq2ps %ymm1,%ymm11
- .byte 196,98,125,24,37,194,6,2,0 // vbroadcastss 0x206c2(%rip),%ymm12 # 32a5c <_sk_srcover_rgba_8888_sse2_lowp+0x91c>
+ .byte 196,98,125,24,37,210,6,2,0 // vbroadcastss 0x206d2(%rip),%ymm12 # 32a80 <_sk_srcover_rgba_8888_sse2_lowp+0x924>
.byte 196,65,36,89,220 // vmulps %ymm12,%ymm11,%ymm11
- .byte 196,98,125,24,37,184,6,2,0 // vbroadcastss 0x206b8(%rip),%ymm12 # 32a60 <_sk_srcover_rgba_8888_sse2_lowp+0x920>
+ .byte 196,98,125,24,37,200,6,2,0 // vbroadcastss 0x206c8(%rip),%ymm12 # 32a84 <_sk_srcover_rgba_8888_sse2_lowp+0x928>
.byte 196,193,116,84,204 // vandps %ymm12,%ymm1,%ymm1
- .byte 196,98,125,24,37,14,6,2,0 // vbroadcastss 0x2060e(%rip),%ymm12 # 329c4 <_sk_srcover_rgba_8888_sse2_lowp+0x884>
+ .byte 196,98,125,24,37,26,6,2,0 // vbroadcastss 0x2061a(%rip),%ymm12 # 329e4 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 196,193,116,86,204 // vorps %ymm12,%ymm1,%ymm1
- .byte 196,98,125,24,37,160,6,2,0 // vbroadcastss 0x206a0(%rip),%ymm12 # 32a64 <_sk_srcover_rgba_8888_sse2_lowp+0x924>
+ .byte 196,98,125,24,37,176,6,2,0 // vbroadcastss 0x206b0(%rip),%ymm12 # 32a88 <_sk_srcover_rgba_8888_sse2_lowp+0x92c>
.byte 196,65,36,88,220 // vaddps %ymm12,%ymm11,%ymm11
- .byte 196,98,125,24,37,150,6,2,0 // vbroadcastss 0x20696(%rip),%ymm12 # 32a68 <_sk_srcover_rgba_8888_sse2_lowp+0x928>
+ .byte 196,98,125,24,37,166,6,2,0 // vbroadcastss 0x206a6(%rip),%ymm12 # 32a8c <_sk_srcover_rgba_8888_sse2_lowp+0x930>
.byte 196,65,116,89,228 // vmulps %ymm12,%ymm1,%ymm12
.byte 196,65,36,92,220 // vsubps %ymm12,%ymm11,%ymm11
- .byte 196,98,125,24,37,135,6,2,0 // vbroadcastss 0x20687(%rip),%ymm12 # 32a6c <_sk_srcover_rgba_8888_sse2_lowp+0x92c>
+ .byte 196,98,125,24,37,151,6,2,0 // vbroadcastss 0x20697(%rip),%ymm12 # 32a90 <_sk_srcover_rgba_8888_sse2_lowp+0x934>
.byte 196,193,116,88,204 // vaddps %ymm12,%ymm1,%ymm1
- .byte 196,98,125,24,37,125,6,2,0 // vbroadcastss 0x2067d(%rip),%ymm12 # 32a70 <_sk_srcover_rgba_8888_sse2_lowp+0x930>
+ .byte 196,98,125,24,37,141,6,2,0 // vbroadcastss 0x2068d(%rip),%ymm12 # 32a94 <_sk_srcover_rgba_8888_sse2_lowp+0x938>
.byte 197,156,94,201 // vdivps %ymm1,%ymm12,%ymm1
.byte 197,164,92,201 // vsubps %ymm1,%ymm11,%ymm1
.byte 197,172,89,201 // vmulps %ymm1,%ymm10,%ymm1
.byte 196,99,125,8,209,1 // vroundps $0x1,%ymm1,%ymm10
.byte 196,65,116,92,210 // vsubps %ymm10,%ymm1,%ymm10
- .byte 196,98,125,24,29,97,6,2,0 // vbroadcastss 0x20661(%rip),%ymm11 # 32a74 <_sk_srcover_rgba_8888_sse2_lowp+0x934>
+ .byte 196,98,125,24,29,113,6,2,0 // vbroadcastss 0x20671(%rip),%ymm11 # 32a98 <_sk_srcover_rgba_8888_sse2_lowp+0x93c>
.byte 196,193,116,88,203 // vaddps %ymm11,%ymm1,%ymm1
- .byte 196,98,125,24,29,87,6,2,0 // vbroadcastss 0x20657(%rip),%ymm11 # 32a78 <_sk_srcover_rgba_8888_sse2_lowp+0x938>
+ .byte 196,98,125,24,29,103,6,2,0 // vbroadcastss 0x20667(%rip),%ymm11 # 32a9c <_sk_srcover_rgba_8888_sse2_lowp+0x940>
.byte 196,65,44,89,219 // vmulps %ymm11,%ymm10,%ymm11
.byte 196,193,116,92,203 // vsubps %ymm11,%ymm1,%ymm1
- .byte 196,98,125,24,29,72,6,2,0 // vbroadcastss 0x20648(%rip),%ymm11 # 32a7c <_sk_srcover_rgba_8888_sse2_lowp+0x93c>
+ .byte 196,98,125,24,29,88,6,2,0 // vbroadcastss 0x20658(%rip),%ymm11 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0x944>
.byte 196,65,36,92,210 // vsubps %ymm10,%ymm11,%ymm10
- .byte 196,98,125,24,29,62,6,2,0 // vbroadcastss 0x2063e(%rip),%ymm11 # 32a80 <_sk_srcover_rgba_8888_sse2_lowp+0x940>
+ .byte 196,98,125,24,29,78,6,2,0 // vbroadcastss 0x2064e(%rip),%ymm11 # 32aa4 <_sk_srcover_rgba_8888_sse2_lowp+0x948>
.byte 196,65,36,94,210 // vdivps %ymm10,%ymm11,%ymm10
.byte 196,193,116,88,202 // vaddps %ymm10,%ymm1,%ymm1
- .byte 196,98,125,24,21,47,6,2,0 // vbroadcastss 0x2062f(%rip),%ymm10 # 32a84 <_sk_srcover_rgba_8888_sse2_lowp+0x944>
+ .byte 196,98,125,24,21,63,6,2,0 // vbroadcastss 0x2063f(%rip),%ymm10 # 32aa8 <_sk_srcover_rgba_8888_sse2_lowp+0x94c>
.byte 196,193,116,89,202 // vmulps %ymm10,%ymm1,%ymm1
.byte 197,253,91,201 // vcvtps2dq %ymm1,%ymm1
.byte 196,98,125,24,80,20 // vbroadcastss 0x14(%rax),%ymm10
@@ -27210,7 +27222,7 @@ _sk_parametric_g_avx:
.byte 196,195,117,74,201,128 // vblendvps %ymm8,%ymm9,%ymm1,%ymm1
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 196,193,116,95,200 // vmaxps %ymm8,%ymm1,%ymm1
- .byte 196,98,125,24,5,71,5,2,0 // vbroadcastss 0x20547(%rip),%ymm8 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 196,98,125,24,5,83,5,2,0 // vbroadcastss 0x20553(%rip),%ymm8 # 329e8 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 196,193,116,93,200 // vminps %ymm8,%ymm1,%ymm1
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -27232,36 +27244,36 @@ _sk_parametric_b_avx:
.byte 196,193,108,88,211 // vaddps %ymm11,%ymm2,%ymm2
.byte 196,98,125,24,16 // vbroadcastss (%rax),%ymm10
.byte 197,124,91,218 // vcvtdq2ps %ymm2,%ymm11
- .byte 196,98,125,24,37,136,5,2,0 // vbroadcastss 0x20588(%rip),%ymm12 # 32a5c <_sk_srcover_rgba_8888_sse2_lowp+0x91c>
+ .byte 196,98,125,24,37,152,5,2,0 // vbroadcastss 0x20598(%rip),%ymm12 # 32a80 <_sk_srcover_rgba_8888_sse2_lowp+0x924>
.byte 196,65,36,89,220 // vmulps %ymm12,%ymm11,%ymm11
- .byte 196,98,125,24,37,126,5,2,0 // vbroadcastss 0x2057e(%rip),%ymm12 # 32a60 <_sk_srcover_rgba_8888_sse2_lowp+0x920>
+ .byte 196,98,125,24,37,142,5,2,0 // vbroadcastss 0x2058e(%rip),%ymm12 # 32a84 <_sk_srcover_rgba_8888_sse2_lowp+0x928>
.byte 196,193,108,84,212 // vandps %ymm12,%ymm2,%ymm2
- .byte 196,98,125,24,37,212,4,2,0 // vbroadcastss 0x204d4(%rip),%ymm12 # 329c4 <_sk_srcover_rgba_8888_sse2_lowp+0x884>
+ .byte 196,98,125,24,37,224,4,2,0 // vbroadcastss 0x204e0(%rip),%ymm12 # 329e4 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 196,193,108,86,212 // vorps %ymm12,%ymm2,%ymm2
- .byte 196,98,125,24,37,102,5,2,0 // vbroadcastss 0x20566(%rip),%ymm12 # 32a64 <_sk_srcover_rgba_8888_sse2_lowp+0x924>
+ .byte 196,98,125,24,37,118,5,2,0 // vbroadcastss 0x20576(%rip),%ymm12 # 32a88 <_sk_srcover_rgba_8888_sse2_lowp+0x92c>
.byte 196,65,36,88,220 // vaddps %ymm12,%ymm11,%ymm11
- .byte 196,98,125,24,37,92,5,2,0 // vbroadcastss 0x2055c(%rip),%ymm12 # 32a68 <_sk_srcover_rgba_8888_sse2_lowp+0x928>
+ .byte 196,98,125,24,37,108,5,2,0 // vbroadcastss 0x2056c(%rip),%ymm12 # 32a8c <_sk_srcover_rgba_8888_sse2_lowp+0x930>
.byte 196,65,108,89,228 // vmulps %ymm12,%ymm2,%ymm12
.byte 196,65,36,92,220 // vsubps %ymm12,%ymm11,%ymm11
- .byte 196,98,125,24,37,77,5,2,0 // vbroadcastss 0x2054d(%rip),%ymm12 # 32a6c <_sk_srcover_rgba_8888_sse2_lowp+0x92c>
+ .byte 196,98,125,24,37,93,5,2,0 // vbroadcastss 0x2055d(%rip),%ymm12 # 32a90 <_sk_srcover_rgba_8888_sse2_lowp+0x934>
.byte 196,193,108,88,212 // vaddps %ymm12,%ymm2,%ymm2
- .byte 196,98,125,24,37,67,5,2,0 // vbroadcastss 0x20543(%rip),%ymm12 # 32a70 <_sk_srcover_rgba_8888_sse2_lowp+0x930>
+ .byte 196,98,125,24,37,83,5,2,0 // vbroadcastss 0x20553(%rip),%ymm12 # 32a94 <_sk_srcover_rgba_8888_sse2_lowp+0x938>
.byte 197,156,94,210 // vdivps %ymm2,%ymm12,%ymm2
.byte 197,164,92,210 // vsubps %ymm2,%ymm11,%ymm2
.byte 197,172,89,210 // vmulps %ymm2,%ymm10,%ymm2
.byte 196,99,125,8,210,1 // vroundps $0x1,%ymm2,%ymm10
.byte 196,65,108,92,210 // vsubps %ymm10,%ymm2,%ymm10
- .byte 196,98,125,24,29,39,5,2,0 // vbroadcastss 0x20527(%rip),%ymm11 # 32a74 <_sk_srcover_rgba_8888_sse2_lowp+0x934>
+ .byte 196,98,125,24,29,55,5,2,0 // vbroadcastss 0x20537(%rip),%ymm11 # 32a98 <_sk_srcover_rgba_8888_sse2_lowp+0x93c>
.byte 196,193,108,88,211 // vaddps %ymm11,%ymm2,%ymm2
- .byte 196,98,125,24,29,29,5,2,0 // vbroadcastss 0x2051d(%rip),%ymm11 # 32a78 <_sk_srcover_rgba_8888_sse2_lowp+0x938>
+ .byte 196,98,125,24,29,45,5,2,0 // vbroadcastss 0x2052d(%rip),%ymm11 # 32a9c <_sk_srcover_rgba_8888_sse2_lowp+0x940>
.byte 196,65,44,89,219 // vmulps %ymm11,%ymm10,%ymm11
.byte 196,193,108,92,211 // vsubps %ymm11,%ymm2,%ymm2
- .byte 196,98,125,24,29,14,5,2,0 // vbroadcastss 0x2050e(%rip),%ymm11 # 32a7c <_sk_srcover_rgba_8888_sse2_lowp+0x93c>
+ .byte 196,98,125,24,29,30,5,2,0 // vbroadcastss 0x2051e(%rip),%ymm11 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0x944>
.byte 196,65,36,92,210 // vsubps %ymm10,%ymm11,%ymm10
- .byte 196,98,125,24,29,4,5,2,0 // vbroadcastss 0x20504(%rip),%ymm11 # 32a80 <_sk_srcover_rgba_8888_sse2_lowp+0x940>
+ .byte 196,98,125,24,29,20,5,2,0 // vbroadcastss 0x20514(%rip),%ymm11 # 32aa4 <_sk_srcover_rgba_8888_sse2_lowp+0x948>
.byte 196,65,36,94,210 // vdivps %ymm10,%ymm11,%ymm10
.byte 196,193,108,88,210 // vaddps %ymm10,%ymm2,%ymm2
- .byte 196,98,125,24,21,245,4,2,0 // vbroadcastss 0x204f5(%rip),%ymm10 # 32a84 <_sk_srcover_rgba_8888_sse2_lowp+0x944>
+ .byte 196,98,125,24,21,5,5,2,0 // vbroadcastss 0x20505(%rip),%ymm10 # 32aa8 <_sk_srcover_rgba_8888_sse2_lowp+0x94c>
.byte 196,193,108,89,210 // vmulps %ymm10,%ymm2,%ymm2
.byte 197,253,91,210 // vcvtps2dq %ymm2,%ymm2
.byte 196,98,125,24,80,20 // vbroadcastss 0x14(%rax),%ymm10
@@ -27269,7 +27281,7 @@ _sk_parametric_b_avx:
.byte 196,195,109,74,209,128 // vblendvps %ymm8,%ymm9,%ymm2,%ymm2
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 196,193,108,95,208 // vmaxps %ymm8,%ymm2,%ymm2
- .byte 196,98,125,24,5,13,4,2,0 // vbroadcastss 0x2040d(%rip),%ymm8 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 196,98,125,24,5,25,4,2,0 // vbroadcastss 0x20419(%rip),%ymm8 # 329e8 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 196,193,108,93,208 // vminps %ymm8,%ymm2,%ymm2
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -27291,36 +27303,36 @@ _sk_parametric_a_avx:
.byte 196,193,100,88,219 // vaddps %ymm11,%ymm3,%ymm3
.byte 196,98,125,24,16 // vbroadcastss (%rax),%ymm10
.byte 197,124,91,219 // vcvtdq2ps %ymm3,%ymm11
- .byte 196,98,125,24,37,78,4,2,0 // vbroadcastss 0x2044e(%rip),%ymm12 # 32a5c <_sk_srcover_rgba_8888_sse2_lowp+0x91c>
+ .byte 196,98,125,24,37,94,4,2,0 // vbroadcastss 0x2045e(%rip),%ymm12 # 32a80 <_sk_srcover_rgba_8888_sse2_lowp+0x924>
.byte 196,65,36,89,220 // vmulps %ymm12,%ymm11,%ymm11
- .byte 196,98,125,24,37,68,4,2,0 // vbroadcastss 0x20444(%rip),%ymm12 # 32a60 <_sk_srcover_rgba_8888_sse2_lowp+0x920>
+ .byte 196,98,125,24,37,84,4,2,0 // vbroadcastss 0x20454(%rip),%ymm12 # 32a84 <_sk_srcover_rgba_8888_sse2_lowp+0x928>
.byte 196,193,100,84,220 // vandps %ymm12,%ymm3,%ymm3
- .byte 196,98,125,24,37,154,3,2,0 // vbroadcastss 0x2039a(%rip),%ymm12 # 329c4 <_sk_srcover_rgba_8888_sse2_lowp+0x884>
+ .byte 196,98,125,24,37,166,3,2,0 // vbroadcastss 0x203a6(%rip),%ymm12 # 329e4 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 196,193,100,86,220 // vorps %ymm12,%ymm3,%ymm3
- .byte 196,98,125,24,37,44,4,2,0 // vbroadcastss 0x2042c(%rip),%ymm12 # 32a64 <_sk_srcover_rgba_8888_sse2_lowp+0x924>
+ .byte 196,98,125,24,37,60,4,2,0 // vbroadcastss 0x2043c(%rip),%ymm12 # 32a88 <_sk_srcover_rgba_8888_sse2_lowp+0x92c>
.byte 196,65,36,88,220 // vaddps %ymm12,%ymm11,%ymm11
- .byte 196,98,125,24,37,34,4,2,0 // vbroadcastss 0x20422(%rip),%ymm12 # 32a68 <_sk_srcover_rgba_8888_sse2_lowp+0x928>
+ .byte 196,98,125,24,37,50,4,2,0 // vbroadcastss 0x20432(%rip),%ymm12 # 32a8c <_sk_srcover_rgba_8888_sse2_lowp+0x930>
.byte 196,65,100,89,228 // vmulps %ymm12,%ymm3,%ymm12
.byte 196,65,36,92,220 // vsubps %ymm12,%ymm11,%ymm11
- .byte 196,98,125,24,37,19,4,2,0 // vbroadcastss 0x20413(%rip),%ymm12 # 32a6c <_sk_srcover_rgba_8888_sse2_lowp+0x92c>
+ .byte 196,98,125,24,37,35,4,2,0 // vbroadcastss 0x20423(%rip),%ymm12 # 32a90 <_sk_srcover_rgba_8888_sse2_lowp+0x934>
.byte 196,193,100,88,220 // vaddps %ymm12,%ymm3,%ymm3
- .byte 196,98,125,24,37,9,4,2,0 // vbroadcastss 0x20409(%rip),%ymm12 # 32a70 <_sk_srcover_rgba_8888_sse2_lowp+0x930>
+ .byte 196,98,125,24,37,25,4,2,0 // vbroadcastss 0x20419(%rip),%ymm12 # 32a94 <_sk_srcover_rgba_8888_sse2_lowp+0x938>
.byte 197,156,94,219 // vdivps %ymm3,%ymm12,%ymm3
.byte 197,164,92,219 // vsubps %ymm3,%ymm11,%ymm3
.byte 197,172,89,219 // vmulps %ymm3,%ymm10,%ymm3
.byte 196,99,125,8,211,1 // vroundps $0x1,%ymm3,%ymm10
.byte 196,65,100,92,210 // vsubps %ymm10,%ymm3,%ymm10
- .byte 196,98,125,24,29,237,3,2,0 // vbroadcastss 0x203ed(%rip),%ymm11 # 32a74 <_sk_srcover_rgba_8888_sse2_lowp+0x934>
+ .byte 196,98,125,24,29,253,3,2,0 // vbroadcastss 0x203fd(%rip),%ymm11 # 32a98 <_sk_srcover_rgba_8888_sse2_lowp+0x93c>
.byte 196,193,100,88,219 // vaddps %ymm11,%ymm3,%ymm3
- .byte 196,98,125,24,29,227,3,2,0 // vbroadcastss 0x203e3(%rip),%ymm11 # 32a78 <_sk_srcover_rgba_8888_sse2_lowp+0x938>
+ .byte 196,98,125,24,29,243,3,2,0 // vbroadcastss 0x203f3(%rip),%ymm11 # 32a9c <_sk_srcover_rgba_8888_sse2_lowp+0x940>
.byte 196,65,44,89,219 // vmulps %ymm11,%ymm10,%ymm11
.byte 196,193,100,92,219 // vsubps %ymm11,%ymm3,%ymm3
- .byte 196,98,125,24,29,212,3,2,0 // vbroadcastss 0x203d4(%rip),%ymm11 # 32a7c <_sk_srcover_rgba_8888_sse2_lowp+0x93c>
+ .byte 196,98,125,24,29,228,3,2,0 // vbroadcastss 0x203e4(%rip),%ymm11 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0x944>
.byte 196,65,36,92,210 // vsubps %ymm10,%ymm11,%ymm10
- .byte 196,98,125,24,29,202,3,2,0 // vbroadcastss 0x203ca(%rip),%ymm11 # 32a80 <_sk_srcover_rgba_8888_sse2_lowp+0x940>
+ .byte 196,98,125,24,29,218,3,2,0 // vbroadcastss 0x203da(%rip),%ymm11 # 32aa4 <_sk_srcover_rgba_8888_sse2_lowp+0x948>
.byte 196,65,36,94,210 // vdivps %ymm10,%ymm11,%ymm10
.byte 196,193,100,88,218 // vaddps %ymm10,%ymm3,%ymm3
- .byte 196,98,125,24,21,187,3,2,0 // vbroadcastss 0x203bb(%rip),%ymm10 # 32a84 <_sk_srcover_rgba_8888_sse2_lowp+0x944>
+ .byte 196,98,125,24,21,203,3,2,0 // vbroadcastss 0x203cb(%rip),%ymm10 # 32aa8 <_sk_srcover_rgba_8888_sse2_lowp+0x94c>
.byte 196,193,100,89,218 // vmulps %ymm10,%ymm3,%ymm3
.byte 197,253,91,219 // vcvtps2dq %ymm3,%ymm3
.byte 196,98,125,24,80,20 // vbroadcastss 0x14(%rax),%ymm10
@@ -27328,7 +27340,7 @@ _sk_parametric_a_avx:
.byte 196,195,101,74,217,128 // vblendvps %ymm8,%ymm9,%ymm3,%ymm3
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 196,193,100,95,216 // vmaxps %ymm8,%ymm3,%ymm3
- .byte 196,98,125,24,5,211,2,2,0 // vbroadcastss 0x202d3(%rip),%ymm8 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 196,98,125,24,5,223,2,2,0 // vbroadcastss 0x202df(%rip),%ymm8 # 329e8 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 196,193,100,93,216 // vminps %ymm8,%ymm3,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -27347,34 +27359,34 @@ _sk_gamma_avx:
.byte 197,252,40,233 // vmovaps %ymm1,%ymm5
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,252,91,200 // vcvtdq2ps %ymm0,%ymm1
- .byte 196,98,125,24,5,38,3,2,0 // vbroadcastss 0x20326(%rip),%ymm8 # 32a5c <_sk_srcover_rgba_8888_sse2_lowp+0x91c>
+ .byte 196,98,125,24,5,54,3,2,0 // vbroadcastss 0x20336(%rip),%ymm8 # 32a80 <_sk_srcover_rgba_8888_sse2_lowp+0x924>
.byte 196,193,116,89,200 // vmulps %ymm8,%ymm1,%ymm1
- .byte 196,98,125,24,13,28,3,2,0 // vbroadcastss 0x2031c(%rip),%ymm9 # 32a60 <_sk_srcover_rgba_8888_sse2_lowp+0x920>
+ .byte 196,98,125,24,13,44,3,2,0 // vbroadcastss 0x2032c(%rip),%ymm9 # 32a84 <_sk_srcover_rgba_8888_sse2_lowp+0x928>
.byte 196,193,124,84,193 // vandps %ymm9,%ymm0,%ymm0
- .byte 196,226,125,24,37,114,2,2,0 // vbroadcastss 0x20272(%rip),%ymm4 # 329c4 <_sk_srcover_rgba_8888_sse2_lowp+0x884>
+ .byte 196,226,125,24,37,126,2,2,0 // vbroadcastss 0x2027e(%rip),%ymm4 # 329e4 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 197,252,86,196 // vorps %ymm4,%ymm0,%ymm0
- .byte 196,98,125,24,21,5,3,2,0 // vbroadcastss 0x20305(%rip),%ymm10 # 32a64 <_sk_srcover_rgba_8888_sse2_lowp+0x924>
+ .byte 196,98,125,24,21,21,3,2,0 // vbroadcastss 0x20315(%rip),%ymm10 # 32a88 <_sk_srcover_rgba_8888_sse2_lowp+0x92c>
.byte 196,193,116,88,202 // vaddps %ymm10,%ymm1,%ymm1
- .byte 196,98,125,24,29,251,2,2,0 // vbroadcastss 0x202fb(%rip),%ymm11 # 32a68 <_sk_srcover_rgba_8888_sse2_lowp+0x928>
+ .byte 196,98,125,24,29,11,3,2,0 // vbroadcastss 0x2030b(%rip),%ymm11 # 32a8c <_sk_srcover_rgba_8888_sse2_lowp+0x930>
.byte 196,193,124,89,211 // vmulps %ymm11,%ymm0,%ymm2
.byte 197,244,92,202 // vsubps %ymm2,%ymm1,%ymm1
- .byte 196,98,125,24,37,237,2,2,0 // vbroadcastss 0x202ed(%rip),%ymm12 # 32a6c <_sk_srcover_rgba_8888_sse2_lowp+0x92c>
+ .byte 196,98,125,24,37,253,2,2,0 // vbroadcastss 0x202fd(%rip),%ymm12 # 32a90 <_sk_srcover_rgba_8888_sse2_lowp+0x934>
.byte 196,193,124,88,196 // vaddps %ymm12,%ymm0,%ymm0
- .byte 196,98,125,24,45,227,2,2,0 // vbroadcastss 0x202e3(%rip),%ymm13 # 32a70 <_sk_srcover_rgba_8888_sse2_lowp+0x930>
+ .byte 196,98,125,24,45,243,2,2,0 // vbroadcastss 0x202f3(%rip),%ymm13 # 32a94 <_sk_srcover_rgba_8888_sse2_lowp+0x938>
.byte 197,148,94,192 // vdivps %ymm0,%ymm13,%ymm0
.byte 197,244,92,192 // vsubps %ymm0,%ymm1,%ymm0
.byte 196,98,125,24,48 // vbroadcastss (%rax),%ymm14
.byte 196,193,124,89,198 // vmulps %ymm14,%ymm0,%ymm0
.byte 196,227,125,8,200,1 // vroundps $0x1,%ymm0,%ymm1
.byte 197,252,92,241 // vsubps %ymm1,%ymm0,%ymm6
- .byte 196,98,125,24,61,194,2,2,0 // vbroadcastss 0x202c2(%rip),%ymm15 # 32a74 <_sk_srcover_rgba_8888_sse2_lowp+0x934>
+ .byte 196,98,125,24,61,210,2,2,0 // vbroadcastss 0x202d2(%rip),%ymm15 # 32a98 <_sk_srcover_rgba_8888_sse2_lowp+0x93c>
.byte 196,193,124,88,199 // vaddps %ymm15,%ymm0,%ymm0
- .byte 196,226,125,24,29,184,2,2,0 // vbroadcastss 0x202b8(%rip),%ymm3 # 32a78 <_sk_srcover_rgba_8888_sse2_lowp+0x938>
+ .byte 196,226,125,24,29,200,2,2,0 // vbroadcastss 0x202c8(%rip),%ymm3 # 32a9c <_sk_srcover_rgba_8888_sse2_lowp+0x940>
.byte 197,204,89,203 // vmulps %ymm3,%ymm6,%ymm1
.byte 197,252,92,201 // vsubps %ymm1,%ymm0,%ymm1
- .byte 196,226,125,24,21,171,2,2,0 // vbroadcastss 0x202ab(%rip),%ymm2 # 32a7c <_sk_srcover_rgba_8888_sse2_lowp+0x93c>
+ .byte 196,226,125,24,21,187,2,2,0 // vbroadcastss 0x202bb(%rip),%ymm2 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0x944>
.byte 197,236,92,198 // vsubps %ymm6,%ymm2,%ymm0
- .byte 196,226,125,24,53,162,2,2,0 // vbroadcastss 0x202a2(%rip),%ymm6 # 32a80 <_sk_srcover_rgba_8888_sse2_lowp+0x940>
+ .byte 196,226,125,24,53,178,2,2,0 // vbroadcastss 0x202b2(%rip),%ymm6 # 32aa4 <_sk_srcover_rgba_8888_sse2_lowp+0x948>
.byte 197,204,94,192 // vdivps %ymm0,%ymm6,%ymm0
.byte 197,244,88,192 // vaddps %ymm0,%ymm1,%ymm0
.byte 197,252,17,68,36,128 // vmovups %ymm0,-0x80(%rsp)
@@ -27416,7 +27428,7 @@ _sk_gamma_avx:
.byte 197,236,92,212 // vsubps %ymm4,%ymm2,%ymm2
.byte 197,204,94,210 // vdivps %ymm2,%ymm6,%ymm2
.byte 197,244,88,202 // vaddps %ymm2,%ymm1,%ymm1
- .byte 196,226,125,24,21,229,1,2,0 // vbroadcastss 0x201e5(%rip),%ymm2 # 32a84 <_sk_srcover_rgba_8888_sse2_lowp+0x944>
+ .byte 196,226,125,24,21,245,1,2,0 // vbroadcastss 0x201f5(%rip),%ymm2 # 32aa8 <_sk_srcover_rgba_8888_sse2_lowp+0x94c>
.byte 197,236,89,92,36,128 // vmulps -0x80(%rsp),%ymm2,%ymm3
.byte 197,252,89,226 // vmulps %ymm2,%ymm0,%ymm4
.byte 197,244,89,210 // vmulps %ymm2,%ymm1,%ymm2
@@ -27436,31 +27448,31 @@ HIDDEN _sk_lab_to_xyz_avx
.globl _sk_lab_to_xyz_avx
FUNCTION(_sk_lab_to_xyz_avx)
_sk_lab_to_xyz_avx:
- .byte 196,98,125,24,5,161,1,2,0 // vbroadcastss 0x201a1(%rip),%ymm8 # 32a88 <_sk_srcover_rgba_8888_sse2_lowp+0x948>
+ .byte 196,98,125,24,5,177,1,2,0 // vbroadcastss 0x201b1(%rip),%ymm8 # 32aac <_sk_srcover_rgba_8888_sse2_lowp+0x950>
.byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
- .byte 196,98,125,24,5,255,0,2,0 // vbroadcastss 0x200ff(%rip),%ymm8 # 329f4 <_sk_srcover_rgba_8888_sse2_lowp+0x8b4>
+ .byte 196,98,125,24,5,11,1,2,0 // vbroadcastss 0x2010b(%rip),%ymm8 # 32a14 <_sk_srcover_rgba_8888_sse2_lowp+0x8b8>
.byte 196,193,116,89,200 // vmulps %ymm8,%ymm1,%ymm1
- .byte 196,98,125,24,13,137,1,2,0 // vbroadcastss 0x20189(%rip),%ymm9 # 32a8c <_sk_srcover_rgba_8888_sse2_lowp+0x94c>
+ .byte 196,98,125,24,13,153,1,2,0 // vbroadcastss 0x20199(%rip),%ymm9 # 32ab0 <_sk_srcover_rgba_8888_sse2_lowp+0x954>
.byte 196,193,116,88,201 // vaddps %ymm9,%ymm1,%ymm1
.byte 196,193,108,89,208 // vmulps %ymm8,%ymm2,%ymm2
.byte 196,193,108,88,209 // vaddps %ymm9,%ymm2,%ymm2
- .byte 196,98,125,24,5,117,1,2,0 // vbroadcastss 0x20175(%rip),%ymm8 # 32a90 <_sk_srcover_rgba_8888_sse2_lowp+0x950>
+ .byte 196,98,125,24,5,133,1,2,0 // vbroadcastss 0x20185(%rip),%ymm8 # 32ab4 <_sk_srcover_rgba_8888_sse2_lowp+0x958>
.byte 196,193,124,88,192 // vaddps %ymm8,%ymm0,%ymm0
- .byte 196,98,125,24,5,107,1,2,0 // vbroadcastss 0x2016b(%rip),%ymm8 # 32a94 <_sk_srcover_rgba_8888_sse2_lowp+0x954>
+ .byte 196,98,125,24,5,123,1,2,0 // vbroadcastss 0x2017b(%rip),%ymm8 # 32ab8 <_sk_srcover_rgba_8888_sse2_lowp+0x95c>
.byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
- .byte 196,98,125,24,5,97,1,2,0 // vbroadcastss 0x20161(%rip),%ymm8 # 32a98 <_sk_srcover_rgba_8888_sse2_lowp+0x958>
+ .byte 196,98,125,24,5,113,1,2,0 // vbroadcastss 0x20171(%rip),%ymm8 # 32abc <_sk_srcover_rgba_8888_sse2_lowp+0x960>
.byte 196,193,116,89,200 // vmulps %ymm8,%ymm1,%ymm1
.byte 197,252,88,201 // vaddps %ymm1,%ymm0,%ymm1
- .byte 196,98,125,24,5,83,1,2,0 // vbroadcastss 0x20153(%rip),%ymm8 # 32a9c <_sk_srcover_rgba_8888_sse2_lowp+0x95c>
+ .byte 196,98,125,24,5,99,1,2,0 // vbroadcastss 0x20163(%rip),%ymm8 # 32ac0 <_sk_srcover_rgba_8888_sse2_lowp+0x964>
.byte 196,193,108,89,208 // vmulps %ymm8,%ymm2,%ymm2
.byte 197,252,92,210 // vsubps %ymm2,%ymm0,%ymm2
.byte 197,116,89,193 // vmulps %ymm1,%ymm1,%ymm8
.byte 196,65,116,89,192 // vmulps %ymm8,%ymm1,%ymm8
- .byte 196,98,125,24,13,60,1,2,0 // vbroadcastss 0x2013c(%rip),%ymm9 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0x960>
+ .byte 196,98,125,24,13,76,1,2,0 // vbroadcastss 0x2014c(%rip),%ymm9 # 32ac4 <_sk_srcover_rgba_8888_sse2_lowp+0x968>
.byte 196,65,52,194,208,1 // vcmpltps %ymm8,%ymm9,%ymm10
- .byte 196,98,125,24,29,49,1,2,0 // vbroadcastss 0x20131(%rip),%ymm11 # 32aa4 <_sk_srcover_rgba_8888_sse2_lowp+0x964>
+ .byte 196,98,125,24,29,65,1,2,0 // vbroadcastss 0x20141(%rip),%ymm11 # 32ac8 <_sk_srcover_rgba_8888_sse2_lowp+0x96c>
.byte 196,193,116,88,203 // vaddps %ymm11,%ymm1,%ymm1
- .byte 196,98,125,24,37,39,1,2,0 // vbroadcastss 0x20127(%rip),%ymm12 # 32aa8 <_sk_srcover_rgba_8888_sse2_lowp+0x968>
+ .byte 196,98,125,24,37,55,1,2,0 // vbroadcastss 0x20137(%rip),%ymm12 # 32acc <_sk_srcover_rgba_8888_sse2_lowp+0x970>
.byte 196,193,116,89,204 // vmulps %ymm12,%ymm1,%ymm1
.byte 196,67,117,74,192,160 // vblendvps %ymm10,%ymm8,%ymm1,%ymm8
.byte 197,252,89,200 // vmulps %ymm0,%ymm0,%ymm1
@@ -27475,9 +27487,9 @@ _sk_lab_to_xyz_avx:
.byte 196,193,108,88,211 // vaddps %ymm11,%ymm2,%ymm2
.byte 196,193,108,89,212 // vmulps %ymm12,%ymm2,%ymm2
.byte 196,227,109,74,208,144 // vblendvps %ymm9,%ymm0,%ymm2,%ymm2
- .byte 196,226,125,24,5,221,0,2,0 // vbroadcastss 0x200dd(%rip),%ymm0 # 32aac <_sk_srcover_rgba_8888_sse2_lowp+0x96c>
+ .byte 196,226,125,24,5,237,0,2,0 // vbroadcastss 0x200ed(%rip),%ymm0 # 32ad0 <_sk_srcover_rgba_8888_sse2_lowp+0x974>
.byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
- .byte 196,98,125,24,5,212,0,2,0 // vbroadcastss 0x200d4(%rip),%ymm8 # 32ab0 <_sk_srcover_rgba_8888_sse2_lowp+0x970>
+ .byte 196,98,125,24,5,228,0,2,0 // vbroadcastss 0x200e4(%rip),%ymm8 # 32ad4 <_sk_srcover_rgba_8888_sse2_lowp+0x978>
.byte 196,193,108,89,208 // vmulps %ymm8,%ymm2,%ymm2
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -27493,15 +27505,15 @@ _sk_load_a8_avx:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,68 // jne 12a41 <_sk_load_a8_avx+0x5c>
+ .byte 117,68 // jne 12a55 <_sk_load_a8_avx+0x5c>
.byte 196,130,121,48,4,24 // vpmovzxbw (%r8,%r11,1),%xmm0
- .byte 197,249,219,5,85,1,2,0 // vpand 0x20155(%rip),%xmm0,%xmm0 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xa20>
+ .byte 197,249,219,5,113,1,2,0 // vpand 0x20171(%rip),%xmm0,%xmm0 # 32b90 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
.byte 196,226,121,51,200 // vpmovzxwd %xmm0,%xmm1
.byte 197,249,112,192,78 // vpshufd $0x4e,%xmm0,%xmm0
.byte 196,226,121,51,192 // vpmovzxwd %xmm0,%xmm0
.byte 196,227,117,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm1,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,13,15,0,2,0 // vbroadcastss 0x2000f(%rip),%ymm1 # 32a3c <_sk_srcover_rgba_8888_sse2_lowp+0x8fc>
+ .byte 196,226,125,24,13,31,0,2,0 // vbroadcastss 0x2001f(%rip),%ymm1 # 32a60 <_sk_srcover_rgba_8888_sse2_lowp+0x904>
.byte 197,252,89,217 // vmulps %ymm1,%ymm0,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
@@ -27513,15 +27525,15 @@ _sk_load_a8_avx:
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,174 // ja 12a03 <_sk_load_a8_avx+0x1e>
+ .byte 119,174 // ja 12a17 <_sk_load_a8_avx+0x1e>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,120,0,0,0 // lea 0x78(%rip),%r10 # 12ad8 <_sk_load_a8_avx+0xf3>
+ .byte 76,141,21,120,0,0,0 // lea 0x78(%rip),%r10 # 12aec <_sk_load_a8_avx+0xf3>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 67,15,182,4,24 // movzbl (%r8,%r11,1),%eax
.byte 197,249,110,192 // vmovd %eax,%xmm0
- .byte 235,143 // jmp 12a03 <_sk_load_a8_avx+0x1e>
+ .byte 235,143 // jmp 12a17 <_sk_load_a8_avx+0x1e>
.byte 67,15,182,68,24,2 // movzbl 0x2(%r8,%r11,1),%eax
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,249,196,192,2 // vpinsrw $0x2,%eax,%xmm0,%xmm0
@@ -27529,7 +27541,7 @@ _sk_load_a8_avx:
.byte 197,249,110,200 // vmovd %eax,%xmm1
.byte 196,226,121,48,201 // vpmovzxbw %xmm1,%xmm1
.byte 196,227,121,14,193,3 // vpblendw $0x3,%xmm1,%xmm0,%xmm0
- .byte 233,103,255,255,255 // jmpq 12a03 <_sk_load_a8_avx+0x1e>
+ .byte 233,103,255,255,255 // jmpq 12a17 <_sk_load_a8_avx+0x1e>
.byte 67,15,182,68,24,6 // movzbl 0x6(%r8,%r11,1),%eax
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,249,196,192,6 // vpinsrw $0x6,%eax,%xmm0,%xmm0
@@ -27540,7 +27552,7 @@ _sk_load_a8_avx:
.byte 196,129,121,110,12,24 // vmovd (%r8,%r11,1),%xmm1
.byte 196,226,121,48,201 // vpmovzxbw %xmm1,%xmm1
.byte 196,227,113,14,192,240 // vpblendw $0xf0,%xmm0,%xmm1,%xmm0
- .byte 233,44,255,255,255 // jmpq 12a03 <_sk_load_a8_avx+0x1e>
+ .byte 233,44,255,255,255 // jmpq 12a17 <_sk_load_a8_avx+0x1e>
.byte 144 // nop
.byte 145 // xchg %eax,%ecx
.byte 255 // (bad)
@@ -27549,7 +27561,7 @@ _sk_load_a8_avx:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 233,255,255,255,222 // jmpq ffffffffdf012ae8 <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffdefe09a8>
+ .byte 233,255,255,255,222 // jmpq ffffffffdf012afc <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffdefe09a0>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,211 // callq *%rbx
@@ -27571,15 +27583,15 @@ _sk_load_a8_dst_avx:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,68 // jne 12b50 <_sk_load_a8_dst_avx+0x5c>
+ .byte 117,68 // jne 12b64 <_sk_load_a8_dst_avx+0x5c>
.byte 196,130,121,48,36,24 // vpmovzxbw (%r8,%r11,1),%xmm4
- .byte 197,217,219,37,70,0,2,0 // vpand 0x20046(%rip),%xmm4,%xmm4 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xa20>
+ .byte 197,217,219,37,98,0,2,0 // vpand 0x20062(%rip),%xmm4,%xmm4 # 32b90 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
.byte 196,226,121,51,236 // vpmovzxwd %xmm4,%xmm5
.byte 197,249,112,228,78 // vpshufd $0x4e,%xmm4,%xmm4
.byte 196,226,121,51,228 // vpmovzxwd %xmm4,%xmm4
.byte 196,227,85,24,228,1 // vinsertf128 $0x1,%xmm4,%ymm5,%ymm4
.byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
- .byte 196,226,125,24,45,0,255,1,0 // vbroadcastss 0x1ff00(%rip),%ymm5 # 32a3c <_sk_srcover_rgba_8888_sse2_lowp+0x8fc>
+ .byte 196,226,125,24,45,16,255,1,0 // vbroadcastss 0x1ff10(%rip),%ymm5 # 32a60 <_sk_srcover_rgba_8888_sse2_lowp+0x904>
.byte 197,220,89,253 // vmulps %ymm5,%ymm4,%ymm7
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,220,87,228 // vxorps %ymm4,%ymm4,%ymm4
@@ -27591,15 +27603,15 @@ _sk_load_a8_dst_avx:
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,174 // ja 12b12 <_sk_load_a8_dst_avx+0x1e>
+ .byte 119,174 // ja 12b26 <_sk_load_a8_dst_avx+0x1e>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,121,0,0,0 // lea 0x79(%rip),%r10 # 12be8 <_sk_load_a8_dst_avx+0xf4>
+ .byte 76,141,21,121,0,0,0 // lea 0x79(%rip),%r10 # 12bfc <_sk_load_a8_dst_avx+0xf4>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 67,15,182,4,24 // movzbl (%r8,%r11,1),%eax
.byte 197,249,110,224 // vmovd %eax,%xmm4
- .byte 235,143 // jmp 12b12 <_sk_load_a8_dst_avx+0x1e>
+ .byte 235,143 // jmp 12b26 <_sk_load_a8_dst_avx+0x1e>
.byte 67,15,182,68,24,2 // movzbl 0x2(%r8,%r11,1),%eax
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 197,217,196,224,2 // vpinsrw $0x2,%eax,%xmm4,%xmm4
@@ -27607,7 +27619,7 @@ _sk_load_a8_dst_avx:
.byte 197,249,110,232 // vmovd %eax,%xmm5
.byte 196,226,121,48,237 // vpmovzxbw %xmm5,%xmm5
.byte 196,227,89,14,229,3 // vpblendw $0x3,%xmm5,%xmm4,%xmm4
- .byte 233,103,255,255,255 // jmpq 12b12 <_sk_load_a8_dst_avx+0x1e>
+ .byte 233,103,255,255,255 // jmpq 12b26 <_sk_load_a8_dst_avx+0x1e>
.byte 67,15,182,68,24,6 // movzbl 0x6(%r8,%r11,1),%eax
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 197,217,196,224,6 // vpinsrw $0x6,%eax,%xmm4,%xmm4
@@ -27618,7 +27630,7 @@ _sk_load_a8_dst_avx:
.byte 196,129,121,110,44,24 // vmovd (%r8,%r11,1),%xmm5
.byte 196,226,121,48,237 // vpmovzxbw %xmm5,%xmm5
.byte 196,227,81,14,228,240 // vpblendw $0xf0,%xmm4,%xmm5,%xmm4
- .byte 233,44,255,255,255 // jmpq 12b12 <_sk_load_a8_dst_avx+0x1e>
+ .byte 233,44,255,255,255 // jmpq 12b26 <_sk_load_a8_dst_avx+0x1e>
.byte 102,144 // xchg %ax,%ax
.byte 144 // nop
.byte 255 // (bad)
@@ -27627,7 +27639,7 @@ _sk_load_a8_dst_avx:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 232,255,255,255,221 // callq ffffffffde012bf8 <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffddfe0ab8>
+ .byte 232,255,255,255,221 // callq ffffffffde012c0c <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffddfe0ab0>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,210 // callq *%rdx
@@ -27707,7 +27719,7 @@ _sk_gather_a8_avx:
.byte 196,226,121,49,201 // vpmovzxbd %xmm1,%xmm1
.byte 196,227,125,24,193,1 // vinsertf128 $0x1,%xmm1,%ymm0,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,13,6,253,1,0 // vbroadcastss 0x1fd06(%rip),%ymm1 # 32a3c <_sk_srcover_rgba_8888_sse2_lowp+0x8fc>
+ .byte 196,226,125,24,13,22,253,1,0 // vbroadcastss 0x1fd16(%rip),%ymm1 # 32a60 <_sk_srcover_rgba_8888_sse2_lowp+0x904>
.byte 197,252,89,217 // vmulps %ymm1,%ymm0,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
@@ -27730,14 +27742,14 @@ _sk_store_a8_avx:
.byte 77,15,175,193 // imul %r9,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
- .byte 196,98,125,24,5,134,252,1,0 // vbroadcastss 0x1fc86(%rip),%ymm8 # 329f4 <_sk_srcover_rgba_8888_sse2_lowp+0x8b4>
+ .byte 196,98,125,24,5,146,252,1,0 // vbroadcastss 0x1fc92(%rip),%ymm8 # 32a14 <_sk_srcover_rgba_8888_sse2_lowp+0x8b8>
.byte 196,65,100,89,192 // vmulps %ymm8,%ymm3,%ymm8
.byte 196,65,125,91,192 // vcvtps2dq %ymm8,%ymm8
.byte 196,67,125,25,193,1 // vextractf128 $0x1,%ymm8,%xmm9
.byte 196,66,57,43,193 // vpackusdw %xmm9,%xmm8,%xmm8
.byte 197,57,103,192 // vpackuswb %xmm0,%xmm8,%xmm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,10 // jne 12d96 <_sk_store_a8_avx+0x44>
+ .byte 117,10 // jne 12daa <_sk_store_a8_avx+0x44>
.byte 196,1,121,214,4,24 // vmovq %xmm8,(%r8,%r11,1)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -27745,25 +27757,25 @@ _sk_store_a8_avx:
.byte 65,128,225,7 // and $0x7,%r9b
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,236 // ja 12d92 <_sk_store_a8_avx+0x40>
+ .byte 119,236 // ja 12da6 <_sk_store_a8_avx+0x40>
.byte 196,66,121,48,192 // vpmovzxbw %xmm8,%xmm8
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,86,0,0,0 // lea 0x56(%rip),%r10 # 12e0c <_sk_store_a8_avx+0xba>
+ .byte 76,141,21,86,0,0,0 // lea 0x56(%rip),%r10 # 12e20 <_sk_store_a8_avx+0xba>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 196,3,121,20,4,24,0 // vpextrb $0x0,%xmm8,(%r8,%r11,1)
- .byte 235,202 // jmp 12d92 <_sk_store_a8_avx+0x40>
+ .byte 235,202 // jmp 12da6 <_sk_store_a8_avx+0x40>
.byte 196,3,121,20,68,24,2,4 // vpextrb $0x4,%xmm8,0x2(%r8,%r11,1)
- .byte 196,98,57,0,5,151,253,1,0 // vpshufb 0x1fd97(%rip),%xmm8,%xmm8 # 32b70 <_sk_srcover_rgba_8888_sse2_lowp+0xa30>
+ .byte 196,98,57,0,5,179,253,1,0 // vpshufb 0x1fdb3(%rip),%xmm8,%xmm8 # 32ba0 <_sk_srcover_rgba_8888_sse2_lowp+0xa44>
.byte 196,3,121,21,4,24,0 // vpextrw $0x0,%xmm8,(%r8,%r11,1)
- .byte 235,176 // jmp 12d92 <_sk_store_a8_avx+0x40>
+ .byte 235,176 // jmp 12da6 <_sk_store_a8_avx+0x40>
.byte 196,3,121,20,68,24,6,12 // vpextrb $0xc,%xmm8,0x6(%r8,%r11,1)
.byte 196,3,121,20,68,24,5,10 // vpextrb $0xa,%xmm8,0x5(%r8,%r11,1)
.byte 196,3,121,20,68,24,4,8 // vpextrb $0x8,%xmm8,0x4(%r8,%r11,1)
- .byte 196,98,57,0,5,125,253,1,0 // vpshufb 0x1fd7d(%rip),%xmm8,%xmm8 # 32b80 <_sk_srcover_rgba_8888_sse2_lowp+0xa40>
+ .byte 196,98,57,0,5,153,253,1,0 // vpshufb 0x1fd99(%rip),%xmm8,%xmm8 # 32bb0 <_sk_srcover_rgba_8888_sse2_lowp+0xa54>
.byte 196,1,121,126,4,24 // vmovd %xmm8,(%r8,%r11,1)
- .byte 235,135 // jmp 12d92 <_sk_store_a8_avx+0x40>
+ .byte 235,135 // jmp 12da6 <_sk_store_a8_avx+0x40>
.byte 144 // nop
.byte 179,255 // mov $0xff,%bl
.byte 255 // (bad)
@@ -27796,18 +27808,18 @@ _sk_load_g8_avx:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,73 // jne 12e89 <_sk_load_g8_avx+0x61>
+ .byte 117,73 // jne 12e9d <_sk_load_g8_avx+0x61>
.byte 196,130,121,48,4,24 // vpmovzxbw (%r8,%r11,1),%xmm0
- .byte 197,249,219,5,18,253,1,0 // vpand 0x1fd12(%rip),%xmm0,%xmm0 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xa20>
+ .byte 197,249,219,5,46,253,1,0 // vpand 0x1fd2e(%rip),%xmm0,%xmm0 # 32b90 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
.byte 196,226,121,51,200 // vpmovzxwd %xmm0,%xmm1
.byte 197,249,112,192,78 // vpshufd $0x4e,%xmm0,%xmm0
.byte 196,226,121,51,192 // vpmovzxwd %xmm0,%xmm0
.byte 196,227,117,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm1,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,13,204,251,1,0 // vbroadcastss 0x1fbcc(%rip),%ymm1 # 32a3c <_sk_srcover_rgba_8888_sse2_lowp+0x8fc>
+ .byte 196,226,125,24,13,220,251,1,0 // vbroadcastss 0x1fbdc(%rip),%ymm1 # 32a60 <_sk_srcover_rgba_8888_sse2_lowp+0x904>
.byte 197,252,89,193 // vmulps %ymm1,%ymm0,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,73,251,1,0 // vbroadcastss 0x1fb49(%rip),%ymm3 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 196,226,125,24,29,85,251,1,0 // vbroadcastss 0x1fb55(%rip),%ymm3 # 329e8 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 197,252,40,200 // vmovaps %ymm0,%ymm1
.byte 197,252,40,208 // vmovaps %ymm0,%ymm2
.byte 255,224 // jmpq *%rax
@@ -27816,15 +27828,15 @@ _sk_load_g8_avx:
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,169 // ja 12e46 <_sk_load_g8_avx+0x1e>
+ .byte 119,169 // ja 12e5a <_sk_load_g8_avx+0x1e>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,120,0,0,0 // lea 0x78(%rip),%r10 # 12f20 <_sk_load_g8_avx+0xf8>
+ .byte 76,141,21,120,0,0,0 // lea 0x78(%rip),%r10 # 12f34 <_sk_load_g8_avx+0xf8>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 67,15,182,4,24 // movzbl (%r8,%r11,1),%eax
.byte 197,249,110,192 // vmovd %eax,%xmm0
- .byte 235,138 // jmp 12e46 <_sk_load_g8_avx+0x1e>
+ .byte 235,138 // jmp 12e5a <_sk_load_g8_avx+0x1e>
.byte 67,15,182,68,24,2 // movzbl 0x2(%r8,%r11,1),%eax
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,249,196,192,2 // vpinsrw $0x2,%eax,%xmm0,%xmm0
@@ -27832,7 +27844,7 @@ _sk_load_g8_avx:
.byte 197,249,110,200 // vmovd %eax,%xmm1
.byte 196,226,121,48,201 // vpmovzxbw %xmm1,%xmm1
.byte 196,227,121,14,193,3 // vpblendw $0x3,%xmm1,%xmm0,%xmm0
- .byte 233,98,255,255,255 // jmpq 12e46 <_sk_load_g8_avx+0x1e>
+ .byte 233,98,255,255,255 // jmpq 12e5a <_sk_load_g8_avx+0x1e>
.byte 67,15,182,68,24,6 // movzbl 0x6(%r8,%r11,1),%eax
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,249,196,192,6 // vpinsrw $0x6,%eax,%xmm0,%xmm0
@@ -27843,7 +27855,7 @@ _sk_load_g8_avx:
.byte 196,129,121,110,12,24 // vmovd (%r8,%r11,1),%xmm1
.byte 196,226,121,48,201 // vpmovzxbw %xmm1,%xmm1
.byte 196,227,113,14,192,240 // vpblendw $0xf0,%xmm0,%xmm1,%xmm0
- .byte 233,39,255,255,255 // jmpq 12e46 <_sk_load_g8_avx+0x1e>
+ .byte 233,39,255,255,255 // jmpq 12e5a <_sk_load_g8_avx+0x1e>
.byte 144 // nop
.byte 145 // xchg %eax,%ecx
.byte 255 // (bad)
@@ -27852,7 +27864,7 @@ _sk_load_g8_avx:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 233,255,255,255,222 // jmpq ffffffffdf012f30 <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffdefe0df0>
+ .byte 233,255,255,255,222 // jmpq ffffffffdf012f44 <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffdefe0de8>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,211 // callq *%rbx
@@ -27874,18 +27886,18 @@ _sk_load_g8_dst_avx:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,73 // jne 12f9d <_sk_load_g8_dst_avx+0x61>
+ .byte 117,73 // jne 12fb1 <_sk_load_g8_dst_avx+0x61>
.byte 196,130,121,48,36,24 // vpmovzxbw (%r8,%r11,1),%xmm4
- .byte 197,217,219,37,254,251,1,0 // vpand 0x1fbfe(%rip),%xmm4,%xmm4 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xa20>
+ .byte 197,217,219,37,26,252,1,0 // vpand 0x1fc1a(%rip),%xmm4,%xmm4 # 32b90 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
.byte 196,226,121,51,236 // vpmovzxwd %xmm4,%xmm5
.byte 197,249,112,228,78 // vpshufd $0x4e,%xmm4,%xmm4
.byte 196,226,121,51,228 // vpmovzxwd %xmm4,%xmm4
.byte 196,227,85,24,228,1 // vinsertf128 $0x1,%xmm4,%ymm5,%ymm4
.byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
- .byte 196,226,125,24,45,184,250,1,0 // vbroadcastss 0x1fab8(%rip),%ymm5 # 32a3c <_sk_srcover_rgba_8888_sse2_lowp+0x8fc>
+ .byte 196,226,125,24,45,200,250,1,0 // vbroadcastss 0x1fac8(%rip),%ymm5 # 32a60 <_sk_srcover_rgba_8888_sse2_lowp+0x904>
.byte 197,220,89,229 // vmulps %ymm5,%ymm4,%ymm4
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,61,53,250,1,0 // vbroadcastss 0x1fa35(%rip),%ymm7 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 196,226,125,24,61,65,250,1,0 // vbroadcastss 0x1fa41(%rip),%ymm7 # 329e8 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 197,252,40,236 // vmovaps %ymm4,%ymm5
.byte 197,252,40,244 // vmovaps %ymm4,%ymm6
.byte 255,224 // jmpq *%rax
@@ -27894,15 +27906,15 @@ _sk_load_g8_dst_avx:
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,169 // ja 12f5a <_sk_load_g8_dst_avx+0x1e>
+ .byte 119,169 // ja 12f6e <_sk_load_g8_dst_avx+0x1e>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,120,0,0,0 // lea 0x78(%rip),%r10 # 13034 <_sk_load_g8_dst_avx+0xf8>
+ .byte 76,141,21,120,0,0,0 // lea 0x78(%rip),%r10 # 13048 <_sk_load_g8_dst_avx+0xf8>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 67,15,182,4,24 // movzbl (%r8,%r11,1),%eax
.byte 197,249,110,224 // vmovd %eax,%xmm4
- .byte 235,138 // jmp 12f5a <_sk_load_g8_dst_avx+0x1e>
+ .byte 235,138 // jmp 12f6e <_sk_load_g8_dst_avx+0x1e>
.byte 67,15,182,68,24,2 // movzbl 0x2(%r8,%r11,1),%eax
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 197,217,196,224,2 // vpinsrw $0x2,%eax,%xmm4,%xmm4
@@ -27910,7 +27922,7 @@ _sk_load_g8_dst_avx:
.byte 197,249,110,232 // vmovd %eax,%xmm5
.byte 196,226,121,48,237 // vpmovzxbw %xmm5,%xmm5
.byte 196,227,89,14,229,3 // vpblendw $0x3,%xmm5,%xmm4,%xmm4
- .byte 233,98,255,255,255 // jmpq 12f5a <_sk_load_g8_dst_avx+0x1e>
+ .byte 233,98,255,255,255 // jmpq 12f6e <_sk_load_g8_dst_avx+0x1e>
.byte 67,15,182,68,24,6 // movzbl 0x6(%r8,%r11,1),%eax
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 197,217,196,224,6 // vpinsrw $0x6,%eax,%xmm4,%xmm4
@@ -27921,7 +27933,7 @@ _sk_load_g8_dst_avx:
.byte 196,129,121,110,44,24 // vmovd (%r8,%r11,1),%xmm5
.byte 196,226,121,48,237 // vpmovzxbw %xmm5,%xmm5
.byte 196,227,81,14,228,240 // vpblendw $0xf0,%xmm4,%xmm5,%xmm4
- .byte 233,39,255,255,255 // jmpq 12f5a <_sk_load_g8_dst_avx+0x1e>
+ .byte 233,39,255,255,255 // jmpq 12f6e <_sk_load_g8_dst_avx+0x1e>
.byte 144 // nop
.byte 145 // xchg %eax,%ecx
.byte 255 // (bad)
@@ -27930,7 +27942,7 @@ _sk_load_g8_dst_avx:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 233,255,255,255,222 // jmpq ffffffffdf013044 <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffdefe0f04>
+ .byte 233,255,255,255,222 // jmpq ffffffffdf013058 <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffdefe0efc>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,211 // callq *%rbx
@@ -28010,10 +28022,10 @@ _sk_gather_g8_avx:
.byte 196,226,121,49,201 // vpmovzxbd %xmm1,%xmm1
.byte 196,227,125,24,193,1 // vinsertf128 $0x1,%xmm1,%ymm0,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,13,186,248,1,0 // vbroadcastss 0x1f8ba(%rip),%ymm1 # 32a3c <_sk_srcover_rgba_8888_sse2_lowp+0x8fc>
+ .byte 196,226,125,24,13,202,248,1,0 // vbroadcastss 0x1f8ca(%rip),%ymm1 # 32a60 <_sk_srcover_rgba_8888_sse2_lowp+0x904>
.byte 197,252,89,193 // vmulps %ymm1,%ymm0,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,55,248,1,0 // vbroadcastss 0x1f837(%rip),%ymm3 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 196,226,125,24,29,67,248,1,0 // vbroadcastss 0x1f843(%rip),%ymm3 # 329e8 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 197,252,40,200 // vmovaps %ymm0,%ymm1
.byte 197,252,40,208 // vmovaps %ymm0,%ymm2
.byte 91 // pop %rbx
@@ -28035,56 +28047,56 @@ _sk_load_565_avx:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,130,0,0,0 // jne 13244 <_sk_load_565_avx+0xa1>
+ .byte 15,133,130,0,0,0 // jne 13258 <_sk_load_565_avx+0xa1>
.byte 196,129,122,111,4,88 // vmovdqu (%r8,%r11,2),%xmm0
.byte 196,226,121,51,200 // vpmovzxwd %xmm0,%xmm1
.byte 197,249,112,192,78 // vpshufd $0x4e,%xmm0,%xmm0
.byte 196,226,121,51,192 // vpmovzxwd %xmm0,%xmm0
.byte 196,227,117,24,208,1 // vinsertf128 $0x1,%xmm0,%ymm1,%ymm2
- .byte 196,226,125,24,5,90,248,1,0 // vbroadcastss 0x1f85a(%rip),%ymm0 # 32a40 <_sk_srcover_rgba_8888_sse2_lowp+0x900>
+ .byte 196,226,125,24,5,106,248,1,0 // vbroadcastss 0x1f86a(%rip),%ymm0 # 32a64 <_sk_srcover_rgba_8888_sse2_lowp+0x908>
.byte 197,236,84,192 // vandps %ymm0,%ymm2,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,13,77,248,1,0 // vbroadcastss 0x1f84d(%rip),%ymm1 # 32a44 <_sk_srcover_rgba_8888_sse2_lowp+0x904>
+ .byte 196,226,125,24,13,93,248,1,0 // vbroadcastss 0x1f85d(%rip),%ymm1 # 32a68 <_sk_srcover_rgba_8888_sse2_lowp+0x90c>
.byte 197,252,89,193 // vmulps %ymm1,%ymm0,%ymm0
- .byte 196,226,125,24,13,68,248,1,0 // vbroadcastss 0x1f844(%rip),%ymm1 # 32a48 <_sk_srcover_rgba_8888_sse2_lowp+0x908>
+ .byte 196,226,125,24,13,84,248,1,0 // vbroadcastss 0x1f854(%rip),%ymm1 # 32a6c <_sk_srcover_rgba_8888_sse2_lowp+0x910>
.byte 197,236,84,201 // vandps %ymm1,%ymm2,%ymm1
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
- .byte 196,226,125,24,29,55,248,1,0 // vbroadcastss 0x1f837(%rip),%ymm3 # 32a4c <_sk_srcover_rgba_8888_sse2_lowp+0x90c>
+ .byte 196,226,125,24,29,71,248,1,0 // vbroadcastss 0x1f847(%rip),%ymm3 # 32a70 <_sk_srcover_rgba_8888_sse2_lowp+0x914>
.byte 197,244,89,203 // vmulps %ymm3,%ymm1,%ymm1
- .byte 196,226,125,24,29,46,248,1,0 // vbroadcastss 0x1f82e(%rip),%ymm3 # 32a50 <_sk_srcover_rgba_8888_sse2_lowp+0x910>
+ .byte 196,226,125,24,29,62,248,1,0 // vbroadcastss 0x1f83e(%rip),%ymm3 # 32a74 <_sk_srcover_rgba_8888_sse2_lowp+0x918>
.byte 197,236,84,211 // vandps %ymm3,%ymm2,%ymm2
.byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
- .byte 196,226,125,24,29,33,248,1,0 // vbroadcastss 0x1f821(%rip),%ymm3 # 32a54 <_sk_srcover_rgba_8888_sse2_lowp+0x914>
+ .byte 196,226,125,24,29,49,248,1,0 // vbroadcastss 0x1f831(%rip),%ymm3 # 32a78 <_sk_srcover_rgba_8888_sse2_lowp+0x91c>
.byte 197,236,89,211 // vmulps %ymm3,%ymm2,%ymm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,134,247,1,0 // vbroadcastss 0x1f786(%rip),%ymm3 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 196,226,125,24,29,146,247,1,0 // vbroadcastss 0x1f792(%rip),%ymm3 # 329e8 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 255,224 // jmpq *%rax
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,7 // and $0x7,%r9b
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 15,135,108,255,255,255 // ja 131c8 <_sk_load_565_avx+0x25>
+ .byte 15,135,108,255,255,255 // ja 131dc <_sk_load_565_avx+0x25>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,97,0,0,0 // lea 0x61(%rip),%r10 # 132c8 <_sk_load_565_avx+0x125>
+ .byte 76,141,21,97,0,0,0 // lea 0x61(%rip),%r10 # 132dc <_sk_load_565_avx+0x125>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 67,15,183,4,88 // movzwl (%r8,%r11,2),%eax
.byte 197,249,110,192 // vmovd %eax,%xmm0
- .byte 233,74,255,255,255 // jmpq 131c8 <_sk_load_565_avx+0x25>
+ .byte 233,74,255,255,255 // jmpq 131dc <_sk_load_565_avx+0x25>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 196,129,121,196,68,88,4,2 // vpinsrw $0x2,0x4(%r8,%r11,2),%xmm0,%xmm0
.byte 196,129,121,110,12,88 // vmovd (%r8,%r11,2),%xmm1
.byte 196,227,121,14,193,3 // vpblendw $0x3,%xmm1,%xmm0,%xmm0
- .byte 233,45,255,255,255 // jmpq 131c8 <_sk_load_565_avx+0x25>
+ .byte 233,45,255,255,255 // jmpq 131dc <_sk_load_565_avx+0x25>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 196,129,121,196,68,88,12,6 // vpinsrw $0x6,0xc(%r8,%r11,2),%xmm0,%xmm0
.byte 196,129,121,196,68,88,10,5 // vpinsrw $0x5,0xa(%r8,%r11,2),%xmm0,%xmm0
.byte 196,129,121,196,68,88,8,4 // vpinsrw $0x4,0x8(%r8,%r11,2),%xmm0,%xmm0
.byte 196,129,122,126,12,88 // vmovq (%r8,%r11,2),%xmm1
.byte 196,227,113,14,192,240 // vpblendw $0xf0,%xmm0,%xmm1,%xmm0
- .byte 233,0,255,255,255 // jmpq 131c8 <_sk_load_565_avx+0x25>
+ .byte 233,0,255,255,255 // jmpq 131dc <_sk_load_565_avx+0x25>
.byte 168,255 // test $0xff,%al
.byte 255 // (bad)
.byte 255,194 // inc %edx
@@ -28116,56 +28128,56 @@ _sk_load_565_dst_avx:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,130,0,0,0 // jne 13385 <_sk_load_565_dst_avx+0xa1>
+ .byte 15,133,130,0,0,0 // jne 13399 <_sk_load_565_dst_avx+0xa1>
.byte 196,129,122,111,36,88 // vmovdqu (%r8,%r11,2),%xmm4
.byte 196,226,121,51,236 // vpmovzxwd %xmm4,%xmm5
.byte 197,249,112,228,78 // vpshufd $0x4e,%xmm4,%xmm4
.byte 196,226,121,51,228 // vpmovzxwd %xmm4,%xmm4
.byte 196,227,85,24,244,1 // vinsertf128 $0x1,%xmm4,%ymm5,%ymm6
- .byte 196,226,125,24,37,25,247,1,0 // vbroadcastss 0x1f719(%rip),%ymm4 # 32a40 <_sk_srcover_rgba_8888_sse2_lowp+0x900>
+ .byte 196,226,125,24,37,41,247,1,0 // vbroadcastss 0x1f729(%rip),%ymm4 # 32a64 <_sk_srcover_rgba_8888_sse2_lowp+0x908>
.byte 197,204,84,228 // vandps %ymm4,%ymm6,%ymm4
.byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
- .byte 196,226,125,24,45,12,247,1,0 // vbroadcastss 0x1f70c(%rip),%ymm5 # 32a44 <_sk_srcover_rgba_8888_sse2_lowp+0x904>
+ .byte 196,226,125,24,45,28,247,1,0 // vbroadcastss 0x1f71c(%rip),%ymm5 # 32a68 <_sk_srcover_rgba_8888_sse2_lowp+0x90c>
.byte 197,220,89,229 // vmulps %ymm5,%ymm4,%ymm4
- .byte 196,226,125,24,45,3,247,1,0 // vbroadcastss 0x1f703(%rip),%ymm5 # 32a48 <_sk_srcover_rgba_8888_sse2_lowp+0x908>
+ .byte 196,226,125,24,45,19,247,1,0 // vbroadcastss 0x1f713(%rip),%ymm5 # 32a6c <_sk_srcover_rgba_8888_sse2_lowp+0x910>
.byte 197,204,84,237 // vandps %ymm5,%ymm6,%ymm5
.byte 197,252,91,237 // vcvtdq2ps %ymm5,%ymm5
- .byte 196,226,125,24,61,246,246,1,0 // vbroadcastss 0x1f6f6(%rip),%ymm7 # 32a4c <_sk_srcover_rgba_8888_sse2_lowp+0x90c>
+ .byte 196,226,125,24,61,6,247,1,0 // vbroadcastss 0x1f706(%rip),%ymm7 # 32a70 <_sk_srcover_rgba_8888_sse2_lowp+0x914>
.byte 197,212,89,239 // vmulps %ymm7,%ymm5,%ymm5
- .byte 196,226,125,24,61,237,246,1,0 // vbroadcastss 0x1f6ed(%rip),%ymm7 # 32a50 <_sk_srcover_rgba_8888_sse2_lowp+0x910>
+ .byte 196,226,125,24,61,253,246,1,0 // vbroadcastss 0x1f6fd(%rip),%ymm7 # 32a74 <_sk_srcover_rgba_8888_sse2_lowp+0x918>
.byte 197,204,84,247 // vandps %ymm7,%ymm6,%ymm6
.byte 197,252,91,246 // vcvtdq2ps %ymm6,%ymm6
- .byte 196,226,125,24,61,224,246,1,0 // vbroadcastss 0x1f6e0(%rip),%ymm7 # 32a54 <_sk_srcover_rgba_8888_sse2_lowp+0x914>
+ .byte 196,226,125,24,61,240,246,1,0 // vbroadcastss 0x1f6f0(%rip),%ymm7 # 32a78 <_sk_srcover_rgba_8888_sse2_lowp+0x91c>
.byte 197,204,89,247 // vmulps %ymm7,%ymm6,%ymm6
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,61,69,246,1,0 // vbroadcastss 0x1f645(%rip),%ymm7 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 196,226,125,24,61,81,246,1,0 // vbroadcastss 0x1f651(%rip),%ymm7 # 329e8 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 255,224 // jmpq *%rax
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,7 // and $0x7,%r9b
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 15,135,108,255,255,255 // ja 13309 <_sk_load_565_dst_avx+0x25>
+ .byte 15,135,108,255,255,255 // ja 1331d <_sk_load_565_dst_avx+0x25>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,100,0,0,0 // lea 0x64(%rip),%r10 # 1340c <_sk_load_565_dst_avx+0x128>
+ .byte 76,141,21,100,0,0,0 // lea 0x64(%rip),%r10 # 13420 <_sk_load_565_dst_avx+0x128>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 67,15,183,4,88 // movzwl (%r8,%r11,2),%eax
.byte 197,249,110,224 // vmovd %eax,%xmm4
- .byte 233,74,255,255,255 // jmpq 13309 <_sk_load_565_dst_avx+0x25>
+ .byte 233,74,255,255,255 // jmpq 1331d <_sk_load_565_dst_avx+0x25>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,129,89,196,100,88,4,2 // vpinsrw $0x2,0x4(%r8,%r11,2),%xmm4,%xmm4
.byte 196,129,121,110,44,88 // vmovd (%r8,%r11,2),%xmm5
.byte 196,227,89,14,229,3 // vpblendw $0x3,%xmm5,%xmm4,%xmm4
- .byte 233,45,255,255,255 // jmpq 13309 <_sk_load_565_dst_avx+0x25>
+ .byte 233,45,255,255,255 // jmpq 1331d <_sk_load_565_dst_avx+0x25>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,129,89,196,100,88,12,6 // vpinsrw $0x6,0xc(%r8,%r11,2),%xmm4,%xmm4
.byte 196,129,89,196,100,88,10,5 // vpinsrw $0x5,0xa(%r8,%r11,2),%xmm4,%xmm4
.byte 196,129,89,196,100,88,8,4 // vpinsrw $0x4,0x8(%r8,%r11,2),%xmm4,%xmm4
.byte 196,129,122,126,44,88 // vmovq (%r8,%r11,2),%xmm5
.byte 196,227,81,14,228,240 // vpblendw $0xf0,%xmm4,%xmm5,%xmm4
- .byte 233,0,255,255,255 // jmpq 13309 <_sk_load_565_dst_avx+0x25>
+ .byte 233,0,255,255,255 // jmpq 1331d <_sk_load_565_dst_avx+0x25>
.byte 15,31,0 // nopl (%rax)
.byte 165 // movsl %ds:(%rsi),%es:(%rdi)
.byte 255 // (bad)
@@ -28258,23 +28270,23 @@ _sk_gather_565_avx:
.byte 197,249,112,192,78 // vpshufd $0x4e,%xmm0,%xmm0
.byte 196,226,121,51,192 // vpmovzxwd %xmm0,%xmm0
.byte 196,227,117,24,208,1 // vinsertf128 $0x1,%xmm0,%ymm1,%ymm2
- .byte 196,226,125,24,5,233,244,1,0 // vbroadcastss 0x1f4e9(%rip),%ymm0 # 32a40 <_sk_srcover_rgba_8888_sse2_lowp+0x900>
+ .byte 196,226,125,24,5,249,244,1,0 // vbroadcastss 0x1f4f9(%rip),%ymm0 # 32a64 <_sk_srcover_rgba_8888_sse2_lowp+0x908>
.byte 197,236,84,192 // vandps %ymm0,%ymm2,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,13,220,244,1,0 // vbroadcastss 0x1f4dc(%rip),%ymm1 # 32a44 <_sk_srcover_rgba_8888_sse2_lowp+0x904>
+ .byte 196,226,125,24,13,236,244,1,0 // vbroadcastss 0x1f4ec(%rip),%ymm1 # 32a68 <_sk_srcover_rgba_8888_sse2_lowp+0x90c>
.byte 197,252,89,193 // vmulps %ymm1,%ymm0,%ymm0
- .byte 196,226,125,24,13,211,244,1,0 // vbroadcastss 0x1f4d3(%rip),%ymm1 # 32a48 <_sk_srcover_rgba_8888_sse2_lowp+0x908>
+ .byte 196,226,125,24,13,227,244,1,0 // vbroadcastss 0x1f4e3(%rip),%ymm1 # 32a6c <_sk_srcover_rgba_8888_sse2_lowp+0x910>
.byte 197,236,84,201 // vandps %ymm1,%ymm2,%ymm1
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
- .byte 196,226,125,24,29,198,244,1,0 // vbroadcastss 0x1f4c6(%rip),%ymm3 # 32a4c <_sk_srcover_rgba_8888_sse2_lowp+0x90c>
+ .byte 196,226,125,24,29,214,244,1,0 // vbroadcastss 0x1f4d6(%rip),%ymm3 # 32a70 <_sk_srcover_rgba_8888_sse2_lowp+0x914>
.byte 197,244,89,203 // vmulps %ymm3,%ymm1,%ymm1
- .byte 196,226,125,24,29,189,244,1,0 // vbroadcastss 0x1f4bd(%rip),%ymm3 # 32a50 <_sk_srcover_rgba_8888_sse2_lowp+0x910>
+ .byte 196,226,125,24,29,205,244,1,0 // vbroadcastss 0x1f4cd(%rip),%ymm3 # 32a74 <_sk_srcover_rgba_8888_sse2_lowp+0x918>
.byte 197,236,84,211 // vandps %ymm3,%ymm2,%ymm2
.byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
- .byte 196,226,125,24,29,176,244,1,0 // vbroadcastss 0x1f4b0(%rip),%ymm3 # 32a54 <_sk_srcover_rgba_8888_sse2_lowp+0x914>
+ .byte 196,226,125,24,29,192,244,1,0 // vbroadcastss 0x1f4c0(%rip),%ymm3 # 32a78 <_sk_srcover_rgba_8888_sse2_lowp+0x91c>
.byte 197,236,89,211 // vmulps %ymm3,%ymm2,%ymm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,21,244,1,0 // vbroadcastss 0x1f415(%rip),%ymm3 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 196,226,125,24,29,33,244,1,0 // vbroadcastss 0x1f421(%rip),%ymm3 # 329e8 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 91 // pop %rbx
.byte 65,92 // pop %r12
.byte 65,94 // pop %r14
@@ -28293,14 +28305,14 @@ _sk_store_565_avx:
.byte 77,1,192 // add %r8,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
- .byte 196,98,125,24,5,216,244,1,0 // vbroadcastss 0x1f4d8(%rip),%ymm8 # 32ab4 <_sk_srcover_rgba_8888_sse2_lowp+0x974>
+ .byte 196,98,125,24,5,232,244,1,0 // vbroadcastss 0x1f4e8(%rip),%ymm8 # 32ad8 <_sk_srcover_rgba_8888_sse2_lowp+0x97c>
.byte 196,65,124,89,200 // vmulps %ymm8,%ymm0,%ymm9
.byte 196,65,125,91,201 // vcvtps2dq %ymm9,%ymm9
.byte 196,193,41,114,241,11 // vpslld $0xb,%xmm9,%xmm10
.byte 196,67,125,25,201,1 // vextractf128 $0x1,%ymm9,%xmm9
.byte 196,193,49,114,241,11 // vpslld $0xb,%xmm9,%xmm9
.byte 196,67,45,24,201,1 // vinsertf128 $0x1,%xmm9,%ymm10,%ymm9
- .byte 196,98,125,24,21,177,244,1,0 // vbroadcastss 0x1f4b1(%rip),%ymm10 # 32ab8 <_sk_srcover_rgba_8888_sse2_lowp+0x978>
+ .byte 196,98,125,24,21,193,244,1,0 // vbroadcastss 0x1f4c1(%rip),%ymm10 # 32adc <_sk_srcover_rgba_8888_sse2_lowp+0x980>
.byte 196,65,116,89,210 // vmulps %ymm10,%ymm1,%ymm10
.byte 196,65,125,91,210 // vcvtps2dq %ymm10,%ymm10
.byte 196,193,33,114,242,5 // vpslld $0x5,%xmm10,%xmm11
@@ -28314,7 +28326,7 @@ _sk_store_565_avx:
.byte 196,67,125,25,193,1 // vextractf128 $0x1,%ymm8,%xmm9
.byte 196,66,57,43,193 // vpackusdw %xmm9,%xmm8,%xmm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,10 // jne 13657 <_sk_store_565_avx+0x9a>
+ .byte 117,10 // jne 1366b <_sk_store_565_avx+0x9a>
.byte 196,1,122,127,4,88 // vmovdqu %xmm8,(%r8,%r11,2)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -28322,22 +28334,22 @@ _sk_store_565_avx:
.byte 65,128,225,7 // and $0x7,%r9b
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,236 // ja 13653 <_sk_store_565_avx+0x96>
+ .byte 119,236 // ja 13667 <_sk_store_565_avx+0x96>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,66,0,0,0 // lea 0x42(%rip),%r10 # 136b4 <_sk_store_565_avx+0xf7>
+ .byte 76,141,21,66,0,0,0 // lea 0x42(%rip),%r10 # 136c8 <_sk_store_565_avx+0xf7>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 196,3,121,21,4,88,0 // vpextrw $0x0,%xmm8,(%r8,%r11,2)
- .byte 235,207 // jmp 13653 <_sk_store_565_avx+0x96>
+ .byte 235,207 // jmp 13667 <_sk_store_565_avx+0x96>
.byte 196,3,121,21,68,88,4,2 // vpextrw $0x2,%xmm8,0x4(%r8,%r11,2)
.byte 196,1,121,126,4,88 // vmovd %xmm8,(%r8,%r11,2)
- .byte 235,191 // jmp 13653 <_sk_store_565_avx+0x96>
+ .byte 235,191 // jmp 13667 <_sk_store_565_avx+0x96>
.byte 196,3,121,21,68,88,12,6 // vpextrw $0x6,%xmm8,0xc(%r8,%r11,2)
.byte 196,3,121,21,68,88,10,5 // vpextrw $0x5,%xmm8,0xa(%r8,%r11,2)
.byte 196,3,121,21,68,88,8,4 // vpextrw $0x4,%xmm8,0x8(%r8,%r11,2)
.byte 196,1,121,214,4,88 // vmovq %xmm8,(%r8,%r11,2)
- .byte 235,159 // jmp 13653 <_sk_store_565_avx+0x96>
+ .byte 235,159 // jmp 13667 <_sk_store_565_avx+0x96>
.byte 199 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
@@ -28355,7 +28367,7 @@ _sk_store_565_avx:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 232,255,255,255,224 // callq ffffffffe10136cc <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffe0fe158c>
+ .byte 232,255,255,255,224 // callq ffffffffe10136e0 <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffe0fe1584>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // .byte 0xff
@@ -28372,31 +28384,31 @@ _sk_load_4444_avx:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,154,0,0,0 // jne 13789 <_sk_load_4444_avx+0xb9>
+ .byte 15,133,154,0,0,0 // jne 1379d <_sk_load_4444_avx+0xb9>
.byte 196,129,122,111,4,88 // vmovdqu (%r8,%r11,2),%xmm0
.byte 196,226,121,51,200 // vpmovzxwd %xmm0,%xmm1
.byte 197,249,112,192,78 // vpshufd $0x4e,%xmm0,%xmm0
.byte 196,226,121,51,192 // vpmovzxwd %xmm0,%xmm0
.byte 196,227,117,24,216,1 // vinsertf128 $0x1,%xmm0,%ymm1,%ymm3
- .byte 196,226,125,24,5,169,243,1,0 // vbroadcastss 0x1f3a9(%rip),%ymm0 # 32abc <_sk_srcover_rgba_8888_sse2_lowp+0x97c>
+ .byte 196,226,125,24,5,185,243,1,0 // vbroadcastss 0x1f3b9(%rip),%ymm0 # 32ae0 <_sk_srcover_rgba_8888_sse2_lowp+0x984>
.byte 197,228,84,192 // vandps %ymm0,%ymm3,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,13,156,243,1,0 // vbroadcastss 0x1f39c(%rip),%ymm1 # 32ac0 <_sk_srcover_rgba_8888_sse2_lowp+0x980>
+ .byte 196,226,125,24,13,172,243,1,0 // vbroadcastss 0x1f3ac(%rip),%ymm1 # 32ae4 <_sk_srcover_rgba_8888_sse2_lowp+0x988>
.byte 197,252,89,193 // vmulps %ymm1,%ymm0,%ymm0
- .byte 196,226,125,24,13,147,243,1,0 // vbroadcastss 0x1f393(%rip),%ymm1 # 32ac4 <_sk_srcover_rgba_8888_sse2_lowp+0x984>
+ .byte 196,226,125,24,13,163,243,1,0 // vbroadcastss 0x1f3a3(%rip),%ymm1 # 32ae8 <_sk_srcover_rgba_8888_sse2_lowp+0x98c>
.byte 197,228,84,201 // vandps %ymm1,%ymm3,%ymm1
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
- .byte 196,226,125,24,21,134,243,1,0 // vbroadcastss 0x1f386(%rip),%ymm2 # 32ac8 <_sk_srcover_rgba_8888_sse2_lowp+0x988>
+ .byte 196,226,125,24,21,150,243,1,0 // vbroadcastss 0x1f396(%rip),%ymm2 # 32aec <_sk_srcover_rgba_8888_sse2_lowp+0x990>
.byte 197,244,89,202 // vmulps %ymm2,%ymm1,%ymm1
- .byte 196,226,125,24,21,125,243,1,0 // vbroadcastss 0x1f37d(%rip),%ymm2 # 32acc <_sk_srcover_rgba_8888_sse2_lowp+0x98c>
+ .byte 196,226,125,24,21,141,243,1,0 // vbroadcastss 0x1f38d(%rip),%ymm2 # 32af0 <_sk_srcover_rgba_8888_sse2_lowp+0x994>
.byte 197,228,84,210 // vandps %ymm2,%ymm3,%ymm2
.byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
- .byte 196,98,125,24,5,112,243,1,0 // vbroadcastss 0x1f370(%rip),%ymm8 # 32ad0 <_sk_srcover_rgba_8888_sse2_lowp+0x990>
+ .byte 196,98,125,24,5,128,243,1,0 // vbroadcastss 0x1f380(%rip),%ymm8 # 32af4 <_sk_srcover_rgba_8888_sse2_lowp+0x998>
.byte 196,193,108,89,208 // vmulps %ymm8,%ymm2,%ymm2
- .byte 196,98,125,24,5,102,243,1,0 // vbroadcastss 0x1f366(%rip),%ymm8 # 32ad4 <_sk_srcover_rgba_8888_sse2_lowp+0x994>
+ .byte 196,98,125,24,5,118,243,1,0 // vbroadcastss 0x1f376(%rip),%ymm8 # 32af8 <_sk_srcover_rgba_8888_sse2_lowp+0x99c>
.byte 196,193,100,84,216 // vandps %ymm8,%ymm3,%ymm3
.byte 197,252,91,219 // vcvtdq2ps %ymm3,%ymm3
- .byte 196,98,125,24,5,88,243,1,0 // vbroadcastss 0x1f358(%rip),%ymm8 # 32ad8 <_sk_srcover_rgba_8888_sse2_lowp+0x998>
+ .byte 196,98,125,24,5,104,243,1,0 // vbroadcastss 0x1f368(%rip),%ymm8 # 32afc <_sk_srcover_rgba_8888_sse2_lowp+0x9a0>
.byte 196,193,100,89,216 // vmulps %ymm8,%ymm3,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -28405,27 +28417,27 @@ _sk_load_4444_avx:
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 15,135,84,255,255,255 // ja 136f5 <_sk_load_4444_avx+0x25>
+ .byte 15,135,84,255,255,255 // ja 13709 <_sk_load_4444_avx+0x25>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,100,0,0,0 // lea 0x64(%rip),%r10 # 13810 <_sk_load_4444_avx+0x140>
+ .byte 76,141,21,100,0,0,0 // lea 0x64(%rip),%r10 # 13824 <_sk_load_4444_avx+0x140>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 67,15,183,4,88 // movzwl (%r8,%r11,2),%eax
.byte 197,249,110,192 // vmovd %eax,%xmm0
- .byte 233,50,255,255,255 // jmpq 136f5 <_sk_load_4444_avx+0x25>
+ .byte 233,50,255,255,255 // jmpq 13709 <_sk_load_4444_avx+0x25>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 196,129,121,196,68,88,4,2 // vpinsrw $0x2,0x4(%r8,%r11,2),%xmm0,%xmm0
.byte 196,129,121,110,12,88 // vmovd (%r8,%r11,2),%xmm1
.byte 196,227,121,14,193,3 // vpblendw $0x3,%xmm1,%xmm0,%xmm0
- .byte 233,21,255,255,255 // jmpq 136f5 <_sk_load_4444_avx+0x25>
+ .byte 233,21,255,255,255 // jmpq 13709 <_sk_load_4444_avx+0x25>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 196,129,121,196,68,88,12,6 // vpinsrw $0x6,0xc(%r8,%r11,2),%xmm0,%xmm0
.byte 196,129,121,196,68,88,10,5 // vpinsrw $0x5,0xa(%r8,%r11,2),%xmm0,%xmm0
.byte 196,129,121,196,68,88,8,4 // vpinsrw $0x4,0x8(%r8,%r11,2),%xmm0,%xmm0
.byte 196,129,122,126,12,88 // vmovq (%r8,%r11,2),%xmm1
.byte 196,227,113,14,192,240 // vpblendw $0xf0,%xmm0,%xmm1,%xmm0
- .byte 233,232,254,255,255 // jmpq 136f5 <_sk_load_4444_avx+0x25>
+ .byte 233,232,254,255,255 // jmpq 13709 <_sk_load_4444_avx+0x25>
.byte 15,31,0 // nopl (%rax)
.byte 165 // movsl %ds:(%rsi),%es:(%rdi)
.byte 255 // (bad)
@@ -28461,31 +28473,31 @@ _sk_load_4444_dst_avx:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,154,0,0,0 // jne 138e5 <_sk_load_4444_dst_avx+0xb9>
+ .byte 15,133,154,0,0,0 // jne 138f9 <_sk_load_4444_dst_avx+0xb9>
.byte 196,129,122,111,36,88 // vmovdqu (%r8,%r11,2),%xmm4
.byte 196,226,121,51,236 // vpmovzxwd %xmm4,%xmm5
.byte 197,249,112,228,78 // vpshufd $0x4e,%xmm4,%xmm4
.byte 196,226,121,51,228 // vpmovzxwd %xmm4,%xmm4
.byte 196,227,85,24,252,1 // vinsertf128 $0x1,%xmm4,%ymm5,%ymm7
- .byte 196,226,125,24,37,77,242,1,0 // vbroadcastss 0x1f24d(%rip),%ymm4 # 32abc <_sk_srcover_rgba_8888_sse2_lowp+0x97c>
+ .byte 196,226,125,24,37,93,242,1,0 // vbroadcastss 0x1f25d(%rip),%ymm4 # 32ae0 <_sk_srcover_rgba_8888_sse2_lowp+0x984>
.byte 197,196,84,228 // vandps %ymm4,%ymm7,%ymm4
.byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
- .byte 196,226,125,24,45,64,242,1,0 // vbroadcastss 0x1f240(%rip),%ymm5 # 32ac0 <_sk_srcover_rgba_8888_sse2_lowp+0x980>
+ .byte 196,226,125,24,45,80,242,1,0 // vbroadcastss 0x1f250(%rip),%ymm5 # 32ae4 <_sk_srcover_rgba_8888_sse2_lowp+0x988>
.byte 197,220,89,229 // vmulps %ymm5,%ymm4,%ymm4
- .byte 196,226,125,24,45,55,242,1,0 // vbroadcastss 0x1f237(%rip),%ymm5 # 32ac4 <_sk_srcover_rgba_8888_sse2_lowp+0x984>
+ .byte 196,226,125,24,45,71,242,1,0 // vbroadcastss 0x1f247(%rip),%ymm5 # 32ae8 <_sk_srcover_rgba_8888_sse2_lowp+0x98c>
.byte 197,196,84,237 // vandps %ymm5,%ymm7,%ymm5
.byte 197,252,91,237 // vcvtdq2ps %ymm5,%ymm5
- .byte 196,226,125,24,53,42,242,1,0 // vbroadcastss 0x1f22a(%rip),%ymm6 # 32ac8 <_sk_srcover_rgba_8888_sse2_lowp+0x988>
+ .byte 196,226,125,24,53,58,242,1,0 // vbroadcastss 0x1f23a(%rip),%ymm6 # 32aec <_sk_srcover_rgba_8888_sse2_lowp+0x990>
.byte 197,212,89,238 // vmulps %ymm6,%ymm5,%ymm5
- .byte 196,226,125,24,53,33,242,1,0 // vbroadcastss 0x1f221(%rip),%ymm6 # 32acc <_sk_srcover_rgba_8888_sse2_lowp+0x98c>
+ .byte 196,226,125,24,53,49,242,1,0 // vbroadcastss 0x1f231(%rip),%ymm6 # 32af0 <_sk_srcover_rgba_8888_sse2_lowp+0x994>
.byte 197,196,84,246 // vandps %ymm6,%ymm7,%ymm6
.byte 197,252,91,246 // vcvtdq2ps %ymm6,%ymm6
- .byte 196,98,125,24,5,20,242,1,0 // vbroadcastss 0x1f214(%rip),%ymm8 # 32ad0 <_sk_srcover_rgba_8888_sse2_lowp+0x990>
+ .byte 196,98,125,24,5,36,242,1,0 // vbroadcastss 0x1f224(%rip),%ymm8 # 32af4 <_sk_srcover_rgba_8888_sse2_lowp+0x998>
.byte 196,193,76,89,240 // vmulps %ymm8,%ymm6,%ymm6
- .byte 196,98,125,24,5,10,242,1,0 // vbroadcastss 0x1f20a(%rip),%ymm8 # 32ad4 <_sk_srcover_rgba_8888_sse2_lowp+0x994>
+ .byte 196,98,125,24,5,26,242,1,0 // vbroadcastss 0x1f21a(%rip),%ymm8 # 32af8 <_sk_srcover_rgba_8888_sse2_lowp+0x99c>
.byte 196,193,68,84,248 // vandps %ymm8,%ymm7,%ymm7
.byte 197,252,91,255 // vcvtdq2ps %ymm7,%ymm7
- .byte 196,98,125,24,5,252,241,1,0 // vbroadcastss 0x1f1fc(%rip),%ymm8 # 32ad8 <_sk_srcover_rgba_8888_sse2_lowp+0x998>
+ .byte 196,98,125,24,5,12,242,1,0 // vbroadcastss 0x1f20c(%rip),%ymm8 # 32afc <_sk_srcover_rgba_8888_sse2_lowp+0x9a0>
.byte 196,193,68,89,248 // vmulps %ymm8,%ymm7,%ymm7
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -28494,27 +28506,27 @@ _sk_load_4444_dst_avx:
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 15,135,84,255,255,255 // ja 13851 <_sk_load_4444_dst_avx+0x25>
+ .byte 15,135,84,255,255,255 // ja 13865 <_sk_load_4444_dst_avx+0x25>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,100,0,0,0 // lea 0x64(%rip),%r10 # 1396c <_sk_load_4444_dst_avx+0x140>
+ .byte 76,141,21,100,0,0,0 // lea 0x64(%rip),%r10 # 13980 <_sk_load_4444_dst_avx+0x140>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 67,15,183,4,88 // movzwl (%r8,%r11,2),%eax
.byte 197,249,110,224 // vmovd %eax,%xmm4
- .byte 233,50,255,255,255 // jmpq 13851 <_sk_load_4444_dst_avx+0x25>
+ .byte 233,50,255,255,255 // jmpq 13865 <_sk_load_4444_dst_avx+0x25>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,129,89,196,100,88,4,2 // vpinsrw $0x2,0x4(%r8,%r11,2),%xmm4,%xmm4
.byte 196,129,121,110,44,88 // vmovd (%r8,%r11,2),%xmm5
.byte 196,227,89,14,229,3 // vpblendw $0x3,%xmm5,%xmm4,%xmm4
- .byte 233,21,255,255,255 // jmpq 13851 <_sk_load_4444_dst_avx+0x25>
+ .byte 233,21,255,255,255 // jmpq 13865 <_sk_load_4444_dst_avx+0x25>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,129,89,196,100,88,12,6 // vpinsrw $0x6,0xc(%r8,%r11,2),%xmm4,%xmm4
.byte 196,129,89,196,100,88,10,5 // vpinsrw $0x5,0xa(%r8,%r11,2),%xmm4,%xmm4
.byte 196,129,89,196,100,88,8,4 // vpinsrw $0x4,0x8(%r8,%r11,2),%xmm4,%xmm4
.byte 196,129,122,126,44,88 // vmovq (%r8,%r11,2),%xmm5
.byte 196,227,81,14,228,240 // vpblendw $0xf0,%xmm4,%xmm5,%xmm4
- .byte 233,232,254,255,255 // jmpq 13851 <_sk_load_4444_dst_avx+0x25>
+ .byte 233,232,254,255,255 // jmpq 13865 <_sk_load_4444_dst_avx+0x25>
.byte 15,31,0 // nopl (%rax)
.byte 165 // movsl %ds:(%rsi),%es:(%rdi)
.byte 255 // (bad)
@@ -28607,25 +28619,25 @@ _sk_gather_4444_avx:
.byte 197,249,112,192,78 // vpshufd $0x4e,%xmm0,%xmm0
.byte 196,226,121,51,192 // vpmovzxwd %xmm0,%xmm0
.byte 196,227,117,24,216,1 // vinsertf128 $0x1,%xmm0,%ymm1,%ymm3
- .byte 196,226,125,24,5,5,240,1,0 // vbroadcastss 0x1f005(%rip),%ymm0 # 32abc <_sk_srcover_rgba_8888_sse2_lowp+0x97c>
+ .byte 196,226,125,24,5,21,240,1,0 // vbroadcastss 0x1f015(%rip),%ymm0 # 32ae0 <_sk_srcover_rgba_8888_sse2_lowp+0x984>
.byte 197,228,84,192 // vandps %ymm0,%ymm3,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,13,248,239,1,0 // vbroadcastss 0x1eff8(%rip),%ymm1 # 32ac0 <_sk_srcover_rgba_8888_sse2_lowp+0x980>
+ .byte 196,226,125,24,13,8,240,1,0 // vbroadcastss 0x1f008(%rip),%ymm1 # 32ae4 <_sk_srcover_rgba_8888_sse2_lowp+0x988>
.byte 197,252,89,193 // vmulps %ymm1,%ymm0,%ymm0
- .byte 196,226,125,24,13,239,239,1,0 // vbroadcastss 0x1efef(%rip),%ymm1 # 32ac4 <_sk_srcover_rgba_8888_sse2_lowp+0x984>
+ .byte 196,226,125,24,13,255,239,1,0 // vbroadcastss 0x1efff(%rip),%ymm1 # 32ae8 <_sk_srcover_rgba_8888_sse2_lowp+0x98c>
.byte 197,228,84,201 // vandps %ymm1,%ymm3,%ymm1
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
- .byte 196,226,125,24,21,226,239,1,0 // vbroadcastss 0x1efe2(%rip),%ymm2 # 32ac8 <_sk_srcover_rgba_8888_sse2_lowp+0x988>
+ .byte 196,226,125,24,21,242,239,1,0 // vbroadcastss 0x1eff2(%rip),%ymm2 # 32aec <_sk_srcover_rgba_8888_sse2_lowp+0x990>
.byte 197,244,89,202 // vmulps %ymm2,%ymm1,%ymm1
- .byte 196,226,125,24,21,217,239,1,0 // vbroadcastss 0x1efd9(%rip),%ymm2 # 32acc <_sk_srcover_rgba_8888_sse2_lowp+0x98c>
+ .byte 196,226,125,24,21,233,239,1,0 // vbroadcastss 0x1efe9(%rip),%ymm2 # 32af0 <_sk_srcover_rgba_8888_sse2_lowp+0x994>
.byte 197,228,84,210 // vandps %ymm2,%ymm3,%ymm2
.byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
- .byte 196,98,125,24,5,204,239,1,0 // vbroadcastss 0x1efcc(%rip),%ymm8 # 32ad0 <_sk_srcover_rgba_8888_sse2_lowp+0x990>
+ .byte 196,98,125,24,5,220,239,1,0 // vbroadcastss 0x1efdc(%rip),%ymm8 # 32af4 <_sk_srcover_rgba_8888_sse2_lowp+0x998>
.byte 196,193,108,89,208 // vmulps %ymm8,%ymm2,%ymm2
- .byte 196,98,125,24,5,194,239,1,0 // vbroadcastss 0x1efc2(%rip),%ymm8 # 32ad4 <_sk_srcover_rgba_8888_sse2_lowp+0x994>
+ .byte 196,98,125,24,5,210,239,1,0 // vbroadcastss 0x1efd2(%rip),%ymm8 # 32af8 <_sk_srcover_rgba_8888_sse2_lowp+0x99c>
.byte 196,193,100,84,216 // vandps %ymm8,%ymm3,%ymm3
.byte 197,252,91,219 // vcvtdq2ps %ymm3,%ymm3
- .byte 196,98,125,24,5,180,239,1,0 // vbroadcastss 0x1efb4(%rip),%ymm8 # 32ad8 <_sk_srcover_rgba_8888_sse2_lowp+0x998>
+ .byte 196,98,125,24,5,196,239,1,0 // vbroadcastss 0x1efc4(%rip),%ymm8 # 32afc <_sk_srcover_rgba_8888_sse2_lowp+0x9a0>
.byte 196,193,100,89,216 // vmulps %ymm8,%ymm3,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 91 // pop %rbx
@@ -28646,7 +28658,7 @@ _sk_store_4444_avx:
.byte 77,1,192 // add %r8,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
- .byte 196,98,125,24,5,136,239,1,0 // vbroadcastss 0x1ef88(%rip),%ymm8 # 32adc <_sk_srcover_rgba_8888_sse2_lowp+0x99c>
+ .byte 196,98,125,24,5,152,239,1,0 // vbroadcastss 0x1ef98(%rip),%ymm8 # 32b00 <_sk_srcover_rgba_8888_sse2_lowp+0x9a4>
.byte 196,65,124,89,200 // vmulps %ymm8,%ymm0,%ymm9
.byte 196,65,125,91,201 // vcvtps2dq %ymm9,%ymm9
.byte 196,193,41,114,241,12 // vpslld $0xc,%xmm9,%xmm10
@@ -28673,7 +28685,7 @@ _sk_store_4444_avx:
.byte 196,67,125,25,193,1 // vextractf128 $0x1,%ymm8,%xmm9
.byte 196,66,57,43,193 // vpackusdw %xmm9,%xmm8,%xmm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,10 // jne 13bed <_sk_store_4444_avx+0xb8>
+ .byte 117,10 // jne 13c01 <_sk_store_4444_avx+0xb8>
.byte 196,1,122,127,4,88 // vmovdqu %xmm8,(%r8,%r11,2)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -28681,22 +28693,22 @@ _sk_store_4444_avx:
.byte 65,128,225,7 // and $0x7,%r9b
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,236 // ja 13be9 <_sk_store_4444_avx+0xb4>
+ .byte 119,236 // ja 13bfd <_sk_store_4444_avx+0xb4>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,68,0,0,0 // lea 0x44(%rip),%r10 # 13c4c <_sk_store_4444_avx+0x117>
+ .byte 76,141,21,68,0,0,0 // lea 0x44(%rip),%r10 # 13c60 <_sk_store_4444_avx+0x117>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 196,3,121,21,4,88,0 // vpextrw $0x0,%xmm8,(%r8,%r11,2)
- .byte 235,207 // jmp 13be9 <_sk_store_4444_avx+0xb4>
+ .byte 235,207 // jmp 13bfd <_sk_store_4444_avx+0xb4>
.byte 196,3,121,21,68,88,4,2 // vpextrw $0x2,%xmm8,0x4(%r8,%r11,2)
.byte 196,1,121,126,4,88 // vmovd %xmm8,(%r8,%r11,2)
- .byte 235,191 // jmp 13be9 <_sk_store_4444_avx+0xb4>
+ .byte 235,191 // jmp 13bfd <_sk_store_4444_avx+0xb4>
.byte 196,3,121,21,68,88,12,6 // vpextrw $0x6,%xmm8,0xc(%r8,%r11,2)
.byte 196,3,121,21,68,88,10,5 // vpextrw $0x5,%xmm8,0xa(%r8,%r11,2)
.byte 196,3,121,21,68,88,8,4 // vpextrw $0x4,%xmm8,0x8(%r8,%r11,2)
.byte 196,1,121,214,4,88 // vmovq %xmm8,(%r8,%r11,2)
- .byte 235,159 // jmp 13be9 <_sk_store_4444_avx+0xb4>
+ .byte 235,159 // jmp 13bfd <_sk_store_4444_avx+0xb4>
.byte 102,144 // xchg %ax,%ax
.byte 197,255,255 // (bad)
.byte 255,214 // callq *%rsi
@@ -28732,12 +28744,12 @@ _sk_load_8888_avx:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,135,0,0,0 // jne 13d0f <_sk_load_8888_avx+0xa7>
+ .byte 15,133,135,0,0,0 // jne 13d23 <_sk_load_8888_avx+0xa7>
.byte 196,1,125,16,12,152 // vmovupd (%r8,%r11,4),%ymm9
- .byte 197,125,40,21,74,235,1,0 // vmovapd 0x1eb4a(%rip),%ymm10 # 327e0 <_sk_srcover_rgba_8888_sse2_lowp+0x6a0>
+ .byte 197,125,40,21,86,235,1,0 // vmovapd 0x1eb56(%rip),%ymm10 # 32800 <_sk_srcover_rgba_8888_sse2_lowp+0x6a4>
.byte 196,193,53,84,194 // vandpd %ymm10,%ymm9,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,98,125,24,5,148,237,1,0 // vbroadcastss 0x1ed94(%rip),%ymm8 # 32a3c <_sk_srcover_rgba_8888_sse2_lowp+0x8fc>
+ .byte 196,98,125,24,5,164,237,1,0 // vbroadcastss 0x1eda4(%rip),%ymm8 # 32a60 <_sk_srcover_rgba_8888_sse2_lowp+0x904>
.byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
.byte 196,193,113,114,209,8 // vpsrld $0x8,%xmm9,%xmm1
.byte 196,99,125,25,203,1 // vextractf128 $0x1,%ymm9,%xmm3
@@ -28764,21 +28776,21 @@ _sk_load_8888_avx:
.byte 196,65,52,87,201 // vxorps %ymm9,%ymm9,%ymm9
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 15,135,102,255,255,255 // ja 13c8e <_sk_load_8888_avx+0x26>
+ .byte 15,135,102,255,255,255 // ja 13ca2 <_sk_load_8888_avx+0x26>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,145,0,0,0 // lea 0x91(%rip),%r10 # 13dc4 <_sk_load_8888_avx+0x15c>
+ .byte 76,141,21,145,0,0,0 // lea 0x91(%rip),%r10 # 13dd8 <_sk_load_8888_avx+0x15c>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 196,1,122,16,12,152 // vmovss (%r8,%r11,4),%xmm9
- .byte 233,71,255,255,255 // jmpq 13c8e <_sk_load_8888_avx+0x26>
+ .byte 233,71,255,255,255 // jmpq 13ca2 <_sk_load_8888_avx+0x26>
.byte 196,129,121,110,68,152,8 // vmovd 0x8(%r8,%r11,4),%xmm0
.byte 197,249,112,192,68 // vpshufd $0x44,%xmm0,%xmm0
.byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
.byte 196,99,117,12,200,4 // vblendps $0x4,%ymm0,%ymm1,%ymm9
.byte 196,129,123,16,4,152 // vmovsd (%r8,%r11,4),%xmm0
.byte 196,99,53,13,200,1 // vblendpd $0x1,%ymm0,%ymm9,%ymm9
- .byte 233,32,255,255,255 // jmpq 13c8e <_sk_load_8888_avx+0x26>
+ .byte 233,32,255,255,255 // jmpq 13ca2 <_sk_load_8888_avx+0x26>
.byte 196,129,121,110,68,152,24 // vmovd 0x18(%r8,%r11,4),%xmm0
.byte 197,249,112,192,68 // vpshufd $0x44,%xmm0,%xmm0
.byte 196,227,125,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm0,%ymm0
@@ -28792,9 +28804,9 @@ _sk_load_8888_avx:
.byte 196,99,53,24,200,1 // vinsertf128 $0x1,%xmm0,%ymm9,%ymm9
.byte 196,129,121,16,4,152 // vmovupd (%r8,%r11,4),%xmm0
.byte 196,67,125,13,201,12 // vblendpd $0xc,%ymm9,%ymm0,%ymm9
- .byte 233,203,254,255,255 // jmpq 13c8e <_sk_load_8888_avx+0x26>
+ .byte 233,203,254,255,255 // jmpq 13ca2 <_sk_load_8888_avx+0x26>
.byte 144 // nop
- .byte 120,255 // js 13dc5 <_sk_load_8888_avx+0x15d>
+ .byte 120,255 // js 13dd9 <_sk_load_8888_avx+0x15d>
.byte 255 // (bad)
.byte 255,153,255,255,255,131 // lcall *-0x7c000001(%rcx)
.byte 255 // (bad)
@@ -28827,12 +28839,12 @@ _sk_load_8888_dst_avx:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,135,0,0,0 // jne 13e87 <_sk_load_8888_dst_avx+0xa7>
+ .byte 15,133,135,0,0,0 // jne 13e9b <_sk_load_8888_dst_avx+0xa7>
.byte 196,1,125,16,12,152 // vmovupd (%r8,%r11,4),%ymm9
- .byte 197,125,40,21,242,233,1,0 // vmovapd 0x1e9f2(%rip),%ymm10 # 32800 <_sk_srcover_rgba_8888_sse2_lowp+0x6c0>
+ .byte 197,125,40,21,254,233,1,0 // vmovapd 0x1e9fe(%rip),%ymm10 # 32820 <_sk_srcover_rgba_8888_sse2_lowp+0x6c4>
.byte 196,193,53,84,226 // vandpd %ymm10,%ymm9,%ymm4
.byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
- .byte 196,98,125,24,5,28,236,1,0 // vbroadcastss 0x1ec1c(%rip),%ymm8 # 32a3c <_sk_srcover_rgba_8888_sse2_lowp+0x8fc>
+ .byte 196,98,125,24,5,44,236,1,0 // vbroadcastss 0x1ec2c(%rip),%ymm8 # 32a60 <_sk_srcover_rgba_8888_sse2_lowp+0x904>
.byte 196,193,92,89,224 // vmulps %ymm8,%ymm4,%ymm4
.byte 196,193,81,114,209,8 // vpsrld $0x8,%xmm9,%xmm5
.byte 196,99,125,25,207,1 // vextractf128 $0x1,%ymm9,%xmm7
@@ -28859,21 +28871,21 @@ _sk_load_8888_dst_avx:
.byte 196,65,52,87,201 // vxorps %ymm9,%ymm9,%ymm9
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 15,135,102,255,255,255 // ja 13e06 <_sk_load_8888_dst_avx+0x26>
+ .byte 15,135,102,255,255,255 // ja 13e1a <_sk_load_8888_dst_avx+0x26>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,145,0,0,0 // lea 0x91(%rip),%r10 # 13f3c <_sk_load_8888_dst_avx+0x15c>
+ .byte 76,141,21,145,0,0,0 // lea 0x91(%rip),%r10 # 13f50 <_sk_load_8888_dst_avx+0x15c>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 196,1,122,16,12,152 // vmovss (%r8,%r11,4),%xmm9
- .byte 233,71,255,255,255 // jmpq 13e06 <_sk_load_8888_dst_avx+0x26>
+ .byte 233,71,255,255,255 // jmpq 13e1a <_sk_load_8888_dst_avx+0x26>
.byte 196,129,121,110,100,152,8 // vmovd 0x8(%r8,%r11,4),%xmm4
.byte 197,249,112,228,68 // vpshufd $0x44,%xmm4,%xmm4
.byte 197,212,87,237 // vxorps %ymm5,%ymm5,%ymm5
.byte 196,99,85,12,204,4 // vblendps $0x4,%ymm4,%ymm5,%ymm9
.byte 196,129,123,16,36,152 // vmovsd (%r8,%r11,4),%xmm4
.byte 196,99,53,13,204,1 // vblendpd $0x1,%ymm4,%ymm9,%ymm9
- .byte 233,32,255,255,255 // jmpq 13e06 <_sk_load_8888_dst_avx+0x26>
+ .byte 233,32,255,255,255 // jmpq 13e1a <_sk_load_8888_dst_avx+0x26>
.byte 196,129,121,110,100,152,24 // vmovd 0x18(%r8,%r11,4),%xmm4
.byte 197,249,112,228,68 // vpshufd $0x44,%xmm4,%xmm4
.byte 196,227,125,24,228,1 // vinsertf128 $0x1,%xmm4,%ymm0,%ymm4
@@ -28887,9 +28899,9 @@ _sk_load_8888_dst_avx:
.byte 196,99,53,24,204,1 // vinsertf128 $0x1,%xmm4,%ymm9,%ymm9
.byte 196,129,121,16,36,152 // vmovupd (%r8,%r11,4),%xmm4
.byte 196,67,93,13,201,12 // vblendpd $0xc,%ymm9,%ymm4,%ymm9
- .byte 233,203,254,255,255 // jmpq 13e06 <_sk_load_8888_dst_avx+0x26>
+ .byte 233,203,254,255,255 // jmpq 13e1a <_sk_load_8888_dst_avx+0x26>
.byte 144 // nop
- .byte 120,255 // js 13f3d <_sk_load_8888_dst_avx+0x15d>
+ .byte 120,255 // js 13f51 <_sk_load_8888_dst_avx+0x15d>
.byte 255 // (bad)
.byte 255,153,255,255,255,131 // lcall *-0x7c000001(%rcx)
.byte 255 // (bad)
@@ -28967,10 +28979,10 @@ _sk_gather_8888_avx:
.byte 196,131,121,34,4,176,2 // vpinsrd $0x2,(%r8,%r14,4),%xmm0,%xmm0
.byte 196,195,121,34,28,152,3 // vpinsrd $0x3,(%r8,%rbx,4),%xmm0,%xmm3
.byte 196,227,61,24,195,1 // vinsertf128 $0x1,%xmm3,%ymm8,%ymm0
- .byte 197,124,40,21,196,231,1,0 // vmovaps 0x1e7c4(%rip),%ymm10 # 32820 <_sk_srcover_rgba_8888_sse2_lowp+0x6e0>
+ .byte 197,124,40,21,208,231,1,0 // vmovaps 0x1e7d0(%rip),%ymm10 # 32840 <_sk_srcover_rgba_8888_sse2_lowp+0x6e4>
.byte 196,193,124,84,194 // vandps %ymm10,%ymm0,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,98,125,24,13,206,233,1,0 // vbroadcastss 0x1e9ce(%rip),%ymm9 # 32a3c <_sk_srcover_rgba_8888_sse2_lowp+0x8fc>
+ .byte 196,98,125,24,13,222,233,1,0 // vbroadcastss 0x1e9de(%rip),%ymm9 # 32a60 <_sk_srcover_rgba_8888_sse2_lowp+0x904>
.byte 196,193,124,89,193 // vmulps %ymm9,%ymm0,%ymm0
.byte 196,193,113,114,208,8 // vpsrld $0x8,%xmm8,%xmm1
.byte 197,233,114,211,8 // vpsrld $0x8,%xmm3,%xmm2
@@ -29007,7 +29019,7 @@ _sk_store_8888_avx:
.byte 73,193,224,2 // shl $0x2,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
- .byte 196,98,125,24,5,254,232,1,0 // vbroadcastss 0x1e8fe(%rip),%ymm8 # 329f4 <_sk_srcover_rgba_8888_sse2_lowp+0x8b4>
+ .byte 196,98,125,24,5,10,233,1,0 // vbroadcastss 0x1e90a(%rip),%ymm8 # 32a14 <_sk_srcover_rgba_8888_sse2_lowp+0x8b8>
.byte 196,65,124,89,200 // vmulps %ymm8,%ymm0,%ymm9
.byte 196,65,125,91,201 // vcvtps2dq %ymm9,%ymm9
.byte 196,65,116,89,208 // vmulps %ymm8,%ymm1,%ymm10
@@ -29032,7 +29044,7 @@ _sk_store_8888_avx:
.byte 196,65,45,86,192 // vorpd %ymm8,%ymm10,%ymm8
.byte 196,65,53,86,192 // vorpd %ymm8,%ymm9,%ymm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,10 // jne 14184 <_sk_store_8888_avx+0xae>
+ .byte 117,10 // jne 14198 <_sk_store_8888_avx+0xae>
.byte 196,1,124,17,4,152 // vmovups %ymm8,(%r8,%r11,4)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -29040,17 +29052,17 @@ _sk_store_8888_avx:
.byte 65,128,225,7 // and $0x7,%r9b
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,236 // ja 14180 <_sk_store_8888_avx+0xaa>
+ .byte 119,236 // ja 14194 <_sk_store_8888_avx+0xaa>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,85,0,0,0 // lea 0x55(%rip),%r10 # 141f4 <_sk_store_8888_avx+0x11e>
+ .byte 76,141,21,85,0,0,0 // lea 0x55(%rip),%r10 # 14208 <_sk_store_8888_avx+0x11e>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 196,1,121,126,4,152 // vmovd %xmm8,(%r8,%r11,4)
- .byte 235,208 // jmp 14180 <_sk_store_8888_avx+0xaa>
+ .byte 235,208 // jmp 14194 <_sk_store_8888_avx+0xaa>
.byte 196,3,121,22,68,152,8,2 // vpextrd $0x2,%xmm8,0x8(%r8,%r11,4)
.byte 196,1,121,214,4,152 // vmovq %xmm8,(%r8,%r11,4)
- .byte 235,192 // jmp 14180 <_sk_store_8888_avx+0xaa>
+ .byte 235,192 // jmp 14194 <_sk_store_8888_avx+0xaa>
.byte 196,67,125,25,193,1 // vextractf128 $0x1,%ymm8,%xmm9
.byte 196,3,121,22,76,152,24,2 // vpextrd $0x2,%xmm9,0x18(%r8,%r11,4)
.byte 196,67,125,25,193,1 // vextractf128 $0x1,%ymm8,%xmm9
@@ -29058,7 +29070,7 @@ _sk_store_8888_avx:
.byte 196,67,125,25,193,1 // vextractf128 $0x1,%ymm8,%xmm9
.byte 196,1,122,17,76,152,16 // vmovss %xmm9,0x10(%r8,%r11,4)
.byte 196,1,121,17,4,152 // vmovupd %xmm8,(%r8,%r11,4)
- .byte 235,143 // jmp 14180 <_sk_store_8888_avx+0xaa>
+ .byte 235,143 // jmp 14194 <_sk_store_8888_avx+0xaa>
.byte 15,31,0 // nopl (%rax)
.byte 180,255 // mov $0xff,%ah
.byte 255 // (bad)
@@ -29070,7 +29082,7 @@ _sk_store_8888_avx:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 232,255,255,255,218 // callq ffffffffdb014208 <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffdafe20c8>
+ .byte 232,255,255,255,218 // callq ffffffffdb01421c <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffdafe20c0>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,204 // dec %esp
@@ -29090,12 +29102,12 @@ _sk_load_bgra_avx:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,135,0,0,0 // jne 142b7 <_sk_load_bgra_avx+0xa7>
+ .byte 15,133,135,0,0,0 // jne 142cb <_sk_load_bgra_avx+0xa7>
.byte 196,1,125,16,12,152 // vmovupd (%r8,%r11,4),%ymm9
- .byte 197,125,40,21,2,230,1,0 // vmovapd 0x1e602(%rip),%ymm10 # 32840 <_sk_srcover_rgba_8888_sse2_lowp+0x700>
+ .byte 197,125,40,21,14,230,1,0 // vmovapd 0x1e60e(%rip),%ymm10 # 32860 <_sk_srcover_rgba_8888_sse2_lowp+0x704>
.byte 196,193,53,84,202 // vandpd %ymm10,%ymm9,%ymm1
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
- .byte 196,98,125,24,5,236,231,1,0 // vbroadcastss 0x1e7ec(%rip),%ymm8 # 32a3c <_sk_srcover_rgba_8888_sse2_lowp+0x8fc>
+ .byte 196,98,125,24,5,252,231,1,0 // vbroadcastss 0x1e7fc(%rip),%ymm8 # 32a60 <_sk_srcover_rgba_8888_sse2_lowp+0x904>
.byte 196,193,116,89,208 // vmulps %ymm8,%ymm1,%ymm2
.byte 196,193,113,114,209,8 // vpsrld $0x8,%xmm9,%xmm1
.byte 196,99,125,25,203,1 // vextractf128 $0x1,%ymm9,%xmm3
@@ -29122,21 +29134,21 @@ _sk_load_bgra_avx:
.byte 196,65,52,87,201 // vxorps %ymm9,%ymm9,%ymm9
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 15,135,102,255,255,255 // ja 14236 <_sk_load_bgra_avx+0x26>
+ .byte 15,135,102,255,255,255 // ja 1424a <_sk_load_bgra_avx+0x26>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,145,0,0,0 // lea 0x91(%rip),%r10 # 1436c <_sk_load_bgra_avx+0x15c>
+ .byte 76,141,21,145,0,0,0 // lea 0x91(%rip),%r10 # 14380 <_sk_load_bgra_avx+0x15c>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 196,1,122,16,12,152 // vmovss (%r8,%r11,4),%xmm9
- .byte 233,71,255,255,255 // jmpq 14236 <_sk_load_bgra_avx+0x26>
+ .byte 233,71,255,255,255 // jmpq 1424a <_sk_load_bgra_avx+0x26>
.byte 196,129,121,110,68,152,8 // vmovd 0x8(%r8,%r11,4),%xmm0
.byte 197,249,112,192,68 // vpshufd $0x44,%xmm0,%xmm0
.byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
.byte 196,99,117,12,200,4 // vblendps $0x4,%ymm0,%ymm1,%ymm9
.byte 196,129,123,16,4,152 // vmovsd (%r8,%r11,4),%xmm0
.byte 196,99,53,13,200,1 // vblendpd $0x1,%ymm0,%ymm9,%ymm9
- .byte 233,32,255,255,255 // jmpq 14236 <_sk_load_bgra_avx+0x26>
+ .byte 233,32,255,255,255 // jmpq 1424a <_sk_load_bgra_avx+0x26>
.byte 196,129,121,110,68,152,24 // vmovd 0x18(%r8,%r11,4),%xmm0
.byte 197,249,112,192,68 // vpshufd $0x44,%xmm0,%xmm0
.byte 196,227,125,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm0,%ymm0
@@ -29150,9 +29162,9 @@ _sk_load_bgra_avx:
.byte 196,99,53,24,200,1 // vinsertf128 $0x1,%xmm0,%ymm9,%ymm9
.byte 196,129,121,16,4,152 // vmovupd (%r8,%r11,4),%xmm0
.byte 196,67,125,13,201,12 // vblendpd $0xc,%ymm9,%ymm0,%ymm9
- .byte 233,203,254,255,255 // jmpq 14236 <_sk_load_bgra_avx+0x26>
+ .byte 233,203,254,255,255 // jmpq 1424a <_sk_load_bgra_avx+0x26>
.byte 144 // nop
- .byte 120,255 // js 1436d <_sk_load_bgra_avx+0x15d>
+ .byte 120,255 // js 14381 <_sk_load_bgra_avx+0x15d>
.byte 255 // (bad)
.byte 255,153,255,255,255,131 // lcall *-0x7c000001(%rcx)
.byte 255 // (bad)
@@ -29185,12 +29197,12 @@ _sk_load_bgra_dst_avx:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,135,0,0,0 // jne 1442f <_sk_load_bgra_dst_avx+0xa7>
+ .byte 15,133,135,0,0,0 // jne 14443 <_sk_load_bgra_dst_avx+0xa7>
.byte 196,1,125,16,12,152 // vmovupd (%r8,%r11,4),%ymm9
- .byte 197,125,40,21,170,228,1,0 // vmovapd 0x1e4aa(%rip),%ymm10 # 32860 <_sk_srcover_rgba_8888_sse2_lowp+0x720>
+ .byte 197,125,40,21,182,228,1,0 // vmovapd 0x1e4b6(%rip),%ymm10 # 32880 <_sk_srcover_rgba_8888_sse2_lowp+0x724>
.byte 196,193,53,84,234 // vandpd %ymm10,%ymm9,%ymm5
.byte 197,252,91,237 // vcvtdq2ps %ymm5,%ymm5
- .byte 196,98,125,24,5,116,230,1,0 // vbroadcastss 0x1e674(%rip),%ymm8 # 32a3c <_sk_srcover_rgba_8888_sse2_lowp+0x8fc>
+ .byte 196,98,125,24,5,132,230,1,0 // vbroadcastss 0x1e684(%rip),%ymm8 # 32a60 <_sk_srcover_rgba_8888_sse2_lowp+0x904>
.byte 196,193,84,89,240 // vmulps %ymm8,%ymm5,%ymm6
.byte 196,193,81,114,209,8 // vpsrld $0x8,%xmm9,%xmm5
.byte 196,99,125,25,207,1 // vextractf128 $0x1,%ymm9,%xmm7
@@ -29217,21 +29229,21 @@ _sk_load_bgra_dst_avx:
.byte 196,65,52,87,201 // vxorps %ymm9,%ymm9,%ymm9
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 15,135,102,255,255,255 // ja 143ae <_sk_load_bgra_dst_avx+0x26>
+ .byte 15,135,102,255,255,255 // ja 143c2 <_sk_load_bgra_dst_avx+0x26>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,145,0,0,0 // lea 0x91(%rip),%r10 # 144e4 <_sk_load_bgra_dst_avx+0x15c>
+ .byte 76,141,21,145,0,0,0 // lea 0x91(%rip),%r10 # 144f8 <_sk_load_bgra_dst_avx+0x15c>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 196,1,122,16,12,152 // vmovss (%r8,%r11,4),%xmm9
- .byte 233,71,255,255,255 // jmpq 143ae <_sk_load_bgra_dst_avx+0x26>
+ .byte 233,71,255,255,255 // jmpq 143c2 <_sk_load_bgra_dst_avx+0x26>
.byte 196,129,121,110,100,152,8 // vmovd 0x8(%r8,%r11,4),%xmm4
.byte 197,249,112,228,68 // vpshufd $0x44,%xmm4,%xmm4
.byte 197,212,87,237 // vxorps %ymm5,%ymm5,%ymm5
.byte 196,99,85,12,204,4 // vblendps $0x4,%ymm4,%ymm5,%ymm9
.byte 196,129,123,16,36,152 // vmovsd (%r8,%r11,4),%xmm4
.byte 196,99,53,13,204,1 // vblendpd $0x1,%ymm4,%ymm9,%ymm9
- .byte 233,32,255,255,255 // jmpq 143ae <_sk_load_bgra_dst_avx+0x26>
+ .byte 233,32,255,255,255 // jmpq 143c2 <_sk_load_bgra_dst_avx+0x26>
.byte 196,129,121,110,100,152,24 // vmovd 0x18(%r8,%r11,4),%xmm4
.byte 197,249,112,228,68 // vpshufd $0x44,%xmm4,%xmm4
.byte 196,227,125,24,228,1 // vinsertf128 $0x1,%xmm4,%ymm0,%ymm4
@@ -29245,9 +29257,9 @@ _sk_load_bgra_dst_avx:
.byte 196,99,53,24,204,1 // vinsertf128 $0x1,%xmm4,%ymm9,%ymm9
.byte 196,129,121,16,36,152 // vmovupd (%r8,%r11,4),%xmm4
.byte 196,67,93,13,201,12 // vblendpd $0xc,%ymm9,%ymm4,%ymm9
- .byte 233,203,254,255,255 // jmpq 143ae <_sk_load_bgra_dst_avx+0x26>
+ .byte 233,203,254,255,255 // jmpq 143c2 <_sk_load_bgra_dst_avx+0x26>
.byte 144 // nop
- .byte 120,255 // js 144e5 <_sk_load_bgra_dst_avx+0x15d>
+ .byte 120,255 // js 144f9 <_sk_load_bgra_dst_avx+0x15d>
.byte 255 // (bad)
.byte 255,153,255,255,255,131 // lcall *-0x7c000001(%rcx)
.byte 255 // (bad)
@@ -29325,10 +29337,10 @@ _sk_gather_bgra_avx:
.byte 196,131,121,34,4,176,2 // vpinsrd $0x2,(%r8,%r14,4),%xmm0,%xmm0
.byte 196,195,121,34,28,152,3 // vpinsrd $0x3,(%r8,%rbx,4),%xmm0,%xmm3
.byte 196,227,61,24,195,1 // vinsertf128 $0x1,%xmm3,%ymm8,%ymm0
- .byte 197,124,40,13,124,226,1,0 // vmovaps 0x1e27c(%rip),%ymm9 # 32880 <_sk_srcover_rgba_8888_sse2_lowp+0x740>
+ .byte 197,124,40,13,136,226,1,0 // vmovaps 0x1e288(%rip),%ymm9 # 328a0 <_sk_srcover_rgba_8888_sse2_lowp+0x744>
.byte 196,193,124,84,193 // vandps %ymm9,%ymm0,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,98,125,24,21,38,228,1,0 // vbroadcastss 0x1e426(%rip),%ymm10 # 32a3c <_sk_srcover_rgba_8888_sse2_lowp+0x8fc>
+ .byte 196,98,125,24,21,54,228,1,0 // vbroadcastss 0x1e436(%rip),%ymm10 # 32a60 <_sk_srcover_rgba_8888_sse2_lowp+0x904>
.byte 196,193,124,89,210 // vmulps %ymm10,%ymm0,%ymm2
.byte 196,193,121,114,208,8 // vpsrld $0x8,%xmm8,%xmm0
.byte 197,241,114,211,8 // vpsrld $0x8,%xmm3,%xmm1
@@ -29365,7 +29377,7 @@ _sk_store_bgra_avx:
.byte 73,193,224,2 // shl $0x2,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
- .byte 196,98,125,24,5,86,227,1,0 // vbroadcastss 0x1e356(%rip),%ymm8 # 329f4 <_sk_srcover_rgba_8888_sse2_lowp+0x8b4>
+ .byte 196,98,125,24,5,98,227,1,0 // vbroadcastss 0x1e362(%rip),%ymm8 # 32a14 <_sk_srcover_rgba_8888_sse2_lowp+0x8b8>
.byte 196,65,108,89,200 // vmulps %ymm8,%ymm2,%ymm9
.byte 196,65,125,91,201 // vcvtps2dq %ymm9,%ymm9
.byte 196,65,116,89,208 // vmulps %ymm8,%ymm1,%ymm10
@@ -29390,7 +29402,7 @@ _sk_store_bgra_avx:
.byte 196,65,45,86,192 // vorpd %ymm8,%ymm10,%ymm8
.byte 196,65,53,86,192 // vorpd %ymm8,%ymm9,%ymm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,10 // jne 1472c <_sk_store_bgra_avx+0xae>
+ .byte 117,10 // jne 14740 <_sk_store_bgra_avx+0xae>
.byte 196,1,124,17,4,152 // vmovups %ymm8,(%r8,%r11,4)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -29398,17 +29410,17 @@ _sk_store_bgra_avx:
.byte 65,128,225,7 // and $0x7,%r9b
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,236 // ja 14728 <_sk_store_bgra_avx+0xaa>
+ .byte 119,236 // ja 1473c <_sk_store_bgra_avx+0xaa>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,85,0,0,0 // lea 0x55(%rip),%r10 # 1479c <_sk_store_bgra_avx+0x11e>
+ .byte 76,141,21,85,0,0,0 // lea 0x55(%rip),%r10 # 147b0 <_sk_store_bgra_avx+0x11e>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 196,1,121,126,4,152 // vmovd %xmm8,(%r8,%r11,4)
- .byte 235,208 // jmp 14728 <_sk_store_bgra_avx+0xaa>
+ .byte 235,208 // jmp 1473c <_sk_store_bgra_avx+0xaa>
.byte 196,3,121,22,68,152,8,2 // vpextrd $0x2,%xmm8,0x8(%r8,%r11,4)
.byte 196,1,121,214,4,152 // vmovq %xmm8,(%r8,%r11,4)
- .byte 235,192 // jmp 14728 <_sk_store_bgra_avx+0xaa>
+ .byte 235,192 // jmp 1473c <_sk_store_bgra_avx+0xaa>
.byte 196,67,125,25,193,1 // vextractf128 $0x1,%ymm8,%xmm9
.byte 196,3,121,22,76,152,24,2 // vpextrd $0x2,%xmm9,0x18(%r8,%r11,4)
.byte 196,67,125,25,193,1 // vextractf128 $0x1,%ymm8,%xmm9
@@ -29416,7 +29428,7 @@ _sk_store_bgra_avx:
.byte 196,67,125,25,193,1 // vextractf128 $0x1,%ymm8,%xmm9
.byte 196,1,122,17,76,152,16 // vmovss %xmm9,0x10(%r8,%r11,4)
.byte 196,1,121,17,4,152 // vmovupd %xmm8,(%r8,%r11,4)
- .byte 235,143 // jmp 14728 <_sk_store_bgra_avx+0xaa>
+ .byte 235,143 // jmp 1473c <_sk_store_bgra_avx+0xaa>
.byte 15,31,0 // nopl (%rax)
.byte 180,255 // mov $0xff,%ah
.byte 255 // (bad)
@@ -29428,7 +29440,7 @@ _sk_store_bgra_avx:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 232,255,255,255,218 // callq ffffffffdb0147b0 <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffdafe2670>
+ .byte 232,255,255,255,218 // callq ffffffffdb0147c4 <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffdafe2668>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,204 // dec %esp
@@ -29453,7 +29465,7 @@ _sk_load_f16_avx:
.byte 197,252,17,116,36,192 // vmovups %ymm6,-0x40(%rsp)
.byte 197,252,17,108,36,160 // vmovups %ymm5,-0x60(%rsp)
.byte 197,252,17,100,36,128 // vmovups %ymm4,-0x80(%rsp)
- .byte 15,133,31,2,0,0 // jne 14a13 <_sk_load_f16_avx+0x25b>
+ .byte 15,133,31,2,0,0 // jne 14a27 <_sk_load_f16_avx+0x25b>
.byte 196,65,121,16,4,192 // vmovupd (%r8,%rax,8),%xmm8
.byte 196,193,121,16,84,192,16 // vmovupd 0x10(%r8,%rax,8),%xmm2
.byte 196,193,121,16,92,192,32 // vmovupd 0x20(%r8,%rax,8),%xmm3
@@ -29470,14 +29482,14 @@ _sk_load_f16_avx:
.byte 196,226,121,51,200 // vpmovzxwd %xmm0,%xmm1
.byte 197,249,112,192,78 // vpshufd $0x4e,%xmm0,%xmm0
.byte 196,226,121,51,192 // vpmovzxwd %xmm0,%xmm0
- .byte 197,123,18,21,107,235,1,0 // vmovddup 0x1eb6b(%rip),%xmm10 # 333b8 <_sk_srcover_rgba_8888_sse2_lowp+0x1278>
+ .byte 197,123,18,21,151,235,1,0 // vmovddup 0x1eb97(%rip),%xmm10 # 333f8 <_sk_srcover_rgba_8888_sse2_lowp+0x129c>
.byte 196,193,121,219,218 // vpand %xmm10,%xmm0,%xmm3
- .byte 196,98,121,24,29,241,226,1,0 // vbroadcastss 0x1e2f1(%rip),%xmm11 # 32b4c <_sk_srcover_rgba_8888_sse2_lowp+0xa0c>
+ .byte 196,98,121,24,29,1,227,1,0 // vbroadcastss 0x1e301(%rip),%xmm11 # 32b70 <_sk_srcover_rgba_8888_sse2_lowp+0xa14>
.byte 197,33,102,227 // vpcmpgtd %xmm3,%xmm11,%xmm12
.byte 196,193,113,219,210 // vpand %xmm10,%xmm1,%xmm2
.byte 197,33,102,234 // vpcmpgtd %xmm2,%xmm11,%xmm13
.byte 196,195,21,24,252,1 // vinsertf128 $0x1,%xmm12,%ymm13,%ymm7
- .byte 197,123,18,37,74,235,1,0 // vmovddup 0x1eb4a(%rip),%xmm12 # 333c0 <_sk_srcover_rgba_8888_sse2_lowp+0x1280>
+ .byte 197,123,18,37,118,235,1,0 // vmovddup 0x1eb76(%rip),%xmm12 # 33400 <_sk_srcover_rgba_8888_sse2_lowp+0x12a4>
.byte 196,193,113,219,204 // vpand %xmm12,%xmm1,%xmm1
.byte 197,241,114,241,16 // vpslld $0x10,%xmm1,%xmm1
.byte 196,193,121,219,196 // vpand %xmm12,%xmm0,%xmm0
@@ -29486,7 +29498,7 @@ _sk_load_f16_avx:
.byte 197,241,235,202 // vpor %xmm2,%xmm1,%xmm1
.byte 197,233,114,243,13 // vpslld $0xd,%xmm3,%xmm2
.byte 197,249,235,194 // vpor %xmm2,%xmm0,%xmm0
- .byte 196,226,121,24,29,171,226,1,0 // vbroadcastss 0x1e2ab(%rip),%xmm3 # 32b50 <_sk_srcover_rgba_8888_sse2_lowp+0xa10>
+ .byte 196,226,121,24,29,187,226,1,0 // vbroadcastss 0x1e2bb(%rip),%xmm3 # 32b74 <_sk_srcover_rgba_8888_sse2_lowp+0xa18>
.byte 197,249,254,195 // vpaddd %xmm3,%xmm0,%xmm0
.byte 197,241,254,203 // vpaddd %xmm3,%xmm1,%xmm1
.byte 196,227,117,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm1,%ymm0
@@ -29565,29 +29577,29 @@ _sk_load_f16_avx:
.byte 196,65,123,16,4,192 // vmovsd (%r8,%rax,8),%xmm8
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 116,85 // je 14a79 <_sk_load_f16_avx+0x2c1>
+ .byte 116,85 // je 14a8d <_sk_load_f16_avx+0x2c1>
.byte 196,65,57,22,68,192,8 // vmovhpd 0x8(%r8,%rax,8),%xmm8,%xmm8
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,72 // jb 14a79 <_sk_load_f16_avx+0x2c1>
+ .byte 114,72 // jb 14a8d <_sk_load_f16_avx+0x2c1>
.byte 196,193,123,16,84,192,16 // vmovsd 0x10(%r8,%rax,8),%xmm2
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 116,72 // je 14a86 <_sk_load_f16_avx+0x2ce>
+ .byte 116,72 // je 14a9a <_sk_load_f16_avx+0x2ce>
.byte 196,193,105,22,84,192,24 // vmovhpd 0x18(%r8,%rax,8),%xmm2,%xmm2
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 114,59 // jb 14a86 <_sk_load_f16_avx+0x2ce>
+ .byte 114,59 // jb 14a9a <_sk_load_f16_avx+0x2ce>
.byte 196,193,123,16,92,192,32 // vmovsd 0x20(%r8,%rax,8),%xmm3
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 15,132,179,253,255,255 // je 1480f <_sk_load_f16_avx+0x57>
+ .byte 15,132,179,253,255,255 // je 14823 <_sk_load_f16_avx+0x57>
.byte 196,193,97,22,92,192,40 // vmovhpd 0x28(%r8,%rax,8),%xmm3,%xmm3
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 15,130,162,253,255,255 // jb 1480f <_sk_load_f16_avx+0x57>
+ .byte 15,130,162,253,255,255 // jb 14823 <_sk_load_f16_avx+0x57>
.byte 196,65,122,126,76,192,48 // vmovq 0x30(%r8,%rax,8),%xmm9
- .byte 233,150,253,255,255 // jmpq 1480f <_sk_load_f16_avx+0x57>
+ .byte 233,150,253,255,255 // jmpq 14823 <_sk_load_f16_avx+0x57>
.byte 197,225,87,219 // vxorpd %xmm3,%xmm3,%xmm3
.byte 197,233,87,210 // vxorpd %xmm2,%xmm2,%xmm2
- .byte 233,137,253,255,255 // jmpq 1480f <_sk_load_f16_avx+0x57>
+ .byte 233,137,253,255,255 // jmpq 14823 <_sk_load_f16_avx+0x57>
.byte 197,225,87,219 // vxorpd %xmm3,%xmm3,%xmm3
- .byte 233,128,253,255,255 // jmpq 1480f <_sk_load_f16_avx+0x57>
+ .byte 233,128,253,255,255 // jmpq 14823 <_sk_load_f16_avx+0x57>
HIDDEN _sk_load_f16_dst_avx
.globl _sk_load_f16_dst_avx
@@ -29606,7 +29618,7 @@ _sk_load_f16_dst_avx:
.byte 197,252,17,84,36,192 // vmovups %ymm2,-0x40(%rsp)
.byte 197,252,17,76,36,160 // vmovups %ymm1,-0x60(%rsp)
.byte 197,252,17,68,36,128 // vmovups %ymm0,-0x80(%rsp)
- .byte 15,133,31,2,0,0 // jne 14cea <_sk_load_f16_dst_avx+0x25b>
+ .byte 15,133,31,2,0,0 // jne 14cfe <_sk_load_f16_dst_avx+0x25b>
.byte 196,65,121,16,4,192 // vmovupd (%r8,%rax,8),%xmm8
.byte 196,193,121,16,116,192,16 // vmovupd 0x10(%r8,%rax,8),%xmm6
.byte 196,193,121,16,124,192,32 // vmovupd 0x20(%r8,%rax,8),%xmm7
@@ -29623,14 +29635,14 @@ _sk_load_f16_dst_avx:
.byte 196,226,121,51,236 // vpmovzxwd %xmm4,%xmm5
.byte 197,249,112,228,78 // vpshufd $0x4e,%xmm4,%xmm4
.byte 196,226,121,51,228 // vpmovzxwd %xmm4,%xmm4
- .byte 197,123,18,21,148,232,1,0 // vmovddup 0x1e894(%rip),%xmm10 # 333b8 <_sk_srcover_rgba_8888_sse2_lowp+0x1278>
+ .byte 197,123,18,21,192,232,1,0 // vmovddup 0x1e8c0(%rip),%xmm10 # 333f8 <_sk_srcover_rgba_8888_sse2_lowp+0x129c>
.byte 196,193,89,219,250 // vpand %xmm10,%xmm4,%xmm7
- .byte 196,98,121,24,29,26,224,1,0 // vbroadcastss 0x1e01a(%rip),%xmm11 # 32b4c <_sk_srcover_rgba_8888_sse2_lowp+0xa0c>
+ .byte 196,98,121,24,29,42,224,1,0 // vbroadcastss 0x1e02a(%rip),%xmm11 # 32b70 <_sk_srcover_rgba_8888_sse2_lowp+0xa14>
.byte 197,33,102,231 // vpcmpgtd %xmm7,%xmm11,%xmm12
.byte 196,193,81,219,242 // vpand %xmm10,%xmm5,%xmm6
.byte 197,33,102,238 // vpcmpgtd %xmm6,%xmm11,%xmm13
.byte 196,195,21,24,220,1 // vinsertf128 $0x1,%xmm12,%ymm13,%ymm3
- .byte 197,123,18,37,115,232,1,0 // vmovddup 0x1e873(%rip),%xmm12 # 333c0 <_sk_srcover_rgba_8888_sse2_lowp+0x1280>
+ .byte 197,123,18,37,159,232,1,0 // vmovddup 0x1e89f(%rip),%xmm12 # 33400 <_sk_srcover_rgba_8888_sse2_lowp+0x12a4>
.byte 196,193,81,219,236 // vpand %xmm12,%xmm5,%xmm5
.byte 197,209,114,245,16 // vpslld $0x10,%xmm5,%xmm5
.byte 196,193,89,219,228 // vpand %xmm12,%xmm4,%xmm4
@@ -29639,7 +29651,7 @@ _sk_load_f16_dst_avx:
.byte 197,209,235,238 // vpor %xmm6,%xmm5,%xmm5
.byte 197,201,114,247,13 // vpslld $0xd,%xmm7,%xmm6
.byte 197,217,235,230 // vpor %xmm6,%xmm4,%xmm4
- .byte 196,226,121,24,61,212,223,1,0 // vbroadcastss 0x1dfd4(%rip),%xmm7 # 32b50 <_sk_srcover_rgba_8888_sse2_lowp+0xa10>
+ .byte 196,226,121,24,61,228,223,1,0 // vbroadcastss 0x1dfe4(%rip),%xmm7 # 32b74 <_sk_srcover_rgba_8888_sse2_lowp+0xa18>
.byte 197,217,254,231 // vpaddd %xmm7,%xmm4,%xmm4
.byte 197,209,254,239 // vpaddd %xmm7,%xmm5,%xmm5
.byte 196,227,85,24,228,1 // vinsertf128 $0x1,%xmm4,%ymm5,%ymm4
@@ -29718,29 +29730,29 @@ _sk_load_f16_dst_avx:
.byte 196,65,123,16,4,192 // vmovsd (%r8,%rax,8),%xmm8
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 116,85 // je 14d50 <_sk_load_f16_dst_avx+0x2c1>
+ .byte 116,85 // je 14d64 <_sk_load_f16_dst_avx+0x2c1>
.byte 196,65,57,22,68,192,8 // vmovhpd 0x8(%r8,%rax,8),%xmm8,%xmm8
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,72 // jb 14d50 <_sk_load_f16_dst_avx+0x2c1>
+ .byte 114,72 // jb 14d64 <_sk_load_f16_dst_avx+0x2c1>
.byte 196,193,123,16,116,192,16 // vmovsd 0x10(%r8,%rax,8),%xmm6
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 116,72 // je 14d5d <_sk_load_f16_dst_avx+0x2ce>
+ .byte 116,72 // je 14d71 <_sk_load_f16_dst_avx+0x2ce>
.byte 196,193,73,22,116,192,24 // vmovhpd 0x18(%r8,%rax,8),%xmm6,%xmm6
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 114,59 // jb 14d5d <_sk_load_f16_dst_avx+0x2ce>
+ .byte 114,59 // jb 14d71 <_sk_load_f16_dst_avx+0x2ce>
.byte 196,193,123,16,124,192,32 // vmovsd 0x20(%r8,%rax,8),%xmm7
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 15,132,179,253,255,255 // je 14ae6 <_sk_load_f16_dst_avx+0x57>
+ .byte 15,132,179,253,255,255 // je 14afa <_sk_load_f16_dst_avx+0x57>
.byte 196,193,65,22,124,192,40 // vmovhpd 0x28(%r8,%rax,8),%xmm7,%xmm7
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 15,130,162,253,255,255 // jb 14ae6 <_sk_load_f16_dst_avx+0x57>
+ .byte 15,130,162,253,255,255 // jb 14afa <_sk_load_f16_dst_avx+0x57>
.byte 196,65,122,126,76,192,48 // vmovq 0x30(%r8,%rax,8),%xmm9
- .byte 233,150,253,255,255 // jmpq 14ae6 <_sk_load_f16_dst_avx+0x57>
+ .byte 233,150,253,255,255 // jmpq 14afa <_sk_load_f16_dst_avx+0x57>
.byte 197,193,87,255 // vxorpd %xmm7,%xmm7,%xmm7
.byte 197,201,87,246 // vxorpd %xmm6,%xmm6,%xmm6
- .byte 233,137,253,255,255 // jmpq 14ae6 <_sk_load_f16_dst_avx+0x57>
+ .byte 233,137,253,255,255 // jmpq 14afa <_sk_load_f16_dst_avx+0x57>
.byte 197,193,87,255 // vxorpd %xmm7,%xmm7,%xmm7
- .byte 233,128,253,255,255 // jmpq 14ae6 <_sk_load_f16_dst_avx+0x57>
+ .byte 233,128,253,255,255 // jmpq 14afa <_sk_load_f16_dst_avx+0x57>
HIDDEN _sk_gather_f16_avx
.globl _sk_gather_f16_avx
@@ -29819,14 +29831,14 @@ _sk_gather_f16_avx:
.byte 196,226,121,51,208 // vpmovzxwd %xmm0,%xmm2
.byte 197,249,112,192,78 // vpshufd $0x4e,%xmm0,%xmm0
.byte 196,226,121,51,192 // vpmovzxwd %xmm0,%xmm0
- .byte 197,123,18,29,250,228,1,0 // vmovddup 0x1e4fa(%rip),%xmm11 # 333b8 <_sk_srcover_rgba_8888_sse2_lowp+0x1278>
+ .byte 197,123,18,29,38,229,1,0 // vmovddup 0x1e526(%rip),%xmm11 # 333f8 <_sk_srcover_rgba_8888_sse2_lowp+0x129c>
.byte 196,193,121,219,219 // vpand %xmm11,%xmm0,%xmm3
- .byte 196,98,121,24,37,128,220,1,0 // vbroadcastss 0x1dc80(%rip),%xmm12 # 32b4c <_sk_srcover_rgba_8888_sse2_lowp+0xa0c>
+ .byte 196,98,121,24,37,144,220,1,0 // vbroadcastss 0x1dc90(%rip),%xmm12 # 32b70 <_sk_srcover_rgba_8888_sse2_lowp+0xa14>
.byte 197,25,102,235 // vpcmpgtd %xmm3,%xmm12,%xmm13
.byte 196,193,105,219,203 // vpand %xmm11,%xmm2,%xmm1
.byte 197,25,102,193 // vpcmpgtd %xmm1,%xmm12,%xmm8
.byte 196,67,61,24,197,1 // vinsertf128 $0x1,%xmm13,%ymm8,%ymm8
- .byte 197,123,18,45,217,228,1,0 // vmovddup 0x1e4d9(%rip),%xmm13 # 333c0 <_sk_srcover_rgba_8888_sse2_lowp+0x1280>
+ .byte 197,123,18,45,5,229,1,0 // vmovddup 0x1e505(%rip),%xmm13 # 33400 <_sk_srcover_rgba_8888_sse2_lowp+0x12a4>
.byte 196,193,105,219,213 // vpand %xmm13,%xmm2,%xmm2
.byte 197,233,114,242,16 // vpslld $0x10,%xmm2,%xmm2
.byte 197,241,114,241,13 // vpslld $0xd,%xmm1,%xmm1
@@ -29835,7 +29847,7 @@ _sk_gather_f16_avx:
.byte 197,249,114,240,16 // vpslld $0x10,%xmm0,%xmm0
.byte 197,233,114,243,13 // vpslld $0xd,%xmm3,%xmm2
.byte 197,249,235,194 // vpor %xmm2,%xmm0,%xmm0
- .byte 196,226,121,24,29,58,220,1,0 // vbroadcastss 0x1dc3a(%rip),%xmm3 # 32b50 <_sk_srcover_rgba_8888_sse2_lowp+0xa10>
+ .byte 196,226,121,24,29,74,220,1,0 // vbroadcastss 0x1dc4a(%rip),%xmm3 # 32b74 <_sk_srcover_rgba_8888_sse2_lowp+0xa18>
.byte 197,249,254,195 // vpaddd %xmm3,%xmm0,%xmm0
.byte 197,241,254,203 // vpaddd %xmm3,%xmm1,%xmm1
.byte 196,227,117,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm1,%ymm0
@@ -29925,12 +29937,12 @@ _sk_store_f16_avx:
.byte 197,252,17,108,36,192 // vmovups %ymm5,-0x40(%rsp)
.byte 197,252,17,100,36,160 // vmovups %ymm4,-0x60(%rsp)
.byte 197,252,40,225 // vmovaps %ymm1,%ymm4
- .byte 196,98,125,24,5,112,218,1,0 // vbroadcastss 0x1da70(%rip),%ymm8 # 32b20 <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
+ .byte 196,98,125,24,5,128,218,1,0 // vbroadcastss 0x1da80(%rip),%ymm8 # 32b44 <_sk_srcover_rgba_8888_sse2_lowp+0x9e8>
.byte 196,65,124,84,216 // vandps %ymm8,%ymm0,%ymm11
- .byte 196,98,125,24,21,150,218,1,0 // vbroadcastss 0x1da96(%rip),%ymm10 # 32b54 <_sk_srcover_rgba_8888_sse2_lowp+0xa14>
+ .byte 196,98,125,24,21,166,218,1,0 // vbroadcastss 0x1daa6(%rip),%ymm10 # 32b78 <_sk_srcover_rgba_8888_sse2_lowp+0xa1c>
.byte 196,65,124,84,226 // vandps %ymm10,%ymm0,%ymm12
.byte 196,67,125,25,229,1 // vextractf128 $0x1,%ymm12,%xmm13
- .byte 196,98,121,24,13,134,218,1,0 // vbroadcastss 0x1da86(%rip),%xmm9 # 32b58 <_sk_srcover_rgba_8888_sse2_lowp+0xa18>
+ .byte 196,98,121,24,13,150,218,1,0 // vbroadcastss 0x1da96(%rip),%xmm9 # 32b7c <_sk_srcover_rgba_8888_sse2_lowp+0xa20>
.byte 196,65,49,102,245 // vpcmpgtd %xmm13,%xmm9,%xmm14
.byte 196,65,49,102,252 // vpcmpgtd %xmm12,%xmm9,%xmm15
.byte 196,67,5,24,246,1 // vinsertf128 $0x1,%xmm14,%ymm15,%ymm14
@@ -29941,7 +29953,7 @@ _sk_store_f16_avx:
.byte 196,65,17,254,239 // vpaddd %xmm15,%xmm13,%xmm13
.byte 196,193,25,114,212,13 // vpsrld $0xd,%xmm12,%xmm12
.byte 196,65,25,254,227 // vpaddd %xmm11,%xmm12,%xmm12
- .byte 196,98,121,24,29,73,218,1,0 // vbroadcastss 0x1da49(%rip),%xmm11 # 32b5c <_sk_srcover_rgba_8888_sse2_lowp+0xa1c>
+ .byte 196,98,121,24,29,89,218,1,0 // vbroadcastss 0x1da59(%rip),%xmm11 # 32b80 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
.byte 196,65,17,254,235 // vpaddd %xmm11,%xmm13,%xmm13
.byte 196,65,25,254,227 // vpaddd %xmm11,%xmm12,%xmm12
.byte 196,67,29,24,237,1 // vinsertf128 $0x1,%xmm13,%ymm12,%ymm13
@@ -30024,7 +30036,7 @@ _sk_store_f16_avx:
.byte 76,3,0 // add (%rax),%r8
.byte 72,99,194 // movslq %edx,%rax
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,68 // jne 152ea <_sk_store_f16_avx+0x262>
+ .byte 117,68 // jne 152fe <_sk_store_f16_avx+0x262>
.byte 196,65,122,127,28,192 // vmovdqu %xmm11,(%r8,%rax,8)
.byte 196,65,122,127,84,192,16 // vmovdqu %xmm10,0x10(%r8,%rax,8)
.byte 196,65,122,127,76,192,32 // vmovdqu %xmm9,0x20(%r8,%rax,8)
@@ -30040,22 +30052,22 @@ _sk_store_f16_avx:
.byte 255,224 // jmpq *%rax
.byte 196,65,121,214,28,192 // vmovq %xmm11,(%r8,%rax,8)
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 116,203 // je 152c1 <_sk_store_f16_avx+0x239>
+ .byte 116,203 // je 152d5 <_sk_store_f16_avx+0x239>
.byte 196,65,121,23,92,192,8 // vmovhpd %xmm11,0x8(%r8,%rax,8)
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,190 // jb 152c1 <_sk_store_f16_avx+0x239>
+ .byte 114,190 // jb 152d5 <_sk_store_f16_avx+0x239>
.byte 196,65,121,214,84,192,16 // vmovq %xmm10,0x10(%r8,%rax,8)
- .byte 116,181 // je 152c1 <_sk_store_f16_avx+0x239>
+ .byte 116,181 // je 152d5 <_sk_store_f16_avx+0x239>
.byte 196,65,121,23,84,192,24 // vmovhpd %xmm10,0x18(%r8,%rax,8)
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 114,168 // jb 152c1 <_sk_store_f16_avx+0x239>
+ .byte 114,168 // jb 152d5 <_sk_store_f16_avx+0x239>
.byte 196,65,121,214,76,192,32 // vmovq %xmm9,0x20(%r8,%rax,8)
- .byte 116,159 // je 152c1 <_sk_store_f16_avx+0x239>
+ .byte 116,159 // je 152d5 <_sk_store_f16_avx+0x239>
.byte 196,65,121,23,76,192,40 // vmovhpd %xmm9,0x28(%r8,%rax,8)
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 114,146 // jb 152c1 <_sk_store_f16_avx+0x239>
+ .byte 114,146 // jb 152d5 <_sk_store_f16_avx+0x239>
.byte 196,65,121,214,68,192,48 // vmovq %xmm8,0x30(%r8,%rax,8)
- .byte 235,137 // jmp 152c1 <_sk_store_f16_avx+0x239>
+ .byte 235,137 // jmp 152d5 <_sk_store_f16_avx+0x239>
HIDDEN _sk_load_u16_be_avx
.globl _sk_load_u16_be_avx
@@ -30070,7 +30082,7 @@ _sk_load_u16_be_avx:
.byte 76,3,0 // add (%rax),%r8
.byte 73,99,193 // movslq %r9d,%rax
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,12,1,0,0 // jne 1546b <_sk_load_u16_be_avx+0x133>
+ .byte 15,133,12,1,0,0 // jne 1547f <_sk_load_u16_be_avx+0x133>
.byte 196,65,121,16,4,64 // vmovupd (%r8,%rax,2),%xmm8
.byte 196,193,121,16,84,64,16 // vmovupd 0x10(%r8,%rax,2),%xmm2
.byte 196,193,121,16,92,64,32 // vmovupd 0x20(%r8,%rax,2),%xmm3
@@ -30092,7 +30104,7 @@ _sk_load_u16_be_avx:
.byte 196,226,121,51,192 // vpmovzxwd %xmm0,%xmm0
.byte 196,227,117,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm1,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,98,125,24,13,136,214,1,0 // vbroadcastss 0x1d688(%rip),%ymm9 # 32a58 <_sk_srcover_rgba_8888_sse2_lowp+0x918>
+ .byte 196,98,125,24,13,152,214,1,0 // vbroadcastss 0x1d698(%rip),%ymm9 # 32a7c <_sk_srcover_rgba_8888_sse2_lowp+0x920>
.byte 196,193,124,89,193 // vmulps %ymm9,%ymm0,%ymm0
.byte 197,169,109,202 // vpunpckhqdq %xmm2,%xmm10,%xmm1
.byte 197,233,113,241,8 // vpsllw $0x8,%xmm1,%xmm2
@@ -30129,29 +30141,29 @@ _sk_load_u16_be_avx:
.byte 196,65,123,16,4,64 // vmovsd (%r8,%rax,2),%xmm8
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 116,85 // je 154d1 <_sk_load_u16_be_avx+0x199>
+ .byte 116,85 // je 154e5 <_sk_load_u16_be_avx+0x199>
.byte 196,65,57,22,68,64,8 // vmovhpd 0x8(%r8,%rax,2),%xmm8,%xmm8
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,72 // jb 154d1 <_sk_load_u16_be_avx+0x199>
+ .byte 114,72 // jb 154e5 <_sk_load_u16_be_avx+0x199>
.byte 196,193,123,16,84,64,16 // vmovsd 0x10(%r8,%rax,2),%xmm2
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 116,72 // je 154de <_sk_load_u16_be_avx+0x1a6>
+ .byte 116,72 // je 154f2 <_sk_load_u16_be_avx+0x1a6>
.byte 196,193,105,22,84,64,24 // vmovhpd 0x18(%r8,%rax,2),%xmm2,%xmm2
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 114,59 // jb 154de <_sk_load_u16_be_avx+0x1a6>
+ .byte 114,59 // jb 154f2 <_sk_load_u16_be_avx+0x1a6>
.byte 196,193,123,16,92,64,32 // vmovsd 0x20(%r8,%rax,2),%xmm3
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 15,132,198,254,255,255 // je 1537a <_sk_load_u16_be_avx+0x42>
+ .byte 15,132,198,254,255,255 // je 1538e <_sk_load_u16_be_avx+0x42>
.byte 196,193,97,22,92,64,40 // vmovhpd 0x28(%r8,%rax,2),%xmm3,%xmm3
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 15,130,181,254,255,255 // jb 1537a <_sk_load_u16_be_avx+0x42>
+ .byte 15,130,181,254,255,255 // jb 1538e <_sk_load_u16_be_avx+0x42>
.byte 196,65,122,126,76,64,48 // vmovq 0x30(%r8,%rax,2),%xmm9
- .byte 233,169,254,255,255 // jmpq 1537a <_sk_load_u16_be_avx+0x42>
+ .byte 233,169,254,255,255 // jmpq 1538e <_sk_load_u16_be_avx+0x42>
.byte 197,225,87,219 // vxorpd %xmm3,%xmm3,%xmm3
.byte 197,233,87,210 // vxorpd %xmm2,%xmm2,%xmm2
- .byte 233,156,254,255,255 // jmpq 1537a <_sk_load_u16_be_avx+0x42>
+ .byte 233,156,254,255,255 // jmpq 1538e <_sk_load_u16_be_avx+0x42>
.byte 197,225,87,219 // vxorpd %xmm3,%xmm3,%xmm3
- .byte 233,147,254,255,255 // jmpq 1537a <_sk_load_u16_be_avx+0x42>
+ .byte 233,147,254,255,255 // jmpq 1538e <_sk_load_u16_be_avx+0x42>
HIDDEN _sk_load_rgb_u16_be_avx
.globl _sk_load_rgb_u16_be_avx
@@ -30168,7 +30180,7 @@ _sk_load_rgb_u16_be_avx:
.byte 72,141,4,64 // lea (%rax,%rax,2),%rax
.byte 72,193,248,32 // sar $0x20,%rax
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,253,0,0,0 // jne 1560f <_sk_load_rgb_u16_be_avx+0x128>
+ .byte 15,133,253,0,0,0 // jne 15623 <_sk_load_rgb_u16_be_avx+0x128>
.byte 196,65,122,111,28,64 // vmovdqu (%r8,%rax,2),%xmm11
.byte 196,193,122,111,92,64,12 // vmovdqu 0xc(%r8,%rax,2),%xmm3
.byte 196,193,122,111,84,64,24 // vmovdqu 0x18(%r8,%rax,2),%xmm2
@@ -30196,7 +30208,7 @@ _sk_load_rgb_u16_be_avx:
.byte 196,226,121,51,192 // vpmovzxwd %xmm0,%xmm0
.byte 196,227,117,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm1,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,98,125,24,13,183,212,1,0 // vbroadcastss 0x1d4b7(%rip),%ymm9 # 32a58 <_sk_srcover_rgba_8888_sse2_lowp+0x918>
+ .byte 196,98,125,24,13,199,212,1,0 // vbroadcastss 0x1d4c7(%rip),%ymm9 # 32a7c <_sk_srcover_rgba_8888_sse2_lowp+0x920>
.byte 196,193,124,89,193 // vmulps %ymm9,%ymm0,%ymm0
.byte 197,185,109,203 // vpunpckhqdq %xmm3,%xmm8,%xmm1
.byte 197,225,113,241,8 // vpsllw $0x8,%xmm1,%xmm3
@@ -30218,69 +30230,69 @@ _sk_load_rgb_u16_be_avx:
.byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
.byte 196,193,108,89,209 // vmulps %ymm9,%ymm2,%ymm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,187,211,1,0 // vbroadcastss 0x1d3bb(%rip),%ymm3 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 196,226,125,24,29,199,211,1,0 // vbroadcastss 0x1d3c7(%rip),%ymm3 # 329e8 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 255,224 // jmpq *%rax
.byte 196,193,121,110,4,64 // vmovd (%r8,%rax,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,65,121,196,92,64,4,2 // vpinsrw $0x2,0x4(%r8,%rax,2),%xmm0,%xmm11
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 117,31 // jne 15647 <_sk_load_rgb_u16_be_avx+0x160>
+ .byte 117,31 // jne 1565b <_sk_load_rgb_u16_be_avx+0x160>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
.byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2
.byte 196,65,41,239,210 // vpxor %xmm10,%xmm10,%xmm10
.byte 197,225,239,219 // vpxor %xmm3,%xmm3,%xmm3
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
- .byte 233,0,255,255,255 // jmpq 15547 <_sk_load_rgb_u16_be_avx+0x60>
+ .byte 233,0,255,255,255 // jmpq 1555b <_sk_load_rgb_u16_be_avx+0x60>
.byte 196,193,121,110,68,64,6 // vmovd 0x6(%r8,%rax,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,65,121,196,68,64,10,2 // vpinsrw $0x2,0xa(%r8,%rax,2),%xmm0,%xmm8
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,48 // jb 15691 <_sk_load_rgb_u16_be_avx+0x1aa>
+ .byte 114,48 // jb 156a5 <_sk_load_rgb_u16_be_avx+0x1aa>
.byte 196,193,121,110,68,64,12 // vmovd 0xc(%r8,%rax,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,193,121,196,92,64,16,2 // vpinsrw $0x2,0x10(%r8,%rax,2),%xmm0,%xmm3
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 117,48 // jne 156ab <_sk_load_rgb_u16_be_avx+0x1c4>
+ .byte 117,48 // jne 156bf <_sk_load_rgb_u16_be_avx+0x1c4>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
.byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2
.byte 196,65,41,239,210 // vpxor %xmm10,%xmm10,%xmm10
- .byte 233,182,254,255,255 // jmpq 15547 <_sk_load_rgb_u16_be_avx+0x60>
+ .byte 233,182,254,255,255 // jmpq 1555b <_sk_load_rgb_u16_be_avx+0x60>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
.byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2
.byte 196,65,41,239,210 // vpxor %xmm10,%xmm10,%xmm10
.byte 197,225,239,219 // vpxor %xmm3,%xmm3,%xmm3
- .byte 233,156,254,255,255 // jmpq 15547 <_sk_load_rgb_u16_be_avx+0x60>
+ .byte 233,156,254,255,255 // jmpq 1555b <_sk_load_rgb_u16_be_avx+0x60>
.byte 196,193,121,110,68,64,18 // vmovd 0x12(%r8,%rax,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,65,121,196,84,64,22,2 // vpinsrw $0x2,0x16(%r8,%rax,2),%xmm0,%xmm10
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 114,39 // jb 156ec <_sk_load_rgb_u16_be_avx+0x205>
+ .byte 114,39 // jb 15700 <_sk_load_rgb_u16_be_avx+0x205>
.byte 196,193,121,110,68,64,24 // vmovd 0x18(%r8,%rax,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,193,121,196,84,64,28,2 // vpinsrw $0x2,0x1c(%r8,%rax,2),%xmm0,%xmm2
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 117,30 // jne 156fd <_sk_load_rgb_u16_be_avx+0x216>
+ .byte 117,30 // jne 15711 <_sk_load_rgb_u16_be_avx+0x216>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
- .byte 233,91,254,255,255 // jmpq 15547 <_sk_load_rgb_u16_be_avx+0x60>
+ .byte 233,91,254,255,255 // jmpq 1555b <_sk_load_rgb_u16_be_avx+0x60>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
.byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2
- .byte 233,74,254,255,255 // jmpq 15547 <_sk_load_rgb_u16_be_avx+0x60>
+ .byte 233,74,254,255,255 // jmpq 1555b <_sk_load_rgb_u16_be_avx+0x60>
.byte 196,193,121,110,68,64,30 // vmovd 0x1e(%r8,%rax,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,193,121,196,76,64,34,2 // vpinsrw $0x2,0x22(%r8,%rax,2),%xmm0,%xmm1
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 114,25 // jb 15730 <_sk_load_rgb_u16_be_avx+0x249>
+ .byte 114,25 // jb 15744 <_sk_load_rgb_u16_be_avx+0x249>
.byte 196,193,121,110,68,64,36 // vmovd 0x24(%r8,%rax,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,193,121,196,68,64,40,2 // vpinsrw $0x2,0x28(%r8,%rax,2),%xmm0,%xmm0
- .byte 233,23,254,255,255 // jmpq 15547 <_sk_load_rgb_u16_be_avx+0x60>
+ .byte 233,23,254,255,255 // jmpq 1555b <_sk_load_rgb_u16_be_avx+0x60>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
- .byte 233,14,254,255,255 // jmpq 15547 <_sk_load_rgb_u16_be_avx+0x60>
+ .byte 233,14,254,255,255 // jmpq 1555b <_sk_load_rgb_u16_be_avx+0x60>
HIDDEN _sk_store_u16_be_avx
.globl _sk_store_u16_be_avx
@@ -30294,7 +30306,7 @@ _sk_store_u16_be_avx:
.byte 77,1,192 // add %r8,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 73,99,193 // movslq %r9d,%rax
- .byte 196,98,125,24,5,128,211,1,0 // vbroadcastss 0x1d380(%rip),%ymm8 # 32ae0 <_sk_srcover_rgba_8888_sse2_lowp+0x9a0>
+ .byte 196,98,125,24,5,144,211,1,0 // vbroadcastss 0x1d390(%rip),%ymm8 # 32b04 <_sk_srcover_rgba_8888_sse2_lowp+0x9a8>
.byte 196,65,124,89,200 // vmulps %ymm8,%ymm0,%ymm9
.byte 196,65,125,91,201 // vcvtps2dq %ymm9,%ymm9
.byte 196,67,125,25,202,1 // vextractf128 $0x1,%ymm9,%xmm10
@@ -30332,7 +30344,7 @@ _sk_store_u16_be_avx:
.byte 196,65,17,98,200 // vpunpckldq %xmm8,%xmm13,%xmm9
.byte 196,65,17,106,192 // vpunpckhdq %xmm8,%xmm13,%xmm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,31 // jne 15844 <_sk_store_u16_be_avx+0x10b>
+ .byte 117,31 // jne 15858 <_sk_store_u16_be_avx+0x10b>
.byte 196,65,122,127,28,64 // vmovdqu %xmm11,(%r8,%rax,2)
.byte 196,65,122,127,84,64,16 // vmovdqu %xmm10,0x10(%r8,%rax,2)
.byte 196,65,122,127,76,64,32 // vmovdqu %xmm9,0x20(%r8,%rax,2)
@@ -30341,22 +30353,22 @@ _sk_store_u16_be_avx:
.byte 255,224 // jmpq *%rax
.byte 196,65,121,214,28,64 // vmovq %xmm11,(%r8,%rax,2)
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 116,240 // je 15840 <_sk_store_u16_be_avx+0x107>
+ .byte 116,240 // je 15854 <_sk_store_u16_be_avx+0x107>
.byte 196,65,121,23,92,64,8 // vmovhpd %xmm11,0x8(%r8,%rax,2)
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,227 // jb 15840 <_sk_store_u16_be_avx+0x107>
+ .byte 114,227 // jb 15854 <_sk_store_u16_be_avx+0x107>
.byte 196,65,121,214,84,64,16 // vmovq %xmm10,0x10(%r8,%rax,2)
- .byte 116,218 // je 15840 <_sk_store_u16_be_avx+0x107>
+ .byte 116,218 // je 15854 <_sk_store_u16_be_avx+0x107>
.byte 196,65,121,23,84,64,24 // vmovhpd %xmm10,0x18(%r8,%rax,2)
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 114,205 // jb 15840 <_sk_store_u16_be_avx+0x107>
+ .byte 114,205 // jb 15854 <_sk_store_u16_be_avx+0x107>
.byte 196,65,121,214,76,64,32 // vmovq %xmm9,0x20(%r8,%rax,2)
- .byte 116,196 // je 15840 <_sk_store_u16_be_avx+0x107>
+ .byte 116,196 // je 15854 <_sk_store_u16_be_avx+0x107>
.byte 196,65,121,23,76,64,40 // vmovhpd %xmm9,0x28(%r8,%rax,2)
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 114,183 // jb 15840 <_sk_store_u16_be_avx+0x107>
+ .byte 114,183 // jb 15854 <_sk_store_u16_be_avx+0x107>
.byte 196,65,121,214,68,64,48 // vmovq %xmm8,0x30(%r8,%rax,2)
- .byte 235,174 // jmp 15840 <_sk_store_u16_be_avx+0x107>
+ .byte 235,174 // jmp 15854 <_sk_store_u16_be_avx+0x107>
HIDDEN _sk_load_f32_avx
.globl _sk_load_f32_avx
@@ -30365,7 +30377,7 @@ _sk_load_f32_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,253,87,192 // vxorpd %ymm0,%ymm0,%ymm0
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 15,135,97,1,0,0 // ja 15a03 <_sk_load_f32_avx+0x171>
+ .byte 15,135,97,1,0,0 // ja 15a17 <_sk_load_f32_avx+0x171>
.byte 72,131,236,24 // sub $0x18,%rsp
.byte 197,253,17,100,36,128 // vmovupd %ymm4,-0x80(%rsp)
.byte 197,253,17,108,36,160 // vmovupd %ymm5,-0x60(%rsp)
@@ -30378,7 +30390,7 @@ _sk_load_f32_avx:
.byte 73,193,224,2 // shl $0x2,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 77,99,201 // movslq %r9d,%r9
- .byte 76,141,21,50,1,0,0 // lea 0x132(%rip),%r10 # 15a14 <_sk_load_f32_avx+0x182>
+ .byte 76,141,21,50,1,0,0 // lea 0x132(%rip),%r10 # 15a28 <_sk_load_f32_avx+0x182>
.byte 73,99,4,186 // movslq (%r10,%rdi,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 197,221,87,228 // vxorpd %ymm4,%ymm4,%ymm4
@@ -30441,7 +30453,7 @@ _sk_load_f32_avx:
.byte 197,229,87,219 // vxorpd %ymm3,%ymm3,%ymm3
.byte 196,65,45,87,210 // vxorpd %ymm10,%ymm10,%ymm10
.byte 197,245,87,201 // vxorpd %ymm1,%ymm1,%ymm1
- .byte 235,203 // jmp 159dd <_sk_load_f32_avx+0x14b>
+ .byte 235,203 // jmp 159f1 <_sk_load_f32_avx+0x14b>
.byte 102,144 // xchg %ax,%ax
.byte 27,255 // sbb %edi,%edi
.byte 255 // (bad)
@@ -30453,7 +30465,7 @@ _sk_load_f32_avx:
.byte 255,92,255,255 // lcall *-0x1(%rdi,%rdi,8)
.byte 255,70,255 // incl -0x1(%rsi)
.byte 255 // (bad)
- .byte 255,53,255,255,255,40 // pushq 0x28ffffff(%rip) # 29015a30 <_sk_srcover_rgba_8888_sse2_lowp+0x28fe38f0>
+ .byte 255,53,255,255,255,40 // pushq 0x28ffffff(%rip) # 29015a44 <_sk_srcover_rgba_8888_sse2_lowp+0x28fe38e8>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // .byte 0xff
@@ -30465,7 +30477,7 @@ _sk_load_f32_dst_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,221,87,228 // vxorpd %ymm4,%ymm4,%ymm4
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 15,135,97,1,0,0 // ja 15ba5 <_sk_load_f32_dst_avx+0x171>
+ .byte 15,135,97,1,0,0 // ja 15bb9 <_sk_load_f32_dst_avx+0x171>
.byte 72,131,236,24 // sub $0x18,%rsp
.byte 197,253,17,68,36,128 // vmovupd %ymm0,-0x80(%rsp)
.byte 197,253,17,76,36,160 // vmovupd %ymm1,-0x60(%rsp)
@@ -30478,7 +30490,7 @@ _sk_load_f32_dst_avx:
.byte 73,193,224,2 // shl $0x2,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 77,99,201 // movslq %r9d,%r9
- .byte 76,141,21,48,1,0,0 // lea 0x130(%rip),%r10 # 15bb4 <_sk_load_f32_dst_avx+0x180>
+ .byte 76,141,21,48,1,0,0 // lea 0x130(%rip),%r10 # 15bc8 <_sk_load_f32_dst_avx+0x180>
.byte 73,99,4,186 // movslq (%r10,%rdi,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 197,253,87,192 // vxorpd %ymm0,%ymm0,%ymm0
@@ -30541,7 +30553,7 @@ _sk_load_f32_dst_avx:
.byte 197,197,87,255 // vxorpd %ymm7,%ymm7,%ymm7
.byte 196,65,45,87,210 // vxorpd %ymm10,%ymm10,%ymm10
.byte 197,213,87,237 // vxorpd %ymm5,%ymm5,%ymm5
- .byte 235,203 // jmp 15b7f <_sk_load_f32_dst_avx+0x14b>
+ .byte 235,203 // jmp 15b93 <_sk_load_f32_dst_avx+0x14b>
.byte 29,255,255,255,163 // sbb $0xa3ffffff,%eax
.byte 255 // (bad)
.byte 255 // (bad)
@@ -30581,7 +30593,7 @@ _sk_store_f32_avx:
.byte 196,65,37,20,196 // vunpcklpd %ymm12,%ymm11,%ymm8
.byte 196,65,37,21,220 // vunpckhpd %ymm12,%ymm11,%ymm11
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,55 // jne 15c53 <_sk_store_f32_avx+0x7f>
+ .byte 117,55 // jne 15c67 <_sk_store_f32_avx+0x7f>
.byte 196,67,45,24,225,1 // vinsertf128 $0x1,%xmm9,%ymm10,%ymm12
.byte 196,67,61,24,235,1 // vinsertf128 $0x1,%xmm11,%ymm8,%ymm13
.byte 196,67,45,6,201,49 // vperm2f128 $0x31,%ymm9,%ymm10,%ymm9
@@ -30594,22 +30606,22 @@ _sk_store_f32_avx:
.byte 255,224 // jmpq *%rax
.byte 196,65,121,17,20,128 // vmovupd %xmm10,(%r8,%rax,4)
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 116,240 // je 15c4f <_sk_store_f32_avx+0x7b>
+ .byte 116,240 // je 15c63 <_sk_store_f32_avx+0x7b>
.byte 196,65,121,17,76,128,16 // vmovupd %xmm9,0x10(%r8,%rax,4)
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,227 // jb 15c4f <_sk_store_f32_avx+0x7b>
+ .byte 114,227 // jb 15c63 <_sk_store_f32_avx+0x7b>
.byte 196,65,121,17,68,128,32 // vmovupd %xmm8,0x20(%r8,%rax,4)
- .byte 116,218 // je 15c4f <_sk_store_f32_avx+0x7b>
+ .byte 116,218 // je 15c63 <_sk_store_f32_avx+0x7b>
.byte 196,65,121,17,92,128,48 // vmovupd %xmm11,0x30(%r8,%rax,4)
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 114,205 // jb 15c4f <_sk_store_f32_avx+0x7b>
+ .byte 114,205 // jb 15c63 <_sk_store_f32_avx+0x7b>
.byte 196,67,125,25,84,128,64,1 // vextractf128 $0x1,%ymm10,0x40(%r8,%rax,4)
- .byte 116,195 // je 15c4f <_sk_store_f32_avx+0x7b>
+ .byte 116,195 // je 15c63 <_sk_store_f32_avx+0x7b>
.byte 196,67,125,25,76,128,80,1 // vextractf128 $0x1,%ymm9,0x50(%r8,%rax,4)
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 114,181 // jb 15c4f <_sk_store_f32_avx+0x7b>
+ .byte 114,181 // jb 15c63 <_sk_store_f32_avx+0x7b>
.byte 196,67,125,25,68,128,96,1 // vextractf128 $0x1,%ymm8,0x60(%r8,%rax,4)
- .byte 235,171 // jmp 15c4f <_sk_store_f32_avx+0x7b>
+ .byte 235,171 // jmp 15c63 <_sk_store_f32_avx+0x7b>
HIDDEN _sk_repeat_x_avx
.globl _sk_repeat_x_avx
@@ -30652,7 +30664,7 @@ _sk_mirror_x_avx:
.byte 196,193,58,88,192 // vaddss %xmm8,%xmm8,%xmm0
.byte 196,227,121,4,192,0 // vpermilps $0x0,%xmm0,%xmm0
.byte 196,99,125,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm0,%ymm8
- .byte 197,178,89,5,161,204,1,0 // vmulss 0x1cca1(%rip),%xmm9,%xmm0 # 329c4 <_sk_srcover_rgba_8888_sse2_lowp+0x884>
+ .byte 197,178,89,5,173,204,1,0 // vmulss 0x1ccad(%rip),%xmm9,%xmm0 # 329e4 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 196,227,121,4,192,0 // vpermilps $0x0,%xmm0,%xmm0
.byte 196,227,125,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm0,%ymm0
.byte 197,164,89,192 // vmulps %ymm0,%ymm11,%ymm0
@@ -30679,7 +30691,7 @@ _sk_mirror_y_avx:
.byte 196,193,58,88,200 // vaddss %xmm8,%xmm8,%xmm1
.byte 196,227,121,4,201,0 // vpermilps $0x0,%xmm1,%xmm1
.byte 196,99,117,24,193,1 // vinsertf128 $0x1,%xmm1,%ymm1,%ymm8
- .byte 197,178,89,13,55,204,1,0 // vmulss 0x1cc37(%rip),%xmm9,%xmm1 # 329c4 <_sk_srcover_rgba_8888_sse2_lowp+0x884>
+ .byte 197,178,89,13,67,204,1,0 // vmulss 0x1cc43(%rip),%xmm9,%xmm1 # 329e4 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 196,227,121,4,201,0 // vpermilps $0x0,%xmm1,%xmm1
.byte 196,227,117,24,201,1 // vinsertf128 $0x1,%xmm1,%ymm1,%ymm1
.byte 197,164,89,201 // vmulps %ymm1,%ymm11,%ymm1
@@ -30699,7 +30711,7 @@ FUNCTION(_sk_clamp_x_1_avx)
_sk_clamp_x_1_avx:
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 197,188,95,192 // vmaxps %ymm0,%ymm8,%ymm0
- .byte 196,98,125,24,5,244,203,1,0 // vbroadcastss 0x1cbf4(%rip),%ymm8 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 196,98,125,24,5,0,204,1,0 // vbroadcastss 0x1cc00(%rip),%ymm8 # 329e8 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 196,193,124,93,192 // vminps %ymm8,%ymm0,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -30712,7 +30724,7 @@ _sk_repeat_x_1_avx:
.byte 196,193,124,92,192 // vsubps %ymm8,%ymm0,%ymm0
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 197,188,95,192 // vmaxps %ymm0,%ymm8,%ymm0
- .byte 196,98,125,24,5,206,203,1,0 // vbroadcastss 0x1cbce(%rip),%ymm8 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 196,98,125,24,5,218,203,1,0 // vbroadcastss 0x1cbda(%rip),%ymm8 # 329e8 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 196,193,124,93,192 // vminps %ymm8,%ymm0,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -30721,9 +30733,9 @@ HIDDEN _sk_mirror_x_1_avx
.globl _sk_mirror_x_1_avx
FUNCTION(_sk_mirror_x_1_avx)
_sk_mirror_x_1_avx:
- .byte 196,98,125,24,5,212,203,1,0 // vbroadcastss 0x1cbd4(%rip),%ymm8 # 329e0 <_sk_srcover_rgba_8888_sse2_lowp+0x8a0>
+ .byte 196,98,125,24,5,224,203,1,0 // vbroadcastss 0x1cbe0(%rip),%ymm8 # 32a00 <_sk_srcover_rgba_8888_sse2_lowp+0x8a4>
.byte 196,193,124,88,192 // vaddps %ymm8,%ymm0,%ymm0
- .byte 196,98,125,24,13,170,203,1,0 // vbroadcastss 0x1cbaa(%rip),%ymm9 # 329c4 <_sk_srcover_rgba_8888_sse2_lowp+0x884>
+ .byte 196,98,125,24,13,182,203,1,0 // vbroadcastss 0x1cbb6(%rip),%ymm9 # 329e4 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 196,65,124,89,201 // vmulps %ymm9,%ymm0,%ymm9
.byte 196,67,125,8,201,1 // vroundps $0x1,%ymm9,%ymm9
.byte 196,65,52,88,201 // vaddps %ymm9,%ymm9,%ymm9
@@ -30733,7 +30745,7 @@ _sk_mirror_x_1_avx:
.byte 197,60,92,200 // vsubps %ymm0,%ymm8,%ymm9
.byte 197,180,84,192 // vandps %ymm0,%ymm9,%ymm0
.byte 197,188,95,192 // vmaxps %ymm0,%ymm8,%ymm0
- .byte 196,98,125,24,5,122,203,1,0 // vbroadcastss 0x1cb7a(%rip),%ymm8 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 196,98,125,24,5,134,203,1,0 // vbroadcastss 0x1cb86(%rip),%ymm8 # 329e8 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 196,193,124,93,192 // vminps %ymm8,%ymm0,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -30742,12 +30754,12 @@ HIDDEN _sk_luminance_to_alpha_avx
.globl _sk_luminance_to_alpha_avx
FUNCTION(_sk_luminance_to_alpha_avx)
_sk_luminance_to_alpha_avx:
- .byte 196,226,125,24,29,136,204,1,0 // vbroadcastss 0x1cc88(%rip),%ymm3 # 32ae8 <_sk_srcover_rgba_8888_sse2_lowp+0x9a8>
+ .byte 196,226,125,24,29,152,204,1,0 // vbroadcastss 0x1cc98(%rip),%ymm3 # 32b0c <_sk_srcover_rgba_8888_sse2_lowp+0x9b0>
.byte 197,252,89,195 // vmulps %ymm3,%ymm0,%ymm0
- .byte 196,226,125,24,29,119,204,1,0 // vbroadcastss 0x1cc77(%rip),%ymm3 # 32ae4 <_sk_srcover_rgba_8888_sse2_lowp+0x9a4>
+ .byte 196,226,125,24,29,135,204,1,0 // vbroadcastss 0x1cc87(%rip),%ymm3 # 32b08 <_sk_srcover_rgba_8888_sse2_lowp+0x9ac>
.byte 197,244,89,203 // vmulps %ymm3,%ymm1,%ymm1
.byte 197,252,88,193 // vaddps %ymm1,%ymm0,%ymm0
- .byte 196,226,125,24,13,110,204,1,0 // vbroadcastss 0x1cc6e(%rip),%ymm1 # 32aec <_sk_srcover_rgba_8888_sse2_lowp+0x9ac>
+ .byte 196,226,125,24,13,126,204,1,0 // vbroadcastss 0x1cc7e(%rip),%ymm1 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0x9b4>
.byte 197,236,89,201 // vmulps %ymm1,%ymm2,%ymm1
.byte 197,252,88,217 // vaddps %ymm1,%ymm0,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -30995,9 +31007,9 @@ _sk_evenly_spaced_gradient_avx:
.byte 72,139,24 // mov (%rax),%rbx
.byte 72,139,104,8 // mov 0x8(%rax),%rbp
.byte 72,255,203 // dec %rbx
- .byte 120,7 // js 16222 <_sk_evenly_spaced_gradient_avx+0x25>
+ .byte 120,7 // js 16236 <_sk_evenly_spaced_gradient_avx+0x25>
.byte 196,225,242,42,203 // vcvtsi2ss %rbx,%xmm1,%xmm1
- .byte 235,21 // jmp 16237 <_sk_evenly_spaced_gradient_avx+0x3a>
+ .byte 235,21 // jmp 1624b <_sk_evenly_spaced_gradient_avx+0x3a>
.byte 73,137,216 // mov %rbx,%r8
.byte 73,209,232 // shr %r8
.byte 131,227,1 // and $0x1,%ebx
@@ -31155,18 +31167,18 @@ HIDDEN _sk_gauss_a_to_rgba_avx
.globl _sk_gauss_a_to_rgba_avx
FUNCTION(_sk_gauss_a_to_rgba_avx)
_sk_gauss_a_to_rgba_avx:
- .byte 196,226,125,24,5,133,197,1,0 // vbroadcastss 0x1c585(%rip),%ymm0 # 32af0 <_sk_srcover_rgba_8888_sse2_lowp+0x9b0>
+ .byte 196,226,125,24,5,149,197,1,0 // vbroadcastss 0x1c595(%rip),%ymm0 # 32b14 <_sk_srcover_rgba_8888_sse2_lowp+0x9b8>
.byte 197,228,89,192 // vmulps %ymm0,%ymm3,%ymm0
- .byte 196,226,125,24,13,124,197,1,0 // vbroadcastss 0x1c57c(%rip),%ymm1 # 32af4 <_sk_srcover_rgba_8888_sse2_lowp+0x9b4>
+ .byte 196,226,125,24,13,140,197,1,0 // vbroadcastss 0x1c58c(%rip),%ymm1 # 32b18 <_sk_srcover_rgba_8888_sse2_lowp+0x9bc>
.byte 197,252,88,193 // vaddps %ymm1,%ymm0,%ymm0
.byte 197,252,89,195 // vmulps %ymm3,%ymm0,%ymm0
- .byte 196,226,125,24,13,111,197,1,0 // vbroadcastss 0x1c56f(%rip),%ymm1 # 32af8 <_sk_srcover_rgba_8888_sse2_lowp+0x9b8>
+ .byte 196,226,125,24,13,127,197,1,0 // vbroadcastss 0x1c57f(%rip),%ymm1 # 32b1c <_sk_srcover_rgba_8888_sse2_lowp+0x9c0>
.byte 197,252,88,193 // vaddps %ymm1,%ymm0,%ymm0
.byte 197,252,89,195 // vmulps %ymm3,%ymm0,%ymm0
- .byte 196,226,125,24,13,98,197,1,0 // vbroadcastss 0x1c562(%rip),%ymm1 # 32afc <_sk_srcover_rgba_8888_sse2_lowp+0x9bc>
+ .byte 196,226,125,24,13,114,197,1,0 // vbroadcastss 0x1c572(%rip),%ymm1 # 32b20 <_sk_srcover_rgba_8888_sse2_lowp+0x9c4>
.byte 197,252,88,193 // vaddps %ymm1,%ymm0,%ymm0
.byte 197,252,89,195 // vmulps %ymm3,%ymm0,%ymm0
- .byte 196,226,125,24,13,85,197,1,0 // vbroadcastss 0x1c555(%rip),%ymm1 # 32b00 <_sk_srcover_rgba_8888_sse2_lowp+0x9c0>
+ .byte 196,226,125,24,13,101,197,1,0 // vbroadcastss 0x1c565(%rip),%ymm1 # 32b24 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
.byte 197,252,88,193 // vaddps %ymm1,%ymm0,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,252,40,200 // vmovaps %ymm0,%ymm1
@@ -31188,12 +31200,12 @@ _sk_gradient_avx:
.byte 76,139,0 // mov (%rax),%r8
.byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
.byte 73,131,248,2 // cmp $0x2,%r8
- .byte 114,81 // jb 1662e <_sk_gradient_avx+0x6f>
+ .byte 114,81 // jb 16642 <_sk_gradient_avx+0x6f>
.byte 72,139,88,72 // mov 0x48(%rax),%rbx
.byte 73,255,200 // dec %r8
.byte 72,131,195,4 // add $0x4,%rbx
.byte 196,65,52,87,201 // vxorps %ymm9,%ymm9,%ymm9
- .byte 196,98,125,24,21,214,195,1,0 // vbroadcastss 0x1c3d6(%rip),%ymm10 # 329cc <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+ .byte 196,98,125,24,21,226,195,1,0 // vbroadcastss 0x1c3e2(%rip),%ymm10 # 329ec <_sk_srcover_rgba_8888_sse2_lowp+0x890>
.byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
.byte 196,98,125,24,3 // vbroadcastss (%rbx),%ymm8
.byte 197,60,194,192,2 // vcmpleps %ymm0,%ymm8,%ymm8
@@ -31205,7 +31217,7 @@ _sk_gradient_avx:
.byte 196,227,117,24,202,1 // vinsertf128 $0x1,%xmm2,%ymm1,%ymm1
.byte 72,131,195,4 // add $0x4,%rbx
.byte 73,255,200 // dec %r8
- .byte 117,204 // jne 165fa <_sk_gradient_avx+0x3b>
+ .byte 117,204 // jne 1660e <_sk_gradient_avx+0x3b>
.byte 196,195,249,22,200,1 // vpextrq $0x1,%xmm1,%r8
.byte 69,137,193 // mov %r8d,%r9d
.byte 73,193,232,32 // shr $0x20,%r8
@@ -31387,27 +31399,27 @@ _sk_xy_to_unit_angle_avx:
.byte 196,65,52,95,226 // vmaxps %ymm10,%ymm9,%ymm12
.byte 196,65,36,94,220 // vdivps %ymm12,%ymm11,%ymm11
.byte 196,65,36,89,227 // vmulps %ymm11,%ymm11,%ymm12
- .byte 196,98,125,24,45,0,193,1,0 // vbroadcastss 0x1c100(%rip),%ymm13 # 32b04 <_sk_srcover_rgba_8888_sse2_lowp+0x9c4>
+ .byte 196,98,125,24,45,16,193,1,0 // vbroadcastss 0x1c110(%rip),%ymm13 # 32b28 <_sk_srcover_rgba_8888_sse2_lowp+0x9cc>
.byte 196,65,28,89,237 // vmulps %ymm13,%ymm12,%ymm13
- .byte 196,98,125,24,53,246,192,1,0 // vbroadcastss 0x1c0f6(%rip),%ymm14 # 32b08 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
+ .byte 196,98,125,24,53,6,193,1,0 // vbroadcastss 0x1c106(%rip),%ymm14 # 32b2c <_sk_srcover_rgba_8888_sse2_lowp+0x9d0>
.byte 196,65,20,88,238 // vaddps %ymm14,%ymm13,%ymm13
.byte 196,65,28,89,237 // vmulps %ymm13,%ymm12,%ymm13
- .byte 196,98,125,24,53,231,192,1,0 // vbroadcastss 0x1c0e7(%rip),%ymm14 # 32b0c <_sk_srcover_rgba_8888_sse2_lowp+0x9cc>
+ .byte 196,98,125,24,53,247,192,1,0 // vbroadcastss 0x1c0f7(%rip),%ymm14 # 32b30 <_sk_srcover_rgba_8888_sse2_lowp+0x9d4>
.byte 196,65,20,88,238 // vaddps %ymm14,%ymm13,%ymm13
.byte 196,65,28,89,229 // vmulps %ymm13,%ymm12,%ymm12
- .byte 196,98,125,24,45,216,192,1,0 // vbroadcastss 0x1c0d8(%rip),%ymm13 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0x9d0>
+ .byte 196,98,125,24,45,232,192,1,0 // vbroadcastss 0x1c0e8(%rip),%ymm13 # 32b34 <_sk_srcover_rgba_8888_sse2_lowp+0x9d8>
.byte 196,65,28,88,229 // vaddps %ymm13,%ymm12,%ymm12
.byte 196,65,36,89,220 // vmulps %ymm12,%ymm11,%ymm11
.byte 196,65,52,194,202,1 // vcmpltps %ymm10,%ymm9,%ymm9
- .byte 196,98,125,24,21,195,192,1,0 // vbroadcastss 0x1c0c3(%rip),%ymm10 # 32b14 <_sk_srcover_rgba_8888_sse2_lowp+0x9d4>
+ .byte 196,98,125,24,21,211,192,1,0 // vbroadcastss 0x1c0d3(%rip),%ymm10 # 32b38 <_sk_srcover_rgba_8888_sse2_lowp+0x9dc>
.byte 196,65,44,92,211 // vsubps %ymm11,%ymm10,%ymm10
.byte 196,67,37,74,202,144 // vblendvps %ymm9,%ymm10,%ymm11,%ymm9
.byte 196,193,124,194,192,1 // vcmpltps %ymm8,%ymm0,%ymm0
- .byte 196,98,125,24,21,89,191,1,0 // vbroadcastss 0x1bf59(%rip),%ymm10 # 329c4 <_sk_srcover_rgba_8888_sse2_lowp+0x884>
+ .byte 196,98,125,24,21,101,191,1,0 // vbroadcastss 0x1bf65(%rip),%ymm10 # 329e4 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 196,65,44,92,209 // vsubps %ymm9,%ymm10,%ymm10
.byte 196,195,53,74,194,0 // vblendvps %ymm0,%ymm10,%ymm9,%ymm0
.byte 196,65,116,194,200,1 // vcmpltps %ymm8,%ymm1,%ymm9
- .byte 196,98,125,24,21,67,191,1,0 // vbroadcastss 0x1bf43(%rip),%ymm10 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 196,98,125,24,21,79,191,1,0 // vbroadcastss 0x1bf4f(%rip),%ymm10 # 329e8 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 197,44,92,208 // vsubps %ymm0,%ymm10,%ymm10
.byte 196,195,125,74,194,144 // vblendvps %ymm9,%ymm10,%ymm0,%ymm0
.byte 196,65,124,194,200,3 // vcmpunordps %ymm8,%ymm0,%ymm9
@@ -31437,7 +31449,7 @@ _sk_xy_to_2pt_conical_quadratic_max_avx:
.byte 196,67,121,4,210,0 // vpermilps $0x0,%xmm10,%xmm10
.byte 196,67,45,24,210,1 // vinsertf128 $0x1,%xmm10,%ymm10,%ymm10
.byte 197,44,88,208 // vaddps %ymm0,%ymm10,%ymm10
- .byte 196,98,125,24,29,57,192,1,0 // vbroadcastss 0x1c039(%rip),%ymm11 # 32b18 <_sk_srcover_rgba_8888_sse2_lowp+0x9d8>
+ .byte 196,98,125,24,29,73,192,1,0 // vbroadcastss 0x1c049(%rip),%ymm11 # 32b3c <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
.byte 196,65,44,89,211 // vmulps %ymm11,%ymm10,%ymm10
.byte 197,252,89,192 // vmulps %ymm0,%ymm0,%ymm0
.byte 197,116,89,217 // vmulps %ymm1,%ymm1,%ymm11
@@ -31446,17 +31458,17 @@ _sk_xy_to_2pt_conical_quadratic_max_avx:
.byte 196,227,121,4,192,0 // vpermilps $0x0,%xmm0,%xmm0
.byte 196,227,125,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm0,%ymm0
.byte 197,164,92,192 // vsubps %ymm0,%ymm11,%ymm0
- .byte 196,98,125,24,13,13,192,1,0 // vbroadcastss 0x1c00d(%rip),%ymm9 # 32b1c <_sk_srcover_rgba_8888_sse2_lowp+0x9dc>
+ .byte 196,98,125,24,13,29,192,1,0 // vbroadcastss 0x1c01d(%rip),%ymm9 # 32b40 <_sk_srcover_rgba_8888_sse2_lowp+0x9e4>
.byte 196,65,60,89,193 // vmulps %ymm9,%ymm8,%ymm8
.byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
.byte 196,65,44,89,194 // vmulps %ymm10,%ymm10,%ymm8
.byte 196,193,124,88,192 // vaddps %ymm8,%ymm0,%ymm0
.byte 197,252,81,192 // vsqrtps %ymm0,%ymm0
.byte 196,98,125,24,64,36 // vbroadcastss 0x24(%rax),%ymm8
- .byte 196,98,125,24,13,235,191,1,0 // vbroadcastss 0x1bfeb(%rip),%ymm9 # 32b20 <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
+ .byte 196,98,125,24,13,251,191,1,0 // vbroadcastss 0x1bffb(%rip),%ymm9 # 32b44 <_sk_srcover_rgba_8888_sse2_lowp+0x9e8>
.byte 196,65,44,87,201 // vxorps %ymm9,%ymm10,%ymm9
.byte 196,65,124,92,210 // vsubps %ymm10,%ymm0,%ymm10
- .byte 196,98,125,24,29,124,190,1,0 // vbroadcastss 0x1be7c(%rip),%ymm11 # 329c4 <_sk_srcover_rgba_8888_sse2_lowp+0x884>
+ .byte 196,98,125,24,29,136,190,1,0 // vbroadcastss 0x1be88(%rip),%ymm11 # 329e4 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 196,65,60,89,195 // vmulps %ymm11,%ymm8,%ymm8
.byte 196,65,60,89,210 // vmulps %ymm10,%ymm8,%ymm10
.byte 197,180,92,192 // vsubps %ymm0,%ymm9,%ymm0
@@ -31476,7 +31488,7 @@ _sk_xy_to_2pt_conical_quadratic_min_avx:
.byte 196,67,121,4,210,0 // vpermilps $0x0,%xmm10,%xmm10
.byte 196,67,45,24,210,1 // vinsertf128 $0x1,%xmm10,%ymm10,%ymm10
.byte 197,44,88,208 // vaddps %ymm0,%ymm10,%ymm10
- .byte 196,98,125,24,29,139,191,1,0 // vbroadcastss 0x1bf8b(%rip),%ymm11 # 32b18 <_sk_srcover_rgba_8888_sse2_lowp+0x9d8>
+ .byte 196,98,125,24,29,155,191,1,0 // vbroadcastss 0x1bf9b(%rip),%ymm11 # 32b3c <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
.byte 196,65,44,89,211 // vmulps %ymm11,%ymm10,%ymm10
.byte 197,252,89,192 // vmulps %ymm0,%ymm0,%ymm0
.byte 197,116,89,217 // vmulps %ymm1,%ymm1,%ymm11
@@ -31485,17 +31497,17 @@ _sk_xy_to_2pt_conical_quadratic_min_avx:
.byte 196,227,121,4,192,0 // vpermilps $0x0,%xmm0,%xmm0
.byte 196,227,125,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm0,%ymm0
.byte 197,164,92,192 // vsubps %ymm0,%ymm11,%ymm0
- .byte 196,98,125,24,13,95,191,1,0 // vbroadcastss 0x1bf5f(%rip),%ymm9 # 32b1c <_sk_srcover_rgba_8888_sse2_lowp+0x9dc>
+ .byte 196,98,125,24,13,111,191,1,0 // vbroadcastss 0x1bf6f(%rip),%ymm9 # 32b40 <_sk_srcover_rgba_8888_sse2_lowp+0x9e4>
.byte 196,65,60,89,193 // vmulps %ymm9,%ymm8,%ymm8
.byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
.byte 196,65,44,89,194 // vmulps %ymm10,%ymm10,%ymm8
.byte 196,193,124,88,192 // vaddps %ymm8,%ymm0,%ymm0
.byte 197,252,81,192 // vsqrtps %ymm0,%ymm0
.byte 196,98,125,24,64,36 // vbroadcastss 0x24(%rax),%ymm8
- .byte 196,98,125,24,13,61,191,1,0 // vbroadcastss 0x1bf3d(%rip),%ymm9 # 32b20 <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
+ .byte 196,98,125,24,13,77,191,1,0 // vbroadcastss 0x1bf4d(%rip),%ymm9 # 32b44 <_sk_srcover_rgba_8888_sse2_lowp+0x9e8>
.byte 196,65,44,87,201 // vxorps %ymm9,%ymm10,%ymm9
.byte 196,65,124,92,210 // vsubps %ymm10,%ymm0,%ymm10
- .byte 196,98,125,24,29,206,189,1,0 // vbroadcastss 0x1bdce(%rip),%ymm11 # 329c4 <_sk_srcover_rgba_8888_sse2_lowp+0x884>
+ .byte 196,98,125,24,29,218,189,1,0 // vbroadcastss 0x1bdda(%rip),%ymm11 # 329e4 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 196,65,60,89,195 // vmulps %ymm11,%ymm8,%ymm8
.byte 196,65,60,89,210 // vmulps %ymm10,%ymm8,%ymm10
.byte 197,180,92,192 // vsubps %ymm0,%ymm9,%ymm0
@@ -31514,7 +31526,7 @@ _sk_xy_to_2pt_conical_linear_avx:
.byte 196,67,121,4,201,0 // vpermilps $0x0,%xmm9,%xmm9
.byte 196,67,53,24,201,1 // vinsertf128 $0x1,%xmm9,%ymm9,%ymm9
.byte 197,52,88,200 // vaddps %ymm0,%ymm9,%ymm9
- .byte 196,98,125,24,21,227,190,1,0 // vbroadcastss 0x1bee3(%rip),%ymm10 # 32b18 <_sk_srcover_rgba_8888_sse2_lowp+0x9d8>
+ .byte 196,98,125,24,21,243,190,1,0 // vbroadcastss 0x1bef3(%rip),%ymm10 # 32b3c <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
.byte 196,65,52,89,202 // vmulps %ymm10,%ymm9,%ymm9
.byte 197,252,89,192 // vmulps %ymm0,%ymm0,%ymm0
.byte 197,116,89,209 // vmulps %ymm1,%ymm1,%ymm10
@@ -31523,7 +31535,7 @@ _sk_xy_to_2pt_conical_linear_avx:
.byte 196,227,121,4,192,0 // vpermilps $0x0,%xmm0,%xmm0
.byte 196,227,125,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm0,%ymm0
.byte 197,172,92,192 // vsubps %ymm0,%ymm10,%ymm0
- .byte 196,98,125,24,5,187,190,1,0 // vbroadcastss 0x1bebb(%rip),%ymm8 # 32b20 <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
+ .byte 196,98,125,24,5,203,190,1,0 // vbroadcastss 0x1becb(%rip),%ymm8 # 32b44 <_sk_srcover_rgba_8888_sse2_lowp+0x9e8>
.byte 196,193,124,87,192 // vxorps %ymm8,%ymm0,%ymm0
.byte 196,193,124,94,193 // vdivps %ymm9,%ymm0,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -31567,7 +31579,7 @@ HIDDEN _sk_save_xy_avx
FUNCTION(_sk_save_xy_avx)
_sk_save_xy_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,98,125,24,5,229,188,1,0 // vbroadcastss 0x1bce5(%rip),%ymm8 # 329c4 <_sk_srcover_rgba_8888_sse2_lowp+0x884>
+ .byte 196,98,125,24,5,241,188,1,0 // vbroadcastss 0x1bcf1(%rip),%ymm8 # 329e4 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 196,65,124,88,200 // vaddps %ymm8,%ymm0,%ymm9
.byte 196,67,125,8,209,1 // vroundps $0x1,%ymm9,%ymm10
.byte 196,65,52,92,202 // vsubps %ymm10,%ymm9,%ymm9
@@ -31604,9 +31616,9 @@ HIDDEN _sk_bilinear_nx_avx
FUNCTION(_sk_bilinear_nx_avx)
_sk_bilinear_nx_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,5,205,189,1,0 // vbroadcastss 0x1bdcd(%rip),%ymm0 # 32b24 <_sk_srcover_rgba_8888_sse2_lowp+0x9e4>
+ .byte 196,226,125,24,5,221,189,1,0 // vbroadcastss 0x1bddd(%rip),%ymm0 # 32b48 <_sk_srcover_rgba_8888_sse2_lowp+0x9ec>
.byte 197,252,88,0 // vaddps (%rax),%ymm0,%ymm0
- .byte 196,98,125,24,5,100,188,1,0 // vbroadcastss 0x1bc64(%rip),%ymm8 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 196,98,125,24,5,112,188,1,0 // vbroadcastss 0x1bc70(%rip),%ymm8 # 329e8 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 197,60,92,64,64 // vsubps 0x40(%rax),%ymm8,%ymm8
.byte 197,124,17,128,128,0,0,0 // vmovups %ymm8,0x80(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -31617,7 +31629,7 @@ HIDDEN _sk_bilinear_px_avx
FUNCTION(_sk_bilinear_px_avx)
_sk_bilinear_px_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,5,68,188,1,0 // vbroadcastss 0x1bc44(%rip),%ymm0 # 329c4 <_sk_srcover_rgba_8888_sse2_lowp+0x884>
+ .byte 196,226,125,24,5,80,188,1,0 // vbroadcastss 0x1bc50(%rip),%ymm0 # 329e4 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 197,252,88,0 // vaddps (%rax),%ymm0,%ymm0
.byte 197,124,16,64,64 // vmovups 0x40(%rax),%ymm8
.byte 197,124,17,128,128,0,0,0 // vmovups %ymm8,0x80(%rax)
@@ -31629,9 +31641,9 @@ HIDDEN _sk_bilinear_ny_avx
FUNCTION(_sk_bilinear_ny_avx)
_sk_bilinear_ny_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,13,132,189,1,0 // vbroadcastss 0x1bd84(%rip),%ymm1 # 32b24 <_sk_srcover_rgba_8888_sse2_lowp+0x9e4>
+ .byte 196,226,125,24,13,148,189,1,0 // vbroadcastss 0x1bd94(%rip),%ymm1 # 32b48 <_sk_srcover_rgba_8888_sse2_lowp+0x9ec>
.byte 197,244,88,72,32 // vaddps 0x20(%rax),%ymm1,%ymm1
- .byte 196,98,125,24,5,26,188,1,0 // vbroadcastss 0x1bc1a(%rip),%ymm8 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 196,98,125,24,5,38,188,1,0 // vbroadcastss 0x1bc26(%rip),%ymm8 # 329e8 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 197,60,92,64,96 // vsubps 0x60(%rax),%ymm8,%ymm8
.byte 197,124,17,128,160,0,0,0 // vmovups %ymm8,0xa0(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -31642,7 +31654,7 @@ HIDDEN _sk_bilinear_py_avx
FUNCTION(_sk_bilinear_py_avx)
_sk_bilinear_py_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,13,250,187,1,0 // vbroadcastss 0x1bbfa(%rip),%ymm1 # 329c4 <_sk_srcover_rgba_8888_sse2_lowp+0x884>
+ .byte 196,226,125,24,13,6,188,1,0 // vbroadcastss 0x1bc06(%rip),%ymm1 # 329e4 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 197,244,88,72,32 // vaddps 0x20(%rax),%ymm1,%ymm1
.byte 197,124,16,64,96 // vmovups 0x60(%rax),%ymm8
.byte 197,124,17,128,160,0,0,0 // vmovups %ymm8,0xa0(%rax)
@@ -31654,14 +31666,14 @@ HIDDEN _sk_bicubic_n3x_avx
FUNCTION(_sk_bicubic_n3x_avx)
_sk_bicubic_n3x_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,5,61,189,1,0 // vbroadcastss 0x1bd3d(%rip),%ymm0 # 32b28 <_sk_srcover_rgba_8888_sse2_lowp+0x9e8>
+ .byte 196,226,125,24,5,77,189,1,0 // vbroadcastss 0x1bd4d(%rip),%ymm0 # 32b4c <_sk_srcover_rgba_8888_sse2_lowp+0x9f0>
.byte 197,252,88,0 // vaddps (%rax),%ymm0,%ymm0
- .byte 196,98,125,24,5,208,187,1,0 // vbroadcastss 0x1bbd0(%rip),%ymm8 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 196,98,125,24,5,220,187,1,0 // vbroadcastss 0x1bbdc(%rip),%ymm8 # 329e8 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 197,60,92,64,64 // vsubps 0x40(%rax),%ymm8,%ymm8
.byte 196,65,60,89,200 // vmulps %ymm8,%ymm8,%ymm9
- .byte 196,98,125,24,21,33,189,1,0 // vbroadcastss 0x1bd21(%rip),%ymm10 # 32b2c <_sk_srcover_rgba_8888_sse2_lowp+0x9ec>
+ .byte 196,98,125,24,21,49,189,1,0 // vbroadcastss 0x1bd31(%rip),%ymm10 # 32b50 <_sk_srcover_rgba_8888_sse2_lowp+0x9f4>
.byte 196,65,60,89,194 // vmulps %ymm10,%ymm8,%ymm8
- .byte 196,98,125,24,21,31,188,1,0 // vbroadcastss 0x1bc1f(%rip),%ymm10 # 32a38 <_sk_srcover_rgba_8888_sse2_lowp+0x8f8>
+ .byte 196,98,125,24,21,47,188,1,0 // vbroadcastss 0x1bc2f(%rip),%ymm10 # 32a5c <_sk_srcover_rgba_8888_sse2_lowp+0x900>
.byte 196,65,60,88,194 // vaddps %ymm10,%ymm8,%ymm8
.byte 196,65,52,89,192 // vmulps %ymm8,%ymm9,%ymm8
.byte 197,124,17,128,128,0,0,0 // vmovups %ymm8,0x80(%rax)
@@ -31673,19 +31685,19 @@ HIDDEN _sk_bicubic_n1x_avx
FUNCTION(_sk_bicubic_n1x_avx)
_sk_bicubic_n1x_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,5,234,188,1,0 // vbroadcastss 0x1bcea(%rip),%ymm0 # 32b24 <_sk_srcover_rgba_8888_sse2_lowp+0x9e4>
+ .byte 196,226,125,24,5,250,188,1,0 // vbroadcastss 0x1bcfa(%rip),%ymm0 # 32b48 <_sk_srcover_rgba_8888_sse2_lowp+0x9ec>
.byte 197,252,88,0 // vaddps (%rax),%ymm0,%ymm0
- .byte 196,98,125,24,5,129,187,1,0 // vbroadcastss 0x1bb81(%rip),%ymm8 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 196,98,125,24,5,141,187,1,0 // vbroadcastss 0x1bb8d(%rip),%ymm8 # 329e8 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 197,60,92,64,64 // vsubps 0x40(%rax),%ymm8,%ymm8
- .byte 196,98,125,24,13,219,188,1,0 // vbroadcastss 0x1bcdb(%rip),%ymm9 # 32b30 <_sk_srcover_rgba_8888_sse2_lowp+0x9f0>
+ .byte 196,98,125,24,13,235,188,1,0 // vbroadcastss 0x1bceb(%rip),%ymm9 # 32b54 <_sk_srcover_rgba_8888_sse2_lowp+0x9f8>
.byte 196,65,60,89,201 // vmulps %ymm9,%ymm8,%ymm9
- .byte 196,98,125,24,21,209,188,1,0 // vbroadcastss 0x1bcd1(%rip),%ymm10 # 32b34 <_sk_srcover_rgba_8888_sse2_lowp+0x9f4>
+ .byte 196,98,125,24,21,225,188,1,0 // vbroadcastss 0x1bce1(%rip),%ymm10 # 32b58 <_sk_srcover_rgba_8888_sse2_lowp+0x9fc>
.byte 196,65,52,88,202 // vaddps %ymm10,%ymm9,%ymm9
.byte 196,65,60,89,201 // vmulps %ymm9,%ymm8,%ymm9
- .byte 196,98,125,24,21,78,187,1,0 // vbroadcastss 0x1bb4e(%rip),%ymm10 # 329c4 <_sk_srcover_rgba_8888_sse2_lowp+0x884>
+ .byte 196,98,125,24,21,90,187,1,0 // vbroadcastss 0x1bb5a(%rip),%ymm10 # 329e4 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 196,65,52,88,202 // vaddps %ymm10,%ymm9,%ymm9
.byte 196,65,60,89,193 // vmulps %ymm9,%ymm8,%ymm8
- .byte 196,98,125,24,13,175,188,1,0 // vbroadcastss 0x1bcaf(%rip),%ymm9 # 32b38 <_sk_srcover_rgba_8888_sse2_lowp+0x9f8>
+ .byte 196,98,125,24,13,191,188,1,0 // vbroadcastss 0x1bcbf(%rip),%ymm9 # 32b5c <_sk_srcover_rgba_8888_sse2_lowp+0xa00>
.byte 196,65,60,88,193 // vaddps %ymm9,%ymm8,%ymm8
.byte 197,124,17,128,128,0,0,0 // vmovups %ymm8,0x80(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -31696,17 +31708,17 @@ HIDDEN _sk_bicubic_p1x_avx
FUNCTION(_sk_bicubic_p1x_avx)
_sk_bicubic_p1x_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,98,125,24,5,31,187,1,0 // vbroadcastss 0x1bb1f(%rip),%ymm8 # 329c4 <_sk_srcover_rgba_8888_sse2_lowp+0x884>
+ .byte 196,98,125,24,5,43,187,1,0 // vbroadcastss 0x1bb2b(%rip),%ymm8 # 329e4 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 197,188,88,0 // vaddps (%rax),%ymm8,%ymm0
.byte 197,124,16,72,64 // vmovups 0x40(%rax),%ymm9
- .byte 196,98,125,24,21,121,188,1,0 // vbroadcastss 0x1bc79(%rip),%ymm10 # 32b30 <_sk_srcover_rgba_8888_sse2_lowp+0x9f0>
+ .byte 196,98,125,24,21,137,188,1,0 // vbroadcastss 0x1bc89(%rip),%ymm10 # 32b54 <_sk_srcover_rgba_8888_sse2_lowp+0x9f8>
.byte 196,65,52,89,210 // vmulps %ymm10,%ymm9,%ymm10
- .byte 196,98,125,24,29,111,188,1,0 // vbroadcastss 0x1bc6f(%rip),%ymm11 # 32b34 <_sk_srcover_rgba_8888_sse2_lowp+0x9f4>
+ .byte 196,98,125,24,29,127,188,1,0 // vbroadcastss 0x1bc7f(%rip),%ymm11 # 32b58 <_sk_srcover_rgba_8888_sse2_lowp+0x9fc>
.byte 196,65,44,88,211 // vaddps %ymm11,%ymm10,%ymm10
.byte 196,65,52,89,210 // vmulps %ymm10,%ymm9,%ymm10
.byte 196,65,44,88,192 // vaddps %ymm8,%ymm10,%ymm8
.byte 196,65,52,89,192 // vmulps %ymm8,%ymm9,%ymm8
- .byte 196,98,125,24,13,86,188,1,0 // vbroadcastss 0x1bc56(%rip),%ymm9 # 32b38 <_sk_srcover_rgba_8888_sse2_lowp+0x9f8>
+ .byte 196,98,125,24,13,102,188,1,0 // vbroadcastss 0x1bc66(%rip),%ymm9 # 32b5c <_sk_srcover_rgba_8888_sse2_lowp+0xa00>
.byte 196,65,60,88,193 // vaddps %ymm9,%ymm8,%ymm8
.byte 197,124,17,128,128,0,0,0 // vmovups %ymm8,0x80(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -31717,13 +31729,13 @@ HIDDEN _sk_bicubic_p3x_avx
FUNCTION(_sk_bicubic_p3x_avx)
_sk_bicubic_p3x_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,5,54,188,1,0 // vbroadcastss 0x1bc36(%rip),%ymm0 # 32b34 <_sk_srcover_rgba_8888_sse2_lowp+0x9f4>
+ .byte 196,226,125,24,5,70,188,1,0 // vbroadcastss 0x1bc46(%rip),%ymm0 # 32b58 <_sk_srcover_rgba_8888_sse2_lowp+0x9fc>
.byte 197,252,88,0 // vaddps (%rax),%ymm0,%ymm0
.byte 197,124,16,64,64 // vmovups 0x40(%rax),%ymm8
.byte 196,65,60,89,200 // vmulps %ymm8,%ymm8,%ymm9
- .byte 196,98,125,24,21,23,188,1,0 // vbroadcastss 0x1bc17(%rip),%ymm10 # 32b2c <_sk_srcover_rgba_8888_sse2_lowp+0x9ec>
+ .byte 196,98,125,24,21,39,188,1,0 // vbroadcastss 0x1bc27(%rip),%ymm10 # 32b50 <_sk_srcover_rgba_8888_sse2_lowp+0x9f4>
.byte 196,65,60,89,194 // vmulps %ymm10,%ymm8,%ymm8
- .byte 196,98,125,24,21,21,187,1,0 // vbroadcastss 0x1bb15(%rip),%ymm10 # 32a38 <_sk_srcover_rgba_8888_sse2_lowp+0x8f8>
+ .byte 196,98,125,24,21,37,187,1,0 // vbroadcastss 0x1bb25(%rip),%ymm10 # 32a5c <_sk_srcover_rgba_8888_sse2_lowp+0x900>
.byte 196,65,60,88,194 // vaddps %ymm10,%ymm8,%ymm8
.byte 196,65,52,89,192 // vmulps %ymm8,%ymm9,%ymm8
.byte 197,124,17,128,128,0,0,0 // vmovups %ymm8,0x80(%rax)
@@ -31735,14 +31747,14 @@ HIDDEN _sk_bicubic_n3y_avx
FUNCTION(_sk_bicubic_n3y_avx)
_sk_bicubic_n3y_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,13,228,187,1,0 // vbroadcastss 0x1bbe4(%rip),%ymm1 # 32b28 <_sk_srcover_rgba_8888_sse2_lowp+0x9e8>
+ .byte 196,226,125,24,13,244,187,1,0 // vbroadcastss 0x1bbf4(%rip),%ymm1 # 32b4c <_sk_srcover_rgba_8888_sse2_lowp+0x9f0>
.byte 197,244,88,72,32 // vaddps 0x20(%rax),%ymm1,%ymm1
- .byte 196,98,125,24,5,118,186,1,0 // vbroadcastss 0x1ba76(%rip),%ymm8 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 196,98,125,24,5,130,186,1,0 // vbroadcastss 0x1ba82(%rip),%ymm8 # 329e8 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 197,60,92,64,96 // vsubps 0x60(%rax),%ymm8,%ymm8
.byte 196,65,60,89,200 // vmulps %ymm8,%ymm8,%ymm9
- .byte 196,98,125,24,21,199,187,1,0 // vbroadcastss 0x1bbc7(%rip),%ymm10 # 32b2c <_sk_srcover_rgba_8888_sse2_lowp+0x9ec>
+ .byte 196,98,125,24,21,215,187,1,0 // vbroadcastss 0x1bbd7(%rip),%ymm10 # 32b50 <_sk_srcover_rgba_8888_sse2_lowp+0x9f4>
.byte 196,65,60,89,194 // vmulps %ymm10,%ymm8,%ymm8
- .byte 196,98,125,24,21,197,186,1,0 // vbroadcastss 0x1bac5(%rip),%ymm10 # 32a38 <_sk_srcover_rgba_8888_sse2_lowp+0x8f8>
+ .byte 196,98,125,24,21,213,186,1,0 // vbroadcastss 0x1bad5(%rip),%ymm10 # 32a5c <_sk_srcover_rgba_8888_sse2_lowp+0x900>
.byte 196,65,60,88,194 // vaddps %ymm10,%ymm8,%ymm8
.byte 196,65,52,89,192 // vmulps %ymm8,%ymm9,%ymm8
.byte 197,124,17,128,160,0,0,0 // vmovups %ymm8,0xa0(%rax)
@@ -31754,19 +31766,19 @@ HIDDEN _sk_bicubic_n1y_avx
FUNCTION(_sk_bicubic_n1y_avx)
_sk_bicubic_n1y_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,13,144,187,1,0 // vbroadcastss 0x1bb90(%rip),%ymm1 # 32b24 <_sk_srcover_rgba_8888_sse2_lowp+0x9e4>
+ .byte 196,226,125,24,13,160,187,1,0 // vbroadcastss 0x1bba0(%rip),%ymm1 # 32b48 <_sk_srcover_rgba_8888_sse2_lowp+0x9ec>
.byte 197,244,88,72,32 // vaddps 0x20(%rax),%ymm1,%ymm1
- .byte 196,98,125,24,5,38,186,1,0 // vbroadcastss 0x1ba26(%rip),%ymm8 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 196,98,125,24,5,50,186,1,0 // vbroadcastss 0x1ba32(%rip),%ymm8 # 329e8 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 197,60,92,64,96 // vsubps 0x60(%rax),%ymm8,%ymm8
- .byte 196,98,125,24,13,128,187,1,0 // vbroadcastss 0x1bb80(%rip),%ymm9 # 32b30 <_sk_srcover_rgba_8888_sse2_lowp+0x9f0>
+ .byte 196,98,125,24,13,144,187,1,0 // vbroadcastss 0x1bb90(%rip),%ymm9 # 32b54 <_sk_srcover_rgba_8888_sse2_lowp+0x9f8>
.byte 196,65,60,89,201 // vmulps %ymm9,%ymm8,%ymm9
- .byte 196,98,125,24,21,118,187,1,0 // vbroadcastss 0x1bb76(%rip),%ymm10 # 32b34 <_sk_srcover_rgba_8888_sse2_lowp+0x9f4>
+ .byte 196,98,125,24,21,134,187,1,0 // vbroadcastss 0x1bb86(%rip),%ymm10 # 32b58 <_sk_srcover_rgba_8888_sse2_lowp+0x9fc>
.byte 196,65,52,88,202 // vaddps %ymm10,%ymm9,%ymm9
.byte 196,65,60,89,201 // vmulps %ymm9,%ymm8,%ymm9
- .byte 196,98,125,24,21,243,185,1,0 // vbroadcastss 0x1b9f3(%rip),%ymm10 # 329c4 <_sk_srcover_rgba_8888_sse2_lowp+0x884>
+ .byte 196,98,125,24,21,255,185,1,0 // vbroadcastss 0x1b9ff(%rip),%ymm10 # 329e4 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 196,65,52,88,202 // vaddps %ymm10,%ymm9,%ymm9
.byte 196,65,60,89,193 // vmulps %ymm9,%ymm8,%ymm8
- .byte 196,98,125,24,13,84,187,1,0 // vbroadcastss 0x1bb54(%rip),%ymm9 # 32b38 <_sk_srcover_rgba_8888_sse2_lowp+0x9f8>
+ .byte 196,98,125,24,13,100,187,1,0 // vbroadcastss 0x1bb64(%rip),%ymm9 # 32b5c <_sk_srcover_rgba_8888_sse2_lowp+0xa00>
.byte 196,65,60,88,193 // vaddps %ymm9,%ymm8,%ymm8
.byte 197,124,17,128,160,0,0,0 // vmovups %ymm8,0xa0(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -31777,17 +31789,17 @@ HIDDEN _sk_bicubic_p1y_avx
FUNCTION(_sk_bicubic_p1y_avx)
_sk_bicubic_p1y_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,98,125,24,5,196,185,1,0 // vbroadcastss 0x1b9c4(%rip),%ymm8 # 329c4 <_sk_srcover_rgba_8888_sse2_lowp+0x884>
+ .byte 196,98,125,24,5,208,185,1,0 // vbroadcastss 0x1b9d0(%rip),%ymm8 # 329e4 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 197,188,88,72,32 // vaddps 0x20(%rax),%ymm8,%ymm1
.byte 197,124,16,72,96 // vmovups 0x60(%rax),%ymm9
- .byte 196,98,125,24,21,29,187,1,0 // vbroadcastss 0x1bb1d(%rip),%ymm10 # 32b30 <_sk_srcover_rgba_8888_sse2_lowp+0x9f0>
+ .byte 196,98,125,24,21,45,187,1,0 // vbroadcastss 0x1bb2d(%rip),%ymm10 # 32b54 <_sk_srcover_rgba_8888_sse2_lowp+0x9f8>
.byte 196,65,52,89,210 // vmulps %ymm10,%ymm9,%ymm10
- .byte 196,98,125,24,29,19,187,1,0 // vbroadcastss 0x1bb13(%rip),%ymm11 # 32b34 <_sk_srcover_rgba_8888_sse2_lowp+0x9f4>
+ .byte 196,98,125,24,29,35,187,1,0 // vbroadcastss 0x1bb23(%rip),%ymm11 # 32b58 <_sk_srcover_rgba_8888_sse2_lowp+0x9fc>
.byte 196,65,44,88,211 // vaddps %ymm11,%ymm10,%ymm10
.byte 196,65,52,89,210 // vmulps %ymm10,%ymm9,%ymm10
.byte 196,65,44,88,192 // vaddps %ymm8,%ymm10,%ymm8
.byte 196,65,52,89,192 // vmulps %ymm8,%ymm9,%ymm8
- .byte 196,98,125,24,13,250,186,1,0 // vbroadcastss 0x1bafa(%rip),%ymm9 # 32b38 <_sk_srcover_rgba_8888_sse2_lowp+0x9f8>
+ .byte 196,98,125,24,13,10,187,1,0 // vbroadcastss 0x1bb0a(%rip),%ymm9 # 32b5c <_sk_srcover_rgba_8888_sse2_lowp+0xa00>
.byte 196,65,60,88,193 // vaddps %ymm9,%ymm8,%ymm8
.byte 197,124,17,128,160,0,0,0 // vmovups %ymm8,0xa0(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -31798,13 +31810,13 @@ HIDDEN _sk_bicubic_p3y_avx
FUNCTION(_sk_bicubic_p3y_avx)
_sk_bicubic_p3y_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,13,218,186,1,0 // vbroadcastss 0x1bada(%rip),%ymm1 # 32b34 <_sk_srcover_rgba_8888_sse2_lowp+0x9f4>
+ .byte 196,226,125,24,13,234,186,1,0 // vbroadcastss 0x1baea(%rip),%ymm1 # 32b58 <_sk_srcover_rgba_8888_sse2_lowp+0x9fc>
.byte 197,244,88,72,32 // vaddps 0x20(%rax),%ymm1,%ymm1
.byte 197,124,16,64,96 // vmovups 0x60(%rax),%ymm8
.byte 196,65,60,89,200 // vmulps %ymm8,%ymm8,%ymm9
- .byte 196,98,125,24,21,186,186,1,0 // vbroadcastss 0x1baba(%rip),%ymm10 # 32b2c <_sk_srcover_rgba_8888_sse2_lowp+0x9ec>
+ .byte 196,98,125,24,21,202,186,1,0 // vbroadcastss 0x1baca(%rip),%ymm10 # 32b50 <_sk_srcover_rgba_8888_sse2_lowp+0x9f4>
.byte 196,65,60,89,194 // vmulps %ymm10,%ymm8,%ymm8
- .byte 196,98,125,24,21,184,185,1,0 // vbroadcastss 0x1b9b8(%rip),%ymm10 # 32a38 <_sk_srcover_rgba_8888_sse2_lowp+0x8f8>
+ .byte 196,98,125,24,21,200,185,1,0 // vbroadcastss 0x1b9c8(%rip),%ymm10 # 32a5c <_sk_srcover_rgba_8888_sse2_lowp+0x900>
.byte 196,65,60,88,194 // vaddps %ymm10,%ymm8,%ymm8
.byte 196,65,52,89,192 // vmulps %ymm8,%ymm9,%ymm8
.byte 197,124,17,128,160,0,0,0 // vmovups %ymm8,0xa0(%rax)
@@ -31952,7 +31964,7 @@ _sk_clut_3D_avx:
.byte 72,139,0 // mov (%rax),%rax
.byte 197,217,254,207 // vpaddd %xmm7,%xmm4,%xmm1
.byte 197,249,254,193 // vpaddd %xmm1,%xmm0,%xmm0
- .byte 196,226,121,24,37,82,184,1,0 // vbroadcastss 0x1b852(%rip),%xmm4 # 32b40 <_sk_srcover_rgba_8888_sse2_lowp+0xa00>
+ .byte 196,226,121,24,37,98,184,1,0 // vbroadcastss 0x1b862(%rip),%xmm4 # 32b64 <_sk_srcover_rgba_8888_sse2_lowp+0xa08>
.byte 196,98,121,64,228 // vpmulld %xmm4,%xmm0,%xmm12
.byte 196,226,49,64,198 // vpmulld %xmm6,%xmm9,%xmm0
.byte 197,249,127,132,36,128,0,0,0 // vmovdqa %xmm0,0x80(%rsp)
@@ -32006,7 +32018,7 @@ _sk_clut_3D_avx:
.byte 196,161,122,16,60,128 // vmovss (%rax,%r8,4),%xmm7
.byte 196,227,73,33,247,48 // vinsertps $0x30,%xmm7,%xmm6,%xmm6
.byte 196,227,77,24,237,1 // vinsertf128 $0x1,%xmm5,%ymm6,%ymm5
- .byte 196,98,121,24,21,187,181,1,0 // vbroadcastss 0x1b5bb(%rip),%xmm10 # 329d4 <_sk_srcover_rgba_8888_sse2_lowp+0x894>
+ .byte 196,98,121,24,21,199,181,1,0 // vbroadcastss 0x1b5c7(%rip),%xmm10 # 329f4 <_sk_srcover_rgba_8888_sse2_lowp+0x898>
.byte 196,193,105,254,210 // vpaddd %xmm10,%xmm2,%xmm2
.byte 196,195,249,22,208,1 // vpextrq $0x1,%xmm2,%r8
.byte 196,193,249,126,209 // vmovq %xmm2,%r9
@@ -32034,7 +32046,7 @@ _sk_clut_3D_avx:
.byte 196,161,122,16,60,128 // vmovss (%rax,%r8,4),%xmm7
.byte 196,227,73,33,247,48 // vinsertps $0x30,%xmm7,%xmm6,%xmm6
.byte 196,227,77,24,210,1 // vinsertf128 $0x1,%xmm2,%ymm6,%ymm2
- .byte 196,226,125,24,61,143,182,1,0 // vbroadcastss 0x1b68f(%rip),%ymm7 # 32b3c <_sk_srcover_rgba_8888_sse2_lowp+0x9fc>
+ .byte 196,226,125,24,61,159,182,1,0 // vbroadcastss 0x1b69f(%rip),%ymm7 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xa04>
.byte 197,148,88,247 // vaddps %ymm7,%ymm13,%ymm6
.byte 197,124,40,231 // vmovaps %ymm7,%ymm12
.byte 197,124,17,36,36 // vmovups %ymm12,(%rsp)
@@ -32777,7 +32789,7 @@ _sk_clut_4D_avx:
.byte 197,249,127,68,36,32 // vmovdqa %xmm0,0x20(%rsp)
.byte 197,225,254,216 // vpaddd %xmm0,%xmm3,%xmm3
.byte 197,233,254,195 // vpaddd %xmm3,%xmm2,%xmm0
- .byte 196,98,121,24,13,83,167,1,0 // vbroadcastss 0x1a753(%rip),%xmm9 # 32b40 <_sk_srcover_rgba_8888_sse2_lowp+0xa00>
+ .byte 196,98,121,24,13,99,167,1,0 // vbroadcastss 0x1a763(%rip),%xmm9 # 32b64 <_sk_srcover_rgba_8888_sse2_lowp+0xa08>
.byte 196,194,121,64,209 // vpmulld %xmm9,%xmm0,%xmm2
.byte 196,226,81,64,199 // vpmulld %xmm7,%xmm5,%xmm0
.byte 197,249,127,132,36,96,1,0,0 // vmovdqa %xmm0,0x160(%rsp)
@@ -32834,7 +32846,7 @@ _sk_clut_4D_avx:
.byte 196,161,122,16,60,128 // vmovss (%rax,%r8,4),%xmm7
.byte 196,227,73,33,247,48 // vinsertps $0x30,%xmm7,%xmm6,%xmm6
.byte 196,227,77,24,237,1 // vinsertf128 $0x1,%xmm5,%ymm6,%ymm5
- .byte 196,98,121,24,21,172,164,1,0 // vbroadcastss 0x1a4ac(%rip),%xmm10 # 329d4 <_sk_srcover_rgba_8888_sse2_lowp+0x894>
+ .byte 196,98,121,24,21,184,164,1,0 // vbroadcastss 0x1a4b8(%rip),%xmm10 # 329f4 <_sk_srcover_rgba_8888_sse2_lowp+0x898>
.byte 196,193,121,254,194 // vpaddd %xmm10,%xmm0,%xmm0
.byte 196,195,249,22,192,1 // vpextrq $0x1,%xmm0,%r8
.byte 196,193,249,126,193 // vmovq %xmm0,%r9
@@ -32862,7 +32874,7 @@ _sk_clut_4D_avx:
.byte 196,161,122,16,52,128 // vmovss (%rax,%r8,4),%xmm6
.byte 196,227,105,33,214,48 // vinsertps $0x30,%xmm6,%xmm2,%xmm2
.byte 196,227,109,24,208,1 // vinsertf128 $0x1,%xmm0,%ymm2,%ymm2
- .byte 196,98,125,24,37,128,165,1,0 // vbroadcastss 0x1a580(%rip),%ymm12 # 32b3c <_sk_srcover_rgba_8888_sse2_lowp+0x9fc>
+ .byte 196,98,125,24,37,144,165,1,0 // vbroadcastss 0x1a590(%rip),%ymm12 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xa04>
.byte 196,193,4,88,196 // vaddps %ymm12,%ymm15,%ymm0
.byte 197,124,17,36,36 // vmovups %ymm12,(%rsp)
.byte 197,254,91,192 // vcvttps2dq %ymm0,%ymm0
@@ -34260,7 +34272,7 @@ _sk_clut_4D_avx:
.byte 197,228,89,210 // vmulps %ymm2,%ymm3,%ymm2
.byte 197,220,88,210 // vaddps %ymm2,%ymm4,%ymm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,205,134,1,0 // vbroadcastss 0x186cd(%rip),%ymm3 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 196,226,125,24,29,217,134,1,0 // vbroadcastss 0x186d9(%rip),%ymm3 # 329e8 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 197,252,16,164,36,64,2,0,0 // vmovups 0x240(%rsp),%ymm4
.byte 197,252,16,172,36,96,2,0,0 // vmovups 0x260(%rsp),%ymm5
.byte 197,252,16,180,36,128,2,0,0 // vmovups 0x280(%rsp),%ymm6
@@ -34293,13 +34305,13 @@ _sk_start_pipeline_sse41:
.byte 73,137,246 // mov %rsi,%r14
.byte 72,137,77,192 // mov %rcx,-0x40(%rbp)
.byte 72,57,203 // cmp %rcx,%rbx
- .byte 15,131,131,0,0,0 // jae 1a3e5 <_sk_start_pipeline_sse41+0xb6>
+ .byte 15,131,131,0,0,0 // jae 1a3f9 <_sk_start_pipeline_sse41+0xb6>
.byte 72,139,69,208 // mov -0x30(%rbp),%rax
.byte 72,141,64,4 // lea 0x4(%rax),%rax
.byte 72,137,69,200 // mov %rax,-0x38(%rbp)
.byte 76,57,125,200 // cmp %r15,-0x38(%rbp)
.byte 72,139,85,208 // mov -0x30(%rbp),%rdx
- .byte 119,59 // ja 1a3b3 <_sk_start_pipeline_sse41+0x84>
+ .byte 119,59 // ja 1a3c7 <_sk_start_pipeline_sse41+0x84>
.byte 76,139,101,208 // mov -0x30(%rbp),%r12
.byte 49,255 // xor %edi,%edi
.byte 15,87,192 // xorps %xmm0,%xmm0
@@ -34318,10 +34330,10 @@ _sk_start_pipeline_sse41:
.byte 73,131,196,8 // add $0x8,%r12
.byte 77,57,252 // cmp %r15,%r12
.byte 73,137,212 // mov %rdx,%r12
- .byte 118,201 // jbe 1a37c <_sk_start_pipeline_sse41+0x4d>
+ .byte 118,201 // jbe 1a390 <_sk_start_pipeline_sse41+0x4d>
.byte 76,137,255 // mov %r15,%rdi
.byte 72,41,215 // sub %rdx,%rdi
- .byte 116,33 // je 1a3dc <_sk_start_pipeline_sse41+0xad>
+ .byte 116,33 // je 1a3f0 <_sk_start_pipeline_sse41+0xad>
.byte 15,87,192 // xorps %xmm0,%xmm0
.byte 15,87,201 // xorps %xmm1,%xmm1
.byte 15,87,210 // xorps %xmm2,%xmm2
@@ -34335,7 +34347,7 @@ _sk_start_pipeline_sse41:
.byte 65,255,213 // callq *%r13
.byte 72,255,195 // inc %rbx
.byte 72,59,93,192 // cmp -0x40(%rbp),%rbx
- .byte 117,137 // jne 1a36e <_sk_start_pipeline_sse41+0x3f>
+ .byte 117,137 // jne 1a382 <_sk_start_pipeline_sse41+0x3f>
.byte 72,131,196,24 // add $0x18,%rsp
.byte 91 // pop %rbx
.byte 65,92 // pop %r12
@@ -34358,13 +34370,13 @@ _sk_seed_shader_sse41:
.byte 102,15,110,194 // movd %edx,%xmm0
.byte 102,15,112,192,0 // pshufd $0x0,%xmm0,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,88,5,168,135,1,0 // addps 0x187a8(%rip),%xmm0 # 32bb0 <_sk_srcover_rgba_8888_sse2_lowp+0xa70>
+ .byte 15,88,5,196,135,1,0 // addps 0x187c4(%rip),%xmm0 # 32be0 <_sk_srcover_rgba_8888_sse2_lowp+0xa84>
.byte 102,15,110,201 // movd %ecx,%xmm1
.byte 102,15,112,201,0 // pshufd $0x0,%xmm1,%xmm1
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
- .byte 15,88,13,165,135,1,0 // addps 0x187a5(%rip),%xmm1 # 32bc0 <_sk_srcover_rgba_8888_sse2_lowp+0xa80>
+ .byte 15,88,13,193,135,1,0 // addps 0x187c1(%rip),%xmm1 # 32bf0 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,21,172,135,1,0 // movaps 0x187ac(%rip),%xmm2 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xa90>
+ .byte 15,40,21,200,135,1,0 // movaps 0x187c8(%rip),%xmm2 # 32c00 <_sk_srcover_rgba_8888_sse2_lowp+0xaa4>
.byte 15,87,219 // xorps %xmm3,%xmm3
.byte 15,87,228 // xorps %xmm4,%xmm4
.byte 15,87,237 // xorps %xmm5,%xmm5
@@ -34379,18 +34391,18 @@ _sk_dither_sse41:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 102,68,15,110,194 // movd %edx,%xmm8
.byte 102,69,15,112,192,0 // pshufd $0x0,%xmm8,%xmm8
- .byte 102,68,15,254,5,69,135,1,0 // paddd 0x18745(%rip),%xmm8 # 32b90 <_sk_srcover_rgba_8888_sse2_lowp+0xa50>
+ .byte 102,68,15,254,5,97,135,1,0 // paddd 0x18761(%rip),%xmm8 # 32bc0 <_sk_srcover_rgba_8888_sse2_lowp+0xa64>
.byte 102,68,15,110,201 // movd %ecx,%xmm9
.byte 102,69,15,112,201,0 // pshufd $0x0,%xmm9,%xmm9
.byte 102,69,15,239,200 // pxor %xmm8,%xmm9
- .byte 102,68,15,111,21,124,135,1,0 // movdqa 0x1877c(%rip),%xmm10 # 32be0 <_sk_srcover_rgba_8888_sse2_lowp+0xaa0>
+ .byte 102,68,15,111,21,152,135,1,0 // movdqa 0x18798(%rip),%xmm10 # 32c10 <_sk_srcover_rgba_8888_sse2_lowp+0xab4>
.byte 102,69,15,111,217 // movdqa %xmm9,%xmm11
.byte 102,69,15,219,218 // pand %xmm10,%xmm11
.byte 102,65,15,114,243,5 // pslld $0x5,%xmm11
.byte 102,69,15,219,208 // pand %xmm8,%xmm10
.byte 102,65,15,114,242,4 // pslld $0x4,%xmm10
- .byte 102,68,15,111,37,104,135,1,0 // movdqa 0x18768(%rip),%xmm12 # 32bf0 <_sk_srcover_rgba_8888_sse2_lowp+0xab0>
- .byte 102,68,15,111,45,111,135,1,0 // movdqa 0x1876f(%rip),%xmm13 # 32c00 <_sk_srcover_rgba_8888_sse2_lowp+0xac0>
+ .byte 102,68,15,111,37,132,135,1,0 // movdqa 0x18784(%rip),%xmm12 # 32c20 <_sk_srcover_rgba_8888_sse2_lowp+0xac4>
+ .byte 102,68,15,111,45,139,135,1,0 // movdqa 0x1878b(%rip),%xmm13 # 32c30 <_sk_srcover_rgba_8888_sse2_lowp+0xad4>
.byte 102,69,15,111,241 // movdqa %xmm9,%xmm14
.byte 102,69,15,219,245 // pand %xmm13,%xmm14
.byte 102,65,15,114,246,2 // pslld $0x2,%xmm14
@@ -34406,8 +34418,8 @@ _sk_dither_sse41:
.byte 102,69,15,235,198 // por %xmm14,%xmm8
.byte 102,69,15,235,193 // por %xmm9,%xmm8
.byte 69,15,91,192 // cvtdq2ps %xmm8,%xmm8
- .byte 68,15,89,5,42,135,1,0 // mulps 0x1872a(%rip),%xmm8 # 32c10 <_sk_srcover_rgba_8888_sse2_lowp+0xad0>
- .byte 68,15,88,5,50,135,1,0 // addps 0x18732(%rip),%xmm8 # 32c20 <_sk_srcover_rgba_8888_sse2_lowp+0xae0>
+ .byte 68,15,89,5,70,135,1,0 // mulps 0x18746(%rip),%xmm8 # 32c40 <_sk_srcover_rgba_8888_sse2_lowp+0xae4>
+ .byte 68,15,88,5,78,135,1,0 // addps 0x1874e(%rip),%xmm8 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xaf4>
.byte 243,68,15,16,16 // movss (%rax),%xmm10
.byte 69,15,198,210,0 // shufps $0x0,%xmm10,%xmm10
.byte 69,15,89,208 // mulps %xmm8,%xmm10
@@ -34449,7 +34461,7 @@ HIDDEN _sk_black_color_sse41
FUNCTION(_sk_black_color_sse41)
_sk_black_color_sse41:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,104,134,1,0 // movaps 0x18668(%rip),%xmm3 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xa90>
+ .byte 15,40,29,132,134,1,0 // movaps 0x18684(%rip),%xmm3 # 32c00 <_sk_srcover_rgba_8888_sse2_lowp+0xaa4>
.byte 15,87,192 // xorps %xmm0,%xmm0
.byte 15,87,201 // xorps %xmm1,%xmm1
.byte 15,87,210 // xorps %xmm2,%xmm2
@@ -34460,7 +34472,7 @@ HIDDEN _sk_white_color_sse41
FUNCTION(_sk_white_color_sse41)
_sk_white_color_sse41:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,5,84,134,1,0 // movaps 0x18654(%rip),%xmm0 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xa90>
+ .byte 15,40,5,112,134,1,0 // movaps 0x18670(%rip),%xmm0 # 32c00 <_sk_srcover_rgba_8888_sse2_lowp+0xaa4>
.byte 15,40,200 // movaps %xmm0,%xmm1
.byte 15,40,208 // movaps %xmm0,%xmm2
.byte 15,40,216 // movaps %xmm0,%xmm3
@@ -34506,7 +34518,7 @@ HIDDEN _sk_srcatop_sse41
FUNCTION(_sk_srcatop_sse41)
_sk_srcatop_sse41:
.byte 15,89,199 // mulps %xmm7,%xmm0
- .byte 68,15,40,5,4,134,1,0 // movaps 0x18604(%rip),%xmm8 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xa90>
+ .byte 68,15,40,5,32,134,1,0 // movaps 0x18620(%rip),%xmm8 # 32c00 <_sk_srcover_rgba_8888_sse2_lowp+0xaa4>
.byte 68,15,92,195 // subps %xmm3,%xmm8
.byte 69,15,40,200 // movaps %xmm8,%xmm9
.byte 68,15,89,204 // mulps %xmm4,%xmm9
@@ -34531,7 +34543,7 @@ FUNCTION(_sk_dstatop_sse41)
_sk_dstatop_sse41:
.byte 68,15,40,195 // movaps %xmm3,%xmm8
.byte 68,15,89,196 // mulps %xmm4,%xmm8
- .byte 68,15,40,13,183,133,1,0 // movaps 0x185b7(%rip),%xmm9 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xa90>
+ .byte 68,15,40,13,211,133,1,0 // movaps 0x185d3(%rip),%xmm9 # 32c00 <_sk_srcover_rgba_8888_sse2_lowp+0xaa4>
.byte 68,15,92,207 // subps %xmm7,%xmm9
.byte 65,15,89,193 // mulps %xmm9,%xmm0
.byte 65,15,88,192 // addps %xmm8,%xmm0
@@ -34578,7 +34590,7 @@ HIDDEN _sk_srcout_sse41
.globl _sk_srcout_sse41
FUNCTION(_sk_srcout_sse41)
_sk_srcout_sse41:
- .byte 68,15,40,5,75,133,1,0 // movaps 0x1854b(%rip),%xmm8 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xa90>
+ .byte 68,15,40,5,103,133,1,0 // movaps 0x18567(%rip),%xmm8 # 32c00 <_sk_srcover_rgba_8888_sse2_lowp+0xaa4>
.byte 68,15,92,199 // subps %xmm7,%xmm8
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 65,15,89,200 // mulps %xmm8,%xmm1
@@ -34591,7 +34603,7 @@ HIDDEN _sk_dstout_sse41
.globl _sk_dstout_sse41
FUNCTION(_sk_dstout_sse41)
_sk_dstout_sse41:
- .byte 68,15,40,5,43,133,1,0 // movaps 0x1852b(%rip),%xmm8 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xa90>
+ .byte 68,15,40,5,71,133,1,0 // movaps 0x18547(%rip),%xmm8 # 32c00 <_sk_srcover_rgba_8888_sse2_lowp+0xaa4>
.byte 68,15,92,195 // subps %xmm3,%xmm8
.byte 65,15,40,192 // movaps %xmm8,%xmm0
.byte 15,89,196 // mulps %xmm4,%xmm0
@@ -34608,7 +34620,7 @@ HIDDEN _sk_srcover_sse41
.globl _sk_srcover_sse41
FUNCTION(_sk_srcover_sse41)
_sk_srcover_sse41:
- .byte 68,15,40,5,254,132,1,0 // movaps 0x184fe(%rip),%xmm8 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xa90>
+ .byte 68,15,40,5,26,133,1,0 // movaps 0x1851a(%rip),%xmm8 # 32c00 <_sk_srcover_rgba_8888_sse2_lowp+0xaa4>
.byte 68,15,92,195 // subps %xmm3,%xmm8
.byte 69,15,40,200 // movaps %xmm8,%xmm9
.byte 68,15,89,204 // mulps %xmm4,%xmm9
@@ -34628,7 +34640,7 @@ HIDDEN _sk_dstover_sse41
.globl _sk_dstover_sse41
FUNCTION(_sk_dstover_sse41)
_sk_dstover_sse41:
- .byte 68,15,40,5,194,132,1,0 // movaps 0x184c2(%rip),%xmm8 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xa90>
+ .byte 68,15,40,5,222,132,1,0 // movaps 0x184de(%rip),%xmm8 # 32c00 <_sk_srcover_rgba_8888_sse2_lowp+0xaa4>
.byte 68,15,92,199 // subps %xmm7,%xmm8
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 15,88,196 // addps %xmm4,%xmm0
@@ -34656,7 +34668,7 @@ HIDDEN _sk_multiply_sse41
.globl _sk_multiply_sse41
FUNCTION(_sk_multiply_sse41)
_sk_multiply_sse41:
- .byte 68,15,40,5,134,132,1,0 // movaps 0x18486(%rip),%xmm8 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xa90>
+ .byte 68,15,40,5,162,132,1,0 // movaps 0x184a2(%rip),%xmm8 # 32c00 <_sk_srcover_rgba_8888_sse2_lowp+0xaa4>
.byte 69,15,40,200 // movaps %xmm8,%xmm9
.byte 68,15,92,207 // subps %xmm7,%xmm9
.byte 69,15,40,209 // movaps %xmm9,%xmm10
@@ -34694,7 +34706,7 @@ HIDDEN _sk_plus__sse41
FUNCTION(_sk_plus__sse41)
_sk_plus__sse41:
.byte 15,88,196 // addps %xmm4,%xmm0
- .byte 68,15,40,5,7,132,1,0 // movaps 0x18407(%rip),%xmm8 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xa90>
+ .byte 68,15,40,5,35,132,1,0 // movaps 0x18423(%rip),%xmm8 # 32c00 <_sk_srcover_rgba_8888_sse2_lowp+0xaa4>
.byte 65,15,93,192 // minps %xmm8,%xmm0
.byte 15,88,205 // addps %xmm5,%xmm1
.byte 65,15,93,200 // minps %xmm8,%xmm1
@@ -34736,7 +34748,7 @@ HIDDEN _sk_xor__sse41
FUNCTION(_sk_xor__sse41)
_sk_xor__sse41:
.byte 68,15,40,195 // movaps %xmm3,%xmm8
- .byte 15,40,29,147,131,1,0 // movaps 0x18393(%rip),%xmm3 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xa90>
+ .byte 15,40,29,175,131,1,0 // movaps 0x183af(%rip),%xmm3 # 32c00 <_sk_srcover_rgba_8888_sse2_lowp+0xaa4>
.byte 68,15,40,203 // movaps %xmm3,%xmm9
.byte 68,15,92,207 // subps %xmm7,%xmm9
.byte 65,15,89,193 // mulps %xmm9,%xmm0
@@ -34784,7 +34796,7 @@ _sk_darken_sse41:
.byte 68,15,89,206 // mulps %xmm6,%xmm9
.byte 65,15,95,209 // maxps %xmm9,%xmm2
.byte 68,15,92,194 // subps %xmm2,%xmm8
- .byte 15,40,21,238,130,1,0 // movaps 0x182ee(%rip),%xmm2 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xa90>
+ .byte 15,40,21,10,131,1,0 // movaps 0x1830a(%rip),%xmm2 # 32c00 <_sk_srcover_rgba_8888_sse2_lowp+0xaa4>
.byte 15,92,211 // subps %xmm3,%xmm2
.byte 15,89,215 // mulps %xmm7,%xmm2
.byte 15,88,218 // addps %xmm2,%xmm3
@@ -34818,7 +34830,7 @@ _sk_lighten_sse41:
.byte 68,15,89,206 // mulps %xmm6,%xmm9
.byte 65,15,93,209 // minps %xmm9,%xmm2
.byte 68,15,92,194 // subps %xmm2,%xmm8
- .byte 15,40,21,131,130,1,0 // movaps 0x18283(%rip),%xmm2 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xa90>
+ .byte 15,40,21,159,130,1,0 // movaps 0x1829f(%rip),%xmm2 # 32c00 <_sk_srcover_rgba_8888_sse2_lowp+0xaa4>
.byte 15,92,211 // subps %xmm3,%xmm2
.byte 15,89,215 // mulps %xmm7,%xmm2
.byte 15,88,218 // addps %xmm2,%xmm3
@@ -34855,7 +34867,7 @@ _sk_difference_sse41:
.byte 65,15,93,209 // minps %xmm9,%xmm2
.byte 15,88,210 // addps %xmm2,%xmm2
.byte 68,15,92,194 // subps %xmm2,%xmm8
- .byte 15,40,21,13,130,1,0 // movaps 0x1820d(%rip),%xmm2 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xa90>
+ .byte 15,40,21,41,130,1,0 // movaps 0x18229(%rip),%xmm2 # 32c00 <_sk_srcover_rgba_8888_sse2_lowp+0xaa4>
.byte 15,92,211 // subps %xmm3,%xmm2
.byte 15,89,215 // mulps %xmm7,%xmm2
.byte 15,88,218 // addps %xmm2,%xmm3
@@ -34883,7 +34895,7 @@ _sk_exclusion_sse41:
.byte 15,89,214 // mulps %xmm6,%xmm2
.byte 15,88,210 // addps %xmm2,%xmm2
.byte 68,15,92,194 // subps %xmm2,%xmm8
- .byte 15,40,21,189,129,1,0 // movaps 0x181bd(%rip),%xmm2 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xa90>
+ .byte 15,40,21,217,129,1,0 // movaps 0x181d9(%rip),%xmm2 # 32c00 <_sk_srcover_rgba_8888_sse2_lowp+0xaa4>
.byte 15,92,211 // subps %xmm3,%xmm2
.byte 15,89,215 // mulps %xmm7,%xmm2
.byte 15,88,218 // addps %xmm2,%xmm3
@@ -34895,7 +34907,7 @@ HIDDEN _sk_colorburn_sse41
.globl _sk_colorburn_sse41
FUNCTION(_sk_colorburn_sse41)
_sk_colorburn_sse41:
- .byte 68,15,40,29,164,129,1,0 // movaps 0x181a4(%rip),%xmm11 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xa90>
+ .byte 68,15,40,29,192,129,1,0 // movaps 0x181c0(%rip),%xmm11 # 32c00 <_sk_srcover_rgba_8888_sse2_lowp+0xaa4>
.byte 69,15,40,227 // movaps %xmm11,%xmm12
.byte 68,15,92,231 // subps %xmm7,%xmm12
.byte 69,15,40,204 // movaps %xmm12,%xmm9
@@ -34979,7 +34991,7 @@ HIDDEN _sk_colordodge_sse41
FUNCTION(_sk_colordodge_sse41)
_sk_colordodge_sse41:
.byte 68,15,40,192 // movaps %xmm0,%xmm8
- .byte 68,15,40,21,110,128,1,0 // movaps 0x1806e(%rip),%xmm10 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xa90>
+ .byte 68,15,40,21,138,128,1,0 // movaps 0x1808a(%rip),%xmm10 # 32c00 <_sk_srcover_rgba_8888_sse2_lowp+0xaa4>
.byte 69,15,40,218 // movaps %xmm10,%xmm11
.byte 68,15,92,223 // subps %xmm7,%xmm11
.byte 69,15,40,227 // movaps %xmm11,%xmm12
@@ -35061,7 +35073,7 @@ _sk_hardlight_sse41:
.byte 15,40,244 // movaps %xmm4,%xmm6
.byte 15,40,227 // movaps %xmm3,%xmm4
.byte 68,15,40,200 // movaps %xmm0,%xmm9
- .byte 68,15,40,21,57,127,1,0 // movaps 0x17f39(%rip),%xmm10 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xa90>
+ .byte 68,15,40,21,85,127,1,0 // movaps 0x17f55(%rip),%xmm10 # 32c00 <_sk_srcover_rgba_8888_sse2_lowp+0xaa4>
.byte 65,15,40,234 // movaps %xmm10,%xmm5
.byte 15,92,239 // subps %xmm7,%xmm5
.byte 15,40,197 // movaps %xmm5,%xmm0
@@ -35144,7 +35156,7 @@ FUNCTION(_sk_overlay_sse41)
_sk_overlay_sse41:
.byte 68,15,40,201 // movaps %xmm1,%xmm9
.byte 68,15,40,240 // movaps %xmm0,%xmm14
- .byte 68,15,40,21,14,126,1,0 // movaps 0x17e0e(%rip),%xmm10 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xa90>
+ .byte 68,15,40,21,42,126,1,0 // movaps 0x17e2a(%rip),%xmm10 # 32c00 <_sk_srcover_rgba_8888_sse2_lowp+0xaa4>
.byte 69,15,40,218 // movaps %xmm10,%xmm11
.byte 68,15,92,223 // subps %xmm7,%xmm11
.byte 65,15,40,195 // movaps %xmm11,%xmm0
@@ -35229,7 +35241,7 @@ _sk_softlight_sse41:
.byte 15,40,198 // movaps %xmm6,%xmm0
.byte 15,94,199 // divps %xmm7,%xmm0
.byte 65,15,84,193 // andps %xmm9,%xmm0
- .byte 15,40,13,213,124,1,0 // movaps 0x17cd5(%rip),%xmm1 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xa90>
+ .byte 15,40,13,241,124,1,0 // movaps 0x17cf1(%rip),%xmm1 # 32c00 <_sk_srcover_rgba_8888_sse2_lowp+0xaa4>
.byte 68,15,40,209 // movaps %xmm1,%xmm10
.byte 68,15,92,208 // subps %xmm0,%xmm10
.byte 68,15,40,240 // movaps %xmm0,%xmm14
@@ -35242,10 +35254,10 @@ _sk_softlight_sse41:
.byte 15,40,208 // movaps %xmm0,%xmm2
.byte 15,89,210 // mulps %xmm2,%xmm2
.byte 15,88,208 // addps %xmm0,%xmm2
- .byte 68,15,40,45,3,125,1,0 // movaps 0x17d03(%rip),%xmm13 # 32c30 <_sk_srcover_rgba_8888_sse2_lowp+0xaf0>
+ .byte 68,15,40,45,31,125,1,0 // movaps 0x17d1f(%rip),%xmm13 # 32c60 <_sk_srcover_rgba_8888_sse2_lowp+0xb04>
.byte 69,15,88,245 // addps %xmm13,%xmm14
.byte 68,15,89,242 // mulps %xmm2,%xmm14
- .byte 68,15,40,37,3,125,1,0 // movaps 0x17d03(%rip),%xmm12 # 32c40 <_sk_srcover_rgba_8888_sse2_lowp+0xb00>
+ .byte 68,15,40,37,31,125,1,0 // movaps 0x17d1f(%rip),%xmm12 # 32c70 <_sk_srcover_rgba_8888_sse2_lowp+0xb14>
.byte 69,15,89,252 // mulps %xmm12,%xmm15
.byte 69,15,88,254 // addps %xmm14,%xmm15
.byte 15,40,198 // movaps %xmm6,%xmm0
@@ -35431,12 +35443,12 @@ _sk_hue_sse41:
.byte 68,15,84,208 // andps %xmm0,%xmm10
.byte 15,84,200 // andps %xmm0,%xmm1
.byte 68,15,84,232 // andps %xmm0,%xmm13
- .byte 15,40,5,110,122,1,0 // movaps 0x17a6e(%rip),%xmm0 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xb10>
+ .byte 15,40,5,138,122,1,0 // movaps 0x17a8a(%rip),%xmm0 # 32c80 <_sk_srcover_rgba_8888_sse2_lowp+0xb24>
.byte 68,15,89,224 // mulps %xmm0,%xmm12
- .byte 15,40,21,115,122,1,0 // movaps 0x17a73(%rip),%xmm2 # 32c60 <_sk_srcover_rgba_8888_sse2_lowp+0xb20>
+ .byte 15,40,21,143,122,1,0 // movaps 0x17a8f(%rip),%xmm2 # 32c90 <_sk_srcover_rgba_8888_sse2_lowp+0xb34>
.byte 15,89,250 // mulps %xmm2,%xmm7
.byte 65,15,88,252 // addps %xmm12,%xmm7
- .byte 68,15,40,53,116,122,1,0 // movaps 0x17a74(%rip),%xmm14 # 32c70 <_sk_srcover_rgba_8888_sse2_lowp+0xb30>
+ .byte 68,15,40,53,144,122,1,0 // movaps 0x17a90(%rip),%xmm14 # 32ca0 <_sk_srcover_rgba_8888_sse2_lowp+0xb44>
.byte 68,15,40,252 // movaps %xmm4,%xmm15
.byte 69,15,89,254 // mulps %xmm14,%xmm15
.byte 68,15,88,255 // addps %xmm7,%xmm15
@@ -35519,7 +35531,7 @@ _sk_hue_sse41:
.byte 65,15,88,214 // addps %xmm14,%xmm2
.byte 15,40,196 // movaps %xmm4,%xmm0
.byte 102,15,56,20,202 // blendvps %xmm0,%xmm2,%xmm1
- .byte 68,15,40,13,136,120,1,0 // movaps 0x17888(%rip),%xmm9 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xa90>
+ .byte 68,15,40,13,164,120,1,0 // movaps 0x178a4(%rip),%xmm9 # 32c00 <_sk_srcover_rgba_8888_sse2_lowp+0xaa4>
.byte 65,15,40,225 // movaps %xmm9,%xmm4
.byte 15,92,229 // subps %xmm5,%xmm4
.byte 15,40,68,36,200 // movaps -0x38(%rsp),%xmm0
@@ -35613,14 +35625,14 @@ _sk_saturation_sse41:
.byte 68,15,84,215 // andps %xmm7,%xmm10
.byte 68,15,84,223 // andps %xmm7,%xmm11
.byte 68,15,84,199 // andps %xmm7,%xmm8
- .byte 15,40,21,178,119,1,0 // movaps 0x177b2(%rip),%xmm2 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xb10>
+ .byte 15,40,21,206,119,1,0 // movaps 0x177ce(%rip),%xmm2 # 32c80 <_sk_srcover_rgba_8888_sse2_lowp+0xb24>
.byte 15,40,221 // movaps %xmm5,%xmm3
.byte 15,89,218 // mulps %xmm2,%xmm3
- .byte 15,40,13,181,119,1,0 // movaps 0x177b5(%rip),%xmm1 # 32c60 <_sk_srcover_rgba_8888_sse2_lowp+0xb20>
+ .byte 15,40,13,209,119,1,0 // movaps 0x177d1(%rip),%xmm1 # 32c90 <_sk_srcover_rgba_8888_sse2_lowp+0xb34>
.byte 15,40,254 // movaps %xmm6,%xmm7
.byte 15,89,249 // mulps %xmm1,%xmm7
.byte 15,88,251 // addps %xmm3,%xmm7
- .byte 68,15,40,45,180,119,1,0 // movaps 0x177b4(%rip),%xmm13 # 32c70 <_sk_srcover_rgba_8888_sse2_lowp+0xb30>
+ .byte 68,15,40,45,208,119,1,0 // movaps 0x177d0(%rip),%xmm13 # 32ca0 <_sk_srcover_rgba_8888_sse2_lowp+0xb44>
.byte 69,15,89,245 // mulps %xmm13,%xmm14
.byte 68,15,88,247 // addps %xmm7,%xmm14
.byte 65,15,40,218 // movaps %xmm10,%xmm3
@@ -35701,7 +35713,7 @@ _sk_saturation_sse41:
.byte 65,15,88,253 // addps %xmm13,%xmm7
.byte 65,15,40,192 // movaps %xmm8,%xmm0
.byte 102,68,15,56,20,223 // blendvps %xmm0,%xmm7,%xmm11
- .byte 68,15,40,13,202,117,1,0 // movaps 0x175ca(%rip),%xmm9 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xa90>
+ .byte 68,15,40,13,230,117,1,0 // movaps 0x175e6(%rip),%xmm9 # 32c00 <_sk_srcover_rgba_8888_sse2_lowp+0xaa4>
.byte 69,15,40,193 // movaps %xmm9,%xmm8
.byte 68,15,92,204 // subps %xmm4,%xmm9
.byte 15,40,124,36,168 // movaps -0x58(%rsp),%xmm7
@@ -35756,14 +35768,14 @@ _sk_color_sse41:
.byte 15,40,231 // movaps %xmm7,%xmm4
.byte 68,15,89,244 // mulps %xmm4,%xmm14
.byte 15,89,204 // mulps %xmm4,%xmm1
- .byte 68,15,40,13,133,117,1,0 // movaps 0x17585(%rip),%xmm9 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xb10>
+ .byte 68,15,40,13,161,117,1,0 // movaps 0x175a1(%rip),%xmm9 # 32c80 <_sk_srcover_rgba_8888_sse2_lowp+0xb24>
.byte 65,15,40,250 // movaps %xmm10,%xmm7
.byte 65,15,89,249 // mulps %xmm9,%xmm7
- .byte 68,15,40,21,133,117,1,0 // movaps 0x17585(%rip),%xmm10 # 32c60 <_sk_srcover_rgba_8888_sse2_lowp+0xb20>
+ .byte 68,15,40,21,161,117,1,0 // movaps 0x175a1(%rip),%xmm10 # 32c90 <_sk_srcover_rgba_8888_sse2_lowp+0xb34>
.byte 65,15,40,219 // movaps %xmm11,%xmm3
.byte 65,15,89,218 // mulps %xmm10,%xmm3
.byte 15,88,223 // addps %xmm7,%xmm3
- .byte 68,15,40,29,130,117,1,0 // movaps 0x17582(%rip),%xmm11 # 32c70 <_sk_srcover_rgba_8888_sse2_lowp+0xb30>
+ .byte 68,15,40,29,158,117,1,0 // movaps 0x1759e(%rip),%xmm11 # 32ca0 <_sk_srcover_rgba_8888_sse2_lowp+0xb44>
.byte 69,15,40,236 // movaps %xmm12,%xmm13
.byte 69,15,89,235 // mulps %xmm11,%xmm13
.byte 68,15,88,235 // addps %xmm3,%xmm13
@@ -35848,7 +35860,7 @@ _sk_color_sse41:
.byte 65,15,88,251 // addps %xmm11,%xmm7
.byte 65,15,40,194 // movaps %xmm10,%xmm0
.byte 102,15,56,20,207 // blendvps %xmm0,%xmm7,%xmm1
- .byte 68,15,40,13,142,115,1,0 // movaps 0x1738e(%rip),%xmm9 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xa90>
+ .byte 68,15,40,13,170,115,1,0 // movaps 0x173aa(%rip),%xmm9 # 32c00 <_sk_srcover_rgba_8888_sse2_lowp+0xaa4>
.byte 65,15,40,193 // movaps %xmm9,%xmm0
.byte 15,92,196 // subps %xmm4,%xmm0
.byte 68,15,89,192 // mulps %xmm0,%xmm8
@@ -35900,13 +35912,13 @@ _sk_luminosity_sse41:
.byte 69,15,89,216 // mulps %xmm8,%xmm11
.byte 68,15,40,203 // movaps %xmm3,%xmm9
.byte 68,15,89,205 // mulps %xmm5,%xmm9
- .byte 68,15,40,5,86,115,1,0 // movaps 0x17356(%rip),%xmm8 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xb10>
+ .byte 68,15,40,5,114,115,1,0 // movaps 0x17372(%rip),%xmm8 # 32c80 <_sk_srcover_rgba_8888_sse2_lowp+0xb24>
.byte 65,15,89,192 // mulps %xmm8,%xmm0
- .byte 68,15,40,21,90,115,1,0 // movaps 0x1735a(%rip),%xmm10 # 32c60 <_sk_srcover_rgba_8888_sse2_lowp+0xb20>
+ .byte 68,15,40,21,118,115,1,0 // movaps 0x17376(%rip),%xmm10 # 32c90 <_sk_srcover_rgba_8888_sse2_lowp+0xb34>
.byte 15,40,233 // movaps %xmm1,%xmm5
.byte 65,15,89,234 // mulps %xmm10,%xmm5
.byte 15,88,232 // addps %xmm0,%xmm5
- .byte 68,15,40,37,88,115,1,0 // movaps 0x17358(%rip),%xmm12 # 32c70 <_sk_srcover_rgba_8888_sse2_lowp+0xb30>
+ .byte 68,15,40,37,116,115,1,0 // movaps 0x17374(%rip),%xmm12 # 32ca0 <_sk_srcover_rgba_8888_sse2_lowp+0xb44>
.byte 68,15,40,242 // movaps %xmm2,%xmm14
.byte 69,15,89,244 // mulps %xmm12,%xmm14
.byte 68,15,88,245 // addps %xmm5,%xmm14
@@ -35991,7 +36003,7 @@ _sk_luminosity_sse41:
.byte 65,15,88,244 // addps %xmm12,%xmm6
.byte 65,15,40,195 // movaps %xmm11,%xmm0
.byte 102,68,15,56,20,206 // blendvps %xmm0,%xmm6,%xmm9
- .byte 15,40,5,94,113,1,0 // movaps 0x1715e(%rip),%xmm0 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xa90>
+ .byte 15,40,5,122,113,1,0 // movaps 0x1717a(%rip),%xmm0 # 32c00 <_sk_srcover_rgba_8888_sse2_lowp+0xaa4>
.byte 15,40,208 // movaps %xmm0,%xmm2
.byte 15,92,215 // subps %xmm7,%xmm2
.byte 15,89,226 // mulps %xmm2,%xmm4
@@ -36036,23 +36048,23 @@ _sk_srcover_rgba_8888_sse41:
.byte 76,3,0 // add (%rax),%r8
.byte 72,99,194 // movslq %edx,%rax
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,219,0,0,0 // jne 1bbda <_sk_srcover_rgba_8888_sse41+0xfb>
+ .byte 15,133,219,0,0,0 // jne 1bbee <_sk_srcover_rgba_8888_sse41+0xfb>
.byte 243,65,15,111,60,128 // movdqu (%r8,%rax,4),%xmm7
.byte 72,133,255 // test %rdi,%rdi
- .byte 102,15,111,37,112,113,1,0 // movdqa 0x17170(%rip),%xmm4 # 32c80 <_sk_srcover_rgba_8888_sse2_lowp+0xb40>
+ .byte 102,15,111,37,140,113,1,0 // movdqa 0x1718c(%rip),%xmm4 # 32cb0 <_sk_srcover_rgba_8888_sse2_lowp+0xb54>
.byte 102,15,219,231 // pand %xmm7,%xmm4
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
.byte 102,15,111,239 // movdqa %xmm7,%xmm5
- .byte 102,15,56,0,45,108,113,1,0 // pshufb 0x1716c(%rip),%xmm5 # 32c90 <_sk_srcover_rgba_8888_sse2_lowp+0xb50>
+ .byte 102,15,56,0,45,136,113,1,0 // pshufb 0x17188(%rip),%xmm5 # 32cc0 <_sk_srcover_rgba_8888_sse2_lowp+0xb64>
.byte 15,91,237 // cvtdq2ps %xmm5,%xmm5
.byte 102,15,111,247 // movdqa %xmm7,%xmm6
- .byte 102,15,56,0,53,108,113,1,0 // pshufb 0x1716c(%rip),%xmm6 # 32ca0 <_sk_srcover_rgba_8888_sse2_lowp+0xb60>
+ .byte 102,15,56,0,53,136,113,1,0 // pshufb 0x17188(%rip),%xmm6 # 32cd0 <_sk_srcover_rgba_8888_sse2_lowp+0xb74>
.byte 15,91,246 // cvtdq2ps %xmm6,%xmm6
.byte 102,15,114,215,24 // psrld $0x18,%xmm7
.byte 15,91,255 // cvtdq2ps %xmm7,%xmm7
- .byte 68,15,40,5,137,112,1,0 // movaps 0x17089(%rip),%xmm8 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xa90>
+ .byte 68,15,40,5,165,112,1,0 // movaps 0x170a5(%rip),%xmm8 # 32c00 <_sk_srcover_rgba_8888_sse2_lowp+0xaa4>
.byte 68,15,92,195 // subps %xmm3,%xmm8
- .byte 68,15,40,37,93,113,1,0 // movaps 0x1715d(%rip),%xmm12 # 32cb0 <_sk_srcover_rgba_8888_sse2_lowp+0xb70>
+ .byte 68,15,40,37,121,113,1,0 // movaps 0x17179(%rip),%xmm12 # 32ce0 <_sk_srcover_rgba_8888_sse2_lowp+0xb84>
.byte 65,15,89,196 // mulps %xmm12,%xmm0
.byte 69,15,40,200 // movaps %xmm8,%xmm9
.byte 68,15,89,204 // mulps %xmm4,%xmm9
@@ -36078,7 +36090,7 @@ _sk_srcover_rgba_8888_sse41:
.byte 102,15,114,240,24 // pslld $0x18,%xmm0
.byte 102,15,235,194 // por %xmm2,%xmm0
.byte 102,15,235,193 // por %xmm1,%xmm0
- .byte 117,88 // jne 1bc18 <_sk_srcover_rgba_8888_sse41+0x139>
+ .byte 117,88 // jne 1bc2c <_sk_srcover_rgba_8888_sse41+0x139>
.byte 243,65,15,127,4,128 // movdqu %xmm0,(%r8,%rax,4)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 65,15,40,193 // movaps %xmm9,%xmm0
@@ -36089,32 +36101,32 @@ _sk_srcover_rgba_8888_sse41:
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,91 // je 1bc42 <_sk_srcover_rgba_8888_sse41+0x163>
+ .byte 116,91 // je 1bc56 <_sk_srcover_rgba_8888_sse41+0x163>
.byte 102,15,239,255 // pxor %xmm7,%xmm7
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,22 // je 1bc07 <_sk_srcover_rgba_8888_sse41+0x128>
+ .byte 116,22 // je 1bc1b <_sk_srcover_rgba_8888_sse41+0x128>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 15,133,10,255,255,255 // jne 1bb05 <_sk_srcover_rgba_8888_sse41+0x26>
+ .byte 15,133,10,255,255,255 // jne 1bb19 <_sk_srcover_rgba_8888_sse41+0x26>
.byte 102,65,15,110,100,128,8 // movd 0x8(%r8,%rax,4),%xmm4
.byte 102,15,112,252,69 // pshufd $0x45,%xmm4,%xmm7
.byte 243,65,15,126,36,128 // movq (%r8,%rax,4),%xmm4
.byte 102,15,58,14,252,15 // pblendw $0xf,%xmm4,%xmm7
- .byte 233,237,254,255,255 // jmpq 1bb05 <_sk_srcover_rgba_8888_sse41+0x26>
+ .byte 233,237,254,255,255 // jmpq 1bb19 <_sk_srcover_rgba_8888_sse41+0x26>
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,40 // je 1bc4d <_sk_srcover_rgba_8888_sse41+0x16e>
+ .byte 116,40 // je 1bc61 <_sk_srcover_rgba_8888_sse41+0x16e>
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,15 // je 1bc3a <_sk_srcover_rgba_8888_sse41+0x15b>
+ .byte 116,15 // je 1bc4e <_sk_srcover_rgba_8888_sse41+0x15b>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,149 // jne 1bbc6 <_sk_srcover_rgba_8888_sse41+0xe7>
+ .byte 117,149 // jne 1bbda <_sk_srcover_rgba_8888_sse41+0xe7>
.byte 102,65,15,58,22,68,128,8,2 // pextrd $0x2,%xmm0,0x8(%r8,%rax,4)
.byte 102,65,15,214,4,128 // movq %xmm0,(%r8,%rax,4)
- .byte 235,132 // jmp 1bbc6 <_sk_srcover_rgba_8888_sse41+0xe7>
+ .byte 235,132 // jmp 1bbda <_sk_srcover_rgba_8888_sse41+0xe7>
.byte 102,65,15,110,60,128 // movd (%r8,%rax,4),%xmm7
- .byte 233,184,254,255,255 // jmpq 1bb05 <_sk_srcover_rgba_8888_sse41+0x26>
+ .byte 233,184,254,255,255 // jmpq 1bb19 <_sk_srcover_rgba_8888_sse41+0x26>
.byte 102,65,15,126,4,128 // movd %xmm0,(%r8,%rax,4)
- .byte 233,110,255,255,255 // jmpq 1bbc6 <_sk_srcover_rgba_8888_sse41+0xe7>
+ .byte 233,110,255,255,255 // jmpq 1bbda <_sk_srcover_rgba_8888_sse41+0xe7>
HIDDEN _sk_clamp_0_sse41
.globl _sk_clamp_0_sse41
@@ -36132,7 +36144,7 @@ HIDDEN _sk_clamp_1_sse41
.globl _sk_clamp_1_sse41
FUNCTION(_sk_clamp_1_sse41)
_sk_clamp_1_sse41:
- .byte 68,15,40,5,88,111,1,0 // movaps 0x16f58(%rip),%xmm8 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xa90>
+ .byte 68,15,40,5,116,111,1,0 // movaps 0x16f74(%rip),%xmm8 # 32c00 <_sk_srcover_rgba_8888_sse2_lowp+0xaa4>
.byte 65,15,93,192 // minps %xmm8,%xmm0
.byte 65,15,93,200 // minps %xmm8,%xmm1
.byte 65,15,93,208 // minps %xmm8,%xmm2
@@ -36144,7 +36156,7 @@ HIDDEN _sk_clamp_a_sse41
.globl _sk_clamp_a_sse41
FUNCTION(_sk_clamp_a_sse41)
_sk_clamp_a_sse41:
- .byte 15,93,29,61,111,1,0 // minps 0x16f3d(%rip),%xmm3 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xa90>
+ .byte 15,93,29,89,111,1,0 // minps 0x16f59(%rip),%xmm3 # 32c00 <_sk_srcover_rgba_8888_sse2_lowp+0xaa4>
.byte 15,93,195 // minps %xmm3,%xmm0
.byte 15,93,203 // minps %xmm3,%xmm1
.byte 15,93,211 // minps %xmm3,%xmm2
@@ -36155,7 +36167,7 @@ HIDDEN _sk_clamp_a_dst_sse41
.globl _sk_clamp_a_dst_sse41
FUNCTION(_sk_clamp_a_dst_sse41)
_sk_clamp_a_dst_sse41:
- .byte 15,93,61,41,111,1,0 // minps 0x16f29(%rip),%xmm7 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xa90>
+ .byte 15,93,61,69,111,1,0 // minps 0x16f45(%rip),%xmm7 # 32c00 <_sk_srcover_rgba_8888_sse2_lowp+0xaa4>
.byte 15,93,231 // minps %xmm7,%xmm4
.byte 15,93,239 // minps %xmm7,%xmm5
.byte 15,93,247 // minps %xmm7,%xmm6
@@ -36190,7 +36202,7 @@ HIDDEN _sk_invert_sse41
.globl _sk_invert_sse41
FUNCTION(_sk_invert_sse41)
_sk_invert_sse41:
- .byte 68,15,40,5,229,110,1,0 // movaps 0x16ee5(%rip),%xmm8 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xa90>
+ .byte 68,15,40,5,1,111,1,0 // movaps 0x16f01(%rip),%xmm8 # 32c00 <_sk_srcover_rgba_8888_sse2_lowp+0xaa4>
.byte 69,15,40,200 // movaps %xmm8,%xmm9
.byte 68,15,92,200 // subps %xmm0,%xmm9
.byte 69,15,40,208 // movaps %xmm8,%xmm10
@@ -36251,14 +36263,14 @@ HIDDEN _sk_unpremul_sse41
.globl _sk_unpremul_sse41
FUNCTION(_sk_unpremul_sse41)
_sk_unpremul_sse41:
- .byte 69,15,87,192 // xorps %xmm8,%xmm8
- .byte 68,15,40,13,111,110,1,0 // movaps 0x16e6f(%rip),%xmm9 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xa90>
- .byte 68,15,94,203 // divps %xmm3,%xmm9
- .byte 68,15,194,195,4 // cmpneqps %xmm3,%xmm8
- .byte 69,15,84,193 // andps %xmm9,%xmm8
- .byte 65,15,89,192 // mulps %xmm8,%xmm0
- .byte 65,15,89,200 // mulps %xmm8,%xmm1
- .byte 65,15,89,208 // mulps %xmm8,%xmm2
+ .byte 68,15,40,5,143,110,1,0 // movaps 0x16e8f(%rip),%xmm8 # 32c00 <_sk_srcover_rgba_8888_sse2_lowp+0xaa4>
+ .byte 68,15,94,195 // divps %xmm3,%xmm8
+ .byte 69,15,40,200 // movaps %xmm8,%xmm9
+ .byte 68,15,194,13,110,111,1,0,1 // cmpltps 0x16f6e(%rip),%xmm9 # 32cf0 <_sk_srcover_rgba_8888_sse2_lowp+0xb94>
+ .byte 69,15,84,200 // andps %xmm8,%xmm9
+ .byte 65,15,89,193 // mulps %xmm9,%xmm0
+ .byte 65,15,89,201 // mulps %xmm9,%xmm1
+ .byte 65,15,89,209 // mulps %xmm9,%xmm2
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -36266,20 +36278,20 @@ HIDDEN _sk_from_srgb_sse41
.globl _sk_from_srgb_sse41
FUNCTION(_sk_from_srgb_sse41)
_sk_from_srgb_sse41:
- .byte 68,15,40,29,58,111,1,0 // movaps 0x16f3a(%rip),%xmm11 # 32cc0 <_sk_srcover_rgba_8888_sse2_lowp+0xb80>
+ .byte 68,15,40,29,98,111,1,0 // movaps 0x16f62(%rip),%xmm11 # 32d00 <_sk_srcover_rgba_8888_sse2_lowp+0xba4>
.byte 68,15,40,200 // movaps %xmm0,%xmm9
.byte 69,15,89,203 // mulps %xmm11,%xmm9
.byte 68,15,40,208 // movaps %xmm0,%xmm10
.byte 69,15,89,210 // mulps %xmm10,%xmm10
- .byte 68,15,40,37,178,110,1,0 // movaps 0x16eb2(%rip),%xmm12 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xb10>
+ .byte 68,15,40,37,202,110,1,0 // movaps 0x16eca(%rip),%xmm12 # 32c80 <_sk_srcover_rgba_8888_sse2_lowp+0xb24>
.byte 68,15,40,192 // movaps %xmm0,%xmm8
.byte 69,15,89,196 // mulps %xmm12,%xmm8
- .byte 68,15,40,45,34,111,1,0 // movaps 0x16f22(%rip),%xmm13 # 32cd0 <_sk_srcover_rgba_8888_sse2_lowp+0xb90>
+ .byte 68,15,40,45,74,111,1,0 // movaps 0x16f4a(%rip),%xmm13 # 32d10 <_sk_srcover_rgba_8888_sse2_lowp+0xbb4>
.byte 69,15,88,197 // addps %xmm13,%xmm8
.byte 69,15,89,194 // mulps %xmm10,%xmm8
- .byte 68,15,40,53,34,111,1,0 // movaps 0x16f22(%rip),%xmm14 # 32ce0 <_sk_srcover_rgba_8888_sse2_lowp+0xba0>
+ .byte 68,15,40,53,74,111,1,0 // movaps 0x16f4a(%rip),%xmm14 # 32d20 <_sk_srcover_rgba_8888_sse2_lowp+0xbc4>
.byte 69,15,88,198 // addps %xmm14,%xmm8
- .byte 68,15,40,61,38,111,1,0 // movaps 0x16f26(%rip),%xmm15 # 32cf0 <_sk_srcover_rgba_8888_sse2_lowp+0xbb0>
+ .byte 68,15,40,61,78,111,1,0 // movaps 0x16f4e(%rip),%xmm15 # 32d30 <_sk_srcover_rgba_8888_sse2_lowp+0xbd4>
.byte 65,15,194,199,1 // cmpltps %xmm15,%xmm0
.byte 102,69,15,56,20,193 // blendvps %xmm0,%xmm9,%xmm8
.byte 68,15,40,209 // movaps %xmm1,%xmm10
@@ -36316,19 +36328,19 @@ FUNCTION(_sk_from_srgb_dst_sse41)
_sk_from_srgb_dst_sse41:
.byte 68,15,40,204 // movaps %xmm4,%xmm9
.byte 68,15,40,192 // movaps %xmm0,%xmm8
- .byte 68,15,40,29,113,110,1,0 // movaps 0x16e71(%rip),%xmm11 # 32cc0 <_sk_srcover_rgba_8888_sse2_lowp+0xb80>
+ .byte 68,15,40,29,153,110,1,0 // movaps 0x16e99(%rip),%xmm11 # 32d00 <_sk_srcover_rgba_8888_sse2_lowp+0xba4>
.byte 69,15,40,209 // movaps %xmm9,%xmm10
.byte 69,15,89,211 // mulps %xmm11,%xmm10
.byte 65,15,40,193 // movaps %xmm9,%xmm0
.byte 15,89,192 // mulps %xmm0,%xmm0
- .byte 68,15,40,37,234,109,1,0 // movaps 0x16dea(%rip),%xmm12 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xb10>
+ .byte 68,15,40,37,2,110,1,0 // movaps 0x16e02(%rip),%xmm12 # 32c80 <_sk_srcover_rgba_8888_sse2_lowp+0xb24>
.byte 65,15,89,228 // mulps %xmm12,%xmm4
- .byte 68,15,40,45,94,110,1,0 // movaps 0x16e5e(%rip),%xmm13 # 32cd0 <_sk_srcover_rgba_8888_sse2_lowp+0xb90>
+ .byte 68,15,40,45,134,110,1,0 // movaps 0x16e86(%rip),%xmm13 # 32d10 <_sk_srcover_rgba_8888_sse2_lowp+0xbb4>
.byte 65,15,88,229 // addps %xmm13,%xmm4
.byte 15,89,224 // mulps %xmm0,%xmm4
- .byte 68,15,40,53,95,110,1,0 // movaps 0x16e5f(%rip),%xmm14 # 32ce0 <_sk_srcover_rgba_8888_sse2_lowp+0xba0>
+ .byte 68,15,40,53,135,110,1,0 // movaps 0x16e87(%rip),%xmm14 # 32d20 <_sk_srcover_rgba_8888_sse2_lowp+0xbc4>
.byte 65,15,88,230 // addps %xmm14,%xmm4
- .byte 68,15,40,61,99,110,1,0 // movaps 0x16e63(%rip),%xmm15 # 32cf0 <_sk_srcover_rgba_8888_sse2_lowp+0xbb0>
+ .byte 68,15,40,61,139,110,1,0 // movaps 0x16e8b(%rip),%xmm15 # 32d30 <_sk_srcover_rgba_8888_sse2_lowp+0xbd4>
.byte 69,15,194,207,1 // cmpltps %xmm15,%xmm9
.byte 65,15,40,193 // movaps %xmm9,%xmm0
.byte 102,65,15,56,20,226 // blendvps %xmm0,%xmm10,%xmm4
@@ -36372,22 +36384,22 @@ _sk_to_srgb_sse41:
.byte 15,40,218 // movaps %xmm2,%xmm3
.byte 15,40,209 // movaps %xmm1,%xmm2
.byte 68,15,82,192 // rsqrtps %xmm0,%xmm8
- .byte 68,15,40,29,215,109,1,0 // movaps 0x16dd7(%rip),%xmm11 # 32d00 <_sk_srcover_rgba_8888_sse2_lowp+0xbc0>
+ .byte 68,15,40,29,255,109,1,0 // movaps 0x16dff(%rip),%xmm11 # 32d40 <_sk_srcover_rgba_8888_sse2_lowp+0xbe4>
.byte 68,15,40,200 // movaps %xmm0,%xmm9
.byte 69,15,89,203 // mulps %xmm11,%xmm9
- .byte 68,15,40,37,215,109,1,0 // movaps 0x16dd7(%rip),%xmm12 # 32d10 <_sk_srcover_rgba_8888_sse2_lowp+0xbd0>
+ .byte 68,15,40,37,255,109,1,0 // movaps 0x16dff(%rip),%xmm12 # 32d50 <_sk_srcover_rgba_8888_sse2_lowp+0xbf4>
.byte 69,15,40,248 // movaps %xmm8,%xmm15
.byte 69,15,89,252 // mulps %xmm12,%xmm15
- .byte 68,15,40,21,215,109,1,0 // movaps 0x16dd7(%rip),%xmm10 # 32d20 <_sk_srcover_rgba_8888_sse2_lowp+0xbe0>
+ .byte 68,15,40,21,255,109,1,0 // movaps 0x16dff(%rip),%xmm10 # 32d60 <_sk_srcover_rgba_8888_sse2_lowp+0xc04>
.byte 69,15,88,250 // addps %xmm10,%xmm15
.byte 69,15,89,248 // mulps %xmm8,%xmm15
- .byte 68,15,40,45,215,109,1,0 // movaps 0x16dd7(%rip),%xmm13 # 32d30 <_sk_srcover_rgba_8888_sse2_lowp+0xbf0>
+ .byte 68,15,40,45,255,109,1,0 // movaps 0x16dff(%rip),%xmm13 # 32d70 <_sk_srcover_rgba_8888_sse2_lowp+0xc14>
.byte 69,15,88,253 // addps %xmm13,%xmm15
- .byte 68,15,40,53,219,109,1,0 // movaps 0x16ddb(%rip),%xmm14 # 32d40 <_sk_srcover_rgba_8888_sse2_lowp+0xc00>
+ .byte 68,15,40,53,3,110,1,0 // movaps 0x16e03(%rip),%xmm14 # 32d80 <_sk_srcover_rgba_8888_sse2_lowp+0xc24>
.byte 69,15,88,198 // addps %xmm14,%xmm8
.byte 69,15,83,192 // rcpps %xmm8,%xmm8
.byte 69,15,89,199 // mulps %xmm15,%xmm8
- .byte 68,15,40,61,215,109,1,0 // movaps 0x16dd7(%rip),%xmm15 # 32d50 <_sk_srcover_rgba_8888_sse2_lowp+0xc10>
+ .byte 68,15,40,61,255,109,1,0 // movaps 0x16dff(%rip),%xmm15 # 32d90 <_sk_srcover_rgba_8888_sse2_lowp+0xc34>
.byte 65,15,194,199,1 // cmpltps %xmm15,%xmm0
.byte 102,69,15,56,20,193 // blendvps %xmm0,%xmm9,%xmm8
.byte 68,15,82,202 // rsqrtps %xmm2,%xmm9
@@ -36442,7 +36454,7 @@ _sk_rgb_to_hsl_sse41:
.byte 68,15,93,224 // minps %xmm0,%xmm12
.byte 65,15,40,203 // movaps %xmm11,%xmm1
.byte 65,15,92,204 // subps %xmm12,%xmm1
- .byte 68,15,40,53,142,107,1,0 // movaps 0x16b8e(%rip),%xmm14 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xa90>
+ .byte 68,15,40,53,166,107,1,0 // movaps 0x16ba6(%rip),%xmm14 # 32c00 <_sk_srcover_rgba_8888_sse2_lowp+0xaa4>
.byte 68,15,94,241 // divps %xmm1,%xmm14
.byte 69,15,40,211 // movaps %xmm11,%xmm10
.byte 69,15,194,208,0 // cmpeqps %xmm8,%xmm10
@@ -36451,27 +36463,27 @@ _sk_rgb_to_hsl_sse41:
.byte 65,15,89,198 // mulps %xmm14,%xmm0
.byte 69,15,40,249 // movaps %xmm9,%xmm15
.byte 68,15,194,250,1 // cmpltps %xmm2,%xmm15
- .byte 68,15,84,61,245,108,1,0 // andps 0x16cf5(%rip),%xmm15 # 32d60 <_sk_srcover_rgba_8888_sse2_lowp+0xc20>
+ .byte 68,15,84,61,29,109,1,0 // andps 0x16d1d(%rip),%xmm15 # 32da0 <_sk_srcover_rgba_8888_sse2_lowp+0xc44>
.byte 68,15,88,248 // addps %xmm0,%xmm15
.byte 65,15,40,195 // movaps %xmm11,%xmm0
.byte 65,15,194,193,0 // cmpeqps %xmm9,%xmm0
.byte 65,15,92,208 // subps %xmm8,%xmm2
.byte 65,15,89,214 // mulps %xmm14,%xmm2
- .byte 68,15,40,45,232,108,1,0 // movaps 0x16ce8(%rip),%xmm13 # 32d70 <_sk_srcover_rgba_8888_sse2_lowp+0xc30>
+ .byte 68,15,40,45,16,109,1,0 // movaps 0x16d10(%rip),%xmm13 # 32db0 <_sk_srcover_rgba_8888_sse2_lowp+0xc54>
.byte 65,15,88,213 // addps %xmm13,%xmm2
.byte 69,15,92,193 // subps %xmm9,%xmm8
.byte 69,15,89,198 // mulps %xmm14,%xmm8
- .byte 68,15,88,5,228,108,1,0 // addps 0x16ce4(%rip),%xmm8 # 32d80 <_sk_srcover_rgba_8888_sse2_lowp+0xc40>
+ .byte 68,15,88,5,12,109,1,0 // addps 0x16d0c(%rip),%xmm8 # 32dc0 <_sk_srcover_rgba_8888_sse2_lowp+0xc64>
.byte 102,68,15,56,20,194 // blendvps %xmm0,%xmm2,%xmm8
.byte 65,15,40,194 // movaps %xmm10,%xmm0
.byte 102,69,15,56,20,199 // blendvps %xmm0,%xmm15,%xmm8
- .byte 68,15,89,5,220,108,1,0 // mulps 0x16cdc(%rip),%xmm8 # 32d90 <_sk_srcover_rgba_8888_sse2_lowp+0xc50>
+ .byte 68,15,89,5,4,109,1,0 // mulps 0x16d04(%rip),%xmm8 # 32dd0 <_sk_srcover_rgba_8888_sse2_lowp+0xc74>
.byte 69,15,40,203 // movaps %xmm11,%xmm9
.byte 69,15,194,204,4 // cmpneqps %xmm12,%xmm9
.byte 69,15,84,193 // andps %xmm9,%xmm8
.byte 69,15,92,235 // subps %xmm11,%xmm13
.byte 69,15,88,220 // addps %xmm12,%xmm11
- .byte 15,40,5,240,106,1,0 // movaps 0x16af0(%rip),%xmm0 # 32bc0 <_sk_srcover_rgba_8888_sse2_lowp+0xa80>
+ .byte 15,40,5,8,107,1,0 // movaps 0x16b08(%rip),%xmm0 # 32bf0 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
.byte 65,15,40,211 // movaps %xmm11,%xmm2
.byte 15,89,208 // mulps %xmm0,%xmm2
.byte 15,194,194,1 // cmpltps %xmm2,%xmm0
@@ -36493,7 +36505,7 @@ _sk_hsl_to_rgb_sse41:
.byte 15,41,100,36,184 // movaps %xmm4,-0x48(%rsp)
.byte 15,41,92,36,168 // movaps %xmm3,-0x58(%rsp)
.byte 68,15,40,208 // movaps %xmm0,%xmm10
- .byte 68,15,40,13,166,106,1,0 // movaps 0x16aa6(%rip),%xmm9 # 32bc0 <_sk_srcover_rgba_8888_sse2_lowp+0xa80>
+ .byte 68,15,40,13,190,106,1,0 // movaps 0x16abe(%rip),%xmm9 # 32bf0 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
.byte 65,15,40,193 // movaps %xmm9,%xmm0
.byte 15,194,194,2 // cmpleps %xmm2,%xmm0
.byte 15,40,217 // movaps %xmm1,%xmm3
@@ -36506,19 +36518,19 @@ _sk_hsl_to_rgb_sse41:
.byte 15,41,84,36,152 // movaps %xmm2,-0x68(%rsp)
.byte 69,15,88,192 // addps %xmm8,%xmm8
.byte 68,15,92,197 // subps %xmm5,%xmm8
- .byte 68,15,40,53,81,108,1,0 // movaps 0x16c51(%rip),%xmm14 # 32da0 <_sk_srcover_rgba_8888_sse2_lowp+0xc60>
+ .byte 68,15,40,53,121,108,1,0 // movaps 0x16c79(%rip),%xmm14 # 32de0 <_sk_srcover_rgba_8888_sse2_lowp+0xc84>
.byte 69,15,88,242 // addps %xmm10,%xmm14
.byte 102,65,15,58,8,198,1 // roundps $0x1,%xmm14,%xmm0
.byte 68,15,92,240 // subps %xmm0,%xmm14
- .byte 68,15,40,29,74,108,1,0 // movaps 0x16c4a(%rip),%xmm11 # 32db0 <_sk_srcover_rgba_8888_sse2_lowp+0xc70>
+ .byte 68,15,40,29,114,108,1,0 // movaps 0x16c72(%rip),%xmm11 # 32df0 <_sk_srcover_rgba_8888_sse2_lowp+0xc94>
.byte 65,15,40,195 // movaps %xmm11,%xmm0
.byte 65,15,194,198,2 // cmpleps %xmm14,%xmm0
.byte 15,40,245 // movaps %xmm5,%xmm6
.byte 65,15,92,240 // subps %xmm8,%xmm6
- .byte 15,40,61,227,107,1,0 // movaps 0x16be3(%rip),%xmm7 # 32d60 <_sk_srcover_rgba_8888_sse2_lowp+0xc20>
+ .byte 15,40,61,11,108,1,0 // movaps 0x16c0b(%rip),%xmm7 # 32da0 <_sk_srcover_rgba_8888_sse2_lowp+0xc44>
.byte 69,15,40,238 // movaps %xmm14,%xmm13
.byte 68,15,89,239 // mulps %xmm7,%xmm13
- .byte 15,40,29,244,107,1,0 // movaps 0x16bf4(%rip),%xmm3 # 32d80 <_sk_srcover_rgba_8888_sse2_lowp+0xc40>
+ .byte 15,40,29,28,108,1,0 // movaps 0x16c1c(%rip),%xmm3 # 32dc0 <_sk_srcover_rgba_8888_sse2_lowp+0xc64>
.byte 68,15,40,227 // movaps %xmm3,%xmm12
.byte 69,15,92,229 // subps %xmm13,%xmm12
.byte 68,15,89,230 // mulps %xmm6,%xmm12
@@ -36528,7 +36540,7 @@ _sk_hsl_to_rgb_sse41:
.byte 65,15,194,198,2 // cmpleps %xmm14,%xmm0
.byte 68,15,40,253 // movaps %xmm5,%xmm15
.byte 102,69,15,56,20,252 // blendvps %xmm0,%xmm12,%xmm15
- .byte 68,15,40,37,211,107,1,0 // movaps 0x16bd3(%rip),%xmm12 # 32d90 <_sk_srcover_rgba_8888_sse2_lowp+0xc50>
+ .byte 68,15,40,37,251,107,1,0 // movaps 0x16bfb(%rip),%xmm12 # 32dd0 <_sk_srcover_rgba_8888_sse2_lowp+0xc74>
.byte 65,15,40,196 // movaps %xmm12,%xmm0
.byte 65,15,194,198,2 // cmpleps %xmm14,%xmm0
.byte 68,15,89,238 // mulps %xmm6,%xmm13
@@ -36562,7 +36574,7 @@ _sk_hsl_to_rgb_sse41:
.byte 65,15,40,198 // movaps %xmm14,%xmm0
.byte 15,40,84,36,152 // movaps -0x68(%rsp),%xmm2
.byte 102,15,56,20,202 // blendvps %xmm0,%xmm2,%xmm1
- .byte 68,15,88,21,107,107,1,0 // addps 0x16b6b(%rip),%xmm10 # 32dc0 <_sk_srcover_rgba_8888_sse2_lowp+0xc80>
+ .byte 68,15,88,21,147,107,1,0 // addps 0x16b93(%rip),%xmm10 # 32e00 <_sk_srcover_rgba_8888_sse2_lowp+0xca4>
.byte 102,65,15,58,8,194,1 // roundps $0x1,%xmm10,%xmm0
.byte 68,15,92,208 // subps %xmm0,%xmm10
.byte 69,15,194,218,2 // cmpleps %xmm10,%xmm11
@@ -36617,11 +36629,11 @@ _sk_scale_u8_sse41:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,210 // movslq %edx,%r10
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,52 // jne 1c33c <_sk_scale_u8_sse41+0x4c>
+ .byte 117,52 // jne 1c354 <_sk_scale_u8_sse41+0x4c>
.byte 102,71,15,56,49,4,16 // pmovzxbd (%r8,%r10,1),%xmm8
- .byte 102,68,15,219,5,104,105,1,0 // pand 0x16968(%rip),%xmm8 # 32c80 <_sk_srcover_rgba_8888_sse2_lowp+0xb40>
+ .byte 102,68,15,219,5,128,105,1,0 // pand 0x16980(%rip),%xmm8 # 32cb0 <_sk_srcover_rgba_8888_sse2_lowp+0xb54>
.byte 69,15,91,192 // cvtdq2ps %xmm8,%xmm8
- .byte 68,15,89,5,172,106,1,0 // mulps 0x16aac(%rip),%xmm8 # 32dd0 <_sk_srcover_rgba_8888_sse2_lowp+0xc90>
+ .byte 68,15,89,5,212,106,1,0 // mulps 0x16ad4(%rip),%xmm8 # 32e10 <_sk_srcover_rgba_8888_sse2_lowp+0xcb4>
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 65,15,89,200 // mulps %xmm8,%xmm1
.byte 65,15,89,208 // mulps %xmm8,%xmm2
@@ -36632,12 +36644,12 @@ _sk_scale_u8_sse41:
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,59 // je 1c384 <_sk_scale_u8_sse41+0x94>
+ .byte 116,59 // je 1c39c <_sk_scale_u8_sse41+0x94>
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,23 // je 1c36b <_sk_scale_u8_sse41+0x7b>
+ .byte 116,23 // je 1c383 <_sk_scale_u8_sse41+0x7b>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,181 // jne 1c30f <_sk_scale_u8_sse41+0x1f>
+ .byte 117,181 // jne 1c327 <_sk_scale_u8_sse41+0x1f>
.byte 67,15,182,68,16,2 // movzbl 0x2(%r8,%r10,1),%eax
.byte 102,68,15,110,192 // movd %eax,%xmm8
.byte 102,69,15,112,192,69 // pshufd $0x45,%xmm8,%xmm8
@@ -36645,10 +36657,10 @@ _sk_scale_u8_sse41:
.byte 102,68,15,110,200 // movd %eax,%xmm9
.byte 102,69,15,56,49,201 // pmovzxbd %xmm9,%xmm9
.byte 102,69,15,58,14,193,15 // pblendw $0xf,%xmm9,%xmm8
- .byte 235,139 // jmp 1c30f <_sk_scale_u8_sse41+0x1f>
+ .byte 235,139 // jmp 1c327 <_sk_scale_u8_sse41+0x1f>
.byte 67,15,182,4,16 // movzbl (%r8,%r10,1),%eax
.byte 102,68,15,110,192 // movd %eax,%xmm8
- .byte 233,124,255,255,255 // jmpq 1c30f <_sk_scale_u8_sse41+0x1f>
+ .byte 233,124,255,255,255 // jmpq 1c327 <_sk_scale_u8_sse41+0x1f>
HIDDEN _sk_scale_565_sse41
.globl _sk_scale_565_sse41
@@ -36663,19 +36675,19 @@ _sk_scale_565_sse41:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,210 // movslq %edx,%r10
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,159,0,0,0 // jne 1c456 <_sk_scale_565_sse41+0xc3>
+ .byte 15,133,159,0,0,0 // jne 1c46e <_sk_scale_565_sse41+0xc3>
.byte 102,71,15,56,51,28,80 // pmovzxwd (%r8,%r10,2),%xmm11
- .byte 102,15,111,5,26,106,1,0 // movdqa 0x16a1a(%rip),%xmm0 # 32de0 <_sk_srcover_rgba_8888_sse2_lowp+0xca0>
+ .byte 102,15,111,5,66,106,1,0 // movdqa 0x16a42(%rip),%xmm0 # 32e20 <_sk_srcover_rgba_8888_sse2_lowp+0xcc4>
.byte 102,65,15,219,195 // pand %xmm11,%xmm0
.byte 68,15,91,200 // cvtdq2ps %xmm0,%xmm9
- .byte 68,15,89,13,25,106,1,0 // mulps 0x16a19(%rip),%xmm9 # 32df0 <_sk_srcover_rgba_8888_sse2_lowp+0xcb0>
- .byte 102,15,111,5,33,106,1,0 // movdqa 0x16a21(%rip),%xmm0 # 32e00 <_sk_srcover_rgba_8888_sse2_lowp+0xcc0>
+ .byte 68,15,89,13,65,106,1,0 // mulps 0x16a41(%rip),%xmm9 # 32e30 <_sk_srcover_rgba_8888_sse2_lowp+0xcd4>
+ .byte 102,15,111,5,73,106,1,0 // movdqa 0x16a49(%rip),%xmm0 # 32e40 <_sk_srcover_rgba_8888_sse2_lowp+0xce4>
.byte 102,65,15,219,195 // pand %xmm11,%xmm0
.byte 68,15,91,208 // cvtdq2ps %xmm0,%xmm10
- .byte 68,15,89,21,32,106,1,0 // mulps 0x16a20(%rip),%xmm10 # 32e10 <_sk_srcover_rgba_8888_sse2_lowp+0xcd0>
- .byte 102,68,15,219,29,39,106,1,0 // pand 0x16a27(%rip),%xmm11 # 32e20 <_sk_srcover_rgba_8888_sse2_lowp+0xce0>
+ .byte 68,15,89,21,72,106,1,0 // mulps 0x16a48(%rip),%xmm10 # 32e50 <_sk_srcover_rgba_8888_sse2_lowp+0xcf4>
+ .byte 102,68,15,219,29,79,106,1,0 // pand 0x16a4f(%rip),%xmm11 # 32e60 <_sk_srcover_rgba_8888_sse2_lowp+0xd04>
.byte 69,15,91,219 // cvtdq2ps %xmm11,%xmm11
- .byte 68,15,89,29,43,106,1,0 // mulps 0x16a2b(%rip),%xmm11 # 32e30 <_sk_srcover_rgba_8888_sse2_lowp+0xcf0>
+ .byte 68,15,89,29,83,106,1,0 // mulps 0x16a53(%rip),%xmm11 # 32e70 <_sk_srcover_rgba_8888_sse2_lowp+0xd14>
.byte 15,40,195 // movaps %xmm3,%xmm0
.byte 15,194,199,1 // cmpltps %xmm7,%xmm0
.byte 69,15,40,226 // movaps %xmm10,%xmm12
@@ -36700,22 +36712,22 @@ _sk_scale_565_sse41:
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,60 // je 1c49f <_sk_scale_565_sse41+0x10c>
+ .byte 116,60 // je 1c4b7 <_sk_scale_565_sse41+0x10c>
.byte 102,69,15,239,219 // pxor %xmm11,%xmm11
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,26 // je 1c488 <_sk_scale_565_sse41+0xf5>
+ .byte 116,26 // je 1c4a0 <_sk_scale_565_sse41+0xf5>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 15,133,70,255,255,255 // jne 1c3be <_sk_scale_565_sse41+0x2b>
+ .byte 15,133,70,255,255,255 // jne 1c3d6 <_sk_scale_565_sse41+0x2b>
.byte 67,15,183,68,80,4 // movzwl 0x4(%r8,%r10,2),%eax
.byte 102,15,110,192 // movd %eax,%xmm0
.byte 102,68,15,112,216,69 // pshufd $0x45,%xmm0,%xmm11
.byte 102,67,15,110,4,80 // movd (%r8,%r10,2),%xmm0
.byte 102,15,56,51,192 // pmovzxwd %xmm0,%xmm0
.byte 102,68,15,58,14,216,15 // pblendw $0xf,%xmm0,%xmm11
- .byte 233,31,255,255,255 // jmpq 1c3be <_sk_scale_565_sse41+0x2b>
+ .byte 233,31,255,255,255 // jmpq 1c3d6 <_sk_scale_565_sse41+0x2b>
.byte 67,15,183,4,80 // movzwl (%r8,%r10,2),%eax
.byte 102,68,15,110,216 // movd %eax,%xmm11
- .byte 233,16,255,255,255 // jmpq 1c3be <_sk_scale_565_sse41+0x2b>
+ .byte 233,16,255,255,255 // jmpq 1c3d6 <_sk_scale_565_sse41+0x2b>
HIDDEN _sk_lerp_1_float_sse41
.globl _sk_lerp_1_float_sse41
@@ -36750,11 +36762,11 @@ _sk_lerp_u8_sse41:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,210 // movslq %edx,%r10
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,72 // jne 1c546 <_sk_lerp_u8_sse41+0x60>
+ .byte 117,72 // jne 1c55e <_sk_lerp_u8_sse41+0x60>
.byte 102,71,15,56,49,4,16 // pmovzxbd (%r8,%r10,1),%xmm8
- .byte 102,68,15,219,5,114,103,1,0 // pand 0x16772(%rip),%xmm8 # 32c80 <_sk_srcover_rgba_8888_sse2_lowp+0xb40>
+ .byte 102,68,15,219,5,138,103,1,0 // pand 0x1678a(%rip),%xmm8 # 32cb0 <_sk_srcover_rgba_8888_sse2_lowp+0xb54>
.byte 69,15,91,192 // cvtdq2ps %xmm8,%xmm8
- .byte 68,15,89,5,182,104,1,0 // mulps 0x168b6(%rip),%xmm8 # 32dd0 <_sk_srcover_rgba_8888_sse2_lowp+0xc90>
+ .byte 68,15,89,5,222,104,1,0 // mulps 0x168de(%rip),%xmm8 # 32e10 <_sk_srcover_rgba_8888_sse2_lowp+0xcb4>
.byte 15,92,196 // subps %xmm4,%xmm0
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 15,88,196 // addps %xmm4,%xmm0
@@ -36772,12 +36784,12 @@ _sk_lerp_u8_sse41:
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,62 // je 1c591 <_sk_lerp_u8_sse41+0xab>
+ .byte 116,62 // je 1c5a9 <_sk_lerp_u8_sse41+0xab>
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,23 // je 1c575 <_sk_lerp_u8_sse41+0x8f>
+ .byte 116,23 // je 1c58d <_sk_lerp_u8_sse41+0x8f>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,161 // jne 1c505 <_sk_lerp_u8_sse41+0x1f>
+ .byte 117,161 // jne 1c51d <_sk_lerp_u8_sse41+0x1f>
.byte 67,15,182,68,16,2 // movzbl 0x2(%r8,%r10,1),%eax
.byte 102,68,15,110,192 // movd %eax,%xmm8
.byte 102,69,15,112,192,69 // pshufd $0x45,%xmm8,%xmm8
@@ -36785,10 +36797,10 @@ _sk_lerp_u8_sse41:
.byte 102,68,15,110,200 // movd %eax,%xmm9
.byte 102,69,15,56,49,201 // pmovzxbd %xmm9,%xmm9
.byte 102,69,15,58,14,193,15 // pblendw $0xf,%xmm9,%xmm8
- .byte 233,116,255,255,255 // jmpq 1c505 <_sk_lerp_u8_sse41+0x1f>
+ .byte 233,116,255,255,255 // jmpq 1c51d <_sk_lerp_u8_sse41+0x1f>
.byte 67,15,182,4,16 // movzbl (%r8,%r10,1),%eax
.byte 102,68,15,110,192 // movd %eax,%xmm8
- .byte 233,101,255,255,255 // jmpq 1c505 <_sk_lerp_u8_sse41+0x1f>
+ .byte 233,101,255,255,255 // jmpq 1c51d <_sk_lerp_u8_sse41+0x1f>
HIDDEN _sk_lerp_565_sse41
.globl _sk_lerp_565_sse41
@@ -36803,19 +36815,19 @@ _sk_lerp_565_sse41:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,210 // movslq %edx,%r10
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,165,0,0,0 // jne 1c669 <_sk_lerp_565_sse41+0xc9>
+ .byte 15,133,165,0,0,0 // jne 1c681 <_sk_lerp_565_sse41+0xc9>
.byte 102,71,15,56,51,20,80 // pmovzxwd (%r8,%r10,2),%xmm10
- .byte 102,15,111,5,13,104,1,0 // movdqa 0x1680d(%rip),%xmm0 # 32de0 <_sk_srcover_rgba_8888_sse2_lowp+0xca0>
+ .byte 102,15,111,5,53,104,1,0 // movdqa 0x16835(%rip),%xmm0 # 32e20 <_sk_srcover_rgba_8888_sse2_lowp+0xcc4>
.byte 102,65,15,219,194 // pand %xmm10,%xmm0
.byte 68,15,91,200 // cvtdq2ps %xmm0,%xmm9
- .byte 68,15,89,13,12,104,1,0 // mulps 0x1680c(%rip),%xmm9 # 32df0 <_sk_srcover_rgba_8888_sse2_lowp+0xcb0>
- .byte 102,15,111,5,20,104,1,0 // movdqa 0x16814(%rip),%xmm0 # 32e00 <_sk_srcover_rgba_8888_sse2_lowp+0xcc0>
+ .byte 68,15,89,13,52,104,1,0 // mulps 0x16834(%rip),%xmm9 # 32e30 <_sk_srcover_rgba_8888_sse2_lowp+0xcd4>
+ .byte 102,15,111,5,60,104,1,0 // movdqa 0x1683c(%rip),%xmm0 # 32e40 <_sk_srcover_rgba_8888_sse2_lowp+0xce4>
.byte 102,65,15,219,194 // pand %xmm10,%xmm0
.byte 68,15,91,216 // cvtdq2ps %xmm0,%xmm11
- .byte 68,15,89,29,19,104,1,0 // mulps 0x16813(%rip),%xmm11 # 32e10 <_sk_srcover_rgba_8888_sse2_lowp+0xcd0>
- .byte 102,68,15,219,21,26,104,1,0 // pand 0x1681a(%rip),%xmm10 # 32e20 <_sk_srcover_rgba_8888_sse2_lowp+0xce0>
+ .byte 68,15,89,29,59,104,1,0 // mulps 0x1683b(%rip),%xmm11 # 32e50 <_sk_srcover_rgba_8888_sse2_lowp+0xcf4>
+ .byte 102,68,15,219,21,66,104,1,0 // pand 0x16842(%rip),%xmm10 # 32e60 <_sk_srcover_rgba_8888_sse2_lowp+0xd04>
.byte 69,15,91,210 // cvtdq2ps %xmm10,%xmm10
- .byte 68,15,89,21,30,104,1,0 // mulps 0x1681e(%rip),%xmm10 # 32e30 <_sk_srcover_rgba_8888_sse2_lowp+0xcf0>
+ .byte 68,15,89,21,70,104,1,0 // mulps 0x16846(%rip),%xmm10 # 32e70 <_sk_srcover_rgba_8888_sse2_lowp+0xd14>
.byte 15,40,195 // movaps %xmm3,%xmm0
.byte 15,194,199,1 // cmpltps %xmm7,%xmm0
.byte 69,15,40,227 // movaps %xmm11,%xmm12
@@ -36843,22 +36855,22 @@ _sk_lerp_565_sse41:
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,60 // je 1c6b2 <_sk_lerp_565_sse41+0x112>
+ .byte 116,60 // je 1c6ca <_sk_lerp_565_sse41+0x112>
.byte 102,69,15,239,210 // pxor %xmm10,%xmm10
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,26 // je 1c69b <_sk_lerp_565_sse41+0xfb>
+ .byte 116,26 // je 1c6b3 <_sk_lerp_565_sse41+0xfb>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 15,133,64,255,255,255 // jne 1c5cb <_sk_lerp_565_sse41+0x2b>
+ .byte 15,133,64,255,255,255 // jne 1c5e3 <_sk_lerp_565_sse41+0x2b>
.byte 67,15,183,68,80,4 // movzwl 0x4(%r8,%r10,2),%eax
.byte 102,15,110,192 // movd %eax,%xmm0
.byte 102,68,15,112,208,69 // pshufd $0x45,%xmm0,%xmm10
.byte 102,67,15,110,4,80 // movd (%r8,%r10,2),%xmm0
.byte 102,15,56,51,192 // pmovzxwd %xmm0,%xmm0
.byte 102,68,15,58,14,208,15 // pblendw $0xf,%xmm0,%xmm10
- .byte 233,25,255,255,255 // jmpq 1c5cb <_sk_lerp_565_sse41+0x2b>
+ .byte 233,25,255,255,255 // jmpq 1c5e3 <_sk_lerp_565_sse41+0x2b>
.byte 67,15,183,4,80 // movzwl (%r8,%r10,2),%eax
.byte 102,68,15,110,208 // movd %eax,%xmm10
- .byte 233,10,255,255,255 // jmpq 1c5cb <_sk_lerp_565_sse41+0x2b>
+ .byte 233,10,255,255,255 // jmpq 1c5e3 <_sk_lerp_565_sse41+0x2b>
HIDDEN _sk_load_tables_sse41
.globl _sk_load_tables_sse41
@@ -36867,11 +36879,11 @@ _sk_load_tables_sse41:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 76,139,0 // mov (%rax),%r8
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,20,1,0,0 // jne 1c7e3 <_sk_load_tables_sse41+0x122>
+ .byte 15,133,20,1,0,0 // jne 1c7fb <_sk_load_tables_sse41+0x122>
.byte 243,69,15,111,4,144 // movdqu (%r8,%rdx,4),%xmm8
.byte 65,86 // push %r14
.byte 83 // push %rbx
- .byte 102,15,111,5,160,101,1,0 // movdqa 0x165a0(%rip),%xmm0 # 32c80 <_sk_srcover_rgba_8888_sse2_lowp+0xb40>
+ .byte 102,15,111,5,184,101,1,0 // movdqa 0x165b8(%rip),%xmm0 # 32cb0 <_sk_srcover_rgba_8888_sse2_lowp+0xb54>
.byte 102,65,15,219,192 // pand %xmm8,%xmm0
.byte 102,73,15,58,22,192,1 // pextrq $0x1,%xmm0,%r8
.byte 102,73,15,126,193 // movq %xmm0,%r9
@@ -36886,7 +36898,7 @@ _sk_load_tables_sse41:
.byte 102,66,15,58,33,4,155,32 // insertps $0x20,(%rbx,%r11,4),%xmm0
.byte 102,66,15,58,33,4,3,48 // insertps $0x30,(%rbx,%r8,1),%xmm0
.byte 102,65,15,111,200 // movdqa %xmm8,%xmm1
- .byte 102,15,56,0,13,91,101,1,0 // pshufb 0x1655b(%rip),%xmm1 # 32c90 <_sk_srcover_rgba_8888_sse2_lowp+0xb50>
+ .byte 102,15,56,0,13,115,101,1,0 // pshufb 0x16573(%rip),%xmm1 # 32cc0 <_sk_srcover_rgba_8888_sse2_lowp+0xb64>
.byte 102,73,15,58,22,200,1 // pextrq $0x1,%xmm1,%r8
.byte 102,72,15,126,203 // movq %xmm1,%rbx
.byte 68,15,182,203 // movzbl %bl,%r9d
@@ -36901,7 +36913,7 @@ _sk_load_tables_sse41:
.byte 102,15,58,33,202,48 // insertps $0x30,%xmm2,%xmm1
.byte 76,139,64,24 // mov 0x18(%rax),%r8
.byte 102,65,15,111,208 // movdqa %xmm8,%xmm2
- .byte 102,15,56,0,21,23,101,1,0 // pshufb 0x16517(%rip),%xmm2 # 32ca0 <_sk_srcover_rgba_8888_sse2_lowp+0xb60>
+ .byte 102,15,56,0,21,47,101,1,0 // pshufb 0x1652f(%rip),%xmm2 # 32cd0 <_sk_srcover_rgba_8888_sse2_lowp+0xb74>
.byte 102,72,15,58,22,211,1 // pextrq $0x1,%xmm2,%rbx
.byte 102,72,15,126,208 // movq %xmm2,%rax
.byte 68,15,182,200 // movzbl %al,%r9d
@@ -36916,7 +36928,7 @@ _sk_load_tables_sse41:
.byte 102,15,58,33,211,48 // insertps $0x30,%xmm3,%xmm2
.byte 102,65,15,114,208,24 // psrld $0x18,%xmm8
.byte 65,15,91,216 // cvtdq2ps %xmm8,%xmm3
- .byte 15,89,29,244,101,1,0 // mulps 0x165f4(%rip),%xmm3 # 32dd0 <_sk_srcover_rgba_8888_sse2_lowp+0xc90>
+ .byte 15,89,29,28,102,1,0 // mulps 0x1661c(%rip),%xmm3 # 32e10 <_sk_srcover_rgba_8888_sse2_lowp+0xcb4>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 91 // pop %rbx
.byte 65,94 // pop %r14
@@ -36924,19 +36936,19 @@ _sk_load_tables_sse41:
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,52 // je 1c824 <_sk_load_tables_sse41+0x163>
+ .byte 116,52 // je 1c83c <_sk_load_tables_sse41+0x163>
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,23 // je 1c812 <_sk_load_tables_sse41+0x151>
+ .byte 116,23 // je 1c82a <_sk_load_tables_sse41+0x151>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 15,133,208,254,255,255 // jne 1c6d5 <_sk_load_tables_sse41+0x14>
+ .byte 15,133,208,254,255,255 // jne 1c6ed <_sk_load_tables_sse41+0x14>
.byte 102,65,15,110,68,144,8 // movd 0x8(%r8,%rdx,4),%xmm0
.byte 102,68,15,112,192,69 // pshufd $0x45,%xmm0,%xmm8
.byte 243,65,15,126,4,144 // movq (%r8,%rdx,4),%xmm0
.byte 102,68,15,58,14,192,15 // pblendw $0xf,%xmm0,%xmm8
- .byte 233,177,254,255,255 // jmpq 1c6d5 <_sk_load_tables_sse41+0x14>
+ .byte 233,177,254,255,255 // jmpq 1c6ed <_sk_load_tables_sse41+0x14>
.byte 102,69,15,110,4,144 // movd (%r8,%rdx,4),%xmm8
- .byte 233,166,254,255,255 // jmpq 1c6d5 <_sk_load_tables_sse41+0x14>
+ .byte 233,166,254,255,255 // jmpq 1c6ed <_sk_load_tables_sse41+0x14>
HIDDEN _sk_load_tables_u16_be_sse41
.globl _sk_load_tables_u16_be_sse41
@@ -36946,7 +36958,7 @@ _sk_load_tables_u16_be_sse41:
.byte 76,139,0 // mov (%rax),%r8
.byte 76,141,12,149,0,0,0,0 // lea 0x0(,%rdx,4),%r9
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,95,1,0,0 // jne 1c9a4 <_sk_load_tables_u16_be_sse41+0x175>
+ .byte 15,133,95,1,0,0 // jne 1c9bc <_sk_load_tables_u16_be_sse41+0x175>
.byte 102,67,15,16,4,72 // movupd (%r8,%r9,2),%xmm0
.byte 243,67,15,111,76,72,16 // movdqu 0x10(%r8,%r9,2),%xmm1
.byte 65,86 // push %r14
@@ -36957,7 +36969,7 @@ _sk_load_tables_u16_be_sse41:
.byte 102,65,15,111,201 // movdqa %xmm9,%xmm1
.byte 102,15,97,200 // punpcklwd %xmm0,%xmm1
.byte 102,68,15,105,200 // punpckhwd %xmm0,%xmm9
- .byte 102,68,15,111,5,198,101,1,0 // movdqa 0x165c6(%rip),%xmm8 # 32e40 <_sk_srcover_rgba_8888_sse2_lowp+0xd00>
+ .byte 102,68,15,111,5,238,101,1,0 // movdqa 0x165ee(%rip),%xmm8 # 32e80 <_sk_srcover_rgba_8888_sse2_lowp+0xd24>
.byte 102,15,111,193 // movdqa %xmm1,%xmm0
.byte 102,65,15,219,192 // pand %xmm8,%xmm0
.byte 102,15,56,51,192 // pmovzxwd %xmm0,%xmm0
@@ -36975,7 +36987,7 @@ _sk_load_tables_u16_be_sse41:
.byte 102,15,58,33,194,32 // insertps $0x20,%xmm2,%xmm0
.byte 243,66,15,16,20,3 // movss (%rbx,%r8,1),%xmm2
.byte 102,15,58,33,194,48 // insertps $0x30,%xmm2,%xmm0
- .byte 102,15,56,0,13,117,101,1,0 // pshufb 0x16575(%rip),%xmm1 # 32e50 <_sk_srcover_rgba_8888_sse2_lowp+0xd10>
+ .byte 102,15,56,0,13,157,101,1,0 // pshufb 0x1659d(%rip),%xmm1 # 32e90 <_sk_srcover_rgba_8888_sse2_lowp+0xd34>
.byte 102,15,56,51,201 // pmovzxwd %xmm1,%xmm1
.byte 102,73,15,58,22,200,1 // pextrq $0x1,%xmm1,%r8
.byte 102,72,15,126,203 // movq %xmm1,%rbx
@@ -37011,23 +37023,23 @@ _sk_load_tables_u16_be_sse41:
.byte 102,65,15,235,216 // por %xmm8,%xmm3
.byte 102,15,56,51,219 // pmovzxwd %xmm3,%xmm3
.byte 15,91,219 // cvtdq2ps %xmm3,%xmm3
- .byte 15,89,29,195,100,1,0 // mulps 0x164c3(%rip),%xmm3 # 32e60 <_sk_srcover_rgba_8888_sse2_lowp+0xd20>
+ .byte 15,89,29,235,100,1,0 // mulps 0x164eb(%rip),%xmm3 # 32ea0 <_sk_srcover_rgba_8888_sse2_lowp+0xd44>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 91 // pop %rbx
.byte 65,94 // pop %r14
.byte 255,224 // jmpq *%rax
.byte 242,67,15,16,4,72 // movsd (%r8,%r9,2),%xmm0
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 117,13 // jne 1c9bd <_sk_load_tables_u16_be_sse41+0x18e>
+ .byte 117,13 // jne 1c9d5 <_sk_load_tables_u16_be_sse41+0x18e>
.byte 243,15,126,192 // movq %xmm0,%xmm0
.byte 102,15,239,201 // pxor %xmm1,%xmm1
- .byte 233,149,254,255,255 // jmpq 1c852 <_sk_load_tables_u16_be_sse41+0x23>
+ .byte 233,149,254,255,255 // jmpq 1c86a <_sk_load_tables_u16_be_sse41+0x23>
.byte 102,67,15,22,68,72,8 // movhpd 0x8(%r8,%r9,2),%xmm0
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 15,130,128,254,255,255 // jb 1c852 <_sk_load_tables_u16_be_sse41+0x23>
+ .byte 15,130,128,254,255,255 // jb 1c86a <_sk_load_tables_u16_be_sse41+0x23>
.byte 243,67,15,126,76,72,16 // movq 0x10(%r8,%r9,2),%xmm1
- .byte 233,116,254,255,255 // jmpq 1c852 <_sk_load_tables_u16_be_sse41+0x23>
+ .byte 233,116,254,255,255 // jmpq 1c86a <_sk_load_tables_u16_be_sse41+0x23>
HIDDEN _sk_load_tables_rgb_u16_be_sse41
.globl _sk_load_tables_rgb_u16_be_sse41
@@ -37037,7 +37049,7 @@ _sk_load_tables_rgb_u16_be_sse41:
.byte 76,139,0 // mov (%rax),%r8
.byte 76,141,12,82 // lea (%rdx,%rdx,2),%r9
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,79,1,0,0 // jne 1cb3f <_sk_load_tables_rgb_u16_be_sse41+0x161>
+ .byte 15,133,79,1,0,0 // jne 1cb57 <_sk_load_tables_rgb_u16_be_sse41+0x161>
.byte 243,67,15,111,20,72 // movdqu (%r8,%r9,2),%xmm2
.byte 243,67,15,111,76,72,8 // movdqu 0x8(%r8,%r9,2),%xmm1
.byte 102,15,115,217,4 // psrldq $0x4,%xmm1
@@ -37051,7 +37063,7 @@ _sk_load_tables_rgb_u16_be_sse41:
.byte 102,15,97,209 // punpcklwd %xmm1,%xmm2
.byte 102,15,111,202 // movdqa %xmm2,%xmm1
.byte 102,65,15,97,201 // punpcklwd %xmm9,%xmm1
- .byte 102,68,15,111,5,12,100,1,0 // movdqa 0x1640c(%rip),%xmm8 # 32e40 <_sk_srcover_rgba_8888_sse2_lowp+0xd00>
+ .byte 102,68,15,111,5,52,100,1,0 // movdqa 0x16434(%rip),%xmm8 # 32e80 <_sk_srcover_rgba_8888_sse2_lowp+0xd24>
.byte 102,15,111,193 // movdqa %xmm1,%xmm0
.byte 102,65,15,219,192 // pand %xmm8,%xmm0
.byte 102,15,56,51,192 // pmovzxwd %xmm0,%xmm0
@@ -37069,7 +37081,7 @@ _sk_load_tables_rgb_u16_be_sse41:
.byte 102,15,58,33,195,32 // insertps $0x20,%xmm3,%xmm0
.byte 243,66,15,16,28,3 // movss (%rbx,%r8,1),%xmm3
.byte 102,15,58,33,195,48 // insertps $0x30,%xmm3,%xmm0
- .byte 102,15,56,0,13,187,99,1,0 // pshufb 0x163bb(%rip),%xmm1 # 32e50 <_sk_srcover_rgba_8888_sse2_lowp+0xd10>
+ .byte 102,15,56,0,13,227,99,1,0 // pshufb 0x163e3(%rip),%xmm1 # 32e90 <_sk_srcover_rgba_8888_sse2_lowp+0xd34>
.byte 102,15,56,51,201 // pmovzxwd %xmm1,%xmm1
.byte 102,73,15,58,22,200,1 // pextrq $0x1,%xmm1,%r8
.byte 102,72,15,126,203 // movq %xmm1,%rbx
@@ -37100,7 +37112,7 @@ _sk_load_tables_rgb_u16_be_sse41:
.byte 243,65,15,16,28,24 // movss (%r8,%rbx,1),%xmm3
.byte 102,15,58,33,211,48 // insertps $0x30,%xmm3,%xmm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,150,96,1,0 // movaps 0x16096(%rip),%xmm3 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xa90>
+ .byte 15,40,29,174,96,1,0 // movaps 0x160ae(%rip),%xmm3 # 32c00 <_sk_srcover_rgba_8888_sse2_lowp+0xaa4>
.byte 91 // pop %rbx
.byte 65,94 // pop %r14
.byte 255,224 // jmpq *%rax
@@ -37108,21 +37120,21 @@ _sk_load_tables_rgb_u16_be_sse41:
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,67,15,196,84,72,4,2 // pinsrw $0x2,0x4(%r8,%r9,2),%xmm2
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 117,14 // jne 1cb65 <_sk_load_tables_rgb_u16_be_sse41+0x187>
+ .byte 117,14 // jne 1cb7d <_sk_load_tables_rgb_u16_be_sse41+0x187>
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 102,69,15,239,201 // pxor %xmm9,%xmm9
- .byte 233,177,254,255,255 // jmpq 1ca16 <_sk_load_tables_rgb_u16_be_sse41+0x38>
+ .byte 233,177,254,255,255 // jmpq 1ca2e <_sk_load_tables_rgb_u16_be_sse41+0x38>
.byte 102,71,15,110,76,72,6 // movd 0x6(%r8,%r9,2),%xmm9
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,71,15,196,76,72,10,2 // pinsrw $0x2,0xa(%r8,%r9,2),%xmm9
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,24 // jb 1cb96 <_sk_load_tables_rgb_u16_be_sse41+0x1b8>
+ .byte 114,24 // jb 1cbae <_sk_load_tables_rgb_u16_be_sse41+0x1b8>
.byte 102,67,15,110,76,72,12 // movd 0xc(%r8,%r9,2),%xmm1
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,67,15,196,76,72,16,2 // pinsrw $0x2,0x10(%r8,%r9,2),%xmm1
- .byte 233,128,254,255,255 // jmpq 1ca16 <_sk_load_tables_rgb_u16_be_sse41+0x38>
+ .byte 233,128,254,255,255 // jmpq 1ca2e <_sk_load_tables_rgb_u16_be_sse41+0x38>
.byte 102,15,239,201 // pxor %xmm1,%xmm1
- .byte 233,119,254,255,255 // jmpq 1ca16 <_sk_load_tables_rgb_u16_be_sse41+0x38>
+ .byte 233,119,254,255,255 // jmpq 1ca2e <_sk_load_tables_rgb_u16_be_sse41+0x38>
HIDDEN _sk_byte_tables_sse41
.globl _sk_byte_tables_sse41
@@ -37132,7 +37144,7 @@ _sk_byte_tables_sse41:
.byte 65,86 // push %r14
.byte 83 // push %rbx
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 68,15,40,5,3,97,1,0 // movaps 0x16103(%rip),%xmm8 # 32cb0 <_sk_srcover_rgba_8888_sse2_lowp+0xb70>
+ .byte 68,15,40,5,27,97,1,0 // movaps 0x1611b(%rip),%xmm8 # 32ce0 <_sk_srcover_rgba_8888_sse2_lowp+0xb84>
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 102,15,91,192 // cvtps2dq %xmm0,%xmm0
.byte 102,73,15,58,22,192,1 // pextrq $0x1,%xmm0,%r8
@@ -37155,7 +37167,7 @@ _sk_byte_tables_sse41:
.byte 102,15,58,32,197,3 // pinsrb $0x3,%ebp,%xmm0
.byte 102,15,56,49,192 // pmovzxbd %xmm0,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 68,15,40,13,185,97,1,0 // movaps 0x161b9(%rip),%xmm9 # 32dd0 <_sk_srcover_rgba_8888_sse2_lowp+0xc90>
+ .byte 68,15,40,13,225,97,1,0 // movaps 0x161e1(%rip),%xmm9 # 32e10 <_sk_srcover_rgba_8888_sse2_lowp+0xcb4>
.byte 65,15,89,193 // mulps %xmm9,%xmm0
.byte 65,15,89,200 // mulps %xmm8,%xmm1
.byte 102,15,91,201 // cvtps2dq %xmm1,%xmm1
@@ -37257,7 +37269,7 @@ _sk_byte_tables_rgb_sse41:
.byte 102,15,58,32,197,3 // pinsrb $0x3,%ebp,%xmm0
.byte 102,15,56,49,192 // pmovzxbd %xmm0,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 68,15,40,13,21,96,1,0 // movaps 0x16015(%rip),%xmm9 # 32dd0 <_sk_srcover_rgba_8888_sse2_lowp+0xc90>
+ .byte 68,15,40,13,61,96,1,0 // movaps 0x1603d(%rip),%xmm9 # 32e10 <_sk_srcover_rgba_8888_sse2_lowp+0xcb4>
.byte 65,15,89,193 // mulps %xmm9,%xmm0
.byte 65,15,89,200 // mulps %xmm8,%xmm1
.byte 102,15,91,201 // cvtps2dq %xmm1,%xmm1
@@ -37439,31 +37451,31 @@ _sk_parametric_r_sse41:
.byte 69,15,88,208 // addps %xmm8,%xmm10
.byte 69,15,198,219,0 // shufps $0x0,%xmm11,%xmm11
.byte 69,15,91,194 // cvtdq2ps %xmm10,%xmm8
- .byte 68,15,89,5,240,93,1,0 // mulps 0x15df0(%rip),%xmm8 # 32e70 <_sk_srcover_rgba_8888_sse2_lowp+0xd30>
- .byte 68,15,84,21,248,93,1,0 // andps 0x15df8(%rip),%xmm10 # 32e80 <_sk_srcover_rgba_8888_sse2_lowp+0xd40>
- .byte 68,15,86,21,48,91,1,0 // orps 0x15b30(%rip),%xmm10 # 32bc0 <_sk_srcover_rgba_8888_sse2_lowp+0xa80>
- .byte 68,15,88,5,248,93,1,0 // addps 0x15df8(%rip),%xmm8 # 32e90 <_sk_srcover_rgba_8888_sse2_lowp+0xd50>
- .byte 68,15,40,37,0,94,1,0 // movaps 0x15e00(%rip),%xmm12 # 32ea0 <_sk_srcover_rgba_8888_sse2_lowp+0xd60>
+ .byte 68,15,89,5,24,94,1,0 // mulps 0x15e18(%rip),%xmm8 # 32eb0 <_sk_srcover_rgba_8888_sse2_lowp+0xd54>
+ .byte 68,15,84,21,32,94,1,0 // andps 0x15e20(%rip),%xmm10 # 32ec0 <_sk_srcover_rgba_8888_sse2_lowp+0xd64>
+ .byte 68,15,86,21,72,91,1,0 // orps 0x15b48(%rip),%xmm10 # 32bf0 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
+ .byte 68,15,88,5,32,94,1,0 // addps 0x15e20(%rip),%xmm8 # 32ed0 <_sk_srcover_rgba_8888_sse2_lowp+0xd74>
+ .byte 68,15,40,37,40,94,1,0 // movaps 0x15e28(%rip),%xmm12 # 32ee0 <_sk_srcover_rgba_8888_sse2_lowp+0xd84>
.byte 69,15,89,226 // mulps %xmm10,%xmm12
.byte 69,15,92,196 // subps %xmm12,%xmm8
- .byte 68,15,88,21,0,94,1,0 // addps 0x15e00(%rip),%xmm10 # 32eb0 <_sk_srcover_rgba_8888_sse2_lowp+0xd70>
- .byte 68,15,40,37,8,94,1,0 // movaps 0x15e08(%rip),%xmm12 # 32ec0 <_sk_srcover_rgba_8888_sse2_lowp+0xd80>
+ .byte 68,15,88,21,40,94,1,0 // addps 0x15e28(%rip),%xmm10 # 32ef0 <_sk_srcover_rgba_8888_sse2_lowp+0xd94>
+ .byte 68,15,40,37,48,94,1,0 // movaps 0x15e30(%rip),%xmm12 # 32f00 <_sk_srcover_rgba_8888_sse2_lowp+0xda4>
.byte 69,15,94,226 // divps %xmm10,%xmm12
.byte 69,15,92,196 // subps %xmm12,%xmm8
.byte 69,15,89,195 // mulps %xmm11,%xmm8
.byte 102,69,15,58,8,208,1 // roundps $0x1,%xmm8,%xmm10
.byte 69,15,40,216 // movaps %xmm8,%xmm11
.byte 69,15,92,218 // subps %xmm10,%xmm11
- .byte 68,15,88,5,245,93,1,0 // addps 0x15df5(%rip),%xmm8 # 32ed0 <_sk_srcover_rgba_8888_sse2_lowp+0xd90>
- .byte 68,15,40,21,253,93,1,0 // movaps 0x15dfd(%rip),%xmm10 # 32ee0 <_sk_srcover_rgba_8888_sse2_lowp+0xda0>
+ .byte 68,15,88,5,29,94,1,0 // addps 0x15e1d(%rip),%xmm8 # 32f10 <_sk_srcover_rgba_8888_sse2_lowp+0xdb4>
+ .byte 68,15,40,21,37,94,1,0 // movaps 0x15e25(%rip),%xmm10 # 32f20 <_sk_srcover_rgba_8888_sse2_lowp+0xdc4>
.byte 69,15,89,211 // mulps %xmm11,%xmm10
.byte 69,15,92,194 // subps %xmm10,%xmm8
- .byte 68,15,40,21,253,93,1,0 // movaps 0x15dfd(%rip),%xmm10 # 32ef0 <_sk_srcover_rgba_8888_sse2_lowp+0xdb0>
+ .byte 68,15,40,21,37,94,1,0 // movaps 0x15e25(%rip),%xmm10 # 32f30 <_sk_srcover_rgba_8888_sse2_lowp+0xdd4>
.byte 69,15,92,211 // subps %xmm11,%xmm10
- .byte 68,15,40,29,1,94,1,0 // movaps 0x15e01(%rip),%xmm11 # 32f00 <_sk_srcover_rgba_8888_sse2_lowp+0xdc0>
+ .byte 68,15,40,29,41,94,1,0 // movaps 0x15e29(%rip),%xmm11 # 32f40 <_sk_srcover_rgba_8888_sse2_lowp+0xde4>
.byte 69,15,94,218 // divps %xmm10,%xmm11
.byte 69,15,88,216 // addps %xmm8,%xmm11
- .byte 68,15,89,29,1,94,1,0 // mulps 0x15e01(%rip),%xmm11 # 32f10 <_sk_srcover_rgba_8888_sse2_lowp+0xdd0>
+ .byte 68,15,89,29,41,94,1,0 // mulps 0x15e29(%rip),%xmm11 # 32f50 <_sk_srcover_rgba_8888_sse2_lowp+0xdf4>
.byte 102,69,15,91,211 // cvtps2dq %xmm11,%xmm10
.byte 243,68,15,16,64,20 // movss 0x14(%rax),%xmm8
.byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
@@ -37471,7 +37483,7 @@ _sk_parametric_r_sse41:
.byte 102,69,15,56,20,193 // blendvps %xmm0,%xmm9,%xmm8
.byte 15,87,192 // xorps %xmm0,%xmm0
.byte 68,15,95,192 // maxps %xmm0,%xmm8
- .byte 68,15,93,5,152,90,1,0 // minps 0x15a98(%rip),%xmm8 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xa90>
+ .byte 68,15,93,5,176,90,1,0 // minps 0x15ab0(%rip),%xmm8 # 32c00 <_sk_srcover_rgba_8888_sse2_lowp+0xaa4>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 65,15,40,192 // movaps %xmm8,%xmm0
.byte 255,224 // jmpq *%rax
@@ -37501,31 +37513,31 @@ _sk_parametric_g_sse41:
.byte 68,15,88,217 // addps %xmm1,%xmm11
.byte 69,15,198,210,0 // shufps $0x0,%xmm10,%xmm10
.byte 69,15,91,227 // cvtdq2ps %xmm11,%xmm12
- .byte 68,15,89,37,201,92,1,0 // mulps 0x15cc9(%rip),%xmm12 # 32e70 <_sk_srcover_rgba_8888_sse2_lowp+0xd30>
- .byte 68,15,84,29,209,92,1,0 // andps 0x15cd1(%rip),%xmm11 # 32e80 <_sk_srcover_rgba_8888_sse2_lowp+0xd40>
- .byte 68,15,86,29,9,90,1,0 // orps 0x15a09(%rip),%xmm11 # 32bc0 <_sk_srcover_rgba_8888_sse2_lowp+0xa80>
- .byte 68,15,88,37,209,92,1,0 // addps 0x15cd1(%rip),%xmm12 # 32e90 <_sk_srcover_rgba_8888_sse2_lowp+0xd50>
- .byte 15,40,13,218,92,1,0 // movaps 0x15cda(%rip),%xmm1 # 32ea0 <_sk_srcover_rgba_8888_sse2_lowp+0xd60>
+ .byte 68,15,89,37,241,92,1,0 // mulps 0x15cf1(%rip),%xmm12 # 32eb0 <_sk_srcover_rgba_8888_sse2_lowp+0xd54>
+ .byte 68,15,84,29,249,92,1,0 // andps 0x15cf9(%rip),%xmm11 # 32ec0 <_sk_srcover_rgba_8888_sse2_lowp+0xd64>
+ .byte 68,15,86,29,33,90,1,0 // orps 0x15a21(%rip),%xmm11 # 32bf0 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
+ .byte 68,15,88,37,249,92,1,0 // addps 0x15cf9(%rip),%xmm12 # 32ed0 <_sk_srcover_rgba_8888_sse2_lowp+0xd74>
+ .byte 15,40,13,2,93,1,0 // movaps 0x15d02(%rip),%xmm1 # 32ee0 <_sk_srcover_rgba_8888_sse2_lowp+0xd84>
.byte 65,15,89,203 // mulps %xmm11,%xmm1
.byte 68,15,92,225 // subps %xmm1,%xmm12
- .byte 68,15,88,29,218,92,1,0 // addps 0x15cda(%rip),%xmm11 # 32eb0 <_sk_srcover_rgba_8888_sse2_lowp+0xd70>
- .byte 15,40,13,227,92,1,0 // movaps 0x15ce3(%rip),%xmm1 # 32ec0 <_sk_srcover_rgba_8888_sse2_lowp+0xd80>
+ .byte 68,15,88,29,2,93,1,0 // addps 0x15d02(%rip),%xmm11 # 32ef0 <_sk_srcover_rgba_8888_sse2_lowp+0xd94>
+ .byte 15,40,13,11,93,1,0 // movaps 0x15d0b(%rip),%xmm1 # 32f00 <_sk_srcover_rgba_8888_sse2_lowp+0xda4>
.byte 65,15,94,203 // divps %xmm11,%xmm1
.byte 68,15,92,225 // subps %xmm1,%xmm12
.byte 69,15,89,226 // mulps %xmm10,%xmm12
.byte 102,69,15,58,8,212,1 // roundps $0x1,%xmm12,%xmm10
.byte 69,15,40,220 // movaps %xmm12,%xmm11
.byte 69,15,92,218 // subps %xmm10,%xmm11
- .byte 68,15,88,37,208,92,1,0 // addps 0x15cd0(%rip),%xmm12 # 32ed0 <_sk_srcover_rgba_8888_sse2_lowp+0xd90>
- .byte 15,40,13,217,92,1,0 // movaps 0x15cd9(%rip),%xmm1 # 32ee0 <_sk_srcover_rgba_8888_sse2_lowp+0xda0>
+ .byte 68,15,88,37,248,92,1,0 // addps 0x15cf8(%rip),%xmm12 # 32f10 <_sk_srcover_rgba_8888_sse2_lowp+0xdb4>
+ .byte 15,40,13,1,93,1,0 // movaps 0x15d01(%rip),%xmm1 # 32f20 <_sk_srcover_rgba_8888_sse2_lowp+0xdc4>
.byte 65,15,89,203 // mulps %xmm11,%xmm1
.byte 68,15,92,225 // subps %xmm1,%xmm12
- .byte 68,15,40,21,217,92,1,0 // movaps 0x15cd9(%rip),%xmm10 # 32ef0 <_sk_srcover_rgba_8888_sse2_lowp+0xdb0>
+ .byte 68,15,40,21,1,93,1,0 // movaps 0x15d01(%rip),%xmm10 # 32f30 <_sk_srcover_rgba_8888_sse2_lowp+0xdd4>
.byte 69,15,92,211 // subps %xmm11,%xmm10
- .byte 15,40,13,222,92,1,0 // movaps 0x15cde(%rip),%xmm1 # 32f00 <_sk_srcover_rgba_8888_sse2_lowp+0xdc0>
+ .byte 15,40,13,6,93,1,0 // movaps 0x15d06(%rip),%xmm1 # 32f40 <_sk_srcover_rgba_8888_sse2_lowp+0xde4>
.byte 65,15,94,202 // divps %xmm10,%xmm1
.byte 65,15,88,204 // addps %xmm12,%xmm1
- .byte 15,89,13,223,92,1,0 // mulps 0x15cdf(%rip),%xmm1 # 32f10 <_sk_srcover_rgba_8888_sse2_lowp+0xdd0>
+ .byte 15,89,13,7,93,1,0 // mulps 0x15d07(%rip),%xmm1 # 32f50 <_sk_srcover_rgba_8888_sse2_lowp+0xdf4>
.byte 102,68,15,91,209 // cvtps2dq %xmm1,%xmm10
.byte 243,15,16,72,20 // movss 0x14(%rax),%xmm1
.byte 15,198,201,0 // shufps $0x0,%xmm1,%xmm1
@@ -37533,7 +37545,7 @@ _sk_parametric_g_sse41:
.byte 102,65,15,56,20,201 // blendvps %xmm0,%xmm9,%xmm1
.byte 15,87,192 // xorps %xmm0,%xmm0
.byte 15,95,200 // maxps %xmm0,%xmm1
- .byte 15,93,13,122,89,1,0 // minps 0x1597a(%rip),%xmm1 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xa90>
+ .byte 15,93,13,146,89,1,0 // minps 0x15992(%rip),%xmm1 # 32c00 <_sk_srcover_rgba_8888_sse2_lowp+0xaa4>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 65,15,40,192 // movaps %xmm8,%xmm0
.byte 255,224 // jmpq *%rax
@@ -37563,31 +37575,31 @@ _sk_parametric_b_sse41:
.byte 68,15,88,218 // addps %xmm2,%xmm11
.byte 69,15,198,210,0 // shufps $0x0,%xmm10,%xmm10
.byte 69,15,91,227 // cvtdq2ps %xmm11,%xmm12
- .byte 68,15,89,37,171,91,1,0 // mulps 0x15bab(%rip),%xmm12 # 32e70 <_sk_srcover_rgba_8888_sse2_lowp+0xd30>
- .byte 68,15,84,29,179,91,1,0 // andps 0x15bb3(%rip),%xmm11 # 32e80 <_sk_srcover_rgba_8888_sse2_lowp+0xd40>
- .byte 68,15,86,29,235,88,1,0 // orps 0x158eb(%rip),%xmm11 # 32bc0 <_sk_srcover_rgba_8888_sse2_lowp+0xa80>
- .byte 68,15,88,37,179,91,1,0 // addps 0x15bb3(%rip),%xmm12 # 32e90 <_sk_srcover_rgba_8888_sse2_lowp+0xd50>
- .byte 15,40,21,188,91,1,0 // movaps 0x15bbc(%rip),%xmm2 # 32ea0 <_sk_srcover_rgba_8888_sse2_lowp+0xd60>
+ .byte 68,15,89,37,211,91,1,0 // mulps 0x15bd3(%rip),%xmm12 # 32eb0 <_sk_srcover_rgba_8888_sse2_lowp+0xd54>
+ .byte 68,15,84,29,219,91,1,0 // andps 0x15bdb(%rip),%xmm11 # 32ec0 <_sk_srcover_rgba_8888_sse2_lowp+0xd64>
+ .byte 68,15,86,29,3,89,1,0 // orps 0x15903(%rip),%xmm11 # 32bf0 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
+ .byte 68,15,88,37,219,91,1,0 // addps 0x15bdb(%rip),%xmm12 # 32ed0 <_sk_srcover_rgba_8888_sse2_lowp+0xd74>
+ .byte 15,40,21,228,91,1,0 // movaps 0x15be4(%rip),%xmm2 # 32ee0 <_sk_srcover_rgba_8888_sse2_lowp+0xd84>
.byte 65,15,89,211 // mulps %xmm11,%xmm2
.byte 68,15,92,226 // subps %xmm2,%xmm12
- .byte 68,15,88,29,188,91,1,0 // addps 0x15bbc(%rip),%xmm11 # 32eb0 <_sk_srcover_rgba_8888_sse2_lowp+0xd70>
- .byte 15,40,21,197,91,1,0 // movaps 0x15bc5(%rip),%xmm2 # 32ec0 <_sk_srcover_rgba_8888_sse2_lowp+0xd80>
+ .byte 68,15,88,29,228,91,1,0 // addps 0x15be4(%rip),%xmm11 # 32ef0 <_sk_srcover_rgba_8888_sse2_lowp+0xd94>
+ .byte 15,40,21,237,91,1,0 // movaps 0x15bed(%rip),%xmm2 # 32f00 <_sk_srcover_rgba_8888_sse2_lowp+0xda4>
.byte 65,15,94,211 // divps %xmm11,%xmm2
.byte 68,15,92,226 // subps %xmm2,%xmm12
.byte 69,15,89,226 // mulps %xmm10,%xmm12
.byte 102,69,15,58,8,212,1 // roundps $0x1,%xmm12,%xmm10
.byte 69,15,40,220 // movaps %xmm12,%xmm11
.byte 69,15,92,218 // subps %xmm10,%xmm11
- .byte 68,15,88,37,178,91,1,0 // addps 0x15bb2(%rip),%xmm12 # 32ed0 <_sk_srcover_rgba_8888_sse2_lowp+0xd90>
- .byte 15,40,21,187,91,1,0 // movaps 0x15bbb(%rip),%xmm2 # 32ee0 <_sk_srcover_rgba_8888_sse2_lowp+0xda0>
+ .byte 68,15,88,37,218,91,1,0 // addps 0x15bda(%rip),%xmm12 # 32f10 <_sk_srcover_rgba_8888_sse2_lowp+0xdb4>
+ .byte 15,40,21,227,91,1,0 // movaps 0x15be3(%rip),%xmm2 # 32f20 <_sk_srcover_rgba_8888_sse2_lowp+0xdc4>
.byte 65,15,89,211 // mulps %xmm11,%xmm2
.byte 68,15,92,226 // subps %xmm2,%xmm12
- .byte 68,15,40,21,187,91,1,0 // movaps 0x15bbb(%rip),%xmm10 # 32ef0 <_sk_srcover_rgba_8888_sse2_lowp+0xdb0>
+ .byte 68,15,40,21,227,91,1,0 // movaps 0x15be3(%rip),%xmm10 # 32f30 <_sk_srcover_rgba_8888_sse2_lowp+0xdd4>
.byte 69,15,92,211 // subps %xmm11,%xmm10
- .byte 15,40,21,192,91,1,0 // movaps 0x15bc0(%rip),%xmm2 # 32f00 <_sk_srcover_rgba_8888_sse2_lowp+0xdc0>
+ .byte 15,40,21,232,91,1,0 // movaps 0x15be8(%rip),%xmm2 # 32f40 <_sk_srcover_rgba_8888_sse2_lowp+0xde4>
.byte 65,15,94,210 // divps %xmm10,%xmm2
.byte 65,15,88,212 // addps %xmm12,%xmm2
- .byte 15,89,21,193,91,1,0 // mulps 0x15bc1(%rip),%xmm2 # 32f10 <_sk_srcover_rgba_8888_sse2_lowp+0xdd0>
+ .byte 15,89,21,233,91,1,0 // mulps 0x15be9(%rip),%xmm2 # 32f50 <_sk_srcover_rgba_8888_sse2_lowp+0xdf4>
.byte 102,68,15,91,210 // cvtps2dq %xmm2,%xmm10
.byte 243,15,16,80,20 // movss 0x14(%rax),%xmm2
.byte 15,198,210,0 // shufps $0x0,%xmm2,%xmm2
@@ -37595,7 +37607,7 @@ _sk_parametric_b_sse41:
.byte 102,65,15,56,20,209 // blendvps %xmm0,%xmm9,%xmm2
.byte 15,87,192 // xorps %xmm0,%xmm0
.byte 15,95,208 // maxps %xmm0,%xmm2
- .byte 15,93,21,92,88,1,0 // minps 0x1585c(%rip),%xmm2 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xa90>
+ .byte 15,93,21,116,88,1,0 // minps 0x15874(%rip),%xmm2 # 32c00 <_sk_srcover_rgba_8888_sse2_lowp+0xaa4>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 65,15,40,192 // movaps %xmm8,%xmm0
.byte 255,224 // jmpq *%rax
@@ -37625,31 +37637,31 @@ _sk_parametric_a_sse41:
.byte 68,15,88,219 // addps %xmm3,%xmm11
.byte 69,15,198,210,0 // shufps $0x0,%xmm10,%xmm10
.byte 69,15,91,227 // cvtdq2ps %xmm11,%xmm12
- .byte 68,15,89,37,141,90,1,0 // mulps 0x15a8d(%rip),%xmm12 # 32e70 <_sk_srcover_rgba_8888_sse2_lowp+0xd30>
- .byte 68,15,84,29,149,90,1,0 // andps 0x15a95(%rip),%xmm11 # 32e80 <_sk_srcover_rgba_8888_sse2_lowp+0xd40>
- .byte 68,15,86,29,205,87,1,0 // orps 0x157cd(%rip),%xmm11 # 32bc0 <_sk_srcover_rgba_8888_sse2_lowp+0xa80>
- .byte 68,15,88,37,149,90,1,0 // addps 0x15a95(%rip),%xmm12 # 32e90 <_sk_srcover_rgba_8888_sse2_lowp+0xd50>
- .byte 15,40,29,158,90,1,0 // movaps 0x15a9e(%rip),%xmm3 # 32ea0 <_sk_srcover_rgba_8888_sse2_lowp+0xd60>
+ .byte 68,15,89,37,181,90,1,0 // mulps 0x15ab5(%rip),%xmm12 # 32eb0 <_sk_srcover_rgba_8888_sse2_lowp+0xd54>
+ .byte 68,15,84,29,189,90,1,0 // andps 0x15abd(%rip),%xmm11 # 32ec0 <_sk_srcover_rgba_8888_sse2_lowp+0xd64>
+ .byte 68,15,86,29,229,87,1,0 // orps 0x157e5(%rip),%xmm11 # 32bf0 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
+ .byte 68,15,88,37,189,90,1,0 // addps 0x15abd(%rip),%xmm12 # 32ed0 <_sk_srcover_rgba_8888_sse2_lowp+0xd74>
+ .byte 15,40,29,198,90,1,0 // movaps 0x15ac6(%rip),%xmm3 # 32ee0 <_sk_srcover_rgba_8888_sse2_lowp+0xd84>
.byte 65,15,89,219 // mulps %xmm11,%xmm3
.byte 68,15,92,227 // subps %xmm3,%xmm12
- .byte 68,15,88,29,158,90,1,0 // addps 0x15a9e(%rip),%xmm11 # 32eb0 <_sk_srcover_rgba_8888_sse2_lowp+0xd70>
- .byte 15,40,29,167,90,1,0 // movaps 0x15aa7(%rip),%xmm3 # 32ec0 <_sk_srcover_rgba_8888_sse2_lowp+0xd80>
+ .byte 68,15,88,29,198,90,1,0 // addps 0x15ac6(%rip),%xmm11 # 32ef0 <_sk_srcover_rgba_8888_sse2_lowp+0xd94>
+ .byte 15,40,29,207,90,1,0 // movaps 0x15acf(%rip),%xmm3 # 32f00 <_sk_srcover_rgba_8888_sse2_lowp+0xda4>
.byte 65,15,94,219 // divps %xmm11,%xmm3
.byte 68,15,92,227 // subps %xmm3,%xmm12
.byte 69,15,89,226 // mulps %xmm10,%xmm12
.byte 102,69,15,58,8,212,1 // roundps $0x1,%xmm12,%xmm10
.byte 69,15,40,220 // movaps %xmm12,%xmm11
.byte 69,15,92,218 // subps %xmm10,%xmm11
- .byte 68,15,88,37,148,90,1,0 // addps 0x15a94(%rip),%xmm12 # 32ed0 <_sk_srcover_rgba_8888_sse2_lowp+0xd90>
- .byte 15,40,29,157,90,1,0 // movaps 0x15a9d(%rip),%xmm3 # 32ee0 <_sk_srcover_rgba_8888_sse2_lowp+0xda0>
+ .byte 68,15,88,37,188,90,1,0 // addps 0x15abc(%rip),%xmm12 # 32f10 <_sk_srcover_rgba_8888_sse2_lowp+0xdb4>
+ .byte 15,40,29,197,90,1,0 // movaps 0x15ac5(%rip),%xmm3 # 32f20 <_sk_srcover_rgba_8888_sse2_lowp+0xdc4>
.byte 65,15,89,219 // mulps %xmm11,%xmm3
.byte 68,15,92,227 // subps %xmm3,%xmm12
- .byte 68,15,40,21,157,90,1,0 // movaps 0x15a9d(%rip),%xmm10 # 32ef0 <_sk_srcover_rgba_8888_sse2_lowp+0xdb0>
+ .byte 68,15,40,21,197,90,1,0 // movaps 0x15ac5(%rip),%xmm10 # 32f30 <_sk_srcover_rgba_8888_sse2_lowp+0xdd4>
.byte 69,15,92,211 // subps %xmm11,%xmm10
- .byte 15,40,29,162,90,1,0 // movaps 0x15aa2(%rip),%xmm3 # 32f00 <_sk_srcover_rgba_8888_sse2_lowp+0xdc0>
+ .byte 15,40,29,202,90,1,0 // movaps 0x15aca(%rip),%xmm3 # 32f40 <_sk_srcover_rgba_8888_sse2_lowp+0xde4>
.byte 65,15,94,218 // divps %xmm10,%xmm3
.byte 65,15,88,220 // addps %xmm12,%xmm3
- .byte 15,89,29,163,90,1,0 // mulps 0x15aa3(%rip),%xmm3 # 32f10 <_sk_srcover_rgba_8888_sse2_lowp+0xdd0>
+ .byte 15,89,29,203,90,1,0 // mulps 0x15acb(%rip),%xmm3 # 32f50 <_sk_srcover_rgba_8888_sse2_lowp+0xdf4>
.byte 102,68,15,91,211 // cvtps2dq %xmm3,%xmm10
.byte 243,15,16,88,20 // movss 0x14(%rax),%xmm3
.byte 15,198,219,0 // shufps $0x0,%xmm3,%xmm3
@@ -37657,7 +37669,7 @@ _sk_parametric_a_sse41:
.byte 102,65,15,56,20,217 // blendvps %xmm0,%xmm9,%xmm3
.byte 15,87,192 // xorps %xmm0,%xmm0
.byte 15,95,216 // maxps %xmm0,%xmm3
- .byte 15,93,29,62,87,1,0 // minps 0x1573e(%rip),%xmm3 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xa90>
+ .byte 15,93,29,86,87,1,0 // minps 0x15756(%rip),%xmm3 # 32c00 <_sk_srcover_rgba_8888_sse2_lowp+0xaa4>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 65,15,40,192 // movaps %xmm8,%xmm0
.byte 255,224 // jmpq *%rax
@@ -37674,20 +37686,20 @@ _sk_gamma_sse41:
.byte 15,40,218 // movaps %xmm2,%xmm3
.byte 15,40,208 // movaps %xmm0,%xmm2
.byte 15,91,194 // cvtdq2ps %xmm2,%xmm0
- .byte 15,89,5,173,89,1,0 // mulps 0x159ad(%rip),%xmm0 # 32e70 <_sk_srcover_rgba_8888_sse2_lowp+0xd30>
- .byte 68,15,40,53,181,89,1,0 // movaps 0x159b5(%rip),%xmm14 # 32e80 <_sk_srcover_rgba_8888_sse2_lowp+0xd40>
+ .byte 15,89,5,213,89,1,0 // mulps 0x159d5(%rip),%xmm0 # 32eb0 <_sk_srcover_rgba_8888_sse2_lowp+0xd54>
+ .byte 68,15,40,53,221,89,1,0 // movaps 0x159dd(%rip),%xmm14 # 32ec0 <_sk_srcover_rgba_8888_sse2_lowp+0xd64>
.byte 65,15,84,214 // andps %xmm14,%xmm2
- .byte 68,15,40,37,233,86,1,0 // movaps 0x156e9(%rip),%xmm12 # 32bc0 <_sk_srcover_rgba_8888_sse2_lowp+0xa80>
+ .byte 68,15,40,37,1,87,1,0 // movaps 0x15701(%rip),%xmm12 # 32bf0 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
.byte 65,15,86,212 // orps %xmm12,%xmm2
- .byte 68,15,40,21,173,89,1,0 // movaps 0x159ad(%rip),%xmm10 # 32e90 <_sk_srcover_rgba_8888_sse2_lowp+0xd50>
+ .byte 68,15,40,21,213,89,1,0 // movaps 0x159d5(%rip),%xmm10 # 32ed0 <_sk_srcover_rgba_8888_sse2_lowp+0xd74>
.byte 65,15,88,194 // addps %xmm10,%xmm0
- .byte 68,15,40,29,177,89,1,0 // movaps 0x159b1(%rip),%xmm11 # 32ea0 <_sk_srcover_rgba_8888_sse2_lowp+0xd60>
+ .byte 68,15,40,29,217,89,1,0 // movaps 0x159d9(%rip),%xmm11 # 32ee0 <_sk_srcover_rgba_8888_sse2_lowp+0xd84>
.byte 15,40,226 // movaps %xmm2,%xmm4
.byte 65,15,89,227 // mulps %xmm11,%xmm4
.byte 15,92,196 // subps %xmm4,%xmm0
- .byte 68,15,40,13,175,89,1,0 // movaps 0x159af(%rip),%xmm9 # 32eb0 <_sk_srcover_rgba_8888_sse2_lowp+0xd70>
+ .byte 68,15,40,13,215,89,1,0 // movaps 0x159d7(%rip),%xmm9 # 32ef0 <_sk_srcover_rgba_8888_sse2_lowp+0xd94>
.byte 65,15,88,209 // addps %xmm9,%xmm2
- .byte 68,15,40,45,179,89,1,0 // movaps 0x159b3(%rip),%xmm13 # 32ec0 <_sk_srcover_rgba_8888_sse2_lowp+0xd80>
+ .byte 68,15,40,45,219,89,1,0 // movaps 0x159db(%rip),%xmm13 # 32f00 <_sk_srcover_rgba_8888_sse2_lowp+0xda4>
.byte 65,15,40,229 // movaps %xmm13,%xmm4
.byte 15,94,226 // divps %xmm2,%xmm4
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -37698,21 +37710,21 @@ _sk_gamma_sse41:
.byte 102,15,58,8,208,1 // roundps $0x1,%xmm0,%xmm2
.byte 15,40,224 // movaps %xmm0,%xmm4
.byte 15,92,226 // subps %xmm2,%xmm4
- .byte 15,40,53,150,89,1,0 // movaps 0x15996(%rip),%xmm6 # 32ed0 <_sk_srcover_rgba_8888_sse2_lowp+0xd90>
+ .byte 15,40,53,190,89,1,0 // movaps 0x159be(%rip),%xmm6 # 32f10 <_sk_srcover_rgba_8888_sse2_lowp+0xdb4>
.byte 15,88,198 // addps %xmm6,%xmm0
- .byte 15,40,61,172,89,1,0 // movaps 0x159ac(%rip),%xmm7 # 32ef0 <_sk_srcover_rgba_8888_sse2_lowp+0xdb0>
+ .byte 15,40,61,212,89,1,0 // movaps 0x159d4(%rip),%xmm7 # 32f30 <_sk_srcover_rgba_8888_sse2_lowp+0xdd4>
.byte 15,40,239 // movaps %xmm7,%xmm5
.byte 15,92,236 // subps %xmm4,%xmm5
.byte 15,40,212 // movaps %xmm4,%xmm2
- .byte 15,40,37,140,89,1,0 // movaps 0x1598c(%rip),%xmm4 # 32ee0 <_sk_srcover_rgba_8888_sse2_lowp+0xda0>
+ .byte 15,40,37,180,89,1,0 // movaps 0x159b4(%rip),%xmm4 # 32f20 <_sk_srcover_rgba_8888_sse2_lowp+0xdc4>
.byte 15,89,212 // mulps %xmm4,%xmm2
.byte 15,92,194 // subps %xmm2,%xmm0
- .byte 68,15,40,61,158,89,1,0 // movaps 0x1599e(%rip),%xmm15 # 32f00 <_sk_srcover_rgba_8888_sse2_lowp+0xdc0>
+ .byte 68,15,40,61,198,89,1,0 // movaps 0x159c6(%rip),%xmm15 # 32f40 <_sk_srcover_rgba_8888_sse2_lowp+0xde4>
.byte 65,15,40,215 // movaps %xmm15,%xmm2
.byte 15,94,213 // divps %xmm5,%xmm2
.byte 15,88,208 // addps %xmm0,%xmm2
.byte 15,91,193 // cvtdq2ps %xmm1,%xmm0
- .byte 15,89,5,250,88,1,0 // mulps 0x158fa(%rip),%xmm0 # 32e70 <_sk_srcover_rgba_8888_sse2_lowp+0xd30>
+ .byte 15,89,5,34,89,1,0 // mulps 0x15922(%rip),%xmm0 # 32eb0 <_sk_srcover_rgba_8888_sse2_lowp+0xd54>
.byte 65,15,84,206 // andps %xmm14,%xmm1
.byte 65,15,86,204 // orps %xmm12,%xmm1
.byte 65,15,88,194 // addps %xmm10,%xmm0
@@ -37738,8 +37750,8 @@ _sk_gamma_sse41:
.byte 15,94,206 // divps %xmm6,%xmm1
.byte 15,88,200 // addps %xmm0,%xmm1
.byte 15,91,195 // cvtdq2ps %xmm3,%xmm0
- .byte 15,89,5,155,88,1,0 // mulps 0x1589b(%rip),%xmm0 # 32e70 <_sk_srcover_rgba_8888_sse2_lowp+0xd30>
- .byte 15,84,29,164,88,1,0 // andps 0x158a4(%rip),%xmm3 # 32e80 <_sk_srcover_rgba_8888_sse2_lowp+0xd40>
+ .byte 15,89,5,195,88,1,0 // mulps 0x158c3(%rip),%xmm0 # 32eb0 <_sk_srcover_rgba_8888_sse2_lowp+0xd54>
+ .byte 15,84,29,204,88,1,0 // andps 0x158cc(%rip),%xmm3 # 32ec0 <_sk_srcover_rgba_8888_sse2_lowp+0xd64>
.byte 65,15,86,220 // orps %xmm12,%xmm3
.byte 65,15,88,194 // addps %xmm10,%xmm0
.byte 68,15,89,219 // mulps %xmm3,%xmm11
@@ -37757,7 +37769,7 @@ _sk_gamma_sse41:
.byte 15,92,253 // subps %xmm5,%xmm7
.byte 68,15,94,255 // divps %xmm7,%xmm15
.byte 68,15,88,248 // addps %xmm0,%xmm15
- .byte 15,40,5,236,88,1,0 // movaps 0x158ec(%rip),%xmm0 # 32f10 <_sk_srcover_rgba_8888_sse2_lowp+0xdd0>
+ .byte 15,40,5,20,89,1,0 // movaps 0x15914(%rip),%xmm0 # 32f50 <_sk_srcover_rgba_8888_sse2_lowp+0xdf4>
.byte 15,89,208 // mulps %xmm0,%xmm2
.byte 15,89,200 // mulps %xmm0,%xmm1
.byte 68,15,89,248 // mulps %xmm0,%xmm15
@@ -37777,29 +37789,29 @@ HIDDEN _sk_lab_to_xyz_sse41
FUNCTION(_sk_lab_to_xyz_sse41)
_sk_lab_to_xyz_sse41:
.byte 68,15,40,192 // movaps %xmm0,%xmm8
- .byte 68,15,89,5,188,88,1,0 // mulps 0x158bc(%rip),%xmm8 # 32f20 <_sk_srcover_rgba_8888_sse2_lowp+0xde0>
- .byte 68,15,40,13,68,86,1,0 // movaps 0x15644(%rip),%xmm9 # 32cb0 <_sk_srcover_rgba_8888_sse2_lowp+0xb70>
+ .byte 68,15,89,5,228,88,1,0 // mulps 0x158e4(%rip),%xmm8 # 32f60 <_sk_srcover_rgba_8888_sse2_lowp+0xe04>
+ .byte 68,15,40,13,92,86,1,0 // movaps 0x1565c(%rip),%xmm9 # 32ce0 <_sk_srcover_rgba_8888_sse2_lowp+0xb84>
.byte 65,15,89,201 // mulps %xmm9,%xmm1
- .byte 15,40,5,185,88,1,0 // movaps 0x158b9(%rip),%xmm0 # 32f30 <_sk_srcover_rgba_8888_sse2_lowp+0xdf0>
+ .byte 15,40,5,225,88,1,0 // movaps 0x158e1(%rip),%xmm0 # 32f70 <_sk_srcover_rgba_8888_sse2_lowp+0xe14>
.byte 15,88,200 // addps %xmm0,%xmm1
.byte 65,15,89,209 // mulps %xmm9,%xmm2
.byte 15,88,208 // addps %xmm0,%xmm2
- .byte 68,15,88,5,183,88,1,0 // addps 0x158b7(%rip),%xmm8 # 32f40 <_sk_srcover_rgba_8888_sse2_lowp+0xe00>
- .byte 68,15,89,5,191,88,1,0 // mulps 0x158bf(%rip),%xmm8 # 32f50 <_sk_srcover_rgba_8888_sse2_lowp+0xe10>
- .byte 15,89,13,200,88,1,0 // mulps 0x158c8(%rip),%xmm1 # 32f60 <_sk_srcover_rgba_8888_sse2_lowp+0xe20>
+ .byte 68,15,88,5,223,88,1,0 // addps 0x158df(%rip),%xmm8 # 32f80 <_sk_srcover_rgba_8888_sse2_lowp+0xe24>
+ .byte 68,15,89,5,231,88,1,0 // mulps 0x158e7(%rip),%xmm8 # 32f90 <_sk_srcover_rgba_8888_sse2_lowp+0xe34>
+ .byte 15,89,13,240,88,1,0 // mulps 0x158f0(%rip),%xmm1 # 32fa0 <_sk_srcover_rgba_8888_sse2_lowp+0xe44>
.byte 65,15,88,200 // addps %xmm8,%xmm1
- .byte 15,89,21,205,88,1,0 // mulps 0x158cd(%rip),%xmm2 # 32f70 <_sk_srcover_rgba_8888_sse2_lowp+0xe30>
+ .byte 15,89,21,245,88,1,0 // mulps 0x158f5(%rip),%xmm2 # 32fb0 <_sk_srcover_rgba_8888_sse2_lowp+0xe54>
.byte 69,15,40,208 // movaps %xmm8,%xmm10
.byte 68,15,92,210 // subps %xmm2,%xmm10
.byte 68,15,40,217 // movaps %xmm1,%xmm11
.byte 69,15,89,219 // mulps %xmm11,%xmm11
.byte 68,15,89,217 // mulps %xmm1,%xmm11
- .byte 68,15,40,13,193,88,1,0 // movaps 0x158c1(%rip),%xmm9 # 32f80 <_sk_srcover_rgba_8888_sse2_lowp+0xe40>
+ .byte 68,15,40,13,233,88,1,0 // movaps 0x158e9(%rip),%xmm9 # 32fc0 <_sk_srcover_rgba_8888_sse2_lowp+0xe64>
.byte 65,15,40,193 // movaps %xmm9,%xmm0
.byte 65,15,194,195,1 // cmpltps %xmm11,%xmm0
- .byte 15,40,21,193,88,1,0 // movaps 0x158c1(%rip),%xmm2 # 32f90 <_sk_srcover_rgba_8888_sse2_lowp+0xe50>
+ .byte 15,40,21,233,88,1,0 // movaps 0x158e9(%rip),%xmm2 # 32fd0 <_sk_srcover_rgba_8888_sse2_lowp+0xe74>
.byte 15,88,202 // addps %xmm2,%xmm1
- .byte 68,15,40,37,198,88,1,0 // movaps 0x158c6(%rip),%xmm12 # 32fa0 <_sk_srcover_rgba_8888_sse2_lowp+0xe60>
+ .byte 68,15,40,37,238,88,1,0 // movaps 0x158ee(%rip),%xmm12 # 32fe0 <_sk_srcover_rgba_8888_sse2_lowp+0xe84>
.byte 65,15,89,204 // mulps %xmm12,%xmm1
.byte 102,65,15,56,20,203 // blendvps %xmm0,%xmm11,%xmm1
.byte 69,15,40,216 // movaps %xmm8,%xmm11
@@ -37818,8 +37830,8 @@ _sk_lab_to_xyz_sse41:
.byte 65,15,89,212 // mulps %xmm12,%xmm2
.byte 65,15,40,193 // movaps %xmm9,%xmm0
.byte 102,65,15,56,20,211 // blendvps %xmm0,%xmm11,%xmm2
- .byte 15,89,13,127,88,1,0 // mulps 0x1587f(%rip),%xmm1 # 32fb0 <_sk_srcover_rgba_8888_sse2_lowp+0xe70>
- .byte 15,89,21,136,88,1,0 // mulps 0x15888(%rip),%xmm2 # 32fc0 <_sk_srcover_rgba_8888_sse2_lowp+0xe80>
+ .byte 15,89,13,167,88,1,0 // mulps 0x158a7(%rip),%xmm1 # 32ff0 <_sk_srcover_rgba_8888_sse2_lowp+0xe94>
+ .byte 15,89,21,176,88,1,0 // mulps 0x158b0(%rip),%xmm2 # 33000 <_sk_srcover_rgba_8888_sse2_lowp+0xea4>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,40,193 // movaps %xmm1,%xmm0
.byte 65,15,40,200 // movaps %xmm8,%xmm1
@@ -37836,11 +37848,11 @@ _sk_load_a8_sse41:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,210 // movslq %edx,%r10
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,39 // jne 1d782 <_sk_load_a8_sse41+0x3f>
+ .byte 117,39 // jne 1d79a <_sk_load_a8_sse41+0x3f>
.byte 102,67,15,56,49,4,16 // pmovzxbd (%r8,%r10,1),%xmm0
- .byte 102,15,219,5,22,85,1,0 // pand 0x15516(%rip),%xmm0 # 32c80 <_sk_srcover_rgba_8888_sse2_lowp+0xb40>
+ .byte 102,15,219,5,46,85,1,0 // pand 0x1552e(%rip),%xmm0 # 32cb0 <_sk_srcover_rgba_8888_sse2_lowp+0xb54>
.byte 15,91,216 // cvtdq2ps %xmm0,%xmm3
- .byte 15,89,29,92,86,1,0 // mulps 0x1565c(%rip),%xmm3 # 32dd0 <_sk_srcover_rgba_8888_sse2_lowp+0xc90>
+ .byte 15,89,29,132,86,1,0 // mulps 0x15684(%rip),%xmm3 # 32e10 <_sk_srcover_rgba_8888_sse2_lowp+0xcb4>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,87,192 // xorps %xmm0,%xmm0
.byte 102,15,239,201 // pxor %xmm1,%xmm1
@@ -37849,12 +37861,12 @@ _sk_load_a8_sse41:
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,53 // je 1d7c4 <_sk_load_a8_sse41+0x81>
+ .byte 116,53 // je 1d7dc <_sk_load_a8_sse41+0x81>
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,21 // je 1d7ae <_sk_load_a8_sse41+0x6b>
+ .byte 116,21 // je 1d7c6 <_sk_load_a8_sse41+0x6b>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,195 // jne 1d762 <_sk_load_a8_sse41+0x1f>
+ .byte 117,195 // jne 1d77a <_sk_load_a8_sse41+0x1f>
.byte 67,15,182,68,16,2 // movzbl 0x2(%r8,%r10,1),%eax
.byte 102,15,110,192 // movd %eax,%xmm0
.byte 102,15,112,192,69 // pshufd $0x45,%xmm0,%xmm0
@@ -37862,10 +37874,10 @@ _sk_load_a8_sse41:
.byte 102,15,110,200 // movd %eax,%xmm1
.byte 102,15,56,49,201 // pmovzxbd %xmm1,%xmm1
.byte 102,15,58,14,193,15 // pblendw $0xf,%xmm1,%xmm0
- .byte 235,158 // jmp 1d762 <_sk_load_a8_sse41+0x1f>
+ .byte 235,158 // jmp 1d77a <_sk_load_a8_sse41+0x1f>
.byte 67,15,182,4,16 // movzbl (%r8,%r10,1),%eax
.byte 102,15,110,192 // movd %eax,%xmm0
- .byte 235,147 // jmp 1d762 <_sk_load_a8_sse41+0x1f>
+ .byte 235,147 // jmp 1d77a <_sk_load_a8_sse41+0x1f>
HIDDEN _sk_load_a8_dst_sse41
.globl _sk_load_a8_dst_sse41
@@ -37878,11 +37890,11 @@ _sk_load_a8_dst_sse41:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,210 // movslq %edx,%r10
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,39 // jne 1d80e <_sk_load_a8_dst_sse41+0x3f>
+ .byte 117,39 // jne 1d826 <_sk_load_a8_dst_sse41+0x3f>
.byte 102,67,15,56,49,36,16 // pmovzxbd (%r8,%r10,1),%xmm4
- .byte 102,15,219,37,138,84,1,0 // pand 0x1548a(%rip),%xmm4 # 32c80 <_sk_srcover_rgba_8888_sse2_lowp+0xb40>
+ .byte 102,15,219,37,162,84,1,0 // pand 0x154a2(%rip),%xmm4 # 32cb0 <_sk_srcover_rgba_8888_sse2_lowp+0xb54>
.byte 15,91,252 // cvtdq2ps %xmm4,%xmm7
- .byte 15,89,61,208,85,1,0 // mulps 0x155d0(%rip),%xmm7 # 32dd0 <_sk_srcover_rgba_8888_sse2_lowp+0xc90>
+ .byte 15,89,61,248,85,1,0 // mulps 0x155f8(%rip),%xmm7 # 32e10 <_sk_srcover_rgba_8888_sse2_lowp+0xcb4>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,87,228 // xorps %xmm4,%xmm4
.byte 102,15,239,237 // pxor %xmm5,%xmm5
@@ -37891,12 +37903,12 @@ _sk_load_a8_dst_sse41:
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,53 // je 1d850 <_sk_load_a8_dst_sse41+0x81>
+ .byte 116,53 // je 1d868 <_sk_load_a8_dst_sse41+0x81>
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,21 // je 1d83a <_sk_load_a8_dst_sse41+0x6b>
+ .byte 116,21 // je 1d852 <_sk_load_a8_dst_sse41+0x6b>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,195 // jne 1d7ee <_sk_load_a8_dst_sse41+0x1f>
+ .byte 117,195 // jne 1d806 <_sk_load_a8_dst_sse41+0x1f>
.byte 67,15,182,68,16,2 // movzbl 0x2(%r8,%r10,1),%eax
.byte 102,15,110,224 // movd %eax,%xmm4
.byte 102,15,112,228,69 // pshufd $0x45,%xmm4,%xmm4
@@ -37904,10 +37916,10 @@ _sk_load_a8_dst_sse41:
.byte 102,15,110,232 // movd %eax,%xmm5
.byte 102,15,56,49,237 // pmovzxbd %xmm5,%xmm5
.byte 102,15,58,14,229,15 // pblendw $0xf,%xmm5,%xmm4
- .byte 235,158 // jmp 1d7ee <_sk_load_a8_dst_sse41+0x1f>
+ .byte 235,158 // jmp 1d806 <_sk_load_a8_dst_sse41+0x1f>
.byte 67,15,182,4,16 // movzbl (%r8,%r10,1),%eax
.byte 102,15,110,224 // movd %eax,%xmm4
- .byte 235,147 // jmp 1d7ee <_sk_load_a8_dst_sse41+0x1f>
+ .byte 235,147 // jmp 1d806 <_sk_load_a8_dst_sse41+0x1f>
HIDDEN _sk_gather_a8_sse41
.globl _sk_gather_a8_sse41
@@ -37950,7 +37962,7 @@ _sk_gather_a8_sse41:
.byte 102,15,58,32,192,3 // pinsrb $0x3,%eax,%xmm0
.byte 102,15,56,49,192 // pmovzxbd %xmm0,%xmm0
.byte 15,91,216 // cvtdq2ps %xmm0,%xmm3
- .byte 15,89,29,200,84,1,0 // mulps 0x154c8(%rip),%xmm3 # 32dd0 <_sk_srcover_rgba_8888_sse2_lowp+0xc90>
+ .byte 15,89,29,240,84,1,0 // mulps 0x154f0(%rip),%xmm3 # 32e10 <_sk_srcover_rgba_8888_sse2_lowp+0xcb4>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,87,192 // xorps %xmm0,%xmm0
.byte 102,15,239,201 // pxor %xmm1,%xmm1
@@ -37967,13 +37979,13 @@ _sk_store_a8_sse41:
.byte 77,15,175,193 // imul %r9,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,210 // movslq %edx,%r10
- .byte 68,15,40,5,127,83,1,0 // movaps 0x1537f(%rip),%xmm8 # 32cb0 <_sk_srcover_rgba_8888_sse2_lowp+0xb70>
+ .byte 68,15,40,5,151,83,1,0 // movaps 0x15397(%rip),%xmm8 # 32ce0 <_sk_srcover_rgba_8888_sse2_lowp+0xb84>
.byte 68,15,89,195 // mulps %xmm3,%xmm8
.byte 102,69,15,91,192 // cvtps2dq %xmm8,%xmm8
.byte 102,68,15,56,43,192 // packusdw %xmm0,%xmm8
.byte 102,68,15,103,192 // packuswb %xmm0,%xmm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,13 // jne 1d957 <_sk_store_a8_sse41+0x41>
+ .byte 117,13 // jne 1d96f <_sk_store_a8_sse41+0x41>
.byte 102,68,15,126,192 // movd %xmm8,%eax
.byte 67,137,4,16 // mov %eax,(%r8,%r10,1)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -37982,17 +37994,17 @@ _sk_store_a8_sse41:
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,41 // je 1d993 <_sk_store_a8_sse41+0x7d>
+ .byte 116,41 // je 1d9ab <_sk_store_a8_sse41+0x7d>
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,15 // je 1d97f <_sk_store_a8_sse41+0x69>
+ .byte 116,15 // je 1d997 <_sk_store_a8_sse41+0x69>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,221 // jne 1d953 <_sk_store_a8_sse41+0x3d>
+ .byte 117,221 // jne 1d96b <_sk_store_a8_sse41+0x3d>
.byte 102,71,15,58,20,68,16,2,8 // pextrb $0x8,%xmm8,0x2(%r8,%r10,1)
- .byte 102,68,15,56,0,5,71,86,1,0 // pshufb 0x15647(%rip),%xmm8 # 32fd0 <_sk_srcover_rgba_8888_sse2_lowp+0xe90>
+ .byte 102,68,15,56,0,5,111,86,1,0 // pshufb 0x1566f(%rip),%xmm8 # 33010 <_sk_srcover_rgba_8888_sse2_lowp+0xeb4>
.byte 102,71,15,58,21,4,16,0 // pextrw $0x0,%xmm8,(%r8,%r10,1)
- .byte 235,192 // jmp 1d953 <_sk_store_a8_sse41+0x3d>
+ .byte 235,192 // jmp 1d96b <_sk_store_a8_sse41+0x3d>
.byte 102,71,15,58,20,4,16,0 // pextrb $0x0,%xmm8,(%r8,%r10,1)
- .byte 235,182 // jmp 1d953 <_sk_store_a8_sse41+0x3d>
+ .byte 235,182 // jmp 1d96b <_sk_store_a8_sse41+0x3d>
HIDDEN _sk_load_g8_sse41
.globl _sk_load_g8_sse41
@@ -38005,25 +38017,25 @@ _sk_load_g8_sse41:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,210 // movslq %edx,%r10
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,42 // jne 1d9df <_sk_load_g8_sse41+0x42>
+ .byte 117,42 // jne 1d9f7 <_sk_load_g8_sse41+0x42>
.byte 102,67,15,56,49,4,16 // pmovzxbd (%r8,%r10,1),%xmm0
- .byte 102,15,219,5,188,82,1,0 // pand 0x152bc(%rip),%xmm0 # 32c80 <_sk_srcover_rgba_8888_sse2_lowp+0xb40>
+ .byte 102,15,219,5,212,82,1,0 // pand 0x152d4(%rip),%xmm0 # 32cb0 <_sk_srcover_rgba_8888_sse2_lowp+0xb54>
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,89,5,2,84,1,0 // mulps 0x15402(%rip),%xmm0 # 32dd0 <_sk_srcover_rgba_8888_sse2_lowp+0xc90>
+ .byte 15,89,5,42,84,1,0 // mulps 0x1542a(%rip),%xmm0 # 32e10 <_sk_srcover_rgba_8888_sse2_lowp+0xcb4>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,249,81,1,0 // movaps 0x151f9(%rip),%xmm3 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xa90>
+ .byte 15,40,29,17,82,1,0 // movaps 0x15211(%rip),%xmm3 # 32c00 <_sk_srcover_rgba_8888_sse2_lowp+0xaa4>
.byte 15,40,200 // movaps %xmm0,%xmm1
.byte 15,40,208 // movaps %xmm0,%xmm2
.byte 255,224 // jmpq *%rax
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,53 // je 1da21 <_sk_load_g8_sse41+0x84>
+ .byte 116,53 // je 1da39 <_sk_load_g8_sse41+0x84>
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,21 // je 1da0b <_sk_load_g8_sse41+0x6e>
+ .byte 116,21 // je 1da23 <_sk_load_g8_sse41+0x6e>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,192 // jne 1d9bc <_sk_load_g8_sse41+0x1f>
+ .byte 117,192 // jne 1d9d4 <_sk_load_g8_sse41+0x1f>
.byte 67,15,182,68,16,2 // movzbl 0x2(%r8,%r10,1),%eax
.byte 102,15,110,192 // movd %eax,%xmm0
.byte 102,15,112,192,69 // pshufd $0x45,%xmm0,%xmm0
@@ -38031,10 +38043,10 @@ _sk_load_g8_sse41:
.byte 102,15,110,200 // movd %eax,%xmm1
.byte 102,15,56,49,201 // pmovzxbd %xmm1,%xmm1
.byte 102,15,58,14,193,15 // pblendw $0xf,%xmm1,%xmm0
- .byte 235,155 // jmp 1d9bc <_sk_load_g8_sse41+0x1f>
+ .byte 235,155 // jmp 1d9d4 <_sk_load_g8_sse41+0x1f>
.byte 67,15,182,4,16 // movzbl (%r8,%r10,1),%eax
.byte 102,15,110,192 // movd %eax,%xmm0
- .byte 235,144 // jmp 1d9bc <_sk_load_g8_sse41+0x1f>
+ .byte 235,144 // jmp 1d9d4 <_sk_load_g8_sse41+0x1f>
HIDDEN _sk_load_g8_dst_sse41
.globl _sk_load_g8_dst_sse41
@@ -38047,25 +38059,25 @@ _sk_load_g8_dst_sse41:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,210 // movslq %edx,%r10
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,42 // jne 1da6e <_sk_load_g8_dst_sse41+0x42>
+ .byte 117,42 // jne 1da86 <_sk_load_g8_dst_sse41+0x42>
.byte 102,67,15,56,49,36,16 // pmovzxbd (%r8,%r10,1),%xmm4
- .byte 102,15,219,37,45,82,1,0 // pand 0x1522d(%rip),%xmm4 # 32c80 <_sk_srcover_rgba_8888_sse2_lowp+0xb40>
+ .byte 102,15,219,37,69,82,1,0 // pand 0x15245(%rip),%xmm4 # 32cb0 <_sk_srcover_rgba_8888_sse2_lowp+0xb54>
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
- .byte 15,89,37,115,83,1,0 // mulps 0x15373(%rip),%xmm4 # 32dd0 <_sk_srcover_rgba_8888_sse2_lowp+0xc90>
+ .byte 15,89,37,155,83,1,0 // mulps 0x1539b(%rip),%xmm4 # 32e10 <_sk_srcover_rgba_8888_sse2_lowp+0xcb4>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,61,106,81,1,0 // movaps 0x1516a(%rip),%xmm7 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xa90>
+ .byte 15,40,61,130,81,1,0 // movaps 0x15182(%rip),%xmm7 # 32c00 <_sk_srcover_rgba_8888_sse2_lowp+0xaa4>
.byte 15,40,236 // movaps %xmm4,%xmm5
.byte 15,40,244 // movaps %xmm4,%xmm6
.byte 255,224 // jmpq *%rax
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,53 // je 1dab0 <_sk_load_g8_dst_sse41+0x84>
+ .byte 116,53 // je 1dac8 <_sk_load_g8_dst_sse41+0x84>
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,21 // je 1da9a <_sk_load_g8_dst_sse41+0x6e>
+ .byte 116,21 // je 1dab2 <_sk_load_g8_dst_sse41+0x6e>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,192 // jne 1da4b <_sk_load_g8_dst_sse41+0x1f>
+ .byte 117,192 // jne 1da63 <_sk_load_g8_dst_sse41+0x1f>
.byte 67,15,182,68,16,2 // movzbl 0x2(%r8,%r10,1),%eax
.byte 102,15,110,224 // movd %eax,%xmm4
.byte 102,15,112,228,69 // pshufd $0x45,%xmm4,%xmm4
@@ -38073,10 +38085,10 @@ _sk_load_g8_dst_sse41:
.byte 102,15,110,232 // movd %eax,%xmm5
.byte 102,15,56,49,237 // pmovzxbd %xmm5,%xmm5
.byte 102,15,58,14,229,15 // pblendw $0xf,%xmm5,%xmm4
- .byte 235,155 // jmp 1da4b <_sk_load_g8_dst_sse41+0x1f>
+ .byte 235,155 // jmp 1da63 <_sk_load_g8_dst_sse41+0x1f>
.byte 67,15,182,4,16 // movzbl (%r8,%r10,1),%eax
.byte 102,15,110,224 // movd %eax,%xmm4
- .byte 235,144 // jmp 1da4b <_sk_load_g8_dst_sse41+0x1f>
+ .byte 235,144 // jmp 1da63 <_sk_load_g8_dst_sse41+0x1f>
HIDDEN _sk_gather_g8_sse41
.globl _sk_gather_g8_sse41
@@ -38119,9 +38131,9 @@ _sk_gather_g8_sse41:
.byte 102,15,58,32,192,3 // pinsrb $0x3,%eax,%xmm0
.byte 102,15,56,49,192 // pmovzxbd %xmm0,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,89,5,104,82,1,0 // mulps 0x15268(%rip),%xmm0 # 32dd0 <_sk_srcover_rgba_8888_sse2_lowp+0xc90>
+ .byte 15,89,5,144,82,1,0 // mulps 0x15290(%rip),%xmm0 # 32e10 <_sk_srcover_rgba_8888_sse2_lowp+0xcb4>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,95,80,1,0 // movaps 0x1505f(%rip),%xmm3 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xa90>
+ .byte 15,40,29,119,80,1,0 // movaps 0x15077(%rip),%xmm3 # 32c00 <_sk_srcover_rgba_8888_sse2_lowp+0xaa4>
.byte 15,40,200 // movaps %xmm0,%xmm1
.byte 15,40,208 // movaps %xmm0,%xmm2
.byte 255,224 // jmpq *%rax
@@ -38138,41 +38150,41 @@ _sk_load_565_sse41:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,210 // movslq %edx,%r10
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,80 // jne 1dbe4 <_sk_load_565_sse41+0x6b>
+ .byte 117,80 // jne 1dbfc <_sk_load_565_sse41+0x6b>
.byte 102,67,15,56,51,20,80 // pmovzxwd (%r8,%r10,2),%xmm2
- .byte 102,15,111,5,61,82,1,0 // movdqa 0x1523d(%rip),%xmm0 # 32de0 <_sk_srcover_rgba_8888_sse2_lowp+0xca0>
+ .byte 102,15,111,5,101,82,1,0 // movdqa 0x15265(%rip),%xmm0 # 32e20 <_sk_srcover_rgba_8888_sse2_lowp+0xcc4>
.byte 102,15,219,194 // pand %xmm2,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,89,5,63,82,1,0 // mulps 0x1523f(%rip),%xmm0 # 32df0 <_sk_srcover_rgba_8888_sse2_lowp+0xcb0>
- .byte 102,15,111,13,71,82,1,0 // movdqa 0x15247(%rip),%xmm1 # 32e00 <_sk_srcover_rgba_8888_sse2_lowp+0xcc0>
+ .byte 15,89,5,103,82,1,0 // mulps 0x15267(%rip),%xmm0 # 32e30 <_sk_srcover_rgba_8888_sse2_lowp+0xcd4>
+ .byte 102,15,111,13,111,82,1,0 // movdqa 0x1526f(%rip),%xmm1 # 32e40 <_sk_srcover_rgba_8888_sse2_lowp+0xce4>
.byte 102,15,219,202 // pand %xmm2,%xmm1
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
- .byte 15,89,13,73,82,1,0 // mulps 0x15249(%rip),%xmm1 # 32e10 <_sk_srcover_rgba_8888_sse2_lowp+0xcd0>
- .byte 102,15,219,21,81,82,1,0 // pand 0x15251(%rip),%xmm2 # 32e20 <_sk_srcover_rgba_8888_sse2_lowp+0xce0>
+ .byte 15,89,13,113,82,1,0 // mulps 0x15271(%rip),%xmm1 # 32e50 <_sk_srcover_rgba_8888_sse2_lowp+0xcf4>
+ .byte 102,15,219,21,121,82,1,0 // pand 0x15279(%rip),%xmm2 # 32e60 <_sk_srcover_rgba_8888_sse2_lowp+0xd04>
.byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
- .byte 15,89,21,87,82,1,0 // mulps 0x15257(%rip),%xmm2 # 32e30 <_sk_srcover_rgba_8888_sse2_lowp+0xcf0>
+ .byte 15,89,21,127,82,1,0 // mulps 0x1527f(%rip),%xmm2 # 32e70 <_sk_srcover_rgba_8888_sse2_lowp+0xd14>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,238,79,1,0 // movaps 0x14fee(%rip),%xmm3 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xa90>
+ .byte 15,40,29,6,80,1,0 // movaps 0x15006(%rip),%xmm3 # 32c00 <_sk_srcover_rgba_8888_sse2_lowp+0xaa4>
.byte 255,224 // jmpq *%rax
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,53 // je 1dc26 <_sk_load_565_sse41+0xad>
+ .byte 116,53 // je 1dc3e <_sk_load_565_sse41+0xad>
.byte 102,15,239,210 // pxor %xmm2,%xmm2
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,21 // je 1dc10 <_sk_load_565_sse41+0x97>
+ .byte 116,21 // je 1dc28 <_sk_load_565_sse41+0x97>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,154 // jne 1db9b <_sk_load_565_sse41+0x22>
+ .byte 117,154 // jne 1dbb3 <_sk_load_565_sse41+0x22>
.byte 67,15,183,68,80,4 // movzwl 0x4(%r8,%r10,2),%eax
.byte 102,15,110,192 // movd %eax,%xmm0
.byte 102,15,112,208,69 // pshufd $0x45,%xmm0,%xmm2
.byte 102,67,15,110,4,80 // movd (%r8,%r10,2),%xmm0
.byte 102,15,56,51,192 // pmovzxwd %xmm0,%xmm0
.byte 102,15,58,14,208,15 // pblendw $0xf,%xmm0,%xmm2
- .byte 233,117,255,255,255 // jmpq 1db9b <_sk_load_565_sse41+0x22>
+ .byte 233,117,255,255,255 // jmpq 1dbb3 <_sk_load_565_sse41+0x22>
.byte 67,15,183,4,80 // movzwl (%r8,%r10,2),%eax
.byte 102,15,110,208 // movd %eax,%xmm2
- .byte 233,103,255,255,255 // jmpq 1db9b <_sk_load_565_sse41+0x22>
+ .byte 233,103,255,255,255 // jmpq 1dbb3 <_sk_load_565_sse41+0x22>
HIDDEN _sk_load_565_dst_sse41
.globl _sk_load_565_dst_sse41
@@ -38186,41 +38198,41 @@ _sk_load_565_dst_sse41:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,210 // movslq %edx,%r10
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,80 // jne 1dc9f <_sk_load_565_dst_sse41+0x6b>
+ .byte 117,80 // jne 1dcb7 <_sk_load_565_dst_sse41+0x6b>
.byte 102,67,15,56,51,52,80 // pmovzxwd (%r8,%r10,2),%xmm6
- .byte 102,15,111,37,130,81,1,0 // movdqa 0x15182(%rip),%xmm4 # 32de0 <_sk_srcover_rgba_8888_sse2_lowp+0xca0>
+ .byte 102,15,111,37,170,81,1,0 // movdqa 0x151aa(%rip),%xmm4 # 32e20 <_sk_srcover_rgba_8888_sse2_lowp+0xcc4>
.byte 102,15,219,230 // pand %xmm6,%xmm4
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
- .byte 15,89,37,132,81,1,0 // mulps 0x15184(%rip),%xmm4 # 32df0 <_sk_srcover_rgba_8888_sse2_lowp+0xcb0>
- .byte 102,15,111,45,140,81,1,0 // movdqa 0x1518c(%rip),%xmm5 # 32e00 <_sk_srcover_rgba_8888_sse2_lowp+0xcc0>
+ .byte 15,89,37,172,81,1,0 // mulps 0x151ac(%rip),%xmm4 # 32e30 <_sk_srcover_rgba_8888_sse2_lowp+0xcd4>
+ .byte 102,15,111,45,180,81,1,0 // movdqa 0x151b4(%rip),%xmm5 # 32e40 <_sk_srcover_rgba_8888_sse2_lowp+0xce4>
.byte 102,15,219,238 // pand %xmm6,%xmm5
.byte 15,91,237 // cvtdq2ps %xmm5,%xmm5
- .byte 15,89,45,142,81,1,0 // mulps 0x1518e(%rip),%xmm5 # 32e10 <_sk_srcover_rgba_8888_sse2_lowp+0xcd0>
- .byte 102,15,219,53,150,81,1,0 // pand 0x15196(%rip),%xmm6 # 32e20 <_sk_srcover_rgba_8888_sse2_lowp+0xce0>
+ .byte 15,89,45,182,81,1,0 // mulps 0x151b6(%rip),%xmm5 # 32e50 <_sk_srcover_rgba_8888_sse2_lowp+0xcf4>
+ .byte 102,15,219,53,190,81,1,0 // pand 0x151be(%rip),%xmm6 # 32e60 <_sk_srcover_rgba_8888_sse2_lowp+0xd04>
.byte 15,91,246 // cvtdq2ps %xmm6,%xmm6
- .byte 15,89,53,156,81,1,0 // mulps 0x1519c(%rip),%xmm6 # 32e30 <_sk_srcover_rgba_8888_sse2_lowp+0xcf0>
+ .byte 15,89,53,196,81,1,0 // mulps 0x151c4(%rip),%xmm6 # 32e70 <_sk_srcover_rgba_8888_sse2_lowp+0xd14>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,61,51,79,1,0 // movaps 0x14f33(%rip),%xmm7 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xa90>
+ .byte 15,40,61,75,79,1,0 // movaps 0x14f4b(%rip),%xmm7 # 32c00 <_sk_srcover_rgba_8888_sse2_lowp+0xaa4>
.byte 255,224 // jmpq *%rax
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,53 // je 1dce1 <_sk_load_565_dst_sse41+0xad>
+ .byte 116,53 // je 1dcf9 <_sk_load_565_dst_sse41+0xad>
.byte 102,15,239,246 // pxor %xmm6,%xmm6
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,21 // je 1dccb <_sk_load_565_dst_sse41+0x97>
+ .byte 116,21 // je 1dce3 <_sk_load_565_dst_sse41+0x97>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,154 // jne 1dc56 <_sk_load_565_dst_sse41+0x22>
+ .byte 117,154 // jne 1dc6e <_sk_load_565_dst_sse41+0x22>
.byte 67,15,183,68,80,4 // movzwl 0x4(%r8,%r10,2),%eax
.byte 102,15,110,224 // movd %eax,%xmm4
.byte 102,15,112,244,69 // pshufd $0x45,%xmm4,%xmm6
.byte 102,67,15,110,36,80 // movd (%r8,%r10,2),%xmm4
.byte 102,15,56,51,228 // pmovzxwd %xmm4,%xmm4
.byte 102,15,58,14,244,15 // pblendw $0xf,%xmm4,%xmm6
- .byte 233,117,255,255,255 // jmpq 1dc56 <_sk_load_565_dst_sse41+0x22>
+ .byte 233,117,255,255,255 // jmpq 1dc6e <_sk_load_565_dst_sse41+0x22>
.byte 67,15,183,4,80 // movzwl (%r8,%r10,2),%eax
.byte 102,15,110,240 // movd %eax,%xmm6
- .byte 233,103,255,255,255 // jmpq 1dc56 <_sk_load_565_dst_sse41+0x22>
+ .byte 233,103,255,255,255 // jmpq 1dc6e <_sk_load_565_dst_sse41+0x22>
HIDDEN _sk_gather_565_sse41
.globl _sk_gather_565_sse41
@@ -38262,19 +38274,19 @@ _sk_gather_565_sse41:
.byte 65,15,183,4,64 // movzwl (%r8,%rax,2),%eax
.byte 102,15,196,192,3 // pinsrw $0x3,%eax,%xmm0
.byte 102,15,56,51,208 // pmovzxwd %xmm0,%xmm2
- .byte 102,15,111,5,73,80,1,0 // movdqa 0x15049(%rip),%xmm0 # 32de0 <_sk_srcover_rgba_8888_sse2_lowp+0xca0>
+ .byte 102,15,111,5,113,80,1,0 // movdqa 0x15071(%rip),%xmm0 # 32e20 <_sk_srcover_rgba_8888_sse2_lowp+0xcc4>
.byte 102,15,219,194 // pand %xmm2,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,89,5,75,80,1,0 // mulps 0x1504b(%rip),%xmm0 # 32df0 <_sk_srcover_rgba_8888_sse2_lowp+0xcb0>
- .byte 102,15,111,13,83,80,1,0 // movdqa 0x15053(%rip),%xmm1 # 32e00 <_sk_srcover_rgba_8888_sse2_lowp+0xcc0>
+ .byte 15,89,5,115,80,1,0 // mulps 0x15073(%rip),%xmm0 # 32e30 <_sk_srcover_rgba_8888_sse2_lowp+0xcd4>
+ .byte 102,15,111,13,123,80,1,0 // movdqa 0x1507b(%rip),%xmm1 # 32e40 <_sk_srcover_rgba_8888_sse2_lowp+0xce4>
.byte 102,15,219,202 // pand %xmm2,%xmm1
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
- .byte 15,89,13,85,80,1,0 // mulps 0x15055(%rip),%xmm1 # 32e10 <_sk_srcover_rgba_8888_sse2_lowp+0xcd0>
- .byte 102,15,219,21,93,80,1,0 // pand 0x1505d(%rip),%xmm2 # 32e20 <_sk_srcover_rgba_8888_sse2_lowp+0xce0>
+ .byte 15,89,13,125,80,1,0 // mulps 0x1507d(%rip),%xmm1 # 32e50 <_sk_srcover_rgba_8888_sse2_lowp+0xcf4>
+ .byte 102,15,219,21,133,80,1,0 // pand 0x15085(%rip),%xmm2 # 32e60 <_sk_srcover_rgba_8888_sse2_lowp+0xd04>
.byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
- .byte 15,89,21,99,80,1,0 // mulps 0x15063(%rip),%xmm2 # 32e30 <_sk_srcover_rgba_8888_sse2_lowp+0xcf0>
+ .byte 15,89,21,139,80,1,0 // mulps 0x1508b(%rip),%xmm2 # 32e70 <_sk_srcover_rgba_8888_sse2_lowp+0xd14>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,250,77,1,0 // movaps 0x14dfa(%rip),%xmm3 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xa90>
+ .byte 15,40,29,18,78,1,0 // movaps 0x14e12(%rip),%xmm3 # 32c00 <_sk_srcover_rgba_8888_sse2_lowp+0xaa4>
.byte 255,224 // jmpq *%rax
HIDDEN _sk_store_565_sse41
@@ -38288,12 +38300,12 @@ _sk_store_565_sse41:
.byte 77,1,192 // add %r8,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 72,99,194 // movslq %edx,%rax
- .byte 68,15,40,5,234,81,1,0 // movaps 0x151ea(%rip),%xmm8 # 32fe0 <_sk_srcover_rgba_8888_sse2_lowp+0xea0>
+ .byte 68,15,40,5,18,82,1,0 // movaps 0x15212(%rip),%xmm8 # 33020 <_sk_srcover_rgba_8888_sse2_lowp+0xec4>
.byte 68,15,40,200 // movaps %xmm0,%xmm9
.byte 69,15,89,200 // mulps %xmm8,%xmm9
.byte 102,69,15,91,201 // cvtps2dq %xmm9,%xmm9
.byte 102,65,15,114,241,11 // pslld $0xb,%xmm9
- .byte 68,15,40,21,223,81,1,0 // movaps 0x151df(%rip),%xmm10 # 32ff0 <_sk_srcover_rgba_8888_sse2_lowp+0xeb0>
+ .byte 68,15,40,21,7,82,1,0 // movaps 0x15207(%rip),%xmm10 # 33030 <_sk_srcover_rgba_8888_sse2_lowp+0xed4>
.byte 68,15,89,209 // mulps %xmm1,%xmm10
.byte 102,69,15,91,210 // cvtps2dq %xmm10,%xmm10
.byte 102,65,15,114,242,5 // pslld $0x5,%xmm10
@@ -38303,7 +38315,7 @@ _sk_store_565_sse41:
.byte 102,69,15,86,194 // orpd %xmm10,%xmm8
.byte 102,68,15,56,43,192 // packusdw %xmm0,%xmm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,10 // jne 1de48 <_sk_store_565_sse41+0x70>
+ .byte 117,10 // jne 1de60 <_sk_store_565_sse41+0x70>
.byte 102,69,15,214,4,64 // movq %xmm8,(%r8,%rax,2)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -38311,17 +38323,17 @@ _sk_store_565_sse41:
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,35 // je 1de7e <_sk_store_565_sse41+0xa6>
+ .byte 116,35 // je 1de96 <_sk_store_565_sse41+0xa6>
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,15 // je 1de70 <_sk_store_565_sse41+0x98>
+ .byte 116,15 // je 1de88 <_sk_store_565_sse41+0x98>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,221 // jne 1de44 <_sk_store_565_sse41+0x6c>
+ .byte 117,221 // jne 1de5c <_sk_store_565_sse41+0x6c>
.byte 102,69,15,58,21,68,64,4,4 // pextrw $0x4,%xmm8,0x4(%r8,%rax,2)
.byte 242,69,15,112,192,232 // pshuflw $0xe8,%xmm8,%xmm8
.byte 102,69,15,126,4,64 // movd %xmm8,(%r8,%rax,2)
- .byte 235,198 // jmp 1de44 <_sk_store_565_sse41+0x6c>
+ .byte 235,198 // jmp 1de5c <_sk_store_565_sse41+0x6c>
.byte 102,69,15,58,21,4,64,0 // pextrw $0x0,%xmm8,(%r8,%rax,2)
- .byte 235,188 // jmp 1de44 <_sk_store_565_sse41+0x6c>
+ .byte 235,188 // jmp 1de5c <_sk_store_565_sse41+0x6c>
HIDDEN _sk_load_4444_sse41
.globl _sk_load_4444_sse41
@@ -38335,44 +38347,44 @@ _sk_load_4444_sse41:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,210 // movslq %edx,%r10
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,95 // jne 1df02 <_sk_load_4444_sse41+0x7a>
+ .byte 117,95 // jne 1df1a <_sk_load_4444_sse41+0x7a>
.byte 102,67,15,56,51,28,80 // pmovzxwd (%r8,%r10,2),%xmm3
- .byte 102,15,111,5,78,81,1,0 // movdqa 0x1514e(%rip),%xmm0 # 33000 <_sk_srcover_rgba_8888_sse2_lowp+0xec0>
+ .byte 102,15,111,5,118,81,1,0 // movdqa 0x15176(%rip),%xmm0 # 33040 <_sk_srcover_rgba_8888_sse2_lowp+0xee4>
.byte 102,15,219,195 // pand %xmm3,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,89,5,80,81,1,0 // mulps 0x15150(%rip),%xmm0 # 33010 <_sk_srcover_rgba_8888_sse2_lowp+0xed0>
- .byte 102,15,111,13,88,81,1,0 // movdqa 0x15158(%rip),%xmm1 # 33020 <_sk_srcover_rgba_8888_sse2_lowp+0xee0>
+ .byte 15,89,5,120,81,1,0 // mulps 0x15178(%rip),%xmm0 # 33050 <_sk_srcover_rgba_8888_sse2_lowp+0xef4>
+ .byte 102,15,111,13,128,81,1,0 // movdqa 0x15180(%rip),%xmm1 # 33060 <_sk_srcover_rgba_8888_sse2_lowp+0xf04>
.byte 102,15,219,203 // pand %xmm3,%xmm1
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
- .byte 15,89,13,90,81,1,0 // mulps 0x1515a(%rip),%xmm1 # 33030 <_sk_srcover_rgba_8888_sse2_lowp+0xef0>
- .byte 102,15,111,21,98,81,1,0 // movdqa 0x15162(%rip),%xmm2 # 33040 <_sk_srcover_rgba_8888_sse2_lowp+0xf00>
+ .byte 15,89,13,130,81,1,0 // mulps 0x15182(%rip),%xmm1 # 33070 <_sk_srcover_rgba_8888_sse2_lowp+0xf14>
+ .byte 102,15,111,21,138,81,1,0 // movdqa 0x1518a(%rip),%xmm2 # 33080 <_sk_srcover_rgba_8888_sse2_lowp+0xf24>
.byte 102,15,219,211 // pand %xmm3,%xmm2
.byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
- .byte 15,89,21,100,81,1,0 // mulps 0x15164(%rip),%xmm2 # 33050 <_sk_srcover_rgba_8888_sse2_lowp+0xf10>
- .byte 102,15,219,29,108,81,1,0 // pand 0x1516c(%rip),%xmm3 # 33060 <_sk_srcover_rgba_8888_sse2_lowp+0xf20>
+ .byte 15,89,21,140,81,1,0 // mulps 0x1518c(%rip),%xmm2 # 33090 <_sk_srcover_rgba_8888_sse2_lowp+0xf34>
+ .byte 102,15,219,29,148,81,1,0 // pand 0x15194(%rip),%xmm3 # 330a0 <_sk_srcover_rgba_8888_sse2_lowp+0xf44>
.byte 15,91,219 // cvtdq2ps %xmm3,%xmm3
- .byte 15,89,29,114,81,1,0 // mulps 0x15172(%rip),%xmm3 # 33070 <_sk_srcover_rgba_8888_sse2_lowp+0xf30>
+ .byte 15,89,29,154,81,1,0 // mulps 0x1519a(%rip),%xmm3 # 330b0 <_sk_srcover_rgba_8888_sse2_lowp+0xf54>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,53 // je 1df44 <_sk_load_4444_sse41+0xbc>
+ .byte 116,53 // je 1df5c <_sk_load_4444_sse41+0xbc>
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,21 // je 1df2e <_sk_load_4444_sse41+0xa6>
+ .byte 116,21 // je 1df46 <_sk_load_4444_sse41+0xa6>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,139 // jne 1deaa <_sk_load_4444_sse41+0x22>
+ .byte 117,139 // jne 1dec2 <_sk_load_4444_sse41+0x22>
.byte 67,15,183,68,80,4 // movzwl 0x4(%r8,%r10,2),%eax
.byte 102,15,110,192 // movd %eax,%xmm0
.byte 102,15,112,216,69 // pshufd $0x45,%xmm0,%xmm3
.byte 102,67,15,110,4,80 // movd (%r8,%r10,2),%xmm0
.byte 102,15,56,51,192 // pmovzxwd %xmm0,%xmm0
.byte 102,15,58,14,216,15 // pblendw $0xf,%xmm0,%xmm3
- .byte 233,102,255,255,255 // jmpq 1deaa <_sk_load_4444_sse41+0x22>
+ .byte 233,102,255,255,255 // jmpq 1dec2 <_sk_load_4444_sse41+0x22>
.byte 67,15,183,4,80 // movzwl (%r8,%r10,2),%eax
.byte 102,15,110,216 // movd %eax,%xmm3
- .byte 233,88,255,255,255 // jmpq 1deaa <_sk_load_4444_sse41+0x22>
+ .byte 233,88,255,255,255 // jmpq 1dec2 <_sk_load_4444_sse41+0x22>
HIDDEN _sk_load_4444_dst_sse41
.globl _sk_load_4444_dst_sse41
@@ -38386,44 +38398,44 @@ _sk_load_4444_dst_sse41:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,210 // movslq %edx,%r10
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,95 // jne 1dfcc <_sk_load_4444_dst_sse41+0x7a>
+ .byte 117,95 // jne 1dfe4 <_sk_load_4444_dst_sse41+0x7a>
.byte 102,67,15,56,51,60,80 // pmovzxwd (%r8,%r10,2),%xmm7
- .byte 102,15,111,37,132,80,1,0 // movdqa 0x15084(%rip),%xmm4 # 33000 <_sk_srcover_rgba_8888_sse2_lowp+0xec0>
+ .byte 102,15,111,37,172,80,1,0 // movdqa 0x150ac(%rip),%xmm4 # 33040 <_sk_srcover_rgba_8888_sse2_lowp+0xee4>
.byte 102,15,219,231 // pand %xmm7,%xmm4
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
- .byte 15,89,37,134,80,1,0 // mulps 0x15086(%rip),%xmm4 # 33010 <_sk_srcover_rgba_8888_sse2_lowp+0xed0>
- .byte 102,15,111,45,142,80,1,0 // movdqa 0x1508e(%rip),%xmm5 # 33020 <_sk_srcover_rgba_8888_sse2_lowp+0xee0>
+ .byte 15,89,37,174,80,1,0 // mulps 0x150ae(%rip),%xmm4 # 33050 <_sk_srcover_rgba_8888_sse2_lowp+0xef4>
+ .byte 102,15,111,45,182,80,1,0 // movdqa 0x150b6(%rip),%xmm5 # 33060 <_sk_srcover_rgba_8888_sse2_lowp+0xf04>
.byte 102,15,219,239 // pand %xmm7,%xmm5
.byte 15,91,237 // cvtdq2ps %xmm5,%xmm5
- .byte 15,89,45,144,80,1,0 // mulps 0x15090(%rip),%xmm5 # 33030 <_sk_srcover_rgba_8888_sse2_lowp+0xef0>
- .byte 102,15,111,53,152,80,1,0 // movdqa 0x15098(%rip),%xmm6 # 33040 <_sk_srcover_rgba_8888_sse2_lowp+0xf00>
+ .byte 15,89,45,184,80,1,0 // mulps 0x150b8(%rip),%xmm5 # 33070 <_sk_srcover_rgba_8888_sse2_lowp+0xf14>
+ .byte 102,15,111,53,192,80,1,0 // movdqa 0x150c0(%rip),%xmm6 # 33080 <_sk_srcover_rgba_8888_sse2_lowp+0xf24>
.byte 102,15,219,247 // pand %xmm7,%xmm6
.byte 15,91,246 // cvtdq2ps %xmm6,%xmm6
- .byte 15,89,53,154,80,1,0 // mulps 0x1509a(%rip),%xmm6 # 33050 <_sk_srcover_rgba_8888_sse2_lowp+0xf10>
- .byte 102,15,219,61,162,80,1,0 // pand 0x150a2(%rip),%xmm7 # 33060 <_sk_srcover_rgba_8888_sse2_lowp+0xf20>
+ .byte 15,89,53,194,80,1,0 // mulps 0x150c2(%rip),%xmm6 # 33090 <_sk_srcover_rgba_8888_sse2_lowp+0xf34>
+ .byte 102,15,219,61,202,80,1,0 // pand 0x150ca(%rip),%xmm7 # 330a0 <_sk_srcover_rgba_8888_sse2_lowp+0xf44>
.byte 15,91,255 // cvtdq2ps %xmm7,%xmm7
- .byte 15,89,61,168,80,1,0 // mulps 0x150a8(%rip),%xmm7 # 33070 <_sk_srcover_rgba_8888_sse2_lowp+0xf30>
+ .byte 15,89,61,208,80,1,0 // mulps 0x150d0(%rip),%xmm7 # 330b0 <_sk_srcover_rgba_8888_sse2_lowp+0xf54>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,53 // je 1e00e <_sk_load_4444_dst_sse41+0xbc>
+ .byte 116,53 // je 1e026 <_sk_load_4444_dst_sse41+0xbc>
.byte 102,15,239,255 // pxor %xmm7,%xmm7
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,21 // je 1dff8 <_sk_load_4444_dst_sse41+0xa6>
+ .byte 116,21 // je 1e010 <_sk_load_4444_dst_sse41+0xa6>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,139 // jne 1df74 <_sk_load_4444_dst_sse41+0x22>
+ .byte 117,139 // jne 1df8c <_sk_load_4444_dst_sse41+0x22>
.byte 67,15,183,68,80,4 // movzwl 0x4(%r8,%r10,2),%eax
.byte 102,15,110,224 // movd %eax,%xmm4
.byte 102,15,112,252,69 // pshufd $0x45,%xmm4,%xmm7
.byte 102,67,15,110,36,80 // movd (%r8,%r10,2),%xmm4
.byte 102,15,56,51,228 // pmovzxwd %xmm4,%xmm4
.byte 102,15,58,14,252,15 // pblendw $0xf,%xmm4,%xmm7
- .byte 233,102,255,255,255 // jmpq 1df74 <_sk_load_4444_dst_sse41+0x22>
+ .byte 233,102,255,255,255 // jmpq 1df8c <_sk_load_4444_dst_sse41+0x22>
.byte 67,15,183,4,80 // movzwl (%r8,%r10,2),%eax
.byte 102,15,110,248 // movd %eax,%xmm7
- .byte 233,88,255,255,255 // jmpq 1df74 <_sk_load_4444_dst_sse41+0x22>
+ .byte 233,88,255,255,255 // jmpq 1df8c <_sk_load_4444_dst_sse41+0x22>
HIDDEN _sk_gather_4444_sse41
.globl _sk_gather_4444_sse41
@@ -38465,21 +38477,21 @@ _sk_gather_4444_sse41:
.byte 65,15,183,4,64 // movzwl (%r8,%rax,2),%eax
.byte 102,15,196,192,3 // pinsrw $0x3,%eax,%xmm0
.byte 102,15,56,51,216 // pmovzxwd %xmm0,%xmm3
- .byte 102,15,111,5,60,79,1,0 // movdqa 0x14f3c(%rip),%xmm0 # 33000 <_sk_srcover_rgba_8888_sse2_lowp+0xec0>
+ .byte 102,15,111,5,100,79,1,0 // movdqa 0x14f64(%rip),%xmm0 # 33040 <_sk_srcover_rgba_8888_sse2_lowp+0xee4>
.byte 102,15,219,195 // pand %xmm3,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,89,5,62,79,1,0 // mulps 0x14f3e(%rip),%xmm0 # 33010 <_sk_srcover_rgba_8888_sse2_lowp+0xed0>
- .byte 102,15,111,13,70,79,1,0 // movdqa 0x14f46(%rip),%xmm1 # 33020 <_sk_srcover_rgba_8888_sse2_lowp+0xee0>
+ .byte 15,89,5,102,79,1,0 // mulps 0x14f66(%rip),%xmm0 # 33050 <_sk_srcover_rgba_8888_sse2_lowp+0xef4>
+ .byte 102,15,111,13,110,79,1,0 // movdqa 0x14f6e(%rip),%xmm1 # 33060 <_sk_srcover_rgba_8888_sse2_lowp+0xf04>
.byte 102,15,219,203 // pand %xmm3,%xmm1
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
- .byte 15,89,13,72,79,1,0 // mulps 0x14f48(%rip),%xmm1 # 33030 <_sk_srcover_rgba_8888_sse2_lowp+0xef0>
- .byte 102,15,111,21,80,79,1,0 // movdqa 0x14f50(%rip),%xmm2 # 33040 <_sk_srcover_rgba_8888_sse2_lowp+0xf00>
+ .byte 15,89,13,112,79,1,0 // mulps 0x14f70(%rip),%xmm1 # 33070 <_sk_srcover_rgba_8888_sse2_lowp+0xf14>
+ .byte 102,15,111,21,120,79,1,0 // movdqa 0x14f78(%rip),%xmm2 # 33080 <_sk_srcover_rgba_8888_sse2_lowp+0xf24>
.byte 102,15,219,211 // pand %xmm3,%xmm2
.byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
- .byte 15,89,21,82,79,1,0 // mulps 0x14f52(%rip),%xmm2 # 33050 <_sk_srcover_rgba_8888_sse2_lowp+0xf10>
- .byte 102,15,219,29,90,79,1,0 // pand 0x14f5a(%rip),%xmm3 # 33060 <_sk_srcover_rgba_8888_sse2_lowp+0xf20>
+ .byte 15,89,21,122,79,1,0 // mulps 0x14f7a(%rip),%xmm2 # 33090 <_sk_srcover_rgba_8888_sse2_lowp+0xf34>
+ .byte 102,15,219,29,130,79,1,0 // pand 0x14f82(%rip),%xmm3 # 330a0 <_sk_srcover_rgba_8888_sse2_lowp+0xf44>
.byte 15,91,219 // cvtdq2ps %xmm3,%xmm3
- .byte 15,89,29,96,79,1,0 // mulps 0x14f60(%rip),%xmm3 # 33070 <_sk_srcover_rgba_8888_sse2_lowp+0xf30>
+ .byte 15,89,29,136,79,1,0 // mulps 0x14f88(%rip),%xmm3 # 330b0 <_sk_srcover_rgba_8888_sse2_lowp+0xf54>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -38494,7 +38506,7 @@ _sk_store_4444_sse41:
.byte 77,1,192 // add %r8,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 72,99,194 // movslq %edx,%rax
- .byte 68,15,40,5,78,79,1,0 // movaps 0x14f4e(%rip),%xmm8 # 33080 <_sk_srcover_rgba_8888_sse2_lowp+0xf40>
+ .byte 68,15,40,5,118,79,1,0 // movaps 0x14f76(%rip),%xmm8 # 330c0 <_sk_srcover_rgba_8888_sse2_lowp+0xf64>
.byte 68,15,40,200 // movaps %xmm0,%xmm9
.byte 69,15,89,200 // mulps %xmm8,%xmm9
.byte 102,69,15,91,201 // cvtps2dq %xmm9,%xmm9
@@ -38514,7 +38526,7 @@ _sk_store_4444_sse41:
.byte 102,69,15,86,194 // orpd %xmm10,%xmm8
.byte 102,68,15,56,43,192 // packusdw %xmm0,%xmm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,10 // jne 1e198 <_sk_store_4444_sse41+0x84>
+ .byte 117,10 // jne 1e1b0 <_sk_store_4444_sse41+0x84>
.byte 102,69,15,214,4,64 // movq %xmm8,(%r8,%rax,2)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -38522,17 +38534,17 @@ _sk_store_4444_sse41:
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,35 // je 1e1ce <_sk_store_4444_sse41+0xba>
+ .byte 116,35 // je 1e1e6 <_sk_store_4444_sse41+0xba>
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,15 // je 1e1c0 <_sk_store_4444_sse41+0xac>
+ .byte 116,15 // je 1e1d8 <_sk_store_4444_sse41+0xac>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,221 // jne 1e194 <_sk_store_4444_sse41+0x80>
+ .byte 117,221 // jne 1e1ac <_sk_store_4444_sse41+0x80>
.byte 102,69,15,58,21,68,64,4,4 // pextrw $0x4,%xmm8,0x4(%r8,%rax,2)
.byte 242,69,15,112,192,232 // pshuflw $0xe8,%xmm8,%xmm8
.byte 102,69,15,126,4,64 // movd %xmm8,(%r8,%rax,2)
- .byte 235,198 // jmp 1e194 <_sk_store_4444_sse41+0x80>
+ .byte 235,198 // jmp 1e1ac <_sk_store_4444_sse41+0x80>
.byte 102,69,15,58,21,4,64,0 // pextrw $0x0,%xmm8,(%r8,%rax,2)
- .byte 235,188 // jmp 1e194 <_sk_store_4444_sse41+0x80>
+ .byte 235,188 // jmp 1e1ac <_sk_store_4444_sse41+0x80>
HIDDEN _sk_load_8888_sse41
.globl _sk_load_8888_sse41
@@ -38546,19 +38558,19 @@ _sk_load_8888_sse41:
.byte 76,3,0 // add (%rax),%r8
.byte 72,99,194 // movslq %edx,%rax
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,89 // jne 1e24d <_sk_load_8888_sse41+0x75>
+ .byte 117,89 // jne 1e265 <_sk_load_8888_sse41+0x75>
.byte 243,65,15,111,28,128 // movdqu (%r8,%rax,4),%xmm3
- .byte 102,15,111,5,126,74,1,0 // movdqa 0x14a7e(%rip),%xmm0 # 32c80 <_sk_srcover_rgba_8888_sse2_lowp+0xb40>
+ .byte 102,15,111,5,150,74,1,0 // movdqa 0x14a96(%rip),%xmm0 # 32cb0 <_sk_srcover_rgba_8888_sse2_lowp+0xb54>
.byte 102,15,219,195 // pand %xmm3,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 68,15,40,5,191,75,1,0 // movaps 0x14bbf(%rip),%xmm8 # 32dd0 <_sk_srcover_rgba_8888_sse2_lowp+0xc90>
+ .byte 68,15,40,5,231,75,1,0 // movaps 0x14be7(%rip),%xmm8 # 32e10 <_sk_srcover_rgba_8888_sse2_lowp+0xcb4>
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 102,15,111,203 // movdqa %xmm3,%xmm1
- .byte 102,15,56,0,13,110,74,1,0 // pshufb 0x14a6e(%rip),%xmm1 # 32c90 <_sk_srcover_rgba_8888_sse2_lowp+0xb50>
+ .byte 102,15,56,0,13,134,74,1,0 // pshufb 0x14a86(%rip),%xmm1 # 32cc0 <_sk_srcover_rgba_8888_sse2_lowp+0xb64>
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
.byte 65,15,89,200 // mulps %xmm8,%xmm1
.byte 102,15,111,211 // movdqa %xmm3,%xmm2
- .byte 102,15,56,0,21,106,74,1,0 // pshufb 0x14a6a(%rip),%xmm2 # 32ca0 <_sk_srcover_rgba_8888_sse2_lowp+0xb60>
+ .byte 102,15,56,0,21,130,74,1,0 // pshufb 0x14a82(%rip),%xmm2 # 32cd0 <_sk_srcover_rgba_8888_sse2_lowp+0xb74>
.byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
.byte 65,15,89,208 // mulps %xmm8,%xmm2
.byte 102,15,114,211,24 // psrld $0x18,%xmm3
@@ -38569,19 +38581,19 @@ _sk_load_8888_sse41:
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,45 // je 1e287 <_sk_load_8888_sse41+0xaf>
+ .byte 116,45 // je 1e29f <_sk_load_8888_sse41+0xaf>
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,18 // je 1e276 <_sk_load_8888_sse41+0x9e>
+ .byte 116,18 // je 1e28e <_sk_load_8888_sse41+0x9e>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,144 // jne 1e1fa <_sk_load_8888_sse41+0x22>
+ .byte 117,144 // jne 1e212 <_sk_load_8888_sse41+0x22>
.byte 102,65,15,110,68,128,8 // movd 0x8(%r8,%rax,4),%xmm0
.byte 102,15,112,216,69 // pshufd $0x45,%xmm0,%xmm3
.byte 243,65,15,126,4,128 // movq (%r8,%rax,4),%xmm0
.byte 102,15,58,14,216,15 // pblendw $0xf,%xmm0,%xmm3
- .byte 233,115,255,255,255 // jmpq 1e1fa <_sk_load_8888_sse41+0x22>
+ .byte 233,115,255,255,255 // jmpq 1e212 <_sk_load_8888_sse41+0x22>
.byte 102,65,15,110,28,128 // movd (%r8,%rax,4),%xmm3
- .byte 233,104,255,255,255 // jmpq 1e1fa <_sk_load_8888_sse41+0x22>
+ .byte 233,104,255,255,255 // jmpq 1e212 <_sk_load_8888_sse41+0x22>
HIDDEN _sk_load_8888_dst_sse41
.globl _sk_load_8888_dst_sse41
@@ -38595,19 +38607,19 @@ _sk_load_8888_dst_sse41:
.byte 76,3,0 // add (%rax),%r8
.byte 72,99,194 // movslq %edx,%rax
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,89 // jne 1e307 <_sk_load_8888_dst_sse41+0x75>
+ .byte 117,89 // jne 1e31f <_sk_load_8888_dst_sse41+0x75>
.byte 243,65,15,111,60,128 // movdqu (%r8,%rax,4),%xmm7
- .byte 102,15,111,37,196,73,1,0 // movdqa 0x149c4(%rip),%xmm4 # 32c80 <_sk_srcover_rgba_8888_sse2_lowp+0xb40>
+ .byte 102,15,111,37,220,73,1,0 // movdqa 0x149dc(%rip),%xmm4 # 32cb0 <_sk_srcover_rgba_8888_sse2_lowp+0xb54>
.byte 102,15,219,231 // pand %xmm7,%xmm4
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
- .byte 68,15,40,5,5,75,1,0 // movaps 0x14b05(%rip),%xmm8 # 32dd0 <_sk_srcover_rgba_8888_sse2_lowp+0xc90>
+ .byte 68,15,40,5,45,75,1,0 // movaps 0x14b2d(%rip),%xmm8 # 32e10 <_sk_srcover_rgba_8888_sse2_lowp+0xcb4>
.byte 65,15,89,224 // mulps %xmm8,%xmm4
.byte 102,15,111,239 // movdqa %xmm7,%xmm5
- .byte 102,15,56,0,45,180,73,1,0 // pshufb 0x149b4(%rip),%xmm5 # 32c90 <_sk_srcover_rgba_8888_sse2_lowp+0xb50>
+ .byte 102,15,56,0,45,204,73,1,0 // pshufb 0x149cc(%rip),%xmm5 # 32cc0 <_sk_srcover_rgba_8888_sse2_lowp+0xb64>
.byte 15,91,237 // cvtdq2ps %xmm5,%xmm5
.byte 65,15,89,232 // mulps %xmm8,%xmm5
.byte 102,15,111,247 // movdqa %xmm7,%xmm6
- .byte 102,15,56,0,53,176,73,1,0 // pshufb 0x149b0(%rip),%xmm6 # 32ca0 <_sk_srcover_rgba_8888_sse2_lowp+0xb60>
+ .byte 102,15,56,0,53,200,73,1,0 // pshufb 0x149c8(%rip),%xmm6 # 32cd0 <_sk_srcover_rgba_8888_sse2_lowp+0xb74>
.byte 15,91,246 // cvtdq2ps %xmm6,%xmm6
.byte 65,15,89,240 // mulps %xmm8,%xmm6
.byte 102,15,114,215,24 // psrld $0x18,%xmm7
@@ -38618,19 +38630,19 @@ _sk_load_8888_dst_sse41:
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,45 // je 1e341 <_sk_load_8888_dst_sse41+0xaf>
+ .byte 116,45 // je 1e359 <_sk_load_8888_dst_sse41+0xaf>
.byte 102,15,239,255 // pxor %xmm7,%xmm7
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,18 // je 1e330 <_sk_load_8888_dst_sse41+0x9e>
+ .byte 116,18 // je 1e348 <_sk_load_8888_dst_sse41+0x9e>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,144 // jne 1e2b4 <_sk_load_8888_dst_sse41+0x22>
+ .byte 117,144 // jne 1e2cc <_sk_load_8888_dst_sse41+0x22>
.byte 102,65,15,110,100,128,8 // movd 0x8(%r8,%rax,4),%xmm4
.byte 102,15,112,252,69 // pshufd $0x45,%xmm4,%xmm7
.byte 243,65,15,126,36,128 // movq (%r8,%rax,4),%xmm4
.byte 102,15,58,14,252,15 // pblendw $0xf,%xmm4,%xmm7
- .byte 233,115,255,255,255 // jmpq 1e2b4 <_sk_load_8888_dst_sse41+0x22>
+ .byte 233,115,255,255,255 // jmpq 1e2cc <_sk_load_8888_dst_sse41+0x22>
.byte 102,65,15,110,60,128 // movd (%r8,%rax,4),%xmm7
- .byte 233,104,255,255,255 // jmpq 1e2b4 <_sk_load_8888_dst_sse41+0x22>
+ .byte 233,104,255,255,255 // jmpq 1e2cc <_sk_load_8888_dst_sse41+0x22>
HIDDEN _sk_gather_8888_sse41
.globl _sk_gather_8888_sse41
@@ -38667,17 +38679,17 @@ _sk_gather_8888_sse41:
.byte 102,65,15,58,34,28,128,1 // pinsrd $0x1,(%r8,%rax,4),%xmm3
.byte 102,67,15,58,34,28,152,2 // pinsrd $0x2,(%r8,%r11,4),%xmm3
.byte 102,67,15,58,34,28,144,3 // pinsrd $0x3,(%r8,%r10,4),%xmm3
- .byte 102,15,111,5,157,72,1,0 // movdqa 0x1489d(%rip),%xmm0 # 32c80 <_sk_srcover_rgba_8888_sse2_lowp+0xb40>
+ .byte 102,15,111,5,181,72,1,0 // movdqa 0x148b5(%rip),%xmm0 # 32cb0 <_sk_srcover_rgba_8888_sse2_lowp+0xb54>
.byte 102,15,219,195 // pand %xmm3,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 68,15,40,5,222,73,1,0 // movaps 0x149de(%rip),%xmm8 # 32dd0 <_sk_srcover_rgba_8888_sse2_lowp+0xc90>
+ .byte 68,15,40,5,6,74,1,0 // movaps 0x14a06(%rip),%xmm8 # 32e10 <_sk_srcover_rgba_8888_sse2_lowp+0xcb4>
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 102,15,111,203 // movdqa %xmm3,%xmm1
- .byte 102,15,56,0,13,141,72,1,0 // pshufb 0x1488d(%rip),%xmm1 # 32c90 <_sk_srcover_rgba_8888_sse2_lowp+0xb50>
+ .byte 102,15,56,0,13,165,72,1,0 // pshufb 0x148a5(%rip),%xmm1 # 32cc0 <_sk_srcover_rgba_8888_sse2_lowp+0xb64>
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
.byte 65,15,89,200 // mulps %xmm8,%xmm1
.byte 102,15,111,211 // movdqa %xmm3,%xmm2
- .byte 102,15,56,0,21,137,72,1,0 // pshufb 0x14889(%rip),%xmm2 # 32ca0 <_sk_srcover_rgba_8888_sse2_lowp+0xb60>
+ .byte 102,15,56,0,21,161,72,1,0 // pshufb 0x148a1(%rip),%xmm2 # 32cd0 <_sk_srcover_rgba_8888_sse2_lowp+0xb74>
.byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
.byte 65,15,89,208 // mulps %xmm8,%xmm2
.byte 102,15,114,211,24 // psrld $0x18,%xmm3
@@ -38697,7 +38709,7 @@ _sk_store_8888_sse41:
.byte 73,193,224,2 // shl $0x2,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 72,99,194 // movslq %edx,%rax
- .byte 68,15,40,5,99,72,1,0 // movaps 0x14863(%rip),%xmm8 # 32cb0 <_sk_srcover_rgba_8888_sse2_lowp+0xb70>
+ .byte 68,15,40,5,123,72,1,0 // movaps 0x1487b(%rip),%xmm8 # 32ce0 <_sk_srcover_rgba_8888_sse2_lowp+0xb84>
.byte 68,15,40,200 // movaps %xmm0,%xmm9
.byte 69,15,89,200 // mulps %xmm8,%xmm9
.byte 102,69,15,91,201 // cvtps2dq %xmm9,%xmm9
@@ -38716,23 +38728,23 @@ _sk_store_8888_sse41:
.byte 102,69,15,235,193 // por %xmm9,%xmm8
.byte 102,69,15,235,194 // por %xmm10,%xmm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,10 // jne 1e4ad <_sk_store_8888_sse41+0x7f>
+ .byte 117,10 // jne 1e4c5 <_sk_store_8888_sse41+0x7f>
.byte 243,69,15,127,4,128 // movdqu %xmm8,(%r8,%rax,4)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,29 // je 1e4d7 <_sk_store_8888_sse41+0xa9>
+ .byte 116,29 // je 1e4ef <_sk_store_8888_sse41+0xa9>
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,15 // je 1e4cf <_sk_store_8888_sse41+0xa1>
+ .byte 116,15 // je 1e4e7 <_sk_store_8888_sse41+0xa1>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,227 // jne 1e4a9 <_sk_store_8888_sse41+0x7b>
+ .byte 117,227 // jne 1e4c1 <_sk_store_8888_sse41+0x7b>
.byte 102,69,15,58,22,68,128,8,2 // pextrd $0x2,%xmm8,0x8(%r8,%rax,4)
.byte 102,69,15,214,4,128 // movq %xmm8,(%r8,%rax,4)
- .byte 235,210 // jmp 1e4a9 <_sk_store_8888_sse41+0x7b>
+ .byte 235,210 // jmp 1e4c1 <_sk_store_8888_sse41+0x7b>
.byte 102,69,15,126,4,128 // movd %xmm8,(%r8,%rax,4)
- .byte 235,202 // jmp 1e4a9 <_sk_store_8888_sse41+0x7b>
+ .byte 235,202 // jmp 1e4c1 <_sk_store_8888_sse41+0x7b>
HIDDEN _sk_load_bgra_sse41
.globl _sk_load_bgra_sse41
@@ -38746,19 +38758,19 @@ _sk_load_bgra_sse41:
.byte 76,3,0 // add (%rax),%r8
.byte 72,99,194 // movslq %edx,%rax
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,89 // jne 1e554 <_sk_load_bgra_sse41+0x75>
+ .byte 117,89 // jne 1e56c <_sk_load_bgra_sse41+0x75>
.byte 243,65,15,111,28,128 // movdqu (%r8,%rax,4),%xmm3
- .byte 102,15,111,5,119,71,1,0 // movdqa 0x14777(%rip),%xmm0 # 32c80 <_sk_srcover_rgba_8888_sse2_lowp+0xb40>
+ .byte 102,15,111,5,143,71,1,0 // movdqa 0x1478f(%rip),%xmm0 # 32cb0 <_sk_srcover_rgba_8888_sse2_lowp+0xb54>
.byte 102,15,219,195 // pand %xmm3,%xmm0
.byte 15,91,208 // cvtdq2ps %xmm0,%xmm2
- .byte 68,15,40,5,184,72,1,0 // movaps 0x148b8(%rip),%xmm8 # 32dd0 <_sk_srcover_rgba_8888_sse2_lowp+0xc90>
+ .byte 68,15,40,5,224,72,1,0 // movaps 0x148e0(%rip),%xmm8 # 32e10 <_sk_srcover_rgba_8888_sse2_lowp+0xcb4>
.byte 65,15,89,208 // mulps %xmm8,%xmm2
.byte 102,15,111,195 // movdqa %xmm3,%xmm0
- .byte 102,15,56,0,5,103,71,1,0 // pshufb 0x14767(%rip),%xmm0 # 32c90 <_sk_srcover_rgba_8888_sse2_lowp+0xb50>
+ .byte 102,15,56,0,5,127,71,1,0 // pshufb 0x1477f(%rip),%xmm0 # 32cc0 <_sk_srcover_rgba_8888_sse2_lowp+0xb64>
.byte 15,91,200 // cvtdq2ps %xmm0,%xmm1
.byte 65,15,89,200 // mulps %xmm8,%xmm1
.byte 102,15,111,195 // movdqa %xmm3,%xmm0
- .byte 102,15,56,0,5,99,71,1,0 // pshufb 0x14763(%rip),%xmm0 # 32ca0 <_sk_srcover_rgba_8888_sse2_lowp+0xb60>
+ .byte 102,15,56,0,5,123,71,1,0 // pshufb 0x1477b(%rip),%xmm0 # 32cd0 <_sk_srcover_rgba_8888_sse2_lowp+0xb74>
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 102,15,114,211,24 // psrld $0x18,%xmm3
@@ -38769,19 +38781,19 @@ _sk_load_bgra_sse41:
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,45 // je 1e58e <_sk_load_bgra_sse41+0xaf>
+ .byte 116,45 // je 1e5a6 <_sk_load_bgra_sse41+0xaf>
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,18 // je 1e57d <_sk_load_bgra_sse41+0x9e>
+ .byte 116,18 // je 1e595 <_sk_load_bgra_sse41+0x9e>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,144 // jne 1e501 <_sk_load_bgra_sse41+0x22>
+ .byte 117,144 // jne 1e519 <_sk_load_bgra_sse41+0x22>
.byte 102,65,15,110,68,128,8 // movd 0x8(%r8,%rax,4),%xmm0
.byte 102,15,112,216,69 // pshufd $0x45,%xmm0,%xmm3
.byte 243,65,15,126,4,128 // movq (%r8,%rax,4),%xmm0
.byte 102,15,58,14,216,15 // pblendw $0xf,%xmm0,%xmm3
- .byte 233,115,255,255,255 // jmpq 1e501 <_sk_load_bgra_sse41+0x22>
+ .byte 233,115,255,255,255 // jmpq 1e519 <_sk_load_bgra_sse41+0x22>
.byte 102,65,15,110,28,128 // movd (%r8,%rax,4),%xmm3
- .byte 233,104,255,255,255 // jmpq 1e501 <_sk_load_bgra_sse41+0x22>
+ .byte 233,104,255,255,255 // jmpq 1e519 <_sk_load_bgra_sse41+0x22>
HIDDEN _sk_load_bgra_dst_sse41
.globl _sk_load_bgra_dst_sse41
@@ -38795,19 +38807,19 @@ _sk_load_bgra_dst_sse41:
.byte 76,3,0 // add (%rax),%r8
.byte 72,99,194 // movslq %edx,%rax
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,89 // jne 1e60e <_sk_load_bgra_dst_sse41+0x75>
+ .byte 117,89 // jne 1e626 <_sk_load_bgra_dst_sse41+0x75>
.byte 243,65,15,111,60,128 // movdqu (%r8,%rax,4),%xmm7
- .byte 102,15,111,37,189,70,1,0 // movdqa 0x146bd(%rip),%xmm4 # 32c80 <_sk_srcover_rgba_8888_sse2_lowp+0xb40>
+ .byte 102,15,111,37,213,70,1,0 // movdqa 0x146d5(%rip),%xmm4 # 32cb0 <_sk_srcover_rgba_8888_sse2_lowp+0xb54>
.byte 102,15,219,231 // pand %xmm7,%xmm4
.byte 15,91,244 // cvtdq2ps %xmm4,%xmm6
- .byte 68,15,40,5,254,71,1,0 // movaps 0x147fe(%rip),%xmm8 # 32dd0 <_sk_srcover_rgba_8888_sse2_lowp+0xc90>
+ .byte 68,15,40,5,38,72,1,0 // movaps 0x14826(%rip),%xmm8 # 32e10 <_sk_srcover_rgba_8888_sse2_lowp+0xcb4>
.byte 65,15,89,240 // mulps %xmm8,%xmm6
.byte 102,15,111,231 // movdqa %xmm7,%xmm4
- .byte 102,15,56,0,37,173,70,1,0 // pshufb 0x146ad(%rip),%xmm4 # 32c90 <_sk_srcover_rgba_8888_sse2_lowp+0xb50>
+ .byte 102,15,56,0,37,197,70,1,0 // pshufb 0x146c5(%rip),%xmm4 # 32cc0 <_sk_srcover_rgba_8888_sse2_lowp+0xb64>
.byte 15,91,236 // cvtdq2ps %xmm4,%xmm5
.byte 65,15,89,232 // mulps %xmm8,%xmm5
.byte 102,15,111,231 // movdqa %xmm7,%xmm4
- .byte 102,15,56,0,37,169,70,1,0 // pshufb 0x146a9(%rip),%xmm4 # 32ca0 <_sk_srcover_rgba_8888_sse2_lowp+0xb60>
+ .byte 102,15,56,0,37,193,70,1,0 // pshufb 0x146c1(%rip),%xmm4 # 32cd0 <_sk_srcover_rgba_8888_sse2_lowp+0xb74>
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
.byte 65,15,89,224 // mulps %xmm8,%xmm4
.byte 102,15,114,215,24 // psrld $0x18,%xmm7
@@ -38818,19 +38830,19 @@ _sk_load_bgra_dst_sse41:
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,45 // je 1e648 <_sk_load_bgra_dst_sse41+0xaf>
+ .byte 116,45 // je 1e660 <_sk_load_bgra_dst_sse41+0xaf>
.byte 102,15,239,255 // pxor %xmm7,%xmm7
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,18 // je 1e637 <_sk_load_bgra_dst_sse41+0x9e>
+ .byte 116,18 // je 1e64f <_sk_load_bgra_dst_sse41+0x9e>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,144 // jne 1e5bb <_sk_load_bgra_dst_sse41+0x22>
+ .byte 117,144 // jne 1e5d3 <_sk_load_bgra_dst_sse41+0x22>
.byte 102,65,15,110,100,128,8 // movd 0x8(%r8,%rax,4),%xmm4
.byte 102,15,112,252,69 // pshufd $0x45,%xmm4,%xmm7
.byte 243,65,15,126,36,128 // movq (%r8,%rax,4),%xmm4
.byte 102,15,58,14,252,15 // pblendw $0xf,%xmm4,%xmm7
- .byte 233,115,255,255,255 // jmpq 1e5bb <_sk_load_bgra_dst_sse41+0x22>
+ .byte 233,115,255,255,255 // jmpq 1e5d3 <_sk_load_bgra_dst_sse41+0x22>
.byte 102,65,15,110,60,128 // movd (%r8,%rax,4),%xmm7
- .byte 233,104,255,255,255 // jmpq 1e5bb <_sk_load_bgra_dst_sse41+0x22>
+ .byte 233,104,255,255,255 // jmpq 1e5d3 <_sk_load_bgra_dst_sse41+0x22>
HIDDEN _sk_gather_bgra_sse41
.globl _sk_gather_bgra_sse41
@@ -38867,17 +38879,17 @@ _sk_gather_bgra_sse41:
.byte 102,65,15,58,34,28,128,1 // pinsrd $0x1,(%r8,%rax,4),%xmm3
.byte 102,67,15,58,34,28,152,2 // pinsrd $0x2,(%r8,%r11,4),%xmm3
.byte 102,67,15,58,34,28,144,3 // pinsrd $0x3,(%r8,%r10,4),%xmm3
- .byte 102,15,111,5,150,69,1,0 // movdqa 0x14596(%rip),%xmm0 # 32c80 <_sk_srcover_rgba_8888_sse2_lowp+0xb40>
+ .byte 102,15,111,5,174,69,1,0 // movdqa 0x145ae(%rip),%xmm0 # 32cb0 <_sk_srcover_rgba_8888_sse2_lowp+0xb54>
.byte 102,15,219,195 // pand %xmm3,%xmm0
.byte 15,91,208 // cvtdq2ps %xmm0,%xmm2
- .byte 68,15,40,5,215,70,1,0 // movaps 0x146d7(%rip),%xmm8 # 32dd0 <_sk_srcover_rgba_8888_sse2_lowp+0xc90>
+ .byte 68,15,40,5,255,70,1,0 // movaps 0x146ff(%rip),%xmm8 # 32e10 <_sk_srcover_rgba_8888_sse2_lowp+0xcb4>
.byte 65,15,89,208 // mulps %xmm8,%xmm2
.byte 102,15,111,195 // movdqa %xmm3,%xmm0
- .byte 102,15,56,0,5,134,69,1,0 // pshufb 0x14586(%rip),%xmm0 # 32c90 <_sk_srcover_rgba_8888_sse2_lowp+0xb50>
+ .byte 102,15,56,0,5,158,69,1,0 // pshufb 0x1459e(%rip),%xmm0 # 32cc0 <_sk_srcover_rgba_8888_sse2_lowp+0xb64>
.byte 15,91,200 // cvtdq2ps %xmm0,%xmm1
.byte 65,15,89,200 // mulps %xmm8,%xmm1
.byte 102,15,111,195 // movdqa %xmm3,%xmm0
- .byte 102,15,56,0,5,130,69,1,0 // pshufb 0x14582(%rip),%xmm0 # 32ca0 <_sk_srcover_rgba_8888_sse2_lowp+0xb60>
+ .byte 102,15,56,0,5,154,69,1,0 // pshufb 0x1459a(%rip),%xmm0 # 32cd0 <_sk_srcover_rgba_8888_sse2_lowp+0xb74>
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 102,15,114,211,24 // psrld $0x18,%xmm3
@@ -38897,7 +38909,7 @@ _sk_store_bgra_sse41:
.byte 73,193,224,2 // shl $0x2,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 72,99,194 // movslq %edx,%rax
- .byte 68,15,40,5,92,69,1,0 // movaps 0x1455c(%rip),%xmm8 # 32cb0 <_sk_srcover_rgba_8888_sse2_lowp+0xb70>
+ .byte 68,15,40,5,116,69,1,0 // movaps 0x14574(%rip),%xmm8 # 32ce0 <_sk_srcover_rgba_8888_sse2_lowp+0xb84>
.byte 68,15,40,202 // movaps %xmm2,%xmm9
.byte 69,15,89,200 // mulps %xmm8,%xmm9
.byte 102,69,15,91,201 // cvtps2dq %xmm9,%xmm9
@@ -38916,23 +38928,23 @@ _sk_store_bgra_sse41:
.byte 102,69,15,235,193 // por %xmm9,%xmm8
.byte 102,69,15,235,194 // por %xmm10,%xmm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,10 // jne 1e7b4 <_sk_store_bgra_sse41+0x7f>
+ .byte 117,10 // jne 1e7cc <_sk_store_bgra_sse41+0x7f>
.byte 243,69,15,127,4,128 // movdqu %xmm8,(%r8,%rax,4)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,29 // je 1e7de <_sk_store_bgra_sse41+0xa9>
+ .byte 116,29 // je 1e7f6 <_sk_store_bgra_sse41+0xa9>
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,15 // je 1e7d6 <_sk_store_bgra_sse41+0xa1>
+ .byte 116,15 // je 1e7ee <_sk_store_bgra_sse41+0xa1>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,227 // jne 1e7b0 <_sk_store_bgra_sse41+0x7b>
+ .byte 117,227 // jne 1e7c8 <_sk_store_bgra_sse41+0x7b>
.byte 102,69,15,58,22,68,128,8,2 // pextrd $0x2,%xmm8,0x8(%r8,%rax,4)
.byte 102,69,15,214,4,128 // movq %xmm8,(%r8,%rax,4)
- .byte 235,210 // jmp 1e7b0 <_sk_store_bgra_sse41+0x7b>
+ .byte 235,210 // jmp 1e7c8 <_sk_store_bgra_sse41+0x7b>
.byte 102,69,15,126,4,128 // movd %xmm8,(%r8,%rax,4)
- .byte 235,202 // jmp 1e7b0 <_sk_store_bgra_sse41+0x7b>
+ .byte 235,202 // jmp 1e7c8 <_sk_store_bgra_sse41+0x7b>
HIDDEN _sk_load_f16_sse41
.globl _sk_load_f16_sse41
@@ -38946,7 +38958,7 @@ _sk_load_f16_sse41:
.byte 76,3,0 // add (%rax),%r8
.byte 72,99,194 // movslq %edx,%rax
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,68,1,0,0 // jne 1e94a <_sk_load_f16_sse41+0x164>
+ .byte 15,133,68,1,0,0 // jne 1e962 <_sk_load_f16_sse41+0x164>
.byte 102,65,15,16,4,192 // movupd (%r8,%rax,8),%xmm0
.byte 243,65,15,111,76,192,16 // movdqu 0x10(%r8,%rax,8),%xmm1
.byte 102,68,15,40,200 // movapd %xmm0,%xmm9
@@ -38956,19 +38968,19 @@ _sk_load_f16_sse41:
.byte 102,68,15,97,224 // punpcklwd %xmm0,%xmm12
.byte 102,68,15,105,200 // punpckhwd %xmm0,%xmm9
.byte 102,65,15,56,51,212 // pmovzxwd %xmm12,%xmm2
- .byte 102,68,15,111,5,81,72,1,0 // movdqa 0x14851(%rip),%xmm8 # 33090 <_sk_srcover_rgba_8888_sse2_lowp+0xf50>
+ .byte 102,68,15,111,5,121,72,1,0 // movdqa 0x14879(%rip),%xmm8 # 330d0 <_sk_srcover_rgba_8888_sse2_lowp+0xf74>
.byte 102,15,111,202 // movdqa %xmm2,%xmm1
.byte 102,65,15,219,200 // pand %xmm8,%xmm1
- .byte 102,68,15,111,21,79,72,1,0 // movdqa 0x1484f(%rip),%xmm10 # 330a0 <_sk_srcover_rgba_8888_sse2_lowp+0xf60>
+ .byte 102,68,15,111,21,119,72,1,0 // movdqa 0x14877(%rip),%xmm10 # 330e0 <_sk_srcover_rgba_8888_sse2_lowp+0xf84>
.byte 102,65,15,219,210 // pand %xmm10,%xmm2
- .byte 102,15,111,29,82,72,1,0 // movdqa 0x14852(%rip),%xmm3 # 330b0 <_sk_srcover_rgba_8888_sse2_lowp+0xf70>
+ .byte 102,15,111,29,122,72,1,0 // movdqa 0x1487a(%rip),%xmm3 # 330f0 <_sk_srcover_rgba_8888_sse2_lowp+0xf94>
.byte 102,15,114,241,16 // pslld $0x10,%xmm1
.byte 102,15,111,194 // movdqa %xmm2,%xmm0
.byte 102,15,56,63,195 // pmaxud %xmm3,%xmm0
.byte 102,15,118,194 // pcmpeqd %xmm2,%xmm0
.byte 102,15,114,242,13 // pslld $0xd,%xmm2
.byte 102,15,235,209 // por %xmm1,%xmm2
- .byte 102,68,15,111,29,62,72,1,0 // movdqa 0x1483e(%rip),%xmm11 # 330c0 <_sk_srcover_rgba_8888_sse2_lowp+0xf80>
+ .byte 102,68,15,111,29,102,72,1,0 // movdqa 0x14866(%rip),%xmm11 # 33100 <_sk_srcover_rgba_8888_sse2_lowp+0xfa4>
.byte 102,65,15,254,211 // paddd %xmm11,%xmm2
.byte 102,15,219,194 // pand %xmm2,%xmm0
.byte 102,65,15,112,204,238 // pshufd $0xee,%xmm12,%xmm1
@@ -39011,16 +39023,16 @@ _sk_load_f16_sse41:
.byte 255,224 // jmpq *%rax
.byte 242,65,15,16,4,192 // movsd (%r8,%rax,8),%xmm0
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 117,13 // jne 1e963 <_sk_load_f16_sse41+0x17d>
+ .byte 117,13 // jne 1e97b <_sk_load_f16_sse41+0x17d>
.byte 243,15,126,192 // movq %xmm0,%xmm0
.byte 102,15,239,201 // pxor %xmm1,%xmm1
- .byte 233,176,254,255,255 // jmpq 1e813 <_sk_load_f16_sse41+0x2d>
+ .byte 233,176,254,255,255 // jmpq 1e82b <_sk_load_f16_sse41+0x2d>
.byte 102,65,15,22,68,192,8 // movhpd 0x8(%r8,%rax,8),%xmm0
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 15,130,155,254,255,255 // jb 1e813 <_sk_load_f16_sse41+0x2d>
+ .byte 15,130,155,254,255,255 // jb 1e82b <_sk_load_f16_sse41+0x2d>
.byte 243,65,15,126,76,192,16 // movq 0x10(%r8,%rax,8),%xmm1
- .byte 233,143,254,255,255 // jmpq 1e813 <_sk_load_f16_sse41+0x2d>
+ .byte 233,143,254,255,255 // jmpq 1e82b <_sk_load_f16_sse41+0x2d>
HIDDEN _sk_load_f16_dst_sse41
.globl _sk_load_f16_dst_sse41
@@ -39034,7 +39046,7 @@ _sk_load_f16_dst_sse41:
.byte 76,3,0 // add (%rax),%r8
.byte 72,99,194 // movslq %edx,%rax
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,68,1,0,0 // jne 1eae8 <_sk_load_f16_dst_sse41+0x164>
+ .byte 15,133,68,1,0,0 // jne 1eb00 <_sk_load_f16_dst_sse41+0x164>
.byte 102,65,15,16,36,192 // movupd (%r8,%rax,8),%xmm4
.byte 243,65,15,111,108,192,16 // movdqu 0x10(%r8,%rax,8),%xmm5
.byte 102,68,15,40,204 // movapd %xmm4,%xmm9
@@ -39044,19 +39056,19 @@ _sk_load_f16_dst_sse41:
.byte 102,68,15,97,228 // punpcklwd %xmm4,%xmm12
.byte 102,68,15,105,204 // punpckhwd %xmm4,%xmm9
.byte 102,65,15,56,51,244 // pmovzxwd %xmm12,%xmm6
- .byte 102,68,15,111,5,179,70,1,0 // movdqa 0x146b3(%rip),%xmm8 # 33090 <_sk_srcover_rgba_8888_sse2_lowp+0xf50>
+ .byte 102,68,15,111,5,219,70,1,0 // movdqa 0x146db(%rip),%xmm8 # 330d0 <_sk_srcover_rgba_8888_sse2_lowp+0xf74>
.byte 102,15,111,238 // movdqa %xmm6,%xmm5
.byte 102,65,15,219,232 // pand %xmm8,%xmm5
- .byte 102,68,15,111,21,177,70,1,0 // movdqa 0x146b1(%rip),%xmm10 # 330a0 <_sk_srcover_rgba_8888_sse2_lowp+0xf60>
+ .byte 102,68,15,111,21,217,70,1,0 // movdqa 0x146d9(%rip),%xmm10 # 330e0 <_sk_srcover_rgba_8888_sse2_lowp+0xf84>
.byte 102,65,15,219,242 // pand %xmm10,%xmm6
- .byte 102,15,111,61,180,70,1,0 // movdqa 0x146b4(%rip),%xmm7 # 330b0 <_sk_srcover_rgba_8888_sse2_lowp+0xf70>
+ .byte 102,15,111,61,220,70,1,0 // movdqa 0x146dc(%rip),%xmm7 # 330f0 <_sk_srcover_rgba_8888_sse2_lowp+0xf94>
.byte 102,15,114,245,16 // pslld $0x10,%xmm5
.byte 102,15,111,230 // movdqa %xmm6,%xmm4
.byte 102,15,56,63,231 // pmaxud %xmm7,%xmm4
.byte 102,15,118,230 // pcmpeqd %xmm6,%xmm4
.byte 102,15,114,246,13 // pslld $0xd,%xmm6
.byte 102,15,235,245 // por %xmm5,%xmm6
- .byte 102,68,15,111,29,160,70,1,0 // movdqa 0x146a0(%rip),%xmm11 # 330c0 <_sk_srcover_rgba_8888_sse2_lowp+0xf80>
+ .byte 102,68,15,111,29,200,70,1,0 // movdqa 0x146c8(%rip),%xmm11 # 33100 <_sk_srcover_rgba_8888_sse2_lowp+0xfa4>
.byte 102,65,15,254,243 // paddd %xmm11,%xmm6
.byte 102,15,219,230 // pand %xmm6,%xmm4
.byte 102,65,15,112,236,238 // pshufd $0xee,%xmm12,%xmm5
@@ -39099,16 +39111,16 @@ _sk_load_f16_dst_sse41:
.byte 255,224 // jmpq *%rax
.byte 242,65,15,16,36,192 // movsd (%r8,%rax,8),%xmm4
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 117,13 // jne 1eb01 <_sk_load_f16_dst_sse41+0x17d>
+ .byte 117,13 // jne 1eb19 <_sk_load_f16_dst_sse41+0x17d>
.byte 243,15,126,228 // movq %xmm4,%xmm4
.byte 102,15,239,237 // pxor %xmm5,%xmm5
- .byte 233,176,254,255,255 // jmpq 1e9b1 <_sk_load_f16_dst_sse41+0x2d>
+ .byte 233,176,254,255,255 // jmpq 1e9c9 <_sk_load_f16_dst_sse41+0x2d>
.byte 102,65,15,22,100,192,8 // movhpd 0x8(%r8,%rax,8),%xmm4
.byte 102,15,239,237 // pxor %xmm5,%xmm5
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 15,130,155,254,255,255 // jb 1e9b1 <_sk_load_f16_dst_sse41+0x2d>
+ .byte 15,130,155,254,255,255 // jb 1e9c9 <_sk_load_f16_dst_sse41+0x2d>
.byte 243,65,15,126,108,192,16 // movq 0x10(%r8,%rax,8),%xmm5
- .byte 233,143,254,255,255 // jmpq 1e9b1 <_sk_load_f16_dst_sse41+0x2d>
+ .byte 233,143,254,255,255 // jmpq 1e9c9 <_sk_load_f16_dst_sse41+0x2d>
HIDDEN _sk_gather_f16_sse41
.globl _sk_gather_f16_sse41
@@ -39154,19 +39166,19 @@ _sk_gather_f16_sse41:
.byte 102,68,15,97,226 // punpcklwd %xmm2,%xmm12
.byte 102,68,15,105,202 // punpckhwd %xmm2,%xmm9
.byte 102,65,15,56,51,212 // pmovzxwd %xmm12,%xmm2
- .byte 102,68,15,111,5,177,68,1,0 // movdqa 0x144b1(%rip),%xmm8 # 33090 <_sk_srcover_rgba_8888_sse2_lowp+0xf50>
+ .byte 102,68,15,111,5,217,68,1,0 // movdqa 0x144d9(%rip),%xmm8 # 330d0 <_sk_srcover_rgba_8888_sse2_lowp+0xf74>
.byte 102,15,111,202 // movdqa %xmm2,%xmm1
.byte 102,65,15,219,200 // pand %xmm8,%xmm1
- .byte 102,68,15,111,21,175,68,1,0 // movdqa 0x144af(%rip),%xmm10 # 330a0 <_sk_srcover_rgba_8888_sse2_lowp+0xf60>
+ .byte 102,68,15,111,21,215,68,1,0 // movdqa 0x144d7(%rip),%xmm10 # 330e0 <_sk_srcover_rgba_8888_sse2_lowp+0xf84>
.byte 102,65,15,219,210 // pand %xmm10,%xmm2
- .byte 102,15,111,29,178,68,1,0 // movdqa 0x144b2(%rip),%xmm3 # 330b0 <_sk_srcover_rgba_8888_sse2_lowp+0xf70>
+ .byte 102,15,111,29,218,68,1,0 // movdqa 0x144da(%rip),%xmm3 # 330f0 <_sk_srcover_rgba_8888_sse2_lowp+0xf94>
.byte 102,15,114,241,16 // pslld $0x10,%xmm1
.byte 102,15,111,194 // movdqa %xmm2,%xmm0
.byte 102,15,56,63,195 // pmaxud %xmm3,%xmm0
.byte 102,15,118,194 // pcmpeqd %xmm2,%xmm0
.byte 102,15,114,242,13 // pslld $0xd,%xmm2
.byte 102,15,235,209 // por %xmm1,%xmm2
- .byte 102,68,15,111,29,158,68,1,0 // movdqa 0x1449e(%rip),%xmm11 # 330c0 <_sk_srcover_rgba_8888_sse2_lowp+0xf80>
+ .byte 102,68,15,111,29,198,68,1,0 // movdqa 0x144c6(%rip),%xmm11 # 33100 <_sk_srcover_rgba_8888_sse2_lowp+0xfa4>
.byte 102,65,15,254,211 // paddd %xmm11,%xmm2
.byte 102,15,219,194 // pand %xmm2,%xmm0
.byte 102,65,15,112,204,238 // pshufd $0xee,%xmm12,%xmm1
@@ -39219,20 +39231,20 @@ _sk_store_f16_sse41:
.byte 73,193,224,3 // shl $0x3,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 72,99,194 // movslq %edx,%rax
- .byte 102,68,15,111,13,198,67,1,0 // movdqa 0x143c6(%rip),%xmm9 # 330d0 <_sk_srcover_rgba_8888_sse2_lowp+0xf90>
+ .byte 102,68,15,111,13,238,67,1,0 // movdqa 0x143ee(%rip),%xmm9 # 33110 <_sk_srcover_rgba_8888_sse2_lowp+0xfb4>
.byte 102,68,15,111,224 // movdqa %xmm0,%xmm12
.byte 102,69,15,219,225 // pand %xmm9,%xmm12
- .byte 102,68,15,111,29,195,67,1,0 // movdqa 0x143c3(%rip),%xmm11 # 330e0 <_sk_srcover_rgba_8888_sse2_lowp+0xfa0>
+ .byte 102,68,15,111,29,235,67,1,0 // movdqa 0x143eb(%rip),%xmm11 # 33120 <_sk_srcover_rgba_8888_sse2_lowp+0xfc4>
.byte 102,68,15,111,232 // movdqa %xmm0,%xmm13
.byte 102,69,15,219,235 // pand %xmm11,%xmm13
- .byte 102,68,15,111,21,192,67,1,0 // movdqa 0x143c0(%rip),%xmm10 # 330f0 <_sk_srcover_rgba_8888_sse2_lowp+0xfb0>
+ .byte 102,68,15,111,21,232,67,1,0 // movdqa 0x143e8(%rip),%xmm10 # 33130 <_sk_srcover_rgba_8888_sse2_lowp+0xfd4>
.byte 102,65,15,114,212,16 // psrld $0x10,%xmm12
.byte 102,69,15,111,197 // movdqa %xmm13,%xmm8
.byte 102,69,15,56,63,194 // pmaxud %xmm10,%xmm8
.byte 102,69,15,118,197 // pcmpeqd %xmm13,%xmm8
.byte 102,65,15,114,213,13 // psrld $0xd,%xmm13
.byte 102,69,15,254,236 // paddd %xmm12,%xmm13
- .byte 102,68,15,111,37,166,67,1,0 // movdqa 0x143a6(%rip),%xmm12 # 33100 <_sk_srcover_rgba_8888_sse2_lowp+0xfc0>
+ .byte 102,68,15,111,37,206,67,1,0 // movdqa 0x143ce(%rip),%xmm12 # 33140 <_sk_srcover_rgba_8888_sse2_lowp+0xfe4>
.byte 102,69,15,254,236 // paddd %xmm12,%xmm13
.byte 102,69,15,219,197 // pand %xmm13,%xmm8
.byte 102,68,15,56,43,192 // packusdw %xmm0,%xmm8
@@ -39277,7 +39289,7 @@ _sk_store_f16_sse41:
.byte 102,69,15,111,200 // movdqa %xmm8,%xmm9
.byte 102,69,15,98,205 // punpckldq %xmm13,%xmm9
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,21 // jne 1ee58 <_sk_store_f16_sse41+0x16e>
+ .byte 117,21 // jne 1ee70 <_sk_store_f16_sse41+0x16e>
.byte 69,15,17,12,192 // movups %xmm9,(%r8,%rax,8)
.byte 102,69,15,106,197 // punpckhdq %xmm13,%xmm8
.byte 243,69,15,127,68,192,16 // movdqu %xmm8,0x10(%r8,%rax,8)
@@ -39285,13 +39297,13 @@ _sk_store_f16_sse41:
.byte 255,224 // jmpq *%rax
.byte 102,69,15,214,12,192 // movq %xmm9,(%r8,%rax,8)
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 116,240 // je 1ee54 <_sk_store_f16_sse41+0x16a>
+ .byte 116,240 // je 1ee6c <_sk_store_f16_sse41+0x16a>
.byte 102,69,15,23,76,192,8 // movhpd %xmm9,0x8(%r8,%rax,8)
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,227 // jb 1ee54 <_sk_store_f16_sse41+0x16a>
+ .byte 114,227 // jb 1ee6c <_sk_store_f16_sse41+0x16a>
.byte 102,69,15,106,197 // punpckhdq %xmm13,%xmm8
.byte 102,69,15,214,68,192,16 // movq %xmm8,0x10(%r8,%rax,8)
- .byte 235,213 // jmp 1ee54 <_sk_store_f16_sse41+0x16a>
+ .byte 235,213 // jmp 1ee6c <_sk_store_f16_sse41+0x16a>
HIDDEN _sk_load_u16_be_sse41
.globl _sk_load_u16_be_sse41
@@ -39306,7 +39318,7 @@ _sk_load_u16_be_sse41:
.byte 76,3,0 // add (%rax),%r8
.byte 73,99,193 // movslq %r9d,%rax
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,185,0,0,0 // jne 1ef5f <_sk_load_u16_be_sse41+0xe0>
+ .byte 15,133,185,0,0,0 // jne 1ef77 <_sk_load_u16_be_sse41+0xe0>
.byte 102,65,15,16,4,64 // movupd (%r8,%rax,2),%xmm0
.byte 243,65,15,111,76,64,16 // movdqu 0x10(%r8,%rax,2),%xmm1
.byte 102,15,40,208 // movapd %xmm0,%xmm2
@@ -39322,7 +39334,7 @@ _sk_load_u16_be_sse41:
.byte 102,15,235,200 // por %xmm0,%xmm1
.byte 102,15,56,51,193 // pmovzxwd %xmm1,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 68,15,40,5,110,63,1,0 // movaps 0x13f6e(%rip),%xmm8 # 32e60 <_sk_srcover_rgba_8888_sse2_lowp+0xd20>
+ .byte 68,15,40,5,150,63,1,0 // movaps 0x13f96(%rip),%xmm8 # 32ea0 <_sk_srcover_rgba_8888_sse2_lowp+0xd44>
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 102,15,111,203 // movdqa %xmm3,%xmm1
.byte 102,15,113,241,8 // psllw $0x8,%xmm1
@@ -39350,16 +39362,16 @@ _sk_load_u16_be_sse41:
.byte 255,224 // jmpq *%rax
.byte 242,65,15,16,4,64 // movsd (%r8,%rax,2),%xmm0
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 117,13 // jne 1ef78 <_sk_load_u16_be_sse41+0xf9>
+ .byte 117,13 // jne 1ef90 <_sk_load_u16_be_sse41+0xf9>
.byte 243,15,126,192 // movq %xmm0,%xmm0
.byte 102,15,239,201 // pxor %xmm1,%xmm1
- .byte 233,59,255,255,255 // jmpq 1eeb3 <_sk_load_u16_be_sse41+0x34>
+ .byte 233,59,255,255,255 // jmpq 1eecb <_sk_load_u16_be_sse41+0x34>
.byte 102,65,15,22,68,64,8 // movhpd 0x8(%r8,%rax,2),%xmm0
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 15,130,38,255,255,255 // jb 1eeb3 <_sk_load_u16_be_sse41+0x34>
+ .byte 15,130,38,255,255,255 // jb 1eecb <_sk_load_u16_be_sse41+0x34>
.byte 243,65,15,126,76,64,16 // movq 0x10(%r8,%rax,2),%xmm1
- .byte 233,26,255,255,255 // jmpq 1eeb3 <_sk_load_u16_be_sse41+0x34>
+ .byte 233,26,255,255,255 // jmpq 1eecb <_sk_load_u16_be_sse41+0x34>
HIDDEN _sk_load_rgb_u16_be_sse41
.globl _sk_load_rgb_u16_be_sse41
@@ -39376,7 +39388,7 @@ _sk_load_rgb_u16_be_sse41:
.byte 72,141,4,64 // lea (%rax,%rax,2),%rax
.byte 72,193,248,32 // sar $0x20,%rax
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,170,0,0,0 // jne 1f06e <_sk_load_rgb_u16_be_sse41+0xd5>
+ .byte 15,133,170,0,0,0 // jne 1f086 <_sk_load_rgb_u16_be_sse41+0xd5>
.byte 243,65,15,111,20,64 // movdqu (%r8,%rax,2),%xmm2
.byte 243,65,15,111,92,64,8 // movdqu 0x8(%r8,%rax,2),%xmm3
.byte 102,15,115,219,4 // psrldq $0x4,%xmm3
@@ -39396,7 +39408,7 @@ _sk_load_rgb_u16_be_sse41:
.byte 102,15,235,200 // por %xmm0,%xmm1
.byte 102,15,56,51,193 // pmovzxwd %xmm1,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 68,15,40,5,61,62,1,0 // movaps 0x13e3d(%rip),%xmm8 # 32e60 <_sk_srcover_rgba_8888_sse2_lowp+0xd20>
+ .byte 68,15,40,5,101,62,1,0 // movaps 0x13e65(%rip),%xmm8 # 32ea0 <_sk_srcover_rgba_8888_sse2_lowp+0xd44>
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 102,15,111,203 // movdqa %xmm3,%xmm1
.byte 102,15,113,241,8 // psllw $0x8,%xmm1
@@ -39413,27 +39425,27 @@ _sk_load_rgb_u16_be_sse41:
.byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
.byte 65,15,89,208 // mulps %xmm8,%xmm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,100,59,1,0 // movaps 0x13b64(%rip),%xmm3 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xa90>
+ .byte 15,40,29,124,59,1,0 // movaps 0x13b7c(%rip),%xmm3 # 32c00 <_sk_srcover_rgba_8888_sse2_lowp+0xaa4>
.byte 255,224 // jmpq *%rax
.byte 102,65,15,110,20,64 // movd (%r8,%rax,2),%xmm2
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 102,65,15,196,84,64,4,2 // pinsrw $0x2,0x4(%r8,%rax,2),%xmm2
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 117,13 // jne 1f093 <_sk_load_rgb_u16_be_sse41+0xfa>
+ .byte 117,13 // jne 1f0ab <_sk_load_rgb_u16_be_sse41+0xfa>
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 102,15,239,192 // pxor %xmm0,%xmm0
- .byte 233,85,255,255,255 // jmpq 1efe8 <_sk_load_rgb_u16_be_sse41+0x4f>
+ .byte 233,85,255,255,255 // jmpq 1f000 <_sk_load_rgb_u16_be_sse41+0x4f>
.byte 102,65,15,110,68,64,6 // movd 0x6(%r8,%rax,2),%xmm0
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 102,65,15,196,68,64,10,2 // pinsrw $0x2,0xa(%r8,%rax,2),%xmm0
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,24 // jb 1f0c4 <_sk_load_rgb_u16_be_sse41+0x12b>
+ .byte 114,24 // jb 1f0dc <_sk_load_rgb_u16_be_sse41+0x12b>
.byte 102,65,15,110,92,64,12 // movd 0xc(%r8,%rax,2),%xmm3
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 102,65,15,196,92,64,16,2 // pinsrw $0x2,0x10(%r8,%rax,2),%xmm3
- .byte 233,36,255,255,255 // jmpq 1efe8 <_sk_load_rgb_u16_be_sse41+0x4f>
+ .byte 233,36,255,255,255 // jmpq 1f000 <_sk_load_rgb_u16_be_sse41+0x4f>
.byte 102,15,239,219 // pxor %xmm3,%xmm3
- .byte 233,27,255,255,255 // jmpq 1efe8 <_sk_load_rgb_u16_be_sse41+0x4f>
+ .byte 233,27,255,255,255 // jmpq 1f000 <_sk_load_rgb_u16_be_sse41+0x4f>
HIDDEN _sk_store_u16_be_sse41
.globl _sk_store_u16_be_sse41
@@ -39447,7 +39459,7 @@ _sk_store_u16_be_sse41:
.byte 77,1,192 // add %r8,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 73,99,193 // movslq %r9d,%rax
- .byte 68,15,40,21,29,64,1,0 // movaps 0x1401d(%rip),%xmm10 # 33110 <_sk_srcover_rgba_8888_sse2_lowp+0xfd0>
+ .byte 68,15,40,21,69,64,1,0 // movaps 0x14045(%rip),%xmm10 # 33150 <_sk_srcover_rgba_8888_sse2_lowp+0xff4>
.byte 68,15,40,192 // movaps %xmm0,%xmm8
.byte 69,15,89,194 // mulps %xmm10,%xmm8
.byte 102,69,15,91,192 // cvtps2dq %xmm8,%xmm8
@@ -39484,7 +39496,7 @@ _sk_store_u16_be_sse41:
.byte 102,69,15,111,208 // movdqa %xmm8,%xmm10
.byte 102,69,15,98,209 // punpckldq %xmm9,%xmm10
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,21 // jne 1f1c1 <_sk_store_u16_be_sse41+0xf4>
+ .byte 117,21 // jne 1f1d9 <_sk_store_u16_be_sse41+0xf4>
.byte 69,15,17,20,64 // movups %xmm10,(%r8,%rax,2)
.byte 102,69,15,106,193 // punpckhdq %xmm9,%xmm8
.byte 243,69,15,127,68,64,16 // movdqu %xmm8,0x10(%r8,%rax,2)
@@ -39492,13 +39504,13 @@ _sk_store_u16_be_sse41:
.byte 255,224 // jmpq *%rax
.byte 102,69,15,214,20,64 // movq %xmm10,(%r8,%rax,2)
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 116,240 // je 1f1bd <_sk_store_u16_be_sse41+0xf0>
+ .byte 116,240 // je 1f1d5 <_sk_store_u16_be_sse41+0xf0>
.byte 102,69,15,23,84,64,8 // movhpd %xmm10,0x8(%r8,%rax,2)
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,227 // jb 1f1bd <_sk_store_u16_be_sse41+0xf0>
+ .byte 114,227 // jb 1f1d5 <_sk_store_u16_be_sse41+0xf0>
.byte 102,69,15,106,193 // punpckhdq %xmm9,%xmm8
.byte 102,69,15,214,68,64,16 // movq %xmm8,0x10(%r8,%rax,2)
- .byte 235,213 // jmp 1f1bd <_sk_store_u16_be_sse41+0xf0>
+ .byte 235,213 // jmp 1f1d5 <_sk_store_u16_be_sse41+0xf0>
HIDDEN _sk_load_f32_sse41
.globl _sk_load_f32_sse41
@@ -39514,7 +39526,7 @@ _sk_load_f32_sse41:
.byte 73,99,193 // movslq %r9d,%rax
.byte 69,15,16,4,128 // movups (%r8,%rax,4),%xmm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,66 // jne 1f253 <_sk_load_f32_sse41+0x6b>
+ .byte 117,66 // jne 1f26b <_sk_load_f32_sse41+0x6b>
.byte 65,15,16,68,128,16 // movups 0x10(%r8,%rax,4),%xmm0
.byte 65,15,16,92,128,32 // movups 0x20(%r8,%rax,4),%xmm3
.byte 69,15,16,76,128,48 // movups 0x30(%r8,%rax,4),%xmm9
@@ -39534,17 +39546,17 @@ _sk_load_f32_sse41:
.byte 255,224 // jmpq *%rax
.byte 69,15,87,201 // xorps %xmm9,%xmm9
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 117,8 // jne 1f265 <_sk_load_f32_sse41+0x7d>
+ .byte 117,8 // jne 1f27d <_sk_load_f32_sse41+0x7d>
.byte 15,87,219 // xorps %xmm3,%xmm3
.byte 15,87,192 // xorps %xmm0,%xmm0
- .byte 235,190 // jmp 1f223 <_sk_load_f32_sse41+0x3b>
+ .byte 235,190 // jmp 1f23b <_sk_load_f32_sse41+0x3b>
.byte 65,15,16,68,128,16 // movups 0x10(%r8,%rax,4),%xmm0
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,8 // jb 1f279 <_sk_load_f32_sse41+0x91>
+ .byte 114,8 // jb 1f291 <_sk_load_f32_sse41+0x91>
.byte 65,15,16,92,128,32 // movups 0x20(%r8,%rax,4),%xmm3
- .byte 235,170 // jmp 1f223 <_sk_load_f32_sse41+0x3b>
+ .byte 235,170 // jmp 1f23b <_sk_load_f32_sse41+0x3b>
.byte 15,87,219 // xorps %xmm3,%xmm3
- .byte 235,165 // jmp 1f223 <_sk_load_f32_sse41+0x3b>
+ .byte 235,165 // jmp 1f23b <_sk_load_f32_sse41+0x3b>
HIDDEN _sk_load_f32_dst_sse41
.globl _sk_load_f32_dst_sse41
@@ -39560,7 +39572,7 @@ _sk_load_f32_dst_sse41:
.byte 73,99,193 // movslq %r9d,%rax
.byte 69,15,16,4,128 // movups (%r8,%rax,4),%xmm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,66 // jne 1f2e9 <_sk_load_f32_dst_sse41+0x6b>
+ .byte 117,66 // jne 1f301 <_sk_load_f32_dst_sse41+0x6b>
.byte 65,15,16,100,128,16 // movups 0x10(%r8,%rax,4),%xmm4
.byte 65,15,16,124,128,32 // movups 0x20(%r8,%rax,4),%xmm7
.byte 69,15,16,76,128,48 // movups 0x30(%r8,%rax,4),%xmm9
@@ -39580,17 +39592,17 @@ _sk_load_f32_dst_sse41:
.byte 255,224 // jmpq *%rax
.byte 69,15,87,201 // xorps %xmm9,%xmm9
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 117,8 // jne 1f2fb <_sk_load_f32_dst_sse41+0x7d>
+ .byte 117,8 // jne 1f313 <_sk_load_f32_dst_sse41+0x7d>
.byte 15,87,255 // xorps %xmm7,%xmm7
.byte 15,87,228 // xorps %xmm4,%xmm4
- .byte 235,190 // jmp 1f2b9 <_sk_load_f32_dst_sse41+0x3b>
+ .byte 235,190 // jmp 1f2d1 <_sk_load_f32_dst_sse41+0x3b>
.byte 65,15,16,100,128,16 // movups 0x10(%r8,%rax,4),%xmm4
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,8 // jb 1f30f <_sk_load_f32_dst_sse41+0x91>
+ .byte 114,8 // jb 1f327 <_sk_load_f32_dst_sse41+0x91>
.byte 65,15,16,124,128,32 // movups 0x20(%r8,%rax,4),%xmm7
- .byte 235,170 // jmp 1f2b9 <_sk_load_f32_dst_sse41+0x3b>
+ .byte 235,170 // jmp 1f2d1 <_sk_load_f32_dst_sse41+0x3b>
.byte 15,87,255 // xorps %xmm7,%xmm7
- .byte 235,165 // jmp 1f2b9 <_sk_load_f32_dst_sse41+0x3b>
+ .byte 235,165 // jmp 1f2d1 <_sk_load_f32_dst_sse41+0x3b>
HIDDEN _sk_store_f32_sse41
.globl _sk_store_f32_sse41
@@ -39619,7 +39631,7 @@ _sk_store_f32_sse41:
.byte 102,69,15,20,203 // unpcklpd %xmm11,%xmm9
.byte 102,69,15,17,36,128 // movupd %xmm12,(%r8,%rax,4)
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,29 // jne 1f391 <_sk_store_f32_sse41+0x7d>
+ .byte 117,29 // jne 1f3a9 <_sk_store_f32_sse41+0x7d>
.byte 102,69,15,21,211 // unpckhpd %xmm11,%xmm10
.byte 69,15,17,68,128,16 // movups %xmm8,0x10(%r8,%rax,4)
.byte 102,69,15,17,76,128,32 // movupd %xmm9,0x20(%r8,%rax,4)
@@ -39627,12 +39639,12 @@ _sk_store_f32_sse41:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 116,246 // je 1f38d <_sk_store_f32_sse41+0x79>
+ .byte 116,246 // je 1f3a5 <_sk_store_f32_sse41+0x79>
.byte 69,15,17,68,128,16 // movups %xmm8,0x10(%r8,%rax,4)
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,234 // jb 1f38d <_sk_store_f32_sse41+0x79>
+ .byte 114,234 // jb 1f3a5 <_sk_store_f32_sse41+0x79>
.byte 102,69,15,17,76,128,32 // movupd %xmm9,0x20(%r8,%rax,4)
- .byte 235,225 // jmp 1f38d <_sk_store_f32_sse41+0x79>
+ .byte 235,225 // jmp 1f3a5 <_sk_store_f32_sse41+0x79>
HIDDEN _sk_repeat_x_sse41
.globl _sk_repeat_x_sse41
@@ -39678,7 +39690,7 @@ _sk_mirror_x_sse41:
.byte 65,15,92,194 // subps %xmm10,%xmm0
.byte 243,69,15,88,192 // addss %xmm8,%xmm8
.byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
- .byte 243,68,15,89,13,143,53,1,0 // mulss 0x1358f(%rip),%xmm9 # 329c4 <_sk_srcover_rgba_8888_sse2_lowp+0x884>
+ .byte 243,68,15,89,13,151,53,1,0 // mulss 0x13597(%rip),%xmm9 # 329e4 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 69,15,198,201,0 // shufps $0x0,%xmm9,%xmm9
.byte 68,15,89,200 // mulps %xmm0,%xmm9
.byte 102,69,15,58,8,201,1 // roundps $0x1,%xmm9,%xmm9
@@ -39703,7 +39715,7 @@ _sk_mirror_y_sse41:
.byte 65,15,92,202 // subps %xmm10,%xmm1
.byte 243,69,15,88,192 // addss %xmm8,%xmm8
.byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
- .byte 243,68,15,89,13,54,53,1,0 // mulss 0x13536(%rip),%xmm9 # 329c4 <_sk_srcover_rgba_8888_sse2_lowp+0x884>
+ .byte 243,68,15,89,13,62,53,1,0 // mulss 0x1353e(%rip),%xmm9 # 329e4 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 69,15,198,201,0 // shufps $0x0,%xmm9,%xmm9
.byte 68,15,89,201 // mulps %xmm1,%xmm9
.byte 102,69,15,58,8,201,1 // roundps $0x1,%xmm9,%xmm9
@@ -39722,7 +39734,7 @@ FUNCTION(_sk_clamp_x_1_sse41)
_sk_clamp_x_1_sse41:
.byte 69,15,87,192 // xorps %xmm8,%xmm8
.byte 68,15,95,192 // maxps %xmm0,%xmm8
- .byte 68,15,93,5,6,55,1,0 // minps 0x13706(%rip),%xmm8 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xa90>
+ .byte 68,15,93,5,30,55,1,0 // minps 0x1371e(%rip),%xmm8 # 32c00 <_sk_srcover_rgba_8888_sse2_lowp+0xaa4>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 65,15,40,192 // movaps %xmm8,%xmm0
.byte 255,224 // jmpq *%rax
@@ -39735,7 +39747,7 @@ _sk_repeat_x_1_sse41:
.byte 65,15,92,192 // subps %xmm8,%xmm0
.byte 69,15,87,192 // xorps %xmm8,%xmm8
.byte 68,15,95,192 // maxps %xmm0,%xmm8
- .byte 68,15,93,5,227,54,1,0 // minps 0x136e3(%rip),%xmm8 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xa90>
+ .byte 68,15,93,5,251,54,1,0 // minps 0x136fb(%rip),%xmm8 # 32c00 <_sk_srcover_rgba_8888_sse2_lowp+0xaa4>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 65,15,40,192 // movaps %xmm8,%xmm0
.byte 255,224 // jmpq *%rax
@@ -39744,9 +39756,9 @@ HIDDEN _sk_mirror_x_1_sse41
.globl _sk_mirror_x_1_sse41
FUNCTION(_sk_mirror_x_1_sse41)
_sk_mirror_x_1_sse41:
- .byte 68,15,40,5,51,55,1,0 // movaps 0x13733(%rip),%xmm8 # 32c30 <_sk_srcover_rgba_8888_sse2_lowp+0xaf0>
+ .byte 68,15,40,5,75,55,1,0 // movaps 0x1374b(%rip),%xmm8 # 32c60 <_sk_srcover_rgba_8888_sse2_lowp+0xb04>
.byte 65,15,88,192 // addps %xmm8,%xmm0
- .byte 68,15,40,13,183,54,1,0 // movaps 0x136b7(%rip),%xmm9 # 32bc0 <_sk_srcover_rgba_8888_sse2_lowp+0xa80>
+ .byte 68,15,40,13,207,54,1,0 // movaps 0x136cf(%rip),%xmm9 # 32bf0 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
.byte 68,15,89,200 // mulps %xmm0,%xmm9
.byte 102,69,15,58,8,201,1 // roundps $0x1,%xmm9,%xmm9
.byte 69,15,88,201 // addps %xmm9,%xmm9
@@ -39757,7 +39769,7 @@ _sk_mirror_x_1_sse41:
.byte 68,15,92,200 // subps %xmm0,%xmm9
.byte 68,15,84,200 // andps %xmm0,%xmm9
.byte 69,15,95,193 // maxps %xmm9,%xmm8
- .byte 68,15,93,5,148,54,1,0 // minps 0x13694(%rip),%xmm8 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xa90>
+ .byte 68,15,93,5,172,54,1,0 // minps 0x136ac(%rip),%xmm8 # 32c00 <_sk_srcover_rgba_8888_sse2_lowp+0xaa4>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 65,15,40,192 // movaps %xmm8,%xmm0
.byte 255,224 // jmpq *%rax
@@ -39767,10 +39779,10 @@ HIDDEN _sk_luminance_to_alpha_sse41
FUNCTION(_sk_luminance_to_alpha_sse41)
_sk_luminance_to_alpha_sse41:
.byte 15,40,218 // movaps %xmm2,%xmm3
- .byte 15,89,5,210,59,1,0 // mulps 0x13bd2(%rip),%xmm0 # 33120 <_sk_srcover_rgba_8888_sse2_lowp+0xfe0>
- .byte 15,89,13,219,59,1,0 // mulps 0x13bdb(%rip),%xmm1 # 33130 <_sk_srcover_rgba_8888_sse2_lowp+0xff0>
+ .byte 15,89,5,250,59,1,0 // mulps 0x13bfa(%rip),%xmm0 # 33160 <_sk_srcover_rgba_8888_sse2_lowp+0x1004>
+ .byte 15,89,13,3,60,1,0 // mulps 0x13c03(%rip),%xmm1 # 33170 <_sk_srcover_rgba_8888_sse2_lowp+0x1014>
.byte 15,88,200 // addps %xmm0,%xmm1
- .byte 15,89,29,225,59,1,0 // mulps 0x13be1(%rip),%xmm3 # 33140 <_sk_srcover_rgba_8888_sse2_lowp+0x1000>
+ .byte 15,89,29,9,60,1,0 // mulps 0x13c09(%rip),%xmm3 # 33180 <_sk_srcover_rgba_8888_sse2_lowp+0x1024>
.byte 15,88,217 // addps %xmm1,%xmm3
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,87,192 // xorps %xmm0,%xmm0
@@ -40082,9 +40094,9 @@ _sk_evenly_spaced_gradient_sse41:
.byte 72,139,24 // mov (%rax),%rbx
.byte 76,139,112,8 // mov 0x8(%rax),%r14
.byte 72,255,203 // dec %rbx
- .byte 120,7 // js 1f9ff <_sk_evenly_spaced_gradient_sse41+0x18>
+ .byte 120,7 // js 1fa17 <_sk_evenly_spaced_gradient_sse41+0x18>
.byte 243,72,15,42,203 // cvtsi2ss %rbx,%xmm1
- .byte 235,21 // jmp 1fa14 <_sk_evenly_spaced_gradient_sse41+0x2d>
+ .byte 235,21 // jmp 1fa2c <_sk_evenly_spaced_gradient_sse41+0x2d>
.byte 73,137,216 // mov %rbx,%r8
.byte 73,209,232 // shr %r8
.byte 131,227,1 // and $0x1,%ebx
@@ -40173,15 +40185,15 @@ HIDDEN _sk_gauss_a_to_rgba_sse41
.globl _sk_gauss_a_to_rgba_sse41
FUNCTION(_sk_gauss_a_to_rgba_sse41)
_sk_gauss_a_to_rgba_sse41:
- .byte 15,40,5,144,53,1,0 // movaps 0x13590(%rip),%xmm0 # 33150 <_sk_srcover_rgba_8888_sse2_lowp+0x1010>
+ .byte 15,40,5,184,53,1,0 // movaps 0x135b8(%rip),%xmm0 # 33190 <_sk_srcover_rgba_8888_sse2_lowp+0x1034>
.byte 15,89,195 // mulps %xmm3,%xmm0
- .byte 15,88,5,150,53,1,0 // addps 0x13596(%rip),%xmm0 # 33160 <_sk_srcover_rgba_8888_sse2_lowp+0x1020>
+ .byte 15,88,5,190,53,1,0 // addps 0x135be(%rip),%xmm0 # 331a0 <_sk_srcover_rgba_8888_sse2_lowp+0x1044>
.byte 15,89,195 // mulps %xmm3,%xmm0
- .byte 15,88,5,156,53,1,0 // addps 0x1359c(%rip),%xmm0 # 33170 <_sk_srcover_rgba_8888_sse2_lowp+0x1030>
+ .byte 15,88,5,196,53,1,0 // addps 0x135c4(%rip),%xmm0 # 331b0 <_sk_srcover_rgba_8888_sse2_lowp+0x1054>
.byte 15,89,195 // mulps %xmm3,%xmm0
- .byte 15,88,5,162,53,1,0 // addps 0x135a2(%rip),%xmm0 # 33180 <_sk_srcover_rgba_8888_sse2_lowp+0x1040>
+ .byte 15,88,5,202,53,1,0 // addps 0x135ca(%rip),%xmm0 # 331c0 <_sk_srcover_rgba_8888_sse2_lowp+0x1064>
.byte 15,89,195 // mulps %xmm3,%xmm0
- .byte 15,88,5,168,53,1,0 // addps 0x135a8(%rip),%xmm0 # 33190 <_sk_srcover_rgba_8888_sse2_lowp+0x1050>
+ .byte 15,88,5,208,53,1,0 // addps 0x135d0(%rip),%xmm0 # 331d0 <_sk_srcover_rgba_8888_sse2_lowp+0x1074>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,40,200 // movaps %xmm0,%xmm1
.byte 15,40,208 // movaps %xmm0,%xmm2
@@ -40196,7 +40208,7 @@ _sk_gradient_sse41:
.byte 76,139,0 // mov (%rax),%r8
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 73,131,248,2 // cmp $0x2,%r8
- .byte 114,41 // jb 1fc2d <_sk_gradient_sse41+0x38>
+ .byte 114,41 // jb 1fc45 <_sk_gradient_sse41+0x38>
.byte 76,139,72,72 // mov 0x48(%rax),%r9
.byte 73,255,200 // dec %r8
.byte 73,131,193,4 // add $0x4,%r9
@@ -40207,7 +40219,7 @@ _sk_gradient_sse41:
.byte 102,15,250,202 // psubd %xmm2,%xmm1
.byte 73,131,193,4 // add $0x4,%r9
.byte 73,255,200 // dec %r8
- .byte 117,230 // jne 1fc13 <_sk_gradient_sse41+0x1e>
+ .byte 117,230 // jne 1fc2b <_sk_gradient_sse41+0x1e>
.byte 65,86 // push %r14
.byte 83 // push %rbx
.byte 102,73,15,58,22,200,1 // pextrq $0x1,%xmm1,%r8
@@ -40338,26 +40350,26 @@ _sk_xy_to_unit_angle_sse41:
.byte 69,15,94,226 // divps %xmm10,%xmm12
.byte 69,15,40,236 // movaps %xmm12,%xmm13
.byte 69,15,89,237 // mulps %xmm13,%xmm13
- .byte 68,15,40,21,31,51,1,0 // movaps 0x1331f(%rip),%xmm10 # 331a0 <_sk_srcover_rgba_8888_sse2_lowp+0x1060>
+ .byte 68,15,40,21,71,51,1,0 // movaps 0x13347(%rip),%xmm10 # 331e0 <_sk_srcover_rgba_8888_sse2_lowp+0x1084>
.byte 69,15,89,213 // mulps %xmm13,%xmm10
- .byte 68,15,88,21,35,51,1,0 // addps 0x13323(%rip),%xmm10 # 331b0 <_sk_srcover_rgba_8888_sse2_lowp+0x1070>
+ .byte 68,15,88,21,75,51,1,0 // addps 0x1334b(%rip),%xmm10 # 331f0 <_sk_srcover_rgba_8888_sse2_lowp+0x1094>
.byte 69,15,89,213 // mulps %xmm13,%xmm10
- .byte 68,15,88,21,39,51,1,0 // addps 0x13327(%rip),%xmm10 # 331c0 <_sk_srcover_rgba_8888_sse2_lowp+0x1080>
+ .byte 68,15,88,21,79,51,1,0 // addps 0x1334f(%rip),%xmm10 # 33200 <_sk_srcover_rgba_8888_sse2_lowp+0x10a4>
.byte 69,15,89,213 // mulps %xmm13,%xmm10
- .byte 68,15,88,21,43,51,1,0 // addps 0x1332b(%rip),%xmm10 # 331d0 <_sk_srcover_rgba_8888_sse2_lowp+0x1090>
+ .byte 68,15,88,21,83,51,1,0 // addps 0x13353(%rip),%xmm10 # 33210 <_sk_srcover_rgba_8888_sse2_lowp+0x10b4>
.byte 69,15,89,212 // mulps %xmm12,%xmm10
.byte 65,15,194,195,1 // cmpltps %xmm11,%xmm0
- .byte 68,15,40,29,42,51,1,0 // movaps 0x1332a(%rip),%xmm11 # 331e0 <_sk_srcover_rgba_8888_sse2_lowp+0x10a0>
+ .byte 68,15,40,29,82,51,1,0 // movaps 0x13352(%rip),%xmm11 # 33220 <_sk_srcover_rgba_8888_sse2_lowp+0x10c4>
.byte 69,15,92,218 // subps %xmm10,%xmm11
.byte 102,69,15,56,20,211 // blendvps %xmm0,%xmm11,%xmm10
.byte 69,15,194,200,1 // cmpltps %xmm8,%xmm9
- .byte 68,15,40,29,243,44,1,0 // movaps 0x12cf3(%rip),%xmm11 # 32bc0 <_sk_srcover_rgba_8888_sse2_lowp+0xa80>
+ .byte 68,15,40,29,11,45,1,0 // movaps 0x12d0b(%rip),%xmm11 # 32bf0 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
.byte 69,15,92,218 // subps %xmm10,%xmm11
.byte 65,15,40,193 // movaps %xmm9,%xmm0
.byte 102,69,15,56,20,211 // blendvps %xmm0,%xmm11,%xmm10
.byte 15,40,193 // movaps %xmm1,%xmm0
.byte 65,15,194,192,1 // cmpltps %xmm8,%xmm0
- .byte 68,15,40,13,229,44,1,0 // movaps 0x12ce5(%rip),%xmm9 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xa90>
+ .byte 68,15,40,13,253,44,1,0 // movaps 0x12cfd(%rip),%xmm9 # 32c00 <_sk_srcover_rgba_8888_sse2_lowp+0xaa4>
.byte 69,15,92,202 // subps %xmm10,%xmm9
.byte 102,69,15,56,20,209 // blendvps %xmm0,%xmm9,%xmm10
.byte 69,15,194,194,7 // cmpordps %xmm10,%xmm8
@@ -40391,7 +40403,7 @@ _sk_xy_to_2pt_conical_quadratic_max_sse41:
.byte 243,69,15,89,203 // mulss %xmm11,%xmm9
.byte 69,15,198,201,0 // shufps $0x0,%xmm9,%xmm9
.byte 68,15,88,200 // addps %xmm0,%xmm9
- .byte 68,15,89,13,158,50,1,0 // mulps 0x1329e(%rip),%xmm9 # 331f0 <_sk_srcover_rgba_8888_sse2_lowp+0x10b0>
+ .byte 68,15,89,13,198,50,1,0 // mulps 0x132c6(%rip),%xmm9 # 33230 <_sk_srcover_rgba_8888_sse2_lowp+0x10d4>
.byte 15,89,192 // mulps %xmm0,%xmm0
.byte 68,15,40,225 // movaps %xmm1,%xmm12
.byte 69,15,89,228 // mulps %xmm12,%xmm12
@@ -40399,7 +40411,7 @@ _sk_xy_to_2pt_conical_quadratic_max_sse41:
.byte 243,69,15,89,219 // mulss %xmm11,%xmm11
.byte 69,15,198,219,0 // shufps $0x0,%xmm11,%xmm11
.byte 69,15,92,227 // subps %xmm11,%xmm12
- .byte 68,15,89,21,137,50,1,0 // mulps 0x13289(%rip),%xmm10 # 33200 <_sk_srcover_rgba_8888_sse2_lowp+0x10c0>
+ .byte 68,15,89,21,177,50,1,0 // mulps 0x132b1(%rip),%xmm10 # 33240 <_sk_srcover_rgba_8888_sse2_lowp+0x10e4>
.byte 69,15,89,212 // mulps %xmm12,%xmm10
.byte 65,15,40,193 // movaps %xmm9,%xmm0
.byte 15,89,192 // mulps %xmm0,%xmm0
@@ -40408,8 +40420,8 @@ _sk_xy_to_2pt_conical_quadratic_max_sse41:
.byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
.byte 65,15,40,194 // movaps %xmm10,%xmm0
.byte 65,15,92,193 // subps %xmm9,%xmm0
- .byte 68,15,87,13,49,49,1,0 // xorps 0x13131(%rip),%xmm9 # 330d0 <_sk_srcover_rgba_8888_sse2_lowp+0xf90>
- .byte 68,15,89,5,25,44,1,0 // mulps 0x12c19(%rip),%xmm8 # 32bc0 <_sk_srcover_rgba_8888_sse2_lowp+0xa80>
+ .byte 68,15,87,13,89,49,1,0 // xorps 0x13159(%rip),%xmm9 # 33110 <_sk_srcover_rgba_8888_sse2_lowp+0xfb4>
+ .byte 68,15,89,5,49,44,1,0 // mulps 0x12c31(%rip),%xmm8 # 32bf0 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 69,15,92,202 // subps %xmm10,%xmm9
.byte 69,15,89,200 // mulps %xmm8,%xmm9
@@ -40430,7 +40442,7 @@ _sk_xy_to_2pt_conical_quadratic_min_sse41:
.byte 243,69,15,89,203 // mulss %xmm11,%xmm9
.byte 69,15,198,201,0 // shufps $0x0,%xmm9,%xmm9
.byte 68,15,88,200 // addps %xmm0,%xmm9
- .byte 68,15,89,13,0,50,1,0 // mulps 0x13200(%rip),%xmm9 # 331f0 <_sk_srcover_rgba_8888_sse2_lowp+0x10b0>
+ .byte 68,15,89,13,40,50,1,0 // mulps 0x13228(%rip),%xmm9 # 33230 <_sk_srcover_rgba_8888_sse2_lowp+0x10d4>
.byte 15,89,192 // mulps %xmm0,%xmm0
.byte 68,15,40,225 // movaps %xmm1,%xmm12
.byte 69,15,89,228 // mulps %xmm12,%xmm12
@@ -40438,7 +40450,7 @@ _sk_xy_to_2pt_conical_quadratic_min_sse41:
.byte 243,69,15,89,219 // mulss %xmm11,%xmm11
.byte 69,15,198,219,0 // shufps $0x0,%xmm11,%xmm11
.byte 69,15,92,227 // subps %xmm11,%xmm12
- .byte 68,15,89,21,235,49,1,0 // mulps 0x131eb(%rip),%xmm10 # 33200 <_sk_srcover_rgba_8888_sse2_lowp+0x10c0>
+ .byte 68,15,89,21,19,50,1,0 // mulps 0x13213(%rip),%xmm10 # 33240 <_sk_srcover_rgba_8888_sse2_lowp+0x10e4>
.byte 69,15,89,212 // mulps %xmm12,%xmm10
.byte 65,15,40,193 // movaps %xmm9,%xmm0
.byte 15,89,192 // mulps %xmm0,%xmm0
@@ -40447,8 +40459,8 @@ _sk_xy_to_2pt_conical_quadratic_min_sse41:
.byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
.byte 65,15,40,194 // movaps %xmm10,%xmm0
.byte 65,15,92,193 // subps %xmm9,%xmm0
- .byte 68,15,87,13,147,48,1,0 // xorps 0x13093(%rip),%xmm9 # 330d0 <_sk_srcover_rgba_8888_sse2_lowp+0xf90>
- .byte 68,15,89,5,123,43,1,0 // mulps 0x12b7b(%rip),%xmm8 # 32bc0 <_sk_srcover_rgba_8888_sse2_lowp+0xa80>
+ .byte 68,15,87,13,187,48,1,0 // xorps 0x130bb(%rip),%xmm9 # 33110 <_sk_srcover_rgba_8888_sse2_lowp+0xfb4>
+ .byte 68,15,89,5,147,43,1,0 // mulps 0x12b93(%rip),%xmm8 # 32bf0 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 69,15,92,202 // subps %xmm10,%xmm9
.byte 69,15,89,200 // mulps %xmm8,%xmm9
@@ -40466,7 +40478,7 @@ _sk_xy_to_2pt_conical_linear_sse41:
.byte 243,69,15,89,200 // mulss %xmm8,%xmm9
.byte 69,15,198,201,0 // shufps $0x0,%xmm9,%xmm9
.byte 68,15,88,200 // addps %xmm0,%xmm9
- .byte 68,15,89,13,115,49,1,0 // mulps 0x13173(%rip),%xmm9 # 331f0 <_sk_srcover_rgba_8888_sse2_lowp+0x10b0>
+ .byte 68,15,89,13,155,49,1,0 // mulps 0x1319b(%rip),%xmm9 # 33230 <_sk_srcover_rgba_8888_sse2_lowp+0x10d4>
.byte 15,89,192 // mulps %xmm0,%xmm0
.byte 68,15,40,209 // movaps %xmm1,%xmm10
.byte 69,15,89,210 // mulps %xmm10,%xmm10
@@ -40474,7 +40486,7 @@ _sk_xy_to_2pt_conical_linear_sse41:
.byte 243,69,15,89,192 // mulss %xmm8,%xmm8
.byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
.byte 65,15,92,192 // subps %xmm8,%xmm0
- .byte 15,87,5,47,48,1,0 // xorps 0x1302f(%rip),%xmm0 # 330d0 <_sk_srcover_rgba_8888_sse2_lowp+0xf90>
+ .byte 15,87,5,87,48,1,0 // xorps 0x13057(%rip),%xmm0 # 33110 <_sk_srcover_rgba_8888_sse2_lowp+0xfb4>
.byte 65,15,94,193 // divps %xmm9,%xmm0
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -40522,7 +40534,7 @@ HIDDEN _sk_save_xy_sse41
FUNCTION(_sk_save_xy_sse41)
_sk_save_xy_sse41:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 68,15,40,5,158,42,1,0 // movaps 0x12a9e(%rip),%xmm8 # 32bc0 <_sk_srcover_rgba_8888_sse2_lowp+0xa80>
+ .byte 68,15,40,5,182,42,1,0 // movaps 0x12ab6(%rip),%xmm8 # 32bf0 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
.byte 15,17,0 // movups %xmm0,(%rax)
.byte 68,15,40,200 // movaps %xmm0,%xmm9
.byte 69,15,88,200 // addps %xmm8,%xmm9
@@ -40566,8 +40578,8 @@ _sk_bilinear_nx_sse41:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,16,0 // movups (%rax),%xmm0
.byte 68,15,16,64,64 // movups 0x40(%rax),%xmm8
- .byte 15,88,5,96,48,1,0 // addps 0x13060(%rip),%xmm0 # 33210 <_sk_srcover_rgba_8888_sse2_lowp+0x10d0>
- .byte 68,15,40,13,24,42,1,0 // movaps 0x12a18(%rip),%xmm9 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xa90>
+ .byte 15,88,5,136,48,1,0 // addps 0x13088(%rip),%xmm0 # 33250 <_sk_srcover_rgba_8888_sse2_lowp+0x10f4>
+ .byte 68,15,40,13,48,42,1,0 // movaps 0x12a30(%rip),%xmm9 # 32c00 <_sk_srcover_rgba_8888_sse2_lowp+0xaa4>
.byte 69,15,92,200 // subps %xmm8,%xmm9
.byte 68,15,17,136,128,0,0,0 // movups %xmm9,0x80(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -40580,7 +40592,7 @@ _sk_bilinear_px_sse41:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,16,0 // movups (%rax),%xmm0
.byte 68,15,16,64,64 // movups 0x40(%rax),%xmm8
- .byte 15,88,5,231,41,1,0 // addps 0x129e7(%rip),%xmm0 # 32bc0 <_sk_srcover_rgba_8888_sse2_lowp+0xa80>
+ .byte 15,88,5,255,41,1,0 // addps 0x129ff(%rip),%xmm0 # 32bf0 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
.byte 68,15,17,128,128,0,0,0 // movups %xmm8,0x80(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -40592,8 +40604,8 @@ _sk_bilinear_ny_sse41:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,16,72,32 // movups 0x20(%rax),%xmm1
.byte 68,15,16,64,96 // movups 0x60(%rax),%xmm8
- .byte 15,88,13,25,48,1,0 // addps 0x13019(%rip),%xmm1 # 33210 <_sk_srcover_rgba_8888_sse2_lowp+0x10d0>
- .byte 68,15,40,13,209,41,1,0 // movaps 0x129d1(%rip),%xmm9 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xa90>
+ .byte 15,88,13,65,48,1,0 // addps 0x13041(%rip),%xmm1 # 33250 <_sk_srcover_rgba_8888_sse2_lowp+0x10f4>
+ .byte 68,15,40,13,233,41,1,0 // movaps 0x129e9(%rip),%xmm9 # 32c00 <_sk_srcover_rgba_8888_sse2_lowp+0xaa4>
.byte 69,15,92,200 // subps %xmm8,%xmm9
.byte 68,15,17,136,160,0,0,0 // movups %xmm9,0xa0(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -40606,7 +40618,7 @@ _sk_bilinear_py_sse41:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,16,72,32 // movups 0x20(%rax),%xmm1
.byte 68,15,16,64,96 // movups 0x60(%rax),%xmm8
- .byte 15,88,13,159,41,1,0 // addps 0x1299f(%rip),%xmm1 # 32bc0 <_sk_srcover_rgba_8888_sse2_lowp+0xa80>
+ .byte 15,88,13,183,41,1,0 // addps 0x129b7(%rip),%xmm1 # 32bf0 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
.byte 68,15,17,128,160,0,0,0 // movups %xmm8,0xa0(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -40618,13 +40630,13 @@ _sk_bicubic_n3x_sse41:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,16,0 // movups (%rax),%xmm0
.byte 68,15,16,64,64 // movups 0x40(%rax),%xmm8
- .byte 15,88,5,226,47,1,0 // addps 0x12fe2(%rip),%xmm0 # 33220 <_sk_srcover_rgba_8888_sse2_lowp+0x10e0>
- .byte 68,15,40,13,138,41,1,0 // movaps 0x1298a(%rip),%xmm9 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xa90>
+ .byte 15,88,5,10,48,1,0 // addps 0x1300a(%rip),%xmm0 # 33260 <_sk_srcover_rgba_8888_sse2_lowp+0x1104>
+ .byte 68,15,40,13,162,41,1,0 // movaps 0x129a2(%rip),%xmm9 # 32c00 <_sk_srcover_rgba_8888_sse2_lowp+0xaa4>
.byte 69,15,92,200 // subps %xmm8,%xmm9
.byte 69,15,40,193 // movaps %xmm9,%xmm8
.byte 69,15,89,192 // mulps %xmm8,%xmm8
- .byte 68,15,89,13,214,47,1,0 // mulps 0x12fd6(%rip),%xmm9 # 33230 <_sk_srcover_rgba_8888_sse2_lowp+0x10f0>
- .byte 68,15,88,13,94,43,1,0 // addps 0x12b5e(%rip),%xmm9 # 32dc0 <_sk_srcover_rgba_8888_sse2_lowp+0xc80>
+ .byte 68,15,89,13,254,47,1,0 // mulps 0x12ffe(%rip),%xmm9 # 33270 <_sk_srcover_rgba_8888_sse2_lowp+0x1114>
+ .byte 68,15,88,13,134,43,1,0 // addps 0x12b86(%rip),%xmm9 # 32e00 <_sk_srcover_rgba_8888_sse2_lowp+0xca4>
.byte 69,15,89,200 // mulps %xmm8,%xmm9
.byte 68,15,17,136,128,0,0,0 // movups %xmm9,0x80(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -40637,16 +40649,16 @@ _sk_bicubic_n1x_sse41:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,16,0 // movups (%rax),%xmm0
.byte 68,15,16,64,64 // movups 0x40(%rax),%xmm8
- .byte 15,88,5,141,47,1,0 // addps 0x12f8d(%rip),%xmm0 # 33210 <_sk_srcover_rgba_8888_sse2_lowp+0x10d0>
- .byte 68,15,40,13,69,41,1,0 // movaps 0x12945(%rip),%xmm9 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xa90>
+ .byte 15,88,5,181,47,1,0 // addps 0x12fb5(%rip),%xmm0 # 33250 <_sk_srcover_rgba_8888_sse2_lowp+0x10f4>
+ .byte 68,15,40,13,93,41,1,0 // movaps 0x1295d(%rip),%xmm9 # 32c00 <_sk_srcover_rgba_8888_sse2_lowp+0xaa4>
.byte 69,15,92,200 // subps %xmm8,%xmm9
- .byte 68,15,40,5,169,47,1,0 // movaps 0x12fa9(%rip),%xmm8 # 33240 <_sk_srcover_rgba_8888_sse2_lowp+0x1100>
+ .byte 68,15,40,5,209,47,1,0 // movaps 0x12fd1(%rip),%xmm8 # 33280 <_sk_srcover_rgba_8888_sse2_lowp+0x1124>
.byte 69,15,89,193 // mulps %xmm9,%xmm8
- .byte 68,15,88,5,173,47,1,0 // addps 0x12fad(%rip),%xmm8 # 33250 <_sk_srcover_rgba_8888_sse2_lowp+0x1110>
+ .byte 68,15,88,5,213,47,1,0 // addps 0x12fd5(%rip),%xmm8 # 33290 <_sk_srcover_rgba_8888_sse2_lowp+0x1134>
.byte 69,15,89,193 // mulps %xmm9,%xmm8
- .byte 68,15,88,5,17,41,1,0 // addps 0x12911(%rip),%xmm8 # 32bc0 <_sk_srcover_rgba_8888_sse2_lowp+0xa80>
+ .byte 68,15,88,5,41,41,1,0 // addps 0x12929(%rip),%xmm8 # 32bf0 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
.byte 69,15,89,193 // mulps %xmm9,%xmm8
- .byte 68,15,88,5,165,47,1,0 // addps 0x12fa5(%rip),%xmm8 # 33260 <_sk_srcover_rgba_8888_sse2_lowp+0x1120>
+ .byte 68,15,88,5,205,47,1,0 // addps 0x12fcd(%rip),%xmm8 # 332a0 <_sk_srcover_rgba_8888_sse2_lowp+0x1144>
.byte 68,15,17,128,128,0,0,0 // movups %xmm8,0x80(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -40656,17 +40668,17 @@ HIDDEN _sk_bicubic_p1x_sse41
FUNCTION(_sk_bicubic_p1x_sse41)
_sk_bicubic_p1x_sse41:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 68,15,40,5,239,40,1,0 // movaps 0x128ef(%rip),%xmm8 # 32bc0 <_sk_srcover_rgba_8888_sse2_lowp+0xa80>
+ .byte 68,15,40,5,7,41,1,0 // movaps 0x12907(%rip),%xmm8 # 32bf0 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
.byte 15,16,0 // movups (%rax),%xmm0
.byte 68,15,16,72,64 // movups 0x40(%rax),%xmm9
.byte 65,15,88,192 // addps %xmm8,%xmm0
- .byte 68,15,40,21,91,47,1,0 // movaps 0x12f5b(%rip),%xmm10 # 33240 <_sk_srcover_rgba_8888_sse2_lowp+0x1100>
+ .byte 68,15,40,21,131,47,1,0 // movaps 0x12f83(%rip),%xmm10 # 33280 <_sk_srcover_rgba_8888_sse2_lowp+0x1124>
.byte 69,15,89,209 // mulps %xmm9,%xmm10
- .byte 68,15,88,21,95,47,1,0 // addps 0x12f5f(%rip),%xmm10 # 33250 <_sk_srcover_rgba_8888_sse2_lowp+0x1110>
+ .byte 68,15,88,21,135,47,1,0 // addps 0x12f87(%rip),%xmm10 # 33290 <_sk_srcover_rgba_8888_sse2_lowp+0x1134>
.byte 69,15,89,209 // mulps %xmm9,%xmm10
.byte 69,15,88,208 // addps %xmm8,%xmm10
.byte 69,15,89,209 // mulps %xmm9,%xmm10
- .byte 68,15,88,21,91,47,1,0 // addps 0x12f5b(%rip),%xmm10 # 33260 <_sk_srcover_rgba_8888_sse2_lowp+0x1120>
+ .byte 68,15,88,21,131,47,1,0 // addps 0x12f83(%rip),%xmm10 # 332a0 <_sk_srcover_rgba_8888_sse2_lowp+0x1144>
.byte 68,15,17,144,128,0,0,0 // movups %xmm10,0x80(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -40678,11 +40690,11 @@ _sk_bicubic_p3x_sse41:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,16,0 // movups (%rax),%xmm0
.byte 68,15,16,64,64 // movups 0x40(%rax),%xmm8
- .byte 15,88,5,46,47,1,0 // addps 0x12f2e(%rip),%xmm0 # 33250 <_sk_srcover_rgba_8888_sse2_lowp+0x1110>
+ .byte 15,88,5,86,47,1,0 // addps 0x12f56(%rip),%xmm0 # 33290 <_sk_srcover_rgba_8888_sse2_lowp+0x1134>
.byte 69,15,40,200 // movaps %xmm8,%xmm9
.byte 69,15,89,201 // mulps %xmm9,%xmm9
- .byte 68,15,89,5,254,46,1,0 // mulps 0x12efe(%rip),%xmm8 # 33230 <_sk_srcover_rgba_8888_sse2_lowp+0x10f0>
- .byte 68,15,88,5,134,42,1,0 // addps 0x12a86(%rip),%xmm8 # 32dc0 <_sk_srcover_rgba_8888_sse2_lowp+0xc80>
+ .byte 68,15,89,5,38,47,1,0 // mulps 0x12f26(%rip),%xmm8 # 33270 <_sk_srcover_rgba_8888_sse2_lowp+0x1114>
+ .byte 68,15,88,5,174,42,1,0 // addps 0x12aae(%rip),%xmm8 # 32e00 <_sk_srcover_rgba_8888_sse2_lowp+0xca4>
.byte 69,15,89,193 // mulps %xmm9,%xmm8
.byte 68,15,17,128,128,0,0,0 // movups %xmm8,0x80(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -40695,13 +40707,13 @@ _sk_bicubic_n3y_sse41:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,16,72,32 // movups 0x20(%rax),%xmm1
.byte 68,15,16,64,96 // movups 0x60(%rax),%xmm8
- .byte 15,88,13,196,46,1,0 // addps 0x12ec4(%rip),%xmm1 # 33220 <_sk_srcover_rgba_8888_sse2_lowp+0x10e0>
- .byte 68,15,40,13,108,40,1,0 // movaps 0x1286c(%rip),%xmm9 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xa90>
+ .byte 15,88,13,236,46,1,0 // addps 0x12eec(%rip),%xmm1 # 33260 <_sk_srcover_rgba_8888_sse2_lowp+0x1104>
+ .byte 68,15,40,13,132,40,1,0 // movaps 0x12884(%rip),%xmm9 # 32c00 <_sk_srcover_rgba_8888_sse2_lowp+0xaa4>
.byte 69,15,92,200 // subps %xmm8,%xmm9
.byte 69,15,40,193 // movaps %xmm9,%xmm8
.byte 69,15,89,192 // mulps %xmm8,%xmm8
- .byte 68,15,89,13,184,46,1,0 // mulps 0x12eb8(%rip),%xmm9 # 33230 <_sk_srcover_rgba_8888_sse2_lowp+0x10f0>
- .byte 68,15,88,13,64,42,1,0 // addps 0x12a40(%rip),%xmm9 # 32dc0 <_sk_srcover_rgba_8888_sse2_lowp+0xc80>
+ .byte 68,15,89,13,224,46,1,0 // mulps 0x12ee0(%rip),%xmm9 # 33270 <_sk_srcover_rgba_8888_sse2_lowp+0x1114>
+ .byte 68,15,88,13,104,42,1,0 // addps 0x12a68(%rip),%xmm9 # 32e00 <_sk_srcover_rgba_8888_sse2_lowp+0xca4>
.byte 69,15,89,200 // mulps %xmm8,%xmm9
.byte 68,15,17,136,160,0,0,0 // movups %xmm9,0xa0(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -40714,16 +40726,16 @@ _sk_bicubic_n1y_sse41:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,16,72,32 // movups 0x20(%rax),%xmm1
.byte 68,15,16,64,96 // movups 0x60(%rax),%xmm8
- .byte 15,88,13,110,46,1,0 // addps 0x12e6e(%rip),%xmm1 # 33210 <_sk_srcover_rgba_8888_sse2_lowp+0x10d0>
- .byte 68,15,40,13,38,40,1,0 // movaps 0x12826(%rip),%xmm9 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xa90>
+ .byte 15,88,13,150,46,1,0 // addps 0x12e96(%rip),%xmm1 # 33250 <_sk_srcover_rgba_8888_sse2_lowp+0x10f4>
+ .byte 68,15,40,13,62,40,1,0 // movaps 0x1283e(%rip),%xmm9 # 32c00 <_sk_srcover_rgba_8888_sse2_lowp+0xaa4>
.byte 69,15,92,200 // subps %xmm8,%xmm9
- .byte 68,15,40,5,138,46,1,0 // movaps 0x12e8a(%rip),%xmm8 # 33240 <_sk_srcover_rgba_8888_sse2_lowp+0x1100>
+ .byte 68,15,40,5,178,46,1,0 // movaps 0x12eb2(%rip),%xmm8 # 33280 <_sk_srcover_rgba_8888_sse2_lowp+0x1124>
.byte 69,15,89,193 // mulps %xmm9,%xmm8
- .byte 68,15,88,5,142,46,1,0 // addps 0x12e8e(%rip),%xmm8 # 33250 <_sk_srcover_rgba_8888_sse2_lowp+0x1110>
+ .byte 68,15,88,5,182,46,1,0 // addps 0x12eb6(%rip),%xmm8 # 33290 <_sk_srcover_rgba_8888_sse2_lowp+0x1134>
.byte 69,15,89,193 // mulps %xmm9,%xmm8
- .byte 68,15,88,5,242,39,1,0 // addps 0x127f2(%rip),%xmm8 # 32bc0 <_sk_srcover_rgba_8888_sse2_lowp+0xa80>
+ .byte 68,15,88,5,10,40,1,0 // addps 0x1280a(%rip),%xmm8 # 32bf0 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
.byte 69,15,89,193 // mulps %xmm9,%xmm8
- .byte 68,15,88,5,134,46,1,0 // addps 0x12e86(%rip),%xmm8 # 33260 <_sk_srcover_rgba_8888_sse2_lowp+0x1120>
+ .byte 68,15,88,5,174,46,1,0 // addps 0x12eae(%rip),%xmm8 # 332a0 <_sk_srcover_rgba_8888_sse2_lowp+0x1144>
.byte 68,15,17,128,160,0,0,0 // movups %xmm8,0xa0(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -40733,17 +40745,17 @@ HIDDEN _sk_bicubic_p1y_sse41
FUNCTION(_sk_bicubic_p1y_sse41)
_sk_bicubic_p1y_sse41:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 68,15,40,5,208,39,1,0 // movaps 0x127d0(%rip),%xmm8 # 32bc0 <_sk_srcover_rgba_8888_sse2_lowp+0xa80>
+ .byte 68,15,40,5,232,39,1,0 // movaps 0x127e8(%rip),%xmm8 # 32bf0 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
.byte 15,16,72,32 // movups 0x20(%rax),%xmm1
.byte 68,15,16,72,96 // movups 0x60(%rax),%xmm9
.byte 65,15,88,200 // addps %xmm8,%xmm1
- .byte 68,15,40,21,59,46,1,0 // movaps 0x12e3b(%rip),%xmm10 # 33240 <_sk_srcover_rgba_8888_sse2_lowp+0x1100>
+ .byte 68,15,40,21,99,46,1,0 // movaps 0x12e63(%rip),%xmm10 # 33280 <_sk_srcover_rgba_8888_sse2_lowp+0x1124>
.byte 69,15,89,209 // mulps %xmm9,%xmm10
- .byte 68,15,88,21,63,46,1,0 // addps 0x12e3f(%rip),%xmm10 # 33250 <_sk_srcover_rgba_8888_sse2_lowp+0x1110>
+ .byte 68,15,88,21,103,46,1,0 // addps 0x12e67(%rip),%xmm10 # 33290 <_sk_srcover_rgba_8888_sse2_lowp+0x1134>
.byte 69,15,89,209 // mulps %xmm9,%xmm10
.byte 69,15,88,208 // addps %xmm8,%xmm10
.byte 69,15,89,209 // mulps %xmm9,%xmm10
- .byte 68,15,88,21,59,46,1,0 // addps 0x12e3b(%rip),%xmm10 # 33260 <_sk_srcover_rgba_8888_sse2_lowp+0x1120>
+ .byte 68,15,88,21,99,46,1,0 // addps 0x12e63(%rip),%xmm10 # 332a0 <_sk_srcover_rgba_8888_sse2_lowp+0x1144>
.byte 68,15,17,144,160,0,0,0 // movups %xmm10,0xa0(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -40755,11 +40767,11 @@ _sk_bicubic_p3y_sse41:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,16,72,32 // movups 0x20(%rax),%xmm1
.byte 68,15,16,64,96 // movups 0x60(%rax),%xmm8
- .byte 15,88,13,13,46,1,0 // addps 0x12e0d(%rip),%xmm1 # 33250 <_sk_srcover_rgba_8888_sse2_lowp+0x1110>
+ .byte 15,88,13,53,46,1,0 // addps 0x12e35(%rip),%xmm1 # 33290 <_sk_srcover_rgba_8888_sse2_lowp+0x1134>
.byte 69,15,40,200 // movaps %xmm8,%xmm9
.byte 69,15,89,201 // mulps %xmm9,%xmm9
- .byte 68,15,89,5,221,45,1,0 // mulps 0x12ddd(%rip),%xmm8 # 33230 <_sk_srcover_rgba_8888_sse2_lowp+0x10f0>
- .byte 68,15,88,5,101,41,1,0 // addps 0x12965(%rip),%xmm8 # 32dc0 <_sk_srcover_rgba_8888_sse2_lowp+0xc80>
+ .byte 68,15,89,5,5,46,1,0 // mulps 0x12e05(%rip),%xmm8 # 33270 <_sk_srcover_rgba_8888_sse2_lowp+0x1114>
+ .byte 68,15,88,5,141,41,1,0 // addps 0x1298d(%rip),%xmm8 # 32e00 <_sk_srcover_rgba_8888_sse2_lowp+0xca4>
.byte 69,15,89,193 // mulps %xmm9,%xmm8
.byte 68,15,17,128,160,0,0,0 // movups %xmm8,0xa0(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -40870,7 +40882,7 @@ _sk_clut_3D_sse41:
.byte 15,89,194 // mulps %xmm2,%xmm0
.byte 15,41,68,36,208 // movaps %xmm0,-0x30(%rsp)
.byte 243,15,91,240 // cvttps2dq %xmm0,%xmm6
- .byte 15,40,37,200,44,1,0 // movaps 0x12cc8(%rip),%xmm4 # 33270 <_sk_srcover_rgba_8888_sse2_lowp+0x1130>
+ .byte 15,40,37,240,44,1,0 // movaps 0x12cf0(%rip),%xmm4 # 332b0 <_sk_srcover_rgba_8888_sse2_lowp+0x1154>
.byte 15,88,196 // addps %xmm4,%xmm0
.byte 15,41,68,36,176 // movaps %xmm0,-0x50(%rsp)
.byte 102,65,15,110,208 // movd %r8d,%xmm2
@@ -40909,7 +40921,7 @@ _sk_clut_3D_sse41:
.byte 102,68,15,56,64,192 // pmulld %xmm0,%xmm8
.byte 102,65,15,111,216 // movdqa %xmm8,%xmm3
.byte 102,15,254,218 // paddd %xmm2,%xmm3
- .byte 102,68,15,111,37,31,44,1,0 // movdqa 0x12c1f(%rip),%xmm12 # 33280 <_sk_srcover_rgba_8888_sse2_lowp+0x1140>
+ .byte 102,68,15,111,37,71,44,1,0 // movdqa 0x12c47(%rip),%xmm12 # 332c0 <_sk_srcover_rgba_8888_sse2_lowp+0x1164>
.byte 102,65,15,56,64,220 // pmulld %xmm12,%xmm3
.byte 102,15,118,228 // pcmpeqd %xmm4,%xmm4
.byte 102,15,111,203 // movdqa %xmm3,%xmm1
@@ -40932,7 +40944,7 @@ _sk_clut_3D_sse41:
.byte 102,65,15,58,22,217,1 // pextrd $0x1,%xmm3,%r9d
.byte 102,65,15,58,22,218,2 // pextrd $0x2,%xmm3,%r10d
.byte 102,65,15,58,22,219,3 // pextrd $0x3,%xmm3,%r11d
- .byte 102,15,111,37,35,37,1,0 // movdqa 0x12523(%rip),%xmm4 # 32c00 <_sk_srcover_rgba_8888_sse2_lowp+0xac0>
+ .byte 102,15,111,37,59,37,1,0 // movdqa 0x1253b(%rip),%xmm4 # 32c30 <_sk_srcover_rgba_8888_sse2_lowp+0xad4>
.byte 102,15,254,220 // paddd %xmm4,%xmm3
.byte 102,15,111,252 // movdqa %xmm4,%xmm7
.byte 102,73,15,58,22,222,1 // pextrq $0x1,%xmm3,%r14
@@ -41105,7 +41117,7 @@ _sk_clut_3D_sse41:
.byte 102,68,15,254,202 // paddd %xmm2,%xmm9
.byte 102,65,15,111,192 // movdqa %xmm8,%xmm0
.byte 102,65,15,254,193 // paddd %xmm9,%xmm0
- .byte 102,15,111,45,46,40,1,0 // movdqa 0x1282e(%rip),%xmm5 # 33280 <_sk_srcover_rgba_8888_sse2_lowp+0x1140>
+ .byte 102,15,111,45,86,40,1,0 // movdqa 0x12856(%rip),%xmm5 # 332c0 <_sk_srcover_rgba_8888_sse2_lowp+0x1164>
.byte 102,15,56,64,197 // pmulld %xmm5,%xmm0
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
.byte 102,15,118,246 // pcmpeqd %xmm6,%xmm6
@@ -41126,7 +41138,7 @@ _sk_clut_3D_sse41:
.byte 102,65,15,58,22,193,1 // pextrd $0x1,%xmm0,%r9d
.byte 102,65,15,58,22,194,2 // pextrd $0x2,%xmm0,%r10d
.byte 102,65,15,58,22,195,3 // pextrd $0x3,%xmm0,%r11d
- .byte 102,15,111,61,63,33,1,0 // movdqa 0x1213f(%rip),%xmm7 # 32c00 <_sk_srcover_rgba_8888_sse2_lowp+0xac0>
+ .byte 102,15,111,61,87,33,1,0 // movdqa 0x12157(%rip),%xmm7 # 32c30 <_sk_srcover_rgba_8888_sse2_lowp+0xad4>
.byte 102,15,254,199 // paddd %xmm7,%xmm0
.byte 102,72,15,58,22,193,1 // pextrq $0x1,%xmm0,%rcx
.byte 102,72,15,126,195 // movq %xmm0,%rbx
@@ -41192,7 +41204,7 @@ _sk_clut_3D_sse41:
.byte 15,88,248 // addps %xmm0,%xmm7
.byte 102,68,15,254,210 // paddd %xmm2,%xmm10
.byte 102,69,15,254,194 // paddd %xmm10,%xmm8
- .byte 102,15,111,13,106,38,1,0 // movdqa 0x1266a(%rip),%xmm1 # 33280 <_sk_srcover_rgba_8888_sse2_lowp+0x1140>
+ .byte 102,15,111,13,146,38,1,0 // movdqa 0x12692(%rip),%xmm1 # 332c0 <_sk_srcover_rgba_8888_sse2_lowp+0x1164>
.byte 102,68,15,56,64,193 // pmulld %xmm1,%xmm8
.byte 102,65,15,111,192 // movdqa %xmm8,%xmm0
.byte 102,15,118,237 // pcmpeqd %xmm5,%xmm5
@@ -41213,7 +41225,7 @@ _sk_clut_3D_sse41:
.byte 102,69,15,58,22,193,1 // pextrd $0x1,%xmm8,%r9d
.byte 102,69,15,58,22,194,2 // pextrd $0x2,%xmm8,%r10d
.byte 102,69,15,58,22,195,3 // pextrd $0x3,%xmm8,%r11d
- .byte 102,15,111,21,117,31,1,0 // movdqa 0x11f75(%rip),%xmm2 # 32c00 <_sk_srcover_rgba_8888_sse2_lowp+0xac0>
+ .byte 102,15,111,21,141,31,1,0 // movdqa 0x11f8d(%rip),%xmm2 # 32c30 <_sk_srcover_rgba_8888_sse2_lowp+0xad4>
.byte 102,68,15,254,194 // paddd %xmm2,%xmm8
.byte 102,76,15,58,22,193,1 // pextrq $0x1,%xmm8,%rcx
.byte 102,76,15,126,195 // movq %xmm8,%rbx
@@ -41340,7 +41352,7 @@ _sk_clut_4D_sse41:
.byte 15,89,203 // mulps %xmm3,%xmm1
.byte 15,41,76,36,48 // movaps %xmm1,0x30(%rsp)
.byte 243,15,91,249 // cvttps2dq %xmm1,%xmm7
- .byte 15,40,29,200,35,1,0 // movaps 0x123c8(%rip),%xmm3 # 33270 <_sk_srcover_rgba_8888_sse2_lowp+0x1130>
+ .byte 15,40,29,240,35,1,0 // movaps 0x123f0(%rip),%xmm3 # 332b0 <_sk_srcover_rgba_8888_sse2_lowp+0x1154>
.byte 15,88,203 // addps %xmm3,%xmm1
.byte 15,41,76,36,160 // movaps %xmm1,-0x60(%rsp)
.byte 102,65,15,110,232 // movd %r8d,%xmm5
@@ -41397,7 +41409,7 @@ _sk_clut_4D_sse41:
.byte 102,68,15,56,64,253 // pmulld %xmm5,%xmm15
.byte 102,65,15,111,223 // movdqa %xmm15,%xmm3
.byte 102,15,254,217 // paddd %xmm1,%xmm3
- .byte 102,68,15,111,29,199,34,1,0 // movdqa 0x122c7(%rip),%xmm11 # 33280 <_sk_srcover_rgba_8888_sse2_lowp+0x1140>
+ .byte 102,68,15,111,29,239,34,1,0 // movdqa 0x122ef(%rip),%xmm11 # 332c0 <_sk_srcover_rgba_8888_sse2_lowp+0x1164>
.byte 102,65,15,56,64,219 // pmulld %xmm11,%xmm3
.byte 102,15,118,192 // pcmpeqd %xmm0,%xmm0
.byte 102,15,111,243 // movdqa %xmm3,%xmm6
@@ -41419,7 +41431,7 @@ _sk_clut_4D_sse41:
.byte 102,65,15,58,22,217,1 // pextrd $0x1,%xmm3,%r9d
.byte 102,65,15,58,22,218,2 // pextrd $0x2,%xmm3,%r10d
.byte 102,65,15,58,22,219,3 // pextrd $0x3,%xmm3,%r11d
- .byte 102,68,15,111,21,207,27,1,0 // movdqa 0x11bcf(%rip),%xmm10 # 32c00 <_sk_srcover_rgba_8888_sse2_lowp+0xac0>
+ .byte 102,68,15,111,21,231,27,1,0 // movdqa 0x11be7(%rip),%xmm10 # 32c30 <_sk_srcover_rgba_8888_sse2_lowp+0xad4>
.byte 102,65,15,254,218 // paddd %xmm10,%xmm3
.byte 102,73,15,58,22,222,1 // pextrq $0x1,%xmm3,%r14
.byte 102,72,15,126,219 // movq %xmm3,%rbx
@@ -41437,7 +41449,7 @@ _sk_clut_4D_sse41:
.byte 102,65,15,254,201 // paddd %xmm9,%xmm1
.byte 102,65,15,56,64,203 // pmulld %xmm11,%xmm1
.byte 102,15,111,217 // movdqa %xmm1,%xmm3
- .byte 102,15,250,29,253,33,1,0 // psubd 0x121fd(%rip),%xmm3 # 33290 <_sk_srcover_rgba_8888_sse2_lowp+0x1150>
+ .byte 102,15,250,29,37,34,1,0 // psubd 0x12225(%rip),%xmm3 # 332d0 <_sk_srcover_rgba_8888_sse2_lowp+0x1174>
.byte 102,73,15,58,22,222,1 // pextrq $0x1,%xmm3,%r14
.byte 102,72,15,126,219 // movq %xmm3,%rbx
.byte 65,137,223 // mov %ebx,%r15d
@@ -41492,7 +41504,7 @@ _sk_clut_4D_sse41:
.byte 102,65,15,254,199 // paddd %xmm15,%xmm0
.byte 102,65,15,56,64,195 // pmulld %xmm11,%xmm0
.byte 102,15,111,232 // movdqa %xmm0,%xmm5
- .byte 102,15,250,45,221,32,1,0 // psubd 0x120dd(%rip),%xmm5 # 33290 <_sk_srcover_rgba_8888_sse2_lowp+0x1150>
+ .byte 102,15,250,45,5,33,1,0 // psubd 0x12105(%rip),%xmm5 # 332d0 <_sk_srcover_rgba_8888_sse2_lowp+0x1174>
.byte 102,69,15,118,192 // pcmpeqd %xmm8,%xmm8
.byte 102,72,15,58,22,233,1 // pextrq $0x1,%xmm5,%rcx
.byte 102,72,15,126,237 // movq %xmm5,%rbp
@@ -41617,7 +41629,7 @@ _sk_clut_4D_sse41:
.byte 72,193,233,32 // shr $0x20,%rcx
.byte 243,15,16,36,136 // movss (%rax,%rcx,4),%xmm4
.byte 102,68,15,58,33,220,48 // insertps $0x30,%xmm4,%xmm11
- .byte 102,15,111,61,193,23,1,0 // movdqa 0x117c1(%rip),%xmm7 # 32c00 <_sk_srcover_rgba_8888_sse2_lowp+0xac0>
+ .byte 102,15,111,61,217,23,1,0 // movdqa 0x117d9(%rip),%xmm7 # 32c30 <_sk_srcover_rgba_8888_sse2_lowp+0xad4>
.byte 102,15,254,223 // paddd %xmm7,%xmm3
.byte 102,72,15,58,22,217,1 // pextrq $0x1,%xmm3,%rcx
.byte 102,72,15,126,221 // movq %xmm3,%rbp
@@ -41703,7 +41715,7 @@ _sk_clut_4D_sse41:
.byte 102,65,15,58,22,201,1 // pextrd $0x1,%xmm1,%r9d
.byte 102,65,15,58,22,202,2 // pextrd $0x2,%xmm1,%r10d
.byte 102,65,15,58,22,203,3 // pextrd $0x3,%xmm1,%r11d
- .byte 102,68,15,111,21,5,22,1,0 // movdqa 0x11605(%rip),%xmm10 # 32c00 <_sk_srcover_rgba_8888_sse2_lowp+0xac0>
+ .byte 102,68,15,111,21,29,22,1,0 // movdqa 0x1161d(%rip),%xmm10 # 32c30 <_sk_srcover_rgba_8888_sse2_lowp+0xad4>
.byte 102,65,15,254,202 // paddd %xmm10,%xmm1
.byte 102,72,15,58,22,201,1 // pextrq $0x1,%xmm1,%rcx
.byte 102,72,15,126,203 // movq %xmm1,%rbx
@@ -41799,7 +41811,7 @@ _sk_clut_4D_sse41:
.byte 102,15,111,124,36,192 // movdqa -0x40(%rsp),%xmm7
.byte 102,15,111,199 // movdqa %xmm7,%xmm0
.byte 102,15,254,195 // paddd %xmm3,%xmm0
- .byte 102,15,111,21,159,26,1,0 // movdqa 0x11a9f(%rip),%xmm2 # 33280 <_sk_srcover_rgba_8888_sse2_lowp+0x1140>
+ .byte 102,15,111,21,199,26,1,0 // movdqa 0x11ac7(%rip),%xmm2 # 332c0 <_sk_srcover_rgba_8888_sse2_lowp+0x1164>
.byte 102,15,56,64,194 // pmulld %xmm2,%xmm0
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
.byte 102,69,15,118,192 // pcmpeqd %xmm8,%xmm8
@@ -41820,7 +41832,7 @@ _sk_clut_4D_sse41:
.byte 102,65,15,58,22,193,1 // pextrd $0x1,%xmm0,%r9d
.byte 102,65,15,58,22,194,2 // pextrd $0x2,%xmm0,%r10d
.byte 102,65,15,58,22,195,3 // pextrd $0x3,%xmm0,%r11d
- .byte 102,15,111,37,174,19,1,0 // movdqa 0x113ae(%rip),%xmm4 # 32c00 <_sk_srcover_rgba_8888_sse2_lowp+0xac0>
+ .byte 102,15,111,37,198,19,1,0 // movdqa 0x113c6(%rip),%xmm4 # 32c30 <_sk_srcover_rgba_8888_sse2_lowp+0xad4>
.byte 102,15,254,196 // paddd %xmm4,%xmm0
.byte 102,72,15,58,22,193,1 // pextrq $0x1,%xmm0,%rcx
.byte 102,72,15,126,195 // movq %xmm0,%rbx
@@ -41892,7 +41904,7 @@ _sk_clut_4D_sse41:
.byte 102,68,15,111,226 // movdqa %xmm2,%xmm12
.byte 102,65,15,56,64,204 // pmulld %xmm12,%xmm1
.byte 102,15,111,209 // movdqa %xmm1,%xmm2
- .byte 102,15,250,21,202,24,1,0 // psubd 0x118ca(%rip),%xmm2 # 33290 <_sk_srcover_rgba_8888_sse2_lowp+0x1150>
+ .byte 102,15,250,21,242,24,1,0 // psubd 0x118f2(%rip),%xmm2 # 332d0 <_sk_srcover_rgba_8888_sse2_lowp+0x1174>
.byte 102,72,15,58,22,209,1 // pextrq $0x1,%xmm2,%rcx
.byte 102,72,15,126,213 // movq %xmm2,%rbp
.byte 137,235 // mov %ebp,%ebx
@@ -41926,7 +41938,7 @@ _sk_clut_4D_sse41:
.byte 102,65,15,111,249 // movdqa %xmm9,%xmm7
.byte 102,69,15,56,64,236 // pmulld %xmm12,%xmm13
.byte 102,65,15,111,205 // movdqa %xmm13,%xmm1
- .byte 102,15,250,13,22,24,1,0 // psubd 0x11816(%rip),%xmm1 # 33290 <_sk_srcover_rgba_8888_sse2_lowp+0x1150>
+ .byte 102,15,250,13,62,24,1,0 // psubd 0x1183e(%rip),%xmm1 # 332d0 <_sk_srcover_rgba_8888_sse2_lowp+0x1174>
.byte 102,72,15,58,22,201,1 // pextrq $0x1,%xmm1,%rcx
.byte 102,72,15,126,203 // movq %xmm1,%rbx
.byte 137,221 // mov %ebx,%ebp
@@ -41991,7 +42003,7 @@ _sk_clut_4D_sse41:
.byte 102,65,15,111,206 // movdqa %xmm14,%xmm1
.byte 102,15,111,108,36,192 // movdqa -0x40(%rsp),%xmm5
.byte 102,15,254,205 // paddd %xmm5,%xmm1
- .byte 102,15,111,37,173,22,1,0 // movdqa 0x116ad(%rip),%xmm4 # 33280 <_sk_srcover_rgba_8888_sse2_lowp+0x1140>
+ .byte 102,15,111,37,213,22,1,0 // movdqa 0x116d5(%rip),%xmm4 # 332c0 <_sk_srcover_rgba_8888_sse2_lowp+0x1164>
.byte 102,15,56,64,204 // pmulld %xmm4,%xmm1
.byte 102,15,111,193 // movdqa %xmm1,%xmm0
.byte 102,15,118,246 // pcmpeqd %xmm6,%xmm6
@@ -42012,7 +42024,7 @@ _sk_clut_4D_sse41:
.byte 102,65,15,58,22,201,1 // pextrd $0x1,%xmm1,%r9d
.byte 102,65,15,58,22,202,2 // pextrd $0x2,%xmm1,%r10d
.byte 102,65,15,58,22,203,3 // pextrd $0x3,%xmm1,%r11d
- .byte 102,15,111,29,190,15,1,0 // movdqa 0x10fbe(%rip),%xmm3 # 32c00 <_sk_srcover_rgba_8888_sse2_lowp+0xac0>
+ .byte 102,15,111,29,214,15,1,0 // movdqa 0x10fd6(%rip),%xmm3 # 32c30 <_sk_srcover_rgba_8888_sse2_lowp+0xad4>
.byte 102,15,254,203 // paddd %xmm3,%xmm1
.byte 102,72,15,58,22,201,1 // pextrq $0x1,%xmm1,%rcx
.byte 102,72,15,126,203 // movq %xmm1,%rbx
@@ -42084,7 +42096,7 @@ _sk_clut_4D_sse41:
.byte 102,15,56,64,239 // pmulld %xmm7,%xmm5
.byte 102,15,111,205 // movdqa %xmm5,%xmm1
.byte 102,15,111,193 // movdqa %xmm1,%xmm0
- .byte 102,15,250,5,222,20,1,0 // psubd 0x114de(%rip),%xmm0 # 33290 <_sk_srcover_rgba_8888_sse2_lowp+0x1150>
+ .byte 102,15,250,5,6,21,1,0 // psubd 0x11506(%rip),%xmm0 # 332d0 <_sk_srcover_rgba_8888_sse2_lowp+0x1174>
.byte 102,72,15,58,22,193,1 // pextrq $0x1,%xmm0,%rcx
.byte 102,72,15,126,197 // movq %xmm0,%rbp
.byte 137,235 // mov %ebp,%ebx
@@ -42102,7 +42114,7 @@ _sk_clut_4D_sse41:
.byte 102,65,15,58,22,193,1 // pextrd $0x1,%xmm0,%r9d
.byte 102,65,15,58,22,194,2 // pextrd $0x2,%xmm0,%r10d
.byte 102,65,15,58,22,195,3 // pextrd $0x3,%xmm0,%r11d
- .byte 102,15,254,5,236,13,1,0 // paddd 0x10dec(%rip),%xmm0 # 32c00 <_sk_srcover_rgba_8888_sse2_lowp+0xac0>
+ .byte 102,15,254,5,4,14,1,0 // paddd 0x10e04(%rip),%xmm0 # 32c30 <_sk_srcover_rgba_8888_sse2_lowp+0xad4>
.byte 102,72,15,58,22,193,1 // pextrq $0x1,%xmm0,%rcx
.byte 102,72,15,126,195 // movq %xmm0,%rbx
.byte 137,221 // mov %ebx,%ebp
@@ -42118,7 +42130,7 @@ _sk_clut_4D_sse41:
.byte 102,15,254,84,36,176 // paddd -0x50(%rsp),%xmm2
.byte 102,15,56,64,215 // pmulld %xmm7,%xmm2
.byte 102,15,111,194 // movdqa %xmm2,%xmm0
- .byte 102,15,250,5,37,20,1,0 // psubd 0x11425(%rip),%xmm0 # 33290 <_sk_srcover_rgba_8888_sse2_lowp+0x1150>
+ .byte 102,15,250,5,77,20,1,0 // psubd 0x1144d(%rip),%xmm0 # 332d0 <_sk_srcover_rgba_8888_sse2_lowp+0x1174>
.byte 102,72,15,58,22,193,1 // pextrq $0x1,%xmm0,%rcx
.byte 102,72,15,126,195 // movq %xmm0,%rbx
.byte 137,221 // mov %ebx,%ebp
@@ -42136,7 +42148,7 @@ _sk_clut_4D_sse41:
.byte 102,65,15,58,22,199,1 // pextrd $0x1,%xmm0,%r15d
.byte 102,65,15,58,22,196,2 // pextrd $0x2,%xmm0,%r12d
.byte 102,65,15,58,22,198,3 // pextrd $0x3,%xmm0,%r14d
- .byte 102,15,254,5,51,13,1,0 // paddd 0x10d33(%rip),%xmm0 # 32c00 <_sk_srcover_rgba_8888_sse2_lowp+0xac0>
+ .byte 102,15,254,5,75,13,1,0 // paddd 0x10d4b(%rip),%xmm0 # 32c30 <_sk_srcover_rgba_8888_sse2_lowp+0xad4>
.byte 102,72,15,58,22,195,1 // pextrq $0x1,%xmm0,%rbx
.byte 102,72,15,126,197 // movq %xmm0,%rbp
.byte 137,233 // mov %ebp,%ecx
@@ -42199,7 +42211,7 @@ _sk_clut_4D_sse41:
.byte 15,89,212 // mulps %xmm4,%xmm2
.byte 65,15,88,211 // addps %xmm11,%xmm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,240,11,1,0 // movaps 0x10bf0(%rip),%xmm3 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xa90>
+ .byte 15,40,29,8,12,1,0 // movaps 0x10c08(%rip),%xmm3 # 32c00 <_sk_srcover_rgba_8888_sse2_lowp+0xaa4>
.byte 72,139,76,36,248 // mov -0x8(%rsp),%rcx
.byte 15,40,100,36,64 // movaps 0x40(%rsp),%xmm4
.byte 15,40,108,36,80 // movaps 0x50(%rsp),%xmm5
@@ -42235,13 +42247,13 @@ _sk_start_pipeline_sse2:
.byte 73,137,246 // mov %rsi,%r14
.byte 72,137,77,192 // mov %rcx,-0x40(%rbp)
.byte 72,57,203 // cmp %rcx,%rbx
- .byte 15,131,131,0,0,0 // jae 220c2 <_sk_start_pipeline_sse2+0xb6>
+ .byte 15,131,131,0,0,0 // jae 220da <_sk_start_pipeline_sse2+0xb6>
.byte 72,139,69,208 // mov -0x30(%rbp),%rax
.byte 72,141,64,4 // lea 0x4(%rax),%rax
.byte 72,137,69,200 // mov %rax,-0x38(%rbp)
.byte 76,57,125,200 // cmp %r15,-0x38(%rbp)
.byte 72,139,85,208 // mov -0x30(%rbp),%rdx
- .byte 119,59 // ja 22090 <_sk_start_pipeline_sse2+0x84>
+ .byte 119,59 // ja 220a8 <_sk_start_pipeline_sse2+0x84>
.byte 76,139,101,208 // mov -0x30(%rbp),%r12
.byte 49,255 // xor %edi,%edi
.byte 15,87,192 // xorps %xmm0,%xmm0
@@ -42260,10 +42272,10 @@ _sk_start_pipeline_sse2:
.byte 73,131,196,8 // add $0x8,%r12
.byte 77,57,252 // cmp %r15,%r12
.byte 73,137,212 // mov %rdx,%r12
- .byte 118,201 // jbe 22059 <_sk_start_pipeline_sse2+0x4d>
+ .byte 118,201 // jbe 22071 <_sk_start_pipeline_sse2+0x4d>
.byte 76,137,255 // mov %r15,%rdi
.byte 72,41,215 // sub %rdx,%rdi
- .byte 116,33 // je 220b9 <_sk_start_pipeline_sse2+0xad>
+ .byte 116,33 // je 220d1 <_sk_start_pipeline_sse2+0xad>
.byte 15,87,192 // xorps %xmm0,%xmm0
.byte 15,87,201 // xorps %xmm1,%xmm1
.byte 15,87,210 // xorps %xmm2,%xmm2
@@ -42277,7 +42289,7 @@ _sk_start_pipeline_sse2:
.byte 65,255,213 // callq *%r13
.byte 72,255,195 // inc %rbx
.byte 72,59,93,192 // cmp -0x40(%rbp),%rbx
- .byte 117,137 // jne 2204b <_sk_start_pipeline_sse2+0x3f>
+ .byte 117,137 // jne 22063 <_sk_start_pipeline_sse2+0x3f>
.byte 72,131,196,24 // add $0x18,%rsp
.byte 91 // pop %rbx
.byte 65,92 // pop %r12
@@ -42300,13 +42312,13 @@ _sk_seed_shader_sse2:
.byte 102,15,110,194 // movd %edx,%xmm0
.byte 102,15,112,192,0 // pshufd $0x0,%xmm0,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,88,5,203,10,1,0 // addps 0x10acb(%rip),%xmm0 # 32bb0 <_sk_srcover_rgba_8888_sse2_lowp+0xa70>
+ .byte 15,88,5,227,10,1,0 // addps 0x10ae3(%rip),%xmm0 # 32be0 <_sk_srcover_rgba_8888_sse2_lowp+0xa84>
.byte 102,15,110,201 // movd %ecx,%xmm1
.byte 102,15,112,201,0 // pshufd $0x0,%xmm1,%xmm1
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
- .byte 15,88,13,200,10,1,0 // addps 0x10ac8(%rip),%xmm1 # 32bc0 <_sk_srcover_rgba_8888_sse2_lowp+0xa80>
+ .byte 15,88,13,224,10,1,0 // addps 0x10ae0(%rip),%xmm1 # 32bf0 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,21,207,10,1,0 // movaps 0x10acf(%rip),%xmm2 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xa90>
+ .byte 15,40,21,231,10,1,0 // movaps 0x10ae7(%rip),%xmm2 # 32c00 <_sk_srcover_rgba_8888_sse2_lowp+0xaa4>
.byte 15,87,219 // xorps %xmm3,%xmm3
.byte 15,87,228 // xorps %xmm4,%xmm4
.byte 15,87,237 // xorps %xmm5,%xmm5
@@ -42321,18 +42333,18 @@ _sk_dither_sse2:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 102,68,15,110,194 // movd %edx,%xmm8
.byte 102,69,15,112,192,0 // pshufd $0x0,%xmm8,%xmm8
- .byte 102,68,15,254,5,104,10,1,0 // paddd 0x10a68(%rip),%xmm8 # 32b90 <_sk_srcover_rgba_8888_sse2_lowp+0xa50>
+ .byte 102,68,15,254,5,128,10,1,0 // paddd 0x10a80(%rip),%xmm8 # 32bc0 <_sk_srcover_rgba_8888_sse2_lowp+0xa64>
.byte 102,68,15,110,201 // movd %ecx,%xmm9
.byte 102,69,15,112,201,0 // pshufd $0x0,%xmm9,%xmm9
.byte 102,69,15,239,200 // pxor %xmm8,%xmm9
- .byte 102,68,15,111,21,159,10,1,0 // movdqa 0x10a9f(%rip),%xmm10 # 32be0 <_sk_srcover_rgba_8888_sse2_lowp+0xaa0>
+ .byte 102,68,15,111,21,183,10,1,0 // movdqa 0x10ab7(%rip),%xmm10 # 32c10 <_sk_srcover_rgba_8888_sse2_lowp+0xab4>
.byte 102,69,15,111,217 // movdqa %xmm9,%xmm11
.byte 102,69,15,219,218 // pand %xmm10,%xmm11
.byte 102,65,15,114,243,5 // pslld $0x5,%xmm11
.byte 102,69,15,219,208 // pand %xmm8,%xmm10
.byte 102,65,15,114,242,4 // pslld $0x4,%xmm10
- .byte 102,68,15,111,37,139,10,1,0 // movdqa 0x10a8b(%rip),%xmm12 # 32bf0 <_sk_srcover_rgba_8888_sse2_lowp+0xab0>
- .byte 102,68,15,111,45,146,10,1,0 // movdqa 0x10a92(%rip),%xmm13 # 32c00 <_sk_srcover_rgba_8888_sse2_lowp+0xac0>
+ .byte 102,68,15,111,37,163,10,1,0 // movdqa 0x10aa3(%rip),%xmm12 # 32c20 <_sk_srcover_rgba_8888_sse2_lowp+0xac4>
+ .byte 102,68,15,111,45,170,10,1,0 // movdqa 0x10aaa(%rip),%xmm13 # 32c30 <_sk_srcover_rgba_8888_sse2_lowp+0xad4>
.byte 102,69,15,111,241 // movdqa %xmm9,%xmm14
.byte 102,69,15,219,245 // pand %xmm13,%xmm14
.byte 102,65,15,114,246,2 // pslld $0x2,%xmm14
@@ -42348,8 +42360,8 @@ _sk_dither_sse2:
.byte 102,69,15,235,198 // por %xmm14,%xmm8
.byte 102,69,15,235,193 // por %xmm9,%xmm8
.byte 69,15,91,192 // cvtdq2ps %xmm8,%xmm8
- .byte 68,15,89,5,77,10,1,0 // mulps 0x10a4d(%rip),%xmm8 # 32c10 <_sk_srcover_rgba_8888_sse2_lowp+0xad0>
- .byte 68,15,88,5,85,10,1,0 // addps 0x10a55(%rip),%xmm8 # 32c20 <_sk_srcover_rgba_8888_sse2_lowp+0xae0>
+ .byte 68,15,89,5,101,10,1,0 // mulps 0x10a65(%rip),%xmm8 # 32c40 <_sk_srcover_rgba_8888_sse2_lowp+0xae4>
+ .byte 68,15,88,5,109,10,1,0 // addps 0x10a6d(%rip),%xmm8 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xaf4>
.byte 243,68,15,16,16 // movss (%rax),%xmm10
.byte 69,15,198,210,0 // shufps $0x0,%xmm10,%xmm10
.byte 69,15,89,208 // mulps %xmm8,%xmm10
@@ -42391,7 +42403,7 @@ HIDDEN _sk_black_color_sse2
FUNCTION(_sk_black_color_sse2)
_sk_black_color_sse2:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,139,9,1,0 // movaps 0x1098b(%rip),%xmm3 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xa90>
+ .byte 15,40,29,163,9,1,0 // movaps 0x109a3(%rip),%xmm3 # 32c00 <_sk_srcover_rgba_8888_sse2_lowp+0xaa4>
.byte 15,87,192 // xorps %xmm0,%xmm0
.byte 15,87,201 // xorps %xmm1,%xmm1
.byte 15,87,210 // xorps %xmm2,%xmm2
@@ -42402,7 +42414,7 @@ HIDDEN _sk_white_color_sse2
FUNCTION(_sk_white_color_sse2)
_sk_white_color_sse2:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,5,119,9,1,0 // movaps 0x10977(%rip),%xmm0 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xa90>
+ .byte 15,40,5,143,9,1,0 // movaps 0x1098f(%rip),%xmm0 # 32c00 <_sk_srcover_rgba_8888_sse2_lowp+0xaa4>
.byte 15,40,200 // movaps %xmm0,%xmm1
.byte 15,40,208 // movaps %xmm0,%xmm2
.byte 15,40,216 // movaps %xmm0,%xmm3
@@ -42448,7 +42460,7 @@ HIDDEN _sk_srcatop_sse2
FUNCTION(_sk_srcatop_sse2)
_sk_srcatop_sse2:
.byte 15,89,199 // mulps %xmm7,%xmm0
- .byte 68,15,40,5,39,9,1,0 // movaps 0x10927(%rip),%xmm8 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xa90>
+ .byte 68,15,40,5,63,9,1,0 // movaps 0x1093f(%rip),%xmm8 # 32c00 <_sk_srcover_rgba_8888_sse2_lowp+0xaa4>
.byte 68,15,92,195 // subps %xmm3,%xmm8
.byte 69,15,40,200 // movaps %xmm8,%xmm9
.byte 68,15,89,204 // mulps %xmm4,%xmm9
@@ -42473,7 +42485,7 @@ FUNCTION(_sk_dstatop_sse2)
_sk_dstatop_sse2:
.byte 68,15,40,195 // movaps %xmm3,%xmm8
.byte 68,15,89,196 // mulps %xmm4,%xmm8
- .byte 68,15,40,13,218,8,1,0 // movaps 0x108da(%rip),%xmm9 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xa90>
+ .byte 68,15,40,13,242,8,1,0 // movaps 0x108f2(%rip),%xmm9 # 32c00 <_sk_srcover_rgba_8888_sse2_lowp+0xaa4>
.byte 68,15,92,207 // subps %xmm7,%xmm9
.byte 65,15,89,193 // mulps %xmm9,%xmm0
.byte 65,15,88,192 // addps %xmm8,%xmm0
@@ -42520,7 +42532,7 @@ HIDDEN _sk_srcout_sse2
.globl _sk_srcout_sse2
FUNCTION(_sk_srcout_sse2)
_sk_srcout_sse2:
- .byte 68,15,40,5,110,8,1,0 // movaps 0x1086e(%rip),%xmm8 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xa90>
+ .byte 68,15,40,5,134,8,1,0 // movaps 0x10886(%rip),%xmm8 # 32c00 <_sk_srcover_rgba_8888_sse2_lowp+0xaa4>
.byte 68,15,92,199 // subps %xmm7,%xmm8
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 65,15,89,200 // mulps %xmm8,%xmm1
@@ -42533,7 +42545,7 @@ HIDDEN _sk_dstout_sse2
.globl _sk_dstout_sse2
FUNCTION(_sk_dstout_sse2)
_sk_dstout_sse2:
- .byte 68,15,40,5,78,8,1,0 // movaps 0x1084e(%rip),%xmm8 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xa90>
+ .byte 68,15,40,5,102,8,1,0 // movaps 0x10866(%rip),%xmm8 # 32c00 <_sk_srcover_rgba_8888_sse2_lowp+0xaa4>
.byte 68,15,92,195 // subps %xmm3,%xmm8
.byte 65,15,40,192 // movaps %xmm8,%xmm0
.byte 15,89,196 // mulps %xmm4,%xmm0
@@ -42550,7 +42562,7 @@ HIDDEN _sk_srcover_sse2
.globl _sk_srcover_sse2
FUNCTION(_sk_srcover_sse2)
_sk_srcover_sse2:
- .byte 68,15,40,5,33,8,1,0 // movaps 0x10821(%rip),%xmm8 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xa90>
+ .byte 68,15,40,5,57,8,1,0 // movaps 0x10839(%rip),%xmm8 # 32c00 <_sk_srcover_rgba_8888_sse2_lowp+0xaa4>
.byte 68,15,92,195 // subps %xmm3,%xmm8
.byte 69,15,40,200 // movaps %xmm8,%xmm9
.byte 68,15,89,204 // mulps %xmm4,%xmm9
@@ -42570,7 +42582,7 @@ HIDDEN _sk_dstover_sse2
.globl _sk_dstover_sse2
FUNCTION(_sk_dstover_sse2)
_sk_dstover_sse2:
- .byte 68,15,40,5,229,7,1,0 // movaps 0x107e5(%rip),%xmm8 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xa90>
+ .byte 68,15,40,5,253,7,1,0 // movaps 0x107fd(%rip),%xmm8 # 32c00 <_sk_srcover_rgba_8888_sse2_lowp+0xaa4>
.byte 68,15,92,199 // subps %xmm7,%xmm8
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 15,88,196 // addps %xmm4,%xmm0
@@ -42598,7 +42610,7 @@ HIDDEN _sk_multiply_sse2
.globl _sk_multiply_sse2
FUNCTION(_sk_multiply_sse2)
_sk_multiply_sse2:
- .byte 68,15,40,5,169,7,1,0 // movaps 0x107a9(%rip),%xmm8 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xa90>
+ .byte 68,15,40,5,193,7,1,0 // movaps 0x107c1(%rip),%xmm8 # 32c00 <_sk_srcover_rgba_8888_sse2_lowp+0xaa4>
.byte 69,15,40,200 // movaps %xmm8,%xmm9
.byte 68,15,92,207 // subps %xmm7,%xmm9
.byte 69,15,40,209 // movaps %xmm9,%xmm10
@@ -42636,7 +42648,7 @@ HIDDEN _sk_plus__sse2
FUNCTION(_sk_plus__sse2)
_sk_plus__sse2:
.byte 15,88,196 // addps %xmm4,%xmm0
- .byte 68,15,40,5,42,7,1,0 // movaps 0x1072a(%rip),%xmm8 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xa90>
+ .byte 68,15,40,5,66,7,1,0 // movaps 0x10742(%rip),%xmm8 # 32c00 <_sk_srcover_rgba_8888_sse2_lowp+0xaa4>
.byte 65,15,93,192 // minps %xmm8,%xmm0
.byte 15,88,205 // addps %xmm5,%xmm1
.byte 65,15,93,200 // minps %xmm8,%xmm1
@@ -42678,7 +42690,7 @@ HIDDEN _sk_xor__sse2
FUNCTION(_sk_xor__sse2)
_sk_xor__sse2:
.byte 68,15,40,195 // movaps %xmm3,%xmm8
- .byte 15,40,29,182,6,1,0 // movaps 0x106b6(%rip),%xmm3 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xa90>
+ .byte 15,40,29,206,6,1,0 // movaps 0x106ce(%rip),%xmm3 # 32c00 <_sk_srcover_rgba_8888_sse2_lowp+0xaa4>
.byte 68,15,40,203 // movaps %xmm3,%xmm9
.byte 68,15,92,207 // subps %xmm7,%xmm9
.byte 65,15,89,193 // mulps %xmm9,%xmm0
@@ -42726,7 +42738,7 @@ _sk_darken_sse2:
.byte 68,15,89,206 // mulps %xmm6,%xmm9
.byte 65,15,95,209 // maxps %xmm9,%xmm2
.byte 68,15,92,194 // subps %xmm2,%xmm8
- .byte 15,40,21,17,6,1,0 // movaps 0x10611(%rip),%xmm2 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xa90>
+ .byte 15,40,21,41,6,1,0 // movaps 0x10629(%rip),%xmm2 # 32c00 <_sk_srcover_rgba_8888_sse2_lowp+0xaa4>
.byte 15,92,211 // subps %xmm3,%xmm2
.byte 15,89,215 // mulps %xmm7,%xmm2
.byte 15,88,218 // addps %xmm2,%xmm3
@@ -42760,7 +42772,7 @@ _sk_lighten_sse2:
.byte 68,15,89,206 // mulps %xmm6,%xmm9
.byte 65,15,93,209 // minps %xmm9,%xmm2
.byte 68,15,92,194 // subps %xmm2,%xmm8
- .byte 15,40,21,166,5,1,0 // movaps 0x105a6(%rip),%xmm2 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xa90>
+ .byte 15,40,21,190,5,1,0 // movaps 0x105be(%rip),%xmm2 # 32c00 <_sk_srcover_rgba_8888_sse2_lowp+0xaa4>
.byte 15,92,211 // subps %xmm3,%xmm2
.byte 15,89,215 // mulps %xmm7,%xmm2
.byte 15,88,218 // addps %xmm2,%xmm3
@@ -42797,7 +42809,7 @@ _sk_difference_sse2:
.byte 65,15,93,209 // minps %xmm9,%xmm2
.byte 15,88,210 // addps %xmm2,%xmm2
.byte 68,15,92,194 // subps %xmm2,%xmm8
- .byte 15,40,21,48,5,1,0 // movaps 0x10530(%rip),%xmm2 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xa90>
+ .byte 15,40,21,72,5,1,0 // movaps 0x10548(%rip),%xmm2 # 32c00 <_sk_srcover_rgba_8888_sse2_lowp+0xaa4>
.byte 15,92,211 // subps %xmm3,%xmm2
.byte 15,89,215 // mulps %xmm7,%xmm2
.byte 15,88,218 // addps %xmm2,%xmm3
@@ -42825,7 +42837,7 @@ _sk_exclusion_sse2:
.byte 15,89,214 // mulps %xmm6,%xmm2
.byte 15,88,210 // addps %xmm2,%xmm2
.byte 68,15,92,194 // subps %xmm2,%xmm8
- .byte 15,40,21,224,4,1,0 // movaps 0x104e0(%rip),%xmm2 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xa90>
+ .byte 15,40,21,248,4,1,0 // movaps 0x104f8(%rip),%xmm2 # 32c00 <_sk_srcover_rgba_8888_sse2_lowp+0xaa4>
.byte 15,92,211 // subps %xmm3,%xmm2
.byte 15,89,215 // mulps %xmm7,%xmm2
.byte 15,88,218 // addps %xmm2,%xmm3
@@ -42838,7 +42850,7 @@ HIDDEN _sk_colorburn_sse2
FUNCTION(_sk_colorburn_sse2)
_sk_colorburn_sse2:
.byte 68,15,40,192 // movaps %xmm0,%xmm8
- .byte 68,15,40,13,195,4,1,0 // movaps 0x104c3(%rip),%xmm9 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xa90>
+ .byte 68,15,40,13,219,4,1,0 // movaps 0x104db(%rip),%xmm9 # 32c00 <_sk_srcover_rgba_8888_sse2_lowp+0xaa4>
.byte 69,15,40,209 // movaps %xmm9,%xmm10
.byte 68,15,92,215 // subps %xmm7,%xmm10
.byte 69,15,40,218 // movaps %xmm10,%xmm11
@@ -42933,7 +42945,7 @@ HIDDEN _sk_colordodge_sse2
FUNCTION(_sk_colordodge_sse2)
_sk_colordodge_sse2:
.byte 68,15,40,200 // movaps %xmm0,%xmm9
- .byte 68,15,40,21,107,3,1,0 // movaps 0x1036b(%rip),%xmm10 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xa90>
+ .byte 68,15,40,21,131,3,1,0 // movaps 0x10383(%rip),%xmm10 # 32c00 <_sk_srcover_rgba_8888_sse2_lowp+0xaa4>
.byte 69,15,40,218 // movaps %xmm10,%xmm11
.byte 68,15,92,223 // subps %xmm7,%xmm11
.byte 65,15,40,195 // movaps %xmm11,%xmm0
@@ -43025,7 +43037,7 @@ _sk_hardlight_sse2:
.byte 15,41,116,36,232 // movaps %xmm6,-0x18(%rsp)
.byte 15,40,245 // movaps %xmm5,%xmm6
.byte 15,40,236 // movaps %xmm4,%xmm5
- .byte 68,15,40,29,20,2,1,0 // movaps 0x10214(%rip),%xmm11 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xa90>
+ .byte 68,15,40,29,44,2,1,0 // movaps 0x1022c(%rip),%xmm11 # 32c00 <_sk_srcover_rgba_8888_sse2_lowp+0xaa4>
.byte 69,15,40,211 // movaps %xmm11,%xmm10
.byte 68,15,92,215 // subps %xmm7,%xmm10
.byte 69,15,40,194 // movaps %xmm10,%xmm8
@@ -43113,7 +43125,7 @@ FUNCTION(_sk_overlay_sse2)
_sk_overlay_sse2:
.byte 68,15,40,193 // movaps %xmm1,%xmm8
.byte 68,15,40,232 // movaps %xmm0,%xmm13
- .byte 68,15,40,13,210,0,1,0 // movaps 0x100d2(%rip),%xmm9 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xa90>
+ .byte 68,15,40,13,234,0,1,0 // movaps 0x100ea(%rip),%xmm9 # 32c00 <_sk_srcover_rgba_8888_sse2_lowp+0xaa4>
.byte 69,15,40,209 // movaps %xmm9,%xmm10
.byte 68,15,92,215 // subps %xmm7,%xmm10
.byte 69,15,40,218 // movaps %xmm10,%xmm11
@@ -43204,7 +43216,7 @@ _sk_softlight_sse2:
.byte 68,15,40,213 // movaps %xmm5,%xmm10
.byte 68,15,94,215 // divps %xmm7,%xmm10
.byte 69,15,84,212 // andps %xmm12,%xmm10
- .byte 68,15,40,13,127,255,0,0 // movaps 0xff7f(%rip),%xmm9 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xa90>
+ .byte 68,15,40,13,151,255,0,0 // movaps 0xff97(%rip),%xmm9 # 32c00 <_sk_srcover_rgba_8888_sse2_lowp+0xaa4>
.byte 69,15,40,249 // movaps %xmm9,%xmm15
.byte 69,15,92,250 // subps %xmm10,%xmm15
.byte 69,15,40,218 // movaps %xmm10,%xmm11
@@ -43217,10 +43229,10 @@ _sk_softlight_sse2:
.byte 65,15,40,194 // movaps %xmm10,%xmm0
.byte 15,89,192 // mulps %xmm0,%xmm0
.byte 65,15,88,194 // addps %xmm10,%xmm0
- .byte 68,15,40,53,169,255,0,0 // movaps 0xffa9(%rip),%xmm14 # 32c30 <_sk_srcover_rgba_8888_sse2_lowp+0xaf0>
+ .byte 68,15,40,53,193,255,0,0 // movaps 0xffc1(%rip),%xmm14 # 32c60 <_sk_srcover_rgba_8888_sse2_lowp+0xb04>
.byte 69,15,88,222 // addps %xmm14,%xmm11
.byte 68,15,89,216 // mulps %xmm0,%xmm11
- .byte 68,15,40,21,169,255,0,0 // movaps 0xffa9(%rip),%xmm10 # 32c40 <_sk_srcover_rgba_8888_sse2_lowp+0xb00>
+ .byte 68,15,40,21,193,255,0,0 // movaps 0xffc1(%rip),%xmm10 # 32c70 <_sk_srcover_rgba_8888_sse2_lowp+0xb14>
.byte 69,15,89,234 // mulps %xmm10,%xmm13
.byte 69,15,88,235 // addps %xmm11,%xmm13
.byte 15,88,228 // addps %xmm4,%xmm4
@@ -43365,7 +43377,7 @@ _sk_hue_sse2:
.byte 68,15,40,209 // movaps %xmm1,%xmm10
.byte 68,15,40,225 // movaps %xmm1,%xmm12
.byte 68,15,89,211 // mulps %xmm3,%xmm10
- .byte 68,15,40,5,60,253,0,0 // movaps 0xfd3c(%rip),%xmm8 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xa90>
+ .byte 68,15,40,5,84,253,0,0 // movaps 0xfd54(%rip),%xmm8 # 32c00 <_sk_srcover_rgba_8888_sse2_lowp+0xaa4>
.byte 69,15,40,216 // movaps %xmm8,%xmm11
.byte 15,40,207 // movaps %xmm7,%xmm1
.byte 68,15,92,217 // subps %xmm1,%xmm11
@@ -43413,12 +43425,12 @@ _sk_hue_sse2:
.byte 69,15,84,206 // andps %xmm14,%xmm9
.byte 69,15,84,214 // andps %xmm14,%xmm10
.byte 65,15,84,214 // andps %xmm14,%xmm2
- .byte 68,15,40,61,249,252,0,0 // movaps 0xfcf9(%rip),%xmm15 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xb10>
+ .byte 68,15,40,61,17,253,0,0 // movaps 0xfd11(%rip),%xmm15 # 32c80 <_sk_srcover_rgba_8888_sse2_lowp+0xb24>
.byte 65,15,89,231 // mulps %xmm15,%xmm4
- .byte 15,40,5,254,252,0,0 // movaps 0xfcfe(%rip),%xmm0 # 32c60 <_sk_srcover_rgba_8888_sse2_lowp+0xb20>
+ .byte 15,40,5,22,253,0,0 // movaps 0xfd16(%rip),%xmm0 # 32c90 <_sk_srcover_rgba_8888_sse2_lowp+0xb34>
.byte 15,89,240 // mulps %xmm0,%xmm6
.byte 15,88,244 // addps %xmm4,%xmm6
- .byte 68,15,40,53,0,253,0,0 // movaps 0xfd00(%rip),%xmm14 # 32c70 <_sk_srcover_rgba_8888_sse2_lowp+0xb30>
+ .byte 68,15,40,53,24,253,0,0 // movaps 0xfd18(%rip),%xmm14 # 32ca0 <_sk_srcover_rgba_8888_sse2_lowp+0xb44>
.byte 68,15,40,239 // movaps %xmm7,%xmm13
.byte 69,15,89,238 // mulps %xmm14,%xmm13
.byte 68,15,88,238 // addps %xmm6,%xmm13
@@ -43596,14 +43608,14 @@ _sk_saturation_sse2:
.byte 68,15,84,211 // andps %xmm3,%xmm10
.byte 68,15,84,203 // andps %xmm3,%xmm9
.byte 15,84,195 // andps %xmm3,%xmm0
- .byte 68,15,40,5,82,250,0,0 // movaps 0xfa52(%rip),%xmm8 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xb10>
+ .byte 68,15,40,5,106,250,0,0 // movaps 0xfa6a(%rip),%xmm8 # 32c80 <_sk_srcover_rgba_8888_sse2_lowp+0xb24>
.byte 15,40,214 // movaps %xmm6,%xmm2
.byte 65,15,89,208 // mulps %xmm8,%xmm2
- .byte 15,40,13,84,250,0,0 // movaps 0xfa54(%rip),%xmm1 # 32c60 <_sk_srcover_rgba_8888_sse2_lowp+0xb20>
+ .byte 15,40,13,108,250,0,0 // movaps 0xfa6c(%rip),%xmm1 # 32c90 <_sk_srcover_rgba_8888_sse2_lowp+0xb34>
.byte 15,40,221 // movaps %xmm5,%xmm3
.byte 15,89,217 // mulps %xmm1,%xmm3
.byte 15,88,218 // addps %xmm2,%xmm3
- .byte 68,15,40,37,83,250,0,0 // movaps 0xfa53(%rip),%xmm12 # 32c70 <_sk_srcover_rgba_8888_sse2_lowp+0xb30>
+ .byte 68,15,40,37,107,250,0,0 // movaps 0xfa6b(%rip),%xmm12 # 32ca0 <_sk_srcover_rgba_8888_sse2_lowp+0xb44>
.byte 69,15,89,236 // mulps %xmm12,%xmm13
.byte 68,15,88,235 // addps %xmm3,%xmm13
.byte 65,15,40,210 // movaps %xmm10,%xmm2
@@ -43648,7 +43660,7 @@ _sk_saturation_sse2:
.byte 15,40,223 // movaps %xmm7,%xmm3
.byte 15,40,236 // movaps %xmm4,%xmm5
.byte 15,89,221 // mulps %xmm5,%xmm3
- .byte 68,15,40,5,8,249,0,0 // movaps 0xf908(%rip),%xmm8 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xa90>
+ .byte 68,15,40,5,32,249,0,0 // movaps 0xf920(%rip),%xmm8 # 32c00 <_sk_srcover_rgba_8888_sse2_lowp+0xaa4>
.byte 65,15,40,224 // movaps %xmm8,%xmm4
.byte 68,15,92,199 // subps %xmm7,%xmm8
.byte 15,88,253 // addps %xmm5,%xmm7
@@ -43749,14 +43761,14 @@ _sk_color_sse2:
.byte 68,15,40,213 // movaps %xmm5,%xmm10
.byte 69,15,89,208 // mulps %xmm8,%xmm10
.byte 65,15,40,208 // movaps %xmm8,%xmm2
- .byte 68,15,40,45,22,248,0,0 // movaps 0xf816(%rip),%xmm13 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xb10>
+ .byte 68,15,40,45,46,248,0,0 // movaps 0xf82e(%rip),%xmm13 # 32c80 <_sk_srcover_rgba_8888_sse2_lowp+0xb24>
.byte 68,15,40,198 // movaps %xmm6,%xmm8
.byte 69,15,89,197 // mulps %xmm13,%xmm8
- .byte 68,15,40,53,22,248,0,0 // movaps 0xf816(%rip),%xmm14 # 32c60 <_sk_srcover_rgba_8888_sse2_lowp+0xb20>
+ .byte 68,15,40,53,46,248,0,0 // movaps 0xf82e(%rip),%xmm14 # 32c90 <_sk_srcover_rgba_8888_sse2_lowp+0xb34>
.byte 65,15,40,195 // movaps %xmm11,%xmm0
.byte 65,15,89,198 // mulps %xmm14,%xmm0
.byte 65,15,88,192 // addps %xmm8,%xmm0
- .byte 68,15,40,29,18,248,0,0 // movaps 0xf812(%rip),%xmm11 # 32c70 <_sk_srcover_rgba_8888_sse2_lowp+0xb30>
+ .byte 68,15,40,29,42,248,0,0 // movaps 0xf82a(%rip),%xmm11 # 32ca0 <_sk_srcover_rgba_8888_sse2_lowp+0xb44>
.byte 69,15,89,227 // mulps %xmm11,%xmm12
.byte 68,15,88,224 // addps %xmm0,%xmm12
.byte 65,15,40,193 // movaps %xmm9,%xmm0
@@ -43764,7 +43776,7 @@ _sk_color_sse2:
.byte 69,15,40,250 // movaps %xmm10,%xmm15
.byte 69,15,89,254 // mulps %xmm14,%xmm15
.byte 68,15,88,248 // addps %xmm0,%xmm15
- .byte 68,15,40,5,78,247,0,0 // movaps 0xf74e(%rip),%xmm8 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xa90>
+ .byte 68,15,40,5,102,247,0,0 // movaps 0xf766(%rip),%xmm8 # 32c00 <_sk_srcover_rgba_8888_sse2_lowp+0xaa4>
.byte 65,15,40,224 // movaps %xmm8,%xmm4
.byte 15,92,226 // subps %xmm2,%xmm4
.byte 15,89,252 // mulps %xmm4,%xmm7
@@ -43900,15 +43912,15 @@ _sk_luminosity_sse2:
.byte 68,15,40,205 // movaps %xmm5,%xmm9
.byte 68,15,89,204 // mulps %xmm4,%xmm9
.byte 15,89,222 // mulps %xmm6,%xmm3
- .byte 68,15,40,37,213,245,0,0 // movaps 0xf5d5(%rip),%xmm12 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xb10>
+ .byte 68,15,40,37,237,245,0,0 // movaps 0xf5ed(%rip),%xmm12 # 32c80 <_sk_srcover_rgba_8888_sse2_lowp+0xb24>
.byte 68,15,40,199 // movaps %xmm7,%xmm8
.byte 69,15,89,196 // mulps %xmm12,%xmm8
- .byte 68,15,40,45,213,245,0,0 // movaps 0xf5d5(%rip),%xmm13 # 32c60 <_sk_srcover_rgba_8888_sse2_lowp+0xb20>
+ .byte 68,15,40,45,237,245,0,0 // movaps 0xf5ed(%rip),%xmm13 # 32c90 <_sk_srcover_rgba_8888_sse2_lowp+0xb34>
.byte 68,15,40,241 // movaps %xmm1,%xmm14
.byte 69,15,89,245 // mulps %xmm13,%xmm14
.byte 69,15,88,240 // addps %xmm8,%xmm14
- .byte 68,15,40,29,209,245,0,0 // movaps 0xf5d1(%rip),%xmm11 # 32c70 <_sk_srcover_rgba_8888_sse2_lowp+0xb30>
- .byte 68,15,40,5,41,245,0,0 // movaps 0xf529(%rip),%xmm8 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xa90>
+ .byte 68,15,40,29,233,245,0,0 // movaps 0xf5e9(%rip),%xmm11 # 32ca0 <_sk_srcover_rgba_8888_sse2_lowp+0xb44>
+ .byte 68,15,40,5,65,245,0,0 // movaps 0xf541(%rip),%xmm8 # 32c00 <_sk_srcover_rgba_8888_sse2_lowp+0xaa4>
.byte 69,15,40,248 // movaps %xmm8,%xmm15
.byte 65,15,40,194 // movaps %xmm10,%xmm0
.byte 68,15,92,248 // subps %xmm0,%xmm15
@@ -44049,10 +44061,10 @@ _sk_srcover_rgba_8888_sse2:
.byte 76,3,0 // add (%rax),%r8
.byte 72,99,194 // movslq %edx,%rax
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,228,0,0,0 // jne 23992 <_sk_srcover_rgba_8888_sse2+0x104>
+ .byte 15,133,228,0,0,0 // jne 239aa <_sk_srcover_rgba_8888_sse2+0x104>
.byte 243,69,15,111,4,128 // movdqu (%r8,%rax,4),%xmm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 102,15,111,53,193,243,0,0 // movdqa 0xf3c1(%rip),%xmm6 # 32c80 <_sk_srcover_rgba_8888_sse2_lowp+0xb40>
+ .byte 102,15,111,53,217,243,0,0 // movdqa 0xf3d9(%rip),%xmm6 # 32cb0 <_sk_srcover_rgba_8888_sse2_lowp+0xb54>
.byte 102,65,15,111,224 // movdqa %xmm8,%xmm4
.byte 102,15,219,230 // pand %xmm6,%xmm4
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
@@ -44066,9 +44078,9 @@ _sk_srcover_rgba_8888_sse2:
.byte 15,91,247 // cvtdq2ps %xmm7,%xmm6
.byte 102,65,15,114,208,24 // psrld $0x18,%xmm8
.byte 65,15,91,248 // cvtdq2ps %xmm8,%xmm7
- .byte 68,15,40,5,209,242,0,0 // movaps 0xf2d1(%rip),%xmm8 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xa90>
+ .byte 68,15,40,5,233,242,0,0 // movaps 0xf2e9(%rip),%xmm8 # 32c00 <_sk_srcover_rgba_8888_sse2_lowp+0xaa4>
.byte 68,15,92,195 // subps %xmm3,%xmm8
- .byte 68,15,40,37,165,243,0,0 // movaps 0xf3a5(%rip),%xmm12 # 32cb0 <_sk_srcover_rgba_8888_sse2_lowp+0xb70>
+ .byte 68,15,40,37,189,243,0,0 // movaps 0xf3bd(%rip),%xmm12 # 32ce0 <_sk_srcover_rgba_8888_sse2_lowp+0xb84>
.byte 65,15,89,196 // mulps %xmm12,%xmm0
.byte 69,15,40,200 // movaps %xmm8,%xmm9
.byte 68,15,89,204 // mulps %xmm4,%xmm9
@@ -44094,7 +44106,7 @@ _sk_srcover_rgba_8888_sse2:
.byte 102,15,114,240,24 // pslld $0x18,%xmm0
.byte 102,15,235,194 // por %xmm2,%xmm0
.byte 102,15,235,193 // por %xmm1,%xmm0
- .byte 117,84 // jne 239cc <_sk_srcover_rgba_8888_sse2+0x13e>
+ .byte 117,84 // jne 239e4 <_sk_srcover_rgba_8888_sse2+0x13e>
.byte 243,65,15,127,4,128 // movdqu %xmm0,(%r8,%rax,4)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 65,15,40,193 // movaps %xmm9,%xmm0
@@ -44105,32 +44117,32 @@ _sk_srcover_rgba_8888_sse2:
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,90 // je 239f9 <_sk_srcover_rgba_8888_sse2+0x16b>
+ .byte 116,90 // je 23a11 <_sk_srcover_rgba_8888_sse2+0x16b>
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,23 // je 239c1 <_sk_srcover_rgba_8888_sse2+0x133>
+ .byte 116,23 // je 239d9 <_sk_srcover_rgba_8888_sse2+0x133>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 15,133,0,255,255,255 // jne 238b4 <_sk_srcover_rgba_8888_sse2+0x26>
+ .byte 15,133,0,255,255,255 // jne 238cc <_sk_srcover_rgba_8888_sse2+0x26>
.byte 102,65,15,110,100,128,8 // movd 0x8(%r8,%rax,4),%xmm4
.byte 102,68,15,112,196,69 // pshufd $0x45,%xmm4,%xmm8
.byte 102,69,15,18,4,128 // movlpd (%r8,%rax,4),%xmm8
- .byte 233,232,254,255,255 // jmpq 238b4 <_sk_srcover_rgba_8888_sse2+0x26>
+ .byte 233,232,254,255,255 // jmpq 238cc <_sk_srcover_rgba_8888_sse2+0x26>
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,43 // je 23a04 <_sk_srcover_rgba_8888_sse2+0x176>
+ .byte 116,43 // je 23a1c <_sk_srcover_rgba_8888_sse2+0x176>
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,18 // je 239f1 <_sk_srcover_rgba_8888_sse2+0x163>
+ .byte 116,18 // je 23a09 <_sk_srcover_rgba_8888_sse2+0x163>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,153 // jne 2397e <_sk_srcover_rgba_8888_sse2+0xf0>
+ .byte 117,153 // jne 23996 <_sk_srcover_rgba_8888_sse2+0xf0>
.byte 102,15,112,200,78 // pshufd $0x4e,%xmm0,%xmm1
.byte 102,65,15,126,76,128,8 // movd %xmm1,0x8(%r8,%rax,4)
.byte 102,65,15,214,4,128 // movq %xmm0,(%r8,%rax,4)
- .byte 235,133 // jmp 2397e <_sk_srcover_rgba_8888_sse2+0xf0>
+ .byte 235,133 // jmp 23996 <_sk_srcover_rgba_8888_sse2+0xf0>
.byte 102,69,15,110,4,128 // movd (%r8,%rax,4),%xmm8
- .byte 233,176,254,255,255 // jmpq 238b4 <_sk_srcover_rgba_8888_sse2+0x26>
+ .byte 233,176,254,255,255 // jmpq 238cc <_sk_srcover_rgba_8888_sse2+0x26>
.byte 102,65,15,126,4,128 // movd %xmm0,(%r8,%rax,4)
- .byte 233,111,255,255,255 // jmpq 2397e <_sk_srcover_rgba_8888_sse2+0xf0>
+ .byte 233,111,255,255,255 // jmpq 23996 <_sk_srcover_rgba_8888_sse2+0xf0>
HIDDEN _sk_clamp_0_sse2
.globl _sk_clamp_0_sse2
@@ -44148,7 +44160,7 @@ HIDDEN _sk_clamp_1_sse2
.globl _sk_clamp_1_sse2
FUNCTION(_sk_clamp_1_sse2)
_sk_clamp_1_sse2:
- .byte 68,15,40,5,161,241,0,0 // movaps 0xf1a1(%rip),%xmm8 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xa90>
+ .byte 68,15,40,5,185,241,0,0 // movaps 0xf1b9(%rip),%xmm8 # 32c00 <_sk_srcover_rgba_8888_sse2_lowp+0xaa4>
.byte 65,15,93,192 // minps %xmm8,%xmm0
.byte 65,15,93,200 // minps %xmm8,%xmm1
.byte 65,15,93,208 // minps %xmm8,%xmm2
@@ -44160,7 +44172,7 @@ HIDDEN _sk_clamp_a_sse2
.globl _sk_clamp_a_sse2
FUNCTION(_sk_clamp_a_sse2)
_sk_clamp_a_sse2:
- .byte 15,93,29,134,241,0,0 // minps 0xf186(%rip),%xmm3 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xa90>
+ .byte 15,93,29,158,241,0,0 // minps 0xf19e(%rip),%xmm3 # 32c00 <_sk_srcover_rgba_8888_sse2_lowp+0xaa4>
.byte 15,93,195 // minps %xmm3,%xmm0
.byte 15,93,203 // minps %xmm3,%xmm1
.byte 15,93,211 // minps %xmm3,%xmm2
@@ -44171,7 +44183,7 @@ HIDDEN _sk_clamp_a_dst_sse2
.globl _sk_clamp_a_dst_sse2
FUNCTION(_sk_clamp_a_dst_sse2)
_sk_clamp_a_dst_sse2:
- .byte 15,93,61,114,241,0,0 // minps 0xf172(%rip),%xmm7 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xa90>
+ .byte 15,93,61,138,241,0,0 // minps 0xf18a(%rip),%xmm7 # 32c00 <_sk_srcover_rgba_8888_sse2_lowp+0xaa4>
.byte 15,93,231 // minps %xmm7,%xmm4
.byte 15,93,239 // minps %xmm7,%xmm5
.byte 15,93,247 // minps %xmm7,%xmm6
@@ -44206,7 +44218,7 @@ HIDDEN _sk_invert_sse2
.globl _sk_invert_sse2
FUNCTION(_sk_invert_sse2)
_sk_invert_sse2:
- .byte 68,15,40,5,46,241,0,0 // movaps 0xf12e(%rip),%xmm8 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xa90>
+ .byte 68,15,40,5,70,241,0,0 // movaps 0xf146(%rip),%xmm8 # 32c00 <_sk_srcover_rgba_8888_sse2_lowp+0xaa4>
.byte 69,15,40,200 // movaps %xmm8,%xmm9
.byte 68,15,92,200 // subps %xmm0,%xmm9
.byte 69,15,40,208 // movaps %xmm8,%xmm10
@@ -44267,14 +44279,14 @@ HIDDEN _sk_unpremul_sse2
.globl _sk_unpremul_sse2
FUNCTION(_sk_unpremul_sse2)
_sk_unpremul_sse2:
- .byte 69,15,87,192 // xorps %xmm8,%xmm8
- .byte 68,15,40,13,184,240,0,0 // movaps 0xf0b8(%rip),%xmm9 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xa90>
- .byte 68,15,94,203 // divps %xmm3,%xmm9
- .byte 68,15,194,195,4 // cmpneqps %xmm3,%xmm8
- .byte 69,15,84,193 // andps %xmm9,%xmm8
- .byte 65,15,89,192 // mulps %xmm8,%xmm0
- .byte 65,15,89,200 // mulps %xmm8,%xmm1
- .byte 65,15,89,208 // mulps %xmm8,%xmm2
+ .byte 68,15,40,5,212,240,0,0 // movaps 0xf0d4(%rip),%xmm8 # 32c00 <_sk_srcover_rgba_8888_sse2_lowp+0xaa4>
+ .byte 68,15,94,195 // divps %xmm3,%xmm8
+ .byte 69,15,40,200 // movaps %xmm8,%xmm9
+ .byte 68,15,194,13,179,241,0,0,1 // cmpltps 0xf1b3(%rip),%xmm9 # 32cf0 <_sk_srcover_rgba_8888_sse2_lowp+0xb94>
+ .byte 69,15,84,200 // andps %xmm8,%xmm9
+ .byte 65,15,89,193 // mulps %xmm9,%xmm0
+ .byte 65,15,89,201 // mulps %xmm9,%xmm1
+ .byte 65,15,89,209 // mulps %xmm9,%xmm2
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -44282,20 +44294,20 @@ HIDDEN _sk_from_srgb_sse2
.globl _sk_from_srgb_sse2
FUNCTION(_sk_from_srgb_sse2)
_sk_from_srgb_sse2:
- .byte 68,15,40,5,131,241,0,0 // movaps 0xf183(%rip),%xmm8 # 32cc0 <_sk_srcover_rgba_8888_sse2_lowp+0xb80>
+ .byte 68,15,40,5,167,241,0,0 // movaps 0xf1a7(%rip),%xmm8 # 32d00 <_sk_srcover_rgba_8888_sse2_lowp+0xba4>
.byte 68,15,40,232 // movaps %xmm0,%xmm13
.byte 69,15,89,232 // mulps %xmm8,%xmm13
.byte 68,15,40,216 // movaps %xmm0,%xmm11
.byte 69,15,89,219 // mulps %xmm11,%xmm11
- .byte 68,15,40,13,251,240,0,0 // movaps 0xf0fb(%rip),%xmm9 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xb10>
+ .byte 68,15,40,13,15,241,0,0 // movaps 0xf10f(%rip),%xmm9 # 32c80 <_sk_srcover_rgba_8888_sse2_lowp+0xb24>
.byte 68,15,40,240 // movaps %xmm0,%xmm14
.byte 69,15,89,241 // mulps %xmm9,%xmm14
- .byte 68,15,40,21,107,241,0,0 // movaps 0xf16b(%rip),%xmm10 # 32cd0 <_sk_srcover_rgba_8888_sse2_lowp+0xb90>
+ .byte 68,15,40,21,143,241,0,0 // movaps 0xf18f(%rip),%xmm10 # 32d10 <_sk_srcover_rgba_8888_sse2_lowp+0xbb4>
.byte 69,15,88,242 // addps %xmm10,%xmm14
.byte 69,15,89,243 // mulps %xmm11,%xmm14
- .byte 68,15,40,29,107,241,0,0 // movaps 0xf16b(%rip),%xmm11 # 32ce0 <_sk_srcover_rgba_8888_sse2_lowp+0xba0>
+ .byte 68,15,40,29,143,241,0,0 // movaps 0xf18f(%rip),%xmm11 # 32d20 <_sk_srcover_rgba_8888_sse2_lowp+0xbc4>
.byte 69,15,88,243 // addps %xmm11,%xmm14
- .byte 68,15,40,37,111,241,0,0 // movaps 0xf16f(%rip),%xmm12 # 32cf0 <_sk_srcover_rgba_8888_sse2_lowp+0xbb0>
+ .byte 68,15,40,37,147,241,0,0 // movaps 0xf193(%rip),%xmm12 # 32d30 <_sk_srcover_rgba_8888_sse2_lowp+0xbd4>
.byte 65,15,194,196,1 // cmpltps %xmm12,%xmm0
.byte 68,15,84,232 // andps %xmm0,%xmm13
.byte 65,15,85,198 // andnps %xmm14,%xmm0
@@ -44331,20 +44343,20 @@ HIDDEN _sk_from_srgb_dst_sse2
.globl _sk_from_srgb_dst_sse2
FUNCTION(_sk_from_srgb_dst_sse2)
_sk_from_srgb_dst_sse2:
- .byte 68,15,40,5,192,240,0,0 // movaps 0xf0c0(%rip),%xmm8 # 32cc0 <_sk_srcover_rgba_8888_sse2_lowp+0xb80>
+ .byte 68,15,40,5,228,240,0,0 // movaps 0xf0e4(%rip),%xmm8 # 32d00 <_sk_srcover_rgba_8888_sse2_lowp+0xba4>
.byte 68,15,40,236 // movaps %xmm4,%xmm13
.byte 69,15,89,232 // mulps %xmm8,%xmm13
.byte 68,15,40,220 // movaps %xmm4,%xmm11
.byte 69,15,89,219 // mulps %xmm11,%xmm11
- .byte 68,15,40,13,56,240,0,0 // movaps 0xf038(%rip),%xmm9 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xb10>
+ .byte 68,15,40,13,76,240,0,0 // movaps 0xf04c(%rip),%xmm9 # 32c80 <_sk_srcover_rgba_8888_sse2_lowp+0xb24>
.byte 68,15,40,244 // movaps %xmm4,%xmm14
.byte 69,15,89,241 // mulps %xmm9,%xmm14
- .byte 68,15,40,21,168,240,0,0 // movaps 0xf0a8(%rip),%xmm10 # 32cd0 <_sk_srcover_rgba_8888_sse2_lowp+0xb90>
+ .byte 68,15,40,21,204,240,0,0 // movaps 0xf0cc(%rip),%xmm10 # 32d10 <_sk_srcover_rgba_8888_sse2_lowp+0xbb4>
.byte 69,15,88,242 // addps %xmm10,%xmm14
.byte 69,15,89,243 // mulps %xmm11,%xmm14
- .byte 68,15,40,29,168,240,0,0 // movaps 0xf0a8(%rip),%xmm11 # 32ce0 <_sk_srcover_rgba_8888_sse2_lowp+0xba0>
+ .byte 68,15,40,29,204,240,0,0 // movaps 0xf0cc(%rip),%xmm11 # 32d20 <_sk_srcover_rgba_8888_sse2_lowp+0xbc4>
.byte 69,15,88,243 // addps %xmm11,%xmm14
- .byte 68,15,40,37,172,240,0,0 // movaps 0xf0ac(%rip),%xmm12 # 32cf0 <_sk_srcover_rgba_8888_sse2_lowp+0xbb0>
+ .byte 68,15,40,37,208,240,0,0 // movaps 0xf0d0(%rip),%xmm12 # 32d30 <_sk_srcover_rgba_8888_sse2_lowp+0xbd4>
.byte 65,15,194,228,1 // cmpltps %xmm12,%xmm4
.byte 68,15,84,236 // andps %xmm4,%xmm13
.byte 65,15,85,230 // andnps %xmm14,%xmm4
@@ -44381,22 +44393,22 @@ HIDDEN _sk_to_srgb_sse2
FUNCTION(_sk_to_srgb_sse2)
_sk_to_srgb_sse2:
.byte 68,15,82,232 // rsqrtps %xmm0,%xmm13
- .byte 68,15,40,5,57,240,0,0 // movaps 0xf039(%rip),%xmm8 # 32d00 <_sk_srcover_rgba_8888_sse2_lowp+0xbc0>
+ .byte 68,15,40,5,93,240,0,0 // movaps 0xf05d(%rip),%xmm8 # 32d40 <_sk_srcover_rgba_8888_sse2_lowp+0xbe4>
.byte 68,15,40,240 // movaps %xmm0,%xmm14
.byte 69,15,89,240 // mulps %xmm8,%xmm14
- .byte 68,15,40,13,57,240,0,0 // movaps 0xf039(%rip),%xmm9 # 32d10 <_sk_srcover_rgba_8888_sse2_lowp+0xbd0>
+ .byte 68,15,40,13,93,240,0,0 // movaps 0xf05d(%rip),%xmm9 # 32d50 <_sk_srcover_rgba_8888_sse2_lowp+0xbf4>
.byte 69,15,40,253 // movaps %xmm13,%xmm15
.byte 69,15,89,249 // mulps %xmm9,%xmm15
- .byte 68,15,40,21,57,240,0,0 // movaps 0xf039(%rip),%xmm10 # 32d20 <_sk_srcover_rgba_8888_sse2_lowp+0xbe0>
+ .byte 68,15,40,21,93,240,0,0 // movaps 0xf05d(%rip),%xmm10 # 32d60 <_sk_srcover_rgba_8888_sse2_lowp+0xc04>
.byte 69,15,88,250 // addps %xmm10,%xmm15
.byte 69,15,89,253 // mulps %xmm13,%xmm15
- .byte 68,15,40,29,57,240,0,0 // movaps 0xf039(%rip),%xmm11 # 32d30 <_sk_srcover_rgba_8888_sse2_lowp+0xbf0>
+ .byte 68,15,40,29,93,240,0,0 // movaps 0xf05d(%rip),%xmm11 # 32d70 <_sk_srcover_rgba_8888_sse2_lowp+0xc14>
.byte 69,15,88,251 // addps %xmm11,%xmm15
- .byte 68,15,40,37,61,240,0,0 // movaps 0xf03d(%rip),%xmm12 # 32d40 <_sk_srcover_rgba_8888_sse2_lowp+0xc00>
+ .byte 68,15,40,37,97,240,0,0 // movaps 0xf061(%rip),%xmm12 # 32d80 <_sk_srcover_rgba_8888_sse2_lowp+0xc24>
.byte 69,15,88,236 // addps %xmm12,%xmm13
.byte 69,15,83,237 // rcpps %xmm13,%xmm13
.byte 69,15,89,239 // mulps %xmm15,%xmm13
- .byte 68,15,40,61,57,240,0,0 // movaps 0xf039(%rip),%xmm15 # 32d50 <_sk_srcover_rgba_8888_sse2_lowp+0xc10>
+ .byte 68,15,40,61,93,240,0,0 // movaps 0xf05d(%rip),%xmm15 # 32d90 <_sk_srcover_rgba_8888_sse2_lowp+0xc34>
.byte 65,15,194,199,1 // cmpltps %xmm15,%xmm0
.byte 68,15,84,240 // andps %xmm0,%xmm14
.byte 65,15,85,197 // andnps %xmm13,%xmm0
@@ -44448,7 +44460,7 @@ _sk_rgb_to_hsl_sse2:
.byte 68,15,93,216 // minps %xmm0,%xmm11
.byte 65,15,40,202 // movaps %xmm10,%xmm1
.byte 65,15,92,203 // subps %xmm11,%xmm1
- .byte 68,15,40,45,252,237,0,0 // movaps 0xedfc(%rip),%xmm13 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xa90>
+ .byte 68,15,40,45,16,238,0,0 // movaps 0xee10(%rip),%xmm13 # 32c00 <_sk_srcover_rgba_8888_sse2_lowp+0xaa4>
.byte 68,15,94,233 // divps %xmm1,%xmm13
.byte 65,15,40,194 // movaps %xmm10,%xmm0
.byte 65,15,194,192,0 // cmpeqps %xmm8,%xmm0
@@ -44457,30 +44469,30 @@ _sk_rgb_to_hsl_sse2:
.byte 69,15,89,229 // mulps %xmm13,%xmm12
.byte 69,15,40,241 // movaps %xmm9,%xmm14
.byte 68,15,194,242,1 // cmpltps %xmm2,%xmm14
- .byte 68,15,84,53,98,239,0,0 // andps 0xef62(%rip),%xmm14 # 32d60 <_sk_srcover_rgba_8888_sse2_lowp+0xc20>
+ .byte 68,15,84,53,134,239,0,0 // andps 0xef86(%rip),%xmm14 # 32da0 <_sk_srcover_rgba_8888_sse2_lowp+0xc44>
.byte 69,15,88,244 // addps %xmm12,%xmm14
.byte 69,15,40,250 // movaps %xmm10,%xmm15
.byte 69,15,194,249,0 // cmpeqps %xmm9,%xmm15
.byte 65,15,92,208 // subps %xmm8,%xmm2
.byte 65,15,89,213 // mulps %xmm13,%xmm2
- .byte 68,15,40,37,85,239,0,0 // movaps 0xef55(%rip),%xmm12 # 32d70 <_sk_srcover_rgba_8888_sse2_lowp+0xc30>
+ .byte 68,15,40,37,121,239,0,0 // movaps 0xef79(%rip),%xmm12 # 32db0 <_sk_srcover_rgba_8888_sse2_lowp+0xc54>
.byte 65,15,88,212 // addps %xmm12,%xmm2
.byte 69,15,92,193 // subps %xmm9,%xmm8
.byte 69,15,89,197 // mulps %xmm13,%xmm8
- .byte 68,15,88,5,81,239,0,0 // addps 0xef51(%rip),%xmm8 # 32d80 <_sk_srcover_rgba_8888_sse2_lowp+0xc40>
+ .byte 68,15,88,5,117,239,0,0 // addps 0xef75(%rip),%xmm8 # 32dc0 <_sk_srcover_rgba_8888_sse2_lowp+0xc64>
.byte 65,15,84,215 // andps %xmm15,%xmm2
.byte 69,15,85,248 // andnps %xmm8,%xmm15
.byte 68,15,86,250 // orps %xmm2,%xmm15
.byte 68,15,84,240 // andps %xmm0,%xmm14
.byte 65,15,85,199 // andnps %xmm15,%xmm0
.byte 65,15,86,198 // orps %xmm14,%xmm0
- .byte 15,89,5,66,239,0,0 // mulps 0xef42(%rip),%xmm0 # 32d90 <_sk_srcover_rgba_8888_sse2_lowp+0xc50>
+ .byte 15,89,5,102,239,0,0 // mulps 0xef66(%rip),%xmm0 # 32dd0 <_sk_srcover_rgba_8888_sse2_lowp+0xc74>
.byte 69,15,40,194 // movaps %xmm10,%xmm8
.byte 69,15,194,195,4 // cmpneqps %xmm11,%xmm8
.byte 65,15,84,192 // andps %xmm8,%xmm0
.byte 69,15,92,226 // subps %xmm10,%xmm12
.byte 69,15,88,211 // addps %xmm11,%xmm10
- .byte 68,15,40,13,85,237,0,0 // movaps 0xed55(%rip),%xmm9 # 32bc0 <_sk_srcover_rgba_8888_sse2_lowp+0xa80>
+ .byte 68,15,40,13,105,237,0,0 // movaps 0xed69(%rip),%xmm9 # 32bf0 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
.byte 65,15,40,210 // movaps %xmm10,%xmm2
.byte 65,15,89,209 // mulps %xmm9,%xmm2
.byte 68,15,194,202,1 // cmpltps %xmm2,%xmm9
@@ -44504,7 +44516,7 @@ _sk_hsl_to_rgb_sse2:
.byte 15,41,92,36,168 // movaps %xmm3,-0x58(%rsp)
.byte 68,15,40,218 // movaps %xmm2,%xmm11
.byte 15,40,240 // movaps %xmm0,%xmm6
- .byte 68,15,40,13,4,237,0,0 // movaps 0xed04(%rip),%xmm9 # 32bc0 <_sk_srcover_rgba_8888_sse2_lowp+0xa80>
+ .byte 68,15,40,13,24,237,0,0 // movaps 0xed18(%rip),%xmm9 # 32bf0 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
.byte 69,15,40,209 // movaps %xmm9,%xmm10
.byte 69,15,194,211,2 // cmpleps %xmm11,%xmm10
.byte 15,40,193 // movaps %xmm1,%xmm0
@@ -44521,28 +44533,28 @@ _sk_hsl_to_rgb_sse2:
.byte 69,15,88,211 // addps %xmm11,%xmm10
.byte 69,15,88,219 // addps %xmm11,%xmm11
.byte 69,15,92,218 // subps %xmm10,%xmm11
- .byte 15,40,5,157,238,0,0 // movaps 0xee9d(%rip),%xmm0 # 32da0 <_sk_srcover_rgba_8888_sse2_lowp+0xc60>
+ .byte 15,40,5,193,238,0,0 // movaps 0xeec1(%rip),%xmm0 # 32de0 <_sk_srcover_rgba_8888_sse2_lowp+0xc84>
.byte 15,88,198 // addps %xmm6,%xmm0
.byte 243,15,91,200 // cvttps2dq %xmm0,%xmm1
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
.byte 15,40,216 // movaps %xmm0,%xmm3
.byte 15,194,217,1 // cmpltps %xmm1,%xmm3
- .byte 15,84,29,181,236,0,0 // andps 0xecb5(%rip),%xmm3 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xa90>
+ .byte 15,84,29,201,236,0,0 // andps 0xecc9(%rip),%xmm3 # 32c00 <_sk_srcover_rgba_8888_sse2_lowp+0xaa4>
.byte 15,92,203 // subps %xmm3,%xmm1
.byte 15,92,193 // subps %xmm1,%xmm0
- .byte 68,15,40,45,135,238,0,0 // movaps 0xee87(%rip),%xmm13 # 32db0 <_sk_srcover_rgba_8888_sse2_lowp+0xc70>
+ .byte 68,15,40,45,171,238,0,0 // movaps 0xeeab(%rip),%xmm13 # 32df0 <_sk_srcover_rgba_8888_sse2_lowp+0xc94>
.byte 69,15,40,197 // movaps %xmm13,%xmm8
.byte 68,15,194,192,2 // cmpleps %xmm0,%xmm8
.byte 69,15,40,242 // movaps %xmm10,%xmm14
.byte 69,15,92,243 // subps %xmm11,%xmm14
.byte 65,15,40,217 // movaps %xmm9,%xmm3
.byte 15,194,216,2 // cmpleps %xmm0,%xmm3
- .byte 15,40,21,71,238,0,0 // movaps 0xee47(%rip),%xmm2 # 32d90 <_sk_srcover_rgba_8888_sse2_lowp+0xc50>
+ .byte 15,40,21,107,238,0,0 // movaps 0xee6b(%rip),%xmm2 # 32dd0 <_sk_srcover_rgba_8888_sse2_lowp+0xc74>
.byte 68,15,40,250 // movaps %xmm2,%xmm15
.byte 68,15,194,248,2 // cmpleps %xmm0,%xmm15
- .byte 15,40,13,7,238,0,0 // movaps 0xee07(%rip),%xmm1 # 32d60 <_sk_srcover_rgba_8888_sse2_lowp+0xc20>
+ .byte 15,40,13,43,238,0,0 // movaps 0xee2b(%rip),%xmm1 # 32da0 <_sk_srcover_rgba_8888_sse2_lowp+0xc44>
.byte 15,89,193 // mulps %xmm1,%xmm0
- .byte 15,40,45,29,238,0,0 // movaps 0xee1d(%rip),%xmm5 # 32d80 <_sk_srcover_rgba_8888_sse2_lowp+0xc40>
+ .byte 15,40,45,65,238,0,0 // movaps 0xee41(%rip),%xmm5 # 32dc0 <_sk_srcover_rgba_8888_sse2_lowp+0xc64>
.byte 15,40,229 // movaps %xmm5,%xmm4
.byte 15,92,224 // subps %xmm0,%xmm4
.byte 65,15,89,230 // mulps %xmm14,%xmm4
@@ -44565,7 +44577,7 @@ _sk_hsl_to_rgb_sse2:
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
.byte 15,40,222 // movaps %xmm6,%xmm3
.byte 15,194,216,1 // cmpltps %xmm0,%xmm3
- .byte 15,84,29,18,236,0,0 // andps 0xec12(%rip),%xmm3 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xa90>
+ .byte 15,84,29,38,236,0,0 // andps 0xec26(%rip),%xmm3 # 32c00 <_sk_srcover_rgba_8888_sse2_lowp+0xaa4>
.byte 15,92,195 // subps %xmm3,%xmm0
.byte 68,15,40,230 // movaps %xmm6,%xmm12
.byte 68,15,92,224 // subps %xmm0,%xmm12
@@ -44595,12 +44607,12 @@ _sk_hsl_to_rgb_sse2:
.byte 15,40,124,36,136 // movaps -0x78(%rsp),%xmm7
.byte 15,40,231 // movaps %xmm7,%xmm4
.byte 15,85,227 // andnps %xmm3,%xmm4
- .byte 15,88,53,138,237,0,0 // addps 0xed8a(%rip),%xmm6 # 32dc0 <_sk_srcover_rgba_8888_sse2_lowp+0xc80>
+ .byte 15,88,53,174,237,0,0 // addps 0xedae(%rip),%xmm6 # 32e00 <_sk_srcover_rgba_8888_sse2_lowp+0xca4>
.byte 243,15,91,198 // cvttps2dq %xmm6,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
.byte 15,40,222 // movaps %xmm6,%xmm3
.byte 15,194,216,1 // cmpltps %xmm0,%xmm3
- .byte 15,84,29,133,235,0,0 // andps 0xeb85(%rip),%xmm3 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xa90>
+ .byte 15,84,29,153,235,0,0 // andps 0xeb99(%rip),%xmm3 # 32c00 <_sk_srcover_rgba_8888_sse2_lowp+0xaa4>
.byte 15,92,195 // subps %xmm3,%xmm0
.byte 15,92,240 // subps %xmm0,%xmm6
.byte 15,89,206 // mulps %xmm6,%xmm1
@@ -44664,13 +44676,13 @@ _sk_scale_u8_sse2:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,210 // movslq %edx,%r10
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,61 // jne 2414c <_sk_scale_u8_sse2+0x55>
+ .byte 117,61 // jne 24168 <_sk_scale_u8_sse2+0x55>
.byte 102,71,15,110,4,16 // movd (%r8,%r10,1),%xmm8
.byte 102,68,15,96,192 // punpcklbw %xmm0,%xmm8
.byte 102,68,15,97,192 // punpcklwd %xmm0,%xmm8
- .byte 102,68,15,219,5,88,235,0,0 // pand 0xeb58(%rip),%xmm8 # 32c80 <_sk_srcover_rgba_8888_sse2_lowp+0xb40>
+ .byte 102,68,15,219,5,108,235,0,0 // pand 0xeb6c(%rip),%xmm8 # 32cb0 <_sk_srcover_rgba_8888_sse2_lowp+0xb54>
.byte 69,15,91,192 // cvtdq2ps %xmm8,%xmm8
- .byte 68,15,89,5,156,236,0,0 // mulps 0xec9c(%rip),%xmm8 # 32dd0 <_sk_srcover_rgba_8888_sse2_lowp+0xc90>
+ .byte 68,15,89,5,192,236,0,0 // mulps 0xecc0(%rip),%xmm8 # 32e10 <_sk_srcover_rgba_8888_sse2_lowp+0xcb4>
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 65,15,89,200 // mulps %xmm8,%xmm1
.byte 65,15,89,208 // mulps %xmm8,%xmm2
@@ -44681,12 +44693,12 @@ _sk_scale_u8_sse2:
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,61 // je 24196 <_sk_scale_u8_sse2+0x9f>
+ .byte 116,61 // je 241b2 <_sk_scale_u8_sse2+0x9f>
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,23 // je 2417b <_sk_scale_u8_sse2+0x84>
+ .byte 116,23 // je 24197 <_sk_scale_u8_sse2+0x84>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,181 // jne 2411f <_sk_scale_u8_sse2+0x28>
+ .byte 117,181 // jne 2413b <_sk_scale_u8_sse2+0x28>
.byte 67,15,182,68,16,2 // movzbl 0x2(%r8,%r10,1),%eax
.byte 102,68,15,110,192 // movd %eax,%xmm8
.byte 102,69,15,112,192,69 // pshufd $0x45,%xmm8,%xmm8
@@ -44695,10 +44707,10 @@ _sk_scale_u8_sse2:
.byte 102,68,15,96,200 // punpcklbw %xmm0,%xmm9
.byte 102,68,15,97,200 // punpcklwd %xmm0,%xmm9
.byte 242,69,15,16,193 // movsd %xmm9,%xmm8
- .byte 235,137 // jmp 2411f <_sk_scale_u8_sse2+0x28>
+ .byte 235,137 // jmp 2413b <_sk_scale_u8_sse2+0x28>
.byte 67,15,182,4,16 // movzbl (%r8,%r10,1),%eax
.byte 102,68,15,110,192 // movd %eax,%xmm8
- .byte 233,122,255,255,255 // jmpq 2411f <_sk_scale_u8_sse2+0x28>
+ .byte 233,122,255,255,255 // jmpq 2413b <_sk_scale_u8_sse2+0x28>
HIDDEN _sk_scale_565_sse2
.globl _sk_scale_565_sse2
@@ -44712,20 +44724,20 @@ _sk_scale_565_sse2:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,210 // movslq %edx,%r10
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,173,0,0,0 // jne 24271 <_sk_scale_565_sse2+0xcc>
+ .byte 15,133,173,0,0,0 // jne 2428d <_sk_scale_565_sse2+0xcc>
.byte 243,71,15,126,20,80 // movq (%r8,%r10,2),%xmm10
.byte 102,68,15,97,208 // punpcklwd %xmm0,%xmm10
- .byte 102,68,15,111,5,8,236,0,0 // movdqa 0xec08(%rip),%xmm8 # 32de0 <_sk_srcover_rgba_8888_sse2_lowp+0xca0>
+ .byte 102,68,15,111,5,44,236,0,0 // movdqa 0xec2c(%rip),%xmm8 # 32e20 <_sk_srcover_rgba_8888_sse2_lowp+0xcc4>
.byte 102,69,15,219,194 // pand %xmm10,%xmm8
.byte 69,15,91,192 // cvtdq2ps %xmm8,%xmm8
- .byte 68,15,89,5,7,236,0,0 // mulps 0xec07(%rip),%xmm8 # 32df0 <_sk_srcover_rgba_8888_sse2_lowp+0xcb0>
- .byte 102,68,15,111,13,14,236,0,0 // movdqa 0xec0e(%rip),%xmm9 # 32e00 <_sk_srcover_rgba_8888_sse2_lowp+0xcc0>
+ .byte 68,15,89,5,43,236,0,0 // mulps 0xec2b(%rip),%xmm8 # 32e30 <_sk_srcover_rgba_8888_sse2_lowp+0xcd4>
+ .byte 102,68,15,111,13,50,236,0,0 // movdqa 0xec32(%rip),%xmm9 # 32e40 <_sk_srcover_rgba_8888_sse2_lowp+0xce4>
.byte 102,69,15,219,202 // pand %xmm10,%xmm9
.byte 69,15,91,201 // cvtdq2ps %xmm9,%xmm9
- .byte 68,15,89,13,13,236,0,0 // mulps 0xec0d(%rip),%xmm9 # 32e10 <_sk_srcover_rgba_8888_sse2_lowp+0xcd0>
- .byte 102,68,15,219,21,20,236,0,0 // pand 0xec14(%rip),%xmm10 # 32e20 <_sk_srcover_rgba_8888_sse2_lowp+0xce0>
+ .byte 68,15,89,13,49,236,0,0 // mulps 0xec31(%rip),%xmm9 # 32e50 <_sk_srcover_rgba_8888_sse2_lowp+0xcf4>
+ .byte 102,68,15,219,21,56,236,0,0 // pand 0xec38(%rip),%xmm10 # 32e60 <_sk_srcover_rgba_8888_sse2_lowp+0xd04>
.byte 69,15,91,210 // cvtdq2ps %xmm10,%xmm10
- .byte 68,15,89,21,24,236,0,0 // mulps 0xec18(%rip),%xmm10 # 32e30 <_sk_srcover_rgba_8888_sse2_lowp+0xcf0>
+ .byte 68,15,89,21,60,236,0,0 // mulps 0xec3c(%rip),%xmm10 # 32e70 <_sk_srcover_rgba_8888_sse2_lowp+0xd14>
.byte 68,15,40,219 // movaps %xmm3,%xmm11
.byte 68,15,194,223,1 // cmpltps %xmm7,%xmm11
.byte 69,15,40,225 // movaps %xmm9,%xmm12
@@ -44752,22 +44764,22 @@ _sk_scale_565_sse2:
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,60 // je 242ba <_sk_scale_565_sse2+0x115>
+ .byte 116,60 // je 242d6 <_sk_scale_565_sse2+0x115>
.byte 102,69,15,239,210 // pxor %xmm10,%xmm10
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,27 // je 242a4 <_sk_scale_565_sse2+0xff>
+ .byte 116,27 // je 242c0 <_sk_scale_565_sse2+0xff>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 15,133,60,255,255,255 // jne 241cf <_sk_scale_565_sse2+0x2a>
+ .byte 15,133,60,255,255,255 // jne 241eb <_sk_scale_565_sse2+0x2a>
.byte 67,15,183,68,80,4 // movzwl 0x4(%r8,%r10,2),%eax
.byte 102,68,15,110,192 // movd %eax,%xmm8
.byte 102,69,15,112,208,69 // pshufd $0x45,%xmm8,%xmm10
.byte 102,71,15,110,4,80 // movd (%r8,%r10,2),%xmm8
.byte 242,69,15,112,192,212 // pshuflw $0xd4,%xmm8,%xmm8
.byte 242,69,15,16,208 // movsd %xmm8,%xmm10
- .byte 233,21,255,255,255 // jmpq 241cf <_sk_scale_565_sse2+0x2a>
+ .byte 233,21,255,255,255 // jmpq 241eb <_sk_scale_565_sse2+0x2a>
.byte 67,15,183,4,80 // movzwl (%r8,%r10,2),%eax
.byte 102,68,15,110,208 // movd %eax,%xmm10
- .byte 233,6,255,255,255 // jmpq 241cf <_sk_scale_565_sse2+0x2a>
+ .byte 233,6,255,255,255 // jmpq 241eb <_sk_scale_565_sse2+0x2a>
HIDDEN _sk_lerp_1_float_sse2
.globl _sk_lerp_1_float_sse2
@@ -44802,13 +44814,13 @@ _sk_lerp_u8_sse2:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,210 // movslq %edx,%r10
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,81 // jne 2436a <_sk_lerp_u8_sse2+0x69>
+ .byte 117,81 // jne 24386 <_sk_lerp_u8_sse2+0x69>
.byte 102,71,15,110,4,16 // movd (%r8,%r10,1),%xmm8
.byte 102,68,15,96,192 // punpcklbw %xmm0,%xmm8
.byte 102,68,15,97,192 // punpcklwd %xmm0,%xmm8
- .byte 102,68,15,219,5,78,233,0,0 // pand 0xe94e(%rip),%xmm8 # 32c80 <_sk_srcover_rgba_8888_sse2_lowp+0xb40>
+ .byte 102,68,15,219,5,98,233,0,0 // pand 0xe962(%rip),%xmm8 # 32cb0 <_sk_srcover_rgba_8888_sse2_lowp+0xb54>
.byte 69,15,91,192 // cvtdq2ps %xmm8,%xmm8
- .byte 68,15,89,5,146,234,0,0 // mulps 0xea92(%rip),%xmm8 # 32dd0 <_sk_srcover_rgba_8888_sse2_lowp+0xc90>
+ .byte 68,15,89,5,182,234,0,0 // mulps 0xeab6(%rip),%xmm8 # 32e10 <_sk_srcover_rgba_8888_sse2_lowp+0xcb4>
.byte 15,92,196 // subps %xmm4,%xmm0
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 15,88,196 // addps %xmm4,%xmm0
@@ -44826,12 +44838,12 @@ _sk_lerp_u8_sse2:
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,64 // je 243b7 <_sk_lerp_u8_sse2+0xb6>
+ .byte 116,64 // je 243d3 <_sk_lerp_u8_sse2+0xb6>
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,23 // je 24399 <_sk_lerp_u8_sse2+0x98>
+ .byte 116,23 // je 243b5 <_sk_lerp_u8_sse2+0x98>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,161 // jne 24329 <_sk_lerp_u8_sse2+0x28>
+ .byte 117,161 // jne 24345 <_sk_lerp_u8_sse2+0x28>
.byte 67,15,182,68,16,2 // movzbl 0x2(%r8,%r10,1),%eax
.byte 102,68,15,110,192 // movd %eax,%xmm8
.byte 102,69,15,112,192,69 // pshufd $0x45,%xmm8,%xmm8
@@ -44840,10 +44852,10 @@ _sk_lerp_u8_sse2:
.byte 102,68,15,96,200 // punpcklbw %xmm0,%xmm9
.byte 102,68,15,97,200 // punpcklwd %xmm0,%xmm9
.byte 242,69,15,16,193 // movsd %xmm9,%xmm8
- .byte 233,114,255,255,255 // jmpq 24329 <_sk_lerp_u8_sse2+0x28>
+ .byte 233,114,255,255,255 // jmpq 24345 <_sk_lerp_u8_sse2+0x28>
.byte 67,15,182,4,16 // movzbl (%r8,%r10,1),%eax
.byte 102,68,15,110,192 // movd %eax,%xmm8
- .byte 233,99,255,255,255 // jmpq 24329 <_sk_lerp_u8_sse2+0x28>
+ .byte 233,99,255,255,255 // jmpq 24345 <_sk_lerp_u8_sse2+0x28>
HIDDEN _sk_lerp_565_sse2
.globl _sk_lerp_565_sse2
@@ -44857,20 +44869,20 @@ _sk_lerp_565_sse2:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,210 // movslq %edx,%r10
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,173,0,0,0 // jne 24492 <_sk_lerp_565_sse2+0xcc>
+ .byte 15,133,173,0,0,0 // jne 244ae <_sk_lerp_565_sse2+0xcc>
.byte 243,71,15,126,4,80 // movq (%r8,%r10,2),%xmm8
.byte 102,68,15,97,192 // punpcklwd %xmm0,%xmm8
- .byte 102,68,15,111,13,231,233,0,0 // movdqa 0xe9e7(%rip),%xmm9 # 32de0 <_sk_srcover_rgba_8888_sse2_lowp+0xca0>
+ .byte 102,68,15,111,13,11,234,0,0 // movdqa 0xea0b(%rip),%xmm9 # 32e20 <_sk_srcover_rgba_8888_sse2_lowp+0xcc4>
.byte 102,69,15,219,200 // pand %xmm8,%xmm9
.byte 69,15,91,201 // cvtdq2ps %xmm9,%xmm9
- .byte 68,15,89,13,230,233,0,0 // mulps 0xe9e6(%rip),%xmm9 # 32df0 <_sk_srcover_rgba_8888_sse2_lowp+0xcb0>
- .byte 102,68,15,111,21,237,233,0,0 // movdqa 0xe9ed(%rip),%xmm10 # 32e00 <_sk_srcover_rgba_8888_sse2_lowp+0xcc0>
+ .byte 68,15,89,13,10,234,0,0 // mulps 0xea0a(%rip),%xmm9 # 32e30 <_sk_srcover_rgba_8888_sse2_lowp+0xcd4>
+ .byte 102,68,15,111,21,17,234,0,0 // movdqa 0xea11(%rip),%xmm10 # 32e40 <_sk_srcover_rgba_8888_sse2_lowp+0xce4>
.byte 102,69,15,219,208 // pand %xmm8,%xmm10
.byte 69,15,91,218 // cvtdq2ps %xmm10,%xmm11
- .byte 68,15,89,29,236,233,0,0 // mulps 0xe9ec(%rip),%xmm11 # 32e10 <_sk_srcover_rgba_8888_sse2_lowp+0xcd0>
- .byte 102,68,15,219,5,243,233,0,0 // pand 0xe9f3(%rip),%xmm8 # 32e20 <_sk_srcover_rgba_8888_sse2_lowp+0xce0>
+ .byte 68,15,89,29,16,234,0,0 // mulps 0xea10(%rip),%xmm11 # 32e50 <_sk_srcover_rgba_8888_sse2_lowp+0xcf4>
+ .byte 102,68,15,219,5,23,234,0,0 // pand 0xea17(%rip),%xmm8 # 32e60 <_sk_srcover_rgba_8888_sse2_lowp+0xd04>
.byte 69,15,91,192 // cvtdq2ps %xmm8,%xmm8
- .byte 68,15,89,5,247,233,0,0 // mulps 0xe9f7(%rip),%xmm8 # 32e30 <_sk_srcover_rgba_8888_sse2_lowp+0xcf0>
+ .byte 68,15,89,5,27,234,0,0 // mulps 0xea1b(%rip),%xmm8 # 32e70 <_sk_srcover_rgba_8888_sse2_lowp+0xd14>
.byte 68,15,40,211 // movaps %xmm3,%xmm10
.byte 68,15,194,215,1 // cmpltps %xmm7,%xmm10
.byte 69,15,40,227 // movaps %xmm11,%xmm12
@@ -44899,22 +44911,22 @@ _sk_lerp_565_sse2:
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,60 // je 244db <_sk_lerp_565_sse2+0x115>
+ .byte 116,60 // je 244f7 <_sk_lerp_565_sse2+0x115>
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,27 // je 244c5 <_sk_lerp_565_sse2+0xff>
+ .byte 116,27 // je 244e1 <_sk_lerp_565_sse2+0xff>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 15,133,60,255,255,255 // jne 243f0 <_sk_lerp_565_sse2+0x2a>
+ .byte 15,133,60,255,255,255 // jne 2440c <_sk_lerp_565_sse2+0x2a>
.byte 67,15,183,68,80,4 // movzwl 0x4(%r8,%r10,2),%eax
.byte 102,68,15,110,192 // movd %eax,%xmm8
.byte 102,69,15,112,192,69 // pshufd $0x45,%xmm8,%xmm8
.byte 102,71,15,110,12,80 // movd (%r8,%r10,2),%xmm9
.byte 242,69,15,112,201,212 // pshuflw $0xd4,%xmm9,%xmm9
.byte 242,69,15,16,193 // movsd %xmm9,%xmm8
- .byte 233,21,255,255,255 // jmpq 243f0 <_sk_lerp_565_sse2+0x2a>
+ .byte 233,21,255,255,255 // jmpq 2440c <_sk_lerp_565_sse2+0x2a>
.byte 67,15,183,4,80 // movzwl (%r8,%r10,2),%eax
.byte 102,68,15,110,192 // movd %eax,%xmm8
- .byte 233,6,255,255,255 // jmpq 243f0 <_sk_lerp_565_sse2+0x2a>
+ .byte 233,6,255,255,255 // jmpq 2440c <_sk_lerp_565_sse2+0x2a>
HIDDEN _sk_load_tables_sse2
.globl _sk_load_tables_sse2
@@ -44923,11 +44935,11 @@ _sk_load_tables_sse2:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 76,139,0 // mov (%rax),%r8
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,34,1,0,0 // jne 2461a <_sk_load_tables_sse2+0x130>
+ .byte 15,133,34,1,0,0 // jne 24636 <_sk_load_tables_sse2+0x130>
.byte 243,69,15,111,12,144 // movdqu (%r8,%rdx,4),%xmm9
.byte 65,86 // push %r14
.byte 83 // push %rbx
- .byte 102,68,15,111,5,118,231,0,0 // movdqa 0xe776(%rip),%xmm8 # 32c80 <_sk_srcover_rgba_8888_sse2_lowp+0xb40>
+ .byte 102,68,15,111,5,138,231,0,0 // movdqa 0xe78a(%rip),%xmm8 # 32cb0 <_sk_srcover_rgba_8888_sse2_lowp+0xb54>
.byte 102,65,15,111,193 // movdqa %xmm9,%xmm0
.byte 102,65,15,219,192 // pand %xmm8,%xmm0
.byte 102,15,112,200,78 // pshufd $0x4e,%xmm0,%xmm1
@@ -44983,7 +44995,7 @@ _sk_load_tables_sse2:
.byte 102,15,20,211 // unpcklpd %xmm3,%xmm2
.byte 102,65,15,114,209,24 // psrld $0x18,%xmm9
.byte 65,15,91,217 // cvtdq2ps %xmm9,%xmm3
- .byte 15,89,29,189,231,0,0 // mulps 0xe7bd(%rip),%xmm3 # 32dd0 <_sk_srcover_rgba_8888_sse2_lowp+0xc90>
+ .byte 15,89,29,225,231,0,0 // mulps 0xe7e1(%rip),%xmm3 # 32e10 <_sk_srcover_rgba_8888_sse2_lowp+0xcb4>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 91 // pop %rbx
.byte 65,94 // pop %r14
@@ -44991,18 +45003,18 @@ _sk_load_tables_sse2:
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,45 // je 24654 <_sk_load_tables_sse2+0x16a>
+ .byte 116,45 // je 24670 <_sk_load_tables_sse2+0x16a>
.byte 102,69,15,239,201 // pxor %xmm9,%xmm9
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,23 // je 24649 <_sk_load_tables_sse2+0x15f>
+ .byte 116,23 // je 24665 <_sk_load_tables_sse2+0x15f>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 15,133,194,254,255,255 // jne 244fe <_sk_load_tables_sse2+0x14>
+ .byte 15,133,194,254,255,255 // jne 2451a <_sk_load_tables_sse2+0x14>
.byte 102,65,15,110,68,144,8 // movd 0x8(%r8,%rdx,4),%xmm0
.byte 102,68,15,112,200,69 // pshufd $0x45,%xmm0,%xmm9
.byte 102,69,15,18,12,144 // movlpd (%r8,%rdx,4),%xmm9
- .byte 233,170,254,255,255 // jmpq 244fe <_sk_load_tables_sse2+0x14>
+ .byte 233,170,254,255,255 // jmpq 2451a <_sk_load_tables_sse2+0x14>
.byte 102,69,15,110,12,144 // movd (%r8,%rdx,4),%xmm9
- .byte 233,159,254,255,255 // jmpq 244fe <_sk_load_tables_sse2+0x14>
+ .byte 233,159,254,255,255 // jmpq 2451a <_sk_load_tables_sse2+0x14>
HIDDEN _sk_load_tables_u16_be_sse2
.globl _sk_load_tables_u16_be_sse2
@@ -45012,7 +45024,7 @@ _sk_load_tables_u16_be_sse2:
.byte 76,139,0 // mov (%rax),%r8
.byte 76,141,12,149,0,0,0,0 // lea 0x0(,%rdx,4),%r9
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,93,1,0,0 // jne 247d2 <_sk_load_tables_u16_be_sse2+0x173>
+ .byte 15,133,93,1,0,0 // jne 247ee <_sk_load_tables_u16_be_sse2+0x173>
.byte 102,67,15,16,4,72 // movupd (%r8,%r9,2),%xmm0
.byte 243,67,15,111,76,72,16 // movdqu 0x10(%r8,%r9,2),%xmm1
.byte 65,86 // push %r14
@@ -45023,7 +45035,7 @@ _sk_load_tables_u16_be_sse2:
.byte 102,65,15,111,201 // movdqa %xmm9,%xmm1
.byte 102,15,97,200 // punpcklwd %xmm0,%xmm1
.byte 102,68,15,105,200 // punpckhwd %xmm0,%xmm9
- .byte 102,15,111,21,151,231,0,0 // movdqa 0xe797(%rip),%xmm2 # 32e40 <_sk_srcover_rgba_8888_sse2_lowp+0xd00>
+ .byte 102,15,111,21,187,231,0,0 // movdqa 0xe7bb(%rip),%xmm2 # 32e80 <_sk_srcover_rgba_8888_sse2_lowp+0xd24>
.byte 102,15,112,217,238 // pshufd $0xee,%xmm1,%xmm3
.byte 102,15,219,202 // pand %xmm2,%xmm1
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
@@ -45084,23 +45096,23 @@ _sk_load_tables_u16_be_sse2:
.byte 102,65,15,235,217 // por %xmm9,%xmm3
.byte 102,65,15,97,216 // punpcklwd %xmm8,%xmm3
.byte 15,91,219 // cvtdq2ps %xmm3,%xmm3
- .byte 15,89,29,149,230,0,0 // mulps 0xe695(%rip),%xmm3 # 32e60 <_sk_srcover_rgba_8888_sse2_lowp+0xd20>
+ .byte 15,89,29,185,230,0,0 // mulps 0xe6b9(%rip),%xmm3 # 32ea0 <_sk_srcover_rgba_8888_sse2_lowp+0xd44>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 91 // pop %rbx
.byte 65,94 // pop %r14
.byte 255,224 // jmpq *%rax
.byte 242,67,15,16,4,72 // movsd (%r8,%r9,2),%xmm0
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 117,13 // jne 247eb <_sk_load_tables_u16_be_sse2+0x18c>
+ .byte 117,13 // jne 24807 <_sk_load_tables_u16_be_sse2+0x18c>
.byte 243,15,126,192 // movq %xmm0,%xmm0
.byte 102,15,239,201 // pxor %xmm1,%xmm1
- .byte 233,151,254,255,255 // jmpq 24682 <_sk_load_tables_u16_be_sse2+0x23>
+ .byte 233,151,254,255,255 // jmpq 2469e <_sk_load_tables_u16_be_sse2+0x23>
.byte 102,67,15,22,68,72,8 // movhpd 0x8(%r8,%r9,2),%xmm0
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 15,130,130,254,255,255 // jb 24682 <_sk_load_tables_u16_be_sse2+0x23>
+ .byte 15,130,130,254,255,255 // jb 2469e <_sk_load_tables_u16_be_sse2+0x23>
.byte 243,67,15,126,76,72,16 // movq 0x10(%r8,%r9,2),%xmm1
- .byte 233,118,254,255,255 // jmpq 24682 <_sk_load_tables_u16_be_sse2+0x23>
+ .byte 233,118,254,255,255 // jmpq 2469e <_sk_load_tables_u16_be_sse2+0x23>
HIDDEN _sk_load_tables_rgb_u16_be_sse2
.globl _sk_load_tables_rgb_u16_be_sse2
@@ -45110,7 +45122,7 @@ _sk_load_tables_rgb_u16_be_sse2:
.byte 76,139,0 // mov (%rax),%r8
.byte 76,141,12,82 // lea (%rdx,%rdx,2),%r9
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,81,1,0,0 // jne 2496f <_sk_load_tables_rgb_u16_be_sse2+0x163>
+ .byte 15,133,81,1,0,0 // jne 2498b <_sk_load_tables_rgb_u16_be_sse2+0x163>
.byte 243,67,15,111,20,72 // movdqu (%r8,%r9,2),%xmm2
.byte 243,67,15,111,76,72,8 // movdqu 0x8(%r8,%r9,2),%xmm1
.byte 102,15,115,217,4 // psrldq $0x4,%xmm1
@@ -45125,7 +45137,7 @@ _sk_load_tables_rgb_u16_be_sse2:
.byte 102,15,111,194 // movdqa %xmm2,%xmm0
.byte 102,65,15,97,194 // punpcklwd %xmm10,%xmm0
.byte 102,15,112,200,78 // pshufd $0x4e,%xmm0,%xmm1
- .byte 102,68,15,111,5,217,229,0,0 // movdqa 0xe5d9(%rip),%xmm8 # 32e40 <_sk_srcover_rgba_8888_sse2_lowp+0xd00>
+ .byte 102,68,15,111,5,253,229,0,0 // movdqa 0xe5fd(%rip),%xmm8 # 32e80 <_sk_srcover_rgba_8888_sse2_lowp+0xd24>
.byte 102,65,15,219,192 // pand %xmm8,%xmm0
.byte 102,69,15,239,201 // pxor %xmm9,%xmm9
.byte 102,65,15,97,193 // punpcklwd %xmm9,%xmm0
@@ -45180,7 +45192,7 @@ _sk_load_tables_rgb_u16_be_sse2:
.byte 65,15,20,216 // unpcklps %xmm8,%xmm3
.byte 102,15,20,211 // unpcklpd %xmm3,%xmm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,102,226,0,0 // movaps 0xe266(%rip),%xmm3 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xa90>
+ .byte 15,40,29,122,226,0,0 // movaps 0xe27a(%rip),%xmm3 # 32c00 <_sk_srcover_rgba_8888_sse2_lowp+0xaa4>
.byte 91 // pop %rbx
.byte 65,94 // pop %r14
.byte 255,224 // jmpq *%rax
@@ -45188,21 +45200,21 @@ _sk_load_tables_rgb_u16_be_sse2:
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,67,15,196,84,72,4,2 // pinsrw $0x2,0x4(%r8,%r9,2),%xmm2
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 117,14 // jne 24995 <_sk_load_tables_rgb_u16_be_sse2+0x189>
+ .byte 117,14 // jne 249b1 <_sk_load_tables_rgb_u16_be_sse2+0x189>
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 102,69,15,239,210 // pxor %xmm10,%xmm10
- .byte 233,175,254,255,255 // jmpq 24844 <_sk_load_tables_rgb_u16_be_sse2+0x38>
+ .byte 233,175,254,255,255 // jmpq 24860 <_sk_load_tables_rgb_u16_be_sse2+0x38>
.byte 102,71,15,110,84,72,6 // movd 0x6(%r8,%r9,2),%xmm10
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,71,15,196,84,72,10,2 // pinsrw $0x2,0xa(%r8,%r9,2),%xmm10
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,24 // jb 249c6 <_sk_load_tables_rgb_u16_be_sse2+0x1ba>
+ .byte 114,24 // jb 249e2 <_sk_load_tables_rgb_u16_be_sse2+0x1ba>
.byte 102,67,15,110,76,72,12 // movd 0xc(%r8,%r9,2),%xmm1
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,67,15,196,76,72,16,2 // pinsrw $0x2,0x10(%r8,%r9,2),%xmm1
- .byte 233,126,254,255,255 // jmpq 24844 <_sk_load_tables_rgb_u16_be_sse2+0x38>
+ .byte 233,126,254,255,255 // jmpq 24860 <_sk_load_tables_rgb_u16_be_sse2+0x38>
.byte 102,15,239,201 // pxor %xmm1,%xmm1
- .byte 233,117,254,255,255 // jmpq 24844 <_sk_load_tables_rgb_u16_be_sse2+0x38>
+ .byte 233,117,254,255,255 // jmpq 24860 <_sk_load_tables_rgb_u16_be_sse2+0x38>
HIDDEN _sk_byte_tables_sse2
.globl _sk_byte_tables_sse2
@@ -45212,7 +45224,7 @@ _sk_byte_tables_sse2:
.byte 65,86 // push %r14
.byte 83 // push %rbx
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 68,15,40,5,211,226,0,0 // movaps 0xe2d3(%rip),%xmm8 # 32cb0 <_sk_srcover_rgba_8888_sse2_lowp+0xb70>
+ .byte 68,15,40,5,231,226,0,0 // movaps 0xe2e7(%rip),%xmm8 # 32ce0 <_sk_srcover_rgba_8888_sse2_lowp+0xb84>
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 102,15,91,192 // cvtps2dq %xmm0,%xmm0
.byte 102,73,15,126,192 // movq %xmm0,%r8
@@ -45240,7 +45252,7 @@ _sk_byte_tables_sse2:
.byte 102,65,15,96,193 // punpcklbw %xmm9,%xmm0
.byte 102,65,15,97,193 // punpcklwd %xmm9,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 68,15,40,21,126,227,0,0 // movaps 0xe37e(%rip),%xmm10 # 32dd0 <_sk_srcover_rgba_8888_sse2_lowp+0xc90>
+ .byte 68,15,40,21,162,227,0,0 // movaps 0xe3a2(%rip),%xmm10 # 32e10 <_sk_srcover_rgba_8888_sse2_lowp+0xcb4>
.byte 65,15,89,194 // mulps %xmm10,%xmm0
.byte 65,15,89,200 // mulps %xmm8,%xmm1
.byte 102,15,91,201 // cvtps2dq %xmm1,%xmm1
@@ -45359,7 +45371,7 @@ _sk_byte_tables_rgb_sse2:
.byte 102,65,15,96,193 // punpcklbw %xmm9,%xmm0
.byte 102,65,15,97,193 // punpcklwd %xmm9,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 68,15,40,21,190,225,0,0 // movaps 0xe1be(%rip),%xmm10 # 32dd0 <_sk_srcover_rgba_8888_sse2_lowp+0xc90>
+ .byte 68,15,40,21,226,225,0,0 // movaps 0xe1e2(%rip),%xmm10 # 32e10 <_sk_srcover_rgba_8888_sse2_lowp+0xcb4>
.byte 65,15,89,194 // mulps %xmm10,%xmm0
.byte 65,15,89,200 // mulps %xmm8,%xmm1
.byte 102,15,91,201 // cvtps2dq %xmm1,%xmm1
@@ -45557,15 +45569,15 @@ _sk_parametric_r_sse2:
.byte 69,15,88,209 // addps %xmm9,%xmm10
.byte 69,15,198,219,0 // shufps $0x0,%xmm11,%xmm11
.byte 69,15,91,202 // cvtdq2ps %xmm10,%xmm9
- .byte 68,15,89,13,138,223,0,0 // mulps 0xdf8a(%rip),%xmm9 # 32e70 <_sk_srcover_rgba_8888_sse2_lowp+0xd30>
- .byte 68,15,84,21,146,223,0,0 // andps 0xdf92(%rip),%xmm10 # 32e80 <_sk_srcover_rgba_8888_sse2_lowp+0xd40>
- .byte 68,15,86,21,202,220,0,0 // orps 0xdcca(%rip),%xmm10 # 32bc0 <_sk_srcover_rgba_8888_sse2_lowp+0xa80>
- .byte 68,15,88,13,146,223,0,0 // addps 0xdf92(%rip),%xmm9 # 32e90 <_sk_srcover_rgba_8888_sse2_lowp+0xd50>
- .byte 68,15,40,37,154,223,0,0 // movaps 0xdf9a(%rip),%xmm12 # 32ea0 <_sk_srcover_rgba_8888_sse2_lowp+0xd60>
+ .byte 68,15,89,13,174,223,0,0 // mulps 0xdfae(%rip),%xmm9 # 32eb0 <_sk_srcover_rgba_8888_sse2_lowp+0xd54>
+ .byte 68,15,84,21,182,223,0,0 // andps 0xdfb6(%rip),%xmm10 # 32ec0 <_sk_srcover_rgba_8888_sse2_lowp+0xd64>
+ .byte 68,15,86,21,222,220,0,0 // orps 0xdcde(%rip),%xmm10 # 32bf0 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
+ .byte 68,15,88,13,182,223,0,0 // addps 0xdfb6(%rip),%xmm9 # 32ed0 <_sk_srcover_rgba_8888_sse2_lowp+0xd74>
+ .byte 68,15,40,37,190,223,0,0 // movaps 0xdfbe(%rip),%xmm12 # 32ee0 <_sk_srcover_rgba_8888_sse2_lowp+0xd84>
.byte 69,15,89,226 // mulps %xmm10,%xmm12
.byte 69,15,92,204 // subps %xmm12,%xmm9
- .byte 68,15,88,21,154,223,0,0 // addps 0xdf9a(%rip),%xmm10 # 32eb0 <_sk_srcover_rgba_8888_sse2_lowp+0xd70>
- .byte 68,15,40,37,162,223,0,0 // movaps 0xdfa2(%rip),%xmm12 # 32ec0 <_sk_srcover_rgba_8888_sse2_lowp+0xd80>
+ .byte 68,15,88,21,190,223,0,0 // addps 0xdfbe(%rip),%xmm10 # 32ef0 <_sk_srcover_rgba_8888_sse2_lowp+0xd94>
+ .byte 68,15,40,37,198,223,0,0 // movaps 0xdfc6(%rip),%xmm12 # 32f00 <_sk_srcover_rgba_8888_sse2_lowp+0xda4>
.byte 69,15,94,226 // divps %xmm10,%xmm12
.byte 69,15,92,204 // subps %xmm12,%xmm9
.byte 69,15,89,203 // mulps %xmm11,%xmm9
@@ -45573,22 +45585,22 @@ _sk_parametric_r_sse2:
.byte 69,15,91,226 // cvtdq2ps %xmm10,%xmm12
.byte 69,15,40,233 // movaps %xmm9,%xmm13
.byte 69,15,194,236,1 // cmpltps %xmm12,%xmm13
- .byte 68,15,40,21,140,220,0,0 // movaps 0xdc8c(%rip),%xmm10 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xa90>
+ .byte 68,15,40,21,160,220,0,0 // movaps 0xdca0(%rip),%xmm10 # 32c00 <_sk_srcover_rgba_8888_sse2_lowp+0xaa4>
.byte 69,15,84,234 // andps %xmm10,%xmm13
.byte 69,15,87,219 // xorps %xmm11,%xmm11
.byte 69,15,92,229 // subps %xmm13,%xmm12
.byte 69,15,40,233 // movaps %xmm9,%xmm13
.byte 69,15,92,236 // subps %xmm12,%xmm13
- .byte 68,15,88,13,112,223,0,0 // addps 0xdf70(%rip),%xmm9 # 32ed0 <_sk_srcover_rgba_8888_sse2_lowp+0xd90>
- .byte 68,15,40,37,120,223,0,0 // movaps 0xdf78(%rip),%xmm12 # 32ee0 <_sk_srcover_rgba_8888_sse2_lowp+0xda0>
+ .byte 68,15,88,13,148,223,0,0 // addps 0xdf94(%rip),%xmm9 # 32f10 <_sk_srcover_rgba_8888_sse2_lowp+0xdb4>
+ .byte 68,15,40,37,156,223,0,0 // movaps 0xdf9c(%rip),%xmm12 # 32f20 <_sk_srcover_rgba_8888_sse2_lowp+0xdc4>
.byte 69,15,89,229 // mulps %xmm13,%xmm12
.byte 69,15,92,204 // subps %xmm12,%xmm9
- .byte 68,15,40,37,120,223,0,0 // movaps 0xdf78(%rip),%xmm12 # 32ef0 <_sk_srcover_rgba_8888_sse2_lowp+0xdb0>
+ .byte 68,15,40,37,156,223,0,0 // movaps 0xdf9c(%rip),%xmm12 # 32f30 <_sk_srcover_rgba_8888_sse2_lowp+0xdd4>
.byte 69,15,92,229 // subps %xmm13,%xmm12
- .byte 68,15,40,45,124,223,0,0 // movaps 0xdf7c(%rip),%xmm13 # 32f00 <_sk_srcover_rgba_8888_sse2_lowp+0xdc0>
+ .byte 68,15,40,45,160,223,0,0 // movaps 0xdfa0(%rip),%xmm13 # 32f40 <_sk_srcover_rgba_8888_sse2_lowp+0xde4>
.byte 69,15,94,236 // divps %xmm12,%xmm13
.byte 69,15,88,233 // addps %xmm9,%xmm13
- .byte 68,15,89,45,124,223,0,0 // mulps 0xdf7c(%rip),%xmm13 # 32f10 <_sk_srcover_rgba_8888_sse2_lowp+0xdd0>
+ .byte 68,15,89,45,160,223,0,0 // mulps 0xdfa0(%rip),%xmm13 # 32f50 <_sk_srcover_rgba_8888_sse2_lowp+0xdf4>
.byte 102,69,15,91,205 // cvtps2dq %xmm13,%xmm9
.byte 243,68,15,16,96,20 // movss 0x14(%rax),%xmm12
.byte 69,15,198,228,0 // shufps $0x0,%xmm12,%xmm12
@@ -45624,15 +45636,15 @@ _sk_parametric_g_sse2:
.byte 69,15,88,209 // addps %xmm9,%xmm10
.byte 69,15,198,219,0 // shufps $0x0,%xmm11,%xmm11
.byte 69,15,91,202 // cvtdq2ps %xmm10,%xmm9
- .byte 68,15,89,13,76,222,0,0 // mulps 0xde4c(%rip),%xmm9 # 32e70 <_sk_srcover_rgba_8888_sse2_lowp+0xd30>
- .byte 68,15,84,21,84,222,0,0 // andps 0xde54(%rip),%xmm10 # 32e80 <_sk_srcover_rgba_8888_sse2_lowp+0xd40>
- .byte 68,15,86,21,140,219,0,0 // orps 0xdb8c(%rip),%xmm10 # 32bc0 <_sk_srcover_rgba_8888_sse2_lowp+0xa80>
- .byte 68,15,88,13,84,222,0,0 // addps 0xde54(%rip),%xmm9 # 32e90 <_sk_srcover_rgba_8888_sse2_lowp+0xd50>
- .byte 68,15,40,37,92,222,0,0 // movaps 0xde5c(%rip),%xmm12 # 32ea0 <_sk_srcover_rgba_8888_sse2_lowp+0xd60>
+ .byte 68,15,89,13,112,222,0,0 // mulps 0xde70(%rip),%xmm9 # 32eb0 <_sk_srcover_rgba_8888_sse2_lowp+0xd54>
+ .byte 68,15,84,21,120,222,0,0 // andps 0xde78(%rip),%xmm10 # 32ec0 <_sk_srcover_rgba_8888_sse2_lowp+0xd64>
+ .byte 68,15,86,21,160,219,0,0 // orps 0xdba0(%rip),%xmm10 # 32bf0 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
+ .byte 68,15,88,13,120,222,0,0 // addps 0xde78(%rip),%xmm9 # 32ed0 <_sk_srcover_rgba_8888_sse2_lowp+0xd74>
+ .byte 68,15,40,37,128,222,0,0 // movaps 0xde80(%rip),%xmm12 # 32ee0 <_sk_srcover_rgba_8888_sse2_lowp+0xd84>
.byte 69,15,89,226 // mulps %xmm10,%xmm12
.byte 69,15,92,204 // subps %xmm12,%xmm9
- .byte 68,15,88,21,92,222,0,0 // addps 0xde5c(%rip),%xmm10 # 32eb0 <_sk_srcover_rgba_8888_sse2_lowp+0xd70>
- .byte 68,15,40,37,100,222,0,0 // movaps 0xde64(%rip),%xmm12 # 32ec0 <_sk_srcover_rgba_8888_sse2_lowp+0xd80>
+ .byte 68,15,88,21,128,222,0,0 // addps 0xde80(%rip),%xmm10 # 32ef0 <_sk_srcover_rgba_8888_sse2_lowp+0xd94>
+ .byte 68,15,40,37,136,222,0,0 // movaps 0xde88(%rip),%xmm12 # 32f00 <_sk_srcover_rgba_8888_sse2_lowp+0xda4>
.byte 69,15,94,226 // divps %xmm10,%xmm12
.byte 69,15,92,204 // subps %xmm12,%xmm9
.byte 69,15,89,203 // mulps %xmm11,%xmm9
@@ -45640,22 +45652,22 @@ _sk_parametric_g_sse2:
.byte 69,15,91,226 // cvtdq2ps %xmm10,%xmm12
.byte 69,15,40,233 // movaps %xmm9,%xmm13
.byte 69,15,194,236,1 // cmpltps %xmm12,%xmm13
- .byte 68,15,40,21,78,219,0,0 // movaps 0xdb4e(%rip),%xmm10 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xa90>
+ .byte 68,15,40,21,98,219,0,0 // movaps 0xdb62(%rip),%xmm10 # 32c00 <_sk_srcover_rgba_8888_sse2_lowp+0xaa4>
.byte 69,15,84,234 // andps %xmm10,%xmm13
.byte 69,15,87,219 // xorps %xmm11,%xmm11
.byte 69,15,92,229 // subps %xmm13,%xmm12
.byte 69,15,40,233 // movaps %xmm9,%xmm13
.byte 69,15,92,236 // subps %xmm12,%xmm13
- .byte 68,15,88,13,50,222,0,0 // addps 0xde32(%rip),%xmm9 # 32ed0 <_sk_srcover_rgba_8888_sse2_lowp+0xd90>
- .byte 68,15,40,37,58,222,0,0 // movaps 0xde3a(%rip),%xmm12 # 32ee0 <_sk_srcover_rgba_8888_sse2_lowp+0xda0>
+ .byte 68,15,88,13,86,222,0,0 // addps 0xde56(%rip),%xmm9 # 32f10 <_sk_srcover_rgba_8888_sse2_lowp+0xdb4>
+ .byte 68,15,40,37,94,222,0,0 // movaps 0xde5e(%rip),%xmm12 # 32f20 <_sk_srcover_rgba_8888_sse2_lowp+0xdc4>
.byte 69,15,89,229 // mulps %xmm13,%xmm12
.byte 69,15,92,204 // subps %xmm12,%xmm9
- .byte 68,15,40,37,58,222,0,0 // movaps 0xde3a(%rip),%xmm12 # 32ef0 <_sk_srcover_rgba_8888_sse2_lowp+0xdb0>
+ .byte 68,15,40,37,94,222,0,0 // movaps 0xde5e(%rip),%xmm12 # 32f30 <_sk_srcover_rgba_8888_sse2_lowp+0xdd4>
.byte 69,15,92,229 // subps %xmm13,%xmm12
- .byte 68,15,40,45,62,222,0,0 // movaps 0xde3e(%rip),%xmm13 # 32f00 <_sk_srcover_rgba_8888_sse2_lowp+0xdc0>
+ .byte 68,15,40,45,98,222,0,0 // movaps 0xde62(%rip),%xmm13 # 32f40 <_sk_srcover_rgba_8888_sse2_lowp+0xde4>
.byte 69,15,94,236 // divps %xmm12,%xmm13
.byte 69,15,88,233 // addps %xmm9,%xmm13
- .byte 68,15,89,45,62,222,0,0 // mulps 0xde3e(%rip),%xmm13 # 32f10 <_sk_srcover_rgba_8888_sse2_lowp+0xdd0>
+ .byte 68,15,89,45,98,222,0,0 // mulps 0xde62(%rip),%xmm13 # 32f50 <_sk_srcover_rgba_8888_sse2_lowp+0xdf4>
.byte 102,69,15,91,205 // cvtps2dq %xmm13,%xmm9
.byte 243,68,15,16,96,20 // movss 0x14(%rax),%xmm12
.byte 69,15,198,228,0 // shufps $0x0,%xmm12,%xmm12
@@ -45691,15 +45703,15 @@ _sk_parametric_b_sse2:
.byte 69,15,88,209 // addps %xmm9,%xmm10
.byte 69,15,198,219,0 // shufps $0x0,%xmm11,%xmm11
.byte 69,15,91,202 // cvtdq2ps %xmm10,%xmm9
- .byte 68,15,89,13,14,221,0,0 // mulps 0xdd0e(%rip),%xmm9 # 32e70 <_sk_srcover_rgba_8888_sse2_lowp+0xd30>
- .byte 68,15,84,21,22,221,0,0 // andps 0xdd16(%rip),%xmm10 # 32e80 <_sk_srcover_rgba_8888_sse2_lowp+0xd40>
- .byte 68,15,86,21,78,218,0,0 // orps 0xda4e(%rip),%xmm10 # 32bc0 <_sk_srcover_rgba_8888_sse2_lowp+0xa80>
- .byte 68,15,88,13,22,221,0,0 // addps 0xdd16(%rip),%xmm9 # 32e90 <_sk_srcover_rgba_8888_sse2_lowp+0xd50>
- .byte 68,15,40,37,30,221,0,0 // movaps 0xdd1e(%rip),%xmm12 # 32ea0 <_sk_srcover_rgba_8888_sse2_lowp+0xd60>
+ .byte 68,15,89,13,50,221,0,0 // mulps 0xdd32(%rip),%xmm9 # 32eb0 <_sk_srcover_rgba_8888_sse2_lowp+0xd54>
+ .byte 68,15,84,21,58,221,0,0 // andps 0xdd3a(%rip),%xmm10 # 32ec0 <_sk_srcover_rgba_8888_sse2_lowp+0xd64>
+ .byte 68,15,86,21,98,218,0,0 // orps 0xda62(%rip),%xmm10 # 32bf0 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
+ .byte 68,15,88,13,58,221,0,0 // addps 0xdd3a(%rip),%xmm9 # 32ed0 <_sk_srcover_rgba_8888_sse2_lowp+0xd74>
+ .byte 68,15,40,37,66,221,0,0 // movaps 0xdd42(%rip),%xmm12 # 32ee0 <_sk_srcover_rgba_8888_sse2_lowp+0xd84>
.byte 69,15,89,226 // mulps %xmm10,%xmm12
.byte 69,15,92,204 // subps %xmm12,%xmm9
- .byte 68,15,88,21,30,221,0,0 // addps 0xdd1e(%rip),%xmm10 # 32eb0 <_sk_srcover_rgba_8888_sse2_lowp+0xd70>
- .byte 68,15,40,37,38,221,0,0 // movaps 0xdd26(%rip),%xmm12 # 32ec0 <_sk_srcover_rgba_8888_sse2_lowp+0xd80>
+ .byte 68,15,88,21,66,221,0,0 // addps 0xdd42(%rip),%xmm10 # 32ef0 <_sk_srcover_rgba_8888_sse2_lowp+0xd94>
+ .byte 68,15,40,37,74,221,0,0 // movaps 0xdd4a(%rip),%xmm12 # 32f00 <_sk_srcover_rgba_8888_sse2_lowp+0xda4>
.byte 69,15,94,226 // divps %xmm10,%xmm12
.byte 69,15,92,204 // subps %xmm12,%xmm9
.byte 69,15,89,203 // mulps %xmm11,%xmm9
@@ -45707,22 +45719,22 @@ _sk_parametric_b_sse2:
.byte 69,15,91,226 // cvtdq2ps %xmm10,%xmm12
.byte 69,15,40,233 // movaps %xmm9,%xmm13
.byte 69,15,194,236,1 // cmpltps %xmm12,%xmm13
- .byte 68,15,40,21,16,218,0,0 // movaps 0xda10(%rip),%xmm10 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xa90>
+ .byte 68,15,40,21,36,218,0,0 // movaps 0xda24(%rip),%xmm10 # 32c00 <_sk_srcover_rgba_8888_sse2_lowp+0xaa4>
.byte 69,15,84,234 // andps %xmm10,%xmm13
.byte 69,15,87,219 // xorps %xmm11,%xmm11
.byte 69,15,92,229 // subps %xmm13,%xmm12
.byte 69,15,40,233 // movaps %xmm9,%xmm13
.byte 69,15,92,236 // subps %xmm12,%xmm13
- .byte 68,15,88,13,244,220,0,0 // addps 0xdcf4(%rip),%xmm9 # 32ed0 <_sk_srcover_rgba_8888_sse2_lowp+0xd90>
- .byte 68,15,40,37,252,220,0,0 // movaps 0xdcfc(%rip),%xmm12 # 32ee0 <_sk_srcover_rgba_8888_sse2_lowp+0xda0>
+ .byte 68,15,88,13,24,221,0,0 // addps 0xdd18(%rip),%xmm9 # 32f10 <_sk_srcover_rgba_8888_sse2_lowp+0xdb4>
+ .byte 68,15,40,37,32,221,0,0 // movaps 0xdd20(%rip),%xmm12 # 32f20 <_sk_srcover_rgba_8888_sse2_lowp+0xdc4>
.byte 69,15,89,229 // mulps %xmm13,%xmm12
.byte 69,15,92,204 // subps %xmm12,%xmm9
- .byte 68,15,40,37,252,220,0,0 // movaps 0xdcfc(%rip),%xmm12 # 32ef0 <_sk_srcover_rgba_8888_sse2_lowp+0xdb0>
+ .byte 68,15,40,37,32,221,0,0 // movaps 0xdd20(%rip),%xmm12 # 32f30 <_sk_srcover_rgba_8888_sse2_lowp+0xdd4>
.byte 69,15,92,229 // subps %xmm13,%xmm12
- .byte 68,15,40,45,0,221,0,0 // movaps 0xdd00(%rip),%xmm13 # 32f00 <_sk_srcover_rgba_8888_sse2_lowp+0xdc0>
+ .byte 68,15,40,45,36,221,0,0 // movaps 0xdd24(%rip),%xmm13 # 32f40 <_sk_srcover_rgba_8888_sse2_lowp+0xde4>
.byte 69,15,94,236 // divps %xmm12,%xmm13
.byte 69,15,88,233 // addps %xmm9,%xmm13
- .byte 68,15,89,45,0,221,0,0 // mulps 0xdd00(%rip),%xmm13 # 32f10 <_sk_srcover_rgba_8888_sse2_lowp+0xdd0>
+ .byte 68,15,89,45,36,221,0,0 // mulps 0xdd24(%rip),%xmm13 # 32f50 <_sk_srcover_rgba_8888_sse2_lowp+0xdf4>
.byte 102,69,15,91,205 // cvtps2dq %xmm13,%xmm9
.byte 243,68,15,16,96,20 // movss 0x14(%rax),%xmm12
.byte 69,15,198,228,0 // shufps $0x0,%xmm12,%xmm12
@@ -45758,15 +45770,15 @@ _sk_parametric_a_sse2:
.byte 69,15,88,209 // addps %xmm9,%xmm10
.byte 69,15,198,219,0 // shufps $0x0,%xmm11,%xmm11
.byte 69,15,91,202 // cvtdq2ps %xmm10,%xmm9
- .byte 68,15,89,13,208,219,0,0 // mulps 0xdbd0(%rip),%xmm9 # 32e70 <_sk_srcover_rgba_8888_sse2_lowp+0xd30>
- .byte 68,15,84,21,216,219,0,0 // andps 0xdbd8(%rip),%xmm10 # 32e80 <_sk_srcover_rgba_8888_sse2_lowp+0xd40>
- .byte 68,15,86,21,16,217,0,0 // orps 0xd910(%rip),%xmm10 # 32bc0 <_sk_srcover_rgba_8888_sse2_lowp+0xa80>
- .byte 68,15,88,13,216,219,0,0 // addps 0xdbd8(%rip),%xmm9 # 32e90 <_sk_srcover_rgba_8888_sse2_lowp+0xd50>
- .byte 68,15,40,37,224,219,0,0 // movaps 0xdbe0(%rip),%xmm12 # 32ea0 <_sk_srcover_rgba_8888_sse2_lowp+0xd60>
+ .byte 68,15,89,13,244,219,0,0 // mulps 0xdbf4(%rip),%xmm9 # 32eb0 <_sk_srcover_rgba_8888_sse2_lowp+0xd54>
+ .byte 68,15,84,21,252,219,0,0 // andps 0xdbfc(%rip),%xmm10 # 32ec0 <_sk_srcover_rgba_8888_sse2_lowp+0xd64>
+ .byte 68,15,86,21,36,217,0,0 // orps 0xd924(%rip),%xmm10 # 32bf0 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
+ .byte 68,15,88,13,252,219,0,0 // addps 0xdbfc(%rip),%xmm9 # 32ed0 <_sk_srcover_rgba_8888_sse2_lowp+0xd74>
+ .byte 68,15,40,37,4,220,0,0 // movaps 0xdc04(%rip),%xmm12 # 32ee0 <_sk_srcover_rgba_8888_sse2_lowp+0xd84>
.byte 69,15,89,226 // mulps %xmm10,%xmm12
.byte 69,15,92,204 // subps %xmm12,%xmm9
- .byte 68,15,88,21,224,219,0,0 // addps 0xdbe0(%rip),%xmm10 # 32eb0 <_sk_srcover_rgba_8888_sse2_lowp+0xd70>
- .byte 68,15,40,37,232,219,0,0 // movaps 0xdbe8(%rip),%xmm12 # 32ec0 <_sk_srcover_rgba_8888_sse2_lowp+0xd80>
+ .byte 68,15,88,21,4,220,0,0 // addps 0xdc04(%rip),%xmm10 # 32ef0 <_sk_srcover_rgba_8888_sse2_lowp+0xd94>
+ .byte 68,15,40,37,12,220,0,0 // movaps 0xdc0c(%rip),%xmm12 # 32f00 <_sk_srcover_rgba_8888_sse2_lowp+0xda4>
.byte 69,15,94,226 // divps %xmm10,%xmm12
.byte 69,15,92,204 // subps %xmm12,%xmm9
.byte 69,15,89,203 // mulps %xmm11,%xmm9
@@ -45774,22 +45786,22 @@ _sk_parametric_a_sse2:
.byte 69,15,91,226 // cvtdq2ps %xmm10,%xmm12
.byte 69,15,40,233 // movaps %xmm9,%xmm13
.byte 69,15,194,236,1 // cmpltps %xmm12,%xmm13
- .byte 68,15,40,21,210,216,0,0 // movaps 0xd8d2(%rip),%xmm10 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xa90>
+ .byte 68,15,40,21,230,216,0,0 // movaps 0xd8e6(%rip),%xmm10 # 32c00 <_sk_srcover_rgba_8888_sse2_lowp+0xaa4>
.byte 69,15,84,234 // andps %xmm10,%xmm13
.byte 69,15,87,219 // xorps %xmm11,%xmm11
.byte 69,15,92,229 // subps %xmm13,%xmm12
.byte 69,15,40,233 // movaps %xmm9,%xmm13
.byte 69,15,92,236 // subps %xmm12,%xmm13
- .byte 68,15,88,13,182,219,0,0 // addps 0xdbb6(%rip),%xmm9 # 32ed0 <_sk_srcover_rgba_8888_sse2_lowp+0xd90>
- .byte 68,15,40,37,190,219,0,0 // movaps 0xdbbe(%rip),%xmm12 # 32ee0 <_sk_srcover_rgba_8888_sse2_lowp+0xda0>
+ .byte 68,15,88,13,218,219,0,0 // addps 0xdbda(%rip),%xmm9 # 32f10 <_sk_srcover_rgba_8888_sse2_lowp+0xdb4>
+ .byte 68,15,40,37,226,219,0,0 // movaps 0xdbe2(%rip),%xmm12 # 32f20 <_sk_srcover_rgba_8888_sse2_lowp+0xdc4>
.byte 69,15,89,229 // mulps %xmm13,%xmm12
.byte 69,15,92,204 // subps %xmm12,%xmm9
- .byte 68,15,40,37,190,219,0,0 // movaps 0xdbbe(%rip),%xmm12 # 32ef0 <_sk_srcover_rgba_8888_sse2_lowp+0xdb0>
+ .byte 68,15,40,37,226,219,0,0 // movaps 0xdbe2(%rip),%xmm12 # 32f30 <_sk_srcover_rgba_8888_sse2_lowp+0xdd4>
.byte 69,15,92,229 // subps %xmm13,%xmm12
- .byte 68,15,40,45,194,219,0,0 // movaps 0xdbc2(%rip),%xmm13 # 32f00 <_sk_srcover_rgba_8888_sse2_lowp+0xdc0>
+ .byte 68,15,40,45,230,219,0,0 // movaps 0xdbe6(%rip),%xmm13 # 32f40 <_sk_srcover_rgba_8888_sse2_lowp+0xde4>
.byte 69,15,94,236 // divps %xmm12,%xmm13
.byte 69,15,88,233 // addps %xmm9,%xmm13
- .byte 68,15,89,45,194,219,0,0 // mulps 0xdbc2(%rip),%xmm13 # 32f10 <_sk_srcover_rgba_8888_sse2_lowp+0xdd0>
+ .byte 68,15,89,45,230,219,0,0 // mulps 0xdbe6(%rip),%xmm13 # 32f50 <_sk_srcover_rgba_8888_sse2_lowp+0xdf4>
.byte 102,69,15,91,205 // cvtps2dq %xmm13,%xmm9
.byte 243,68,15,16,96,20 // movss 0x14(%rax),%xmm12
.byte 69,15,198,228,0 // shufps $0x0,%xmm12,%xmm12
@@ -45814,19 +45826,19 @@ _sk_gamma_sse2:
.byte 15,40,218 // movaps %xmm2,%xmm3
.byte 15,40,208 // movaps %xmm0,%xmm2
.byte 15,91,194 // cvtdq2ps %xmm2,%xmm0
- .byte 15,89,5,205,218,0,0 // mulps 0xdacd(%rip),%xmm0 # 32e70 <_sk_srcover_rgba_8888_sse2_lowp+0xd30>
- .byte 15,84,21,214,218,0,0 // andps 0xdad6(%rip),%xmm2 # 32e80 <_sk_srcover_rgba_8888_sse2_lowp+0xd40>
- .byte 68,15,40,53,14,216,0,0 // movaps 0xd80e(%rip),%xmm14 # 32bc0 <_sk_srcover_rgba_8888_sse2_lowp+0xa80>
+ .byte 15,89,5,241,218,0,0 // mulps 0xdaf1(%rip),%xmm0 # 32eb0 <_sk_srcover_rgba_8888_sse2_lowp+0xd54>
+ .byte 15,84,21,250,218,0,0 // andps 0xdafa(%rip),%xmm2 # 32ec0 <_sk_srcover_rgba_8888_sse2_lowp+0xd64>
+ .byte 68,15,40,53,34,216,0,0 // movaps 0xd822(%rip),%xmm14 # 32bf0 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
.byte 65,15,86,214 // orps %xmm14,%xmm2
- .byte 68,15,40,37,210,218,0,0 // movaps 0xdad2(%rip),%xmm12 # 32e90 <_sk_srcover_rgba_8888_sse2_lowp+0xd50>
+ .byte 68,15,40,37,246,218,0,0 // movaps 0xdaf6(%rip),%xmm12 # 32ed0 <_sk_srcover_rgba_8888_sse2_lowp+0xd74>
.byte 65,15,88,196 // addps %xmm12,%xmm0
- .byte 68,15,40,29,214,218,0,0 // movaps 0xdad6(%rip),%xmm11 # 32ea0 <_sk_srcover_rgba_8888_sse2_lowp+0xd60>
+ .byte 68,15,40,29,250,218,0,0 // movaps 0xdafa(%rip),%xmm11 # 32ee0 <_sk_srcover_rgba_8888_sse2_lowp+0xd84>
.byte 15,40,226 // movaps %xmm2,%xmm4
.byte 65,15,89,227 // mulps %xmm11,%xmm4
.byte 15,92,196 // subps %xmm4,%xmm0
- .byte 68,15,40,21,212,218,0,0 // movaps 0xdad4(%rip),%xmm10 # 32eb0 <_sk_srcover_rgba_8888_sse2_lowp+0xd70>
+ .byte 68,15,40,21,248,218,0,0 // movaps 0xdaf8(%rip),%xmm10 # 32ef0 <_sk_srcover_rgba_8888_sse2_lowp+0xd94>
.byte 65,15,88,210 // addps %xmm10,%xmm2
- .byte 68,15,40,45,216,218,0,0 // movaps 0xdad8(%rip),%xmm13 # 32ec0 <_sk_srcover_rgba_8888_sse2_lowp+0xd80>
+ .byte 68,15,40,45,252,218,0,0 // movaps 0xdafc(%rip),%xmm13 # 32f00 <_sk_srcover_rgba_8888_sse2_lowp+0xda4>
.byte 65,15,40,229 // movaps %xmm13,%xmm4
.byte 15,94,226 // divps %xmm2,%xmm4
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -45838,27 +45850,27 @@ _sk_gamma_sse2:
.byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
.byte 15,40,224 // movaps %xmm0,%xmm4
.byte 15,194,226,1 // cmpltps %xmm2,%xmm4
- .byte 68,15,40,13,184,215,0,0 // movaps 0xd7b8(%rip),%xmm9 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xa90>
+ .byte 68,15,40,13,204,215,0,0 // movaps 0xd7cc(%rip),%xmm9 # 32c00 <_sk_srcover_rgba_8888_sse2_lowp+0xaa4>
.byte 65,15,84,225 // andps %xmm9,%xmm4
.byte 15,92,212 // subps %xmm4,%xmm2
.byte 15,40,224 // movaps %xmm0,%xmm4
.byte 15,92,226 // subps %xmm2,%xmm4
- .byte 15,40,53,164,218,0,0 // movaps 0xdaa4(%rip),%xmm6 # 32ed0 <_sk_srcover_rgba_8888_sse2_lowp+0xd90>
+ .byte 15,40,53,200,218,0,0 // movaps 0xdac8(%rip),%xmm6 # 32f10 <_sk_srcover_rgba_8888_sse2_lowp+0xdb4>
.byte 15,88,198 // addps %xmm6,%xmm0
- .byte 15,40,61,186,218,0,0 // movaps 0xdaba(%rip),%xmm7 # 32ef0 <_sk_srcover_rgba_8888_sse2_lowp+0xdb0>
+ .byte 15,40,61,222,218,0,0 // movaps 0xdade(%rip),%xmm7 # 32f30 <_sk_srcover_rgba_8888_sse2_lowp+0xdd4>
.byte 15,40,239 // movaps %xmm7,%xmm5
.byte 15,92,236 // subps %xmm4,%xmm5
.byte 15,40,212 // movaps %xmm4,%xmm2
- .byte 15,40,37,154,218,0,0 // movaps 0xda9a(%rip),%xmm4 # 32ee0 <_sk_srcover_rgba_8888_sse2_lowp+0xda0>
+ .byte 15,40,37,190,218,0,0 // movaps 0xdabe(%rip),%xmm4 # 32f20 <_sk_srcover_rgba_8888_sse2_lowp+0xdc4>
.byte 15,89,212 // mulps %xmm4,%xmm2
.byte 15,92,194 // subps %xmm2,%xmm0
- .byte 68,15,40,61,172,218,0,0 // movaps 0xdaac(%rip),%xmm15 # 32f00 <_sk_srcover_rgba_8888_sse2_lowp+0xdc0>
+ .byte 68,15,40,61,208,218,0,0 // movaps 0xdad0(%rip),%xmm15 # 32f40 <_sk_srcover_rgba_8888_sse2_lowp+0xde4>
.byte 65,15,40,215 // movaps %xmm15,%xmm2
.byte 15,94,213 // divps %xmm5,%xmm2
.byte 15,88,208 // addps %xmm0,%xmm2
.byte 15,91,193 // cvtdq2ps %xmm1,%xmm0
- .byte 15,89,5,8,218,0,0 // mulps 0xda08(%rip),%xmm0 # 32e70 <_sk_srcover_rgba_8888_sse2_lowp+0xd30>
- .byte 15,84,13,17,218,0,0 // andps 0xda11(%rip),%xmm1 # 32e80 <_sk_srcover_rgba_8888_sse2_lowp+0xd40>
+ .byte 15,89,5,44,218,0,0 // mulps 0xda2c(%rip),%xmm0 # 32eb0 <_sk_srcover_rgba_8888_sse2_lowp+0xd54>
+ .byte 15,84,13,53,218,0,0 // andps 0xda35(%rip),%xmm1 # 32ec0 <_sk_srcover_rgba_8888_sse2_lowp+0xd64>
.byte 65,15,86,206 // orps %xmm14,%xmm1
.byte 65,15,88,196 // addps %xmm12,%xmm0
.byte 15,40,233 // movaps %xmm1,%xmm5
@@ -45888,9 +45900,9 @@ _sk_gamma_sse2:
.byte 15,94,206 // divps %xmm6,%xmm1
.byte 15,88,200 // addps %xmm0,%xmm1
.byte 15,91,195 // cvtdq2ps %xmm3,%xmm0
- .byte 15,89,5,151,217,0,0 // mulps 0xd997(%rip),%xmm0 # 32e70 <_sk_srcover_rgba_8888_sse2_lowp+0xd30>
- .byte 15,84,29,160,217,0,0 // andps 0xd9a0(%rip),%xmm3 # 32e80 <_sk_srcover_rgba_8888_sse2_lowp+0xd40>
- .byte 15,86,29,217,214,0,0 // orps 0xd6d9(%rip),%xmm3 # 32bc0 <_sk_srcover_rgba_8888_sse2_lowp+0xa80>
+ .byte 15,89,5,187,217,0,0 // mulps 0xd9bb(%rip),%xmm0 # 32eb0 <_sk_srcover_rgba_8888_sse2_lowp+0xd54>
+ .byte 15,84,29,196,217,0,0 // andps 0xd9c4(%rip),%xmm3 # 32ec0 <_sk_srcover_rgba_8888_sse2_lowp+0xd64>
+ .byte 15,86,29,237,214,0,0 // orps 0xd6ed(%rip),%xmm3 # 32bf0 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
.byte 65,15,88,196 // addps %xmm12,%xmm0
.byte 68,15,89,219 // mulps %xmm3,%xmm11
.byte 65,15,92,195 // subps %xmm11,%xmm0
@@ -45912,7 +45924,7 @@ _sk_gamma_sse2:
.byte 15,92,253 // subps %xmm5,%xmm7
.byte 68,15,94,255 // divps %xmm7,%xmm15
.byte 68,15,88,248 // addps %xmm0,%xmm15
- .byte 15,40,5,214,217,0,0 // movaps 0xd9d6(%rip),%xmm0 # 32f10 <_sk_srcover_rgba_8888_sse2_lowp+0xdd0>
+ .byte 15,40,5,250,217,0,0 // movaps 0xd9fa(%rip),%xmm0 # 32f50 <_sk_srcover_rgba_8888_sse2_lowp+0xdf4>
.byte 15,89,208 // mulps %xmm0,%xmm2
.byte 15,89,200 // mulps %xmm0,%xmm1
.byte 68,15,89,248 // mulps %xmm0,%xmm15
@@ -45931,29 +45943,29 @@ HIDDEN _sk_lab_to_xyz_sse2
.globl _sk_lab_to_xyz_sse2
FUNCTION(_sk_lab_to_xyz_sse2)
_sk_lab_to_xyz_sse2:
- .byte 15,89,5,171,217,0,0 // mulps 0xd9ab(%rip),%xmm0 # 32f20 <_sk_srcover_rgba_8888_sse2_lowp+0xde0>
- .byte 68,15,40,5,51,215,0,0 // movaps 0xd733(%rip),%xmm8 # 32cb0 <_sk_srcover_rgba_8888_sse2_lowp+0xb70>
+ .byte 15,89,5,207,217,0,0 // mulps 0xd9cf(%rip),%xmm0 # 32f60 <_sk_srcover_rgba_8888_sse2_lowp+0xe04>
+ .byte 68,15,40,5,71,215,0,0 // movaps 0xd747(%rip),%xmm8 # 32ce0 <_sk_srcover_rgba_8888_sse2_lowp+0xb84>
.byte 65,15,89,200 // mulps %xmm8,%xmm1
- .byte 68,15,40,13,167,217,0,0 // movaps 0xd9a7(%rip),%xmm9 # 32f30 <_sk_srcover_rgba_8888_sse2_lowp+0xdf0>
+ .byte 68,15,40,13,203,217,0,0 // movaps 0xd9cb(%rip),%xmm9 # 32f70 <_sk_srcover_rgba_8888_sse2_lowp+0xe14>
.byte 65,15,88,201 // addps %xmm9,%xmm1
.byte 65,15,89,208 // mulps %xmm8,%xmm2
.byte 65,15,88,209 // addps %xmm9,%xmm2
- .byte 15,88,5,164,217,0,0 // addps 0xd9a4(%rip),%xmm0 # 32f40 <_sk_srcover_rgba_8888_sse2_lowp+0xe00>
- .byte 15,89,5,173,217,0,0 // mulps 0xd9ad(%rip),%xmm0 # 32f50 <_sk_srcover_rgba_8888_sse2_lowp+0xe10>
- .byte 15,89,13,182,217,0,0 // mulps 0xd9b6(%rip),%xmm1 # 32f60 <_sk_srcover_rgba_8888_sse2_lowp+0xe20>
+ .byte 15,88,5,200,217,0,0 // addps 0xd9c8(%rip),%xmm0 # 32f80 <_sk_srcover_rgba_8888_sse2_lowp+0xe24>
+ .byte 15,89,5,209,217,0,0 // mulps 0xd9d1(%rip),%xmm0 # 32f90 <_sk_srcover_rgba_8888_sse2_lowp+0xe34>
+ .byte 15,89,13,218,217,0,0 // mulps 0xd9da(%rip),%xmm1 # 32fa0 <_sk_srcover_rgba_8888_sse2_lowp+0xe44>
.byte 15,88,200 // addps %xmm0,%xmm1
- .byte 15,89,21,188,217,0,0 // mulps 0xd9bc(%rip),%xmm2 # 32f70 <_sk_srcover_rgba_8888_sse2_lowp+0xe30>
+ .byte 15,89,21,224,217,0,0 // mulps 0xd9e0(%rip),%xmm2 # 32fb0 <_sk_srcover_rgba_8888_sse2_lowp+0xe54>
.byte 68,15,40,200 // movaps %xmm0,%xmm9
.byte 68,15,92,202 // subps %xmm2,%xmm9
.byte 68,15,40,225 // movaps %xmm1,%xmm12
.byte 69,15,89,228 // mulps %xmm12,%xmm12
.byte 68,15,89,225 // mulps %xmm1,%xmm12
- .byte 15,40,21,177,217,0,0 // movaps 0xd9b1(%rip),%xmm2 # 32f80 <_sk_srcover_rgba_8888_sse2_lowp+0xe40>
+ .byte 15,40,21,213,217,0,0 // movaps 0xd9d5(%rip),%xmm2 # 32fc0 <_sk_srcover_rgba_8888_sse2_lowp+0xe64>
.byte 68,15,40,194 // movaps %xmm2,%xmm8
.byte 69,15,194,196,1 // cmpltps %xmm12,%xmm8
- .byte 68,15,40,21,176,217,0,0 // movaps 0xd9b0(%rip),%xmm10 # 32f90 <_sk_srcover_rgba_8888_sse2_lowp+0xe50>
+ .byte 68,15,40,21,212,217,0,0 // movaps 0xd9d4(%rip),%xmm10 # 32fd0 <_sk_srcover_rgba_8888_sse2_lowp+0xe74>
.byte 65,15,88,202 // addps %xmm10,%xmm1
- .byte 68,15,40,29,180,217,0,0 // movaps 0xd9b4(%rip),%xmm11 # 32fa0 <_sk_srcover_rgba_8888_sse2_lowp+0xe60>
+ .byte 68,15,40,29,216,217,0,0 // movaps 0xd9d8(%rip),%xmm11 # 32fe0 <_sk_srcover_rgba_8888_sse2_lowp+0xe84>
.byte 65,15,89,203 // mulps %xmm11,%xmm1
.byte 69,15,84,224 // andps %xmm8,%xmm12
.byte 68,15,85,193 // andnps %xmm1,%xmm8
@@ -45977,8 +45989,8 @@ _sk_lab_to_xyz_sse2:
.byte 15,84,194 // andps %xmm2,%xmm0
.byte 65,15,85,209 // andnps %xmm9,%xmm2
.byte 15,86,208 // orps %xmm0,%xmm2
- .byte 68,15,89,5,100,217,0,0 // mulps 0xd964(%rip),%xmm8 # 32fb0 <_sk_srcover_rgba_8888_sse2_lowp+0xe70>
- .byte 15,89,21,109,217,0,0 // mulps 0xd96d(%rip),%xmm2 # 32fc0 <_sk_srcover_rgba_8888_sse2_lowp+0xe80>
+ .byte 68,15,89,5,136,217,0,0 // mulps 0xd988(%rip),%xmm8 # 32ff0 <_sk_srcover_rgba_8888_sse2_lowp+0xe94>
+ .byte 15,89,21,145,217,0,0 // mulps 0xd991(%rip),%xmm2 # 33000 <_sk_srcover_rgba_8888_sse2_lowp+0xea4>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 65,15,40,192 // movaps %xmm8,%xmm0
.byte 255,224 // jmpq *%rax
@@ -45994,13 +46006,13 @@ _sk_load_a8_sse2:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,210 // movslq %edx,%r10
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,46 // jne 256a1 <_sk_load_a8_sse2+0x46>
+ .byte 117,46 // jne 256bd <_sk_load_a8_sse2+0x46>
.byte 102,67,15,110,4,16 // movd (%r8,%r10,1),%xmm0
.byte 102,15,96,192 // punpcklbw %xmm0,%xmm0
.byte 102,15,97,192 // punpcklwd %xmm0,%xmm0
- .byte 102,15,219,5,247,213,0,0 // pand 0xd5f7(%rip),%xmm0 # 32c80 <_sk_srcover_rgba_8888_sse2_lowp+0xb40>
+ .byte 102,15,219,5,11,214,0,0 // pand 0xd60b(%rip),%xmm0 # 32cb0 <_sk_srcover_rgba_8888_sse2_lowp+0xb54>
.byte 15,91,216 // cvtdq2ps %xmm0,%xmm3
- .byte 15,89,29,61,215,0,0 // mulps 0xd73d(%rip),%xmm3 # 32dd0 <_sk_srcover_rgba_8888_sse2_lowp+0xc90>
+ .byte 15,89,29,97,215,0,0 // mulps 0xd761(%rip),%xmm3 # 32e10 <_sk_srcover_rgba_8888_sse2_lowp+0xcb4>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,87,192 // xorps %xmm0,%xmm0
.byte 102,15,87,201 // xorpd %xmm1,%xmm1
@@ -46009,12 +46021,12 @@ _sk_load_a8_sse2:
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,54 // je 256e4 <_sk_load_a8_sse2+0x89>
+ .byte 116,54 // je 25700 <_sk_load_a8_sse2+0x89>
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,21 // je 256cd <_sk_load_a8_sse2+0x72>
+ .byte 116,21 // je 256e9 <_sk_load_a8_sse2+0x72>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,195 // jne 25681 <_sk_load_a8_sse2+0x26>
+ .byte 117,195 // jne 2569d <_sk_load_a8_sse2+0x26>
.byte 67,15,182,68,16,2 // movzbl 0x2(%r8,%r10,1),%eax
.byte 102,15,110,192 // movd %eax,%xmm0
.byte 102,15,112,192,69 // pshufd $0x45,%xmm0,%xmm0
@@ -46023,10 +46035,10 @@ _sk_load_a8_sse2:
.byte 102,15,96,200 // punpcklbw %xmm0,%xmm1
.byte 102,15,97,200 // punpcklwd %xmm0,%xmm1
.byte 242,15,16,193 // movsd %xmm1,%xmm0
- .byte 235,157 // jmp 25681 <_sk_load_a8_sse2+0x26>
+ .byte 235,157 // jmp 2569d <_sk_load_a8_sse2+0x26>
.byte 67,15,182,4,16 // movzbl (%r8,%r10,1),%eax
.byte 102,15,110,192 // movd %eax,%xmm0
- .byte 235,146 // jmp 25681 <_sk_load_a8_sse2+0x26>
+ .byte 235,146 // jmp 2569d <_sk_load_a8_sse2+0x26>
HIDDEN _sk_load_a8_dst_sse2
.globl _sk_load_a8_dst_sse2
@@ -46039,13 +46051,13 @@ _sk_load_a8_dst_sse2:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,210 // movslq %edx,%r10
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,46 // jne 25735 <_sk_load_a8_dst_sse2+0x46>
+ .byte 117,46 // jne 25751 <_sk_load_a8_dst_sse2+0x46>
.byte 102,67,15,110,36,16 // movd (%r8,%r10,1),%xmm4
.byte 102,15,96,224 // punpcklbw %xmm0,%xmm4
.byte 102,15,97,224 // punpcklwd %xmm0,%xmm4
- .byte 102,15,219,37,99,213,0,0 // pand 0xd563(%rip),%xmm4 # 32c80 <_sk_srcover_rgba_8888_sse2_lowp+0xb40>
+ .byte 102,15,219,37,119,213,0,0 // pand 0xd577(%rip),%xmm4 # 32cb0 <_sk_srcover_rgba_8888_sse2_lowp+0xb54>
.byte 15,91,252 // cvtdq2ps %xmm4,%xmm7
- .byte 15,89,61,169,214,0,0 // mulps 0xd6a9(%rip),%xmm7 # 32dd0 <_sk_srcover_rgba_8888_sse2_lowp+0xc90>
+ .byte 15,89,61,205,214,0,0 // mulps 0xd6cd(%rip),%xmm7 # 32e10 <_sk_srcover_rgba_8888_sse2_lowp+0xcb4>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,87,228 // xorps %xmm4,%xmm4
.byte 102,15,87,237 // xorpd %xmm5,%xmm5
@@ -46054,12 +46066,12 @@ _sk_load_a8_dst_sse2:
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,54 // je 25778 <_sk_load_a8_dst_sse2+0x89>
+ .byte 116,54 // je 25794 <_sk_load_a8_dst_sse2+0x89>
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,21 // je 25761 <_sk_load_a8_dst_sse2+0x72>
+ .byte 116,21 // je 2577d <_sk_load_a8_dst_sse2+0x72>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,195 // jne 25715 <_sk_load_a8_dst_sse2+0x26>
+ .byte 117,195 // jne 25731 <_sk_load_a8_dst_sse2+0x26>
.byte 67,15,182,68,16,2 // movzbl 0x2(%r8,%r10,1),%eax
.byte 102,15,110,224 // movd %eax,%xmm4
.byte 102,15,112,228,69 // pshufd $0x45,%xmm4,%xmm4
@@ -46068,10 +46080,10 @@ _sk_load_a8_dst_sse2:
.byte 102,15,96,232 // punpcklbw %xmm0,%xmm5
.byte 102,15,97,232 // punpcklwd %xmm0,%xmm5
.byte 242,15,16,229 // movsd %xmm5,%xmm4
- .byte 235,157 // jmp 25715 <_sk_load_a8_dst_sse2+0x26>
+ .byte 235,157 // jmp 25731 <_sk_load_a8_dst_sse2+0x26>
.byte 67,15,182,4,16 // movzbl (%r8,%r10,1),%eax
.byte 102,15,110,224 // movd %eax,%xmm4
- .byte 235,146 // jmp 25715 <_sk_load_a8_dst_sse2+0x26>
+ .byte 235,146 // jmp 25731 <_sk_load_a8_dst_sse2+0x26>
HIDDEN _sk_gather_a8_sse2
.globl _sk_gather_a8_sse2
@@ -46124,7 +46136,7 @@ _sk_gather_a8_sse2:
.byte 102,65,15,96,192 // punpcklbw %xmm8,%xmm0
.byte 102,65,15,97,192 // punpcklwd %xmm8,%xmm0
.byte 15,91,216 // cvtdq2ps %xmm0,%xmm3
- .byte 15,89,29,131,213,0,0 // mulps 0xd583(%rip),%xmm3 # 32dd0 <_sk_srcover_rgba_8888_sse2_lowp+0xc90>
+ .byte 15,89,29,167,213,0,0 // mulps 0xd5a7(%rip),%xmm3 # 32e10 <_sk_srcover_rgba_8888_sse2_lowp+0xcb4>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,87,192 // xorps %xmm0,%xmm0
.byte 102,15,239,201 // pxor %xmm1,%xmm1
@@ -46141,7 +46153,7 @@ _sk_store_a8_sse2:
.byte 77,15,175,193 // imul %r9,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,210 // movslq %edx,%r10
- .byte 68,15,40,5,58,212,0,0 // movaps 0xd43a(%rip),%xmm8 # 32cb0 <_sk_srcover_rgba_8888_sse2_lowp+0xb70>
+ .byte 68,15,40,5,78,212,0,0 // movaps 0xd44e(%rip),%xmm8 # 32ce0 <_sk_srcover_rgba_8888_sse2_lowp+0xb84>
.byte 68,15,89,195 // mulps %xmm3,%xmm8
.byte 102,69,15,91,192 // cvtps2dq %xmm8,%xmm8
.byte 102,65,15,114,240,16 // pslld $0x10,%xmm8
@@ -46149,7 +46161,7 @@ _sk_store_a8_sse2:
.byte 102,68,15,107,192 // packssdw %xmm0,%xmm8
.byte 102,68,15,103,192 // packuswb %xmm0,%xmm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,13 // jne 258a7 <_sk_store_a8_sse2+0x4c>
+ .byte 117,13 // jne 258c3 <_sk_store_a8_sse2+0x4c>
.byte 102,68,15,126,192 // movd %xmm8,%eax
.byte 67,137,4,16 // mov %eax,(%r8,%r10,1)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -46159,22 +46171,22 @@ _sk_store_a8_sse2:
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,54 // je 258f4 <_sk_store_a8_sse2+0x99>
+ .byte 116,54 // je 25910 <_sk_store_a8_sse2+0x99>
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,17 // je 258d5 <_sk_store_a8_sse2+0x7a>
+ .byte 116,17 // je 258f1 <_sk_store_a8_sse2+0x7a>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,217 // jne 258a3 <_sk_store_a8_sse2+0x48>
+ .byte 117,217 // jne 258bf <_sk_store_a8_sse2+0x48>
.byte 102,65,15,197,192,4 // pextrw $0x4,%xmm8,%eax
.byte 67,136,68,16,2 // mov %al,0x2(%r8,%r10,1)
- .byte 102,68,15,219,5,162,211,0,0 // pand 0xd3a2(%rip),%xmm8 # 32c80 <_sk_srcover_rgba_8888_sse2_lowp+0xb40>
+ .byte 102,68,15,219,5,182,211,0,0 // pand 0xd3b6(%rip),%xmm8 # 32cb0 <_sk_srcover_rgba_8888_sse2_lowp+0xb54>
.byte 102,69,15,103,192 // packuswb %xmm8,%xmm8
.byte 102,69,15,103,192 // packuswb %xmm8,%xmm8
.byte 102,68,15,126,192 // movd %xmm8,%eax
.byte 102,67,137,4,16 // mov %ax,(%r8,%r10,1)
- .byte 235,175 // jmp 258a3 <_sk_store_a8_sse2+0x48>
+ .byte 235,175 // jmp 258bf <_sk_store_a8_sse2+0x48>
.byte 102,68,15,126,192 // movd %xmm8,%eax
.byte 67,136,4,16 // mov %al,(%r8,%r10,1)
- .byte 235,164 // jmp 258a3 <_sk_store_a8_sse2+0x48>
+ .byte 235,164 // jmp 258bf <_sk_store_a8_sse2+0x48>
HIDDEN _sk_load_g8_sse2
.globl _sk_load_g8_sse2
@@ -46187,27 +46199,27 @@ _sk_load_g8_sse2:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,210 // movslq %edx,%r10
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,49 // jne 25948 <_sk_load_g8_sse2+0x49>
+ .byte 117,49 // jne 25964 <_sk_load_g8_sse2+0x49>
.byte 102,67,15,110,4,16 // movd (%r8,%r10,1),%xmm0
.byte 102,15,96,192 // punpcklbw %xmm0,%xmm0
.byte 102,15,97,192 // punpcklwd %xmm0,%xmm0
- .byte 102,15,219,5,83,211,0,0 // pand 0xd353(%rip),%xmm0 # 32c80 <_sk_srcover_rgba_8888_sse2_lowp+0xb40>
+ .byte 102,15,219,5,103,211,0,0 // pand 0xd367(%rip),%xmm0 # 32cb0 <_sk_srcover_rgba_8888_sse2_lowp+0xb54>
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,89,5,153,212,0,0 // mulps 0xd499(%rip),%xmm0 # 32dd0 <_sk_srcover_rgba_8888_sse2_lowp+0xc90>
+ .byte 15,89,5,189,212,0,0 // mulps 0xd4bd(%rip),%xmm0 # 32e10 <_sk_srcover_rgba_8888_sse2_lowp+0xcb4>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,144,210,0,0 // movaps 0xd290(%rip),%xmm3 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xa90>
+ .byte 15,40,29,164,210,0,0 // movaps 0xd2a4(%rip),%xmm3 # 32c00 <_sk_srcover_rgba_8888_sse2_lowp+0xaa4>
.byte 15,40,200 // movaps %xmm0,%xmm1
.byte 15,40,208 // movaps %xmm0,%xmm2
.byte 255,224 // jmpq *%rax
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,54 // je 2598b <_sk_load_g8_sse2+0x8c>
+ .byte 116,54 // je 259a7 <_sk_load_g8_sse2+0x8c>
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,21 // je 25974 <_sk_load_g8_sse2+0x75>
+ .byte 116,21 // je 25990 <_sk_load_g8_sse2+0x75>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,192 // jne 25925 <_sk_load_g8_sse2+0x26>
+ .byte 117,192 // jne 25941 <_sk_load_g8_sse2+0x26>
.byte 67,15,182,68,16,2 // movzbl 0x2(%r8,%r10,1),%eax
.byte 102,15,110,192 // movd %eax,%xmm0
.byte 102,15,112,192,69 // pshufd $0x45,%xmm0,%xmm0
@@ -46216,10 +46228,10 @@ _sk_load_g8_sse2:
.byte 102,15,96,200 // punpcklbw %xmm0,%xmm1
.byte 102,15,97,200 // punpcklwd %xmm0,%xmm1
.byte 242,15,16,193 // movsd %xmm1,%xmm0
- .byte 235,154 // jmp 25925 <_sk_load_g8_sse2+0x26>
+ .byte 235,154 // jmp 25941 <_sk_load_g8_sse2+0x26>
.byte 67,15,182,4,16 // movzbl (%r8,%r10,1),%eax
.byte 102,15,110,192 // movd %eax,%xmm0
- .byte 235,143 // jmp 25925 <_sk_load_g8_sse2+0x26>
+ .byte 235,143 // jmp 25941 <_sk_load_g8_sse2+0x26>
HIDDEN _sk_load_g8_dst_sse2
.globl _sk_load_g8_dst_sse2
@@ -46232,27 +46244,27 @@ _sk_load_g8_dst_sse2:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,210 // movslq %edx,%r10
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,49 // jne 259df <_sk_load_g8_dst_sse2+0x49>
+ .byte 117,49 // jne 259fb <_sk_load_g8_dst_sse2+0x49>
.byte 102,67,15,110,36,16 // movd (%r8,%r10,1),%xmm4
.byte 102,15,96,224 // punpcklbw %xmm0,%xmm4
.byte 102,15,97,224 // punpcklwd %xmm0,%xmm4
- .byte 102,15,219,37,188,210,0,0 // pand 0xd2bc(%rip),%xmm4 # 32c80 <_sk_srcover_rgba_8888_sse2_lowp+0xb40>
+ .byte 102,15,219,37,208,210,0,0 // pand 0xd2d0(%rip),%xmm4 # 32cb0 <_sk_srcover_rgba_8888_sse2_lowp+0xb54>
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
- .byte 15,89,37,2,212,0,0 // mulps 0xd402(%rip),%xmm4 # 32dd0 <_sk_srcover_rgba_8888_sse2_lowp+0xc90>
+ .byte 15,89,37,38,212,0,0 // mulps 0xd426(%rip),%xmm4 # 32e10 <_sk_srcover_rgba_8888_sse2_lowp+0xcb4>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,61,249,209,0,0 // movaps 0xd1f9(%rip),%xmm7 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xa90>
+ .byte 15,40,61,13,210,0,0 // movaps 0xd20d(%rip),%xmm7 # 32c00 <_sk_srcover_rgba_8888_sse2_lowp+0xaa4>
.byte 15,40,236 // movaps %xmm4,%xmm5
.byte 15,40,244 // movaps %xmm4,%xmm6
.byte 255,224 // jmpq *%rax
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,54 // je 25a22 <_sk_load_g8_dst_sse2+0x8c>
+ .byte 116,54 // je 25a3e <_sk_load_g8_dst_sse2+0x8c>
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,21 // je 25a0b <_sk_load_g8_dst_sse2+0x75>
+ .byte 116,21 // je 25a27 <_sk_load_g8_dst_sse2+0x75>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,192 // jne 259bc <_sk_load_g8_dst_sse2+0x26>
+ .byte 117,192 // jne 259d8 <_sk_load_g8_dst_sse2+0x26>
.byte 67,15,182,68,16,2 // movzbl 0x2(%r8,%r10,1),%eax
.byte 102,15,110,224 // movd %eax,%xmm4
.byte 102,15,112,228,69 // pshufd $0x45,%xmm4,%xmm4
@@ -46261,10 +46273,10 @@ _sk_load_g8_dst_sse2:
.byte 102,15,96,232 // punpcklbw %xmm0,%xmm5
.byte 102,15,97,232 // punpcklwd %xmm0,%xmm5
.byte 242,15,16,229 // movsd %xmm5,%xmm4
- .byte 235,154 // jmp 259bc <_sk_load_g8_dst_sse2+0x26>
+ .byte 235,154 // jmp 259d8 <_sk_load_g8_dst_sse2+0x26>
.byte 67,15,182,4,16 // movzbl (%r8,%r10,1),%eax
.byte 102,15,110,224 // movd %eax,%xmm4
- .byte 235,143 // jmp 259bc <_sk_load_g8_dst_sse2+0x26>
+ .byte 235,143 // jmp 259d8 <_sk_load_g8_dst_sse2+0x26>
HIDDEN _sk_gather_g8_sse2
.globl _sk_gather_g8_sse2
@@ -46317,9 +46329,9 @@ _sk_gather_g8_sse2:
.byte 102,65,15,96,192 // punpcklbw %xmm8,%xmm0
.byte 102,65,15,97,192 // punpcklwd %xmm8,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,89,5,217,210,0,0 // mulps 0xd2d9(%rip),%xmm0 # 32dd0 <_sk_srcover_rgba_8888_sse2_lowp+0xc90>
+ .byte 15,89,5,253,210,0,0 // mulps 0xd2fd(%rip),%xmm0 # 32e10 <_sk_srcover_rgba_8888_sse2_lowp+0xcb4>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,208,208,0,0 // movaps 0xd0d0(%rip),%xmm3 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xa90>
+ .byte 15,40,29,228,208,0,0 // movaps 0xd0e4(%rip),%xmm3 # 32c00 <_sk_srcover_rgba_8888_sse2_lowp+0xaa4>
.byte 15,40,200 // movaps %xmm0,%xmm1
.byte 15,40,208 // movaps %xmm0,%xmm2
.byte 255,224 // jmpq *%rax
@@ -46336,42 +46348,42 @@ _sk_load_565_sse2:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,210 // movslq %edx,%r10
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,83 // jne 25b76 <_sk_load_565_sse2+0x6e>
+ .byte 117,83 // jne 25b92 <_sk_load_565_sse2+0x6e>
.byte 243,67,15,126,20,80 // movq (%r8,%r10,2),%xmm2
.byte 102,15,97,208 // punpcklwd %xmm0,%xmm2
- .byte 102,15,111,5,171,210,0,0 // movdqa 0xd2ab(%rip),%xmm0 # 32de0 <_sk_srcover_rgba_8888_sse2_lowp+0xca0>
+ .byte 102,15,111,5,207,210,0,0 // movdqa 0xd2cf(%rip),%xmm0 # 32e20 <_sk_srcover_rgba_8888_sse2_lowp+0xcc4>
.byte 102,15,219,194 // pand %xmm2,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,89,5,173,210,0,0 // mulps 0xd2ad(%rip),%xmm0 # 32df0 <_sk_srcover_rgba_8888_sse2_lowp+0xcb0>
- .byte 102,15,111,13,181,210,0,0 // movdqa 0xd2b5(%rip),%xmm1 # 32e00 <_sk_srcover_rgba_8888_sse2_lowp+0xcc0>
+ .byte 15,89,5,209,210,0,0 // mulps 0xd2d1(%rip),%xmm0 # 32e30 <_sk_srcover_rgba_8888_sse2_lowp+0xcd4>
+ .byte 102,15,111,13,217,210,0,0 // movdqa 0xd2d9(%rip),%xmm1 # 32e40 <_sk_srcover_rgba_8888_sse2_lowp+0xce4>
.byte 102,15,219,202 // pand %xmm2,%xmm1
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
- .byte 15,89,13,183,210,0,0 // mulps 0xd2b7(%rip),%xmm1 # 32e10 <_sk_srcover_rgba_8888_sse2_lowp+0xcd0>
- .byte 102,15,219,21,191,210,0,0 // pand 0xd2bf(%rip),%xmm2 # 32e20 <_sk_srcover_rgba_8888_sse2_lowp+0xce0>
+ .byte 15,89,13,219,210,0,0 // mulps 0xd2db(%rip),%xmm1 # 32e50 <_sk_srcover_rgba_8888_sse2_lowp+0xcf4>
+ .byte 102,15,219,21,227,210,0,0 // pand 0xd2e3(%rip),%xmm2 # 32e60 <_sk_srcover_rgba_8888_sse2_lowp+0xd04>
.byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
- .byte 15,89,21,197,210,0,0 // mulps 0xd2c5(%rip),%xmm2 # 32e30 <_sk_srcover_rgba_8888_sse2_lowp+0xcf0>
+ .byte 15,89,21,233,210,0,0 // mulps 0xd2e9(%rip),%xmm2 # 32e70 <_sk_srcover_rgba_8888_sse2_lowp+0xd14>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,92,208,0,0 // movaps 0xd05c(%rip),%xmm3 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xa90>
+ .byte 15,40,29,112,208,0,0 // movaps 0xd070(%rip),%xmm3 # 32c00 <_sk_srcover_rgba_8888_sse2_lowp+0xaa4>
.byte 255,224 // jmpq *%rax
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,51 // je 25bb6 <_sk_load_565_sse2+0xae>
+ .byte 116,51 // je 25bd2 <_sk_load_565_sse2+0xae>
.byte 102,15,239,210 // pxor %xmm2,%xmm2
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,21 // je 25ba2 <_sk_load_565_sse2+0x9a>
+ .byte 116,21 // je 25bbe <_sk_load_565_sse2+0x9a>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,154 // jne 25b2d <_sk_load_565_sse2+0x25>
+ .byte 117,154 // jne 25b49 <_sk_load_565_sse2+0x25>
.byte 67,15,183,68,80,4 // movzwl 0x4(%r8,%r10,2),%eax
.byte 102,15,110,192 // movd %eax,%xmm0
.byte 102,15,112,208,69 // pshufd $0x45,%xmm0,%xmm2
.byte 102,67,15,110,4,80 // movd (%r8,%r10,2),%xmm0
.byte 242,15,112,192,212 // pshuflw $0xd4,%xmm0,%xmm0
.byte 242,15,16,208 // movsd %xmm0,%xmm2
- .byte 233,119,255,255,255 // jmpq 25b2d <_sk_load_565_sse2+0x25>
+ .byte 233,119,255,255,255 // jmpq 25b49 <_sk_load_565_sse2+0x25>
.byte 67,15,183,4,80 // movzwl (%r8,%r10,2),%eax
.byte 102,15,110,208 // movd %eax,%xmm2
- .byte 233,105,255,255,255 // jmpq 25b2d <_sk_load_565_sse2+0x25>
+ .byte 233,105,255,255,255 // jmpq 25b49 <_sk_load_565_sse2+0x25>
HIDDEN _sk_load_565_dst_sse2
.globl _sk_load_565_dst_sse2
@@ -46385,42 +46397,42 @@ _sk_load_565_dst_sse2:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,210 // movslq %edx,%r10
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,83 // jne 25c32 <_sk_load_565_dst_sse2+0x6e>
+ .byte 117,83 // jne 25c4e <_sk_load_565_dst_sse2+0x6e>
.byte 243,67,15,126,52,80 // movq (%r8,%r10,2),%xmm6
.byte 102,15,97,240 // punpcklwd %xmm0,%xmm6
- .byte 102,15,111,37,239,209,0,0 // movdqa 0xd1ef(%rip),%xmm4 # 32de0 <_sk_srcover_rgba_8888_sse2_lowp+0xca0>
+ .byte 102,15,111,37,19,210,0,0 // movdqa 0xd213(%rip),%xmm4 # 32e20 <_sk_srcover_rgba_8888_sse2_lowp+0xcc4>
.byte 102,15,219,230 // pand %xmm6,%xmm4
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
- .byte 15,89,37,241,209,0,0 // mulps 0xd1f1(%rip),%xmm4 # 32df0 <_sk_srcover_rgba_8888_sse2_lowp+0xcb0>
- .byte 102,15,111,45,249,209,0,0 // movdqa 0xd1f9(%rip),%xmm5 # 32e00 <_sk_srcover_rgba_8888_sse2_lowp+0xcc0>
+ .byte 15,89,37,21,210,0,0 // mulps 0xd215(%rip),%xmm4 # 32e30 <_sk_srcover_rgba_8888_sse2_lowp+0xcd4>
+ .byte 102,15,111,45,29,210,0,0 // movdqa 0xd21d(%rip),%xmm5 # 32e40 <_sk_srcover_rgba_8888_sse2_lowp+0xce4>
.byte 102,15,219,238 // pand %xmm6,%xmm5
.byte 15,91,237 // cvtdq2ps %xmm5,%xmm5
- .byte 15,89,45,251,209,0,0 // mulps 0xd1fb(%rip),%xmm5 # 32e10 <_sk_srcover_rgba_8888_sse2_lowp+0xcd0>
- .byte 102,15,219,53,3,210,0,0 // pand 0xd203(%rip),%xmm6 # 32e20 <_sk_srcover_rgba_8888_sse2_lowp+0xce0>
+ .byte 15,89,45,31,210,0,0 // mulps 0xd21f(%rip),%xmm5 # 32e50 <_sk_srcover_rgba_8888_sse2_lowp+0xcf4>
+ .byte 102,15,219,53,39,210,0,0 // pand 0xd227(%rip),%xmm6 # 32e60 <_sk_srcover_rgba_8888_sse2_lowp+0xd04>
.byte 15,91,246 // cvtdq2ps %xmm6,%xmm6
- .byte 15,89,53,9,210,0,0 // mulps 0xd209(%rip),%xmm6 # 32e30 <_sk_srcover_rgba_8888_sse2_lowp+0xcf0>
+ .byte 15,89,53,45,210,0,0 // mulps 0xd22d(%rip),%xmm6 # 32e70 <_sk_srcover_rgba_8888_sse2_lowp+0xd14>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,61,160,207,0,0 // movaps 0xcfa0(%rip),%xmm7 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xa90>
+ .byte 15,40,61,180,207,0,0 // movaps 0xcfb4(%rip),%xmm7 # 32c00 <_sk_srcover_rgba_8888_sse2_lowp+0xaa4>
.byte 255,224 // jmpq *%rax
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,51 // je 25c72 <_sk_load_565_dst_sse2+0xae>
+ .byte 116,51 // je 25c8e <_sk_load_565_dst_sse2+0xae>
.byte 102,15,239,246 // pxor %xmm6,%xmm6
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,21 // je 25c5e <_sk_load_565_dst_sse2+0x9a>
+ .byte 116,21 // je 25c7a <_sk_load_565_dst_sse2+0x9a>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,154 // jne 25be9 <_sk_load_565_dst_sse2+0x25>
+ .byte 117,154 // jne 25c05 <_sk_load_565_dst_sse2+0x25>
.byte 67,15,183,68,80,4 // movzwl 0x4(%r8,%r10,2),%eax
.byte 102,15,110,224 // movd %eax,%xmm4
.byte 102,15,112,244,69 // pshufd $0x45,%xmm4,%xmm6
.byte 102,67,15,110,36,80 // movd (%r8,%r10,2),%xmm4
.byte 242,15,112,228,212 // pshuflw $0xd4,%xmm4,%xmm4
.byte 242,15,16,244 // movsd %xmm4,%xmm6
- .byte 233,119,255,255,255 // jmpq 25be9 <_sk_load_565_dst_sse2+0x25>
+ .byte 233,119,255,255,255 // jmpq 25c05 <_sk_load_565_dst_sse2+0x25>
.byte 67,15,183,4,80 // movzwl (%r8,%r10,2),%eax
.byte 102,15,110,240 // movd %eax,%xmm6
- .byte 233,105,255,255,255 // jmpq 25be9 <_sk_load_565_dst_sse2+0x25>
+ .byte 233,105,255,255,255 // jmpq 25c05 <_sk_load_565_dst_sse2+0x25>
HIDDEN _sk_gather_565_sse2
.globl _sk_gather_565_sse2
@@ -46469,19 +46481,19 @@ _sk_gather_565_sse2:
.byte 65,15,183,4,64 // movzwl (%r8,%rax,2),%eax
.byte 102,15,196,208,3 // pinsrw $0x3,%eax,%xmm2
.byte 102,65,15,97,208 // punpcklwd %xmm8,%xmm2
- .byte 102,15,111,5,158,208,0,0 // movdqa 0xd09e(%rip),%xmm0 # 32de0 <_sk_srcover_rgba_8888_sse2_lowp+0xca0>
+ .byte 102,15,111,5,194,208,0,0 // movdqa 0xd0c2(%rip),%xmm0 # 32e20 <_sk_srcover_rgba_8888_sse2_lowp+0xcc4>
.byte 102,15,219,194 // pand %xmm2,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,89,5,160,208,0,0 // mulps 0xd0a0(%rip),%xmm0 # 32df0 <_sk_srcover_rgba_8888_sse2_lowp+0xcb0>
- .byte 102,15,111,13,168,208,0,0 // movdqa 0xd0a8(%rip),%xmm1 # 32e00 <_sk_srcover_rgba_8888_sse2_lowp+0xcc0>
+ .byte 15,89,5,196,208,0,0 // mulps 0xd0c4(%rip),%xmm0 # 32e30 <_sk_srcover_rgba_8888_sse2_lowp+0xcd4>
+ .byte 102,15,111,13,204,208,0,0 // movdqa 0xd0cc(%rip),%xmm1 # 32e40 <_sk_srcover_rgba_8888_sse2_lowp+0xce4>
.byte 102,15,219,202 // pand %xmm2,%xmm1
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
- .byte 15,89,13,170,208,0,0 // mulps 0xd0aa(%rip),%xmm1 # 32e10 <_sk_srcover_rgba_8888_sse2_lowp+0xcd0>
- .byte 102,15,219,21,178,208,0,0 // pand 0xd0b2(%rip),%xmm2 # 32e20 <_sk_srcover_rgba_8888_sse2_lowp+0xce0>
+ .byte 15,89,13,206,208,0,0 // mulps 0xd0ce(%rip),%xmm1 # 32e50 <_sk_srcover_rgba_8888_sse2_lowp+0xcf4>
+ .byte 102,15,219,21,214,208,0,0 // pand 0xd0d6(%rip),%xmm2 # 32e60 <_sk_srcover_rgba_8888_sse2_lowp+0xd04>
.byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
- .byte 15,89,21,184,208,0,0 // mulps 0xd0b8(%rip),%xmm2 # 32e30 <_sk_srcover_rgba_8888_sse2_lowp+0xcf0>
+ .byte 15,89,21,220,208,0,0 // mulps 0xd0dc(%rip),%xmm2 # 32e70 <_sk_srcover_rgba_8888_sse2_lowp+0xd14>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,79,206,0,0 // movaps 0xce4f(%rip),%xmm3 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xa90>
+ .byte 15,40,29,99,206,0,0 // movaps 0xce63(%rip),%xmm3 # 32c00 <_sk_srcover_rgba_8888_sse2_lowp+0xaa4>
.byte 255,224 // jmpq *%rax
HIDDEN _sk_store_565_sse2
@@ -46495,12 +46507,12 @@ _sk_store_565_sse2:
.byte 77,1,192 // add %r8,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,210 // movslq %edx,%r10
- .byte 68,15,40,5,63,210,0,0 // movaps 0xd23f(%rip),%xmm8 # 32fe0 <_sk_srcover_rgba_8888_sse2_lowp+0xea0>
+ .byte 68,15,40,5,99,210,0,0 // movaps 0xd263(%rip),%xmm8 # 33020 <_sk_srcover_rgba_8888_sse2_lowp+0xec4>
.byte 68,15,40,200 // movaps %xmm0,%xmm9
.byte 69,15,89,200 // mulps %xmm8,%xmm9
.byte 102,69,15,91,201 // cvtps2dq %xmm9,%xmm9
.byte 102,65,15,114,241,11 // pslld $0xb,%xmm9
- .byte 68,15,40,21,52,210,0,0 // movaps 0xd234(%rip),%xmm10 # 32ff0 <_sk_srcover_rgba_8888_sse2_lowp+0xeb0>
+ .byte 68,15,40,21,88,210,0,0 // movaps 0xd258(%rip),%xmm10 # 33030 <_sk_srcover_rgba_8888_sse2_lowp+0xed4>
.byte 68,15,89,209 // mulps %xmm1,%xmm10
.byte 102,69,15,91,210 // cvtps2dq %xmm10,%xmm10
.byte 102,65,15,114,242,5 // pslld $0x5,%xmm10
@@ -46512,7 +46524,7 @@ _sk_store_565_sse2:
.byte 102,65,15,114,224,16 // psrad $0x10,%xmm8
.byte 102,68,15,107,192 // packssdw %xmm0,%xmm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,10 // jne 25dfe <_sk_store_565_sse2+0x7b>
+ .byte 117,10 // jne 25e1a <_sk_store_565_sse2+0x7b>
.byte 102,71,15,214,4,80 // movq %xmm8,(%r8,%r10,2)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -46520,19 +46532,19 @@ _sk_store_565_sse2:
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,38 // je 25e36 <_sk_store_565_sse2+0xb3>
+ .byte 116,38 // je 25e52 <_sk_store_565_sse2+0xb3>
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,18 // je 25e28 <_sk_store_565_sse2+0xa5>
+ .byte 116,18 // je 25e44 <_sk_store_565_sse2+0xa5>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,222 // jne 25dfa <_sk_store_565_sse2+0x77>
+ .byte 117,222 // jne 25e16 <_sk_store_565_sse2+0x77>
.byte 102,65,15,197,192,4 // pextrw $0x4,%xmm8,%eax
.byte 102,67,137,68,80,4 // mov %ax,0x4(%r8,%r10,2)
.byte 242,69,15,112,192,232 // pshuflw $0xe8,%xmm8,%xmm8
.byte 102,71,15,126,4,80 // movd %xmm8,(%r8,%r10,2)
- .byte 235,196 // jmp 25dfa <_sk_store_565_sse2+0x77>
+ .byte 235,196 // jmp 25e16 <_sk_store_565_sse2+0x77>
.byte 102,68,15,126,192 // movd %xmm8,%eax
.byte 102,67,137,4,80 // mov %ax,(%r8,%r10,2)
- .byte 235,184 // jmp 25dfa <_sk_store_565_sse2+0x77>
+ .byte 235,184 // jmp 25e16 <_sk_store_565_sse2+0x77>
HIDDEN _sk_load_4444_sse2
.globl _sk_load_4444_sse2
@@ -46546,45 +46558,45 @@ _sk_load_4444_sse2:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,210 // movslq %edx,%r10
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,98 // jne 25ebf <_sk_load_4444_sse2+0x7d>
+ .byte 117,98 // jne 25edb <_sk_load_4444_sse2+0x7d>
.byte 243,67,15,126,28,80 // movq (%r8,%r10,2),%xmm3
.byte 102,15,97,216 // punpcklwd %xmm0,%xmm3
- .byte 102,15,111,5,145,209,0,0 // movdqa 0xd191(%rip),%xmm0 # 33000 <_sk_srcover_rgba_8888_sse2_lowp+0xec0>
+ .byte 102,15,111,5,181,209,0,0 // movdqa 0xd1b5(%rip),%xmm0 # 33040 <_sk_srcover_rgba_8888_sse2_lowp+0xee4>
.byte 102,15,219,195 // pand %xmm3,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,89,5,147,209,0,0 // mulps 0xd193(%rip),%xmm0 # 33010 <_sk_srcover_rgba_8888_sse2_lowp+0xed0>
- .byte 102,15,111,13,155,209,0,0 // movdqa 0xd19b(%rip),%xmm1 # 33020 <_sk_srcover_rgba_8888_sse2_lowp+0xee0>
+ .byte 15,89,5,183,209,0,0 // mulps 0xd1b7(%rip),%xmm0 # 33050 <_sk_srcover_rgba_8888_sse2_lowp+0xef4>
+ .byte 102,15,111,13,191,209,0,0 // movdqa 0xd1bf(%rip),%xmm1 # 33060 <_sk_srcover_rgba_8888_sse2_lowp+0xf04>
.byte 102,15,219,203 // pand %xmm3,%xmm1
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
- .byte 15,89,13,157,209,0,0 // mulps 0xd19d(%rip),%xmm1 # 33030 <_sk_srcover_rgba_8888_sse2_lowp+0xef0>
- .byte 102,15,111,21,165,209,0,0 // movdqa 0xd1a5(%rip),%xmm2 # 33040 <_sk_srcover_rgba_8888_sse2_lowp+0xf00>
+ .byte 15,89,13,193,209,0,0 // mulps 0xd1c1(%rip),%xmm1 # 33070 <_sk_srcover_rgba_8888_sse2_lowp+0xf14>
+ .byte 102,15,111,21,201,209,0,0 // movdqa 0xd1c9(%rip),%xmm2 # 33080 <_sk_srcover_rgba_8888_sse2_lowp+0xf24>
.byte 102,15,219,211 // pand %xmm3,%xmm2
.byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
- .byte 15,89,21,167,209,0,0 // mulps 0xd1a7(%rip),%xmm2 # 33050 <_sk_srcover_rgba_8888_sse2_lowp+0xf10>
- .byte 102,15,219,29,175,209,0,0 // pand 0xd1af(%rip),%xmm3 # 33060 <_sk_srcover_rgba_8888_sse2_lowp+0xf20>
+ .byte 15,89,21,203,209,0,0 // mulps 0xd1cb(%rip),%xmm2 # 33090 <_sk_srcover_rgba_8888_sse2_lowp+0xf34>
+ .byte 102,15,219,29,211,209,0,0 // pand 0xd1d3(%rip),%xmm3 # 330a0 <_sk_srcover_rgba_8888_sse2_lowp+0xf44>
.byte 15,91,219 // cvtdq2ps %xmm3,%xmm3
- .byte 15,89,29,181,209,0,0 // mulps 0xd1b5(%rip),%xmm3 # 33070 <_sk_srcover_rgba_8888_sse2_lowp+0xf30>
+ .byte 15,89,29,217,209,0,0 // mulps 0xd1d9(%rip),%xmm3 # 330b0 <_sk_srcover_rgba_8888_sse2_lowp+0xf54>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,51 // je 25eff <_sk_load_4444_sse2+0xbd>
+ .byte 116,51 // je 25f1b <_sk_load_4444_sse2+0xbd>
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,21 // je 25eeb <_sk_load_4444_sse2+0xa9>
+ .byte 116,21 // je 25f07 <_sk_load_4444_sse2+0xa9>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,139 // jne 25e67 <_sk_load_4444_sse2+0x25>
+ .byte 117,139 // jne 25e83 <_sk_load_4444_sse2+0x25>
.byte 67,15,183,68,80,4 // movzwl 0x4(%r8,%r10,2),%eax
.byte 102,15,110,192 // movd %eax,%xmm0
.byte 102,15,112,216,69 // pshufd $0x45,%xmm0,%xmm3
.byte 102,67,15,110,4,80 // movd (%r8,%r10,2),%xmm0
.byte 242,15,112,192,212 // pshuflw $0xd4,%xmm0,%xmm0
.byte 242,15,16,216 // movsd %xmm0,%xmm3
- .byte 233,104,255,255,255 // jmpq 25e67 <_sk_load_4444_sse2+0x25>
+ .byte 233,104,255,255,255 // jmpq 25e83 <_sk_load_4444_sse2+0x25>
.byte 67,15,183,4,80 // movzwl (%r8,%r10,2),%eax
.byte 102,15,110,216 // movd %eax,%xmm3
- .byte 233,90,255,255,255 // jmpq 25e67 <_sk_load_4444_sse2+0x25>
+ .byte 233,90,255,255,255 // jmpq 25e83 <_sk_load_4444_sse2+0x25>
HIDDEN _sk_load_4444_dst_sse2
.globl _sk_load_4444_dst_sse2
@@ -46598,45 +46610,45 @@ _sk_load_4444_dst_sse2:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,210 // movslq %edx,%r10
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,98 // jne 25f8a <_sk_load_4444_dst_sse2+0x7d>
+ .byte 117,98 // jne 25fa6 <_sk_load_4444_dst_sse2+0x7d>
.byte 243,67,15,126,60,80 // movq (%r8,%r10,2),%xmm7
.byte 102,15,97,248 // punpcklwd %xmm0,%xmm7
- .byte 102,15,111,37,198,208,0,0 // movdqa 0xd0c6(%rip),%xmm4 # 33000 <_sk_srcover_rgba_8888_sse2_lowp+0xec0>
+ .byte 102,15,111,37,234,208,0,0 // movdqa 0xd0ea(%rip),%xmm4 # 33040 <_sk_srcover_rgba_8888_sse2_lowp+0xee4>
.byte 102,15,219,231 // pand %xmm7,%xmm4
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
- .byte 15,89,37,200,208,0,0 // mulps 0xd0c8(%rip),%xmm4 # 33010 <_sk_srcover_rgba_8888_sse2_lowp+0xed0>
- .byte 102,15,111,45,208,208,0,0 // movdqa 0xd0d0(%rip),%xmm5 # 33020 <_sk_srcover_rgba_8888_sse2_lowp+0xee0>
+ .byte 15,89,37,236,208,0,0 // mulps 0xd0ec(%rip),%xmm4 # 33050 <_sk_srcover_rgba_8888_sse2_lowp+0xef4>
+ .byte 102,15,111,45,244,208,0,0 // movdqa 0xd0f4(%rip),%xmm5 # 33060 <_sk_srcover_rgba_8888_sse2_lowp+0xf04>
.byte 102,15,219,239 // pand %xmm7,%xmm5
.byte 15,91,237 // cvtdq2ps %xmm5,%xmm5
- .byte 15,89,45,210,208,0,0 // mulps 0xd0d2(%rip),%xmm5 # 33030 <_sk_srcover_rgba_8888_sse2_lowp+0xef0>
- .byte 102,15,111,53,218,208,0,0 // movdqa 0xd0da(%rip),%xmm6 # 33040 <_sk_srcover_rgba_8888_sse2_lowp+0xf00>
+ .byte 15,89,45,246,208,0,0 // mulps 0xd0f6(%rip),%xmm5 # 33070 <_sk_srcover_rgba_8888_sse2_lowp+0xf14>
+ .byte 102,15,111,53,254,208,0,0 // movdqa 0xd0fe(%rip),%xmm6 # 33080 <_sk_srcover_rgba_8888_sse2_lowp+0xf24>
.byte 102,15,219,247 // pand %xmm7,%xmm6
.byte 15,91,246 // cvtdq2ps %xmm6,%xmm6
- .byte 15,89,53,220,208,0,0 // mulps 0xd0dc(%rip),%xmm6 # 33050 <_sk_srcover_rgba_8888_sse2_lowp+0xf10>
- .byte 102,15,219,61,228,208,0,0 // pand 0xd0e4(%rip),%xmm7 # 33060 <_sk_srcover_rgba_8888_sse2_lowp+0xf20>
+ .byte 15,89,53,0,209,0,0 // mulps 0xd100(%rip),%xmm6 # 33090 <_sk_srcover_rgba_8888_sse2_lowp+0xf34>
+ .byte 102,15,219,61,8,209,0,0 // pand 0xd108(%rip),%xmm7 # 330a0 <_sk_srcover_rgba_8888_sse2_lowp+0xf44>
.byte 15,91,255 // cvtdq2ps %xmm7,%xmm7
- .byte 15,89,61,234,208,0,0 // mulps 0xd0ea(%rip),%xmm7 # 33070 <_sk_srcover_rgba_8888_sse2_lowp+0xf30>
+ .byte 15,89,61,14,209,0,0 // mulps 0xd10e(%rip),%xmm7 # 330b0 <_sk_srcover_rgba_8888_sse2_lowp+0xf54>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,51 // je 25fca <_sk_load_4444_dst_sse2+0xbd>
+ .byte 116,51 // je 25fe6 <_sk_load_4444_dst_sse2+0xbd>
.byte 102,15,239,255 // pxor %xmm7,%xmm7
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,21 // je 25fb6 <_sk_load_4444_dst_sse2+0xa9>
+ .byte 116,21 // je 25fd2 <_sk_load_4444_dst_sse2+0xa9>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,139 // jne 25f32 <_sk_load_4444_dst_sse2+0x25>
+ .byte 117,139 // jne 25f4e <_sk_load_4444_dst_sse2+0x25>
.byte 67,15,183,68,80,4 // movzwl 0x4(%r8,%r10,2),%eax
.byte 102,15,110,224 // movd %eax,%xmm4
.byte 102,15,112,252,69 // pshufd $0x45,%xmm4,%xmm7
.byte 102,67,15,110,36,80 // movd (%r8,%r10,2),%xmm4
.byte 242,15,112,228,212 // pshuflw $0xd4,%xmm4,%xmm4
.byte 242,15,16,252 // movsd %xmm4,%xmm7
- .byte 233,104,255,255,255 // jmpq 25f32 <_sk_load_4444_dst_sse2+0x25>
+ .byte 233,104,255,255,255 // jmpq 25f4e <_sk_load_4444_dst_sse2+0x25>
.byte 67,15,183,4,80 // movzwl (%r8,%r10,2),%eax
.byte 102,15,110,248 // movd %eax,%xmm7
- .byte 233,90,255,255,255 // jmpq 25f32 <_sk_load_4444_dst_sse2+0x25>
+ .byte 233,90,255,255,255 // jmpq 25f4e <_sk_load_4444_dst_sse2+0x25>
HIDDEN _sk_gather_4444_sse2
.globl _sk_gather_4444_sse2
@@ -46685,21 +46697,21 @@ _sk_gather_4444_sse2:
.byte 65,15,183,4,64 // movzwl (%r8,%rax,2),%eax
.byte 102,15,196,216,3 // pinsrw $0x3,%eax,%xmm3
.byte 102,65,15,97,216 // punpcklwd %xmm8,%xmm3
- .byte 102,15,111,5,102,207,0,0 // movdqa 0xcf66(%rip),%xmm0 # 33000 <_sk_srcover_rgba_8888_sse2_lowp+0xec0>
+ .byte 102,15,111,5,138,207,0,0 // movdqa 0xcf8a(%rip),%xmm0 # 33040 <_sk_srcover_rgba_8888_sse2_lowp+0xee4>
.byte 102,15,219,195 // pand %xmm3,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,89,5,104,207,0,0 // mulps 0xcf68(%rip),%xmm0 # 33010 <_sk_srcover_rgba_8888_sse2_lowp+0xed0>
- .byte 102,15,111,13,112,207,0,0 // movdqa 0xcf70(%rip),%xmm1 # 33020 <_sk_srcover_rgba_8888_sse2_lowp+0xee0>
+ .byte 15,89,5,140,207,0,0 // mulps 0xcf8c(%rip),%xmm0 # 33050 <_sk_srcover_rgba_8888_sse2_lowp+0xef4>
+ .byte 102,15,111,13,148,207,0,0 // movdqa 0xcf94(%rip),%xmm1 # 33060 <_sk_srcover_rgba_8888_sse2_lowp+0xf04>
.byte 102,15,219,203 // pand %xmm3,%xmm1
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
- .byte 15,89,13,114,207,0,0 // mulps 0xcf72(%rip),%xmm1 # 33030 <_sk_srcover_rgba_8888_sse2_lowp+0xef0>
- .byte 102,15,111,21,122,207,0,0 // movdqa 0xcf7a(%rip),%xmm2 # 33040 <_sk_srcover_rgba_8888_sse2_lowp+0xf00>
+ .byte 15,89,13,150,207,0,0 // mulps 0xcf96(%rip),%xmm1 # 33070 <_sk_srcover_rgba_8888_sse2_lowp+0xf14>
+ .byte 102,15,111,21,158,207,0,0 // movdqa 0xcf9e(%rip),%xmm2 # 33080 <_sk_srcover_rgba_8888_sse2_lowp+0xf24>
.byte 102,15,219,211 // pand %xmm3,%xmm2
.byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
- .byte 15,89,21,124,207,0,0 // mulps 0xcf7c(%rip),%xmm2 # 33050 <_sk_srcover_rgba_8888_sse2_lowp+0xf10>
- .byte 102,15,219,29,132,207,0,0 // pand 0xcf84(%rip),%xmm3 # 33060 <_sk_srcover_rgba_8888_sse2_lowp+0xf20>
+ .byte 15,89,21,160,207,0,0 // mulps 0xcfa0(%rip),%xmm2 # 33090 <_sk_srcover_rgba_8888_sse2_lowp+0xf34>
+ .byte 102,15,219,29,168,207,0,0 // pand 0xcfa8(%rip),%xmm3 # 330a0 <_sk_srcover_rgba_8888_sse2_lowp+0xf44>
.byte 15,91,219 // cvtdq2ps %xmm3,%xmm3
- .byte 15,89,29,138,207,0,0 // mulps 0xcf8a(%rip),%xmm3 # 33070 <_sk_srcover_rgba_8888_sse2_lowp+0xf30>
+ .byte 15,89,29,174,207,0,0 // mulps 0xcfae(%rip),%xmm3 # 330b0 <_sk_srcover_rgba_8888_sse2_lowp+0xf54>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -46714,7 +46726,7 @@ _sk_store_4444_sse2:
.byte 77,1,192 // add %r8,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,210 // movslq %edx,%r10
- .byte 68,15,40,5,120,207,0,0 // movaps 0xcf78(%rip),%xmm8 # 33080 <_sk_srcover_rgba_8888_sse2_lowp+0xf40>
+ .byte 68,15,40,5,156,207,0,0 // movaps 0xcf9c(%rip),%xmm8 # 330c0 <_sk_srcover_rgba_8888_sse2_lowp+0xf64>
.byte 68,15,40,200 // movaps %xmm0,%xmm9
.byte 69,15,89,200 // mulps %xmm8,%xmm9
.byte 102,69,15,91,201 // cvtps2dq %xmm9,%xmm9
@@ -46736,7 +46748,7 @@ _sk_store_4444_sse2:
.byte 102,65,15,114,224,16 // psrad $0x10,%xmm8
.byte 102,68,15,107,192 // packssdw %xmm0,%xmm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,10 // jne 26179 <_sk_store_4444_sse2+0x8f>
+ .byte 117,10 // jne 26195 <_sk_store_4444_sse2+0x8f>
.byte 102,71,15,214,4,80 // movq %xmm8,(%r8,%r10,2)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -46744,19 +46756,19 @@ _sk_store_4444_sse2:
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,38 // je 261b1 <_sk_store_4444_sse2+0xc7>
+ .byte 116,38 // je 261cd <_sk_store_4444_sse2+0xc7>
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,18 // je 261a3 <_sk_store_4444_sse2+0xb9>
+ .byte 116,18 // je 261bf <_sk_store_4444_sse2+0xb9>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,222 // jne 26175 <_sk_store_4444_sse2+0x8b>
+ .byte 117,222 // jne 26191 <_sk_store_4444_sse2+0x8b>
.byte 102,65,15,197,192,4 // pextrw $0x4,%xmm8,%eax
.byte 102,67,137,68,80,4 // mov %ax,0x4(%r8,%r10,2)
.byte 242,69,15,112,192,232 // pshuflw $0xe8,%xmm8,%xmm8
.byte 102,71,15,126,4,80 // movd %xmm8,(%r8,%r10,2)
- .byte 235,196 // jmp 26175 <_sk_store_4444_sse2+0x8b>
+ .byte 235,196 // jmp 26191 <_sk_store_4444_sse2+0x8b>
.byte 102,68,15,126,192 // movd %xmm8,%eax
.byte 102,67,137,4,80 // mov %ax,(%r8,%r10,2)
- .byte 235,184 // jmp 26175 <_sk_store_4444_sse2+0x8b>
+ .byte 235,184 // jmp 26191 <_sk_store_4444_sse2+0x8b>
HIDDEN _sk_load_8888_sse2
.globl _sk_load_8888_sse2
@@ -46770,13 +46782,13 @@ _sk_load_8888_sse2:
.byte 76,3,0 // add (%rax),%r8
.byte 72,99,194 // movslq %edx,%rax
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,98 // jne 2623b <_sk_load_8888_sse2+0x7e>
+ .byte 117,98 // jne 26257 <_sk_load_8888_sse2+0x7e>
.byte 243,69,15,111,12,128 // movdqu (%r8,%rax,4),%xmm9
- .byte 102,15,111,21,153,202,0,0 // movdqa 0xca99(%rip),%xmm2 # 32c80 <_sk_srcover_rgba_8888_sse2_lowp+0xb40>
+ .byte 102,15,111,21,173,202,0,0 // movdqa 0xcaad(%rip),%xmm2 # 32cb0 <_sk_srcover_rgba_8888_sse2_lowp+0xb54>
.byte 102,65,15,111,193 // movdqa %xmm9,%xmm0
.byte 102,15,219,194 // pand %xmm2,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 68,15,40,5,213,203,0,0 // movaps 0xcbd5(%rip),%xmm8 # 32dd0 <_sk_srcover_rgba_8888_sse2_lowp+0xc90>
+ .byte 68,15,40,5,249,203,0,0 // movaps 0xcbf9(%rip),%xmm8 # 32e10 <_sk_srcover_rgba_8888_sse2_lowp+0xcb4>
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 102,65,15,111,201 // movdqa %xmm9,%xmm1
.byte 102,15,114,209,8 // psrld $0x8,%xmm1
@@ -46796,18 +46808,18 @@ _sk_load_8888_sse2:
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,41 // je 26271 <_sk_load_8888_sse2+0xb4>
+ .byte 116,41 // je 2628d <_sk_load_8888_sse2+0xb4>
.byte 102,69,15,239,201 // pxor %xmm9,%xmm9
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,19 // je 26266 <_sk_load_8888_sse2+0xa9>
+ .byte 116,19 // je 26282 <_sk_load_8888_sse2+0xa9>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,134 // jne 261df <_sk_load_8888_sse2+0x22>
+ .byte 117,134 // jne 261fb <_sk_load_8888_sse2+0x22>
.byte 102,65,15,110,68,128,8 // movd 0x8(%r8,%rax,4),%xmm0
.byte 102,68,15,112,200,69 // pshufd $0x45,%xmm0,%xmm9
.byte 102,69,15,18,12,128 // movlpd (%r8,%rax,4),%xmm9
- .byte 233,110,255,255,255 // jmpq 261df <_sk_load_8888_sse2+0x22>
+ .byte 233,110,255,255,255 // jmpq 261fb <_sk_load_8888_sse2+0x22>
.byte 102,69,15,110,12,128 // movd (%r8,%rax,4),%xmm9
- .byte 233,99,255,255,255 // jmpq 261df <_sk_load_8888_sse2+0x22>
+ .byte 233,99,255,255,255 // jmpq 261fb <_sk_load_8888_sse2+0x22>
HIDDEN _sk_load_8888_dst_sse2
.globl _sk_load_8888_dst_sse2
@@ -46821,13 +46833,13 @@ _sk_load_8888_dst_sse2:
.byte 76,3,0 // add (%rax),%r8
.byte 72,99,194 // movslq %edx,%rax
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,98 // jne 262fa <_sk_load_8888_dst_sse2+0x7e>
+ .byte 117,98 // jne 26316 <_sk_load_8888_dst_sse2+0x7e>
.byte 243,69,15,111,12,128 // movdqu (%r8,%rax,4),%xmm9
- .byte 102,15,111,53,218,201,0,0 // movdqa 0xc9da(%rip),%xmm6 # 32c80 <_sk_srcover_rgba_8888_sse2_lowp+0xb40>
+ .byte 102,15,111,53,238,201,0,0 // movdqa 0xc9ee(%rip),%xmm6 # 32cb0 <_sk_srcover_rgba_8888_sse2_lowp+0xb54>
.byte 102,65,15,111,225 // movdqa %xmm9,%xmm4
.byte 102,15,219,230 // pand %xmm6,%xmm4
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
- .byte 68,15,40,5,22,203,0,0 // movaps 0xcb16(%rip),%xmm8 # 32dd0 <_sk_srcover_rgba_8888_sse2_lowp+0xc90>
+ .byte 68,15,40,5,58,203,0,0 // movaps 0xcb3a(%rip),%xmm8 # 32e10 <_sk_srcover_rgba_8888_sse2_lowp+0xcb4>
.byte 65,15,89,224 // mulps %xmm8,%xmm4
.byte 102,65,15,111,233 // movdqa %xmm9,%xmm5
.byte 102,15,114,213,8 // psrld $0x8,%xmm5
@@ -46847,18 +46859,18 @@ _sk_load_8888_dst_sse2:
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,41 // je 26330 <_sk_load_8888_dst_sse2+0xb4>
+ .byte 116,41 // je 2634c <_sk_load_8888_dst_sse2+0xb4>
.byte 102,69,15,239,201 // pxor %xmm9,%xmm9
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,19 // je 26325 <_sk_load_8888_dst_sse2+0xa9>
+ .byte 116,19 // je 26341 <_sk_load_8888_dst_sse2+0xa9>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,134 // jne 2629e <_sk_load_8888_dst_sse2+0x22>
+ .byte 117,134 // jne 262ba <_sk_load_8888_dst_sse2+0x22>
.byte 102,65,15,110,100,128,8 // movd 0x8(%r8,%rax,4),%xmm4
.byte 102,68,15,112,204,69 // pshufd $0x45,%xmm4,%xmm9
.byte 102,69,15,18,12,128 // movlpd (%r8,%rax,4),%xmm9
- .byte 233,110,255,255,255 // jmpq 2629e <_sk_load_8888_dst_sse2+0x22>
+ .byte 233,110,255,255,255 // jmpq 262ba <_sk_load_8888_dst_sse2+0x22>
.byte 102,69,15,110,12,128 // movd (%r8,%rax,4),%xmm9
- .byte 233,99,255,255,255 // jmpq 2629e <_sk_load_8888_dst_sse2+0x22>
+ .byte 233,99,255,255,255 // jmpq 262ba <_sk_load_8888_dst_sse2+0x22>
HIDDEN _sk_gather_8888_sse2
.globl _sk_gather_8888_sse2
@@ -46904,11 +46916,11 @@ _sk_gather_8888_sse2:
.byte 102,67,15,110,12,136 // movd (%r8,%r9,4),%xmm1
.byte 102,15,98,200 // punpckldq %xmm0,%xmm1
.byte 102,68,15,108,201 // punpcklqdq %xmm1,%xmm9
- .byte 102,15,111,21,141,200,0,0 // movdqa 0xc88d(%rip),%xmm2 # 32c80 <_sk_srcover_rgba_8888_sse2_lowp+0xb40>
+ .byte 102,15,111,21,161,200,0,0 // movdqa 0xc8a1(%rip),%xmm2 # 32cb0 <_sk_srcover_rgba_8888_sse2_lowp+0xb54>
.byte 102,65,15,111,193 // movdqa %xmm9,%xmm0
.byte 102,15,219,194 // pand %xmm2,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 68,15,40,5,201,201,0,0 // movaps 0xc9c9(%rip),%xmm8 # 32dd0 <_sk_srcover_rgba_8888_sse2_lowp+0xc90>
+ .byte 68,15,40,5,237,201,0,0 // movaps 0xc9ed(%rip),%xmm8 # 32e10 <_sk_srcover_rgba_8888_sse2_lowp+0xcb4>
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 102,65,15,111,201 // movdqa %xmm9,%xmm1
.byte 102,15,114,209,8 // psrld $0x8,%xmm1
@@ -46937,7 +46949,7 @@ _sk_store_8888_sse2:
.byte 73,193,224,2 // shl $0x2,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 72,99,194 // movslq %edx,%rax
- .byte 68,15,40,5,74,200,0,0 // movaps 0xc84a(%rip),%xmm8 # 32cb0 <_sk_srcover_rgba_8888_sse2_lowp+0xb70>
+ .byte 68,15,40,5,94,200,0,0 // movaps 0xc85e(%rip),%xmm8 # 32ce0 <_sk_srcover_rgba_8888_sse2_lowp+0xb84>
.byte 68,15,40,200 // movaps %xmm0,%xmm9
.byte 69,15,89,200 // mulps %xmm8,%xmm9
.byte 102,69,15,91,201 // cvtps2dq %xmm9,%xmm9
@@ -46956,24 +46968,24 @@ _sk_store_8888_sse2:
.byte 102,69,15,235,193 // por %xmm9,%xmm8
.byte 102,69,15,235,194 // por %xmm10,%xmm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,10 // jne 264c6 <_sk_store_8888_sse2+0x7f>
+ .byte 117,10 // jne 264e2 <_sk_store_8888_sse2+0x7f>
.byte 243,69,15,127,4,128 // movdqu %xmm8,(%r8,%rax,4)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,33 // je 264f4 <_sk_store_8888_sse2+0xad>
+ .byte 116,33 // je 26510 <_sk_store_8888_sse2+0xad>
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,19 // je 264ec <_sk_store_8888_sse2+0xa5>
+ .byte 116,19 // je 26508 <_sk_store_8888_sse2+0xa5>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,227 // jne 264c2 <_sk_store_8888_sse2+0x7b>
+ .byte 117,227 // jne 264de <_sk_store_8888_sse2+0x7b>
.byte 102,69,15,112,200,78 // pshufd $0x4e,%xmm8,%xmm9
.byte 102,69,15,126,76,128,8 // movd %xmm9,0x8(%r8,%rax,4)
.byte 102,69,15,214,4,128 // movq %xmm8,(%r8,%rax,4)
- .byte 235,206 // jmp 264c2 <_sk_store_8888_sse2+0x7b>
+ .byte 235,206 // jmp 264de <_sk_store_8888_sse2+0x7b>
.byte 102,69,15,126,4,128 // movd %xmm8,(%r8,%rax,4)
- .byte 235,198 // jmp 264c2 <_sk_store_8888_sse2+0x7b>
+ .byte 235,198 // jmp 264de <_sk_store_8888_sse2+0x7b>
HIDDEN _sk_load_bgra_sse2
.globl _sk_load_bgra_sse2
@@ -46987,13 +46999,13 @@ _sk_load_bgra_sse2:
.byte 76,3,0 // add (%rax),%r8
.byte 72,99,194 // movslq %edx,%rax
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,98 // jne 2657a <_sk_load_bgra_sse2+0x7e>
+ .byte 117,98 // jne 26596 <_sk_load_bgra_sse2+0x7e>
.byte 243,69,15,111,12,128 // movdqu (%r8,%rax,4),%xmm9
- .byte 102,15,111,5,90,199,0,0 // movdqa 0xc75a(%rip),%xmm0 # 32c80 <_sk_srcover_rgba_8888_sse2_lowp+0xb40>
+ .byte 102,15,111,5,110,199,0,0 // movdqa 0xc76e(%rip),%xmm0 # 32cb0 <_sk_srcover_rgba_8888_sse2_lowp+0xb54>
.byte 102,65,15,111,201 // movdqa %xmm9,%xmm1
.byte 102,15,219,200 // pand %xmm0,%xmm1
.byte 15,91,209 // cvtdq2ps %xmm1,%xmm2
- .byte 68,15,40,5,150,200,0,0 // movaps 0xc896(%rip),%xmm8 # 32dd0 <_sk_srcover_rgba_8888_sse2_lowp+0xc90>
+ .byte 68,15,40,5,186,200,0,0 // movaps 0xc8ba(%rip),%xmm8 # 32e10 <_sk_srcover_rgba_8888_sse2_lowp+0xcb4>
.byte 65,15,89,208 // mulps %xmm8,%xmm2
.byte 102,65,15,111,201 // movdqa %xmm9,%xmm1
.byte 102,15,114,209,8 // psrld $0x8,%xmm1
@@ -47013,18 +47025,18 @@ _sk_load_bgra_sse2:
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,41 // je 265b0 <_sk_load_bgra_sse2+0xb4>
+ .byte 116,41 // je 265cc <_sk_load_bgra_sse2+0xb4>
.byte 102,69,15,239,201 // pxor %xmm9,%xmm9
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,19 // je 265a5 <_sk_load_bgra_sse2+0xa9>
+ .byte 116,19 // je 265c1 <_sk_load_bgra_sse2+0xa9>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,134 // jne 2651e <_sk_load_bgra_sse2+0x22>
+ .byte 117,134 // jne 2653a <_sk_load_bgra_sse2+0x22>
.byte 102,65,15,110,68,128,8 // movd 0x8(%r8,%rax,4),%xmm0
.byte 102,68,15,112,200,69 // pshufd $0x45,%xmm0,%xmm9
.byte 102,69,15,18,12,128 // movlpd (%r8,%rax,4),%xmm9
- .byte 233,110,255,255,255 // jmpq 2651e <_sk_load_bgra_sse2+0x22>
+ .byte 233,110,255,255,255 // jmpq 2653a <_sk_load_bgra_sse2+0x22>
.byte 102,69,15,110,12,128 // movd (%r8,%rax,4),%xmm9
- .byte 233,99,255,255,255 // jmpq 2651e <_sk_load_bgra_sse2+0x22>
+ .byte 233,99,255,255,255 // jmpq 2653a <_sk_load_bgra_sse2+0x22>
HIDDEN _sk_load_bgra_dst_sse2
.globl _sk_load_bgra_dst_sse2
@@ -47038,13 +47050,13 @@ _sk_load_bgra_dst_sse2:
.byte 76,3,0 // add (%rax),%r8
.byte 72,99,194 // movslq %edx,%rax
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,98 // jne 26639 <_sk_load_bgra_dst_sse2+0x7e>
+ .byte 117,98 // jne 26655 <_sk_load_bgra_dst_sse2+0x7e>
.byte 243,69,15,111,12,128 // movdqu (%r8,%rax,4),%xmm9
- .byte 102,15,111,37,155,198,0,0 // movdqa 0xc69b(%rip),%xmm4 # 32c80 <_sk_srcover_rgba_8888_sse2_lowp+0xb40>
+ .byte 102,15,111,37,175,198,0,0 // movdqa 0xc6af(%rip),%xmm4 # 32cb0 <_sk_srcover_rgba_8888_sse2_lowp+0xb54>
.byte 102,65,15,111,233 // movdqa %xmm9,%xmm5
.byte 102,15,219,236 // pand %xmm4,%xmm5
.byte 15,91,245 // cvtdq2ps %xmm5,%xmm6
- .byte 68,15,40,5,215,199,0,0 // movaps 0xc7d7(%rip),%xmm8 # 32dd0 <_sk_srcover_rgba_8888_sse2_lowp+0xc90>
+ .byte 68,15,40,5,251,199,0,0 // movaps 0xc7fb(%rip),%xmm8 # 32e10 <_sk_srcover_rgba_8888_sse2_lowp+0xcb4>
.byte 65,15,89,240 // mulps %xmm8,%xmm6
.byte 102,65,15,111,233 // movdqa %xmm9,%xmm5
.byte 102,15,114,213,8 // psrld $0x8,%xmm5
@@ -47064,18 +47076,18 @@ _sk_load_bgra_dst_sse2:
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,41 // je 2666f <_sk_load_bgra_dst_sse2+0xb4>
+ .byte 116,41 // je 2668b <_sk_load_bgra_dst_sse2+0xb4>
.byte 102,69,15,239,201 // pxor %xmm9,%xmm9
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,19 // je 26664 <_sk_load_bgra_dst_sse2+0xa9>
+ .byte 116,19 // je 26680 <_sk_load_bgra_dst_sse2+0xa9>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,134 // jne 265dd <_sk_load_bgra_dst_sse2+0x22>
+ .byte 117,134 // jne 265f9 <_sk_load_bgra_dst_sse2+0x22>
.byte 102,65,15,110,100,128,8 // movd 0x8(%r8,%rax,4),%xmm4
.byte 102,68,15,112,204,69 // pshufd $0x45,%xmm4,%xmm9
.byte 102,69,15,18,12,128 // movlpd (%r8,%rax,4),%xmm9
- .byte 233,110,255,255,255 // jmpq 265dd <_sk_load_bgra_dst_sse2+0x22>
+ .byte 233,110,255,255,255 // jmpq 265f9 <_sk_load_bgra_dst_sse2+0x22>
.byte 102,69,15,110,12,128 // movd (%r8,%rax,4),%xmm9
- .byte 233,99,255,255,255 // jmpq 265dd <_sk_load_bgra_dst_sse2+0x22>
+ .byte 233,99,255,255,255 // jmpq 265f9 <_sk_load_bgra_dst_sse2+0x22>
HIDDEN _sk_gather_bgra_sse2
.globl _sk_gather_bgra_sse2
@@ -47121,11 +47133,11 @@ _sk_gather_bgra_sse2:
.byte 102,67,15,110,12,136 // movd (%r8,%r9,4),%xmm1
.byte 102,15,98,200 // punpckldq %xmm0,%xmm1
.byte 102,68,15,108,201 // punpcklqdq %xmm1,%xmm9
- .byte 102,15,111,5,78,197,0,0 // movdqa 0xc54e(%rip),%xmm0 # 32c80 <_sk_srcover_rgba_8888_sse2_lowp+0xb40>
+ .byte 102,15,111,5,98,197,0,0 // movdqa 0xc562(%rip),%xmm0 # 32cb0 <_sk_srcover_rgba_8888_sse2_lowp+0xb54>
.byte 102,65,15,111,201 // movdqa %xmm9,%xmm1
.byte 102,15,219,200 // pand %xmm0,%xmm1
.byte 15,91,209 // cvtdq2ps %xmm1,%xmm2
- .byte 68,15,40,5,138,198,0,0 // movaps 0xc68a(%rip),%xmm8 # 32dd0 <_sk_srcover_rgba_8888_sse2_lowp+0xc90>
+ .byte 68,15,40,5,174,198,0,0 // movaps 0xc6ae(%rip),%xmm8 # 32e10 <_sk_srcover_rgba_8888_sse2_lowp+0xcb4>
.byte 65,15,89,208 // mulps %xmm8,%xmm2
.byte 102,65,15,111,201 // movdqa %xmm9,%xmm1
.byte 102,15,114,209,8 // psrld $0x8,%xmm1
@@ -47154,7 +47166,7 @@ _sk_store_bgra_sse2:
.byte 73,193,224,2 // shl $0x2,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 72,99,194 // movslq %edx,%rax
- .byte 68,15,40,5,11,197,0,0 // movaps 0xc50b(%rip),%xmm8 # 32cb0 <_sk_srcover_rgba_8888_sse2_lowp+0xb70>
+ .byte 68,15,40,5,31,197,0,0 // movaps 0xc51f(%rip),%xmm8 # 32ce0 <_sk_srcover_rgba_8888_sse2_lowp+0xb84>
.byte 68,15,40,202 // movaps %xmm2,%xmm9
.byte 69,15,89,200 // mulps %xmm8,%xmm9
.byte 102,69,15,91,201 // cvtps2dq %xmm9,%xmm9
@@ -47173,24 +47185,24 @@ _sk_store_bgra_sse2:
.byte 102,69,15,235,193 // por %xmm9,%xmm8
.byte 102,69,15,235,194 // por %xmm10,%xmm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,10 // jne 26805 <_sk_store_bgra_sse2+0x7f>
+ .byte 117,10 // jne 26821 <_sk_store_bgra_sse2+0x7f>
.byte 243,69,15,127,4,128 // movdqu %xmm8,(%r8,%rax,4)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,33 // je 26833 <_sk_store_bgra_sse2+0xad>
+ .byte 116,33 // je 2684f <_sk_store_bgra_sse2+0xad>
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,19 // je 2682b <_sk_store_bgra_sse2+0xa5>
+ .byte 116,19 // je 26847 <_sk_store_bgra_sse2+0xa5>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,227 // jne 26801 <_sk_store_bgra_sse2+0x7b>
+ .byte 117,227 // jne 2681d <_sk_store_bgra_sse2+0x7b>
.byte 102,69,15,112,200,78 // pshufd $0x4e,%xmm8,%xmm9
.byte 102,69,15,126,76,128,8 // movd %xmm9,0x8(%r8,%rax,4)
.byte 102,69,15,214,4,128 // movq %xmm8,(%r8,%rax,4)
- .byte 235,206 // jmp 26801 <_sk_store_bgra_sse2+0x7b>
+ .byte 235,206 // jmp 2681d <_sk_store_bgra_sse2+0x7b>
.byte 102,69,15,126,4,128 // movd %xmm8,(%r8,%rax,4)
- .byte 235,198 // jmp 26801 <_sk_store_bgra_sse2+0x7b>
+ .byte 235,198 // jmp 2681d <_sk_store_bgra_sse2+0x7b>
HIDDEN _sk_load_f16_sse2
.globl _sk_load_f16_sse2
@@ -47204,7 +47216,7 @@ _sk_load_f16_sse2:
.byte 76,3,0 // add (%rax),%r8
.byte 72,99,194 // movslq %edx,%rax
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,47,1,0,0 // jne 2698a <_sk_load_f16_sse2+0x14f>
+ .byte 15,133,47,1,0,0 // jne 269a6 <_sk_load_f16_sse2+0x14f>
.byte 102,65,15,16,4,192 // movupd (%r8,%rax,8),%xmm0
.byte 243,65,15,111,76,192,16 // movdqu 0x10(%r8,%rax,8),%xmm1
.byte 102,68,15,40,192 // movapd %xmm0,%xmm8
@@ -47216,18 +47228,18 @@ _sk_load_f16_sse2:
.byte 102,69,15,239,210 // pxor %xmm10,%xmm10
.byte 102,15,111,202 // movdqa %xmm2,%xmm1
.byte 102,65,15,97,202 // punpcklwd %xmm10,%xmm1
- .byte 102,68,15,111,13,245,199,0,0 // movdqa 0xc7f5(%rip),%xmm9 # 33090 <_sk_srcover_rgba_8888_sse2_lowp+0xf50>
+ .byte 102,68,15,111,13,25,200,0,0 // movdqa 0xc819(%rip),%xmm9 # 330d0 <_sk_srcover_rgba_8888_sse2_lowp+0xf74>
.byte 102,68,15,111,225 // movdqa %xmm1,%xmm12
.byte 102,69,15,219,225 // pand %xmm9,%xmm12
- .byte 102,68,15,111,29,242,199,0,0 // movdqa 0xc7f2(%rip),%xmm11 # 330a0 <_sk_srcover_rgba_8888_sse2_lowp+0xf60>
+ .byte 102,68,15,111,29,22,200,0,0 // movdqa 0xc816(%rip),%xmm11 # 330e0 <_sk_srcover_rgba_8888_sse2_lowp+0xf84>
.byte 102,65,15,219,203 // pand %xmm11,%xmm1
- .byte 102,15,111,29,245,199,0,0 // movdqa 0xc7f5(%rip),%xmm3 # 330b0 <_sk_srcover_rgba_8888_sse2_lowp+0xf70>
+ .byte 102,15,111,29,25,200,0,0 // movdqa 0xc819(%rip),%xmm3 # 330f0 <_sk_srcover_rgba_8888_sse2_lowp+0xf94>
.byte 102,65,15,114,244,16 // pslld $0x10,%xmm12
.byte 102,15,111,195 // movdqa %xmm3,%xmm0
.byte 102,15,102,193 // pcmpgtd %xmm1,%xmm0
.byte 102,15,114,241,13 // pslld $0xd,%xmm1
.byte 102,65,15,235,204 // por %xmm12,%xmm1
- .byte 102,68,15,111,37,228,199,0,0 // movdqa 0xc7e4(%rip),%xmm12 # 330c0 <_sk_srcover_rgba_8888_sse2_lowp+0xf80>
+ .byte 102,68,15,111,37,8,200,0,0 // movdqa 0xc808(%rip),%xmm12 # 33100 <_sk_srcover_rgba_8888_sse2_lowp+0xfa4>
.byte 102,65,15,254,204 // paddd %xmm12,%xmm1
.byte 102,15,223,193 // pandn %xmm1,%xmm0
.byte 102,65,15,105,210 // punpckhwd %xmm10,%xmm2
@@ -47266,16 +47278,16 @@ _sk_load_f16_sse2:
.byte 255,224 // jmpq *%rax
.byte 242,65,15,16,4,192 // movsd (%r8,%rax,8),%xmm0
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 117,13 // jne 269a3 <_sk_load_f16_sse2+0x168>
+ .byte 117,13 // jne 269bf <_sk_load_f16_sse2+0x168>
.byte 243,15,126,192 // movq %xmm0,%xmm0
.byte 102,15,239,201 // pxor %xmm1,%xmm1
- .byte 233,197,254,255,255 // jmpq 26868 <_sk_load_f16_sse2+0x2d>
+ .byte 233,197,254,255,255 // jmpq 26884 <_sk_load_f16_sse2+0x2d>
.byte 102,65,15,22,68,192,8 // movhpd 0x8(%r8,%rax,8),%xmm0
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 15,130,176,254,255,255 // jb 26868 <_sk_load_f16_sse2+0x2d>
+ .byte 15,130,176,254,255,255 // jb 26884 <_sk_load_f16_sse2+0x2d>
.byte 243,65,15,126,76,192,16 // movq 0x10(%r8,%rax,8),%xmm1
- .byte 233,164,254,255,255 // jmpq 26868 <_sk_load_f16_sse2+0x2d>
+ .byte 233,164,254,255,255 // jmpq 26884 <_sk_load_f16_sse2+0x2d>
HIDDEN _sk_load_f16_dst_sse2
.globl _sk_load_f16_dst_sse2
@@ -47289,7 +47301,7 @@ _sk_load_f16_dst_sse2:
.byte 76,3,0 // add (%rax),%r8
.byte 72,99,194 // movslq %edx,%rax
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,47,1,0,0 // jne 26b13 <_sk_load_f16_dst_sse2+0x14f>
+ .byte 15,133,47,1,0,0 // jne 26b2f <_sk_load_f16_dst_sse2+0x14f>
.byte 102,65,15,16,36,192 // movupd (%r8,%rax,8),%xmm4
.byte 243,65,15,111,108,192,16 // movdqu 0x10(%r8,%rax,8),%xmm5
.byte 102,68,15,40,196 // movapd %xmm4,%xmm8
@@ -47301,18 +47313,18 @@ _sk_load_f16_dst_sse2:
.byte 102,69,15,239,210 // pxor %xmm10,%xmm10
.byte 102,15,111,238 // movdqa %xmm6,%xmm5
.byte 102,65,15,97,234 // punpcklwd %xmm10,%xmm5
- .byte 102,68,15,111,13,108,198,0,0 // movdqa 0xc66c(%rip),%xmm9 # 33090 <_sk_srcover_rgba_8888_sse2_lowp+0xf50>
+ .byte 102,68,15,111,13,144,198,0,0 // movdqa 0xc690(%rip),%xmm9 # 330d0 <_sk_srcover_rgba_8888_sse2_lowp+0xf74>
.byte 102,68,15,111,229 // movdqa %xmm5,%xmm12
.byte 102,69,15,219,225 // pand %xmm9,%xmm12
- .byte 102,68,15,111,29,105,198,0,0 // movdqa 0xc669(%rip),%xmm11 # 330a0 <_sk_srcover_rgba_8888_sse2_lowp+0xf60>
+ .byte 102,68,15,111,29,141,198,0,0 // movdqa 0xc68d(%rip),%xmm11 # 330e0 <_sk_srcover_rgba_8888_sse2_lowp+0xf84>
.byte 102,65,15,219,235 // pand %xmm11,%xmm5
- .byte 102,15,111,61,108,198,0,0 // movdqa 0xc66c(%rip),%xmm7 # 330b0 <_sk_srcover_rgba_8888_sse2_lowp+0xf70>
+ .byte 102,15,111,61,144,198,0,0 // movdqa 0xc690(%rip),%xmm7 # 330f0 <_sk_srcover_rgba_8888_sse2_lowp+0xf94>
.byte 102,65,15,114,244,16 // pslld $0x10,%xmm12
.byte 102,15,111,231 // movdqa %xmm7,%xmm4
.byte 102,15,102,229 // pcmpgtd %xmm5,%xmm4
.byte 102,15,114,245,13 // pslld $0xd,%xmm5
.byte 102,65,15,235,236 // por %xmm12,%xmm5
- .byte 102,68,15,111,37,91,198,0,0 // movdqa 0xc65b(%rip),%xmm12 # 330c0 <_sk_srcover_rgba_8888_sse2_lowp+0xf80>
+ .byte 102,68,15,111,37,127,198,0,0 // movdqa 0xc67f(%rip),%xmm12 # 33100 <_sk_srcover_rgba_8888_sse2_lowp+0xfa4>
.byte 102,65,15,254,236 // paddd %xmm12,%xmm5
.byte 102,15,223,229 // pandn %xmm5,%xmm4
.byte 102,65,15,105,242 // punpckhwd %xmm10,%xmm6
@@ -47351,16 +47363,16 @@ _sk_load_f16_dst_sse2:
.byte 255,224 // jmpq *%rax
.byte 242,65,15,16,36,192 // movsd (%r8,%rax,8),%xmm4
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 117,13 // jne 26b2c <_sk_load_f16_dst_sse2+0x168>
+ .byte 117,13 // jne 26b48 <_sk_load_f16_dst_sse2+0x168>
.byte 243,15,126,228 // movq %xmm4,%xmm4
.byte 102,15,239,237 // pxor %xmm5,%xmm5
- .byte 233,197,254,255,255 // jmpq 269f1 <_sk_load_f16_dst_sse2+0x2d>
+ .byte 233,197,254,255,255 // jmpq 26a0d <_sk_load_f16_dst_sse2+0x2d>
.byte 102,65,15,22,100,192,8 // movhpd 0x8(%r8,%rax,8),%xmm4
.byte 102,15,239,237 // pxor %xmm5,%xmm5
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 15,130,176,254,255,255 // jb 269f1 <_sk_load_f16_dst_sse2+0x2d>
+ .byte 15,130,176,254,255,255 // jb 26a0d <_sk_load_f16_dst_sse2+0x2d>
.byte 243,65,15,126,108,192,16 // movq 0x10(%r8,%rax,8),%xmm5
- .byte 233,164,254,255,255 // jmpq 269f1 <_sk_load_f16_dst_sse2+0x2d>
+ .byte 233,164,254,255,255 // jmpq 26a0d <_sk_load_f16_dst_sse2+0x2d>
HIDDEN _sk_gather_f16_sse2
.globl _sk_gather_f16_sse2
@@ -47414,18 +47426,18 @@ _sk_gather_f16_sse2:
.byte 102,68,15,105,201 // punpckhwd %xmm1,%xmm9
.byte 102,15,111,202 // movdqa %xmm2,%xmm1
.byte 102,65,15,97,200 // punpcklwd %xmm8,%xmm1
- .byte 102,68,15,111,21,106,196,0,0 // movdqa 0xc46a(%rip),%xmm10 # 33090 <_sk_srcover_rgba_8888_sse2_lowp+0xf50>
+ .byte 102,68,15,111,21,142,196,0,0 // movdqa 0xc48e(%rip),%xmm10 # 330d0 <_sk_srcover_rgba_8888_sse2_lowp+0xf74>
.byte 102,68,15,111,225 // movdqa %xmm1,%xmm12
.byte 102,69,15,219,226 // pand %xmm10,%xmm12
- .byte 102,68,15,111,29,103,196,0,0 // movdqa 0xc467(%rip),%xmm11 # 330a0 <_sk_srcover_rgba_8888_sse2_lowp+0xf60>
+ .byte 102,68,15,111,29,139,196,0,0 // movdqa 0xc48b(%rip),%xmm11 # 330e0 <_sk_srcover_rgba_8888_sse2_lowp+0xf84>
.byte 102,65,15,219,203 // pand %xmm11,%xmm1
- .byte 102,15,111,29,106,196,0,0 // movdqa 0xc46a(%rip),%xmm3 # 330b0 <_sk_srcover_rgba_8888_sse2_lowp+0xf70>
+ .byte 102,15,111,29,142,196,0,0 // movdqa 0xc48e(%rip),%xmm3 # 330f0 <_sk_srcover_rgba_8888_sse2_lowp+0xf94>
.byte 102,65,15,114,244,16 // pslld $0x10,%xmm12
.byte 102,15,111,195 // movdqa %xmm3,%xmm0
.byte 102,15,102,193 // pcmpgtd %xmm1,%xmm0
.byte 102,15,114,241,13 // pslld $0xd,%xmm1
.byte 102,65,15,235,204 // por %xmm12,%xmm1
- .byte 102,68,15,111,37,89,196,0,0 // movdqa 0xc459(%rip),%xmm12 # 330c0 <_sk_srcover_rgba_8888_sse2_lowp+0xf80>
+ .byte 102,68,15,111,37,125,196,0,0 // movdqa 0xc47d(%rip),%xmm12 # 33100 <_sk_srcover_rgba_8888_sse2_lowp+0xfa4>
.byte 102,65,15,254,204 // paddd %xmm12,%xmm1
.byte 102,15,223,193 // pandn %xmm1,%xmm0
.byte 102,65,15,105,208 // punpckhwd %xmm8,%xmm2
@@ -47468,19 +47480,19 @@ HIDDEN _sk_store_f16_sse2
FUNCTION(_sk_store_f16_sse2)
_sk_store_f16_sse2:
.byte 15,41,124,36,232 // movaps %xmm7,-0x18(%rsp)
- .byte 102,68,15,111,29,173,195,0,0 // movdqa 0xc3ad(%rip),%xmm11 # 330d0 <_sk_srcover_rgba_8888_sse2_lowp+0xf90>
+ .byte 102,68,15,111,29,209,195,0,0 // movdqa 0xc3d1(%rip),%xmm11 # 33110 <_sk_srcover_rgba_8888_sse2_lowp+0xfb4>
.byte 102,68,15,111,192 // movdqa %xmm0,%xmm8
.byte 102,69,15,219,195 // pand %xmm11,%xmm8
- .byte 102,68,15,111,21,170,195,0,0 // movdqa 0xc3aa(%rip),%xmm10 # 330e0 <_sk_srcover_rgba_8888_sse2_lowp+0xfa0>
+ .byte 102,68,15,111,21,206,195,0,0 // movdqa 0xc3ce(%rip),%xmm10 # 33120 <_sk_srcover_rgba_8888_sse2_lowp+0xfc4>
.byte 102,68,15,111,240 // movdqa %xmm0,%xmm14
.byte 102,69,15,219,242 // pand %xmm10,%xmm14
- .byte 102,15,111,61,168,195,0,0 // movdqa 0xc3a8(%rip),%xmm7 # 330f0 <_sk_srcover_rgba_8888_sse2_lowp+0xfb0>
- .byte 102,68,15,111,37,79,197,0,0 // movdqa 0xc54f(%rip),%xmm12 # 332a0 <_sk_srcover_rgba_8888_sse2_lowp+0x1160>
+ .byte 102,15,111,61,204,195,0,0 // movdqa 0xc3cc(%rip),%xmm7 # 33130 <_sk_srcover_rgba_8888_sse2_lowp+0xfd4>
+ .byte 102,68,15,111,37,115,197,0,0 // movdqa 0xc573(%rip),%xmm12 # 332e0 <_sk_srcover_rgba_8888_sse2_lowp+0x1184>
.byte 102,68,15,111,248 // movdqa %xmm0,%xmm15
.byte 102,65,15,114,247,3 // pslld $0x3,%xmm15
.byte 102,69,15,219,252 // pand %xmm12,%xmm15
.byte 102,69,15,254,248 // paddd %xmm8,%xmm15
- .byte 102,68,15,111,45,1,192,0,0 // movdqa 0xc001(%rip),%xmm13 # 32d70 <_sk_srcover_rgba_8888_sse2_lowp+0xc30>
+ .byte 102,68,15,111,45,37,192,0,0 // movdqa 0xc025(%rip),%xmm13 # 32db0 <_sk_srcover_rgba_8888_sse2_lowp+0xc54>
.byte 102,69,15,254,253 // paddd %xmm13,%xmm15
.byte 102,65,15,114,231,16 // psrad $0x10,%xmm15
.byte 102,68,15,111,199 // movdqa %xmm7,%xmm8
@@ -47536,7 +47548,7 @@ _sk_store_f16_sse2:
.byte 76,3,0 // add (%rax),%r8
.byte 72,99,194 // movslq %edx,%rax
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,37 // jne 26ea1 <_sk_store_f16_sse2+0x18c>
+ .byte 117,37 // jne 26ebd <_sk_store_f16_sse2+0x18c>
.byte 102,65,15,111,248 // movdqa %xmm8,%xmm7
.byte 102,65,15,98,254 // punpckldq %xmm14,%xmm7
.byte 243,65,15,127,60,192 // movdqu %xmm7,(%r8,%rax,8)
@@ -47549,13 +47561,13 @@ _sk_store_f16_sse2:
.byte 102,69,15,98,206 // punpckldq %xmm14,%xmm9
.byte 102,69,15,214,12,192 // movq %xmm9,(%r8,%rax,8)
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 116,225 // je 26e98 <_sk_store_f16_sse2+0x183>
+ .byte 116,225 // je 26eb4 <_sk_store_f16_sse2+0x183>
.byte 102,69,15,23,76,192,8 // movhpd %xmm9,0x8(%r8,%rax,8)
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,212 // jb 26e98 <_sk_store_f16_sse2+0x183>
+ .byte 114,212 // jb 26eb4 <_sk_store_f16_sse2+0x183>
.byte 102,69,15,106,198 // punpckhdq %xmm14,%xmm8
.byte 102,69,15,214,68,192,16 // movq %xmm8,0x10(%r8,%rax,8)
- .byte 235,198 // jmp 26e98 <_sk_store_f16_sse2+0x183>
+ .byte 235,198 // jmp 26eb4 <_sk_store_f16_sse2+0x183>
HIDDEN _sk_load_u16_be_sse2
.globl _sk_load_u16_be_sse2
@@ -47570,7 +47582,7 @@ _sk_load_u16_be_sse2:
.byte 76,3,0 // add (%rax),%r8
.byte 73,99,193 // movslq %r9d,%rax
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,190,0,0,0 // jne 26fb7 <_sk_load_u16_be_sse2+0xe5>
+ .byte 15,133,190,0,0,0 // jne 26fd3 <_sk_load_u16_be_sse2+0xe5>
.byte 102,65,15,16,4,64 // movupd (%r8,%rax,2),%xmm0
.byte 243,65,15,111,76,64,16 // movdqu 0x10(%r8,%rax,2),%xmm1
.byte 102,15,40,208 // movapd %xmm0,%xmm2
@@ -47587,7 +47599,7 @@ _sk_load_u16_be_sse2:
.byte 102,69,15,239,201 // pxor %xmm9,%xmm9
.byte 102,65,15,97,201 // punpcklwd %xmm9,%xmm1
.byte 15,91,193 // cvtdq2ps %xmm1,%xmm0
- .byte 68,15,40,5,22,191,0,0 // movaps 0xbf16(%rip),%xmm8 # 32e60 <_sk_srcover_rgba_8888_sse2_lowp+0xd20>
+ .byte 68,15,40,5,58,191,0,0 // movaps 0xbf3a(%rip),%xmm8 # 32ea0 <_sk_srcover_rgba_8888_sse2_lowp+0xd44>
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 102,15,111,203 // movdqa %xmm3,%xmm1
.byte 102,15,113,241,8 // psllw $0x8,%xmm1
@@ -47615,16 +47627,16 @@ _sk_load_u16_be_sse2:
.byte 255,224 // jmpq *%rax
.byte 242,65,15,16,4,64 // movsd (%r8,%rax,2),%xmm0
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 117,13 // jne 26fd0 <_sk_load_u16_be_sse2+0xfe>
+ .byte 117,13 // jne 26fec <_sk_load_u16_be_sse2+0xfe>
.byte 243,15,126,192 // movq %xmm0,%xmm0
.byte 102,15,239,201 // pxor %xmm1,%xmm1
- .byte 233,54,255,255,255 // jmpq 26f06 <_sk_load_u16_be_sse2+0x34>
+ .byte 233,54,255,255,255 // jmpq 26f22 <_sk_load_u16_be_sse2+0x34>
.byte 102,65,15,22,68,64,8 // movhpd 0x8(%r8,%rax,2),%xmm0
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 15,130,33,255,255,255 // jb 26f06 <_sk_load_u16_be_sse2+0x34>
+ .byte 15,130,33,255,255,255 // jb 26f22 <_sk_load_u16_be_sse2+0x34>
.byte 243,65,15,126,76,64,16 // movq 0x10(%r8,%rax,2),%xmm1
- .byte 233,21,255,255,255 // jmpq 26f06 <_sk_load_u16_be_sse2+0x34>
+ .byte 233,21,255,255,255 // jmpq 26f22 <_sk_load_u16_be_sse2+0x34>
HIDDEN _sk_load_rgb_u16_be_sse2
.globl _sk_load_rgb_u16_be_sse2
@@ -47641,7 +47653,7 @@ _sk_load_rgb_u16_be_sse2:
.byte 72,141,4,64 // lea (%rax,%rax,2),%rax
.byte 72,193,248,32 // sar $0x20,%rax
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,175,0,0,0 // jne 270cb <_sk_load_rgb_u16_be_sse2+0xda>
+ .byte 15,133,175,0,0,0 // jne 270e7 <_sk_load_rgb_u16_be_sse2+0xda>
.byte 243,65,15,111,20,64 // movdqu (%r8,%rax,2),%xmm2
.byte 243,65,15,111,92,64,8 // movdqu 0x8(%r8,%rax,2),%xmm3
.byte 102,15,115,219,4 // psrldq $0x4,%xmm3
@@ -47662,7 +47674,7 @@ _sk_load_rgb_u16_be_sse2:
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 102,65,15,97,200 // punpcklwd %xmm8,%xmm1
.byte 15,91,193 // cvtdq2ps %xmm1,%xmm0
- .byte 68,15,40,13,224,189,0,0 // movaps 0xbde0(%rip),%xmm9 # 32e60 <_sk_srcover_rgba_8888_sse2_lowp+0xd20>
+ .byte 68,15,40,13,4,190,0,0 // movaps 0xbe04(%rip),%xmm9 # 32ea0 <_sk_srcover_rgba_8888_sse2_lowp+0xd44>
.byte 65,15,89,193 // mulps %xmm9,%xmm0
.byte 102,15,111,203 // movdqa %xmm3,%xmm1
.byte 102,15,113,241,8 // psllw $0x8,%xmm1
@@ -47679,27 +47691,27 @@ _sk_load_rgb_u16_be_sse2:
.byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
.byte 65,15,89,209 // mulps %xmm9,%xmm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,7,187,0,0 // movaps 0xbb07(%rip),%xmm3 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xa90>
+ .byte 15,40,29,27,187,0,0 // movaps 0xbb1b(%rip),%xmm3 # 32c00 <_sk_srcover_rgba_8888_sse2_lowp+0xaa4>
.byte 255,224 // jmpq *%rax
.byte 102,65,15,110,20,64 // movd (%r8,%rax,2),%xmm2
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 102,65,15,196,84,64,4,2 // pinsrw $0x2,0x4(%r8,%rax,2),%xmm2
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 117,13 // jne 270f0 <_sk_load_rgb_u16_be_sse2+0xff>
+ .byte 117,13 // jne 2710c <_sk_load_rgb_u16_be_sse2+0xff>
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 102,15,239,192 // pxor %xmm0,%xmm0
- .byte 233,80,255,255,255 // jmpq 27040 <_sk_load_rgb_u16_be_sse2+0x4f>
+ .byte 233,80,255,255,255 // jmpq 2705c <_sk_load_rgb_u16_be_sse2+0x4f>
.byte 102,65,15,110,68,64,6 // movd 0x6(%r8,%rax,2),%xmm0
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 102,65,15,196,68,64,10,2 // pinsrw $0x2,0xa(%r8,%rax,2),%xmm0
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,24 // jb 27121 <_sk_load_rgb_u16_be_sse2+0x130>
+ .byte 114,24 // jb 2713d <_sk_load_rgb_u16_be_sse2+0x130>
.byte 102,65,15,110,92,64,12 // movd 0xc(%r8,%rax,2),%xmm3
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 102,65,15,196,92,64,16,2 // pinsrw $0x2,0x10(%r8,%rax,2),%xmm3
- .byte 233,31,255,255,255 // jmpq 27040 <_sk_load_rgb_u16_be_sse2+0x4f>
+ .byte 233,31,255,255,255 // jmpq 2705c <_sk_load_rgb_u16_be_sse2+0x4f>
.byte 102,15,239,219 // pxor %xmm3,%xmm3
- .byte 233,22,255,255,255 // jmpq 27040 <_sk_load_rgb_u16_be_sse2+0x4f>
+ .byte 233,22,255,255,255 // jmpq 2705c <_sk_load_rgb_u16_be_sse2+0x4f>
HIDDEN _sk_store_u16_be_sse2
.globl _sk_store_u16_be_sse2
@@ -47713,7 +47725,7 @@ _sk_store_u16_be_sse2:
.byte 77,1,192 // add %r8,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 73,99,193 // movslq %r9d,%rax
- .byte 68,15,40,21,192,191,0,0 // movaps 0xbfc0(%rip),%xmm10 # 33110 <_sk_srcover_rgba_8888_sse2_lowp+0xfd0>
+ .byte 68,15,40,21,228,191,0,0 // movaps 0xbfe4(%rip),%xmm10 # 33150 <_sk_srcover_rgba_8888_sse2_lowp+0xff4>
.byte 68,15,40,192 // movaps %xmm0,%xmm8
.byte 69,15,89,194 // mulps %xmm10,%xmm8
.byte 102,69,15,91,192 // cvtps2dq %xmm8,%xmm8
@@ -47758,7 +47770,7 @@ _sk_store_u16_be_sse2:
.byte 102,69,15,111,208 // movdqa %xmm8,%xmm10
.byte 102,69,15,98,209 // punpckldq %xmm9,%xmm10
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,21 // jne 2724a <_sk_store_u16_be_sse2+0x120>
+ .byte 117,21 // jne 27266 <_sk_store_u16_be_sse2+0x120>
.byte 69,15,17,20,64 // movups %xmm10,(%r8,%rax,2)
.byte 102,69,15,106,193 // punpckhdq %xmm9,%xmm8
.byte 243,69,15,127,68,64,16 // movdqu %xmm8,0x10(%r8,%rax,2)
@@ -47766,13 +47778,13 @@ _sk_store_u16_be_sse2:
.byte 255,224 // jmpq *%rax
.byte 102,69,15,214,20,64 // movq %xmm10,(%r8,%rax,2)
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 116,240 // je 27246 <_sk_store_u16_be_sse2+0x11c>
+ .byte 116,240 // je 27262 <_sk_store_u16_be_sse2+0x11c>
.byte 102,69,15,23,84,64,8 // movhpd %xmm10,0x8(%r8,%rax,2)
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,227 // jb 27246 <_sk_store_u16_be_sse2+0x11c>
+ .byte 114,227 // jb 27262 <_sk_store_u16_be_sse2+0x11c>
.byte 102,69,15,106,193 // punpckhdq %xmm9,%xmm8
.byte 102,69,15,214,68,64,16 // movq %xmm8,0x10(%r8,%rax,2)
- .byte 235,213 // jmp 27246 <_sk_store_u16_be_sse2+0x11c>
+ .byte 235,213 // jmp 27262 <_sk_store_u16_be_sse2+0x11c>
HIDDEN _sk_load_f32_sse2
.globl _sk_load_f32_sse2
@@ -47788,7 +47800,7 @@ _sk_load_f32_sse2:
.byte 73,99,193 // movslq %r9d,%rax
.byte 69,15,16,4,128 // movups (%r8,%rax,4),%xmm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,66 // jne 272dc <_sk_load_f32_sse2+0x6b>
+ .byte 117,66 // jne 272f8 <_sk_load_f32_sse2+0x6b>
.byte 65,15,16,68,128,16 // movups 0x10(%r8,%rax,4),%xmm0
.byte 65,15,16,92,128,32 // movups 0x20(%r8,%rax,4),%xmm3
.byte 69,15,16,76,128,48 // movups 0x30(%r8,%rax,4),%xmm9
@@ -47808,17 +47820,17 @@ _sk_load_f32_sse2:
.byte 255,224 // jmpq *%rax
.byte 69,15,87,201 // xorps %xmm9,%xmm9
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 117,8 // jne 272ee <_sk_load_f32_sse2+0x7d>
+ .byte 117,8 // jne 2730a <_sk_load_f32_sse2+0x7d>
.byte 15,87,219 // xorps %xmm3,%xmm3
.byte 15,87,192 // xorps %xmm0,%xmm0
- .byte 235,190 // jmp 272ac <_sk_load_f32_sse2+0x3b>
+ .byte 235,190 // jmp 272c8 <_sk_load_f32_sse2+0x3b>
.byte 65,15,16,68,128,16 // movups 0x10(%r8,%rax,4),%xmm0
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,8 // jb 27302 <_sk_load_f32_sse2+0x91>
+ .byte 114,8 // jb 2731e <_sk_load_f32_sse2+0x91>
.byte 65,15,16,92,128,32 // movups 0x20(%r8,%rax,4),%xmm3
- .byte 235,170 // jmp 272ac <_sk_load_f32_sse2+0x3b>
+ .byte 235,170 // jmp 272c8 <_sk_load_f32_sse2+0x3b>
.byte 15,87,219 // xorps %xmm3,%xmm3
- .byte 235,165 // jmp 272ac <_sk_load_f32_sse2+0x3b>
+ .byte 235,165 // jmp 272c8 <_sk_load_f32_sse2+0x3b>
HIDDEN _sk_load_f32_dst_sse2
.globl _sk_load_f32_dst_sse2
@@ -47834,7 +47846,7 @@ _sk_load_f32_dst_sse2:
.byte 73,99,193 // movslq %r9d,%rax
.byte 69,15,16,4,128 // movups (%r8,%rax,4),%xmm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,66 // jne 27372 <_sk_load_f32_dst_sse2+0x6b>
+ .byte 117,66 // jne 2738e <_sk_load_f32_dst_sse2+0x6b>
.byte 65,15,16,100,128,16 // movups 0x10(%r8,%rax,4),%xmm4
.byte 65,15,16,124,128,32 // movups 0x20(%r8,%rax,4),%xmm7
.byte 69,15,16,76,128,48 // movups 0x30(%r8,%rax,4),%xmm9
@@ -47854,17 +47866,17 @@ _sk_load_f32_dst_sse2:
.byte 255,224 // jmpq *%rax
.byte 69,15,87,201 // xorps %xmm9,%xmm9
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 117,8 // jne 27384 <_sk_load_f32_dst_sse2+0x7d>
+ .byte 117,8 // jne 273a0 <_sk_load_f32_dst_sse2+0x7d>
.byte 15,87,255 // xorps %xmm7,%xmm7
.byte 15,87,228 // xorps %xmm4,%xmm4
- .byte 235,190 // jmp 27342 <_sk_load_f32_dst_sse2+0x3b>
+ .byte 235,190 // jmp 2735e <_sk_load_f32_dst_sse2+0x3b>
.byte 65,15,16,100,128,16 // movups 0x10(%r8,%rax,4),%xmm4
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,8 // jb 27398 <_sk_load_f32_dst_sse2+0x91>
+ .byte 114,8 // jb 273b4 <_sk_load_f32_dst_sse2+0x91>
.byte 65,15,16,124,128,32 // movups 0x20(%r8,%rax,4),%xmm7
- .byte 235,170 // jmp 27342 <_sk_load_f32_dst_sse2+0x3b>
+ .byte 235,170 // jmp 2735e <_sk_load_f32_dst_sse2+0x3b>
.byte 15,87,255 // xorps %xmm7,%xmm7
- .byte 235,165 // jmp 27342 <_sk_load_f32_dst_sse2+0x3b>
+ .byte 235,165 // jmp 2735e <_sk_load_f32_dst_sse2+0x3b>
HIDDEN _sk_store_f32_sse2
.globl _sk_store_f32_sse2
@@ -47893,7 +47905,7 @@ _sk_store_f32_sse2:
.byte 102,69,15,20,203 // unpcklpd %xmm11,%xmm9
.byte 102,69,15,17,36,128 // movupd %xmm12,(%r8,%rax,4)
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,29 // jne 2741a <_sk_store_f32_sse2+0x7d>
+ .byte 117,29 // jne 27436 <_sk_store_f32_sse2+0x7d>
.byte 102,69,15,21,211 // unpckhpd %xmm11,%xmm10
.byte 69,15,17,68,128,16 // movups %xmm8,0x10(%r8,%rax,4)
.byte 102,69,15,17,76,128,32 // movupd %xmm9,0x20(%r8,%rax,4)
@@ -47901,12 +47913,12 @@ _sk_store_f32_sse2:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 116,246 // je 27416 <_sk_store_f32_sse2+0x79>
+ .byte 116,246 // je 27432 <_sk_store_f32_sse2+0x79>
.byte 69,15,17,68,128,16 // movups %xmm8,0x10(%r8,%rax,4)
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,234 // jb 27416 <_sk_store_f32_sse2+0x79>
+ .byte 114,234 // jb 27432 <_sk_store_f32_sse2+0x79>
.byte 102,69,15,17,76,128,32 // movupd %xmm9,0x20(%r8,%rax,4)
- .byte 235,225 // jmp 27416 <_sk_store_f32_sse2+0x79>
+ .byte 235,225 // jmp 27432 <_sk_store_f32_sse2+0x79>
HIDDEN _sk_repeat_x_sse2
.globl _sk_repeat_x_sse2
@@ -47920,7 +47932,7 @@ _sk_repeat_x_sse2:
.byte 243,69,15,91,209 // cvttps2dq %xmm9,%xmm10
.byte 69,15,91,210 // cvtdq2ps %xmm10,%xmm10
.byte 69,15,194,202,1 // cmpltps %xmm10,%xmm9
- .byte 68,15,84,13,111,183,0,0 // andps 0xb76f(%rip),%xmm9 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xa90>
+ .byte 68,15,84,13,131,183,0,0 // andps 0xb783(%rip),%xmm9 # 32c00 <_sk_srcover_rgba_8888_sse2_lowp+0xaa4>
.byte 69,15,92,209 // subps %xmm9,%xmm10
.byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
.byte 69,15,89,194 // mulps %xmm10,%xmm8
@@ -47940,7 +47952,7 @@ _sk_repeat_y_sse2:
.byte 243,69,15,91,209 // cvttps2dq %xmm9,%xmm10
.byte 69,15,91,210 // cvtdq2ps %xmm10,%xmm10
.byte 69,15,194,202,1 // cmpltps %xmm10,%xmm9
- .byte 68,15,84,13,46,183,0,0 // andps 0xb72e(%rip),%xmm9 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xa90>
+ .byte 68,15,84,13,66,183,0,0 // andps 0xb742(%rip),%xmm9 # 32c00 <_sk_srcover_rgba_8888_sse2_lowp+0xaa4>
.byte 69,15,92,209 // subps %xmm9,%xmm10
.byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
.byte 69,15,89,194 // mulps %xmm10,%xmm8
@@ -47960,13 +47972,13 @@ _sk_mirror_x_sse2:
.byte 65,15,92,194 // subps %xmm10,%xmm0
.byte 243,69,15,88,192 // addss %xmm8,%xmm8
.byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
- .byte 243,68,15,89,13,224,180,0,0 // mulss 0xb4e0(%rip),%xmm9 # 329c4 <_sk_srcover_rgba_8888_sse2_lowp+0x884>
+ .byte 243,68,15,89,13,228,180,0,0 // mulss 0xb4e4(%rip),%xmm9 # 329e4 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 69,15,198,201,0 // shufps $0x0,%xmm9,%xmm9
.byte 68,15,89,200 // mulps %xmm0,%xmm9
.byte 243,69,15,91,217 // cvttps2dq %xmm9,%xmm11
.byte 69,15,91,219 // cvtdq2ps %xmm11,%xmm11
.byte 69,15,194,203,1 // cmpltps %xmm11,%xmm9
- .byte 68,15,84,13,205,182,0,0 // andps 0xb6cd(%rip),%xmm9 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xa90>
+ .byte 68,15,84,13,225,182,0,0 // andps 0xb6e1(%rip),%xmm9 # 32c00 <_sk_srcover_rgba_8888_sse2_lowp+0xaa4>
.byte 69,15,87,228 // xorps %xmm12,%xmm12
.byte 69,15,92,217 // subps %xmm9,%xmm11
.byte 69,15,89,216 // mulps %xmm8,%xmm11
@@ -47989,13 +48001,13 @@ _sk_mirror_y_sse2:
.byte 65,15,92,202 // subps %xmm10,%xmm1
.byte 243,69,15,88,192 // addss %xmm8,%xmm8
.byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
- .byte 243,68,15,89,13,116,180,0,0 // mulss 0xb474(%rip),%xmm9 # 329c4 <_sk_srcover_rgba_8888_sse2_lowp+0x884>
+ .byte 243,68,15,89,13,120,180,0,0 // mulss 0xb478(%rip),%xmm9 # 329e4 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 69,15,198,201,0 // shufps $0x0,%xmm9,%xmm9
.byte 68,15,89,201 // mulps %xmm1,%xmm9
.byte 243,69,15,91,217 // cvttps2dq %xmm9,%xmm11
.byte 69,15,91,219 // cvtdq2ps %xmm11,%xmm11
.byte 69,15,194,203,1 // cmpltps %xmm11,%xmm9
- .byte 68,15,84,13,97,182,0,0 // andps 0xb661(%rip),%xmm9 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xa90>
+ .byte 68,15,84,13,117,182,0,0 // andps 0xb675(%rip),%xmm9 # 32c00 <_sk_srcover_rgba_8888_sse2_lowp+0xaa4>
.byte 69,15,87,228 // xorps %xmm12,%xmm12
.byte 69,15,92,217 // subps %xmm9,%xmm11
.byte 69,15,89,216 // mulps %xmm8,%xmm11
@@ -48012,7 +48024,7 @@ FUNCTION(_sk_clamp_x_1_sse2)
_sk_clamp_x_1_sse2:
.byte 69,15,87,192 // xorps %xmm8,%xmm8
.byte 68,15,95,192 // maxps %xmm0,%xmm8
- .byte 68,15,93,5,49,182,0,0 // minps 0xb631(%rip),%xmm8 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xa90>
+ .byte 68,15,93,5,69,182,0,0 // minps 0xb645(%rip),%xmm8 # 32c00 <_sk_srcover_rgba_8888_sse2_lowp+0xaa4>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 65,15,40,192 // movaps %xmm8,%xmm0
.byte 255,224 // jmpq *%rax
@@ -48025,7 +48037,7 @@ _sk_repeat_x_1_sse2:
.byte 69,15,91,200 // cvtdq2ps %xmm8,%xmm9
.byte 68,15,40,208 // movaps %xmm0,%xmm10
.byte 69,15,194,209,1 // cmpltps %xmm9,%xmm10
- .byte 68,15,40,29,15,182,0,0 // movaps 0xb60f(%rip),%xmm11 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xa90>
+ .byte 68,15,40,29,35,182,0,0 // movaps 0xb623(%rip),%xmm11 # 32c00 <_sk_srcover_rgba_8888_sse2_lowp+0xaa4>
.byte 69,15,84,211 // andps %xmm11,%xmm10
.byte 69,15,87,192 // xorps %xmm8,%xmm8
.byte 69,15,92,202 // subps %xmm10,%xmm9
@@ -48040,14 +48052,14 @@ HIDDEN _sk_mirror_x_1_sse2
.globl _sk_mirror_x_1_sse2
FUNCTION(_sk_mirror_x_1_sse2)
_sk_mirror_x_1_sse2:
- .byte 68,15,40,13,71,182,0,0 // movaps 0xb647(%rip),%xmm9 # 32c30 <_sk_srcover_rgba_8888_sse2_lowp+0xaf0>
+ .byte 68,15,40,13,91,182,0,0 // movaps 0xb65b(%rip),%xmm9 # 32c60 <_sk_srcover_rgba_8888_sse2_lowp+0xb04>
.byte 65,15,88,193 // addps %xmm9,%xmm0
- .byte 68,15,40,21,203,181,0,0 // movaps 0xb5cb(%rip),%xmm10 # 32bc0 <_sk_srcover_rgba_8888_sse2_lowp+0xa80>
+ .byte 68,15,40,21,223,181,0,0 // movaps 0xb5df(%rip),%xmm10 # 32bf0 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
.byte 68,15,89,208 // mulps %xmm0,%xmm10
.byte 243,69,15,91,194 // cvttps2dq %xmm10,%xmm8
.byte 69,15,91,216 // cvtdq2ps %xmm8,%xmm11
.byte 69,15,194,211,1 // cmpltps %xmm11,%xmm10
- .byte 68,15,40,37,193,181,0,0 // movaps 0xb5c1(%rip),%xmm12 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xa90>
+ .byte 68,15,40,37,213,181,0,0 // movaps 0xb5d5(%rip),%xmm12 # 32c00 <_sk_srcover_rgba_8888_sse2_lowp+0xaa4>
.byte 69,15,84,212 // andps %xmm12,%xmm10
.byte 69,15,87,192 // xorps %xmm8,%xmm8
.byte 69,15,92,218 // subps %xmm10,%xmm11
@@ -48068,10 +48080,10 @@ HIDDEN _sk_luminance_to_alpha_sse2
FUNCTION(_sk_luminance_to_alpha_sse2)
_sk_luminance_to_alpha_sse2:
.byte 15,40,218 // movaps %xmm2,%xmm3
- .byte 15,89,5,211,186,0,0 // mulps 0xbad3(%rip),%xmm0 # 33120 <_sk_srcover_rgba_8888_sse2_lowp+0xfe0>
- .byte 15,89,13,220,186,0,0 // mulps 0xbadc(%rip),%xmm1 # 33130 <_sk_srcover_rgba_8888_sse2_lowp+0xff0>
+ .byte 15,89,5,247,186,0,0 // mulps 0xbaf7(%rip),%xmm0 # 33160 <_sk_srcover_rgba_8888_sse2_lowp+0x1004>
+ .byte 15,89,13,0,187,0,0 // mulps 0xbb00(%rip),%xmm1 # 33170 <_sk_srcover_rgba_8888_sse2_lowp+0x1014>
.byte 15,88,200 // addps %xmm0,%xmm1
- .byte 15,89,29,226,186,0,0 // mulps 0xbae2(%rip),%xmm3 # 33140 <_sk_srcover_rgba_8888_sse2_lowp+0x1000>
+ .byte 15,89,29,6,187,0,0 // mulps 0xbb06(%rip),%xmm3 # 33180 <_sk_srcover_rgba_8888_sse2_lowp+0x1024>
.byte 15,88,217 // addps %xmm1,%xmm3
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,87,192 // xorps %xmm0,%xmm0
@@ -48383,9 +48395,9 @@ _sk_evenly_spaced_gradient_sse2:
.byte 72,139,24 // mov (%rax),%rbx
.byte 76,139,112,8 // mov 0x8(%rax),%r14
.byte 72,255,203 // dec %rbx
- .byte 120,7 // js 27afe <_sk_evenly_spaced_gradient_sse2+0x18>
+ .byte 120,7 // js 27b1a <_sk_evenly_spaced_gradient_sse2+0x18>
.byte 243,72,15,42,203 // cvtsi2ss %rbx,%xmm1
- .byte 235,21 // jmp 27b13 <_sk_evenly_spaced_gradient_sse2+0x2d>
+ .byte 235,21 // jmp 27b2f <_sk_evenly_spaced_gradient_sse2+0x2d>
.byte 73,137,216 // mov %rbx,%r8
.byte 73,209,232 // shr %r8
.byte 131,227,1 // and $0x1,%ebx
@@ -48483,15 +48495,15 @@ HIDDEN _sk_gauss_a_to_rgba_sse2
.globl _sk_gauss_a_to_rgba_sse2
FUNCTION(_sk_gauss_a_to_rgba_sse2)
_sk_gauss_a_to_rgba_sse2:
- .byte 15,40,5,170,180,0,0 // movaps 0xb4aa(%rip),%xmm0 # 33150 <_sk_srcover_rgba_8888_sse2_lowp+0x1010>
+ .byte 15,40,5,206,180,0,0 // movaps 0xb4ce(%rip),%xmm0 # 33190 <_sk_srcover_rgba_8888_sse2_lowp+0x1034>
.byte 15,89,195 // mulps %xmm3,%xmm0
- .byte 15,88,5,176,180,0,0 // addps 0xb4b0(%rip),%xmm0 # 33160 <_sk_srcover_rgba_8888_sse2_lowp+0x1020>
+ .byte 15,88,5,212,180,0,0 // addps 0xb4d4(%rip),%xmm0 # 331a0 <_sk_srcover_rgba_8888_sse2_lowp+0x1044>
.byte 15,89,195 // mulps %xmm3,%xmm0
- .byte 15,88,5,182,180,0,0 // addps 0xb4b6(%rip),%xmm0 # 33170 <_sk_srcover_rgba_8888_sse2_lowp+0x1030>
+ .byte 15,88,5,218,180,0,0 // addps 0xb4da(%rip),%xmm0 # 331b0 <_sk_srcover_rgba_8888_sse2_lowp+0x1054>
.byte 15,89,195 // mulps %xmm3,%xmm0
- .byte 15,88,5,188,180,0,0 // addps 0xb4bc(%rip),%xmm0 # 33180 <_sk_srcover_rgba_8888_sse2_lowp+0x1040>
+ .byte 15,88,5,224,180,0,0 // addps 0xb4e0(%rip),%xmm0 # 331c0 <_sk_srcover_rgba_8888_sse2_lowp+0x1064>
.byte 15,89,195 // mulps %xmm3,%xmm0
- .byte 15,88,5,194,180,0,0 // addps 0xb4c2(%rip),%xmm0 # 33190 <_sk_srcover_rgba_8888_sse2_lowp+0x1050>
+ .byte 15,88,5,230,180,0,0 // addps 0xb4e6(%rip),%xmm0 # 331d0 <_sk_srcover_rgba_8888_sse2_lowp+0x1074>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,40,200 // movaps %xmm0,%xmm1
.byte 15,40,208 // movaps %xmm0,%xmm2
@@ -48506,7 +48518,7 @@ _sk_gradient_sse2:
.byte 76,139,0 // mov (%rax),%r8
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 73,131,248,2 // cmp $0x2,%r8
- .byte 114,41 // jb 27d13 <_sk_gradient_sse2+0x38>
+ .byte 114,41 // jb 27d2f <_sk_gradient_sse2+0x38>
.byte 76,139,72,72 // mov 0x48(%rax),%r9
.byte 73,255,200 // dec %r8
.byte 73,131,193,4 // add $0x4,%r9
@@ -48517,7 +48529,7 @@ _sk_gradient_sse2:
.byte 102,15,250,202 // psubd %xmm2,%xmm1
.byte 73,131,193,4 // add $0x4,%r9
.byte 73,255,200 // dec %r8
- .byte 117,230 // jne 27cf9 <_sk_gradient_sse2+0x1e>
+ .byte 117,230 // jne 27d15 <_sk_gradient_sse2+0x1e>
.byte 65,86 // push %r14
.byte 83 // push %rbx
.byte 102,15,112,209,78 // pshufd $0x4e,%xmm1,%xmm2
@@ -48657,29 +48669,29 @@ _sk_xy_to_unit_angle_sse2:
.byte 69,15,94,220 // divps %xmm12,%xmm11
.byte 69,15,40,227 // movaps %xmm11,%xmm12
.byte 69,15,89,228 // mulps %xmm12,%xmm12
- .byte 68,15,40,45,82,178,0,0 // movaps 0xb252(%rip),%xmm13 # 331a0 <_sk_srcover_rgba_8888_sse2_lowp+0x1060>
+ .byte 68,15,40,45,118,178,0,0 // movaps 0xb276(%rip),%xmm13 # 331e0 <_sk_srcover_rgba_8888_sse2_lowp+0x1084>
.byte 69,15,89,236 // mulps %xmm12,%xmm13
- .byte 68,15,88,45,86,178,0,0 // addps 0xb256(%rip),%xmm13 # 331b0 <_sk_srcover_rgba_8888_sse2_lowp+0x1070>
+ .byte 68,15,88,45,122,178,0,0 // addps 0xb27a(%rip),%xmm13 # 331f0 <_sk_srcover_rgba_8888_sse2_lowp+0x1094>
.byte 69,15,89,236 // mulps %xmm12,%xmm13
- .byte 68,15,88,45,90,178,0,0 // addps 0xb25a(%rip),%xmm13 # 331c0 <_sk_srcover_rgba_8888_sse2_lowp+0x1080>
+ .byte 68,15,88,45,126,178,0,0 // addps 0xb27e(%rip),%xmm13 # 33200 <_sk_srcover_rgba_8888_sse2_lowp+0x10a4>
.byte 69,15,89,236 // mulps %xmm12,%xmm13
- .byte 68,15,88,45,94,178,0,0 // addps 0xb25e(%rip),%xmm13 # 331d0 <_sk_srcover_rgba_8888_sse2_lowp+0x1090>
+ .byte 68,15,88,45,130,178,0,0 // addps 0xb282(%rip),%xmm13 # 33210 <_sk_srcover_rgba_8888_sse2_lowp+0x10b4>
.byte 69,15,89,235 // mulps %xmm11,%xmm13
.byte 69,15,194,202,1 // cmpltps %xmm10,%xmm9
- .byte 68,15,40,21,93,178,0,0 // movaps 0xb25d(%rip),%xmm10 # 331e0 <_sk_srcover_rgba_8888_sse2_lowp+0x10a0>
+ .byte 68,15,40,21,129,178,0,0 // movaps 0xb281(%rip),%xmm10 # 33220 <_sk_srcover_rgba_8888_sse2_lowp+0x10c4>
.byte 69,15,92,213 // subps %xmm13,%xmm10
.byte 69,15,84,209 // andps %xmm9,%xmm10
.byte 69,15,85,205 // andnps %xmm13,%xmm9
.byte 69,15,86,202 // orps %xmm10,%xmm9
.byte 68,15,194,192,1 // cmpltps %xmm0,%xmm8
- .byte 68,15,40,21,32,172,0,0 // movaps 0xac20(%rip),%xmm10 # 32bc0 <_sk_srcover_rgba_8888_sse2_lowp+0xa80>
+ .byte 68,15,40,21,52,172,0,0 // movaps 0xac34(%rip),%xmm10 # 32bf0 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
.byte 69,15,92,209 // subps %xmm9,%xmm10
.byte 69,15,84,208 // andps %xmm8,%xmm10
.byte 69,15,85,193 // andnps %xmm9,%xmm8
.byte 69,15,86,194 // orps %xmm10,%xmm8
.byte 68,15,40,201 // movaps %xmm1,%xmm9
.byte 68,15,194,200,1 // cmpltps %xmm0,%xmm9
- .byte 68,15,40,21,15,172,0,0 // movaps 0xac0f(%rip),%xmm10 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xa90>
+ .byte 68,15,40,21,35,172,0,0 // movaps 0xac23(%rip),%xmm10 # 32c00 <_sk_srcover_rgba_8888_sse2_lowp+0xaa4>
.byte 69,15,92,208 // subps %xmm8,%xmm10
.byte 69,15,84,209 // andps %xmm9,%xmm10
.byte 69,15,85,200 // andnps %xmm8,%xmm9
@@ -48714,7 +48726,7 @@ _sk_xy_to_2pt_conical_quadratic_max_sse2:
.byte 243,69,15,89,203 // mulss %xmm11,%xmm9
.byte 69,15,198,201,0 // shufps $0x0,%xmm9,%xmm9
.byte 68,15,88,200 // addps %xmm0,%xmm9
- .byte 68,15,89,13,198,177,0,0 // mulps 0xb1c6(%rip),%xmm9 # 331f0 <_sk_srcover_rgba_8888_sse2_lowp+0x10b0>
+ .byte 68,15,89,13,234,177,0,0 // mulps 0xb1ea(%rip),%xmm9 # 33230 <_sk_srcover_rgba_8888_sse2_lowp+0x10d4>
.byte 15,89,192 // mulps %xmm0,%xmm0
.byte 68,15,40,225 // movaps %xmm1,%xmm12
.byte 69,15,89,228 // mulps %xmm12,%xmm12
@@ -48722,7 +48734,7 @@ _sk_xy_to_2pt_conical_quadratic_max_sse2:
.byte 243,69,15,89,219 // mulss %xmm11,%xmm11
.byte 69,15,198,219,0 // shufps $0x0,%xmm11,%xmm11
.byte 69,15,92,227 // subps %xmm11,%xmm12
- .byte 68,15,89,21,177,177,0,0 // mulps 0xb1b1(%rip),%xmm10 # 33200 <_sk_srcover_rgba_8888_sse2_lowp+0x10c0>
+ .byte 68,15,89,21,213,177,0,0 // mulps 0xb1d5(%rip),%xmm10 # 33240 <_sk_srcover_rgba_8888_sse2_lowp+0x10e4>
.byte 69,15,89,212 // mulps %xmm12,%xmm10
.byte 65,15,40,193 // movaps %xmm9,%xmm0
.byte 15,89,192 // mulps %xmm0,%xmm0
@@ -48731,8 +48743,8 @@ _sk_xy_to_2pt_conical_quadratic_max_sse2:
.byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
.byte 65,15,40,194 // movaps %xmm10,%xmm0
.byte 65,15,92,193 // subps %xmm9,%xmm0
- .byte 68,15,87,13,89,176,0,0 // xorps 0xb059(%rip),%xmm9 # 330d0 <_sk_srcover_rgba_8888_sse2_lowp+0xf90>
- .byte 68,15,89,5,65,171,0,0 // mulps 0xab41(%rip),%xmm8 # 32bc0 <_sk_srcover_rgba_8888_sse2_lowp+0xa80>
+ .byte 68,15,87,13,125,176,0,0 // xorps 0xb07d(%rip),%xmm9 # 33110 <_sk_srcover_rgba_8888_sse2_lowp+0xfb4>
+ .byte 68,15,89,5,85,171,0,0 // mulps 0xab55(%rip),%xmm8 # 32bf0 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 69,15,92,202 // subps %xmm10,%xmm9
.byte 69,15,89,200 // mulps %xmm8,%xmm9
@@ -48753,7 +48765,7 @@ _sk_xy_to_2pt_conical_quadratic_min_sse2:
.byte 243,69,15,89,203 // mulss %xmm11,%xmm9
.byte 69,15,198,201,0 // shufps $0x0,%xmm9,%xmm9
.byte 68,15,88,200 // addps %xmm0,%xmm9
- .byte 68,15,89,13,40,177,0,0 // mulps 0xb128(%rip),%xmm9 # 331f0 <_sk_srcover_rgba_8888_sse2_lowp+0x10b0>
+ .byte 68,15,89,13,76,177,0,0 // mulps 0xb14c(%rip),%xmm9 # 33230 <_sk_srcover_rgba_8888_sse2_lowp+0x10d4>
.byte 15,89,192 // mulps %xmm0,%xmm0
.byte 68,15,40,225 // movaps %xmm1,%xmm12
.byte 69,15,89,228 // mulps %xmm12,%xmm12
@@ -48761,7 +48773,7 @@ _sk_xy_to_2pt_conical_quadratic_min_sse2:
.byte 243,69,15,89,219 // mulss %xmm11,%xmm11
.byte 69,15,198,219,0 // shufps $0x0,%xmm11,%xmm11
.byte 69,15,92,227 // subps %xmm11,%xmm12
- .byte 68,15,89,21,19,177,0,0 // mulps 0xb113(%rip),%xmm10 # 33200 <_sk_srcover_rgba_8888_sse2_lowp+0x10c0>
+ .byte 68,15,89,21,55,177,0,0 // mulps 0xb137(%rip),%xmm10 # 33240 <_sk_srcover_rgba_8888_sse2_lowp+0x10e4>
.byte 69,15,89,212 // mulps %xmm12,%xmm10
.byte 65,15,40,193 // movaps %xmm9,%xmm0
.byte 15,89,192 // mulps %xmm0,%xmm0
@@ -48770,8 +48782,8 @@ _sk_xy_to_2pt_conical_quadratic_min_sse2:
.byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
.byte 65,15,40,194 // movaps %xmm10,%xmm0
.byte 65,15,92,193 // subps %xmm9,%xmm0
- .byte 68,15,87,13,187,175,0,0 // xorps 0xafbb(%rip),%xmm9 # 330d0 <_sk_srcover_rgba_8888_sse2_lowp+0xf90>
- .byte 68,15,89,5,163,170,0,0 // mulps 0xaaa3(%rip),%xmm8 # 32bc0 <_sk_srcover_rgba_8888_sse2_lowp+0xa80>
+ .byte 68,15,87,13,223,175,0,0 // xorps 0xafdf(%rip),%xmm9 # 33110 <_sk_srcover_rgba_8888_sse2_lowp+0xfb4>
+ .byte 68,15,89,5,183,170,0,0 // mulps 0xaab7(%rip),%xmm8 # 32bf0 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 69,15,92,202 // subps %xmm10,%xmm9
.byte 69,15,89,200 // mulps %xmm8,%xmm9
@@ -48789,7 +48801,7 @@ _sk_xy_to_2pt_conical_linear_sse2:
.byte 243,69,15,89,200 // mulss %xmm8,%xmm9
.byte 69,15,198,201,0 // shufps $0x0,%xmm9,%xmm9
.byte 68,15,88,200 // addps %xmm0,%xmm9
- .byte 68,15,89,13,155,176,0,0 // mulps 0xb09b(%rip),%xmm9 # 331f0 <_sk_srcover_rgba_8888_sse2_lowp+0x10b0>
+ .byte 68,15,89,13,191,176,0,0 // mulps 0xb0bf(%rip),%xmm9 # 33230 <_sk_srcover_rgba_8888_sse2_lowp+0x10d4>
.byte 15,89,192 // mulps %xmm0,%xmm0
.byte 68,15,40,209 // movaps %xmm1,%xmm10
.byte 69,15,89,210 // mulps %xmm10,%xmm10
@@ -48797,7 +48809,7 @@ _sk_xy_to_2pt_conical_linear_sse2:
.byte 243,69,15,89,192 // mulss %xmm8,%xmm8
.byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
.byte 65,15,92,192 // subps %xmm8,%xmm0
- .byte 15,87,5,87,175,0,0 // xorps 0xaf57(%rip),%xmm0 # 330d0 <_sk_srcover_rgba_8888_sse2_lowp+0xf90>
+ .byte 15,87,5,123,175,0,0 // xorps 0xaf7b(%rip),%xmm0 # 33110 <_sk_srcover_rgba_8888_sse2_lowp+0xfb4>
.byte 65,15,94,193 // divps %xmm9,%xmm0
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -48843,7 +48855,7 @@ HIDDEN _sk_save_xy_sse2
FUNCTION(_sk_save_xy_sse2)
_sk_save_xy_sse2:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 68,15,40,5,206,169,0,0 // movaps 0xa9ce(%rip),%xmm8 # 32bc0 <_sk_srcover_rgba_8888_sse2_lowp+0xa80>
+ .byte 68,15,40,5,226,169,0,0 // movaps 0xa9e2(%rip),%xmm8 # 32bf0 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
.byte 15,17,0 // movups %xmm0,(%rax)
.byte 68,15,40,200 // movaps %xmm0,%xmm9
.byte 69,15,88,200 // addps %xmm8,%xmm9
@@ -48851,7 +48863,7 @@ _sk_save_xy_sse2:
.byte 69,15,91,210 // cvtdq2ps %xmm10,%xmm10
.byte 69,15,40,217 // movaps %xmm9,%xmm11
.byte 69,15,194,218,1 // cmpltps %xmm10,%xmm11
- .byte 68,15,40,37,185,169,0,0 // movaps 0xa9b9(%rip),%xmm12 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xa90>
+ .byte 68,15,40,37,205,169,0,0 // movaps 0xa9cd(%rip),%xmm12 # 32c00 <_sk_srcover_rgba_8888_sse2_lowp+0xaa4>
.byte 69,15,84,220 // andps %xmm12,%xmm11
.byte 69,15,92,211 // subps %xmm11,%xmm10
.byte 69,15,92,202 // subps %xmm10,%xmm9
@@ -48898,8 +48910,8 @@ _sk_bilinear_nx_sse2:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,16,0 // movups (%rax),%xmm0
.byte 68,15,16,64,64 // movups 0x40(%rax),%xmm8
- .byte 15,88,5,98,175,0,0 // addps 0xaf62(%rip),%xmm0 # 33210 <_sk_srcover_rgba_8888_sse2_lowp+0x10d0>
- .byte 68,15,40,13,26,169,0,0 // movaps 0xa91a(%rip),%xmm9 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xa90>
+ .byte 15,88,5,134,175,0,0 // addps 0xaf86(%rip),%xmm0 # 33250 <_sk_srcover_rgba_8888_sse2_lowp+0x10f4>
+ .byte 68,15,40,13,46,169,0,0 // movaps 0xa92e(%rip),%xmm9 # 32c00 <_sk_srcover_rgba_8888_sse2_lowp+0xaa4>
.byte 69,15,92,200 // subps %xmm8,%xmm9
.byte 68,15,17,136,128,0,0,0 // movups %xmm9,0x80(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -48912,7 +48924,7 @@ _sk_bilinear_px_sse2:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,16,0 // movups (%rax),%xmm0
.byte 68,15,16,64,64 // movups 0x40(%rax),%xmm8
- .byte 15,88,5,233,168,0,0 // addps 0xa8e9(%rip),%xmm0 # 32bc0 <_sk_srcover_rgba_8888_sse2_lowp+0xa80>
+ .byte 15,88,5,253,168,0,0 // addps 0xa8fd(%rip),%xmm0 # 32bf0 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
.byte 68,15,17,128,128,0,0,0 // movups %xmm8,0x80(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -48924,8 +48936,8 @@ _sk_bilinear_ny_sse2:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,16,72,32 // movups 0x20(%rax),%xmm1
.byte 68,15,16,64,96 // movups 0x60(%rax),%xmm8
- .byte 15,88,13,27,175,0,0 // addps 0xaf1b(%rip),%xmm1 # 33210 <_sk_srcover_rgba_8888_sse2_lowp+0x10d0>
- .byte 68,15,40,13,211,168,0,0 // movaps 0xa8d3(%rip),%xmm9 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xa90>
+ .byte 15,88,13,63,175,0,0 // addps 0xaf3f(%rip),%xmm1 # 33250 <_sk_srcover_rgba_8888_sse2_lowp+0x10f4>
+ .byte 68,15,40,13,231,168,0,0 // movaps 0xa8e7(%rip),%xmm9 # 32c00 <_sk_srcover_rgba_8888_sse2_lowp+0xaa4>
.byte 69,15,92,200 // subps %xmm8,%xmm9
.byte 68,15,17,136,160,0,0,0 // movups %xmm9,0xa0(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -48938,7 +48950,7 @@ _sk_bilinear_py_sse2:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,16,72,32 // movups 0x20(%rax),%xmm1
.byte 68,15,16,64,96 // movups 0x60(%rax),%xmm8
- .byte 15,88,13,161,168,0,0 // addps 0xa8a1(%rip),%xmm1 # 32bc0 <_sk_srcover_rgba_8888_sse2_lowp+0xa80>
+ .byte 15,88,13,181,168,0,0 // addps 0xa8b5(%rip),%xmm1 # 32bf0 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
.byte 68,15,17,128,160,0,0,0 // movups %xmm8,0xa0(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -48950,13 +48962,13 @@ _sk_bicubic_n3x_sse2:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,16,0 // movups (%rax),%xmm0
.byte 68,15,16,64,64 // movups 0x40(%rax),%xmm8
- .byte 15,88,5,228,174,0,0 // addps 0xaee4(%rip),%xmm0 # 33220 <_sk_srcover_rgba_8888_sse2_lowp+0x10e0>
- .byte 68,15,40,13,140,168,0,0 // movaps 0xa88c(%rip),%xmm9 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xa90>
+ .byte 15,88,5,8,175,0,0 // addps 0xaf08(%rip),%xmm0 # 33260 <_sk_srcover_rgba_8888_sse2_lowp+0x1104>
+ .byte 68,15,40,13,160,168,0,0 // movaps 0xa8a0(%rip),%xmm9 # 32c00 <_sk_srcover_rgba_8888_sse2_lowp+0xaa4>
.byte 69,15,92,200 // subps %xmm8,%xmm9
.byte 69,15,40,193 // movaps %xmm9,%xmm8
.byte 69,15,89,192 // mulps %xmm8,%xmm8
- .byte 68,15,89,13,216,174,0,0 // mulps 0xaed8(%rip),%xmm9 # 33230 <_sk_srcover_rgba_8888_sse2_lowp+0x10f0>
- .byte 68,15,88,13,96,170,0,0 // addps 0xaa60(%rip),%xmm9 # 32dc0 <_sk_srcover_rgba_8888_sse2_lowp+0xc80>
+ .byte 68,15,89,13,252,174,0,0 // mulps 0xaefc(%rip),%xmm9 # 33270 <_sk_srcover_rgba_8888_sse2_lowp+0x1114>
+ .byte 68,15,88,13,132,170,0,0 // addps 0xaa84(%rip),%xmm9 # 32e00 <_sk_srcover_rgba_8888_sse2_lowp+0xca4>
.byte 69,15,89,200 // mulps %xmm8,%xmm9
.byte 68,15,17,136,128,0,0,0 // movups %xmm9,0x80(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -48969,16 +48981,16 @@ _sk_bicubic_n1x_sse2:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,16,0 // movups (%rax),%xmm0
.byte 68,15,16,64,64 // movups 0x40(%rax),%xmm8
- .byte 15,88,5,143,174,0,0 // addps 0xae8f(%rip),%xmm0 # 33210 <_sk_srcover_rgba_8888_sse2_lowp+0x10d0>
- .byte 68,15,40,13,71,168,0,0 // movaps 0xa847(%rip),%xmm9 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xa90>
+ .byte 15,88,5,179,174,0,0 // addps 0xaeb3(%rip),%xmm0 # 33250 <_sk_srcover_rgba_8888_sse2_lowp+0x10f4>
+ .byte 68,15,40,13,91,168,0,0 // movaps 0xa85b(%rip),%xmm9 # 32c00 <_sk_srcover_rgba_8888_sse2_lowp+0xaa4>
.byte 69,15,92,200 // subps %xmm8,%xmm9
- .byte 68,15,40,5,171,174,0,0 // movaps 0xaeab(%rip),%xmm8 # 33240 <_sk_srcover_rgba_8888_sse2_lowp+0x1100>
+ .byte 68,15,40,5,207,174,0,0 // movaps 0xaecf(%rip),%xmm8 # 33280 <_sk_srcover_rgba_8888_sse2_lowp+0x1124>
.byte 69,15,89,193 // mulps %xmm9,%xmm8
- .byte 68,15,88,5,175,174,0,0 // addps 0xaeaf(%rip),%xmm8 # 33250 <_sk_srcover_rgba_8888_sse2_lowp+0x1110>
+ .byte 68,15,88,5,211,174,0,0 // addps 0xaed3(%rip),%xmm8 # 33290 <_sk_srcover_rgba_8888_sse2_lowp+0x1134>
.byte 69,15,89,193 // mulps %xmm9,%xmm8
- .byte 68,15,88,5,19,168,0,0 // addps 0xa813(%rip),%xmm8 # 32bc0 <_sk_srcover_rgba_8888_sse2_lowp+0xa80>
+ .byte 68,15,88,5,39,168,0,0 // addps 0xa827(%rip),%xmm8 # 32bf0 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
.byte 69,15,89,193 // mulps %xmm9,%xmm8
- .byte 68,15,88,5,167,174,0,0 // addps 0xaea7(%rip),%xmm8 # 33260 <_sk_srcover_rgba_8888_sse2_lowp+0x1120>
+ .byte 68,15,88,5,203,174,0,0 // addps 0xaecb(%rip),%xmm8 # 332a0 <_sk_srcover_rgba_8888_sse2_lowp+0x1144>
.byte 68,15,17,128,128,0,0,0 // movups %xmm8,0x80(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -48988,17 +49000,17 @@ HIDDEN _sk_bicubic_p1x_sse2
FUNCTION(_sk_bicubic_p1x_sse2)
_sk_bicubic_p1x_sse2:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 68,15,40,5,241,167,0,0 // movaps 0xa7f1(%rip),%xmm8 # 32bc0 <_sk_srcover_rgba_8888_sse2_lowp+0xa80>
+ .byte 68,15,40,5,5,168,0,0 // movaps 0xa805(%rip),%xmm8 # 32bf0 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
.byte 15,16,0 // movups (%rax),%xmm0
.byte 68,15,16,72,64 // movups 0x40(%rax),%xmm9
.byte 65,15,88,192 // addps %xmm8,%xmm0
- .byte 68,15,40,21,93,174,0,0 // movaps 0xae5d(%rip),%xmm10 # 33240 <_sk_srcover_rgba_8888_sse2_lowp+0x1100>
+ .byte 68,15,40,21,129,174,0,0 // movaps 0xae81(%rip),%xmm10 # 33280 <_sk_srcover_rgba_8888_sse2_lowp+0x1124>
.byte 69,15,89,209 // mulps %xmm9,%xmm10
- .byte 68,15,88,21,97,174,0,0 // addps 0xae61(%rip),%xmm10 # 33250 <_sk_srcover_rgba_8888_sse2_lowp+0x1110>
+ .byte 68,15,88,21,133,174,0,0 // addps 0xae85(%rip),%xmm10 # 33290 <_sk_srcover_rgba_8888_sse2_lowp+0x1134>
.byte 69,15,89,209 // mulps %xmm9,%xmm10
.byte 69,15,88,208 // addps %xmm8,%xmm10
.byte 69,15,89,209 // mulps %xmm9,%xmm10
- .byte 68,15,88,21,93,174,0,0 // addps 0xae5d(%rip),%xmm10 # 33260 <_sk_srcover_rgba_8888_sse2_lowp+0x1120>
+ .byte 68,15,88,21,129,174,0,0 // addps 0xae81(%rip),%xmm10 # 332a0 <_sk_srcover_rgba_8888_sse2_lowp+0x1144>
.byte 68,15,17,144,128,0,0,0 // movups %xmm10,0x80(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -49010,11 +49022,11 @@ _sk_bicubic_p3x_sse2:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,16,0 // movups (%rax),%xmm0
.byte 68,15,16,64,64 // movups 0x40(%rax),%xmm8
- .byte 15,88,5,48,174,0,0 // addps 0xae30(%rip),%xmm0 # 33250 <_sk_srcover_rgba_8888_sse2_lowp+0x1110>
+ .byte 15,88,5,84,174,0,0 // addps 0xae54(%rip),%xmm0 # 33290 <_sk_srcover_rgba_8888_sse2_lowp+0x1134>
.byte 69,15,40,200 // movaps %xmm8,%xmm9
.byte 69,15,89,201 // mulps %xmm9,%xmm9
- .byte 68,15,89,5,0,174,0,0 // mulps 0xae00(%rip),%xmm8 # 33230 <_sk_srcover_rgba_8888_sse2_lowp+0x10f0>
- .byte 68,15,88,5,136,169,0,0 // addps 0xa988(%rip),%xmm8 # 32dc0 <_sk_srcover_rgba_8888_sse2_lowp+0xc80>
+ .byte 68,15,89,5,36,174,0,0 // mulps 0xae24(%rip),%xmm8 # 33270 <_sk_srcover_rgba_8888_sse2_lowp+0x1114>
+ .byte 68,15,88,5,172,169,0,0 // addps 0xa9ac(%rip),%xmm8 # 32e00 <_sk_srcover_rgba_8888_sse2_lowp+0xca4>
.byte 69,15,89,193 // mulps %xmm9,%xmm8
.byte 68,15,17,128,128,0,0,0 // movups %xmm8,0x80(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -49027,13 +49039,13 @@ _sk_bicubic_n3y_sse2:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,16,72,32 // movups 0x20(%rax),%xmm1
.byte 68,15,16,64,96 // movups 0x60(%rax),%xmm8
- .byte 15,88,13,198,173,0,0 // addps 0xadc6(%rip),%xmm1 # 33220 <_sk_srcover_rgba_8888_sse2_lowp+0x10e0>
- .byte 68,15,40,13,110,167,0,0 // movaps 0xa76e(%rip),%xmm9 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xa90>
+ .byte 15,88,13,234,173,0,0 // addps 0xadea(%rip),%xmm1 # 33260 <_sk_srcover_rgba_8888_sse2_lowp+0x1104>
+ .byte 68,15,40,13,130,167,0,0 // movaps 0xa782(%rip),%xmm9 # 32c00 <_sk_srcover_rgba_8888_sse2_lowp+0xaa4>
.byte 69,15,92,200 // subps %xmm8,%xmm9
.byte 69,15,40,193 // movaps %xmm9,%xmm8
.byte 69,15,89,192 // mulps %xmm8,%xmm8
- .byte 68,15,89,13,186,173,0,0 // mulps 0xadba(%rip),%xmm9 # 33230 <_sk_srcover_rgba_8888_sse2_lowp+0x10f0>
- .byte 68,15,88,13,66,169,0,0 // addps 0xa942(%rip),%xmm9 # 32dc0 <_sk_srcover_rgba_8888_sse2_lowp+0xc80>
+ .byte 68,15,89,13,222,173,0,0 // mulps 0xadde(%rip),%xmm9 # 33270 <_sk_srcover_rgba_8888_sse2_lowp+0x1114>
+ .byte 68,15,88,13,102,169,0,0 // addps 0xa966(%rip),%xmm9 # 32e00 <_sk_srcover_rgba_8888_sse2_lowp+0xca4>
.byte 69,15,89,200 // mulps %xmm8,%xmm9
.byte 68,15,17,136,160,0,0,0 // movups %xmm9,0xa0(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -49046,16 +49058,16 @@ _sk_bicubic_n1y_sse2:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,16,72,32 // movups 0x20(%rax),%xmm1
.byte 68,15,16,64,96 // movups 0x60(%rax),%xmm8
- .byte 15,88,13,112,173,0,0 // addps 0xad70(%rip),%xmm1 # 33210 <_sk_srcover_rgba_8888_sse2_lowp+0x10d0>
- .byte 68,15,40,13,40,167,0,0 // movaps 0xa728(%rip),%xmm9 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xa90>
+ .byte 15,88,13,148,173,0,0 // addps 0xad94(%rip),%xmm1 # 33250 <_sk_srcover_rgba_8888_sse2_lowp+0x10f4>
+ .byte 68,15,40,13,60,167,0,0 // movaps 0xa73c(%rip),%xmm9 # 32c00 <_sk_srcover_rgba_8888_sse2_lowp+0xaa4>
.byte 69,15,92,200 // subps %xmm8,%xmm9
- .byte 68,15,40,5,140,173,0,0 // movaps 0xad8c(%rip),%xmm8 # 33240 <_sk_srcover_rgba_8888_sse2_lowp+0x1100>
+ .byte 68,15,40,5,176,173,0,0 // movaps 0xadb0(%rip),%xmm8 # 33280 <_sk_srcover_rgba_8888_sse2_lowp+0x1124>
.byte 69,15,89,193 // mulps %xmm9,%xmm8
- .byte 68,15,88,5,144,173,0,0 // addps 0xad90(%rip),%xmm8 # 33250 <_sk_srcover_rgba_8888_sse2_lowp+0x1110>
+ .byte 68,15,88,5,180,173,0,0 // addps 0xadb4(%rip),%xmm8 # 33290 <_sk_srcover_rgba_8888_sse2_lowp+0x1134>
.byte 69,15,89,193 // mulps %xmm9,%xmm8
- .byte 68,15,88,5,244,166,0,0 // addps 0xa6f4(%rip),%xmm8 # 32bc0 <_sk_srcover_rgba_8888_sse2_lowp+0xa80>
+ .byte 68,15,88,5,8,167,0,0 // addps 0xa708(%rip),%xmm8 # 32bf0 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
.byte 69,15,89,193 // mulps %xmm9,%xmm8
- .byte 68,15,88,5,136,173,0,0 // addps 0xad88(%rip),%xmm8 # 33260 <_sk_srcover_rgba_8888_sse2_lowp+0x1120>
+ .byte 68,15,88,5,172,173,0,0 // addps 0xadac(%rip),%xmm8 # 332a0 <_sk_srcover_rgba_8888_sse2_lowp+0x1144>
.byte 68,15,17,128,160,0,0,0 // movups %xmm8,0xa0(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -49065,17 +49077,17 @@ HIDDEN _sk_bicubic_p1y_sse2
FUNCTION(_sk_bicubic_p1y_sse2)
_sk_bicubic_p1y_sse2:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 68,15,40,5,210,166,0,0 // movaps 0xa6d2(%rip),%xmm8 # 32bc0 <_sk_srcover_rgba_8888_sse2_lowp+0xa80>
+ .byte 68,15,40,5,230,166,0,0 // movaps 0xa6e6(%rip),%xmm8 # 32bf0 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
.byte 15,16,72,32 // movups 0x20(%rax),%xmm1
.byte 68,15,16,72,96 // movups 0x60(%rax),%xmm9
.byte 65,15,88,200 // addps %xmm8,%xmm1
- .byte 68,15,40,21,61,173,0,0 // movaps 0xad3d(%rip),%xmm10 # 33240 <_sk_srcover_rgba_8888_sse2_lowp+0x1100>
+ .byte 68,15,40,21,97,173,0,0 // movaps 0xad61(%rip),%xmm10 # 33280 <_sk_srcover_rgba_8888_sse2_lowp+0x1124>
.byte 69,15,89,209 // mulps %xmm9,%xmm10
- .byte 68,15,88,21,65,173,0,0 // addps 0xad41(%rip),%xmm10 # 33250 <_sk_srcover_rgba_8888_sse2_lowp+0x1110>
+ .byte 68,15,88,21,101,173,0,0 // addps 0xad65(%rip),%xmm10 # 33290 <_sk_srcover_rgba_8888_sse2_lowp+0x1134>
.byte 69,15,89,209 // mulps %xmm9,%xmm10
.byte 69,15,88,208 // addps %xmm8,%xmm10
.byte 69,15,89,209 // mulps %xmm9,%xmm10
- .byte 68,15,88,21,61,173,0,0 // addps 0xad3d(%rip),%xmm10 # 33260 <_sk_srcover_rgba_8888_sse2_lowp+0x1120>
+ .byte 68,15,88,21,97,173,0,0 // addps 0xad61(%rip),%xmm10 # 332a0 <_sk_srcover_rgba_8888_sse2_lowp+0x1144>
.byte 68,15,17,144,160,0,0,0 // movups %xmm10,0xa0(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -49087,11 +49099,11 @@ _sk_bicubic_p3y_sse2:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,16,72,32 // movups 0x20(%rax),%xmm1
.byte 68,15,16,64,96 // movups 0x60(%rax),%xmm8
- .byte 15,88,13,15,173,0,0 // addps 0xad0f(%rip),%xmm1 # 33250 <_sk_srcover_rgba_8888_sse2_lowp+0x1110>
+ .byte 15,88,13,51,173,0,0 // addps 0xad33(%rip),%xmm1 # 33290 <_sk_srcover_rgba_8888_sse2_lowp+0x1134>
.byte 69,15,40,200 // movaps %xmm8,%xmm9
.byte 69,15,89,201 // mulps %xmm9,%xmm9
- .byte 68,15,89,5,223,172,0,0 // mulps 0xacdf(%rip),%xmm8 # 33230 <_sk_srcover_rgba_8888_sse2_lowp+0x10f0>
- .byte 68,15,88,5,103,168,0,0 // addps 0xa867(%rip),%xmm8 # 32dc0 <_sk_srcover_rgba_8888_sse2_lowp+0xc80>
+ .byte 68,15,89,5,3,173,0,0 // mulps 0xad03(%rip),%xmm8 # 33270 <_sk_srcover_rgba_8888_sse2_lowp+0x1114>
+ .byte 68,15,88,5,139,168,0,0 // addps 0xa88b(%rip),%xmm8 # 32e00 <_sk_srcover_rgba_8888_sse2_lowp+0xca4>
.byte 69,15,89,193 // mulps %xmm9,%xmm8
.byte 68,15,17,128,160,0,0,0 // movups %xmm8,0xa0(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -49236,7 +49248,7 @@ _sk_clut_3D_sse2:
.byte 102,65,15,254,205 // paddd %xmm13,%xmm1
.byte 102,68,15,127,108,36,208 // movdqa %xmm13,-0x30(%rsp)
.byte 102,15,254,217 // paddd %xmm1,%xmm3
- .byte 102,68,15,111,5,38,171,0,0 // movdqa 0xab26(%rip),%xmm8 # 33280 <_sk_srcover_rgba_8888_sse2_lowp+0x1140>
+ .byte 102,68,15,111,5,74,171,0,0 // movdqa 0xab4a(%rip),%xmm8 # 332c0 <_sk_srcover_rgba_8888_sse2_lowp+0x1164>
.byte 102,15,112,195,245 // pshufd $0xf5,%xmm3,%xmm0
.byte 102,65,15,244,216 // pmuludq %xmm8,%xmm3
.byte 102,65,15,244,192 // pmuludq %xmm8,%xmm0
@@ -49275,7 +49287,7 @@ _sk_clut_3D_sse2:
.byte 243,66,15,16,44,139 // movss (%rbx,%r9,4),%xmm5
.byte 15,20,236 // unpcklps %xmm4,%xmm5
.byte 102,15,20,221 // unpcklpd %xmm5,%xmm3
- .byte 102,68,15,111,37,237,163,0,0 // movdqa 0xa3ed(%rip),%xmm12 # 32c00 <_sk_srcover_rgba_8888_sse2_lowp+0xac0>
+ .byte 102,68,15,111,37,1,164,0,0 // movdqa 0xa401(%rip),%xmm12 # 32c30 <_sk_srcover_rgba_8888_sse2_lowp+0xad4>
.byte 102,65,15,254,196 // paddd %xmm12,%xmm0
.byte 102,15,112,224,78 // pshufd $0x4e,%xmm0,%xmm4
.byte 102,73,15,126,224 // movq %xmm4,%r8
@@ -49291,7 +49303,7 @@ _sk_clut_3D_sse2:
.byte 243,66,15,16,36,139 // movss (%rbx,%r9,4),%xmm4
.byte 15,20,224 // unpcklps %xmm0,%xmm4
.byte 102,15,20,236 // unpcklpd %xmm4,%xmm5
- .byte 15,40,37,18,170,0,0 // movaps 0xaa12(%rip),%xmm4 # 33270 <_sk_srcover_rgba_8888_sse2_lowp+0x1130>
+ .byte 15,40,37,54,170,0,0 // movaps 0xaa36(%rip),%xmm4 # 332b0 <_sk_srcover_rgba_8888_sse2_lowp+0x1154>
.byte 68,15,88,220 // addps %xmm4,%xmm11
.byte 68,15,41,92,36,192 // movaps %xmm11,-0x40(%rsp)
.byte 68,15,40,223 // movaps %xmm7,%xmm11
@@ -49327,7 +49339,7 @@ _sk_clut_3D_sse2:
.byte 15,20,249 // unpcklps %xmm1,%xmm7
.byte 102,15,20,252 // unpcklpd %xmm4,%xmm7
.byte 102,15,111,202 // movdqa %xmm2,%xmm1
- .byte 102,15,250,13,135,169,0,0 // psubd 0xa987(%rip),%xmm1 # 33290 <_sk_srcover_rgba_8888_sse2_lowp+0x1150>
+ .byte 102,15,250,13,171,169,0,0 // psubd 0xa9ab(%rip),%xmm1 # 332d0 <_sk_srcover_rgba_8888_sse2_lowp+0x1174>
.byte 102,15,112,225,78 // pshufd $0x4e,%xmm1,%xmm4
.byte 102,73,15,126,224 // movq %xmm4,%r8
.byte 102,72,15,126,200 // movq %xmm1,%rax
@@ -49417,7 +49429,7 @@ _sk_clut_3D_sse2:
.byte 243,15,16,44,131 // movss (%rbx,%rax,4),%xmm5
.byte 15,20,233 // unpcklps %xmm1,%xmm5
.byte 102,15,20,221 // unpcklpd %xmm5,%xmm3
- .byte 102,68,15,111,45,95,161,0,0 // movdqa 0xa15f(%rip),%xmm13 # 32c00 <_sk_srcover_rgba_8888_sse2_lowp+0xac0>
+ .byte 102,68,15,111,45,115,161,0,0 // movdqa 0xa173(%rip),%xmm13 # 32c30 <_sk_srcover_rgba_8888_sse2_lowp+0xad4>
.byte 102,65,15,254,197 // paddd %xmm13,%xmm0
.byte 102,15,112,200,78 // pshufd $0x4e,%xmm0,%xmm1
.byte 102,73,15,126,200 // movq %xmm1,%r8
@@ -49514,7 +49526,7 @@ _sk_clut_3D_sse2:
.byte 102,15,111,206 // movdqa %xmm6,%xmm1
.byte 102,65,15,254,202 // paddd %xmm10,%xmm1
.byte 102,15,112,209,245 // pshufd $0xf5,%xmm1,%xmm2
- .byte 102,15,111,29,34,166,0,0 // movdqa 0xa622(%rip),%xmm3 # 33280 <_sk_srcover_rgba_8888_sse2_lowp+0x1140>
+ .byte 102,15,111,29,70,166,0,0 // movdqa 0xa646(%rip),%xmm3 # 332c0 <_sk_srcover_rgba_8888_sse2_lowp+0x1164>
.byte 102,15,244,203 // pmuludq %xmm3,%xmm1
.byte 102,15,244,211 // pmuludq %xmm3,%xmm2
.byte 102,15,111,251 // movdqa %xmm3,%xmm7
@@ -49552,7 +49564,7 @@ _sk_clut_3D_sse2:
.byte 243,15,16,44,131 // movss (%rbx,%rax,4),%xmm5
.byte 15,20,236 // unpcklps %xmm4,%xmm5
.byte 102,15,20,213 // unpcklpd %xmm5,%xmm2
- .byte 102,15,111,5,242,158,0,0 // movdqa 0x9ef2(%rip),%xmm0 # 32c00 <_sk_srcover_rgba_8888_sse2_lowp+0xac0>
+ .byte 102,15,111,5,6,159,0,0 // movdqa 0x9f06(%rip),%xmm0 # 32c30 <_sk_srcover_rgba_8888_sse2_lowp+0xad4>
.byte 102,15,254,216 // paddd %xmm0,%xmm3
.byte 102,15,112,227,78 // pshufd $0x4e,%xmm3,%xmm4
.byte 102,73,15,126,224 // movq %xmm4,%r8
@@ -49633,7 +49645,7 @@ _sk_clut_3D_sse2:
.byte 102,15,111,214 // movdqa %xmm6,%xmm2
.byte 102,65,15,254,212 // paddd %xmm12,%xmm2
.byte 102,15,112,194,245 // pshufd $0xf5,%xmm2,%xmm0
- .byte 102,15,111,13,255,163,0,0 // movdqa 0xa3ff(%rip),%xmm1 # 33280 <_sk_srcover_rgba_8888_sse2_lowp+0x1140>
+ .byte 102,15,111,13,35,164,0,0 // movdqa 0xa423(%rip),%xmm1 # 332c0 <_sk_srcover_rgba_8888_sse2_lowp+0x1164>
.byte 102,15,244,209 // pmuludq %xmm1,%xmm2
.byte 102,15,244,193 // pmuludq %xmm1,%xmm0
.byte 102,15,111,241 // movdqa %xmm1,%xmm6
@@ -49655,7 +49667,7 @@ _sk_clut_3D_sse2:
.byte 68,15,20,209 // unpcklps %xmm1,%xmm10
.byte 102,68,15,20,210 // unpcklpd %xmm2,%xmm10
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
- .byte 102,15,250,13,164,163,0,0 // psubd 0xa3a4(%rip),%xmm1 # 33290 <_sk_srcover_rgba_8888_sse2_lowp+0x1150>
+ .byte 102,15,250,13,200,163,0,0 // psubd 0xa3c8(%rip),%xmm1 # 332d0 <_sk_srcover_rgba_8888_sse2_lowp+0x1174>
.byte 102,15,112,209,78 // pshufd $0x4e,%xmm1,%xmm2
.byte 102,73,15,126,208 // movq %xmm2,%r8
.byte 102,72,15,126,200 // movq %xmm1,%rax
@@ -49670,7 +49682,7 @@ _sk_clut_3D_sse2:
.byte 243,15,16,20,131 // movss (%rbx,%rax,4),%xmm2
.byte 15,20,209 // unpcklps %xmm1,%xmm2
.byte 102,15,20,226 // unpcklpd %xmm2,%xmm4
- .byte 102,15,254,5,207,156,0,0 // paddd 0x9ccf(%rip),%xmm0 # 32c00 <_sk_srcover_rgba_8888_sse2_lowp+0xac0>
+ .byte 102,15,254,5,227,156,0,0 // paddd 0x9ce3(%rip),%xmm0 # 32c30 <_sk_srcover_rgba_8888_sse2_lowp+0xad4>
.byte 102,15,112,200,78 // pshufd $0x4e,%xmm0,%xmm1
.byte 102,73,15,126,200 // movq %xmm1,%r8
.byte 102,72,15,126,192 // movq %xmm0,%rax
@@ -49707,7 +49719,7 @@ _sk_clut_3D_sse2:
.byte 15,20,199 // unpcklps %xmm7,%xmm0
.byte 102,15,20,193 // unpcklpd %xmm1,%xmm0
.byte 102,15,111,202 // movdqa %xmm2,%xmm1
- .byte 102,15,250,13,174,162,0,0 // psubd 0xa2ae(%rip),%xmm1 # 33290 <_sk_srcover_rgba_8888_sse2_lowp+0x1150>
+ .byte 102,15,250,13,210,162,0,0 // psubd 0xa2d2(%rip),%xmm1 # 332d0 <_sk_srcover_rgba_8888_sse2_lowp+0x1174>
.byte 102,15,112,249,78 // pshufd $0x4e,%xmm1,%xmm7
.byte 102,73,15,126,248 // movq %xmm7,%r8
.byte 102,72,15,126,200 // movq %xmm1,%rax
@@ -49722,7 +49734,7 @@ _sk_clut_3D_sse2:
.byte 243,15,16,52,131 // movss (%rbx,%rax,4),%xmm6
.byte 15,20,247 // unpcklps %xmm7,%xmm6
.byte 102,15,20,206 // unpcklpd %xmm6,%xmm1
- .byte 102,15,254,21,217,155,0,0 // paddd 0x9bd9(%rip),%xmm2 # 32c00 <_sk_srcover_rgba_8888_sse2_lowp+0xac0>
+ .byte 102,15,254,21,237,155,0,0 // paddd 0x9bed(%rip),%xmm2 # 32c30 <_sk_srcover_rgba_8888_sse2_lowp+0xad4>
.byte 102,15,112,242,78 // pshufd $0x4e,%xmm2,%xmm6
.byte 102,73,15,126,240 // movq %xmm6,%r8
.byte 102,72,15,126,208 // movq %xmm2,%rax
@@ -49868,7 +49880,7 @@ _sk_clut_4D_sse2:
.byte 102,65,15,254,210 // paddd %xmm10,%xmm2
.byte 102,15,111,220 // movdqa %xmm4,%xmm3
.byte 102,15,254,218 // paddd %xmm2,%xmm3
- .byte 102,15,111,37,241,159,0,0 // movdqa 0x9ff1(%rip),%xmm4 # 33280 <_sk_srcover_rgba_8888_sse2_lowp+0x1140>
+ .byte 102,15,111,37,21,160,0,0 // movdqa 0xa015(%rip),%xmm4 # 332c0 <_sk_srcover_rgba_8888_sse2_lowp+0x1164>
.byte 102,15,112,195,245 // pshufd $0xf5,%xmm3,%xmm0
.byte 102,15,244,220 // pmuludq %xmm4,%xmm3
.byte 102,15,244,196 // pmuludq %xmm4,%xmm0
@@ -49907,7 +49919,7 @@ _sk_clut_4D_sse2:
.byte 243,66,15,16,52,139 // movss (%rbx,%r9,4),%xmm6
.byte 15,20,244 // unpcklps %xmm4,%xmm6
.byte 102,15,20,238 // unpcklpd %xmm6,%xmm5
- .byte 102,15,254,5,187,152,0,0 // paddd 0x98bb(%rip),%xmm0 # 32c00 <_sk_srcover_rgba_8888_sse2_lowp+0xac0>
+ .byte 102,15,254,5,207,152,0,0 // paddd 0x98cf(%rip),%xmm0 # 32c30 <_sk_srcover_rgba_8888_sse2_lowp+0xad4>
.byte 102,15,112,224,78 // pshufd $0x4e,%xmm0,%xmm4
.byte 102,73,15,126,224 // movq %xmm4,%r8
.byte 102,73,15,126,193 // movq %xmm0,%r9
@@ -49922,7 +49934,7 @@ _sk_clut_4D_sse2:
.byte 243,66,15,16,52,139 // movss (%rbx,%r9,4),%xmm6
.byte 15,20,244 // unpcklps %xmm4,%xmm6
.byte 102,15,20,222 // unpcklpd %xmm6,%xmm3
- .byte 15,40,53,229,158,0,0 // movaps 0x9ee5(%rip),%xmm6 # 33270 <_sk_srcover_rgba_8888_sse2_lowp+0x1130>
+ .byte 15,40,53,9,159,0,0 // movaps 0x9f09(%rip),%xmm6 # 332b0 <_sk_srcover_rgba_8888_sse2_lowp+0x1154>
.byte 68,15,88,198 // addps %xmm6,%xmm8
.byte 68,15,41,68,36,176 // movaps %xmm8,-0x50(%rsp)
.byte 68,15,88,254 // addps %xmm6,%xmm15
@@ -49940,7 +49952,7 @@ _sk_clut_4D_sse2:
.byte 102,65,15,254,215 // paddd %xmm15,%xmm2
.byte 102,68,15,127,124,36,224 // movdqa %xmm15,-0x20(%rsp)
.byte 102,15,112,194,245 // pshufd $0xf5,%xmm2,%xmm0
- .byte 102,15,111,13,155,158,0,0 // movdqa 0x9e9b(%rip),%xmm1 # 33280 <_sk_srcover_rgba_8888_sse2_lowp+0x1140>
+ .byte 102,15,111,13,191,158,0,0 // movdqa 0x9ebf(%rip),%xmm1 # 332c0 <_sk_srcover_rgba_8888_sse2_lowp+0x1164>
.byte 102,15,244,209 // pmuludq %xmm1,%xmm2
.byte 102,15,244,193 // pmuludq %xmm1,%xmm0
.byte 102,15,112,192,232 // pshufd $0xe8,%xmm0,%xmm0
@@ -49961,7 +49973,7 @@ _sk_clut_4D_sse2:
.byte 15,20,240 // unpcklps %xmm0,%xmm6
.byte 102,15,20,242 // unpcklpd %xmm2,%xmm6
.byte 102,15,111,193 // movdqa %xmm1,%xmm0
- .byte 102,15,250,5,70,158,0,0 // psubd 0x9e46(%rip),%xmm0 # 33290 <_sk_srcover_rgba_8888_sse2_lowp+0x1150>
+ .byte 102,15,250,5,106,158,0,0 // psubd 0x9e6a(%rip),%xmm0 # 332d0 <_sk_srcover_rgba_8888_sse2_lowp+0x1174>
.byte 102,15,112,208,78 // pshufd $0x4e,%xmm0,%xmm2
.byte 102,73,15,126,208 // movq %xmm2,%r8
.byte 102,72,15,126,192 // movq %xmm0,%rax
@@ -49976,7 +49988,7 @@ _sk_clut_4D_sse2:
.byte 243,68,15,16,28,131 // movss (%rbx,%rax,4),%xmm11
.byte 68,15,20,216 // unpcklps %xmm0,%xmm11
.byte 102,65,15,20,211 // unpcklpd %xmm11,%xmm2
- .byte 102,15,254,13,110,151,0,0 // paddd 0x976e(%rip),%xmm1 # 32c00 <_sk_srcover_rgba_8888_sse2_lowp+0xac0>
+ .byte 102,15,254,13,130,151,0,0 // paddd 0x9782(%rip),%xmm1 # 32c30 <_sk_srcover_rgba_8888_sse2_lowp+0xad4>
.byte 102,15,112,193,78 // pshufd $0x4e,%xmm1,%xmm0
.byte 102,73,15,126,192 // movq %xmm0,%r8
.byte 102,72,15,126,200 // movq %xmm1,%rax
@@ -50014,7 +50026,7 @@ _sk_clut_4D_sse2:
.byte 102,65,15,111,194 // movdqa %xmm10,%xmm0
.byte 102,15,254,68,36,160 // paddd -0x60(%rsp),%xmm0
.byte 102,15,112,216,245 // pshufd $0xf5,%xmm0,%xmm3
- .byte 102,15,111,37,69,157,0,0 // movdqa 0x9d45(%rip),%xmm4 # 33280 <_sk_srcover_rgba_8888_sse2_lowp+0x1140>
+ .byte 102,15,111,37,105,157,0,0 // movdqa 0x9d69(%rip),%xmm4 # 332c0 <_sk_srcover_rgba_8888_sse2_lowp+0x1164>
.byte 102,15,244,196 // pmuludq %xmm4,%xmm0
.byte 102,15,244,220 // pmuludq %xmm4,%xmm3
.byte 102,68,15,111,220 // movdqa %xmm4,%xmm11
@@ -50052,7 +50064,7 @@ _sk_clut_4D_sse2:
.byte 243,15,16,60,131 // movss (%rbx,%rax,4),%xmm7
.byte 15,20,253 // unpcklps %xmm5,%xmm7
.byte 102,15,20,199 // unpcklpd %xmm7,%xmm0
- .byte 102,68,15,111,5,17,150,0,0 // movdqa 0x9611(%rip),%xmm8 # 32c00 <_sk_srcover_rgba_8888_sse2_lowp+0xac0>
+ .byte 102,68,15,111,5,37,150,0,0 // movdqa 0x9625(%rip),%xmm8 # 32c30 <_sk_srcover_rgba_8888_sse2_lowp+0xad4>
.byte 102,65,15,254,224 // paddd %xmm8,%xmm4
.byte 102,15,112,236,78 // pshufd $0x4e,%xmm4,%xmm5
.byte 102,73,15,126,232 // movq %xmm5,%r8
@@ -50198,7 +50210,7 @@ _sk_clut_4D_sse2:
.byte 243,15,16,36,131 // movss (%rbx,%rax,4),%xmm4
.byte 15,20,226 // unpcklps %xmm2,%xmm4
.byte 102,15,20,252 // unpcklpd %xmm4,%xmm7
- .byte 102,68,15,111,61,107,147,0,0 // movdqa 0x936b(%rip),%xmm15 # 32c00 <_sk_srcover_rgba_8888_sse2_lowp+0xac0>
+ .byte 102,68,15,111,61,127,147,0,0 // movdqa 0x937f(%rip),%xmm15 # 32c30 <_sk_srcover_rgba_8888_sse2_lowp+0xad4>
.byte 102,65,15,254,207 // paddd %xmm15,%xmm1
.byte 102,15,112,209,78 // pshufd $0x4e,%xmm1,%xmm2
.byte 102,73,15,126,208 // movq %xmm2,%r8
@@ -50281,7 +50293,7 @@ _sk_clut_4D_sse2:
.byte 102,65,15,111,217 // movdqa %xmm9,%xmm3
.byte 102,65,15,254,216 // paddd %xmm8,%xmm3
.byte 102,15,112,211,245 // pshufd $0xf5,%xmm3,%xmm2
- .byte 102,15,111,45,122,152,0,0 // movdqa 0x987a(%rip),%xmm5 # 33280 <_sk_srcover_rgba_8888_sse2_lowp+0x1140>
+ .byte 102,15,111,45,158,152,0,0 // movdqa 0x989e(%rip),%xmm5 # 332c0 <_sk_srcover_rgba_8888_sse2_lowp+0x1164>
.byte 102,15,244,221 // pmuludq %xmm5,%xmm3
.byte 102,15,244,213 // pmuludq %xmm5,%xmm2
.byte 102,15,112,234,232 // pshufd $0xe8,%xmm2,%xmm5
@@ -50302,7 +50314,7 @@ _sk_clut_4D_sse2:
.byte 68,15,20,198 // unpcklps %xmm6,%xmm8
.byte 102,68,15,20,197 // unpcklpd %xmm5,%xmm8
.byte 102,15,111,234 // movdqa %xmm2,%xmm5
- .byte 102,15,250,45,35,152,0,0 // psubd 0x9823(%rip),%xmm5 # 33290 <_sk_srcover_rgba_8888_sse2_lowp+0x1150>
+ .byte 102,15,250,45,71,152,0,0 // psubd 0x9847(%rip),%xmm5 # 332d0 <_sk_srcover_rgba_8888_sse2_lowp+0x1174>
.byte 102,15,112,245,78 // pshufd $0x4e,%xmm5,%xmm6
.byte 102,73,15,126,240 // movq %xmm6,%r8
.byte 102,72,15,126,232 // movq %xmm5,%rax
@@ -50334,7 +50346,7 @@ _sk_clut_4D_sse2:
.byte 102,15,20,214 // unpcklpd %xmm6,%xmm2
.byte 102,69,15,254,205 // paddd %xmm13,%xmm9
.byte 102,65,15,112,233,245 // pshufd $0xf5,%xmm9,%xmm5
- .byte 102,15,111,29,129,151,0,0 // movdqa 0x9781(%rip),%xmm3 # 33280 <_sk_srcover_rgba_8888_sse2_lowp+0x1140>
+ .byte 102,15,111,29,165,151,0,0 // movdqa 0x97a5(%rip),%xmm3 # 332c0 <_sk_srcover_rgba_8888_sse2_lowp+0x1164>
.byte 102,68,15,244,203 // pmuludq %xmm3,%xmm9
.byte 102,15,244,235 // pmuludq %xmm3,%xmm5
.byte 102,15,112,237,232 // pshufd $0xe8,%xmm5,%xmm5
@@ -50355,7 +50367,7 @@ _sk_clut_4D_sse2:
.byte 69,15,20,233 // unpcklps %xmm9,%xmm13
.byte 102,68,15,20,237 // unpcklpd %xmm5,%xmm13
.byte 102,65,15,111,239 // movdqa %xmm15,%xmm5
- .byte 102,15,250,45,33,151,0,0 // psubd 0x9721(%rip),%xmm5 # 33290 <_sk_srcover_rgba_8888_sse2_lowp+0x1150>
+ .byte 102,15,250,45,69,151,0,0 // psubd 0x9745(%rip),%xmm5 # 332d0 <_sk_srcover_rgba_8888_sse2_lowp+0x1174>
.byte 102,15,112,221,78 // pshufd $0x4e,%xmm5,%xmm3
.byte 102,73,15,126,216 // movq %xmm3,%r8
.byte 102,72,15,126,232 // movq %xmm5,%rax
@@ -50370,7 +50382,7 @@ _sk_clut_4D_sse2:
.byte 243,15,16,44,131 // movss (%rbx,%rax,4),%xmm5
.byte 15,20,235 // unpcklps %xmm3,%xmm5
.byte 102,15,20,245 // unpcklpd %xmm5,%xmm6
- .byte 102,68,15,111,13,75,144,0,0 // movdqa 0x904b(%rip),%xmm9 # 32c00 <_sk_srcover_rgba_8888_sse2_lowp+0xac0>
+ .byte 102,68,15,111,13,95,144,0,0 // movdqa 0x905f(%rip),%xmm9 # 32c30 <_sk_srcover_rgba_8888_sse2_lowp+0xad4>
.byte 102,69,15,254,249 // paddd %xmm9,%xmm15
.byte 102,65,15,112,223,78 // pshufd $0x4e,%xmm15,%xmm3
.byte 102,73,15,126,216 // movq %xmm3,%r8
@@ -50432,7 +50444,7 @@ _sk_clut_4D_sse2:
.byte 102,65,15,111,195 // movdqa %xmm11,%xmm0
.byte 102,15,254,195 // paddd %xmm3,%xmm0
.byte 102,15,112,200,245 // pshufd $0xf5,%xmm0,%xmm1
- .byte 102,15,111,21,188,149,0,0 // movdqa 0x95bc(%rip),%xmm2 # 33280 <_sk_srcover_rgba_8888_sse2_lowp+0x1140>
+ .byte 102,15,111,21,224,149,0,0 // movdqa 0x95e0(%rip),%xmm2 # 332c0 <_sk_srcover_rgba_8888_sse2_lowp+0x1164>
.byte 102,15,244,194 // pmuludq %xmm2,%xmm0
.byte 102,15,244,202 // pmuludq %xmm2,%xmm1
.byte 102,68,15,111,234 // movdqa %xmm2,%xmm13
@@ -50625,7 +50637,7 @@ _sk_clut_4D_sse2:
.byte 68,15,20,238 // unpcklps %xmm6,%xmm13
.byte 102,68,15,20,234 // unpcklpd %xmm2,%xmm13
.byte 102,15,111,212 // movdqa %xmm4,%xmm2
- .byte 102,15,250,21,88,146,0,0 // psubd 0x9258(%rip),%xmm2 # 33290 <_sk_srcover_rgba_8888_sse2_lowp+0x1150>
+ .byte 102,15,250,21,124,146,0,0 // psubd 0x927c(%rip),%xmm2 # 332d0 <_sk_srcover_rgba_8888_sse2_lowp+0x1174>
.byte 102,15,112,242,78 // pshufd $0x4e,%xmm2,%xmm6
.byte 102,73,15,126,240 // movq %xmm6,%r8
.byte 102,72,15,126,208 // movq %xmm2,%rax
@@ -50685,7 +50697,7 @@ _sk_clut_4D_sse2:
.byte 102,68,15,111,116,36,160 // movdqa -0x60(%rsp),%xmm14
.byte 102,65,15,254,198 // paddd %xmm14,%xmm0
.byte 102,15,112,200,245 // pshufd $0xf5,%xmm0,%xmm1
- .byte 102,68,15,111,5,55,145,0,0 // movdqa 0x9137(%rip),%xmm8 # 33280 <_sk_srcover_rgba_8888_sse2_lowp+0x1140>
+ .byte 102,68,15,111,5,91,145,0,0 // movdqa 0x915b(%rip),%xmm8 # 332c0 <_sk_srcover_rgba_8888_sse2_lowp+0x1164>
.byte 102,65,15,244,192 // pmuludq %xmm8,%xmm0
.byte 102,65,15,244,200 // pmuludq %xmm8,%xmm1
.byte 102,65,15,111,240 // movdqa %xmm8,%xmm6
@@ -50723,7 +50735,7 @@ _sk_clut_4D_sse2:
.byte 243,15,16,44,131 // movss (%rbx,%rax,4),%xmm5
.byte 15,20,235 // unpcklps %xmm3,%xmm5
.byte 102,15,20,205 // unpcklpd %xmm5,%xmm1
- .byte 102,68,15,111,5,5,138,0,0 // movdqa 0x8a05(%rip),%xmm8 # 32c00 <_sk_srcover_rgba_8888_sse2_lowp+0xac0>
+ .byte 102,68,15,111,5,25,138,0,0 // movdqa 0x8a19(%rip),%xmm8 # 32c30 <_sk_srcover_rgba_8888_sse2_lowp+0xad4>
.byte 102,65,15,254,208 // paddd %xmm8,%xmm2
.byte 102,15,112,218,78 // pshufd $0x4e,%xmm2,%xmm3
.byte 102,73,15,126,216 // movq %xmm3,%r8
@@ -50806,7 +50818,7 @@ _sk_clut_4D_sse2:
.byte 102,15,254,208 // paddd %xmm0,%xmm2
.byte 102,15,111,240 // movdqa %xmm0,%xmm6
.byte 102,15,112,194,245 // pshufd $0xf5,%xmm2,%xmm0
- .byte 102,15,111,37,17,143,0,0 // movdqa 0x8f11(%rip),%xmm4 # 33280 <_sk_srcover_rgba_8888_sse2_lowp+0x1140>
+ .byte 102,15,111,37,53,143,0,0 // movdqa 0x8f35(%rip),%xmm4 # 332c0 <_sk_srcover_rgba_8888_sse2_lowp+0x1164>
.byte 102,15,244,212 // pmuludq %xmm4,%xmm2
.byte 102,15,244,196 // pmuludq %xmm4,%xmm0
.byte 102,15,112,200,232 // pshufd $0xe8,%xmm0,%xmm1
@@ -50827,7 +50839,7 @@ _sk_clut_4D_sse2:
.byte 68,15,20,193 // unpcklps %xmm1,%xmm8
.byte 102,68,15,20,194 // unpcklpd %xmm2,%xmm8
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
- .byte 102,15,250,13,186,142,0,0 // psubd 0x8eba(%rip),%xmm1 # 33290 <_sk_srcover_rgba_8888_sse2_lowp+0x1150>
+ .byte 102,15,250,13,222,142,0,0 // psubd 0x8ede(%rip),%xmm1 # 332d0 <_sk_srcover_rgba_8888_sse2_lowp+0x1174>
.byte 102,15,112,209,78 // pshufd $0x4e,%xmm1,%xmm2
.byte 102,73,15,126,208 // movq %xmm2,%r8
.byte 102,72,15,126,200 // movq %xmm1,%rax
@@ -50842,7 +50854,7 @@ _sk_clut_4D_sse2:
.byte 243,15,16,20,131 // movss (%rbx,%rax,4),%xmm2
.byte 15,20,209 // unpcklps %xmm1,%xmm2
.byte 102,68,15,20,242 // unpcklpd %xmm2,%xmm14
- .byte 102,15,254,5,227,135,0,0 // paddd 0x87e3(%rip),%xmm0 # 32c00 <_sk_srcover_rgba_8888_sse2_lowp+0xac0>
+ .byte 102,15,254,5,247,135,0,0 // paddd 0x87f7(%rip),%xmm0 # 32c30 <_sk_srcover_rgba_8888_sse2_lowp+0xad4>
.byte 102,15,112,200,78 // pshufd $0x4e,%xmm0,%xmm1
.byte 102,73,15,126,200 // movq %xmm1,%r8
.byte 102,72,15,126,192 // movq %xmm0,%rax
@@ -50880,7 +50892,7 @@ _sk_clut_4D_sse2:
.byte 15,20,198 // unpcklps %xmm6,%xmm0
.byte 102,15,20,193 // unpcklpd %xmm1,%xmm0
.byte 102,15,111,202 // movdqa %xmm2,%xmm1
- .byte 102,15,250,13,194,141,0,0 // psubd 0x8dc2(%rip),%xmm1 # 33290 <_sk_srcover_rgba_8888_sse2_lowp+0x1150>
+ .byte 102,15,250,13,230,141,0,0 // psubd 0x8de6(%rip),%xmm1 # 332d0 <_sk_srcover_rgba_8888_sse2_lowp+0x1174>
.byte 102,15,112,241,78 // pshufd $0x4e,%xmm1,%xmm6
.byte 102,73,15,126,240 // movq %xmm6,%r8
.byte 102,72,15,126,200 // movq %xmm1,%rax
@@ -50895,7 +50907,7 @@ _sk_clut_4D_sse2:
.byte 243,15,16,36,131 // movss (%rbx,%rax,4),%xmm4
.byte 15,20,230 // unpcklps %xmm6,%xmm4
.byte 102,15,20,204 // unpcklpd %xmm4,%xmm1
- .byte 102,15,254,21,237,134,0,0 // paddd 0x86ed(%rip),%xmm2 # 32c00 <_sk_srcover_rgba_8888_sse2_lowp+0xac0>
+ .byte 102,15,254,21,1,135,0,0 // paddd 0x8701(%rip),%xmm2 # 32c30 <_sk_srcover_rgba_8888_sse2_lowp+0xad4>
.byte 102,15,112,226,78 // pshufd $0x4e,%xmm2,%xmm4
.byte 102,73,15,126,224 // movq %xmm4,%r8
.byte 102,72,15,126,208 // movq %xmm2,%rax
@@ -50954,7 +50966,7 @@ _sk_clut_4D_sse2:
.byte 15,89,212 // mulps %xmm4,%xmm2
.byte 65,15,88,215 // addps %xmm15,%xmm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,217,133,0,0 // movaps 0x85d9(%rip),%xmm3 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xa90>
+ .byte 15,40,29,237,133,0,0 // movaps 0x85ed(%rip),%xmm3 # 32c00 <_sk_srcover_rgba_8888_sse2_lowp+0xaa4>
.byte 15,40,100,36,96 // movaps 0x60(%rsp),%xmm4
.byte 15,40,108,36,112 // movaps 0x70(%rsp),%xmm5
.byte 15,40,180,36,128,0,0,0 // movaps 0x80(%rsp),%xmm6
@@ -50985,13 +50997,13 @@ _sk_start_pipeline_hsw_lowp:
.byte 73,137,246 // mov %rsi,%r14
.byte 72,137,77,192 // mov %rcx,-0x40(%rbp)
.byte 72,57,203 // cmp %rcx,%rbx
- .byte 15,131,151,0,0,0 // jae 2a6e6 <_sk_start_pipeline_hsw_lowp+0xca>
+ .byte 15,131,151,0,0,0 // jae 2a702 <_sk_start_pipeline_hsw_lowp+0xca>
.byte 72,139,69,208 // mov -0x30(%rbp),%rax
.byte 72,141,64,16 // lea 0x10(%rax),%rax
.byte 72,137,69,200 // mov %rax,-0x38(%rbp)
.byte 72,139,85,208 // mov -0x30(%rbp),%rdx
.byte 76,57,125,200 // cmp %r15,-0x38(%rbp)
- .byte 119,67 // ja 2a6a8 <_sk_start_pipeline_hsw_lowp+0x8c>
+ .byte 119,67 // ja 2a6c4 <_sk_start_pipeline_hsw_lowp+0x8c>
.byte 76,139,101,208 // mov -0x30(%rbp),%r12
.byte 49,255 // xor %edi,%edi
.byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
@@ -51010,10 +51022,10 @@ _sk_start_pipeline_hsw_lowp:
.byte 73,131,196,32 // add $0x20,%r12
.byte 77,57,252 // cmp %r15,%r12
.byte 73,137,212 // mov %rdx,%r12
- .byte 118,193 // jbe 2a669 <_sk_start_pipeline_hsw_lowp+0x4d>
+ .byte 118,193 // jbe 2a685 <_sk_start_pipeline_hsw_lowp+0x4d>
.byte 76,137,255 // mov %r15,%rdi
.byte 72,41,215 // sub %rdx,%rdi
- .byte 116,41 // je 2a6d9 <_sk_start_pipeline_hsw_lowp+0xbd>
+ .byte 116,41 // je 2a6f5 <_sk_start_pipeline_hsw_lowp+0xbd>
.byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
.byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
.byte 197,236,87,210 // vxorps %ymm2,%ymm2,%ymm2
@@ -51027,7 +51039,7 @@ _sk_start_pipeline_hsw_lowp:
.byte 65,255,213 // callq *%r13
.byte 72,255,195 // inc %rbx
.byte 72,59,93,192 // cmp -0x40(%rbp),%rbx
- .byte 15,133,117,255,255,255 // jne 2a65b <_sk_start_pipeline_hsw_lowp+0x3f>
+ .byte 15,133,117,255,255,255 // jne 2a677 <_sk_start_pipeline_hsw_lowp+0x3f>
.byte 72,131,196,24 // add $0x18,%rsp
.byte 91 // pop %rbx
.byte 65,92 // pop %r12
@@ -51061,7 +51073,7 @@ HIDDEN _sk_black_color_hsw_lowp
FUNCTION(_sk_black_color_hsw_lowp)
_sk_black_color_hsw_lowp:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,121,29,126,129,0,0 // vpbroadcastw 0x817e(%rip),%ymm3 # 328a0 <_sk_srcover_rgba_8888_sse2_lowp+0x760>
+ .byte 196,226,125,121,29,130,129,0,0 // vpbroadcastw 0x8182(%rip),%ymm3 # 328c0 <_sk_srcover_rgba_8888_sse2_lowp+0x764>
.byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
.byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
.byte 197,236,87,210 // vxorps %ymm2,%ymm2,%ymm2
@@ -51072,7 +51084,7 @@ HIDDEN _sk_white_color_hsw_lowp
FUNCTION(_sk_white_color_hsw_lowp)
_sk_white_color_hsw_lowp:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,121,5,103,129,0,0 // vpbroadcastw 0x8167(%rip),%ymm0 # 328a2 <_sk_srcover_rgba_8888_sse2_lowp+0x762>
+ .byte 196,226,125,121,5,107,129,0,0 // vpbroadcastw 0x816b(%rip),%ymm0 # 328c2 <_sk_srcover_rgba_8888_sse2_lowp+0x766>
.byte 197,253,111,200 // vmovdqa %ymm0,%ymm1
.byte 197,253,111,208 // vmovdqa %ymm0,%ymm2
.byte 197,253,111,216 // vmovdqa %ymm0,%ymm3
@@ -51083,8 +51095,8 @@ HIDDEN _sk_set_rgb_hsw_lowp
FUNCTION(_sk_set_rgb_hsw_lowp)
_sk_set_rgb_hsw_lowp:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 197,122,16,5,113,130,0,0 // vmovss 0x8271(%rip),%xmm8 # 329c4 <_sk_srcover_rgba_8888_sse2_lowp+0x884>
- .byte 197,250,16,21,153,130,0,0 // vmovss 0x8299(%rip),%xmm2 # 329f4 <_sk_srcover_rgba_8888_sse2_lowp+0x8b4>
+ .byte 197,122,16,5,117,130,0,0 // vmovss 0x8275(%rip),%xmm8 # 329e4 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 197,250,16,21,157,130,0,0 // vmovss 0x829d(%rip),%xmm2 # 32a14 <_sk_srcover_rgba_8888_sse2_lowp+0x8b8>
.byte 197,250,16,0 // vmovss (%rax),%xmm0
.byte 196,226,57,153,194 // vfmadd132ss %xmm2,%xmm8,%xmm0
.byte 197,122,44,192 // vcvttss2si %xmm0,%r8d
@@ -51107,7 +51119,7 @@ HIDDEN _sk_premul_hsw_lowp
FUNCTION(_sk_premul_hsw_lowp)
_sk_premul_hsw_lowp:
.byte 197,229,213,192 // vpmullw %ymm0,%ymm3,%ymm0
- .byte 196,98,125,121,5,246,128,0,0 // vpbroadcastw 0x80f6(%rip),%ymm8 # 328a4 <_sk_srcover_rgba_8888_sse2_lowp+0x764>
+ .byte 196,98,125,121,5,250,128,0,0 // vpbroadcastw 0x80fa(%rip),%ymm8 # 328c4 <_sk_srcover_rgba_8888_sse2_lowp+0x768>
.byte 196,193,125,253,192 // vpaddw %ymm8,%ymm0,%ymm0
.byte 197,253,113,208,8 // vpsrlw $0x8,%ymm0,%ymm0
.byte 197,229,213,201 // vpmullw %ymm1,%ymm3,%ymm1
@@ -51155,7 +51167,7 @@ HIDDEN _sk_invert_hsw_lowp
.globl _sk_invert_hsw_lowp
FUNCTION(_sk_invert_hsw_lowp)
_sk_invert_hsw_lowp:
- .byte 196,98,125,121,5,141,128,0,0 // vpbroadcastw 0x808d(%rip),%ymm8 # 328a6 <_sk_srcover_rgba_8888_sse2_lowp+0x766>
+ .byte 196,98,125,121,5,145,128,0,0 // vpbroadcastw 0x8091(%rip),%ymm8 # 328c6 <_sk_srcover_rgba_8888_sse2_lowp+0x76a>
.byte 197,189,249,192 // vpsubw %ymm0,%ymm8,%ymm0
.byte 197,189,249,201 // vpsubw %ymm1,%ymm8,%ymm1
.byte 197,189,249,210 // vpsubw %ymm2,%ymm8,%ymm2
@@ -51179,7 +51191,7 @@ HIDDEN _sk_srcatop_hsw_lowp
FUNCTION(_sk_srcatop_hsw_lowp)
_sk_srcatop_hsw_lowp:
.byte 197,197,213,192 // vpmullw %ymm0,%ymm7,%ymm0
- .byte 196,98,125,121,5,90,128,0,0 // vpbroadcastw 0x805a(%rip),%ymm8 # 328a8 <_sk_srcover_rgba_8888_sse2_lowp+0x768>
+ .byte 196,98,125,121,5,94,128,0,0 // vpbroadcastw 0x805e(%rip),%ymm8 # 328c8 <_sk_srcover_rgba_8888_sse2_lowp+0x76c>
.byte 197,189,249,219 // vpsubw %ymm3,%ymm8,%ymm3
.byte 197,101,213,204 // vpmullw %ymm4,%ymm3,%ymm9
.byte 196,193,125,253,192 // vpaddw %ymm8,%ymm0,%ymm0
@@ -51206,7 +51218,7 @@ HIDDEN _sk_dstatop_hsw_lowp
FUNCTION(_sk_dstatop_hsw_lowp)
_sk_dstatop_hsw_lowp:
.byte 197,93,213,195 // vpmullw %ymm3,%ymm4,%ymm8
- .byte 196,98,125,121,13,250,127,0,0 // vpbroadcastw 0x7ffa(%rip),%ymm9 # 328aa <_sk_srcover_rgba_8888_sse2_lowp+0x76a>
+ .byte 196,98,125,121,13,254,127,0,0 // vpbroadcastw 0x7ffe(%rip),%ymm9 # 328ca <_sk_srcover_rgba_8888_sse2_lowp+0x76e>
.byte 197,53,249,215 // vpsubw %ymm7,%ymm9,%ymm10
.byte 197,173,213,192 // vpmullw %ymm0,%ymm10,%ymm0
.byte 196,65,61,253,193 // vpaddw %ymm9,%ymm8,%ymm8
@@ -51233,7 +51245,7 @@ HIDDEN _sk_srcin_hsw_lowp
FUNCTION(_sk_srcin_hsw_lowp)
_sk_srcin_hsw_lowp:
.byte 197,197,213,192 // vpmullw %ymm0,%ymm7,%ymm0
- .byte 196,98,125,121,5,151,127,0,0 // vpbroadcastw 0x7f97(%rip),%ymm8 # 328ac <_sk_srcover_rgba_8888_sse2_lowp+0x76c>
+ .byte 196,98,125,121,5,155,127,0,0 // vpbroadcastw 0x7f9b(%rip),%ymm8 # 328cc <_sk_srcover_rgba_8888_sse2_lowp+0x770>
.byte 196,193,125,253,192 // vpaddw %ymm8,%ymm0,%ymm0
.byte 197,253,113,208,8 // vpsrlw $0x8,%ymm0,%ymm0
.byte 197,197,213,201 // vpmullw %ymm1,%ymm7,%ymm1
@@ -51253,7 +51265,7 @@ HIDDEN _sk_dstin_hsw_lowp
FUNCTION(_sk_dstin_hsw_lowp)
_sk_dstin_hsw_lowp:
.byte 197,221,213,195 // vpmullw %ymm3,%ymm4,%ymm0
- .byte 196,98,125,121,5,84,127,0,0 // vpbroadcastw 0x7f54(%rip),%ymm8 # 328ae <_sk_srcover_rgba_8888_sse2_lowp+0x76e>
+ .byte 196,98,125,121,5,88,127,0,0 // vpbroadcastw 0x7f58(%rip),%ymm8 # 328ce <_sk_srcover_rgba_8888_sse2_lowp+0x772>
.byte 196,193,125,253,192 // vpaddw %ymm8,%ymm0,%ymm0
.byte 197,253,113,208,8 // vpsrlw $0x8,%ymm0,%ymm0
.byte 197,213,213,203 // vpmullw %ymm3,%ymm5,%ymm1
@@ -51272,7 +51284,7 @@ HIDDEN _sk_srcout_hsw_lowp
.globl _sk_srcout_hsw_lowp
FUNCTION(_sk_srcout_hsw_lowp)
_sk_srcout_hsw_lowp:
- .byte 196,98,125,121,5,21,127,0,0 // vpbroadcastw 0x7f15(%rip),%ymm8 # 328b0 <_sk_srcover_rgba_8888_sse2_lowp+0x770>
+ .byte 196,98,125,121,5,25,127,0,0 // vpbroadcastw 0x7f19(%rip),%ymm8 # 328d0 <_sk_srcover_rgba_8888_sse2_lowp+0x774>
.byte 197,61,249,207 // vpsubw %ymm7,%ymm8,%ymm9
.byte 197,181,213,192 // vpmullw %ymm0,%ymm9,%ymm0
.byte 196,193,125,253,192 // vpaddw %ymm8,%ymm0,%ymm0
@@ -51293,7 +51305,7 @@ HIDDEN _sk_dstout_hsw_lowp
.globl _sk_dstout_hsw_lowp
FUNCTION(_sk_dstout_hsw_lowp)
_sk_dstout_hsw_lowp:
- .byte 196,98,125,121,5,206,126,0,0 // vpbroadcastw 0x7ece(%rip),%ymm8 # 328b2 <_sk_srcover_rgba_8888_sse2_lowp+0x772>
+ .byte 196,98,125,121,5,210,126,0,0 // vpbroadcastw 0x7ed2(%rip),%ymm8 # 328d2 <_sk_srcover_rgba_8888_sse2_lowp+0x776>
.byte 197,189,249,219 // vpsubw %ymm3,%ymm8,%ymm3
.byte 197,229,213,196 // vpmullw %ymm4,%ymm3,%ymm0
.byte 196,193,125,253,192 // vpaddw %ymm8,%ymm0,%ymm0
@@ -51314,7 +51326,7 @@ HIDDEN _sk_srcover_hsw_lowp
.globl _sk_srcover_hsw_lowp
FUNCTION(_sk_srcover_hsw_lowp)
_sk_srcover_hsw_lowp:
- .byte 196,98,125,121,5,135,126,0,0 // vpbroadcastw 0x7e87(%rip),%ymm8 # 328b4 <_sk_srcover_rgba_8888_sse2_lowp+0x774>
+ .byte 196,98,125,121,5,139,126,0,0 // vpbroadcastw 0x7e8b(%rip),%ymm8 # 328d4 <_sk_srcover_rgba_8888_sse2_lowp+0x778>
.byte 197,61,249,203 // vpsubw %ymm3,%ymm8,%ymm9
.byte 197,53,213,212 // vpmullw %ymm4,%ymm9,%ymm10
.byte 196,65,45,253,208 // vpaddw %ymm8,%ymm10,%ymm10
@@ -51339,7 +51351,7 @@ HIDDEN _sk_dstover_hsw_lowp
.globl _sk_dstover_hsw_lowp
FUNCTION(_sk_dstover_hsw_lowp)
_sk_dstover_hsw_lowp:
- .byte 196,98,125,121,5,44,126,0,0 // vpbroadcastw 0x7e2c(%rip),%ymm8 # 328b6 <_sk_srcover_rgba_8888_sse2_lowp+0x776>
+ .byte 196,98,125,121,5,48,126,0,0 // vpbroadcastw 0x7e30(%rip),%ymm8 # 328d6 <_sk_srcover_rgba_8888_sse2_lowp+0x77a>
.byte 197,61,249,207 // vpsubw %ymm7,%ymm8,%ymm9
.byte 197,181,213,192 // vpmullw %ymm0,%ymm9,%ymm0
.byte 196,193,125,253,192 // vpaddw %ymm8,%ymm0,%ymm0
@@ -51365,7 +51377,7 @@ HIDDEN _sk_modulate_hsw_lowp
FUNCTION(_sk_modulate_hsw_lowp)
_sk_modulate_hsw_lowp:
.byte 197,221,213,192 // vpmullw %ymm0,%ymm4,%ymm0
- .byte 196,98,125,121,5,209,125,0,0 // vpbroadcastw 0x7dd1(%rip),%ymm8 # 328b8 <_sk_srcover_rgba_8888_sse2_lowp+0x778>
+ .byte 196,98,125,121,5,213,125,0,0 // vpbroadcastw 0x7dd5(%rip),%ymm8 # 328d8 <_sk_srcover_rgba_8888_sse2_lowp+0x77c>
.byte 196,193,125,253,192 // vpaddw %ymm8,%ymm0,%ymm0
.byte 197,253,113,208,8 // vpsrlw $0x8,%ymm0,%ymm0
.byte 197,213,213,201 // vpmullw %ymm1,%ymm5,%ymm1
@@ -51384,7 +51396,7 @@ HIDDEN _sk_multiply_hsw_lowp
.globl _sk_multiply_hsw_lowp
FUNCTION(_sk_multiply_hsw_lowp)
_sk_multiply_hsw_lowp:
- .byte 196,98,125,121,5,146,125,0,0 // vpbroadcastw 0x7d92(%rip),%ymm8 # 328ba <_sk_srcover_rgba_8888_sse2_lowp+0x77a>
+ .byte 196,98,125,121,5,150,125,0,0 // vpbroadcastw 0x7d96(%rip),%ymm8 # 328da <_sk_srcover_rgba_8888_sse2_lowp+0x77e>
.byte 197,61,249,203 // vpsubw %ymm3,%ymm8,%ymm9
.byte 197,53,213,212 // vpmullw %ymm4,%ymm9,%ymm10
.byte 196,65,93,253,216 // vpaddw %ymm8,%ymm4,%ymm11
@@ -51420,7 +51432,7 @@ HIDDEN _sk_plus__hsw_lowp
FUNCTION(_sk_plus__hsw_lowp)
_sk_plus__hsw_lowp:
.byte 197,221,253,192 // vpaddw %ymm0,%ymm4,%ymm0
- .byte 196,98,125,121,5,8,125,0,0 // vpbroadcastw 0x7d08(%rip),%ymm8 # 328bc <_sk_srcover_rgba_8888_sse2_lowp+0x77c>
+ .byte 196,98,125,121,5,12,125,0,0 // vpbroadcastw 0x7d0c(%rip),%ymm8 # 328dc <_sk_srcover_rgba_8888_sse2_lowp+0x780>
.byte 196,194,125,58,192 // vpminuw %ymm8,%ymm0,%ymm0
.byte 197,213,253,201 // vpaddw %ymm1,%ymm5,%ymm1
.byte 196,194,117,58,200 // vpminuw %ymm8,%ymm1,%ymm1
@@ -51437,7 +51449,7 @@ FUNCTION(_sk_screen_hsw_lowp)
_sk_screen_hsw_lowp:
.byte 197,93,253,192 // vpaddw %ymm0,%ymm4,%ymm8
.byte 197,221,213,192 // vpmullw %ymm0,%ymm4,%ymm0
- .byte 196,98,125,121,13,213,124,0,0 // vpbroadcastw 0x7cd5(%rip),%ymm9 # 328be <_sk_srcover_rgba_8888_sse2_lowp+0x77e>
+ .byte 196,98,125,121,13,217,124,0,0 // vpbroadcastw 0x7cd9(%rip),%ymm9 # 328de <_sk_srcover_rgba_8888_sse2_lowp+0x782>
.byte 196,193,125,253,193 // vpaddw %ymm9,%ymm0,%ymm0
.byte 197,253,113,208,8 // vpsrlw $0x8,%ymm0,%ymm0
.byte 197,189,249,192 // vpsubw %ymm0,%ymm8,%ymm0
@@ -51463,7 +51475,7 @@ HIDDEN _sk_xor__hsw_lowp
.globl _sk_xor__hsw_lowp
FUNCTION(_sk_xor__hsw_lowp)
_sk_xor__hsw_lowp:
- .byte 196,98,125,121,5,122,124,0,0 // vpbroadcastw 0x7c7a(%rip),%ymm8 # 328c0 <_sk_srcover_rgba_8888_sse2_lowp+0x780>
+ .byte 196,98,125,121,5,126,124,0,0 // vpbroadcastw 0x7c7e(%rip),%ymm8 # 328e0 <_sk_srcover_rgba_8888_sse2_lowp+0x784>
.byte 197,61,249,207 // vpsubw %ymm7,%ymm8,%ymm9
.byte 197,181,213,192 // vpmullw %ymm0,%ymm9,%ymm0
.byte 197,61,249,211 // vpsubw %ymm3,%ymm8,%ymm10
@@ -51497,7 +51509,7 @@ _sk_darken_hsw_lowp:
.byte 197,197,213,192 // vpmullw %ymm0,%ymm7,%ymm0
.byte 197,93,213,203 // vpmullw %ymm3,%ymm4,%ymm9
.byte 196,194,125,62,193 // vpmaxuw %ymm9,%ymm0,%ymm0
- .byte 196,98,125,121,13,254,123,0,0 // vpbroadcastw 0x7bfe(%rip),%ymm9 # 328c2 <_sk_srcover_rgba_8888_sse2_lowp+0x782>
+ .byte 196,98,125,121,13,2,124,0,0 // vpbroadcastw 0x7c02(%rip),%ymm9 # 328e2 <_sk_srcover_rgba_8888_sse2_lowp+0x786>
.byte 196,193,125,253,193 // vpaddw %ymm9,%ymm0,%ymm0
.byte 197,253,113,208,8 // vpsrlw $0x8,%ymm0,%ymm0
.byte 197,189,249,192 // vpsubw %ymm0,%ymm8,%ymm0
@@ -51531,7 +51543,7 @@ _sk_lighten_hsw_lowp:
.byte 197,197,213,192 // vpmullw %ymm0,%ymm7,%ymm0
.byte 197,93,213,203 // vpmullw %ymm3,%ymm4,%ymm9
.byte 196,194,125,58,193 // vpminuw %ymm9,%ymm0,%ymm0
- .byte 196,98,125,121,13,127,123,0,0 // vpbroadcastw 0x7b7f(%rip),%ymm9 # 328c4 <_sk_srcover_rgba_8888_sse2_lowp+0x784>
+ .byte 196,98,125,121,13,131,123,0,0 // vpbroadcastw 0x7b83(%rip),%ymm9 # 328e4 <_sk_srcover_rgba_8888_sse2_lowp+0x788>
.byte 196,193,125,253,193 // vpaddw %ymm9,%ymm0,%ymm0
.byte 197,253,113,208,8 // vpsrlw $0x8,%ymm0,%ymm0
.byte 197,189,249,192 // vpsubw %ymm0,%ymm8,%ymm0
@@ -51565,10 +51577,10 @@ _sk_difference_hsw_lowp:
.byte 197,197,213,192 // vpmullw %ymm0,%ymm7,%ymm0
.byte 197,93,213,203 // vpmullw %ymm3,%ymm4,%ymm9
.byte 196,194,125,58,193 // vpminuw %ymm9,%ymm0,%ymm0
- .byte 196,98,125,121,13,0,123,0,0 // vpbroadcastw 0x7b00(%rip),%ymm9 # 328c6 <_sk_srcover_rgba_8888_sse2_lowp+0x786>
+ .byte 196,98,125,121,13,4,123,0,0 // vpbroadcastw 0x7b04(%rip),%ymm9 # 328e6 <_sk_srcover_rgba_8888_sse2_lowp+0x78a>
.byte 196,193,125,253,193 // vpaddw %ymm9,%ymm0,%ymm0
.byte 197,253,113,208,7 // vpsrlw $0x7,%ymm0,%ymm0
- .byte 196,98,125,121,21,239,122,0,0 // vpbroadcastw 0x7aef(%rip),%ymm10 # 328c8 <_sk_srcover_rgba_8888_sse2_lowp+0x788>
+ .byte 196,98,125,121,21,243,122,0,0 // vpbroadcastw 0x7af3(%rip),%ymm10 # 328e8 <_sk_srcover_rgba_8888_sse2_lowp+0x78c>
.byte 196,193,125,219,194 // vpand %ymm10,%ymm0,%ymm0
.byte 197,189,249,192 // vpsubw %ymm0,%ymm8,%ymm0
.byte 197,85,253,193 // vpaddw %ymm1,%ymm5,%ymm8
@@ -51601,10 +51613,10 @@ FUNCTION(_sk_exclusion_hsw_lowp)
_sk_exclusion_hsw_lowp:
.byte 197,93,253,192 // vpaddw %ymm0,%ymm4,%ymm8
.byte 197,221,213,192 // vpmullw %ymm0,%ymm4,%ymm0
- .byte 196,98,125,121,13,116,122,0,0 // vpbroadcastw 0x7a74(%rip),%ymm9 # 328ca <_sk_srcover_rgba_8888_sse2_lowp+0x78a>
+ .byte 196,98,125,121,13,120,122,0,0 // vpbroadcastw 0x7a78(%rip),%ymm9 # 328ea <_sk_srcover_rgba_8888_sse2_lowp+0x78e>
.byte 196,193,125,253,193 // vpaddw %ymm9,%ymm0,%ymm0
.byte 197,253,113,208,7 // vpsrlw $0x7,%ymm0,%ymm0
- .byte 196,98,125,121,21,99,122,0,0 // vpbroadcastw 0x7a63(%rip),%ymm10 # 328cc <_sk_srcover_rgba_8888_sse2_lowp+0x78c>
+ .byte 196,98,125,121,21,103,122,0,0 // vpbroadcastw 0x7a67(%rip),%ymm10 # 328ec <_sk_srcover_rgba_8888_sse2_lowp+0x790>
.byte 196,193,125,219,194 // vpand %ymm10,%ymm0,%ymm0
.byte 197,189,249,192 // vpsubw %ymm0,%ymm8,%ymm0
.byte 197,85,253,193 // vpaddw %ymm1,%ymm5,%ymm8
@@ -51632,7 +51644,7 @@ HIDDEN _sk_hardlight_hsw_lowp
FUNCTION(_sk_hardlight_hsw_lowp)
_sk_hardlight_hsw_lowp:
.byte 197,125,253,192 // vpaddw %ymm0,%ymm0,%ymm8
- .byte 196,98,125,121,13,0,122,0,0 // vpbroadcastw 0x7a00(%rip),%ymm9 # 328d0 <_sk_srcover_rgba_8888_sse2_lowp+0x790>
+ .byte 196,98,125,121,13,4,122,0,0 // vpbroadcastw 0x7a04(%rip),%ymm9 # 328f0 <_sk_srcover_rgba_8888_sse2_lowp+0x794>
.byte 196,65,101,239,209 // vpxor %ymm9,%ymm3,%ymm10
.byte 196,65,61,239,217 // vpxor %ymm9,%ymm8,%ymm11
.byte 196,65,37,101,218 // vpcmpgtw %ymm10,%ymm11,%ymm11
@@ -51660,7 +51672,7 @@ _sk_hardlight_hsw_lowp:
.byte 197,101,249,210 // vpsubw %ymm2,%ymm3,%ymm10
.byte 197,69,249,246 // vpsubw %ymm6,%ymm7,%ymm14
.byte 196,65,45,213,214 // vpmullw %ymm14,%ymm10,%ymm10
- .byte 196,98,125,121,53,119,121,0,0 // vpbroadcastw 0x7977(%rip),%ymm14 # 328ce <_sk_srcover_rgba_8888_sse2_lowp+0x78e>
+ .byte 196,98,125,121,53,123,121,0,0 // vpbroadcastw 0x797b(%rip),%ymm14 # 328ee <_sk_srcover_rgba_8888_sse2_lowp+0x792>
.byte 196,65,45,253,210 // vpaddw %ymm10,%ymm10,%ymm10
.byte 196,65,61,249,194 // vpsubw %ymm10,%ymm8,%ymm8
.byte 197,13,249,215 // vpsubw %ymm7,%ymm14,%ymm10
@@ -51697,7 +51709,7 @@ HIDDEN _sk_overlay_hsw_lowp
FUNCTION(_sk_overlay_hsw_lowp)
_sk_overlay_hsw_lowp:
.byte 197,93,253,196 // vpaddw %ymm4,%ymm4,%ymm8
- .byte 196,98,125,121,13,236,120,0,0 // vpbroadcastw 0x78ec(%rip),%ymm9 # 328d4 <_sk_srcover_rgba_8888_sse2_lowp+0x794>
+ .byte 196,98,125,121,13,240,120,0,0 // vpbroadcastw 0x78f0(%rip),%ymm9 # 328f4 <_sk_srcover_rgba_8888_sse2_lowp+0x798>
.byte 196,65,69,239,209 // vpxor %ymm9,%ymm7,%ymm10
.byte 196,65,61,239,193 // vpxor %ymm9,%ymm8,%ymm8
.byte 196,65,61,101,218 // vpcmpgtw %ymm10,%ymm8,%ymm11
@@ -51721,7 +51733,7 @@ _sk_overlay_hsw_lowp:
.byte 196,65,21,253,237 // vpaddw %ymm13,%ymm13,%ymm13
.byte 196,65,61,249,237 // vpsubw %ymm13,%ymm8,%ymm13
.byte 196,67,13,76,229,192 // vpblendvb %ymm12,%ymm13,%ymm14,%ymm12
- .byte 196,98,125,121,45,116,120,0,0 // vpbroadcastw 0x7874(%rip),%ymm13 # 328d2 <_sk_srcover_rgba_8888_sse2_lowp+0x792>
+ .byte 196,98,125,121,45,120,120,0,0 // vpbroadcastw 0x7878(%rip),%ymm13 # 328f2 <_sk_srcover_rgba_8888_sse2_lowp+0x796>
.byte 197,77,253,246 // vpaddw %ymm6,%ymm6,%ymm14
.byte 196,65,13,239,201 // vpxor %ymm9,%ymm14,%ymm9
.byte 196,65,53,101,202 // vpcmpgtw %ymm10,%ymm9,%ymm9
@@ -51773,10 +51785,10 @@ _sk_load_8888_hsw_lowp:
.byte 36,15 // and $0xf,%al
.byte 254,200 // dec %al
.byte 60,14 // cmp $0xe,%al
- .byte 119,55 // ja 2b154 <_sk_load_8888_hsw_lowp+0x52>
+ .byte 119,55 // ja 2b170 <_sk_load_8888_hsw_lowp+0x52>
.byte 197,253,239,192 // vpxor %ymm0,%ymm0,%ymm0
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,161,1,0,0 // lea 0x1a1(%rip),%r9 # 2b2cc <_sk_load_8888_hsw_lowp+0x1ca>
+ .byte 76,141,13,161,1,0,0 // lea 0x1a1(%rip),%r9 # 2b2e8 <_sk_load_8888_hsw_lowp+0x1ca>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 197,245,239,201 // vpxor %ymm1,%ymm1,%ymm1
@@ -51786,10 +51798,10 @@ _sk_load_8888_hsw_lowp:
.byte 255,224 // jmpq *%rax
.byte 196,193,121,110,12,144 // vmovd (%r8,%rdx,4),%xmm1
.byte 197,253,239,192 // vpxor %ymm0,%ymm0,%ymm0
- .byte 233,39,1,0,0 // jmpq 2b27b <_sk_load_8888_hsw_lowp+0x179>
+ .byte 233,39,1,0,0 // jmpq 2b297 <_sk_load_8888_hsw_lowp+0x179>
.byte 196,193,126,111,12,144 // vmovdqu (%r8,%rdx,4),%ymm1
.byte 196,193,126,111,68,144,32 // vmovdqu 0x20(%r8,%rdx,4),%ymm0
- .byte 233,21,1,0,0 // jmpq 2b27b <_sk_load_8888_hsw_lowp+0x179>
+ .byte 233,21,1,0,0 // jmpq 2b297 <_sk_load_8888_hsw_lowp+0x179>
.byte 196,193,121,110,68,144,8 // vmovd 0x8(%r8,%rdx,4),%xmm0
.byte 196,226,121,89,192 // vpbroadcastq %xmm0,%xmm0
.byte 197,229,239,219 // vpxor %ymm3,%ymm3,%ymm3
@@ -51798,7 +51810,7 @@ _sk_load_8888_hsw_lowp:
.byte 197,249,112,201,232 // vpshufd $0xe8,%xmm1,%xmm1
.byte 196,227,125,2,201,3 // vpblendd $0x3,%ymm1,%ymm0,%ymm1
.byte 197,253,111,195 // vmovdqa %ymm3,%ymm0
- .byte 233,229,0,0,0 // jmpq 2b27b <_sk_load_8888_hsw_lowp+0x179>
+ .byte 233,229,0,0,0 // jmpq 2b297 <_sk_load_8888_hsw_lowp+0x179>
.byte 196,193,121,110,68,144,24 // vmovd 0x18(%r8,%rdx,4),%xmm0
.byte 196,226,125,89,192 // vpbroadcastq %xmm0,%ymm0
.byte 197,245,239,201 // vpxor %ymm1,%ymm1,%ymm1
@@ -51814,7 +51826,7 @@ _sk_load_8888_hsw_lowp:
.byte 196,193,122,111,12,144 // vmovdqu (%r8,%rdx,4),%xmm1
.byte 196,227,117,2,200,240 // vpblendd $0xf0,%ymm0,%ymm1,%ymm1
.byte 197,125,127,192 // vmovdqa %ymm8,%ymm0
- .byte 233,138,0,0,0 // jmpq 2b27b <_sk_load_8888_hsw_lowp+0x179>
+ .byte 233,138,0,0,0 // jmpq 2b297 <_sk_load_8888_hsw_lowp+0x179>
.byte 196,193,121,110,68,144,40 // vmovd 0x28(%r8,%rdx,4),%xmm0
.byte 196,226,121,89,192 // vpbroadcastq %xmm0,%xmm0
.byte 197,245,239,201 // vpxor %ymm1,%ymm1,%ymm1
@@ -51824,7 +51836,7 @@ _sk_load_8888_hsw_lowp:
.byte 196,193,121,110,76,144,32 // vmovd 0x20(%r8,%rdx,4),%xmm1
.byte 196,227,125,2,193,1 // vpblendd $0x1,%ymm1,%ymm0,%ymm0
.byte 196,193,126,111,12,144 // vmovdqu (%r8,%rdx,4),%ymm1
- .byte 235,81 // jmp 2b27b <_sk_load_8888_hsw_lowp+0x179>
+ .byte 235,81 // jmp 2b297 <_sk_load_8888_hsw_lowp+0x179>
.byte 196,193,121,110,68,144,56 // vmovd 0x38(%r8,%rdx,4),%xmm0
.byte 196,226,125,89,192 // vpbroadcastq %xmm0,%ymm0
.byte 197,245,239,201 // vpxor %ymm1,%ymm1,%ymm1
@@ -51844,7 +51856,7 @@ _sk_load_8888_hsw_lowp:
.byte 196,227,101,14,200,170 // vpblendw $0xaa,%ymm0,%ymm3,%ymm1
.byte 196,227,109,14,192,170 // vpblendw $0xaa,%ymm0,%ymm2,%ymm0
.byte 196,226,125,43,201 // vpackusdw %ymm1,%ymm0,%ymm1
- .byte 197,125,111,5,60,118,0,0 // vmovdqa 0x763c(%rip),%ymm8 # 328e0 <_sk_srcover_rgba_8888_sse2_lowp+0x7a0>
+ .byte 197,125,111,5,64,118,0,0 // vmovdqa 0x7640(%rip),%ymm8 # 32900 <_sk_srcover_rgba_8888_sse2_lowp+0x7a4>
.byte 196,193,117,219,192 // vpand %ymm8,%ymm1,%ymm0
.byte 197,245,113,209,8 // vpsrlw $0x8,%ymm1,%ymm1
.byte 197,229,114,211,16 // vpsrld $0x10,%ymm3,%ymm3
@@ -51855,7 +51867,7 @@ _sk_load_8888_hsw_lowp:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
.byte 144 // nop
- .byte 121,254 // jns 2b2cc <_sk_load_8888_hsw_lowp+0x1ca>
+ .byte 121,254 // jns 2b2e8 <_sk_load_8888_hsw_lowp+0x1ca>
.byte 255 // (bad)
.byte 255,176,254,255,255,154 // pushq -0x65000002(%rax)
.byte 254 // (bad)
@@ -51880,7 +51892,7 @@ _sk_load_8888_hsw_lowp:
.byte 255 // (bad)
.byte 59,255 // cmp %edi,%edi
.byte 255 // (bad)
- .byte 255,37,255,255,255,156 // jmpq *-0x63000001(%rip) # ffffffff9d02b2f8 <_sk_srcover_rgba_8888_sse2_lowp+0xffffffff9cff91b8>
+ .byte 255,37,255,255,255,156 // jmpq *-0x63000001(%rip) # ffffffff9d02b314 <_sk_srcover_rgba_8888_sse2_lowp+0xffffffff9cff91b8>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,136,255,255,255,116 // decl 0x74ffffff(%rax)
@@ -51903,10 +51915,10 @@ _sk_load_8888_dst_hsw_lowp:
.byte 36,15 // and $0xf,%al
.byte 254,200 // dec %al
.byte 60,14 // cmp $0xe,%al
- .byte 119,55 // ja 2b35a <_sk_load_8888_dst_hsw_lowp+0x52>
+ .byte 119,55 // ja 2b376 <_sk_load_8888_dst_hsw_lowp+0x52>
.byte 197,221,239,228 // vpxor %ymm4,%ymm4,%ymm4
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,163,1,0,0 // lea 0x1a3(%rip),%r9 # 2b4d4 <_sk_load_8888_dst_hsw_lowp+0x1cc>
+ .byte 76,141,13,163,1,0,0 // lea 0x1a3(%rip),%r9 # 2b4f0 <_sk_load_8888_dst_hsw_lowp+0x1cc>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
@@ -51916,10 +51928,10 @@ _sk_load_8888_dst_hsw_lowp:
.byte 255,224 // jmpq *%rax
.byte 196,193,121,110,44,144 // vmovd (%r8,%rdx,4),%xmm5
.byte 197,221,239,228 // vpxor %ymm4,%ymm4,%ymm4
- .byte 233,39,1,0,0 // jmpq 2b481 <_sk_load_8888_dst_hsw_lowp+0x179>
+ .byte 233,39,1,0,0 // jmpq 2b49d <_sk_load_8888_dst_hsw_lowp+0x179>
.byte 196,193,126,111,44,144 // vmovdqu (%r8,%rdx,4),%ymm5
.byte 196,193,126,111,100,144,32 // vmovdqu 0x20(%r8,%rdx,4),%ymm4
- .byte 233,21,1,0,0 // jmpq 2b481 <_sk_load_8888_dst_hsw_lowp+0x179>
+ .byte 233,21,1,0,0 // jmpq 2b49d <_sk_load_8888_dst_hsw_lowp+0x179>
.byte 196,193,121,110,100,144,8 // vmovd 0x8(%r8,%rdx,4),%xmm4
.byte 196,226,121,89,228 // vpbroadcastq %xmm4,%xmm4
.byte 197,197,239,255 // vpxor %ymm7,%ymm7,%ymm7
@@ -51928,7 +51940,7 @@ _sk_load_8888_dst_hsw_lowp:
.byte 197,249,112,237,232 // vpshufd $0xe8,%xmm5,%xmm5
.byte 196,227,93,2,237,3 // vpblendd $0x3,%ymm5,%ymm4,%ymm5
.byte 197,253,111,231 // vmovdqa %ymm7,%ymm4
- .byte 233,229,0,0,0 // jmpq 2b481 <_sk_load_8888_dst_hsw_lowp+0x179>
+ .byte 233,229,0,0,0 // jmpq 2b49d <_sk_load_8888_dst_hsw_lowp+0x179>
.byte 196,193,121,110,100,144,24 // vmovd 0x18(%r8,%rdx,4),%xmm4
.byte 196,226,125,89,228 // vpbroadcastq %xmm4,%ymm4
.byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
@@ -51944,7 +51956,7 @@ _sk_load_8888_dst_hsw_lowp:
.byte 196,193,122,111,44,144 // vmovdqu (%r8,%rdx,4),%xmm5
.byte 196,227,85,2,236,240 // vpblendd $0xf0,%ymm4,%ymm5,%ymm5
.byte 197,125,127,196 // vmovdqa %ymm8,%ymm4
- .byte 233,138,0,0,0 // jmpq 2b481 <_sk_load_8888_dst_hsw_lowp+0x179>
+ .byte 233,138,0,0,0 // jmpq 2b49d <_sk_load_8888_dst_hsw_lowp+0x179>
.byte 196,193,121,110,100,144,40 // vmovd 0x28(%r8,%rdx,4),%xmm4
.byte 196,226,121,89,228 // vpbroadcastq %xmm4,%xmm4
.byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
@@ -51954,7 +51966,7 @@ _sk_load_8888_dst_hsw_lowp:
.byte 196,193,121,110,108,144,32 // vmovd 0x20(%r8,%rdx,4),%xmm5
.byte 196,227,93,2,229,1 // vpblendd $0x1,%ymm5,%ymm4,%ymm4
.byte 196,193,126,111,44,144 // vmovdqu (%r8,%rdx,4),%ymm5
- .byte 235,81 // jmp 2b481 <_sk_load_8888_dst_hsw_lowp+0x179>
+ .byte 235,81 // jmp 2b49d <_sk_load_8888_dst_hsw_lowp+0x179>
.byte 196,193,121,110,100,144,56 // vmovd 0x38(%r8,%rdx,4),%xmm4
.byte 196,226,125,89,228 // vpbroadcastq %xmm4,%ymm4
.byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
@@ -51974,7 +51986,7 @@ _sk_load_8888_dst_hsw_lowp:
.byte 196,227,69,14,236,170 // vpblendw $0xaa,%ymm4,%ymm7,%ymm5
.byte 196,227,77,14,228,170 // vpblendw $0xaa,%ymm4,%ymm6,%ymm4
.byte 196,226,93,43,237 // vpackusdw %ymm5,%ymm4,%ymm5
- .byte 197,125,111,5,86,116,0,0 // vmovdqa 0x7456(%rip),%ymm8 # 32900 <_sk_srcover_rgba_8888_sse2_lowp+0x7c0>
+ .byte 197,125,111,5,90,116,0,0 // vmovdqa 0x745a(%rip),%ymm8 # 32920 <_sk_srcover_rgba_8888_sse2_lowp+0x7c4>
.byte 196,193,85,219,224 // vpand %ymm8,%ymm5,%ymm4
.byte 197,213,113,213,8 // vpsrlw $0x8,%ymm5,%ymm5
.byte 197,197,114,215,16 // vpsrld $0x10,%ymm7,%ymm7
@@ -51985,7 +51997,7 @@ _sk_load_8888_dst_hsw_lowp:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
.byte 15,31,0 // nopl (%rax)
- .byte 119,254 // ja 2b4d4 <_sk_load_8888_dst_hsw_lowp+0x1cc>
+ .byte 119,254 // ja 2b4f0 <_sk_load_8888_dst_hsw_lowp+0x1cc>
.byte 255 // (bad)
.byte 255,174,254,255,255,152 // ljmp *-0x67000002(%rsi)
.byte 254 // (bad)
@@ -52046,20 +52058,20 @@ _sk_store_8888_hsw_lowp:
.byte 36,15 // and $0xf,%al
.byte 254,200 // dec %al
.byte 60,14 // cmp $0xe,%al
- .byte 119,30 // ja 2b591 <_sk_store_8888_hsw_lowp+0x81>
+ .byte 119,30 // ja 2b5ad <_sk_store_8888_hsw_lowp+0x81>
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,195,0,0,0 // lea 0xc3(%rip),%r9 # 2b640 <_sk_store_8888_hsw_lowp+0x130>
+ .byte 76,141,13,195,0,0,0 // lea 0xc3(%rip),%r9 # 2b65c <_sk_store_8888_hsw_lowp+0x130>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 196,65,121,126,4,144 // vmovd %xmm8,(%r8,%rdx,4)
- .byte 233,171,0,0,0 // jmpq 2b63c <_sk_store_8888_hsw_lowp+0x12c>
+ .byte 233,171,0,0,0 // jmpq 2b658 <_sk_store_8888_hsw_lowp+0x12c>
.byte 196,65,126,127,4,144 // vmovdqu %ymm8,(%r8,%rdx,4)
.byte 196,65,126,127,76,144,32 // vmovdqu %ymm9,0x20(%r8,%rdx,4)
- .byte 233,153,0,0,0 // jmpq 2b63c <_sk_store_8888_hsw_lowp+0x12c>
+ .byte 233,153,0,0,0 // jmpq 2b658 <_sk_store_8888_hsw_lowp+0x12c>
.byte 196,67,121,22,68,144,8,2 // vpextrd $0x2,%xmm8,0x8(%r8,%rdx,4)
.byte 196,65,121,214,4,144 // vmovq %xmm8,(%r8,%rdx,4)
- .byte 233,134,0,0,0 // jmpq 2b63c <_sk_store_8888_hsw_lowp+0x12c>
+ .byte 233,134,0,0,0 // jmpq 2b658 <_sk_store_8888_hsw_lowp+0x12c>
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,67,121,22,76,144,24,2 // vpextrd $0x2,%xmm9,0x18(%r8,%rdx,4)
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
@@ -52067,12 +52079,12 @@ _sk_store_8888_hsw_lowp:
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,65,121,126,76,144,16 // vmovd %xmm9,0x10(%r8,%rdx,4)
.byte 196,65,122,127,4,144 // vmovdqu %xmm8,(%r8,%rdx,4)
- .byte 235,85 // jmp 2b63c <_sk_store_8888_hsw_lowp+0x12c>
+ .byte 235,85 // jmp 2b658 <_sk_store_8888_hsw_lowp+0x12c>
.byte 196,67,121,22,76,144,40,2 // vpextrd $0x2,%xmm9,0x28(%r8,%rdx,4)
.byte 196,67,121,22,76,144,36,1 // vpextrd $0x1,%xmm9,0x24(%r8,%rdx,4)
.byte 196,65,121,126,76,144,32 // vmovd %xmm9,0x20(%r8,%rdx,4)
.byte 196,65,126,127,4,144 // vmovdqu %ymm8,(%r8,%rdx,4)
- .byte 235,54 // jmp 2b63c <_sk_store_8888_hsw_lowp+0x12c>
+ .byte 235,54 // jmp 2b658 <_sk_store_8888_hsw_lowp+0x12c>
.byte 196,67,125,57,202,1 // vextracti128 $0x1,%ymm9,%xmm10
.byte 196,67,121,22,84,144,56,2 // vpextrd $0x2,%xmm10,0x38(%r8,%rdx,4)
.byte 196,67,125,57,202,1 // vextracti128 $0x1,%ymm9,%xmm10
@@ -52129,10 +52141,10 @@ _sk_load_bgra_hsw_lowp:
.byte 36,15 // and $0xf,%al
.byte 254,200 // dec %al
.byte 60,14 // cmp $0xe,%al
- .byte 119,55 // ja 2b6ce <_sk_load_bgra_hsw_lowp+0x52>
+ .byte 119,55 // ja 2b6ea <_sk_load_bgra_hsw_lowp+0x52>
.byte 197,253,239,192 // vpxor %ymm0,%ymm0,%ymm0
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,163,1,0,0 // lea 0x1a3(%rip),%r9 # 2b848 <_sk_load_bgra_hsw_lowp+0x1cc>
+ .byte 76,141,13,163,1,0,0 // lea 0x1a3(%rip),%r9 # 2b864 <_sk_load_bgra_hsw_lowp+0x1cc>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 197,245,239,201 // vpxor %ymm1,%ymm1,%ymm1
@@ -52142,10 +52154,10 @@ _sk_load_bgra_hsw_lowp:
.byte 255,224 // jmpq *%rax
.byte 196,193,121,110,12,144 // vmovd (%r8,%rdx,4),%xmm1
.byte 197,253,239,192 // vpxor %ymm0,%ymm0,%ymm0
- .byte 233,39,1,0,0 // jmpq 2b7f5 <_sk_load_bgra_hsw_lowp+0x179>
+ .byte 233,39,1,0,0 // jmpq 2b811 <_sk_load_bgra_hsw_lowp+0x179>
.byte 196,193,126,111,12,144 // vmovdqu (%r8,%rdx,4),%ymm1
.byte 196,193,126,111,68,144,32 // vmovdqu 0x20(%r8,%rdx,4),%ymm0
- .byte 233,21,1,0,0 // jmpq 2b7f5 <_sk_load_bgra_hsw_lowp+0x179>
+ .byte 233,21,1,0,0 // jmpq 2b811 <_sk_load_bgra_hsw_lowp+0x179>
.byte 196,193,121,110,68,144,8 // vmovd 0x8(%r8,%rdx,4),%xmm0
.byte 196,226,121,89,192 // vpbroadcastq %xmm0,%xmm0
.byte 197,229,239,219 // vpxor %ymm3,%ymm3,%ymm3
@@ -52154,7 +52166,7 @@ _sk_load_bgra_hsw_lowp:
.byte 197,249,112,201,232 // vpshufd $0xe8,%xmm1,%xmm1
.byte 196,227,125,2,201,3 // vpblendd $0x3,%ymm1,%ymm0,%ymm1
.byte 197,253,111,195 // vmovdqa %ymm3,%ymm0
- .byte 233,229,0,0,0 // jmpq 2b7f5 <_sk_load_bgra_hsw_lowp+0x179>
+ .byte 233,229,0,0,0 // jmpq 2b811 <_sk_load_bgra_hsw_lowp+0x179>
.byte 196,193,121,110,68,144,24 // vmovd 0x18(%r8,%rdx,4),%xmm0
.byte 196,226,125,89,192 // vpbroadcastq %xmm0,%ymm0
.byte 197,245,239,201 // vpxor %ymm1,%ymm1,%ymm1
@@ -52170,7 +52182,7 @@ _sk_load_bgra_hsw_lowp:
.byte 196,193,122,111,12,144 // vmovdqu (%r8,%rdx,4),%xmm1
.byte 196,227,117,2,200,240 // vpblendd $0xf0,%ymm0,%ymm1,%ymm1
.byte 197,125,127,192 // vmovdqa %ymm8,%ymm0
- .byte 233,138,0,0,0 // jmpq 2b7f5 <_sk_load_bgra_hsw_lowp+0x179>
+ .byte 233,138,0,0,0 // jmpq 2b811 <_sk_load_bgra_hsw_lowp+0x179>
.byte 196,193,121,110,68,144,40 // vmovd 0x28(%r8,%rdx,4),%xmm0
.byte 196,226,121,89,192 // vpbroadcastq %xmm0,%xmm0
.byte 197,245,239,201 // vpxor %ymm1,%ymm1,%ymm1
@@ -52180,7 +52192,7 @@ _sk_load_bgra_hsw_lowp:
.byte 196,193,121,110,76,144,32 // vmovd 0x20(%r8,%rdx,4),%xmm1
.byte 196,227,125,2,193,1 // vpblendd $0x1,%ymm1,%ymm0,%ymm0
.byte 196,193,126,111,12,144 // vmovdqu (%r8,%rdx,4),%ymm1
- .byte 235,81 // jmp 2b7f5 <_sk_load_bgra_hsw_lowp+0x179>
+ .byte 235,81 // jmp 2b811 <_sk_load_bgra_hsw_lowp+0x179>
.byte 196,193,121,110,68,144,56 // vmovd 0x38(%r8,%rdx,4),%xmm0
.byte 196,226,125,89,192 // vpbroadcastq %xmm0,%ymm0
.byte 197,245,239,201 // vpxor %ymm1,%ymm1,%ymm1
@@ -52200,7 +52212,7 @@ _sk_load_bgra_hsw_lowp:
.byte 196,227,125,14,209,170 // vpblendw $0xaa,%ymm1,%ymm0,%ymm2
.byte 196,227,101,14,201,170 // vpblendw $0xaa,%ymm1,%ymm3,%ymm1
.byte 196,226,117,43,202 // vpackusdw %ymm2,%ymm1,%ymm1
- .byte 197,125,111,5,2,113,0,0 // vmovdqa 0x7102(%rip),%ymm8 # 32920 <_sk_srcover_rgba_8888_sse2_lowp+0x7e0>
+ .byte 197,125,111,5,6,113,0,0 // vmovdqa 0x7106(%rip),%ymm8 # 32940 <_sk_srcover_rgba_8888_sse2_lowp+0x7e4>
.byte 196,193,117,219,208 // vpand %ymm8,%ymm1,%ymm2
.byte 197,245,113,209,8 // vpsrlw $0x8,%ymm1,%ymm1
.byte 197,253,114,208,16 // vpsrld $0x10,%ymm0,%ymm0
@@ -52211,7 +52223,7 @@ _sk_load_bgra_hsw_lowp:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
.byte 15,31,0 // nopl (%rax)
- .byte 119,254 // ja 2b848 <_sk_load_bgra_hsw_lowp+0x1cc>
+ .byte 119,254 // ja 2b864 <_sk_load_bgra_hsw_lowp+0x1cc>
.byte 255 // (bad)
.byte 255,174,254,255,255,152 // ljmp *-0x67000002(%rsi)
.byte 254 // (bad)
@@ -52258,10 +52270,10 @@ _sk_load_bgra_dst_hsw_lowp:
.byte 36,15 // and $0xf,%al
.byte 254,200 // dec %al
.byte 60,14 // cmp $0xe,%al
- .byte 119,55 // ja 2b8d6 <_sk_load_bgra_dst_hsw_lowp+0x52>
+ .byte 119,55 // ja 2b8f2 <_sk_load_bgra_dst_hsw_lowp+0x52>
.byte 197,221,239,228 // vpxor %ymm4,%ymm4,%ymm4
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,163,1,0,0 // lea 0x1a3(%rip),%r9 # 2ba50 <_sk_load_bgra_dst_hsw_lowp+0x1cc>
+ .byte 76,141,13,163,1,0,0 // lea 0x1a3(%rip),%r9 # 2ba6c <_sk_load_bgra_dst_hsw_lowp+0x1cc>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
@@ -52271,10 +52283,10 @@ _sk_load_bgra_dst_hsw_lowp:
.byte 255,224 // jmpq *%rax
.byte 196,193,121,110,44,144 // vmovd (%r8,%rdx,4),%xmm5
.byte 197,221,239,228 // vpxor %ymm4,%ymm4,%ymm4
- .byte 233,39,1,0,0 // jmpq 2b9fd <_sk_load_bgra_dst_hsw_lowp+0x179>
+ .byte 233,39,1,0,0 // jmpq 2ba19 <_sk_load_bgra_dst_hsw_lowp+0x179>
.byte 196,193,126,111,44,144 // vmovdqu (%r8,%rdx,4),%ymm5
.byte 196,193,126,111,100,144,32 // vmovdqu 0x20(%r8,%rdx,4),%ymm4
- .byte 233,21,1,0,0 // jmpq 2b9fd <_sk_load_bgra_dst_hsw_lowp+0x179>
+ .byte 233,21,1,0,0 // jmpq 2ba19 <_sk_load_bgra_dst_hsw_lowp+0x179>
.byte 196,193,121,110,100,144,8 // vmovd 0x8(%r8,%rdx,4),%xmm4
.byte 196,226,121,89,228 // vpbroadcastq %xmm4,%xmm4
.byte 197,197,239,255 // vpxor %ymm7,%ymm7,%ymm7
@@ -52283,7 +52295,7 @@ _sk_load_bgra_dst_hsw_lowp:
.byte 197,249,112,237,232 // vpshufd $0xe8,%xmm5,%xmm5
.byte 196,227,93,2,237,3 // vpblendd $0x3,%ymm5,%ymm4,%ymm5
.byte 197,253,111,231 // vmovdqa %ymm7,%ymm4
- .byte 233,229,0,0,0 // jmpq 2b9fd <_sk_load_bgra_dst_hsw_lowp+0x179>
+ .byte 233,229,0,0,0 // jmpq 2ba19 <_sk_load_bgra_dst_hsw_lowp+0x179>
.byte 196,193,121,110,100,144,24 // vmovd 0x18(%r8,%rdx,4),%xmm4
.byte 196,226,125,89,228 // vpbroadcastq %xmm4,%ymm4
.byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
@@ -52299,7 +52311,7 @@ _sk_load_bgra_dst_hsw_lowp:
.byte 196,193,122,111,44,144 // vmovdqu (%r8,%rdx,4),%xmm5
.byte 196,227,85,2,236,240 // vpblendd $0xf0,%ymm4,%ymm5,%ymm5
.byte 197,125,127,196 // vmovdqa %ymm8,%ymm4
- .byte 233,138,0,0,0 // jmpq 2b9fd <_sk_load_bgra_dst_hsw_lowp+0x179>
+ .byte 233,138,0,0,0 // jmpq 2ba19 <_sk_load_bgra_dst_hsw_lowp+0x179>
.byte 196,193,121,110,100,144,40 // vmovd 0x28(%r8,%rdx,4),%xmm4
.byte 196,226,121,89,228 // vpbroadcastq %xmm4,%xmm4
.byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
@@ -52309,7 +52321,7 @@ _sk_load_bgra_dst_hsw_lowp:
.byte 196,193,121,110,108,144,32 // vmovd 0x20(%r8,%rdx,4),%xmm5
.byte 196,227,93,2,229,1 // vpblendd $0x1,%ymm5,%ymm4,%ymm4
.byte 196,193,126,111,44,144 // vmovdqu (%r8,%rdx,4),%ymm5
- .byte 235,81 // jmp 2b9fd <_sk_load_bgra_dst_hsw_lowp+0x179>
+ .byte 235,81 // jmp 2ba19 <_sk_load_bgra_dst_hsw_lowp+0x179>
.byte 196,193,121,110,100,144,56 // vmovd 0x38(%r8,%rdx,4),%xmm4
.byte 196,226,125,89,228 // vpbroadcastq %xmm4,%ymm4
.byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
@@ -52329,7 +52341,7 @@ _sk_load_bgra_dst_hsw_lowp:
.byte 196,227,93,14,245,170 // vpblendw $0xaa,%ymm5,%ymm4,%ymm6
.byte 196,227,69,14,237,170 // vpblendw $0xaa,%ymm5,%ymm7,%ymm5
.byte 196,226,85,43,238 // vpackusdw %ymm6,%ymm5,%ymm5
- .byte 197,125,111,5,26,111,0,0 // vmovdqa 0x6f1a(%rip),%ymm8 # 32940 <_sk_srcover_rgba_8888_sse2_lowp+0x800>
+ .byte 197,125,111,5,30,111,0,0 // vmovdqa 0x6f1e(%rip),%ymm8 # 32960 <_sk_srcover_rgba_8888_sse2_lowp+0x804>
.byte 196,193,85,219,240 // vpand %ymm8,%ymm5,%ymm6
.byte 197,213,113,213,8 // vpsrlw $0x8,%ymm5,%ymm5
.byte 197,221,114,212,16 // vpsrld $0x10,%ymm4,%ymm4
@@ -52340,7 +52352,7 @@ _sk_load_bgra_dst_hsw_lowp:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
.byte 15,31,0 // nopl (%rax)
- .byte 119,254 // ja 2ba50 <_sk_load_bgra_dst_hsw_lowp+0x1cc>
+ .byte 119,254 // ja 2ba6c <_sk_load_bgra_dst_hsw_lowp+0x1cc>
.byte 255 // (bad)
.byte 255,174,254,255,255,152 // ljmp *-0x67000002(%rsi)
.byte 254 // (bad)
@@ -52401,20 +52413,20 @@ _sk_store_bgra_hsw_lowp:
.byte 36,15 // and $0xf,%al
.byte 254,200 // dec %al
.byte 60,14 // cmp $0xe,%al
- .byte 119,30 // ja 2bb0d <_sk_store_bgra_hsw_lowp+0x81>
+ .byte 119,30 // ja 2bb29 <_sk_store_bgra_hsw_lowp+0x81>
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,195,0,0,0 // lea 0xc3(%rip),%r9 # 2bbbc <_sk_store_bgra_hsw_lowp+0x130>
+ .byte 76,141,13,195,0,0,0 // lea 0xc3(%rip),%r9 # 2bbd8 <_sk_store_bgra_hsw_lowp+0x130>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 196,65,121,126,4,144 // vmovd %xmm8,(%r8,%rdx,4)
- .byte 233,171,0,0,0 // jmpq 2bbb8 <_sk_store_bgra_hsw_lowp+0x12c>
+ .byte 233,171,0,0,0 // jmpq 2bbd4 <_sk_store_bgra_hsw_lowp+0x12c>
.byte 196,65,126,127,4,144 // vmovdqu %ymm8,(%r8,%rdx,4)
.byte 196,65,126,127,76,144,32 // vmovdqu %ymm9,0x20(%r8,%rdx,4)
- .byte 233,153,0,0,0 // jmpq 2bbb8 <_sk_store_bgra_hsw_lowp+0x12c>
+ .byte 233,153,0,0,0 // jmpq 2bbd4 <_sk_store_bgra_hsw_lowp+0x12c>
.byte 196,67,121,22,68,144,8,2 // vpextrd $0x2,%xmm8,0x8(%r8,%rdx,4)
.byte 196,65,121,214,4,144 // vmovq %xmm8,(%r8,%rdx,4)
- .byte 233,134,0,0,0 // jmpq 2bbb8 <_sk_store_bgra_hsw_lowp+0x12c>
+ .byte 233,134,0,0,0 // jmpq 2bbd4 <_sk_store_bgra_hsw_lowp+0x12c>
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,67,121,22,76,144,24,2 // vpextrd $0x2,%xmm9,0x18(%r8,%rdx,4)
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
@@ -52422,12 +52434,12 @@ _sk_store_bgra_hsw_lowp:
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,65,121,126,76,144,16 // vmovd %xmm9,0x10(%r8,%rdx,4)
.byte 196,65,122,127,4,144 // vmovdqu %xmm8,(%r8,%rdx,4)
- .byte 235,85 // jmp 2bbb8 <_sk_store_bgra_hsw_lowp+0x12c>
+ .byte 235,85 // jmp 2bbd4 <_sk_store_bgra_hsw_lowp+0x12c>
.byte 196,67,121,22,76,144,40,2 // vpextrd $0x2,%xmm9,0x28(%r8,%rdx,4)
.byte 196,67,121,22,76,144,36,1 // vpextrd $0x1,%xmm9,0x24(%r8,%rdx,4)
.byte 196,65,121,126,76,144,32 // vmovd %xmm9,0x20(%r8,%rdx,4)
.byte 196,65,126,127,4,144 // vmovdqu %ymm8,(%r8,%rdx,4)
- .byte 235,54 // jmp 2bbb8 <_sk_store_bgra_hsw_lowp+0x12c>
+ .byte 235,54 // jmp 2bbd4 <_sk_store_bgra_hsw_lowp+0x12c>
.byte 196,67,125,57,202,1 // vextracti128 $0x1,%ymm9,%xmm10
.byte 196,67,121,22,84,144,56,2 // vpextrd $0x2,%xmm10,0x38(%r8,%rdx,4)
.byte 196,67,125,57,202,1 // vextracti128 $0x1,%ymm9,%xmm10
@@ -52484,24 +52496,24 @@ _sk_load_565_hsw_lowp:
.byte 36,15 // and $0xf,%al
.byte 254,200 // dec %al
.byte 60,14 // cmp $0xe,%al
- .byte 119,37 // ja 2bc37 <_sk_load_565_hsw_lowp+0x3f>
+ .byte 119,37 // ja 2bc53 <_sk_load_565_hsw_lowp+0x3f>
.byte 197,253,239,192 // vpxor %ymm0,%ymm0,%ymm0
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,132,1,0,0 // lea 0x184(%rip),%r9 # 2bda4 <_sk_load_565_hsw_lowp+0x1ac>
+ .byte 76,141,13,132,1,0,0 // lea 0x184(%rip),%r9 # 2bdc0 <_sk_load_565_hsw_lowp+0x1ac>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,183,4,80 // movzwl (%r8,%rdx,2),%eax
.byte 197,249,110,192 // vmovd %eax,%xmm0
- .byte 233,8,1,0,0 // jmpq 2bd3f <_sk_load_565_hsw_lowp+0x147>
+ .byte 233,8,1,0,0 // jmpq 2bd5b <_sk_load_565_hsw_lowp+0x147>
.byte 196,193,126,111,4,80 // vmovdqu (%r8,%rdx,2),%ymm0
- .byte 233,253,0,0,0 // jmpq 2bd3f <_sk_load_565_hsw_lowp+0x147>
+ .byte 233,253,0,0,0 // jmpq 2bd5b <_sk_load_565_hsw_lowp+0x147>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 196,193,121,196,76,80,4,2 // vpinsrw $0x2,0x4(%r8,%rdx,2),%xmm0,%xmm1
.byte 196,227,117,56,192,1 // vinserti128 $0x1,%xmm0,%ymm1,%ymm0
.byte 196,193,121,110,12,80 // vmovd (%r8,%rdx,2),%xmm1
.byte 196,227,125,2,193,1 // vpblendd $0x1,%ymm1,%ymm0,%ymm0
- .byte 233,218,0,0,0 // jmpq 2bd3f <_sk_load_565_hsw_lowp+0x147>
+ .byte 233,218,0,0,0 // jmpq 2bd5b <_sk_load_565_hsw_lowp+0x147>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 196,193,121,196,76,80,12,6 // vpinsrw $0x6,0xc(%r8,%rdx,2),%xmm0,%xmm1
.byte 196,227,117,56,192,1 // vinserti128 $0x1,%xmm0,%ymm1,%ymm0
@@ -52511,7 +52523,7 @@ _sk_load_565_hsw_lowp:
.byte 196,227,125,2,193,15 // vpblendd $0xf,%ymm1,%ymm0,%ymm0
.byte 196,193,122,126,12,80 // vmovq (%r8,%rdx,2),%xmm1
.byte 196,227,125,2,193,3 // vpblendd $0x3,%ymm1,%ymm0,%ymm0
- .byte 233,155,0,0,0 // jmpq 2bd3f <_sk_load_565_hsw_lowp+0x147>
+ .byte 233,155,0,0,0 // jmpq 2bd5b <_sk_load_565_hsw_lowp+0x147>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 196,193,121,196,76,80,20,2 // vpinsrw $0x2,0x14(%r8,%rdx,2),%xmm0,%xmm1
.byte 196,227,125,56,193,1 // vinserti128 $0x1,%xmm1,%ymm0,%ymm0
@@ -52523,7 +52535,7 @@ _sk_load_565_hsw_lowp:
.byte 196,227,125,56,193,1 // vinserti128 $0x1,%xmm1,%ymm0,%ymm0
.byte 196,193,122,111,12,80 // vmovdqu (%r8,%rdx,2),%xmm1
.byte 196,227,117,2,192,240 // vpblendd $0xf0,%ymm0,%ymm1,%ymm0
- .byte 235,83 // jmp 2bd3f <_sk_load_565_hsw_lowp+0x147>
+ .byte 235,83 // jmp 2bd5b <_sk_load_565_hsw_lowp+0x147>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 196,193,121,196,76,80,28,6 // vpinsrw $0x6,0x1c(%r8,%rdx,2),%xmm0,%xmm1
.byte 196,227,125,56,193,1 // vinserti128 $0x1,%xmm1,%ymm0,%ymm0
@@ -52537,13 +52549,13 @@ _sk_load_565_hsw_lowp:
.byte 196,193,122,111,20,80 // vmovdqu (%r8,%rdx,2),%xmm2
.byte 196,227,109,56,201,1 // vinserti128 $0x1,%xmm1,%ymm2,%ymm1
.byte 196,227,117,2,192,192 // vpblendd $0xc0,%ymm0,%ymm1,%ymm0
- .byte 196,226,125,121,13,24,108,0,0 // vpbroadcastw 0x6c18(%rip),%ymm1 # 32960 <_sk_srcover_rgba_8888_sse2_lowp+0x820>
+ .byte 196,226,125,121,13,28,108,0,0 // vpbroadcastw 0x6c1c(%rip),%ymm1 # 32980 <_sk_srcover_rgba_8888_sse2_lowp+0x824>
.byte 197,237,113,208,8 // vpsrlw $0x8,%ymm0,%ymm2
.byte 197,237,219,201 // vpand %ymm1,%ymm2,%ymm1
.byte 197,237,113,208,5 // vpsrlw $0x5,%ymm0,%ymm2
- .byte 196,226,125,121,29,3,108,0,0 // vpbroadcastw 0x6c03(%rip),%ymm3 # 32962 <_sk_srcover_rgba_8888_sse2_lowp+0x822>
+ .byte 196,226,125,121,29,7,108,0,0 // vpbroadcastw 0x6c07(%rip),%ymm3 # 32982 <_sk_srcover_rgba_8888_sse2_lowp+0x826>
.byte 197,237,219,211 // vpand %ymm3,%ymm2,%ymm2
- .byte 196,226,125,121,29,248,107,0,0 // vpbroadcastw 0x6bf8(%rip),%ymm3 # 32964 <_sk_srcover_rgba_8888_sse2_lowp+0x824>
+ .byte 196,226,125,121,29,252,107,0,0 // vpbroadcastw 0x6bfc(%rip),%ymm3 # 32984 <_sk_srcover_rgba_8888_sse2_lowp+0x828>
.byte 197,253,219,219 // vpand %ymm3,%ymm0,%ymm3
.byte 197,253,113,208,13 // vpsrlw $0xd,%ymm0,%ymm0
.byte 197,245,235,192 // vpor %ymm0,%ymm1,%ymm0
@@ -52554,7 +52566,7 @@ _sk_load_565_hsw_lowp:
.byte 197,229,113,211,2 // vpsrlw $0x2,%ymm3,%ymm3
.byte 197,237,235,211 // vpor %ymm3,%ymm2,%ymm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,121,29,198,107,0,0 // vpbroadcastw 0x6bc6(%rip),%ymm3 # 32966 <_sk_srcover_rgba_8888_sse2_lowp+0x826>
+ .byte 196,226,125,121,29,202,107,0,0 // vpbroadcastw 0x6bca(%rip),%ymm3 # 32986 <_sk_srcover_rgba_8888_sse2_lowp+0x82a>
.byte 255,224 // jmpq *%rax
.byte 102,144 // xchg %ax,%ax
.byte 133,254 // test %edi,%esi
@@ -52609,24 +52621,24 @@ _sk_load_565_dst_hsw_lowp:
.byte 36,15 // and $0xf,%al
.byte 254,200 // dec %al
.byte 60,14 // cmp $0xe,%al
- .byte 119,37 // ja 2be1f <_sk_load_565_dst_hsw_lowp+0x3f>
+ .byte 119,37 // ja 2be3b <_sk_load_565_dst_hsw_lowp+0x3f>
.byte 197,221,239,228 // vpxor %ymm4,%ymm4,%ymm4
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,132,1,0,0 // lea 0x184(%rip),%r9 # 2bf8c <_sk_load_565_dst_hsw_lowp+0x1ac>
+ .byte 76,141,13,132,1,0,0 // lea 0x184(%rip),%r9 # 2bfa8 <_sk_load_565_dst_hsw_lowp+0x1ac>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,183,4,80 // movzwl (%r8,%rdx,2),%eax
.byte 197,249,110,224 // vmovd %eax,%xmm4
- .byte 233,8,1,0,0 // jmpq 2bf27 <_sk_load_565_dst_hsw_lowp+0x147>
+ .byte 233,8,1,0,0 // jmpq 2bf43 <_sk_load_565_dst_hsw_lowp+0x147>
.byte 196,193,126,111,36,80 // vmovdqu (%r8,%rdx,2),%ymm4
- .byte 233,253,0,0,0 // jmpq 2bf27 <_sk_load_565_dst_hsw_lowp+0x147>
+ .byte 233,253,0,0,0 // jmpq 2bf43 <_sk_load_565_dst_hsw_lowp+0x147>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,193,89,196,108,80,4,2 // vpinsrw $0x2,0x4(%r8,%rdx,2),%xmm4,%xmm5
.byte 196,227,85,56,228,1 // vinserti128 $0x1,%xmm4,%ymm5,%ymm4
.byte 196,193,121,110,44,80 // vmovd (%r8,%rdx,2),%xmm5
.byte 196,227,93,2,229,1 // vpblendd $0x1,%ymm5,%ymm4,%ymm4
- .byte 233,218,0,0,0 // jmpq 2bf27 <_sk_load_565_dst_hsw_lowp+0x147>
+ .byte 233,218,0,0,0 // jmpq 2bf43 <_sk_load_565_dst_hsw_lowp+0x147>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,193,89,196,108,80,12,6 // vpinsrw $0x6,0xc(%r8,%rdx,2),%xmm4,%xmm5
.byte 196,227,85,56,228,1 // vinserti128 $0x1,%xmm4,%ymm5,%ymm4
@@ -52636,7 +52648,7 @@ _sk_load_565_dst_hsw_lowp:
.byte 196,227,93,2,229,15 // vpblendd $0xf,%ymm5,%ymm4,%ymm4
.byte 196,193,122,126,44,80 // vmovq (%r8,%rdx,2),%xmm5
.byte 196,227,93,2,229,3 // vpblendd $0x3,%ymm5,%ymm4,%ymm4
- .byte 233,155,0,0,0 // jmpq 2bf27 <_sk_load_565_dst_hsw_lowp+0x147>
+ .byte 233,155,0,0,0 // jmpq 2bf43 <_sk_load_565_dst_hsw_lowp+0x147>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,193,89,196,108,80,20,2 // vpinsrw $0x2,0x14(%r8,%rdx,2),%xmm4,%xmm5
.byte 196,227,93,56,229,1 // vinserti128 $0x1,%xmm5,%ymm4,%ymm4
@@ -52648,7 +52660,7 @@ _sk_load_565_dst_hsw_lowp:
.byte 196,227,93,56,229,1 // vinserti128 $0x1,%xmm5,%ymm4,%ymm4
.byte 196,193,122,111,44,80 // vmovdqu (%r8,%rdx,2),%xmm5
.byte 196,227,85,2,228,240 // vpblendd $0xf0,%ymm4,%ymm5,%ymm4
- .byte 235,83 // jmp 2bf27 <_sk_load_565_dst_hsw_lowp+0x147>
+ .byte 235,83 // jmp 2bf43 <_sk_load_565_dst_hsw_lowp+0x147>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,193,89,196,108,80,28,6 // vpinsrw $0x6,0x1c(%r8,%rdx,2),%xmm4,%xmm5
.byte 196,227,93,56,229,1 // vinserti128 $0x1,%xmm5,%ymm4,%ymm4
@@ -52662,13 +52674,13 @@ _sk_load_565_dst_hsw_lowp:
.byte 196,193,122,111,52,80 // vmovdqu (%r8,%rdx,2),%xmm6
.byte 196,227,77,56,237,1 // vinserti128 $0x1,%xmm5,%ymm6,%ymm5
.byte 196,227,85,2,228,192 // vpblendd $0xc0,%ymm4,%ymm5,%ymm4
- .byte 196,226,125,121,45,56,106,0,0 // vpbroadcastw 0x6a38(%rip),%ymm5 # 32968 <_sk_srcover_rgba_8888_sse2_lowp+0x828>
+ .byte 196,226,125,121,45,60,106,0,0 // vpbroadcastw 0x6a3c(%rip),%ymm5 # 32988 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
.byte 197,205,113,212,8 // vpsrlw $0x8,%ymm4,%ymm6
.byte 197,205,219,237 // vpand %ymm5,%ymm6,%ymm5
.byte 197,205,113,212,5 // vpsrlw $0x5,%ymm4,%ymm6
- .byte 196,226,125,121,61,35,106,0,0 // vpbroadcastw 0x6a23(%rip),%ymm7 # 3296a <_sk_srcover_rgba_8888_sse2_lowp+0x82a>
+ .byte 196,226,125,121,61,39,106,0,0 // vpbroadcastw 0x6a27(%rip),%ymm7 # 3298a <_sk_srcover_rgba_8888_sse2_lowp+0x82e>
.byte 197,205,219,247 // vpand %ymm7,%ymm6,%ymm6
- .byte 196,226,125,121,61,24,106,0,0 // vpbroadcastw 0x6a18(%rip),%ymm7 # 3296c <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
+ .byte 196,226,125,121,61,28,106,0,0 // vpbroadcastw 0x6a1c(%rip),%ymm7 # 3298c <_sk_srcover_rgba_8888_sse2_lowp+0x830>
.byte 197,221,219,255 // vpand %ymm7,%ymm4,%ymm7
.byte 197,221,113,212,13 // vpsrlw $0xd,%ymm4,%ymm4
.byte 197,213,235,228 // vpor %ymm4,%ymm5,%ymm4
@@ -52679,7 +52691,7 @@ _sk_load_565_dst_hsw_lowp:
.byte 197,197,113,215,2 // vpsrlw $0x2,%ymm7,%ymm7
.byte 197,205,235,247 // vpor %ymm7,%ymm6,%ymm6
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,121,61,230,105,0,0 // vpbroadcastw 0x69e6(%rip),%ymm7 # 3296e <_sk_srcover_rgba_8888_sse2_lowp+0x82e>
+ .byte 196,226,125,121,61,234,105,0,0 // vpbroadcastw 0x69ea(%rip),%ymm7 # 3298e <_sk_srcover_rgba_8888_sse2_lowp+0x832>
.byte 255,224 // jmpq *%rax
.byte 102,144 // xchg %ax,%ax
.byte 133,254 // test %edi,%esi
@@ -52730,10 +52742,10 @@ _sk_store_565_hsw_lowp:
.byte 76,15,175,193 // imul %rcx,%r8
.byte 77,1,192 // add %r8,%r8
.byte 76,3,0 // add (%rax),%r8
- .byte 196,98,125,121,5,143,105,0,0 // vpbroadcastw 0x698f(%rip),%ymm8 # 32970 <_sk_srcover_rgba_8888_sse2_lowp+0x830>
+ .byte 196,98,125,121,5,147,105,0,0 // vpbroadcastw 0x6993(%rip),%ymm8 # 32990 <_sk_srcover_rgba_8888_sse2_lowp+0x834>
.byte 197,181,113,240,8 // vpsllw $0x8,%ymm0,%ymm9
.byte 196,65,53,219,192 // vpand %ymm8,%ymm9,%ymm8
- .byte 196,98,125,121,13,126,105,0,0 // vpbroadcastw 0x697e(%rip),%ymm9 # 32972 <_sk_srcover_rgba_8888_sse2_lowp+0x832>
+ .byte 196,98,125,121,13,130,105,0,0 // vpbroadcastw 0x6982(%rip),%ymm9 # 32992 <_sk_srcover_rgba_8888_sse2_lowp+0x836>
.byte 197,173,113,241,3 // vpsllw $0x3,%ymm1,%ymm10
.byte 196,65,45,219,201 // vpand %ymm9,%ymm10,%ymm9
.byte 196,65,53,235,192 // vpor %ymm8,%ymm9,%ymm8
@@ -52743,31 +52755,31 @@ _sk_store_565_hsw_lowp:
.byte 36,15 // and $0xf,%al
.byte 254,200 // dec %al
.byte 60,14 // cmp $0xe,%al
- .byte 119,31 // ja 2c036 <_sk_store_565_hsw_lowp+0x6e>
+ .byte 119,31 // ja 2c052 <_sk_store_565_hsw_lowp+0x6e>
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,195,0,0,0 // lea 0xc3(%rip),%r9 # 2c0e4 <_sk_store_565_hsw_lowp+0x11c>
+ .byte 76,141,13,195,0,0,0 // lea 0xc3(%rip),%r9 # 2c100 <_sk_store_565_hsw_lowp+0x11c>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 196,67,121,21,4,80,0 // vpextrw $0x0,%xmm8,(%r8,%rdx,2)
- .byte 233,167,0,0,0 // jmpq 2c0dd <_sk_store_565_hsw_lowp+0x115>
+ .byte 233,167,0,0,0 // jmpq 2c0f9 <_sk_store_565_hsw_lowp+0x115>
.byte 196,65,126,127,4,80 // vmovdqu %ymm8,(%r8,%rdx,2)
- .byte 233,156,0,0,0 // jmpq 2c0dd <_sk_store_565_hsw_lowp+0x115>
+ .byte 233,156,0,0,0 // jmpq 2c0f9 <_sk_store_565_hsw_lowp+0x115>
.byte 196,67,121,21,68,80,4,2 // vpextrw $0x2,%xmm8,0x4(%r8,%rdx,2)
.byte 196,65,121,126,4,80 // vmovd %xmm8,(%r8,%rdx,2)
- .byte 233,137,0,0,0 // jmpq 2c0dd <_sk_store_565_hsw_lowp+0x115>
+ .byte 233,137,0,0,0 // jmpq 2c0f9 <_sk_store_565_hsw_lowp+0x115>
.byte 196,67,121,21,68,80,12,6 // vpextrw $0x6,%xmm8,0xc(%r8,%rdx,2)
.byte 196,67,121,21,68,80,10,5 // vpextrw $0x5,%xmm8,0xa(%r8,%rdx,2)
.byte 196,67,121,21,68,80,8,4 // vpextrw $0x4,%xmm8,0x8(%r8,%rdx,2)
.byte 196,65,121,214,4,80 // vmovq %xmm8,(%r8,%rdx,2)
- .byte 235,105 // jmp 2c0dd <_sk_store_565_hsw_lowp+0x115>
+ .byte 235,105 // jmp 2c0f9 <_sk_store_565_hsw_lowp+0x115>
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,67,121,21,76,80,20,2 // vpextrw $0x2,%xmm9,0x14(%r8,%rdx,2)
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,67,121,21,76,80,18,1 // vpextrw $0x1,%xmm9,0x12(%r8,%rdx,2)
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,67,121,21,76,80,16,0 // vpextrw $0x0,%xmm9,0x10(%r8,%rdx,2)
- .byte 235,55 // jmp 2c0d7 <_sk_store_565_hsw_lowp+0x10f>
+ .byte 235,55 // jmp 2c0f3 <_sk_store_565_hsw_lowp+0x10f>
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,67,121,21,76,80,28,6 // vpextrw $0x6,%xmm9,0x1c(%r8,%rdx,2)
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
@@ -52790,7 +52802,7 @@ _sk_store_565_hsw_lowp:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 120,255 // js 2c0f9 <_sk_store_565_hsw_lowp+0x131>
+ .byte 120,255 // js 2c115 <_sk_store_565_hsw_lowp+0x131>
.byte 255 // (bad)
.byte 255,112,255 // pushq -0x1(%rax)
.byte 255 // (bad)
@@ -52826,38 +52838,38 @@ _sk_load_a8_hsw_lowp:
.byte 36,15 // and $0xf,%al
.byte 254,200 // dec %al
.byte 60,14 // cmp $0xe,%al
- .byte 119,37 // ja 2c15c <_sk_load_a8_hsw_lowp+0x3c>
+ .byte 119,37 // ja 2c178 <_sk_load_a8_hsw_lowp+0x3c>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,219,0,0,0 // lea 0xdb(%rip),%r9 # 2c220 <_sk_load_a8_hsw_lowp+0x100>
+ .byte 76,141,13,219,0,0,0 // lea 0xdb(%rip),%r9 # 2c23c <_sk_load_a8_hsw_lowp+0x100>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
.byte 197,249,110,192 // vmovd %eax,%xmm0
- .byte 233,175,0,0,0 // jmpq 2c20b <_sk_load_a8_hsw_lowp+0xeb>
+ .byte 233,175,0,0,0 // jmpq 2c227 <_sk_load_a8_hsw_lowp+0xeb>
.byte 196,193,122,111,4,16 // vmovdqu (%r8,%rdx,1),%xmm0
- .byte 233,164,0,0,0 // jmpq 2c20b <_sk_load_a8_hsw_lowp+0xeb>
+ .byte 233,164,0,0,0 // jmpq 2c227 <_sk_load_a8_hsw_lowp+0xeb>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 196,195,121,32,68,16,2,2 // vpinsrb $0x2,0x2(%r8,%rdx,1),%xmm0,%xmm0
.byte 65,15,183,4,16 // movzwl (%r8,%rdx,1),%eax
.byte 197,249,110,200 // vmovd %eax,%xmm1
.byte 196,227,121,14,193,1 // vpblendw $0x1,%xmm1,%xmm0,%xmm0
- .byte 233,132,0,0,0 // jmpq 2c20b <_sk_load_a8_hsw_lowp+0xeb>
+ .byte 233,132,0,0,0 // jmpq 2c227 <_sk_load_a8_hsw_lowp+0xeb>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 196,195,121,32,68,16,6,6 // vpinsrb $0x6,0x6(%r8,%rdx,1),%xmm0,%xmm0
.byte 196,195,121,32,68,16,5,5 // vpinsrb $0x5,0x5(%r8,%rdx,1),%xmm0,%xmm0
.byte 196,195,121,32,68,16,4,4 // vpinsrb $0x4,0x4(%r8,%rdx,1),%xmm0,%xmm0
.byte 196,193,121,110,12,16 // vmovd (%r8,%rdx,1),%xmm1
.byte 196,227,121,2,193,1 // vpblendd $0x1,%xmm1,%xmm0,%xmm0
- .byte 235,90 // jmp 2c20b <_sk_load_a8_hsw_lowp+0xeb>
+ .byte 235,90 // jmp 2c227 <_sk_load_a8_hsw_lowp+0xeb>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 196,195,121,32,68,16,10,10 // vpinsrb $0xa,0xa(%r8,%rdx,1),%xmm0,%xmm0
.byte 196,195,121,32,68,16,9,9 // vpinsrb $0x9,0x9(%r8,%rdx,1),%xmm0,%xmm0
.byte 196,195,121,32,68,16,8,8 // vpinsrb $0x8,0x8(%r8,%rdx,1),%xmm0,%xmm0
.byte 196,193,122,126,12,16 // vmovq (%r8,%rdx,1),%xmm1
.byte 196,227,113,2,192,12 // vpblendd $0xc,%xmm0,%xmm1,%xmm0
- .byte 235,48 // jmp 2c20b <_sk_load_a8_hsw_lowp+0xeb>
+ .byte 235,48 // jmp 2c227 <_sk_load_a8_hsw_lowp+0xeb>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 196,195,121,32,68,16,14,14 // vpinsrb $0xe,0xe(%r8,%rdx,1),%xmm0,%xmm0
.byte 196,195,121,32,68,16,13,13 // vpinsrb $0xd,0xd(%r8,%rdx,1),%xmm0,%xmm0
@@ -52917,38 +52929,38 @@ _sk_load_a8_dst_hsw_lowp:
.byte 36,15 // and $0xf,%al
.byte 254,200 // dec %al
.byte 60,14 // cmp $0xe,%al
- .byte 119,37 // ja 2c298 <_sk_load_a8_dst_hsw_lowp+0x3c>
+ .byte 119,37 // ja 2c2b4 <_sk_load_a8_dst_hsw_lowp+0x3c>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,219,0,0,0 // lea 0xdb(%rip),%r9 # 2c35c <_sk_load_a8_dst_hsw_lowp+0x100>
+ .byte 76,141,13,219,0,0,0 // lea 0xdb(%rip),%r9 # 2c378 <_sk_load_a8_dst_hsw_lowp+0x100>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
.byte 197,249,110,224 // vmovd %eax,%xmm4
- .byte 233,175,0,0,0 // jmpq 2c347 <_sk_load_a8_dst_hsw_lowp+0xeb>
+ .byte 233,175,0,0,0 // jmpq 2c363 <_sk_load_a8_dst_hsw_lowp+0xeb>
.byte 196,193,122,111,36,16 // vmovdqu (%r8,%rdx,1),%xmm4
- .byte 233,164,0,0,0 // jmpq 2c347 <_sk_load_a8_dst_hsw_lowp+0xeb>
+ .byte 233,164,0,0,0 // jmpq 2c363 <_sk_load_a8_dst_hsw_lowp+0xeb>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,195,89,32,100,16,2,2 // vpinsrb $0x2,0x2(%r8,%rdx,1),%xmm4,%xmm4
.byte 65,15,183,4,16 // movzwl (%r8,%rdx,1),%eax
.byte 197,249,110,232 // vmovd %eax,%xmm5
.byte 196,227,89,14,229,1 // vpblendw $0x1,%xmm5,%xmm4,%xmm4
- .byte 233,132,0,0,0 // jmpq 2c347 <_sk_load_a8_dst_hsw_lowp+0xeb>
+ .byte 233,132,0,0,0 // jmpq 2c363 <_sk_load_a8_dst_hsw_lowp+0xeb>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,195,89,32,100,16,6,6 // vpinsrb $0x6,0x6(%r8,%rdx,1),%xmm4,%xmm4
.byte 196,195,89,32,100,16,5,5 // vpinsrb $0x5,0x5(%r8,%rdx,1),%xmm4,%xmm4
.byte 196,195,89,32,100,16,4,4 // vpinsrb $0x4,0x4(%r8,%rdx,1),%xmm4,%xmm4
.byte 196,193,121,110,44,16 // vmovd (%r8,%rdx,1),%xmm5
.byte 196,227,89,2,229,1 // vpblendd $0x1,%xmm5,%xmm4,%xmm4
- .byte 235,90 // jmp 2c347 <_sk_load_a8_dst_hsw_lowp+0xeb>
+ .byte 235,90 // jmp 2c363 <_sk_load_a8_dst_hsw_lowp+0xeb>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,195,89,32,100,16,10,10 // vpinsrb $0xa,0xa(%r8,%rdx,1),%xmm4,%xmm4
.byte 196,195,89,32,100,16,9,9 // vpinsrb $0x9,0x9(%r8,%rdx,1),%xmm4,%xmm4
.byte 196,195,89,32,100,16,8,8 // vpinsrb $0x8,0x8(%r8,%rdx,1),%xmm4,%xmm4
.byte 196,193,122,126,44,16 // vmovq (%r8,%rdx,1),%xmm5
.byte 196,227,81,2,228,12 // vpblendd $0xc,%xmm4,%xmm5,%xmm4
- .byte 235,48 // jmp 2c347 <_sk_load_a8_dst_hsw_lowp+0xeb>
+ .byte 235,48 // jmp 2c363 <_sk_load_a8_dst_hsw_lowp+0xeb>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,195,89,32,100,16,14,14 // vpinsrb $0xe,0xe(%r8,%rdx,1),%xmm4,%xmm4
.byte 196,195,89,32,100,16,13,13 // vpinsrb $0xd,0xd(%r8,%rdx,1),%xmm4,%xmm4
@@ -53005,7 +53017,7 @@ _sk_store_a8_hsw_lowp:
.byte 76,15,175,193 // imul %rcx,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 196,195,125,57,216,1 // vextracti128 $0x1,%ymm3,%xmm8
- .byte 197,121,111,13,253,110,0,0 // vmovdqa 0x6efd(%rip),%xmm9 # 332b0 <_sk_srcover_rgba_8888_sse2_lowp+0x1170>
+ .byte 197,121,111,13,33,111,0,0 // vmovdqa 0x6f21(%rip),%xmm9 # 332f0 <_sk_srcover_rgba_8888_sse2_lowp+0x1194>
.byte 196,66,57,0,193 // vpshufb %xmm9,%xmm8,%xmm8
.byte 196,66,97,0,201 // vpshufb %xmm9,%xmm3,%xmm9
.byte 196,65,49,108,192 // vpunpcklqdq %xmm8,%xmm9,%xmm8
@@ -53013,28 +53025,28 @@ _sk_store_a8_hsw_lowp:
.byte 36,15 // and $0xf,%al
.byte 254,200 // dec %al
.byte 60,14 // cmp $0xe,%al
- .byte 119,28 // ja 2c3e8 <_sk_store_a8_hsw_lowp+0x50>
+ .byte 119,28 // ja 2c404 <_sk_store_a8_hsw_lowp+0x50>
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,146,0,0,0 // lea 0x92(%rip),%r9 # 2c468 <_sk_store_a8_hsw_lowp+0xd0>
+ .byte 76,141,13,146,0,0,0 // lea 0x92(%rip),%r9 # 2c484 <_sk_store_a8_hsw_lowp+0xd0>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 196,67,121,20,4,16,0 // vpextrb $0x0,%xmm8,(%r8,%rdx,1)
- .byte 235,121 // jmp 2c461 <_sk_store_a8_hsw_lowp+0xc9>
+ .byte 235,121 // jmp 2c47d <_sk_store_a8_hsw_lowp+0xc9>
.byte 196,65,122,127,4,16 // vmovdqu %xmm8,(%r8,%rdx,1)
- .byte 235,113 // jmp 2c461 <_sk_store_a8_hsw_lowp+0xc9>
+ .byte 235,113 // jmp 2c47d <_sk_store_a8_hsw_lowp+0xc9>
.byte 196,67,121,20,68,16,2,2 // vpextrb $0x2,%xmm8,0x2(%r8,%rdx,1)
.byte 196,67,121,21,4,16,0 // vpextrw $0x0,%xmm8,(%r8,%rdx,1)
- .byte 235,96 // jmp 2c461 <_sk_store_a8_hsw_lowp+0xc9>
+ .byte 235,96 // jmp 2c47d <_sk_store_a8_hsw_lowp+0xc9>
.byte 196,67,121,20,68,16,6,6 // vpextrb $0x6,%xmm8,0x6(%r8,%rdx,1)
.byte 196,67,121,20,68,16,5,5 // vpextrb $0x5,%xmm8,0x5(%r8,%rdx,1)
.byte 196,67,121,20,68,16,4,4 // vpextrb $0x4,%xmm8,0x4(%r8,%rdx,1)
.byte 196,65,121,126,4,16 // vmovd %xmm8,(%r8,%rdx,1)
- .byte 235,64 // jmp 2c461 <_sk_store_a8_hsw_lowp+0xc9>
+ .byte 235,64 // jmp 2c47d <_sk_store_a8_hsw_lowp+0xc9>
.byte 196,67,121,20,68,16,10,10 // vpextrb $0xa,%xmm8,0xa(%r8,%rdx,1)
.byte 196,67,121,20,68,16,9,9 // vpextrb $0x9,%xmm8,0x9(%r8,%rdx,1)
.byte 196,67,121,20,68,16,8,8 // vpextrb $0x8,%xmm8,0x8(%r8,%rdx,1)
- .byte 235,32 // jmp 2c45b <_sk_store_a8_hsw_lowp+0xc3>
+ .byte 235,32 // jmp 2c477 <_sk_store_a8_hsw_lowp+0xc3>
.byte 196,67,121,20,68,16,14,14 // vpextrb $0xe,%xmm8,0xe(%r8,%rdx,1)
.byte 196,67,121,20,68,16,13,13 // vpextrb $0xd,%xmm8,0xd(%r8,%rdx,1)
.byte 196,67,121,20,68,16,12,12 // vpextrb $0xc,%xmm8,0xc(%r8,%rdx,1)
@@ -53043,7 +53055,7 @@ _sk_store_a8_hsw_lowp:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
.byte 15,31,0 // nopl (%rax)
- .byte 119,255 // ja 2c469 <_sk_store_a8_hsw_lowp+0xd1>
+ .byte 119,255 // ja 2c485 <_sk_store_a8_hsw_lowp+0xd1>
.byte 255 // (bad)
.byte 255,144,255,255,255,136 // callq *-0x77000001(%rax)
.byte 255 // (bad)
@@ -53090,38 +53102,38 @@ _sk_load_g8_hsw_lowp:
.byte 36,15 // and $0xf,%al
.byte 254,200 // dec %al
.byte 60,14 // cmp $0xe,%al
- .byte 119,37 // ja 2c4e0 <_sk_load_g8_hsw_lowp+0x3c>
+ .byte 119,37 // ja 2c4fc <_sk_load_g8_hsw_lowp+0x3c>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,227,0,0,0 // lea 0xe3(%rip),%r9 # 2c5ac <_sk_load_g8_hsw_lowp+0x108>
+ .byte 76,141,13,227,0,0,0 // lea 0xe3(%rip),%r9 # 2c5c8 <_sk_load_g8_hsw_lowp+0x108>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
.byte 197,249,110,192 // vmovd %eax,%xmm0
- .byte 233,175,0,0,0 // jmpq 2c58f <_sk_load_g8_hsw_lowp+0xeb>
+ .byte 233,175,0,0,0 // jmpq 2c5ab <_sk_load_g8_hsw_lowp+0xeb>
.byte 196,193,122,111,4,16 // vmovdqu (%r8,%rdx,1),%xmm0
- .byte 233,164,0,0,0 // jmpq 2c58f <_sk_load_g8_hsw_lowp+0xeb>
+ .byte 233,164,0,0,0 // jmpq 2c5ab <_sk_load_g8_hsw_lowp+0xeb>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 196,195,121,32,68,16,2,2 // vpinsrb $0x2,0x2(%r8,%rdx,1),%xmm0,%xmm0
.byte 65,15,183,4,16 // movzwl (%r8,%rdx,1),%eax
.byte 197,249,110,200 // vmovd %eax,%xmm1
.byte 196,227,121,14,193,1 // vpblendw $0x1,%xmm1,%xmm0,%xmm0
- .byte 233,132,0,0,0 // jmpq 2c58f <_sk_load_g8_hsw_lowp+0xeb>
+ .byte 233,132,0,0,0 // jmpq 2c5ab <_sk_load_g8_hsw_lowp+0xeb>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 196,195,121,32,68,16,6,6 // vpinsrb $0x6,0x6(%r8,%rdx,1),%xmm0,%xmm0
.byte 196,195,121,32,68,16,5,5 // vpinsrb $0x5,0x5(%r8,%rdx,1),%xmm0,%xmm0
.byte 196,195,121,32,68,16,4,4 // vpinsrb $0x4,0x4(%r8,%rdx,1),%xmm0,%xmm0
.byte 196,193,121,110,12,16 // vmovd (%r8,%rdx,1),%xmm1
.byte 196,227,121,2,193,1 // vpblendd $0x1,%xmm1,%xmm0,%xmm0
- .byte 235,90 // jmp 2c58f <_sk_load_g8_hsw_lowp+0xeb>
+ .byte 235,90 // jmp 2c5ab <_sk_load_g8_hsw_lowp+0xeb>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 196,195,121,32,68,16,10,10 // vpinsrb $0xa,0xa(%r8,%rdx,1),%xmm0,%xmm0
.byte 196,195,121,32,68,16,9,9 // vpinsrb $0x9,0x9(%r8,%rdx,1),%xmm0,%xmm0
.byte 196,195,121,32,68,16,8,8 // vpinsrb $0x8,0x8(%r8,%rdx,1),%xmm0,%xmm0
.byte 196,193,122,126,12,16 // vmovq (%r8,%rdx,1),%xmm1
.byte 196,227,113,2,192,12 // vpblendd $0xc,%xmm0,%xmm1,%xmm0
- .byte 235,48 // jmp 2c58f <_sk_load_g8_hsw_lowp+0xeb>
+ .byte 235,48 // jmp 2c5ab <_sk_load_g8_hsw_lowp+0xeb>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 196,195,121,32,68,16,14,14 // vpinsrb $0xe,0xe(%r8,%rdx,1),%xmm0,%xmm0
.byte 196,195,121,32,68,16,13,13 // vpinsrb $0xd,0xd(%r8,%rdx,1),%xmm0,%xmm0
@@ -53131,7 +53143,7 @@ _sk_load_g8_hsw_lowp:
.byte 196,227,113,2,192,8 // vpblendd $0x8,%xmm0,%xmm1,%xmm0
.byte 196,226,125,48,192 // vpmovzxbw %xmm0,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,121,29,213,99,0,0 // vpbroadcastw 0x63d5(%rip),%ymm3 # 32974 <_sk_srcover_rgba_8888_sse2_lowp+0x834>
+ .byte 196,226,125,121,29,217,99,0,0 // vpbroadcastw 0x63d9(%rip),%ymm3 # 32994 <_sk_srcover_rgba_8888_sse2_lowp+0x838>
.byte 197,253,111,200 // vmovdqa %ymm0,%ymm1
.byte 197,253,111,208 // vmovdqa %ymm0,%ymm2
.byte 255,224 // jmpq *%rax
@@ -53145,7 +53157,7 @@ _sk_load_g8_hsw_lowp:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 123,255 // jnp 2c5b9 <_sk_load_g8_hsw_lowp+0x115>
+ .byte 123,255 // jnp 2c5d5 <_sk_load_g8_hsw_lowp+0x115>
.byte 255 // (bad)
.byte 255,115,255 // pushq -0x1(%rbx)
.byte 255 // (bad)
@@ -53183,38 +53195,38 @@ _sk_load_g8_dst_hsw_lowp:
.byte 36,15 // and $0xf,%al
.byte 254,200 // dec %al
.byte 60,14 // cmp $0xe,%al
- .byte 119,37 // ja 2c624 <_sk_load_g8_dst_hsw_lowp+0x3c>
+ .byte 119,37 // ja 2c640 <_sk_load_g8_dst_hsw_lowp+0x3c>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,227,0,0,0 // lea 0xe3(%rip),%r9 # 2c6f0 <_sk_load_g8_dst_hsw_lowp+0x108>
+ .byte 76,141,13,227,0,0,0 // lea 0xe3(%rip),%r9 # 2c70c <_sk_load_g8_dst_hsw_lowp+0x108>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
.byte 197,249,110,224 // vmovd %eax,%xmm4
- .byte 233,175,0,0,0 // jmpq 2c6d3 <_sk_load_g8_dst_hsw_lowp+0xeb>
+ .byte 233,175,0,0,0 // jmpq 2c6ef <_sk_load_g8_dst_hsw_lowp+0xeb>
.byte 196,193,122,111,36,16 // vmovdqu (%r8,%rdx,1),%xmm4
- .byte 233,164,0,0,0 // jmpq 2c6d3 <_sk_load_g8_dst_hsw_lowp+0xeb>
+ .byte 233,164,0,0,0 // jmpq 2c6ef <_sk_load_g8_dst_hsw_lowp+0xeb>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,195,89,32,100,16,2,2 // vpinsrb $0x2,0x2(%r8,%rdx,1),%xmm4,%xmm4
.byte 65,15,183,4,16 // movzwl (%r8,%rdx,1),%eax
.byte 197,249,110,232 // vmovd %eax,%xmm5
.byte 196,227,89,14,229,1 // vpblendw $0x1,%xmm5,%xmm4,%xmm4
- .byte 233,132,0,0,0 // jmpq 2c6d3 <_sk_load_g8_dst_hsw_lowp+0xeb>
+ .byte 233,132,0,0,0 // jmpq 2c6ef <_sk_load_g8_dst_hsw_lowp+0xeb>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,195,89,32,100,16,6,6 // vpinsrb $0x6,0x6(%r8,%rdx,1),%xmm4,%xmm4
.byte 196,195,89,32,100,16,5,5 // vpinsrb $0x5,0x5(%r8,%rdx,1),%xmm4,%xmm4
.byte 196,195,89,32,100,16,4,4 // vpinsrb $0x4,0x4(%r8,%rdx,1),%xmm4,%xmm4
.byte 196,193,121,110,44,16 // vmovd (%r8,%rdx,1),%xmm5
.byte 196,227,89,2,229,1 // vpblendd $0x1,%xmm5,%xmm4,%xmm4
- .byte 235,90 // jmp 2c6d3 <_sk_load_g8_dst_hsw_lowp+0xeb>
+ .byte 235,90 // jmp 2c6ef <_sk_load_g8_dst_hsw_lowp+0xeb>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,195,89,32,100,16,10,10 // vpinsrb $0xa,0xa(%r8,%rdx,1),%xmm4,%xmm4
.byte 196,195,89,32,100,16,9,9 // vpinsrb $0x9,0x9(%r8,%rdx,1),%xmm4,%xmm4
.byte 196,195,89,32,100,16,8,8 // vpinsrb $0x8,0x8(%r8,%rdx,1),%xmm4,%xmm4
.byte 196,193,122,126,44,16 // vmovq (%r8,%rdx,1),%xmm5
.byte 196,227,81,2,228,12 // vpblendd $0xc,%xmm4,%xmm5,%xmm4
- .byte 235,48 // jmp 2c6d3 <_sk_load_g8_dst_hsw_lowp+0xeb>
+ .byte 235,48 // jmp 2c6ef <_sk_load_g8_dst_hsw_lowp+0xeb>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,195,89,32,100,16,14,14 // vpinsrb $0xe,0xe(%r8,%rdx,1),%xmm4,%xmm4
.byte 196,195,89,32,100,16,13,13 // vpinsrb $0xd,0xd(%r8,%rdx,1),%xmm4,%xmm4
@@ -53224,7 +53236,7 @@ _sk_load_g8_dst_hsw_lowp:
.byte 196,227,81,2,228,8 // vpblendd $0x8,%xmm4,%xmm5,%xmm4
.byte 196,226,125,48,228 // vpmovzxbw %xmm4,%ymm4
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,121,61,147,98,0,0 // vpbroadcastw 0x6293(%rip),%ymm7 # 32976 <_sk_srcover_rgba_8888_sse2_lowp+0x836>
+ .byte 196,226,125,121,61,151,98,0,0 // vpbroadcastw 0x6297(%rip),%ymm7 # 32996 <_sk_srcover_rgba_8888_sse2_lowp+0x83a>
.byte 197,253,111,236 // vmovdqa %ymm4,%ymm5
.byte 197,253,111,244 // vmovdqa %ymm4,%ymm6
.byte 255,224 // jmpq *%rax
@@ -53238,7 +53250,7 @@ _sk_load_g8_dst_hsw_lowp:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 123,255 // jnp 2c6fd <_sk_load_g8_dst_hsw_lowp+0x115>
+ .byte 123,255 // jnp 2c719 <_sk_load_g8_dst_hsw_lowp+0x115>
.byte 255 // (bad)
.byte 255,115,255 // pushq -0x1(%rbx)
.byte 255 // (bad)
@@ -53268,12 +53280,12 @@ HIDDEN _sk_luminance_to_alpha_hsw_lowp
.globl _sk_luminance_to_alpha_hsw_lowp
FUNCTION(_sk_luminance_to_alpha_hsw_lowp)
_sk_luminance_to_alpha_hsw_lowp:
- .byte 196,226,125,121,29,67,98,0,0 // vpbroadcastw 0x6243(%rip),%ymm3 # 32978 <_sk_srcover_rgba_8888_sse2_lowp+0x838>
+ .byte 196,226,125,121,29,71,98,0,0 // vpbroadcastw 0x6247(%rip),%ymm3 # 32998 <_sk_srcover_rgba_8888_sse2_lowp+0x83c>
.byte 197,253,213,195 // vpmullw %ymm3,%ymm0,%ymm0
- .byte 196,226,125,121,29,56,98,0,0 // vpbroadcastw 0x6238(%rip),%ymm3 # 3297a <_sk_srcover_rgba_8888_sse2_lowp+0x83a>
+ .byte 196,226,125,121,29,60,98,0,0 // vpbroadcastw 0x623c(%rip),%ymm3 # 3299a <_sk_srcover_rgba_8888_sse2_lowp+0x83e>
.byte 197,245,213,203 // vpmullw %ymm3,%ymm1,%ymm1
.byte 197,245,253,192 // vpaddw %ymm0,%ymm1,%ymm0
- .byte 196,226,125,121,13,41,98,0,0 // vpbroadcastw 0x6229(%rip),%ymm1 # 3297c <_sk_srcover_rgba_8888_sse2_lowp+0x83c>
+ .byte 196,226,125,121,13,45,98,0,0 // vpbroadcastw 0x622d(%rip),%ymm1 # 3299c <_sk_srcover_rgba_8888_sse2_lowp+0x840>
.byte 197,237,213,201 // vpmullw %ymm1,%ymm2,%ymm1
.byte 197,253,253,193 // vpaddw %ymm1,%ymm0,%ymm0
.byte 197,229,113,208,8 // vpsrlw $0x8,%ymm0,%ymm3
@@ -53289,13 +53301,13 @@ FUNCTION(_sk_scale_1_float_hsw_lowp)
_sk_scale_1_float_hsw_lowp:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,122,16,0 // vmovss (%rax),%xmm8
- .byte 197,122,16,13,118,98,0,0 // vmovss 0x6276(%rip),%xmm9 # 329f4 <_sk_srcover_rgba_8888_sse2_lowp+0x8b4>
- .byte 196,98,57,169,13,61,98,0,0 // vfmadd213ss 0x623d(%rip),%xmm8,%xmm9 # 329c4 <_sk_srcover_rgba_8888_sse2_lowp+0x884>
+ .byte 197,122,16,13,122,98,0,0 // vmovss 0x627a(%rip),%xmm9 # 32a14 <_sk_srcover_rgba_8888_sse2_lowp+0x8b8>
+ .byte 196,98,57,169,13,65,98,0,0 // vfmadd213ss 0x6241(%rip),%xmm8,%xmm9 # 329e4 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 196,193,122,44,193 // vcvttss2si %xmm9,%eax
.byte 197,121,110,192 // vmovd %eax,%xmm8
.byte 196,66,125,121,192 // vpbroadcastw %xmm8,%ymm8
.byte 197,189,213,192 // vpmullw %ymm0,%ymm8,%ymm0
- .byte 196,98,125,121,13,220,97,0,0 // vpbroadcastw 0x61dc(%rip),%ymm9 # 3297e <_sk_srcover_rgba_8888_sse2_lowp+0x83e>
+ .byte 196,98,125,121,13,224,97,0,0 // vpbroadcastw 0x61e0(%rip),%ymm9 # 3299e <_sk_srcover_rgba_8888_sse2_lowp+0x842>
.byte 196,193,125,253,193 // vpaddw %ymm9,%ymm0,%ymm0
.byte 197,253,113,208,8 // vpsrlw $0x8,%ymm0,%ymm0
.byte 197,189,213,201 // vpmullw %ymm1,%ymm8,%ymm1
@@ -53316,12 +53328,12 @@ FUNCTION(_sk_lerp_1_float_hsw_lowp)
_sk_lerp_1_float_hsw_lowp:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,122,16,0 // vmovss (%rax),%xmm8
- .byte 197,122,16,13,12,98,0,0 // vmovss 0x620c(%rip),%xmm9 # 329f4 <_sk_srcover_rgba_8888_sse2_lowp+0x8b4>
- .byte 196,98,57,169,13,211,97,0,0 // vfmadd213ss 0x61d3(%rip),%xmm8,%xmm9 # 329c4 <_sk_srcover_rgba_8888_sse2_lowp+0x884>
+ .byte 197,122,16,13,16,98,0,0 // vmovss 0x6210(%rip),%xmm9 # 32a14 <_sk_srcover_rgba_8888_sse2_lowp+0x8b8>
+ .byte 196,98,57,169,13,215,97,0,0 // vfmadd213ss 0x61d7(%rip),%xmm8,%xmm9 # 329e4 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 196,193,122,44,193 // vcvttss2si %xmm9,%eax
.byte 197,121,110,192 // vmovd %eax,%xmm8
.byte 196,66,125,121,192 // vpbroadcastw %xmm8,%ymm8
- .byte 196,98,125,121,13,120,97,0,0 // vpbroadcastw 0x6178(%rip),%ymm9 # 32980 <_sk_srcover_rgba_8888_sse2_lowp+0x840>
+ .byte 196,98,125,121,13,124,97,0,0 // vpbroadcastw 0x617c(%rip),%ymm9 # 329a0 <_sk_srcover_rgba_8888_sse2_lowp+0x844>
.byte 196,65,53,249,208 // vpsubw %ymm8,%ymm9,%ymm10
.byte 197,45,213,220 // vpmullw %ymm4,%ymm10,%ymm11
.byte 197,189,213,192 // vpmullw %ymm0,%ymm8,%ymm0
@@ -53358,38 +53370,38 @@ _sk_scale_u8_hsw_lowp:
.byte 36,15 // and $0xf,%al
.byte 254,200 // dec %al
.byte 60,14 // cmp $0xe,%al
- .byte 119,38 // ja 2c8a6 <_sk_scale_u8_hsw_lowp+0x3d>
+ .byte 119,38 // ja 2c8c2 <_sk_scale_u8_hsw_lowp+0x3d>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,21,1,0,0 // lea 0x115(%rip),%r9 # 2c9a4 <_sk_scale_u8_hsw_lowp+0x13b>
+ .byte 76,141,13,21,1,0,0 // lea 0x115(%rip),%r9 # 2c9c0 <_sk_scale_u8_hsw_lowp+0x13b>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
.byte 197,121,110,192 // vmovd %eax,%xmm8
- .byte 233,179,0,0,0 // jmpq 2c959 <_sk_scale_u8_hsw_lowp+0xf0>
+ .byte 233,179,0,0,0 // jmpq 2c975 <_sk_scale_u8_hsw_lowp+0xf0>
.byte 196,65,122,111,4,16 // vmovdqu (%r8,%rdx,1),%xmm8
- .byte 233,168,0,0,0 // jmpq 2c959 <_sk_scale_u8_hsw_lowp+0xf0>
+ .byte 233,168,0,0,0 // jmpq 2c975 <_sk_scale_u8_hsw_lowp+0xf0>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,67,57,32,68,16,2,2 // vpinsrb $0x2,0x2(%r8,%rdx,1),%xmm8,%xmm8
.byte 65,15,183,4,16 // movzwl (%r8,%rdx,1),%eax
.byte 197,121,110,200 // vmovd %eax,%xmm9
.byte 196,67,57,14,193,1 // vpblendw $0x1,%xmm9,%xmm8,%xmm8
- .byte 233,135,0,0,0 // jmpq 2c959 <_sk_scale_u8_hsw_lowp+0xf0>
+ .byte 233,135,0,0,0 // jmpq 2c975 <_sk_scale_u8_hsw_lowp+0xf0>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,67,57,32,68,16,6,6 // vpinsrb $0x6,0x6(%r8,%rdx,1),%xmm8,%xmm8
.byte 196,67,57,32,68,16,5,5 // vpinsrb $0x5,0x5(%r8,%rdx,1),%xmm8,%xmm8
.byte 196,67,57,32,68,16,4,4 // vpinsrb $0x4,0x4(%r8,%rdx,1),%xmm8,%xmm8
.byte 196,65,121,110,12,16 // vmovd (%r8,%rdx,1),%xmm9
.byte 196,67,57,2,193,1 // vpblendd $0x1,%xmm9,%xmm8,%xmm8
- .byte 235,92 // jmp 2c959 <_sk_scale_u8_hsw_lowp+0xf0>
+ .byte 235,92 // jmp 2c975 <_sk_scale_u8_hsw_lowp+0xf0>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,67,57,32,68,16,10,10 // vpinsrb $0xa,0xa(%r8,%rdx,1),%xmm8,%xmm8
.byte 196,67,57,32,68,16,9,9 // vpinsrb $0x9,0x9(%r8,%rdx,1),%xmm8,%xmm8
.byte 196,67,57,32,68,16,8,8 // vpinsrb $0x8,0x8(%r8,%rdx,1),%xmm8,%xmm8
.byte 196,65,122,126,12,16 // vmovq (%r8,%rdx,1),%xmm9
.byte 196,67,49,2,192,12 // vpblendd $0xc,%xmm8,%xmm9,%xmm8
- .byte 235,49 // jmp 2c959 <_sk_scale_u8_hsw_lowp+0xf0>
+ .byte 235,49 // jmp 2c975 <_sk_scale_u8_hsw_lowp+0xf0>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,67,57,32,68,16,14,14 // vpinsrb $0xe,0xe(%r8,%rdx,1),%xmm8,%xmm8
.byte 196,67,57,32,68,16,13,13 // vpinsrb $0xd,0xd(%r8,%rdx,1),%xmm8,%xmm8
@@ -53399,7 +53411,7 @@ _sk_scale_u8_hsw_lowp:
.byte 196,67,49,2,192,8 // vpblendd $0x8,%xmm8,%xmm9,%xmm8
.byte 196,66,125,48,192 // vpmovzxbw %xmm8,%ymm8
.byte 197,189,213,192 // vpmullw %ymm0,%ymm8,%ymm0
- .byte 196,98,125,121,13,23,96,0,0 // vpbroadcastw 0x6017(%rip),%ymm9 # 32982 <_sk_srcover_rgba_8888_sse2_lowp+0x842>
+ .byte 196,98,125,121,13,27,96,0,0 // vpbroadcastw 0x601b(%rip),%ymm9 # 329a2 <_sk_srcover_rgba_8888_sse2_lowp+0x846>
.byte 196,193,125,253,193 // vpaddw %ymm9,%ymm0,%ymm0
.byte 197,253,113,208,8 // vpsrlw $0x8,%ymm0,%ymm0
.byte 197,189,213,201 // vpmullw %ymm1,%ymm8,%ymm1
@@ -53420,7 +53432,7 @@ _sk_scale_u8_hsw_lowp:
.byte 255,26 // lcall *(%rdx)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,13,255,255,255,75 // decl 0x4bffffff(%rip) # 4c02c9b0 <_sk_srcover_rgba_8888_sse2_lowp+0x4bffa870>
+ .byte 255,13,255,255,255,75 // decl 0x4bffffff(%rip) # 4c02c9cc <_sk_srcover_rgba_8888_sse2_lowp+0x4bffa870>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,67,255 // incl -0x1(%rbx)
@@ -53459,38 +53471,38 @@ _sk_lerp_u8_hsw_lowp:
.byte 36,15 // and $0xf,%al
.byte 254,200 // dec %al
.byte 60,14 // cmp $0xe,%al
- .byte 119,38 // ja 2ca1d <_sk_lerp_u8_hsw_lowp+0x3d>
+ .byte 119,38 // ja 2ca39 <_sk_lerp_u8_hsw_lowp+0x3d>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,58,1,0,0 // lea 0x13a(%rip),%r9 # 2cb40 <_sk_lerp_u8_hsw_lowp+0x160>
+ .byte 76,141,13,58,1,0,0 // lea 0x13a(%rip),%r9 # 2cb5c <_sk_lerp_u8_hsw_lowp+0x160>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
.byte 197,121,110,192 // vmovd %eax,%xmm8
- .byte 233,179,0,0,0 // jmpq 2cad0 <_sk_lerp_u8_hsw_lowp+0xf0>
+ .byte 233,179,0,0,0 // jmpq 2caec <_sk_lerp_u8_hsw_lowp+0xf0>
.byte 196,65,122,111,4,16 // vmovdqu (%r8,%rdx,1),%xmm8
- .byte 233,168,0,0,0 // jmpq 2cad0 <_sk_lerp_u8_hsw_lowp+0xf0>
+ .byte 233,168,0,0,0 // jmpq 2caec <_sk_lerp_u8_hsw_lowp+0xf0>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,67,57,32,68,16,2,2 // vpinsrb $0x2,0x2(%r8,%rdx,1),%xmm8,%xmm8
.byte 65,15,183,4,16 // movzwl (%r8,%rdx,1),%eax
.byte 197,121,110,200 // vmovd %eax,%xmm9
.byte 196,67,57,14,193,1 // vpblendw $0x1,%xmm9,%xmm8,%xmm8
- .byte 233,135,0,0,0 // jmpq 2cad0 <_sk_lerp_u8_hsw_lowp+0xf0>
+ .byte 233,135,0,0,0 // jmpq 2caec <_sk_lerp_u8_hsw_lowp+0xf0>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,67,57,32,68,16,6,6 // vpinsrb $0x6,0x6(%r8,%rdx,1),%xmm8,%xmm8
.byte 196,67,57,32,68,16,5,5 // vpinsrb $0x5,0x5(%r8,%rdx,1),%xmm8,%xmm8
.byte 196,67,57,32,68,16,4,4 // vpinsrb $0x4,0x4(%r8,%rdx,1),%xmm8,%xmm8
.byte 196,65,121,110,12,16 // vmovd (%r8,%rdx,1),%xmm9
.byte 196,67,57,2,193,1 // vpblendd $0x1,%xmm9,%xmm8,%xmm8
- .byte 235,92 // jmp 2cad0 <_sk_lerp_u8_hsw_lowp+0xf0>
+ .byte 235,92 // jmp 2caec <_sk_lerp_u8_hsw_lowp+0xf0>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,67,57,32,68,16,10,10 // vpinsrb $0xa,0xa(%r8,%rdx,1),%xmm8,%xmm8
.byte 196,67,57,32,68,16,9,9 // vpinsrb $0x9,0x9(%r8,%rdx,1),%xmm8,%xmm8
.byte 196,67,57,32,68,16,8,8 // vpinsrb $0x8,0x8(%r8,%rdx,1),%xmm8,%xmm8
.byte 196,65,122,126,12,16 // vmovq (%r8,%rdx,1),%xmm9
.byte 196,67,49,2,192,12 // vpblendd $0xc,%xmm8,%xmm9,%xmm8
- .byte 235,49 // jmp 2cad0 <_sk_lerp_u8_hsw_lowp+0xf0>
+ .byte 235,49 // jmp 2caec <_sk_lerp_u8_hsw_lowp+0xf0>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,67,57,32,68,16,14,14 // vpinsrb $0xe,0xe(%r8,%rdx,1),%xmm8,%xmm8
.byte 196,67,57,32,68,16,13,13 // vpinsrb $0xd,0xd(%r8,%rdx,1),%xmm8,%xmm8
@@ -53499,7 +53511,7 @@ _sk_lerp_u8_hsw_lowp:
.byte 196,67,49,34,76,16,8,2 // vpinsrd $0x2,0x8(%r8,%rdx,1),%xmm9,%xmm9
.byte 196,67,49,2,192,8 // vpblendd $0x8,%xmm8,%xmm9,%xmm8
.byte 196,66,125,48,192 // vpmovzxbw %xmm8,%ymm8
- .byte 196,98,125,121,13,166,94,0,0 // vpbroadcastw 0x5ea6(%rip),%ymm9 # 32984 <_sk_srcover_rgba_8888_sse2_lowp+0x844>
+ .byte 196,98,125,121,13,170,94,0,0 // vpbroadcastw 0x5eaa(%rip),%ymm9 # 329a4 <_sk_srcover_rgba_8888_sse2_lowp+0x848>
.byte 196,65,61,239,209 // vpxor %ymm9,%ymm8,%ymm10
.byte 197,45,213,220 // vpmullw %ymm4,%ymm10,%ymm11
.byte 197,189,213,192 // vpmullw %ymm0,%ymm8,%ymm0
@@ -53531,7 +53543,7 @@ _sk_lerp_u8_hsw_lowp:
.byte 254 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 232,254,255,255,38 // callq 2702cb4b <_sk_srcover_rgba_8888_sse2_lowp+0x26ffaa0b>
+ .byte 232,254,255,255,38 // callq 2702cb67 <_sk_srcover_rgba_8888_sse2_lowp+0x26ffaa0b>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,30 // lcall *(%rsi)
@@ -53552,7 +53564,7 @@ _sk_lerp_u8_hsw_lowp:
.byte 255,52,255 // pushq (%rdi,%rdi,8)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 124,255 // jl 2cb6d <_sk_lerp_u8_hsw_lowp+0x18d>
+ .byte 124,255 // jl 2cb89 <_sk_lerp_u8_hsw_lowp+0x18d>
.byte 255 // (bad)
.byte 255,116,255,255 // pushq -0x1(%rdi,%rdi,8)
.byte 255,108,255,255 // ljmp *-0x1(%rdi,%rdi,8)
@@ -53573,24 +53585,24 @@ _sk_scale_565_hsw_lowp:
.byte 36,15 // and $0xf,%al
.byte 254,200 // dec %al
.byte 60,14 // cmp $0xe,%al
- .byte 119,38 // ja 2cbbc <_sk_scale_565_hsw_lowp+0x40>
+ .byte 119,38 // ja 2cbd8 <_sk_scale_565_hsw_lowp+0x40>
.byte 196,65,61,239,192 // vpxor %ymm8,%ymm8,%ymm8
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,255,1,0,0 // lea 0x1ff(%rip),%r9 # 2cda4 <_sk_scale_565_hsw_lowp+0x228>
+ .byte 76,141,13,255,1,0,0 // lea 0x1ff(%rip),%r9 # 2cdc0 <_sk_scale_565_hsw_lowp+0x228>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,183,4,80 // movzwl (%r8,%rdx,2),%eax
.byte 197,121,110,192 // vmovd %eax,%xmm8
- .byte 233,12,1,0,0 // jmpq 2ccc8 <_sk_scale_565_hsw_lowp+0x14c>
+ .byte 233,12,1,0,0 // jmpq 2cce4 <_sk_scale_565_hsw_lowp+0x14c>
.byte 196,65,126,111,4,80 // vmovdqu (%r8,%rdx,2),%ymm8
- .byte 233,1,1,0,0 // jmpq 2ccc8 <_sk_scale_565_hsw_lowp+0x14c>
+ .byte 233,1,1,0,0 // jmpq 2cce4 <_sk_scale_565_hsw_lowp+0x14c>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,65,57,196,76,80,4,2 // vpinsrw $0x2,0x4(%r8,%rdx,2),%xmm8,%xmm9
.byte 196,67,53,56,192,1 // vinserti128 $0x1,%xmm8,%ymm9,%ymm8
.byte 196,65,121,110,12,80 // vmovd (%r8,%rdx,2),%xmm9
.byte 196,67,61,2,193,1 // vpblendd $0x1,%ymm9,%ymm8,%ymm8
- .byte 233,221,0,0,0 // jmpq 2ccc8 <_sk_scale_565_hsw_lowp+0x14c>
+ .byte 233,221,0,0,0 // jmpq 2cce4 <_sk_scale_565_hsw_lowp+0x14c>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,65,57,196,76,80,12,6 // vpinsrw $0x6,0xc(%r8,%rdx,2),%xmm8,%xmm9
.byte 196,67,53,56,192,1 // vinserti128 $0x1,%xmm8,%ymm9,%ymm8
@@ -53600,7 +53612,7 @@ _sk_scale_565_hsw_lowp:
.byte 196,67,61,2,193,15 // vpblendd $0xf,%ymm9,%ymm8,%ymm8
.byte 196,65,122,126,12,80 // vmovq (%r8,%rdx,2),%xmm9
.byte 196,67,61,2,193,3 // vpblendd $0x3,%ymm9,%ymm8,%ymm8
- .byte 233,157,0,0,0 // jmpq 2ccc8 <_sk_scale_565_hsw_lowp+0x14c>
+ .byte 233,157,0,0,0 // jmpq 2cce4 <_sk_scale_565_hsw_lowp+0x14c>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,65,57,196,76,80,20,2 // vpinsrw $0x2,0x14(%r8,%rdx,2),%xmm8,%xmm9
.byte 196,67,61,56,193,1 // vinserti128 $0x1,%xmm9,%ymm8,%ymm8
@@ -53612,7 +53624,7 @@ _sk_scale_565_hsw_lowp:
.byte 196,67,61,56,193,1 // vinserti128 $0x1,%xmm9,%ymm8,%ymm8
.byte 196,65,122,111,12,80 // vmovdqu (%r8,%rdx,2),%xmm9
.byte 196,67,53,2,192,240 // vpblendd $0xf0,%ymm8,%ymm9,%ymm8
- .byte 235,84 // jmp 2ccc8 <_sk_scale_565_hsw_lowp+0x14c>
+ .byte 235,84 // jmp 2cce4 <_sk_scale_565_hsw_lowp+0x14c>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,65,57,196,76,80,28,6 // vpinsrw $0x6,0x1c(%r8,%rdx,2),%xmm8,%xmm9
.byte 196,67,61,56,193,1 // vinserti128 $0x1,%xmm9,%ymm8,%ymm8
@@ -53626,13 +53638,13 @@ _sk_scale_565_hsw_lowp:
.byte 196,65,122,111,20,80 // vmovdqu (%r8,%rdx,2),%xmm10
.byte 196,67,45,56,201,1 // vinserti128 $0x1,%xmm9,%ymm10,%ymm9
.byte 196,67,53,2,192,192 // vpblendd $0xc0,%ymm8,%ymm9,%ymm8
- .byte 196,98,125,121,13,181,92,0,0 // vpbroadcastw 0x5cb5(%rip),%ymm9 # 32986 <_sk_srcover_rgba_8888_sse2_lowp+0x846>
+ .byte 196,98,125,121,13,185,92,0,0 // vpbroadcastw 0x5cb9(%rip),%ymm9 # 329a6 <_sk_srcover_rgba_8888_sse2_lowp+0x84a>
.byte 196,193,45,113,208,8 // vpsrlw $0x8,%ymm8,%ymm10
.byte 196,65,45,219,201 // vpand %ymm9,%ymm10,%ymm9
.byte 196,193,45,113,208,5 // vpsrlw $0x5,%ymm8,%ymm10
- .byte 196,98,125,121,29,157,92,0,0 // vpbroadcastw 0x5c9d(%rip),%ymm11 # 32988 <_sk_srcover_rgba_8888_sse2_lowp+0x848>
+ .byte 196,98,125,121,29,161,92,0,0 // vpbroadcastw 0x5ca1(%rip),%ymm11 # 329a8 <_sk_srcover_rgba_8888_sse2_lowp+0x84c>
.byte 196,65,45,219,211 // vpand %ymm11,%ymm10,%ymm10
- .byte 196,98,125,121,29,145,92,0,0 // vpbroadcastw 0x5c91(%rip),%ymm11 # 3298a <_sk_srcover_rgba_8888_sse2_lowp+0x84a>
+ .byte 196,98,125,121,29,149,92,0,0 // vpbroadcastw 0x5c95(%rip),%ymm11 # 329aa <_sk_srcover_rgba_8888_sse2_lowp+0x84e>
.byte 196,65,61,219,219 // vpand %ymm11,%ymm8,%ymm11
.byte 196,193,61,113,208,13 // vpsrlw $0xd,%ymm8,%ymm8
.byte 196,65,53,235,192 // vpor %ymm8,%ymm9,%ymm8
@@ -53642,7 +53654,7 @@ _sk_scale_565_hsw_lowp:
.byte 196,193,45,113,243,3 // vpsllw $0x3,%ymm11,%ymm10
.byte 196,193,37,113,211,2 // vpsrlw $0x2,%ymm11,%ymm11
.byte 196,65,45,235,211 // vpor %ymm11,%ymm10,%ymm10
- .byte 196,98,125,121,29,88,92,0,0 // vpbroadcastw 0x5c58(%rip),%ymm11 # 3298c <_sk_srcover_rgba_8888_sse2_lowp+0x84c>
+ .byte 196,98,125,121,29,92,92,0,0 // vpbroadcastw 0x5c5c(%rip),%ymm11 # 329ac <_sk_srcover_rgba_8888_sse2_lowp+0x850>
.byte 196,65,101,239,227 // vpxor %ymm11,%ymm3,%ymm12
.byte 196,65,69,239,219 // vpxor %ymm11,%ymm7,%ymm11
.byte 196,65,37,101,220 // vpcmpgtw %ymm12,%ymm11,%ymm11
@@ -53652,7 +53664,7 @@ _sk_scale_565_hsw_lowp:
.byte 196,66,21,62,232 // vpmaxuw %ymm8,%ymm13,%ymm13
.byte 196,67,21,76,220,176 // vpblendvb %ymm11,%ymm12,%ymm13,%ymm11
.byte 197,189,213,192 // vpmullw %ymm0,%ymm8,%ymm0
- .byte 196,98,125,121,5,36,92,0,0 // vpbroadcastw 0x5c24(%rip),%ymm8 # 3298e <_sk_srcover_rgba_8888_sse2_lowp+0x84e>
+ .byte 196,98,125,121,5,40,92,0,0 // vpbroadcastw 0x5c28(%rip),%ymm8 # 329ae <_sk_srcover_rgba_8888_sse2_lowp+0x852>
.byte 196,193,125,253,192 // vpaddw %ymm8,%ymm0,%ymm0
.byte 197,253,113,208,8 // vpsrlw $0x8,%ymm0,%ymm0
.byte 197,181,213,201 // vpmullw %ymm1,%ymm9,%ymm1
@@ -53716,24 +53728,24 @@ _sk_lerp_565_hsw_lowp:
.byte 36,15 // and $0xf,%al
.byte 254,200 // dec %al
.byte 60,14 // cmp $0xe,%al
- .byte 119,38 // ja 2ce20 <_sk_lerp_565_hsw_lowp+0x40>
+ .byte 119,38 // ja 2ce3c <_sk_lerp_565_hsw_lowp+0x40>
.byte 196,65,61,239,192 // vpxor %ymm8,%ymm8,%ymm8
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,51,2,0,0 // lea 0x233(%rip),%r9 # 2d03c <_sk_lerp_565_hsw_lowp+0x25c>
+ .byte 76,141,13,51,2,0,0 // lea 0x233(%rip),%r9 # 2d058 <_sk_lerp_565_hsw_lowp+0x25c>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,183,4,80 // movzwl (%r8,%rdx,2),%eax
.byte 197,121,110,192 // vmovd %eax,%xmm8
- .byte 233,12,1,0,0 // jmpq 2cf2c <_sk_lerp_565_hsw_lowp+0x14c>
+ .byte 233,12,1,0,0 // jmpq 2cf48 <_sk_lerp_565_hsw_lowp+0x14c>
.byte 196,65,126,111,4,80 // vmovdqu (%r8,%rdx,2),%ymm8
- .byte 233,1,1,0,0 // jmpq 2cf2c <_sk_lerp_565_hsw_lowp+0x14c>
+ .byte 233,1,1,0,0 // jmpq 2cf48 <_sk_lerp_565_hsw_lowp+0x14c>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,65,57,196,76,80,4,2 // vpinsrw $0x2,0x4(%r8,%rdx,2),%xmm8,%xmm9
.byte 196,67,53,56,192,1 // vinserti128 $0x1,%xmm8,%ymm9,%ymm8
.byte 196,65,121,110,12,80 // vmovd (%r8,%rdx,2),%xmm9
.byte 196,67,61,2,193,1 // vpblendd $0x1,%ymm9,%ymm8,%ymm8
- .byte 233,221,0,0,0 // jmpq 2cf2c <_sk_lerp_565_hsw_lowp+0x14c>
+ .byte 233,221,0,0,0 // jmpq 2cf48 <_sk_lerp_565_hsw_lowp+0x14c>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,65,57,196,76,80,12,6 // vpinsrw $0x6,0xc(%r8,%rdx,2),%xmm8,%xmm9
.byte 196,67,53,56,192,1 // vinserti128 $0x1,%xmm8,%ymm9,%ymm8
@@ -53743,7 +53755,7 @@ _sk_lerp_565_hsw_lowp:
.byte 196,67,61,2,193,15 // vpblendd $0xf,%ymm9,%ymm8,%ymm8
.byte 196,65,122,126,12,80 // vmovq (%r8,%rdx,2),%xmm9
.byte 196,67,61,2,193,3 // vpblendd $0x3,%ymm9,%ymm8,%ymm8
- .byte 233,157,0,0,0 // jmpq 2cf2c <_sk_lerp_565_hsw_lowp+0x14c>
+ .byte 233,157,0,0,0 // jmpq 2cf48 <_sk_lerp_565_hsw_lowp+0x14c>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,65,57,196,76,80,20,2 // vpinsrw $0x2,0x14(%r8,%rdx,2),%xmm8,%xmm9
.byte 196,67,61,56,193,1 // vinserti128 $0x1,%xmm9,%ymm8,%ymm8
@@ -53755,7 +53767,7 @@ _sk_lerp_565_hsw_lowp:
.byte 196,67,61,56,193,1 // vinserti128 $0x1,%xmm9,%ymm8,%ymm8
.byte 196,65,122,111,12,80 // vmovdqu (%r8,%rdx,2),%xmm9
.byte 196,67,53,2,192,240 // vpblendd $0xf0,%ymm8,%ymm9,%ymm8
- .byte 235,84 // jmp 2cf2c <_sk_lerp_565_hsw_lowp+0x14c>
+ .byte 235,84 // jmp 2cf48 <_sk_lerp_565_hsw_lowp+0x14c>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,65,57,196,76,80,28,6 // vpinsrw $0x6,0x1c(%r8,%rdx,2),%xmm8,%xmm9
.byte 196,67,61,56,193,1 // vinserti128 $0x1,%xmm9,%ymm8,%ymm8
@@ -53769,13 +53781,13 @@ _sk_lerp_565_hsw_lowp:
.byte 196,65,122,111,20,80 // vmovdqu (%r8,%rdx,2),%xmm10
.byte 196,67,45,56,201,1 // vinserti128 $0x1,%xmm9,%ymm10,%ymm9
.byte 196,67,53,2,192,192 // vpblendd $0xc0,%ymm8,%ymm9,%ymm8
- .byte 196,98,125,121,13,91,90,0,0 // vpbroadcastw 0x5a5b(%rip),%ymm9 # 32990 <_sk_srcover_rgba_8888_sse2_lowp+0x850>
+ .byte 196,98,125,121,13,95,90,0,0 // vpbroadcastw 0x5a5f(%rip),%ymm9 # 329b0 <_sk_srcover_rgba_8888_sse2_lowp+0x854>
.byte 196,193,45,113,208,8 // vpsrlw $0x8,%ymm8,%ymm10
.byte 196,65,45,219,201 // vpand %ymm9,%ymm10,%ymm9
.byte 196,193,45,113,208,5 // vpsrlw $0x5,%ymm8,%ymm10
- .byte 196,98,125,121,29,67,90,0,0 // vpbroadcastw 0x5a43(%rip),%ymm11 # 32992 <_sk_srcover_rgba_8888_sse2_lowp+0x852>
+ .byte 196,98,125,121,29,71,90,0,0 // vpbroadcastw 0x5a47(%rip),%ymm11 # 329b2 <_sk_srcover_rgba_8888_sse2_lowp+0x856>
.byte 196,65,45,219,211 // vpand %ymm11,%ymm10,%ymm10
- .byte 196,98,125,121,29,55,90,0,0 // vpbroadcastw 0x5a37(%rip),%ymm11 # 32994 <_sk_srcover_rgba_8888_sse2_lowp+0x854>
+ .byte 196,98,125,121,29,59,90,0,0 // vpbroadcastw 0x5a3b(%rip),%ymm11 # 329b4 <_sk_srcover_rgba_8888_sse2_lowp+0x858>
.byte 196,65,61,219,219 // vpand %ymm11,%ymm8,%ymm11
.byte 196,193,61,113,208,13 // vpsrlw $0xd,%ymm8,%ymm8
.byte 196,65,53,235,192 // vpor %ymm8,%ymm9,%ymm8
@@ -53785,7 +53797,7 @@ _sk_lerp_565_hsw_lowp:
.byte 196,193,45,113,243,3 // vpsllw $0x3,%ymm11,%ymm10
.byte 196,193,37,113,211,2 // vpsrlw $0x2,%ymm11,%ymm11
.byte 196,65,45,235,211 // vpor %ymm11,%ymm10,%ymm10
- .byte 196,98,125,121,29,254,89,0,0 // vpbroadcastw 0x59fe(%rip),%ymm11 # 32996 <_sk_srcover_rgba_8888_sse2_lowp+0x856>
+ .byte 196,98,125,121,29,2,90,0,0 // vpbroadcastw 0x5a02(%rip),%ymm11 # 329b6 <_sk_srcover_rgba_8888_sse2_lowp+0x85a>
.byte 196,65,101,239,227 // vpxor %ymm11,%ymm3,%ymm12
.byte 196,65,69,239,219 // vpxor %ymm11,%ymm7,%ymm11
.byte 196,65,37,101,220 // vpcmpgtw %ymm12,%ymm11,%ymm11
@@ -53794,7 +53806,7 @@ _sk_lerp_565_hsw_lowp:
.byte 196,66,53,62,234 // vpmaxuw %ymm10,%ymm9,%ymm13
.byte 196,66,21,62,232 // vpmaxuw %ymm8,%ymm13,%ymm13
.byte 196,67,21,76,220,176 // vpblendvb %ymm11,%ymm12,%ymm13,%ymm11
- .byte 196,98,125,121,37,206,89,0,0 // vpbroadcastw 0x59ce(%rip),%ymm12 # 32998 <_sk_srcover_rgba_8888_sse2_lowp+0x858>
+ .byte 196,98,125,121,37,210,89,0,0 // vpbroadcastw 0x59d2(%rip),%ymm12 # 329b8 <_sk_srcover_rgba_8888_sse2_lowp+0x85c>
.byte 196,65,61,239,236 // vpxor %ymm12,%ymm8,%ymm13
.byte 197,21,213,236 // vpmullw %ymm4,%ymm13,%ymm13
.byte 197,189,213,192 // vpmullw %ymm0,%ymm8,%ymm0
@@ -53875,9 +53887,9 @@ _sk_srcover_rgba_8888_hsw_lowp:
.byte 65,254,202 // dec %r10b
.byte 69,15,182,194 // movzbl %r10b,%r8d
.byte 65,128,248,14 // cmp $0xe,%r8b
- .byte 119,51 // ja 2d0d4 <_sk_srcover_rgba_8888_hsw_lowp+0x5c>
+ .byte 119,51 // ja 2d0f0 <_sk_srcover_rgba_8888_hsw_lowp+0x5c>
.byte 197,221,239,228 // vpxor %ymm4,%ymm4,%ymm4
- .byte 76,141,29,236,2,0,0 // lea 0x2ec(%rip),%r11 # 2d398 <_sk_srcover_rgba_8888_hsw_lowp+0x320>
+ .byte 76,141,29,236,2,0,0 // lea 0x2ec(%rip),%r11 # 2d3b4 <_sk_srcover_rgba_8888_hsw_lowp+0x320>
.byte 75,99,4,131 // movslq (%r11,%r8,4),%rax
.byte 76,1,216 // add %r11,%rax
.byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
@@ -53887,10 +53899,10 @@ _sk_srcover_rgba_8888_hsw_lowp:
.byte 255,224 // jmpq *%rax
.byte 196,193,121,110,41 // vmovd (%r9),%xmm5
.byte 197,221,239,228 // vpxor %ymm4,%ymm4,%ymm4
- .byte 233,22,1,0,0 // jmpq 2d1ea <_sk_srcover_rgba_8888_hsw_lowp+0x172>
+ .byte 233,22,1,0,0 // jmpq 2d206 <_sk_srcover_rgba_8888_hsw_lowp+0x172>
.byte 196,193,126,111,41 // vmovdqu (%r9),%ymm5
.byte 196,193,126,111,97,32 // vmovdqu 0x20(%r9),%ymm4
- .byte 233,6,1,0,0 // jmpq 2d1ea <_sk_srcover_rgba_8888_hsw_lowp+0x172>
+ .byte 233,6,1,0,0 // jmpq 2d206 <_sk_srcover_rgba_8888_hsw_lowp+0x172>
.byte 196,193,121,110,97,8 // vmovd 0x8(%r9),%xmm4
.byte 196,226,121,89,228 // vpbroadcastq %xmm4,%xmm4
.byte 197,197,239,255 // vpxor %ymm7,%ymm7,%ymm7
@@ -53899,7 +53911,7 @@ _sk_srcover_rgba_8888_hsw_lowp:
.byte 197,249,112,237,232 // vpshufd $0xe8,%xmm5,%xmm5
.byte 196,227,93,2,237,3 // vpblendd $0x3,%ymm5,%ymm4,%ymm5
.byte 197,253,111,231 // vmovdqa %ymm7,%ymm4
- .byte 233,216,0,0,0 // jmpq 2d1ea <_sk_srcover_rgba_8888_hsw_lowp+0x172>
+ .byte 233,216,0,0,0 // jmpq 2d206 <_sk_srcover_rgba_8888_hsw_lowp+0x172>
.byte 196,193,121,110,97,24 // vmovd 0x18(%r9),%xmm4
.byte 196,226,125,89,228 // vpbroadcastq %xmm4,%ymm4
.byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
@@ -53915,7 +53927,7 @@ _sk_srcover_rgba_8888_hsw_lowp:
.byte 196,193,122,111,41 // vmovdqu (%r9),%xmm5
.byte 196,227,85,2,236,240 // vpblendd $0xf0,%ymm4,%ymm5,%ymm5
.byte 197,125,127,196 // vmovdqa %ymm8,%ymm4
- .byte 233,129,0,0,0 // jmpq 2d1ea <_sk_srcover_rgba_8888_hsw_lowp+0x172>
+ .byte 233,129,0,0,0 // jmpq 2d206 <_sk_srcover_rgba_8888_hsw_lowp+0x172>
.byte 196,193,121,110,97,40 // vmovd 0x28(%r9),%xmm4
.byte 196,226,121,89,228 // vpbroadcastq %xmm4,%xmm4
.byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
@@ -53925,7 +53937,7 @@ _sk_srcover_rgba_8888_hsw_lowp:
.byte 196,193,121,110,105,32 // vmovd 0x20(%r9),%xmm5
.byte 196,227,93,2,229,1 // vpblendd $0x1,%ymm5,%ymm4,%ymm4
.byte 196,193,126,111,41 // vmovdqu (%r9),%ymm5
- .byte 235,76 // jmp 2d1ea <_sk_srcover_rgba_8888_hsw_lowp+0x172>
+ .byte 235,76 // jmp 2d206 <_sk_srcover_rgba_8888_hsw_lowp+0x172>
.byte 196,193,121,110,97,56 // vmovd 0x38(%r9),%xmm4
.byte 196,226,125,89,228 // vpbroadcastq %xmm4,%ymm4
.byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
@@ -53945,9 +53957,9 @@ _sk_srcover_rgba_8888_hsw_lowp:
.byte 196,227,69,14,236,170 // vpblendw $0xaa,%ymm4,%ymm7,%ymm5
.byte 196,227,77,14,228,170 // vpblendw $0xaa,%ymm4,%ymm6,%ymm4
.byte 196,226,93,43,237 // vpackusdw %ymm5,%ymm4,%ymm5
- .byte 197,125,111,5,141,87,0,0 // vmovdqa 0x578d(%rip),%ymm8 # 329a0 <_sk_srcover_rgba_8888_sse2_lowp+0x860>
+ .byte 197,125,111,5,145,87,0,0 // vmovdqa 0x5791(%rip),%ymm8 # 329c0 <_sk_srcover_rgba_8888_sse2_lowp+0x864>
.byte 196,193,85,219,224 // vpand %ymm8,%ymm5,%ymm4
- .byte 196,98,125,121,13,159,87,0,0 // vpbroadcastw 0x579f(%rip),%ymm9 # 329c0 <_sk_srcover_rgba_8888_sse2_lowp+0x880>
+ .byte 196,98,125,121,13,163,87,0,0 // vpbroadcastw 0x57a3(%rip),%ymm9 # 329e0 <_sk_srcover_rgba_8888_sse2_lowp+0x884>
.byte 197,213,113,213,8 // vpsrlw $0x8,%ymm5,%ymm5
.byte 197,197,114,215,16 // vpsrld $0x10,%ymm7,%ymm7
.byte 197,205,114,214,16 // vpsrld $0x10,%ymm6,%ymm6
@@ -53986,19 +53998,19 @@ _sk_srcover_rgba_8888_hsw_lowp:
.byte 196,193,53,114,243,16 // vpslld $0x10,%ymm11,%ymm9
.byte 196,65,53,235,202 // vpor %ymm10,%ymm9,%ymm9
.byte 65,128,250,14 // cmp $0xe,%r10b
- .byte 119,26 // ja 2d2fb <_sk_srcover_rgba_8888_hsw_lowp+0x283>
- .byte 76,141,21,236,0,0,0 // lea 0xec(%rip),%r10 # 2d3d4 <_sk_srcover_rgba_8888_hsw_lowp+0x35c>
+ .byte 119,26 // ja 2d317 <_sk_srcover_rgba_8888_hsw_lowp+0x283>
+ .byte 76,141,21,236,0,0,0 // lea 0xec(%rip),%r10 # 2d3f0 <_sk_srcover_rgba_8888_hsw_lowp+0x35c>
.byte 75,99,4,130 // movslq (%r10,%r8,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 196,65,121,126,1 // vmovd %xmm8,(%r9)
- .byte 233,151,0,0,0 // jmpq 2d392 <_sk_srcover_rgba_8888_hsw_lowp+0x31a>
+ .byte 233,151,0,0,0 // jmpq 2d3ae <_sk_srcover_rgba_8888_hsw_lowp+0x31a>
.byte 196,65,126,127,1 // vmovdqu %ymm8,(%r9)
.byte 196,65,126,127,73,32 // vmovdqu %ymm9,0x20(%r9)
- .byte 233,135,0,0,0 // jmpq 2d392 <_sk_srcover_rgba_8888_hsw_lowp+0x31a>
+ .byte 233,135,0,0,0 // jmpq 2d3ae <_sk_srcover_rgba_8888_hsw_lowp+0x31a>
.byte 196,67,121,22,65,8,2 // vpextrd $0x2,%xmm8,0x8(%r9)
.byte 196,65,121,214,1 // vmovq %xmm8,(%r9)
- .byte 235,121 // jmp 2d392 <_sk_srcover_rgba_8888_hsw_lowp+0x31a>
+ .byte 235,121 // jmp 2d3ae <_sk_srcover_rgba_8888_hsw_lowp+0x31a>
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,67,121,22,73,24,2 // vpextrd $0x2,%xmm9,0x18(%r9)
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
@@ -54006,12 +54018,12 @@ _sk_srcover_rgba_8888_hsw_lowp:
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,65,121,126,73,16 // vmovd %xmm9,0x10(%r9)
.byte 196,65,122,127,1 // vmovdqu %xmm8,(%r9)
- .byte 235,76 // jmp 2d392 <_sk_srcover_rgba_8888_hsw_lowp+0x31a>
+ .byte 235,76 // jmp 2d3ae <_sk_srcover_rgba_8888_hsw_lowp+0x31a>
.byte 196,67,121,22,73,40,2 // vpextrd $0x2,%xmm9,0x28(%r9)
.byte 196,67,121,22,73,36,1 // vpextrd $0x1,%xmm9,0x24(%r9)
.byte 196,65,121,126,73,32 // vmovd %xmm9,0x20(%r9)
.byte 196,65,126,127,1 // vmovdqu %ymm8,(%r9)
- .byte 235,49 // jmp 2d392 <_sk_srcover_rgba_8888_hsw_lowp+0x31a>
+ .byte 235,49 // jmp 2d3ae <_sk_srcover_rgba_8888_hsw_lowp+0x31a>
.byte 196,67,125,57,202,1 // vextracti128 $0x1,%ymm9,%xmm10
.byte 196,67,121,22,81,56,2 // vpextrd $0x2,%xmm10,0x38(%r9)
.byte 196,67,125,57,202,1 // vextracti128 $0x1,%ymm9,%xmm10
@@ -54059,7 +54071,7 @@ _sk_srcover_rgba_8888_hsw_lowp:
.byte 255,6 // incl (%rsi)
.byte 254 // (bad)
.byte 255 // (bad)
- .byte 255,29,255,255,255,62 // lcall *0x3effffff(%rip) # 3f02d3d8 <_sk_srcover_rgba_8888_sse2_lowp+0x3effb298>
+ .byte 255,29,255,255,255,62 // lcall *0x3effffff(%rip) # 3f02d3f4 <_sk_srcover_rgba_8888_sse2_lowp+0x3effb298>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,55 // pushq (%rdi)
@@ -54077,7 +54089,7 @@ _sk_srcover_rgba_8888_hsw_lowp:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 121,255 // jns 2d3f9 <_sk_srcover_rgba_8888_hsw_lowp+0x381>
+ .byte 121,255 // jns 2d415 <_sk_srcover_rgba_8888_hsw_lowp+0x381>
.byte 255 // (bad)
.byte 255,114,255 // pushq -0x1(%rdx)
.byte 255 // (bad)
@@ -54110,13 +54122,13 @@ _sk_start_pipeline_sse41_lowp:
.byte 73,137,246 // mov %rsi,%r14
.byte 72,137,77,192 // mov %rcx,-0x40(%rbp)
.byte 72,57,203 // cmp %rcx,%rbx
- .byte 15,131,131,0,0,0 // jae 2d4c6 <_sk_start_pipeline_sse41_lowp+0xb6>
+ .byte 15,131,131,0,0,0 // jae 2d4e2 <_sk_start_pipeline_sse41_lowp+0xb6>
.byte 72,139,69,208 // mov -0x30(%rbp),%rax
.byte 72,141,64,8 // lea 0x8(%rax),%rax
.byte 72,137,69,200 // mov %rax,-0x38(%rbp)
.byte 76,57,125,200 // cmp %r15,-0x38(%rbp)
.byte 72,139,85,208 // mov -0x30(%rbp),%rdx
- .byte 119,59 // ja 2d494 <_sk_start_pipeline_sse41_lowp+0x84>
+ .byte 119,59 // ja 2d4b0 <_sk_start_pipeline_sse41_lowp+0x84>
.byte 76,139,101,208 // mov -0x30(%rbp),%r12
.byte 49,255 // xor %edi,%edi
.byte 15,87,192 // xorps %xmm0,%xmm0
@@ -54135,10 +54147,10 @@ _sk_start_pipeline_sse41_lowp:
.byte 73,131,196,16 // add $0x10,%r12
.byte 77,57,252 // cmp %r15,%r12
.byte 73,137,212 // mov %rdx,%r12
- .byte 118,201 // jbe 2d45d <_sk_start_pipeline_sse41_lowp+0x4d>
+ .byte 118,201 // jbe 2d479 <_sk_start_pipeline_sse41_lowp+0x4d>
.byte 76,137,255 // mov %r15,%rdi
.byte 72,41,215 // sub %rdx,%rdi
- .byte 116,33 // je 2d4bd <_sk_start_pipeline_sse41_lowp+0xad>
+ .byte 116,33 // je 2d4d9 <_sk_start_pipeline_sse41_lowp+0xad>
.byte 15,87,192 // xorps %xmm0,%xmm0
.byte 15,87,201 // xorps %xmm1,%xmm1
.byte 15,87,210 // xorps %xmm2,%xmm2
@@ -54152,7 +54164,7 @@ _sk_start_pipeline_sse41_lowp:
.byte 65,255,213 // callq *%r13
.byte 72,255,195 // inc %rbx
.byte 72,59,93,192 // cmp -0x40(%rbp),%rbx
- .byte 117,137 // jne 2d44f <_sk_start_pipeline_sse41_lowp+0x3f>
+ .byte 117,137 // jne 2d46b <_sk_start_pipeline_sse41_lowp+0x3f>
.byte 72,131,196,24 // add $0x18,%rsp
.byte 91 // pop %rbx
.byte 65,92 // pop %r12
@@ -54195,7 +54207,7 @@ HIDDEN _sk_black_color_sse41_lowp
FUNCTION(_sk_black_color_sse41_lowp)
_sk_black_color_sse41_lowp:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,55,86,0,0 // movaps 0x5637(%rip),%xmm3 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xa20>
+ .byte 15,40,29,75,86,0,0 // movaps 0x564b(%rip),%xmm3 # 32b90 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
.byte 15,87,192 // xorps %xmm0,%xmm0
.byte 15,87,201 // xorps %xmm1,%xmm1
.byte 15,87,210 // xorps %xmm2,%xmm2
@@ -54206,7 +54218,7 @@ HIDDEN _sk_white_color_sse41_lowp
FUNCTION(_sk_white_color_sse41_lowp)
_sk_white_color_sse41_lowp:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,5,35,86,0,0 // movaps 0x5623(%rip),%xmm0 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xa20>
+ .byte 15,40,5,55,86,0,0 // movaps 0x5637(%rip),%xmm0 # 32b90 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
.byte 15,40,200 // movaps %xmm0,%xmm1
.byte 15,40,208 // movaps %xmm0,%xmm2
.byte 15,40,216 // movaps %xmm0,%xmm3
@@ -54217,10 +54229,10 @@ HIDDEN _sk_set_rgb_sse41_lowp
FUNCTION(_sk_set_rgb_sse41_lowp)
_sk_set_rgb_sse41_lowp:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 243,15,16,21,162,84,0,0 // movss 0x54a2(%rip),%xmm2 # 329f4 <_sk_srcover_rgba_8888_sse2_lowp+0x8b4>
+ .byte 243,15,16,21,166,84,0,0 // movss 0x54a6(%rip),%xmm2 # 32a14 <_sk_srcover_rgba_8888_sse2_lowp+0x8b8>
.byte 243,15,16,0 // movss (%rax),%xmm0
.byte 243,15,89,194 // mulss %xmm2,%xmm0
- .byte 243,68,15,16,5,97,84,0,0 // movss 0x5461(%rip),%xmm8 # 329c4 <_sk_srcover_rgba_8888_sse2_lowp+0x884>
+ .byte 243,68,15,16,5,101,84,0,0 // movss 0x5465(%rip),%xmm8 # 329e4 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 243,65,15,88,192 // addss %xmm8,%xmm0
.byte 243,68,15,44,192 // cvttss2si %xmm0,%r8d
.byte 102,65,15,110,192 // movd %r8d,%xmm0
@@ -54247,7 +54259,7 @@ HIDDEN _sk_premul_sse41_lowp
FUNCTION(_sk_premul_sse41_lowp)
_sk_premul_sse41_lowp:
.byte 102,15,213,195 // pmullw %xmm3,%xmm0
- .byte 102,68,15,111,5,149,85,0,0 // movdqa 0x5595(%rip),%xmm8 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xa20>
+ .byte 102,68,15,111,5,169,85,0,0 // movdqa 0x55a9(%rip),%xmm8 # 32b90 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
.byte 102,65,15,253,192 // paddw %xmm8,%xmm0
.byte 102,15,113,208,8 // psrlw $0x8,%xmm0
.byte 102,15,213,203 // pmullw %xmm3,%xmm1
@@ -54295,7 +54307,7 @@ HIDDEN _sk_invert_sse41_lowp
.globl _sk_invert_sse41_lowp
FUNCTION(_sk_invert_sse41_lowp)
_sk_invert_sse41_lowp:
- .byte 102,68,15,111,5,51,85,0,0 // movdqa 0x5533(%rip),%xmm8 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xa20>
+ .byte 102,68,15,111,5,71,85,0,0 // movdqa 0x5547(%rip),%xmm8 # 32b90 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
.byte 102,69,15,111,200 // movdqa %xmm8,%xmm9
.byte 102,68,15,249,200 // psubw %xmm0,%xmm9
.byte 102,69,15,111,208 // movdqa %xmm8,%xmm10
@@ -54327,7 +54339,7 @@ FUNCTION(_sk_srcatop_sse41_lowp)
_sk_srcatop_sse41_lowp:
.byte 102,68,15,111,195 // movdqa %xmm3,%xmm8
.byte 102,15,213,199 // pmullw %xmm7,%xmm0
- .byte 102,15,111,29,215,84,0,0 // movdqa 0x54d7(%rip),%xmm3 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xa20>
+ .byte 102,15,111,29,235,84,0,0 // movdqa 0x54eb(%rip),%xmm3 # 32b90 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
.byte 102,68,15,111,203 // movdqa %xmm3,%xmm9
.byte 102,69,15,249,200 // psubw %xmm8,%xmm9
.byte 102,69,15,111,193 // movdqa %xmm9,%xmm8
@@ -54359,7 +54371,7 @@ FUNCTION(_sk_dstatop_sse41_lowp)
_sk_dstatop_sse41_lowp:
.byte 102,68,15,111,196 // movdqa %xmm4,%xmm8
.byte 102,68,15,213,195 // pmullw %xmm3,%xmm8
- .byte 102,68,15,111,13,87,84,0,0 // movdqa 0x5457(%rip),%xmm9 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xa20>
+ .byte 102,68,15,111,13,107,84,0,0 // movdqa 0x546b(%rip),%xmm9 # 32b90 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
.byte 102,69,15,253,193 // paddw %xmm9,%xmm8
.byte 102,68,15,111,213 // movdqa %xmm5,%xmm10
.byte 102,68,15,213,211 // pmullw %xmm3,%xmm10
@@ -54388,7 +54400,7 @@ HIDDEN _sk_srcin_sse41_lowp
FUNCTION(_sk_srcin_sse41_lowp)
_sk_srcin_sse41_lowp:
.byte 102,15,213,199 // pmullw %xmm7,%xmm0
- .byte 102,68,15,111,5,226,83,0,0 // movdqa 0x53e2(%rip),%xmm8 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xa20>
+ .byte 102,68,15,111,5,246,83,0,0 // movdqa 0x53f6(%rip),%xmm8 # 32b90 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
.byte 102,65,15,253,192 // paddw %xmm8,%xmm0
.byte 102,15,113,208,8 // psrlw $0x8,%xmm0
.byte 102,15,213,207 // pmullw %xmm7,%xmm1
@@ -54409,7 +54421,7 @@ FUNCTION(_sk_dstin_sse41_lowp)
_sk_dstin_sse41_lowp:
.byte 102,15,111,196 // movdqa %xmm4,%xmm0
.byte 102,15,213,195 // pmullw %xmm3,%xmm0
- .byte 102,68,15,111,5,153,83,0,0 // movdqa 0x5399(%rip),%xmm8 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xa20>
+ .byte 102,68,15,111,5,173,83,0,0 // movdqa 0x53ad(%rip),%xmm8 # 32b90 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
.byte 102,65,15,253,192 // paddw %xmm8,%xmm0
.byte 102,15,113,208,8 // psrlw $0x8,%xmm0
.byte 102,15,111,205 // movdqa %xmm5,%xmm1
@@ -54430,7 +54442,7 @@ HIDDEN _sk_srcout_sse41_lowp
.globl _sk_srcout_sse41_lowp
FUNCTION(_sk_srcout_sse41_lowp)
_sk_srcout_sse41_lowp:
- .byte 102,68,15,111,5,80,83,0,0 // movdqa 0x5350(%rip),%xmm8 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xa20>
+ .byte 102,68,15,111,5,100,83,0,0 // movdqa 0x5364(%rip),%xmm8 # 32b90 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
.byte 102,69,15,111,200 // movdqa %xmm8,%xmm9
.byte 102,68,15,249,207 // psubw %xmm7,%xmm9
.byte 102,65,15,213,193 // pmullw %xmm9,%xmm0
@@ -54453,7 +54465,7 @@ HIDDEN _sk_dstout_sse41_lowp
FUNCTION(_sk_dstout_sse41_lowp)
_sk_dstout_sse41_lowp:
.byte 102,15,111,195 // movdqa %xmm3,%xmm0
- .byte 102,68,15,111,5,249,82,0,0 // movdqa 0x52f9(%rip),%xmm8 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xa20>
+ .byte 102,68,15,111,5,13,83,0,0 // movdqa 0x530d(%rip),%xmm8 # 32b90 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
.byte 102,65,15,111,216 // movdqa %xmm8,%xmm3
.byte 102,15,249,216 // psubw %xmm0,%xmm3
.byte 102,15,111,195 // movdqa %xmm3,%xmm0
@@ -54478,7 +54490,7 @@ HIDDEN _sk_srcover_sse41_lowp
.globl _sk_srcover_sse41_lowp
FUNCTION(_sk_srcover_sse41_lowp)
_sk_srcover_sse41_lowp:
- .byte 102,68,15,111,13,159,82,0,0 // movdqa 0x529f(%rip),%xmm9 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xa20>
+ .byte 102,68,15,111,13,179,82,0,0 // movdqa 0x52b3(%rip),%xmm9 # 32b90 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
.byte 102,69,15,111,193 // movdqa %xmm9,%xmm8
.byte 102,68,15,249,195 // psubw %xmm3,%xmm8
.byte 102,69,15,111,208 // movdqa %xmm8,%xmm10
@@ -54507,7 +54519,7 @@ HIDDEN _sk_dstover_sse41_lowp
.globl _sk_dstover_sse41_lowp
FUNCTION(_sk_dstover_sse41_lowp)
_sk_dstover_sse41_lowp:
- .byte 102,68,15,111,5,37,82,0,0 // movdqa 0x5225(%rip),%xmm8 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xa20>
+ .byte 102,68,15,111,5,57,82,0,0 // movdqa 0x5239(%rip),%xmm8 # 32b90 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
.byte 102,69,15,111,200 // movdqa %xmm8,%xmm9
.byte 102,68,15,249,207 // psubw %xmm7,%xmm9
.byte 102,65,15,213,193 // pmullw %xmm9,%xmm0
@@ -54534,7 +54546,7 @@ HIDDEN _sk_modulate_sse41_lowp
FUNCTION(_sk_modulate_sse41_lowp)
_sk_modulate_sse41_lowp:
.byte 102,15,213,196 // pmullw %xmm4,%xmm0
- .byte 102,68,15,111,5,190,81,0,0 // movdqa 0x51be(%rip),%xmm8 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xa20>
+ .byte 102,68,15,111,5,210,81,0,0 // movdqa 0x51d2(%rip),%xmm8 # 32b90 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
.byte 102,65,15,253,192 // paddw %xmm8,%xmm0
.byte 102,15,113,208,8 // psrlw $0x8,%xmm0
.byte 102,15,213,205 // pmullw %xmm5,%xmm1
@@ -54553,7 +54565,7 @@ HIDDEN _sk_multiply_sse41_lowp
.globl _sk_multiply_sse41_lowp
FUNCTION(_sk_multiply_sse41_lowp)
_sk_multiply_sse41_lowp:
- .byte 102,68,15,111,13,125,81,0,0 // movdqa 0x517d(%rip),%xmm9 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xa20>
+ .byte 102,68,15,111,13,145,81,0,0 // movdqa 0x5191(%rip),%xmm9 # 32b90 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
.byte 102,69,15,111,193 // movdqa %xmm9,%xmm8
.byte 102,68,15,249,195 // psubw %xmm3,%xmm8
.byte 102,69,15,111,208 // movdqa %xmm8,%xmm10
@@ -54596,7 +54608,7 @@ HIDDEN _sk_plus__sse41_lowp
FUNCTION(_sk_plus__sse41_lowp)
_sk_plus__sse41_lowp:
.byte 102,15,253,196 // paddw %xmm4,%xmm0
- .byte 102,68,15,111,5,194,80,0,0 // movdqa 0x50c2(%rip),%xmm8 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xa20>
+ .byte 102,68,15,111,5,214,80,0,0 // movdqa 0x50d6(%rip),%xmm8 # 32b90 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
.byte 102,65,15,56,58,192 // pminuw %xmm8,%xmm0
.byte 102,15,253,205 // paddw %xmm5,%xmm1
.byte 102,65,15,56,58,200 // pminuw %xmm8,%xmm1
@@ -54616,7 +54628,7 @@ _sk_screen_sse41_lowp:
.byte 102,15,111,196 // movdqa %xmm4,%xmm0
.byte 102,15,253,193 // paddw %xmm1,%xmm0
.byte 102,15,213,204 // pmullw %xmm4,%xmm1
- .byte 102,68,15,111,21,124,80,0,0 // movdqa 0x507c(%rip),%xmm10 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xa20>
+ .byte 102,68,15,111,21,144,80,0,0 // movdqa 0x5090(%rip),%xmm10 # 32b90 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
.byte 102,65,15,253,202 // paddw %xmm10,%xmm1
.byte 102,15,113,209,8 // psrlw $0x8,%xmm1
.byte 102,15,249,193 // psubw %xmm1,%xmm0
@@ -54648,7 +54660,7 @@ HIDDEN _sk_xor__sse41_lowp
FUNCTION(_sk_xor__sse41_lowp)
_sk_xor__sse41_lowp:
.byte 102,68,15,111,195 // movdqa %xmm3,%xmm8
- .byte 102,68,15,111,13,250,79,0,0 // movdqa 0x4ffa(%rip),%xmm9 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xa20>
+ .byte 102,68,15,111,13,14,80,0,0 // movdqa 0x500e(%rip),%xmm9 # 32b90 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
.byte 102,69,15,111,209 // movdqa %xmm9,%xmm10
.byte 102,68,15,249,215 // psubw %xmm7,%xmm10
.byte 102,65,15,213,194 // pmullw %xmm10,%xmm0
@@ -54691,7 +54703,7 @@ _sk_darken_sse41_lowp:
.byte 102,68,15,213,207 // pmullw %xmm7,%xmm9
.byte 102,15,213,203 // pmullw %xmm3,%xmm1
.byte 102,65,15,56,62,201 // pmaxuw %xmm9,%xmm1
- .byte 102,68,15,111,13,65,79,0,0 // movdqa 0x4f41(%rip),%xmm9 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xa20>
+ .byte 102,68,15,111,13,85,79,0,0 // movdqa 0x4f55(%rip),%xmm9 # 32b90 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
.byte 102,65,15,253,201 // paddw %xmm9,%xmm1
.byte 102,15,113,209,8 // psrlw $0x8,%xmm1
.byte 102,15,249,193 // psubw %xmm1,%xmm0
@@ -54735,7 +54747,7 @@ _sk_lighten_sse41_lowp:
.byte 102,68,15,213,207 // pmullw %xmm7,%xmm9
.byte 102,15,213,203 // pmullw %xmm3,%xmm1
.byte 102,65,15,56,58,201 // pminuw %xmm9,%xmm1
- .byte 102,68,15,111,13,132,78,0,0 // movdqa 0x4e84(%rip),%xmm9 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xa20>
+ .byte 102,68,15,111,13,152,78,0,0 // movdqa 0x4e98(%rip),%xmm9 # 32b90 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
.byte 102,65,15,253,201 // paddw %xmm9,%xmm1
.byte 102,15,113,209,8 // psrlw $0x8,%xmm1
.byte 102,15,249,193 // psubw %xmm1,%xmm0
@@ -54779,10 +54791,10 @@ _sk_difference_sse41_lowp:
.byte 102,68,15,213,207 // pmullw %xmm7,%xmm9
.byte 102,15,213,203 // pmullw %xmm3,%xmm1
.byte 102,65,15,56,58,201 // pminuw %xmm9,%xmm1
- .byte 102,68,15,111,13,199,77,0,0 // movdqa 0x4dc7(%rip),%xmm9 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xa20>
+ .byte 102,68,15,111,13,219,77,0,0 // movdqa 0x4ddb(%rip),%xmm9 # 32b90 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
.byte 102,65,15,253,201 // paddw %xmm9,%xmm1
.byte 102,15,113,209,7 // psrlw $0x7,%xmm1
- .byte 102,68,15,111,21,20,85,0,0 // movdqa 0x5514(%rip),%xmm10 # 332c0 <_sk_srcover_rgba_8888_sse2_lowp+0x1180>
+ .byte 102,68,15,111,21,56,85,0,0 // movdqa 0x5538(%rip),%xmm10 # 33300 <_sk_srcover_rgba_8888_sse2_lowp+0x11a4>
.byte 102,65,15,219,202 // pand %xmm10,%xmm1
.byte 102,15,249,193 // psubw %xmm1,%xmm0
.byte 102,68,15,111,221 // movdqa %xmm5,%xmm11
@@ -54824,10 +54836,10 @@ _sk_exclusion_sse41_lowp:
.byte 102,15,111,196 // movdqa %xmm4,%xmm0
.byte 102,15,253,193 // paddw %xmm1,%xmm0
.byte 102,15,213,204 // pmullw %xmm4,%xmm1
- .byte 102,68,15,111,13,3,77,0,0 // movdqa 0x4d03(%rip),%xmm9 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xa20>
+ .byte 102,68,15,111,13,23,77,0,0 // movdqa 0x4d17(%rip),%xmm9 # 32b90 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
.byte 102,65,15,253,201 // paddw %xmm9,%xmm1
.byte 102,15,113,209,7 // psrlw $0x7,%xmm1
- .byte 102,68,15,111,21,80,84,0,0 // movdqa 0x5450(%rip),%xmm10 # 332c0 <_sk_srcover_rgba_8888_sse2_lowp+0x1180>
+ .byte 102,68,15,111,21,116,84,0,0 // movdqa 0x5474(%rip),%xmm10 # 33300 <_sk_srcover_rgba_8888_sse2_lowp+0x11a4>
.byte 102,65,15,219,202 // pand %xmm10,%xmm1
.byte 102,15,249,193 // psubw %xmm1,%xmm0
.byte 102,15,111,205 // movdqa %xmm5,%xmm1
@@ -54863,14 +54875,14 @@ _sk_hardlight_sse41_lowp:
.byte 102,15,111,245 // movdqa %xmm5,%xmm6
.byte 102,15,111,236 // movdqa %xmm4,%xmm5
.byte 102,68,15,111,192 // movdqa %xmm0,%xmm8
- .byte 102,68,15,111,29,94,76,0,0 // movdqa 0x4c5e(%rip),%xmm11 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xa20>
+ .byte 102,68,15,111,29,114,76,0,0 // movdqa 0x4c72(%rip),%xmm11 # 32b90 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
.byte 102,69,15,249,220 // psubw %xmm12,%xmm11
.byte 102,65,15,111,227 // movdqa %xmm11,%xmm4
.byte 102,65,15,213,224 // pmullw %xmm8,%xmm4
.byte 102,68,15,111,251 // movdqa %xmm3,%xmm15
.byte 102,69,15,249,248 // psubw %xmm8,%xmm15
.byte 102,69,15,253,192 // paddw %xmm8,%xmm8
- .byte 102,68,15,111,13,167,83,0,0 // movdqa 0x53a7(%rip),%xmm9 # 332d0 <_sk_srcover_rgba_8888_sse2_lowp+0x1190>
+ .byte 102,68,15,111,13,203,83,0,0 // movdqa 0x53cb(%rip),%xmm9 # 33310 <_sk_srcover_rgba_8888_sse2_lowp+0x11b4>
.byte 102,68,15,111,243 // movdqa %xmm3,%xmm14
.byte 102,69,15,239,241 // pxor %xmm9,%xmm14
.byte 102,65,15,111,196 // movdqa %xmm12,%xmm0
@@ -54917,7 +54929,7 @@ _sk_hardlight_sse41_lowp:
.byte 102,68,15,111,232 // movdqa %xmm0,%xmm13
.byte 102,65,15,111,193 // movdqa %xmm9,%xmm0
.byte 102,65,15,56,16,210 // pblendvb %xmm0,%xmm10,%xmm2
- .byte 102,68,15,111,13,79,75,0,0 // movdqa 0x4b4f(%rip),%xmm9 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xa20>
+ .byte 102,68,15,111,13,99,75,0,0 // movdqa 0x4b63(%rip),%xmm9 # 32b90 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
.byte 102,65,15,111,193 // movdqa %xmm9,%xmm0
.byte 102,15,249,195 // psubw %xmm3,%xmm0
.byte 102,15,111,248 // movdqa %xmm0,%xmm7
@@ -54956,7 +54968,7 @@ FUNCTION(_sk_overlay_sse41_lowp)
_sk_overlay_sse41_lowp:
.byte 102,68,15,111,231 // movdqa %xmm7,%xmm12
.byte 102,68,15,111,192 // movdqa %xmm0,%xmm8
- .byte 102,68,15,111,29,178,74,0,0 // movdqa 0x4ab2(%rip),%xmm11 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xa20>
+ .byte 102,68,15,111,29,198,74,0,0 // movdqa 0x4ac6(%rip),%xmm11 # 32b90 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
.byte 102,69,15,249,220 // psubw %xmm12,%xmm11
.byte 102,65,15,111,195 // movdqa %xmm11,%xmm0
.byte 102,65,15,213,192 // pmullw %xmm8,%xmm0
@@ -54968,7 +54980,7 @@ _sk_overlay_sse41_lowp:
.byte 102,68,15,249,252 // psubw %xmm4,%xmm15
.byte 102,15,111,196 // movdqa %xmm4,%xmm0
.byte 102,15,253,192 // paddw %xmm0,%xmm0
- .byte 102,68,15,111,13,227,81,0,0 // movdqa 0x51e3(%rip),%xmm9 # 332d0 <_sk_srcover_rgba_8888_sse2_lowp+0x1190>
+ .byte 102,68,15,111,13,7,82,0,0 // movdqa 0x5207(%rip),%xmm9 # 33310 <_sk_srcover_rgba_8888_sse2_lowp+0x11b4>
.byte 102,69,15,111,212 // movdqa %xmm12,%xmm10
.byte 102,68,15,213,211 // pmullw %xmm3,%xmm10
.byte 102,69,15,213,254 // pmullw %xmm14,%xmm15
@@ -55014,7 +55026,7 @@ _sk_overlay_sse41_lowp:
.byte 102,15,253,210 // paddw %xmm2,%xmm2
.byte 102,65,15,111,193 // movdqa %xmm9,%xmm0
.byte 102,65,15,56,16,210 // pblendvb %xmm0,%xmm10,%xmm2
- .byte 102,68,15,111,13,149,73,0,0 // movdqa 0x4995(%rip),%xmm9 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xa20>
+ .byte 102,68,15,111,13,169,73,0,0 // movdqa 0x49a9(%rip),%xmm9 # 32b90 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
.byte 102,65,15,111,193 // movdqa %xmm9,%xmm0
.byte 102,15,249,195 // psubw %xmm3,%xmm0
.byte 102,15,111,248 // movdqa %xmm0,%xmm7
@@ -55057,49 +55069,49 @@ _sk_load_8888_sse41_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,41 // ja 2e28d <_sk_load_8888_sse41_lowp+0x44>
+ .byte 119,41 // ja 2e2a9 <_sk_load_8888_sse41_lowp+0x44>
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,241,0,0,0 // lea 0xf1(%rip),%r9 # 2e364 <_sk_load_8888_sse41_lowp+0x11b>
+ .byte 76,141,13,241,0,0,0 // lea 0xf1(%rip),%r9 # 2e380 <_sk_load_8888_sse41_lowp+0x11b>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 255,224 // jmpq *%rax
.byte 102,65,15,110,20,144 // movd (%r8,%rdx,4),%xmm2
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
- .byte 235,89 // jmp 2e2e6 <_sk_load_8888_sse41_lowp+0x9d>
+ .byte 235,89 // jmp 2e302 <_sk_load_8888_sse41_lowp+0x9d>
.byte 243,65,15,111,20,144 // movdqu (%r8,%rdx,4),%xmm2
.byte 243,69,15,111,68,144,16 // movdqu 0x10(%r8,%rdx,4),%xmm8
- .byte 235,74 // jmp 2e2e6 <_sk_load_8888_sse41_lowp+0x9d>
+ .byte 235,74 // jmp 2e302 <_sk_load_8888_sse41_lowp+0x9d>
.byte 102,65,15,110,68,144,8 // movd 0x8(%r8,%rdx,4),%xmm0
.byte 102,68,15,112,192,69 // pshufd $0x45,%xmm0,%xmm8
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 243,65,15,126,20,144 // movq (%r8,%rdx,4),%xmm2
.byte 102,65,15,58,14,208,240 // pblendw $0xf0,%xmm8,%xmm2
.byte 102,68,15,111,192 // movdqa %xmm0,%xmm8
- .byte 235,37 // jmp 2e2e6 <_sk_load_8888_sse41_lowp+0x9d>
+ .byte 235,37 // jmp 2e302 <_sk_load_8888_sse41_lowp+0x9d>
.byte 102,65,15,110,68,144,24 // movd 0x18(%r8,%rdx,4),%xmm0
.byte 102,68,15,112,192,69 // pshufd $0x45,%xmm0,%xmm8
.byte 102,69,15,58,34,68,144,20,1 // pinsrd $0x1,0x14(%r8,%rdx,4),%xmm8
.byte 102,69,15,58,34,68,144,16,0 // pinsrd $0x0,0x10(%r8,%rdx,4),%xmm8
.byte 243,65,15,111,20,144 // movdqu (%r8,%rdx,4),%xmm2
- .byte 102,15,111,5,242,79,0,0 // movdqa 0x4ff2(%rip),%xmm0 # 332e0 <_sk_srcover_rgba_8888_sse2_lowp+0x11a0>
+ .byte 102,15,111,5,22,80,0,0 // movdqa 0x5016(%rip),%xmm0 # 33320 <_sk_srcover_rgba_8888_sse2_lowp+0x11c4>
.byte 102,15,111,202 // movdqa %xmm2,%xmm1
.byte 102,15,56,0,200 // pshufb %xmm0,%xmm1
.byte 102,65,15,111,216 // movdqa %xmm8,%xmm3
.byte 102,15,56,0,216 // pshufb %xmm0,%xmm3
.byte 102,15,108,203 // punpcklqdq %xmm3,%xmm1
- .byte 102,68,15,111,13,82,72,0,0 // movdqa 0x4852(%rip),%xmm9 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xa20>
+ .byte 102,68,15,111,13,102,72,0,0 // movdqa 0x4866(%rip),%xmm9 # 32b90 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
.byte 102,15,111,193 // movdqa %xmm1,%xmm0
.byte 102,65,15,219,193 // pand %xmm9,%xmm0
.byte 102,15,113,209,8 // psrlw $0x8,%xmm1
- .byte 102,68,15,111,21,203,79,0,0 // movdqa 0x4fcb(%rip),%xmm10 # 332f0 <_sk_srcover_rgba_8888_sse2_lowp+0x11b0>
+ .byte 102,68,15,111,21,239,79,0,0 // movdqa 0x4fef(%rip),%xmm10 # 33330 <_sk_srcover_rgba_8888_sse2_lowp+0x11d4>
.byte 102,15,111,218 // movdqa %xmm2,%xmm3
.byte 102,65,15,56,0,218 // pshufb %xmm10,%xmm3
.byte 102,69,15,111,216 // movdqa %xmm8,%xmm11
.byte 102,69,15,56,0,218 // pshufb %xmm10,%xmm11
.byte 102,65,15,108,219 // punpcklqdq %xmm11,%xmm3
- .byte 102,68,15,111,21,184,79,0,0 // movdqa 0x4fb8(%rip),%xmm10 # 33300 <_sk_srcover_rgba_8888_sse2_lowp+0x11c0>
+ .byte 102,68,15,111,21,220,79,0,0 // movdqa 0x4fdc(%rip),%xmm10 # 33340 <_sk_srcover_rgba_8888_sse2_lowp+0x11e4>
.byte 102,65,15,56,0,210 // pshufb %xmm10,%xmm2
.byte 102,69,15,56,0,194 // pshufb %xmm10,%xmm8
.byte 102,65,15,108,208 // punpcklqdq %xmm8,%xmm2
@@ -55115,7 +55127,7 @@ _sk_load_8888_sse41_lowp:
.byte 56,255 // cmp %bh,%bh
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 124,255 // jl 2e371 <_sk_load_8888_sse41_lowp+0x128>
+ .byte 124,255 // jl 2e38d <_sk_load_8888_sse41_lowp+0x128>
.byte 255 // (bad)
.byte 255,115,255 // pushq -0x1(%rbx)
.byte 255 // (bad)
@@ -55138,49 +55150,49 @@ _sk_load_8888_dst_sse41_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,41 // ja 2e3c4 <_sk_load_8888_dst_sse41_lowp+0x44>
+ .byte 119,41 // ja 2e3e0 <_sk_load_8888_dst_sse41_lowp+0x44>
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,242,0,0,0 // lea 0xf2(%rip),%r9 # 2e49c <_sk_load_8888_dst_sse41_lowp+0x11c>
+ .byte 76,141,13,242,0,0,0 // lea 0xf2(%rip),%r9 # 2e4b8 <_sk_load_8888_dst_sse41_lowp+0x11c>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 255,224 // jmpq *%rax
.byte 102,65,15,110,52,144 // movd (%r8,%rdx,4),%xmm6
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
- .byte 235,89 // jmp 2e41d <_sk_load_8888_dst_sse41_lowp+0x9d>
+ .byte 235,89 // jmp 2e439 <_sk_load_8888_dst_sse41_lowp+0x9d>
.byte 243,65,15,111,52,144 // movdqu (%r8,%rdx,4),%xmm6
.byte 243,69,15,111,68,144,16 // movdqu 0x10(%r8,%rdx,4),%xmm8
- .byte 235,74 // jmp 2e41d <_sk_load_8888_dst_sse41_lowp+0x9d>
+ .byte 235,74 // jmp 2e439 <_sk_load_8888_dst_sse41_lowp+0x9d>
.byte 102,65,15,110,100,144,8 // movd 0x8(%r8,%rdx,4),%xmm4
.byte 102,68,15,112,196,69 // pshufd $0x45,%xmm4,%xmm8
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 243,65,15,126,52,144 // movq (%r8,%rdx,4),%xmm6
.byte 102,65,15,58,14,240,240 // pblendw $0xf0,%xmm8,%xmm6
.byte 102,68,15,111,196 // movdqa %xmm4,%xmm8
- .byte 235,37 // jmp 2e41d <_sk_load_8888_dst_sse41_lowp+0x9d>
+ .byte 235,37 // jmp 2e439 <_sk_load_8888_dst_sse41_lowp+0x9d>
.byte 102,65,15,110,100,144,24 // movd 0x18(%r8,%rdx,4),%xmm4
.byte 102,68,15,112,196,69 // pshufd $0x45,%xmm4,%xmm8
.byte 102,69,15,58,34,68,144,20,1 // pinsrd $0x1,0x14(%r8,%rdx,4),%xmm8
.byte 102,69,15,58,34,68,144,16,0 // pinsrd $0x0,0x10(%r8,%rdx,4),%xmm8
.byte 243,65,15,111,52,144 // movdqu (%r8,%rdx,4),%xmm6
- .byte 102,15,111,37,187,78,0,0 // movdqa 0x4ebb(%rip),%xmm4 # 332e0 <_sk_srcover_rgba_8888_sse2_lowp+0x11a0>
+ .byte 102,15,111,37,223,78,0,0 // movdqa 0x4edf(%rip),%xmm4 # 33320 <_sk_srcover_rgba_8888_sse2_lowp+0x11c4>
.byte 102,15,111,238 // movdqa %xmm6,%xmm5
.byte 102,15,56,0,236 // pshufb %xmm4,%xmm5
.byte 102,65,15,111,248 // movdqa %xmm8,%xmm7
.byte 102,15,56,0,252 // pshufb %xmm4,%xmm7
.byte 102,15,108,239 // punpcklqdq %xmm7,%xmm5
- .byte 102,68,15,111,13,27,71,0,0 // movdqa 0x471b(%rip),%xmm9 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xa20>
+ .byte 102,68,15,111,13,47,71,0,0 // movdqa 0x472f(%rip),%xmm9 # 32b90 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
.byte 102,15,111,229 // movdqa %xmm5,%xmm4
.byte 102,65,15,219,225 // pand %xmm9,%xmm4
.byte 102,15,113,213,8 // psrlw $0x8,%xmm5
- .byte 102,68,15,111,21,148,78,0,0 // movdqa 0x4e94(%rip),%xmm10 # 332f0 <_sk_srcover_rgba_8888_sse2_lowp+0x11b0>
+ .byte 102,68,15,111,21,184,78,0,0 // movdqa 0x4eb8(%rip),%xmm10 # 33330 <_sk_srcover_rgba_8888_sse2_lowp+0x11d4>
.byte 102,15,111,254 // movdqa %xmm6,%xmm7
.byte 102,65,15,56,0,250 // pshufb %xmm10,%xmm7
.byte 102,69,15,111,216 // movdqa %xmm8,%xmm11
.byte 102,69,15,56,0,218 // pshufb %xmm10,%xmm11
.byte 102,65,15,108,251 // punpcklqdq %xmm11,%xmm7
- .byte 102,68,15,111,21,129,78,0,0 // movdqa 0x4e81(%rip),%xmm10 # 33300 <_sk_srcover_rgba_8888_sse2_lowp+0x11c0>
+ .byte 102,68,15,111,21,165,78,0,0 // movdqa 0x4ea5(%rip),%xmm10 # 33340 <_sk_srcover_rgba_8888_sse2_lowp+0x11e4>
.byte 102,65,15,56,0,242 // pshufb %xmm10,%xmm6
.byte 102,69,15,56,0,194 // pshufb %xmm10,%xmm8
.byte 102,65,15,108,240 // punpcklqdq %xmm8,%xmm6
@@ -55196,7 +55208,7 @@ _sk_load_8888_dst_sse41_lowp:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 123,255 // jnp 2e4a9 <_sk_load_8888_dst_sse41_lowp+0x129>
+ .byte 123,255 // jnp 2e4c5 <_sk_load_8888_dst_sse41_lowp+0x129>
.byte 255 // (bad)
.byte 255,114,255 // pushq -0x1(%rdx)
.byte 255 // (bad)
@@ -55233,20 +55245,20 @@ _sk_store_8888_sse41_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,27 // ja 2e53e <_sk_store_8888_sse41_lowp+0x86>
+ .byte 119,27 // ja 2e55a <_sk_store_8888_sse41_lowp+0x86>
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,87,0,0,0 // lea 0x57(%rip),%r9 # 2e584 <_sk_store_8888_sse41_lowp+0xcc>
+ .byte 76,141,13,87,0,0,0 // lea 0x57(%rip),%r9 # 2e5a0 <_sk_store_8888_sse41_lowp+0xcc>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 102,69,15,126,4,144 // movd %xmm8,(%r8,%rdx,4)
- .byte 235,63 // jmp 2e57d <_sk_store_8888_sse41_lowp+0xc5>
+ .byte 235,63 // jmp 2e599 <_sk_store_8888_sse41_lowp+0xc5>
.byte 243,69,15,127,4,144 // movdqu %xmm8,(%r8,%rdx,4)
.byte 243,69,15,127,76,144,16 // movdqu %xmm9,0x10(%r8,%rdx,4)
- .byte 235,48 // jmp 2e57d <_sk_store_8888_sse41_lowp+0xc5>
+ .byte 235,48 // jmp 2e599 <_sk_store_8888_sse41_lowp+0xc5>
.byte 102,69,15,58,22,68,144,8,2 // pextrd $0x2,%xmm8,0x8(%r8,%rdx,4)
.byte 102,69,15,214,4,144 // movq %xmm8,(%r8,%rdx,4)
- .byte 235,31 // jmp 2e57d <_sk_store_8888_sse41_lowp+0xc5>
+ .byte 235,31 // jmp 2e599 <_sk_store_8888_sse41_lowp+0xc5>
.byte 102,69,15,58,22,76,144,24,2 // pextrd $0x2,%xmm9,0x18(%r8,%rdx,4)
.byte 102,69,15,58,22,76,144,20,1 // pextrd $0x1,%xmm9,0x14(%r8,%rdx,4)
.byte 102,69,15,126,76,144,16 // movd %xmm9,0x10(%r8,%rdx,4)
@@ -55290,49 +55302,49 @@ _sk_load_bgra_sse41_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,41 // ja 2e5e4 <_sk_load_bgra_sse41_lowp+0x44>
+ .byte 119,41 // ja 2e600 <_sk_load_bgra_sse41_lowp+0x44>
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,242,0,0,0 // lea 0xf2(%rip),%r9 # 2e6bc <_sk_load_bgra_sse41_lowp+0x11c>
+ .byte 76,141,13,242,0,0,0 // lea 0xf2(%rip),%r9 # 2e6d8 <_sk_load_bgra_sse41_lowp+0x11c>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 255,224 // jmpq *%rax
.byte 102,65,15,110,4,144 // movd (%r8,%rdx,4),%xmm0
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
- .byte 235,89 // jmp 2e63d <_sk_load_bgra_sse41_lowp+0x9d>
+ .byte 235,89 // jmp 2e659 <_sk_load_bgra_sse41_lowp+0x9d>
.byte 243,65,15,111,4,144 // movdqu (%r8,%rdx,4),%xmm0
.byte 243,69,15,111,68,144,16 // movdqu 0x10(%r8,%rdx,4),%xmm8
- .byte 235,74 // jmp 2e63d <_sk_load_bgra_sse41_lowp+0x9d>
+ .byte 235,74 // jmp 2e659 <_sk_load_bgra_sse41_lowp+0x9d>
.byte 102,65,15,110,68,144,8 // movd 0x8(%r8,%rdx,4),%xmm0
.byte 102,68,15,112,192,69 // pshufd $0x45,%xmm0,%xmm8
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 243,65,15,126,4,144 // movq (%r8,%rdx,4),%xmm0
.byte 102,65,15,58,14,192,240 // pblendw $0xf0,%xmm8,%xmm0
.byte 102,68,15,111,193 // movdqa %xmm1,%xmm8
- .byte 235,37 // jmp 2e63d <_sk_load_bgra_sse41_lowp+0x9d>
+ .byte 235,37 // jmp 2e659 <_sk_load_bgra_sse41_lowp+0x9d>
.byte 102,65,15,110,68,144,24 // movd 0x18(%r8,%rdx,4),%xmm0
.byte 102,68,15,112,192,69 // pshufd $0x45,%xmm0,%xmm8
.byte 102,69,15,58,34,68,144,20,1 // pinsrd $0x1,0x14(%r8,%rdx,4),%xmm8
.byte 102,69,15,58,34,68,144,16,0 // pinsrd $0x0,0x10(%r8,%rdx,4),%xmm8
.byte 243,65,15,111,4,144 // movdqu (%r8,%rdx,4),%xmm0
- .byte 102,15,111,21,155,76,0,0 // movdqa 0x4c9b(%rip),%xmm2 # 332e0 <_sk_srcover_rgba_8888_sse2_lowp+0x11a0>
+ .byte 102,15,111,21,191,76,0,0 // movdqa 0x4cbf(%rip),%xmm2 # 33320 <_sk_srcover_rgba_8888_sse2_lowp+0x11c4>
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
.byte 102,15,56,0,202 // pshufb %xmm2,%xmm1
.byte 102,65,15,111,216 // movdqa %xmm8,%xmm3
.byte 102,15,56,0,218 // pshufb %xmm2,%xmm3
.byte 102,15,108,203 // punpcklqdq %xmm3,%xmm1
- .byte 102,68,15,111,13,251,68,0,0 // movdqa 0x44fb(%rip),%xmm9 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xa20>
+ .byte 102,68,15,111,13,15,69,0,0 // movdqa 0x450f(%rip),%xmm9 # 32b90 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
.byte 102,15,111,209 // movdqa %xmm1,%xmm2
.byte 102,65,15,219,209 // pand %xmm9,%xmm2
.byte 102,15,113,209,8 // psrlw $0x8,%xmm1
- .byte 102,68,15,111,21,116,76,0,0 // movdqa 0x4c74(%rip),%xmm10 # 332f0 <_sk_srcover_rgba_8888_sse2_lowp+0x11b0>
+ .byte 102,68,15,111,21,152,76,0,0 // movdqa 0x4c98(%rip),%xmm10 # 33330 <_sk_srcover_rgba_8888_sse2_lowp+0x11d4>
.byte 102,15,111,216 // movdqa %xmm0,%xmm3
.byte 102,65,15,56,0,218 // pshufb %xmm10,%xmm3
.byte 102,69,15,111,216 // movdqa %xmm8,%xmm11
.byte 102,69,15,56,0,218 // pshufb %xmm10,%xmm11
.byte 102,65,15,108,219 // punpcklqdq %xmm11,%xmm3
- .byte 102,68,15,111,21,97,76,0,0 // movdqa 0x4c61(%rip),%xmm10 # 33300 <_sk_srcover_rgba_8888_sse2_lowp+0x11c0>
+ .byte 102,68,15,111,21,133,76,0,0 // movdqa 0x4c85(%rip),%xmm10 # 33340 <_sk_srcover_rgba_8888_sse2_lowp+0x11e4>
.byte 102,65,15,56,0,194 // pshufb %xmm10,%xmm0
.byte 102,69,15,56,0,194 // pshufb %xmm10,%xmm8
.byte 102,65,15,108,192 // punpcklqdq %xmm8,%xmm0
@@ -55348,7 +55360,7 @@ _sk_load_bgra_sse41_lowp:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 123,255 // jnp 2e6c9 <_sk_load_bgra_sse41_lowp+0x129>
+ .byte 123,255 // jnp 2e6e5 <_sk_load_bgra_sse41_lowp+0x129>
.byte 255 // (bad)
.byte 255,114,255 // pushq -0x1(%rdx)
.byte 255 // (bad)
@@ -55370,49 +55382,49 @@ _sk_load_bgra_dst_sse41_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,41 // ja 2e71c <_sk_load_bgra_dst_sse41_lowp+0x44>
+ .byte 119,41 // ja 2e738 <_sk_load_bgra_dst_sse41_lowp+0x44>
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,242,0,0,0 // lea 0xf2(%rip),%r9 # 2e7f4 <_sk_load_bgra_dst_sse41_lowp+0x11c>
+ .byte 76,141,13,242,0,0,0 // lea 0xf2(%rip),%r9 # 2e810 <_sk_load_bgra_dst_sse41_lowp+0x11c>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 102,15,239,237 // pxor %xmm5,%xmm5
.byte 255,224 // jmpq *%rax
.byte 102,65,15,110,36,144 // movd (%r8,%rdx,4),%xmm4
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
- .byte 235,89 // jmp 2e775 <_sk_load_bgra_dst_sse41_lowp+0x9d>
+ .byte 235,89 // jmp 2e791 <_sk_load_bgra_dst_sse41_lowp+0x9d>
.byte 243,65,15,111,36,144 // movdqu (%r8,%rdx,4),%xmm4
.byte 243,69,15,111,68,144,16 // movdqu 0x10(%r8,%rdx,4),%xmm8
- .byte 235,74 // jmp 2e775 <_sk_load_bgra_dst_sse41_lowp+0x9d>
+ .byte 235,74 // jmp 2e791 <_sk_load_bgra_dst_sse41_lowp+0x9d>
.byte 102,65,15,110,100,144,8 // movd 0x8(%r8,%rdx,4),%xmm4
.byte 102,68,15,112,196,69 // pshufd $0x45,%xmm4,%xmm8
.byte 102,15,239,237 // pxor %xmm5,%xmm5
.byte 243,65,15,126,36,144 // movq (%r8,%rdx,4),%xmm4
.byte 102,65,15,58,14,224,240 // pblendw $0xf0,%xmm8,%xmm4
.byte 102,68,15,111,197 // movdqa %xmm5,%xmm8
- .byte 235,37 // jmp 2e775 <_sk_load_bgra_dst_sse41_lowp+0x9d>
+ .byte 235,37 // jmp 2e791 <_sk_load_bgra_dst_sse41_lowp+0x9d>
.byte 102,65,15,110,100,144,24 // movd 0x18(%r8,%rdx,4),%xmm4
.byte 102,68,15,112,196,69 // pshufd $0x45,%xmm4,%xmm8
.byte 102,69,15,58,34,68,144,20,1 // pinsrd $0x1,0x14(%r8,%rdx,4),%xmm8
.byte 102,69,15,58,34,68,144,16,0 // pinsrd $0x0,0x10(%r8,%rdx,4),%xmm8
.byte 243,65,15,111,36,144 // movdqu (%r8,%rdx,4),%xmm4
- .byte 102,15,111,53,99,75,0,0 // movdqa 0x4b63(%rip),%xmm6 # 332e0 <_sk_srcover_rgba_8888_sse2_lowp+0x11a0>
+ .byte 102,15,111,53,135,75,0,0 // movdqa 0x4b87(%rip),%xmm6 # 33320 <_sk_srcover_rgba_8888_sse2_lowp+0x11c4>
.byte 102,15,111,236 // movdqa %xmm4,%xmm5
.byte 102,15,56,0,238 // pshufb %xmm6,%xmm5
.byte 102,65,15,111,248 // movdqa %xmm8,%xmm7
.byte 102,15,56,0,254 // pshufb %xmm6,%xmm7
.byte 102,15,108,239 // punpcklqdq %xmm7,%xmm5
- .byte 102,68,15,111,13,195,67,0,0 // movdqa 0x43c3(%rip),%xmm9 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xa20>
+ .byte 102,68,15,111,13,215,67,0,0 // movdqa 0x43d7(%rip),%xmm9 # 32b90 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
.byte 102,15,111,245 // movdqa %xmm5,%xmm6
.byte 102,65,15,219,241 // pand %xmm9,%xmm6
.byte 102,15,113,213,8 // psrlw $0x8,%xmm5
- .byte 102,68,15,111,21,60,75,0,0 // movdqa 0x4b3c(%rip),%xmm10 # 332f0 <_sk_srcover_rgba_8888_sse2_lowp+0x11b0>
+ .byte 102,68,15,111,21,96,75,0,0 // movdqa 0x4b60(%rip),%xmm10 # 33330 <_sk_srcover_rgba_8888_sse2_lowp+0x11d4>
.byte 102,15,111,252 // movdqa %xmm4,%xmm7
.byte 102,65,15,56,0,250 // pshufb %xmm10,%xmm7
.byte 102,69,15,111,216 // movdqa %xmm8,%xmm11
.byte 102,69,15,56,0,218 // pshufb %xmm10,%xmm11
.byte 102,65,15,108,251 // punpcklqdq %xmm11,%xmm7
- .byte 102,68,15,111,21,41,75,0,0 // movdqa 0x4b29(%rip),%xmm10 # 33300 <_sk_srcover_rgba_8888_sse2_lowp+0x11c0>
+ .byte 102,68,15,111,21,77,75,0,0 // movdqa 0x4b4d(%rip),%xmm10 # 33340 <_sk_srcover_rgba_8888_sse2_lowp+0x11e4>
.byte 102,65,15,56,0,226 // pshufb %xmm10,%xmm4
.byte 102,69,15,56,0,194 // pshufb %xmm10,%xmm8
.byte 102,65,15,108,224 // punpcklqdq %xmm8,%xmm4
@@ -55428,7 +55440,7 @@ _sk_load_bgra_dst_sse41_lowp:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 123,255 // jnp 2e801 <_sk_load_bgra_dst_sse41_lowp+0x129>
+ .byte 123,255 // jnp 2e81d <_sk_load_bgra_dst_sse41_lowp+0x129>
.byte 255 // (bad)
.byte 255,114,255 // pushq -0x1(%rdx)
.byte 255 // (bad)
@@ -55465,20 +55477,20 @@ _sk_store_bgra_sse41_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,27 // ja 2e896 <_sk_store_bgra_sse41_lowp+0x86>
+ .byte 119,27 // ja 2e8b2 <_sk_store_bgra_sse41_lowp+0x86>
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,87,0,0,0 // lea 0x57(%rip),%r9 # 2e8dc <_sk_store_bgra_sse41_lowp+0xcc>
+ .byte 76,141,13,87,0,0,0 // lea 0x57(%rip),%r9 # 2e8f8 <_sk_store_bgra_sse41_lowp+0xcc>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 102,69,15,126,4,144 // movd %xmm8,(%r8,%rdx,4)
- .byte 235,63 // jmp 2e8d5 <_sk_store_bgra_sse41_lowp+0xc5>
+ .byte 235,63 // jmp 2e8f1 <_sk_store_bgra_sse41_lowp+0xc5>
.byte 243,69,15,127,4,144 // movdqu %xmm8,(%r8,%rdx,4)
.byte 243,69,15,127,76,144,16 // movdqu %xmm9,0x10(%r8,%rdx,4)
- .byte 235,48 // jmp 2e8d5 <_sk_store_bgra_sse41_lowp+0xc5>
+ .byte 235,48 // jmp 2e8f1 <_sk_store_bgra_sse41_lowp+0xc5>
.byte 102,69,15,58,22,68,144,8,2 // pextrd $0x2,%xmm8,0x8(%r8,%rdx,4)
.byte 102,69,15,214,4,144 // movq %xmm8,(%r8,%rdx,4)
- .byte 235,31 // jmp 2e8d5 <_sk_store_bgra_sse41_lowp+0xc5>
+ .byte 235,31 // jmp 2e8f1 <_sk_store_bgra_sse41_lowp+0xc5>
.byte 102,69,15,58,22,76,144,24,2 // pextrd $0x2,%xmm9,0x18(%r8,%rdx,4)
.byte 102,69,15,58,22,76,144,20,1 // pextrd $0x1,%xmm9,0x14(%r8,%rdx,4)
.byte 102,69,15,126,76,144,16 // movd %xmm9,0x10(%r8,%rdx,4)
@@ -55522,23 +55534,23 @@ _sk_load_565_sse41_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,34 // ja 2e934 <_sk_load_565_sse41_lowp+0x3c>
+ .byte 119,34 // ja 2e950 <_sk_load_565_sse41_lowp+0x3c>
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,196,0,0,0 // lea 0xc4(%rip),%r9 # 2e9e4 <_sk_load_565_sse41_lowp+0xec>
+ .byte 76,141,13,196,0,0,0 // lea 0xc4(%rip),%r9 # 2ea00 <_sk_load_565_sse41_lowp+0xec>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,183,4,80 // movzwl (%r8,%rdx,2),%eax
.byte 102,15,110,192 // movd %eax,%xmm0
- .byte 235,74 // jmp 2e97e <_sk_load_565_sse41_lowp+0x86>
+ .byte 235,74 // jmp 2e99a <_sk_load_565_sse41_lowp+0x86>
.byte 243,65,15,111,4,80 // movdqu (%r8,%rdx,2),%xmm0
- .byte 235,66 // jmp 2e97e <_sk_load_565_sse41_lowp+0x86>
+ .byte 235,66 // jmp 2e99a <_sk_load_565_sse41_lowp+0x86>
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 102,65,15,196,76,80,4,2 // pinsrw $0x2,0x4(%r8,%rdx,2),%xmm1
.byte 102,65,15,110,4,80 // movd (%r8,%rdx,2),%xmm0
.byte 102,15,58,14,193,252 // pblendw $0xfc,%xmm1,%xmm0
- .byte 235,40 // jmp 2e97e <_sk_load_565_sse41_lowp+0x86>
+ .byte 235,40 // jmp 2e99a <_sk_load_565_sse41_lowp+0x86>
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 102,65,15,196,76,80,12,6 // pinsrw $0x6,0xc(%r8,%rdx,2),%xmm1
.byte 102,65,15,196,76,80,10,5 // pinsrw $0x5,0xa(%r8,%rdx,2),%xmm1
@@ -55547,11 +55559,11 @@ _sk_load_565_sse41_lowp:
.byte 102,15,58,14,193,240 // pblendw $0xf0,%xmm1,%xmm0
.byte 102,15,111,216 // movdqa %xmm0,%xmm3
.byte 102,15,113,211,8 // psrlw $0x8,%xmm3
- .byte 102,15,219,29,129,73,0,0 // pand 0x4981(%rip),%xmm3 # 33310 <_sk_srcover_rgba_8888_sse2_lowp+0x11d0>
+ .byte 102,15,219,29,165,73,0,0 // pand 0x49a5(%rip),%xmm3 # 33350 <_sk_srcover_rgba_8888_sse2_lowp+0x11f4>
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
.byte 102,15,113,209,5 // psrlw $0x5,%xmm1
- .byte 102,15,219,13,128,73,0,0 // pand 0x4980(%rip),%xmm1 # 33320 <_sk_srcover_rgba_8888_sse2_lowp+0x11e0>
- .byte 102,15,111,21,136,73,0,0 // movdqa 0x4988(%rip),%xmm2 # 33330 <_sk_srcover_rgba_8888_sse2_lowp+0x11f0>
+ .byte 102,15,219,13,164,73,0,0 // pand 0x49a4(%rip),%xmm1 # 33360 <_sk_srcover_rgba_8888_sse2_lowp+0x1204>
+ .byte 102,15,111,21,172,73,0,0 // movdqa 0x49ac(%rip),%xmm2 # 33370 <_sk_srcover_rgba_8888_sse2_lowp+0x1214>
.byte 102,15,219,208 // pand %xmm0,%xmm2
.byte 102,15,113,208,13 // psrlw $0xd,%xmm0
.byte 102,15,235,195 // por %xmm3,%xmm0
@@ -55564,7 +55576,7 @@ _sk_load_565_sse41_lowp:
.byte 102,15,113,210,2 // psrlw $0x2,%xmm2
.byte 102,15,235,211 // por %xmm3,%xmm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,126,65,0,0 // movaps 0x417e(%rip),%xmm3 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xa20>
+ .byte 15,40,29,146,65,0,0 // movaps 0x4192(%rip),%xmm3 # 32b90 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
.byte 255,224 // jmpq *%rax
.byte 69,255 // rex.RB (bad)
.byte 255 // (bad)
@@ -55575,7 +55587,7 @@ _sk_load_565_sse41_lowp:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 126,255 // jle 2e9f9 <_sk_load_565_sse41_lowp+0x101>
+ .byte 126,255 // jle 2ea15 <_sk_load_565_sse41_lowp+0x101>
.byte 255 // (bad)
.byte 255,114,255 // pushq -0x1(%rdx)
.byte 255 // (bad)
@@ -55594,23 +55606,23 @@ _sk_load_565_dst_sse41_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,34 // ja 2ea3c <_sk_load_565_dst_sse41_lowp+0x3c>
+ .byte 119,34 // ja 2ea58 <_sk_load_565_dst_sse41_lowp+0x3c>
.byte 102,15,239,237 // pxor %xmm5,%xmm5
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,196,0,0,0 // lea 0xc4(%rip),%r9 # 2eaec <_sk_load_565_dst_sse41_lowp+0xec>
+ .byte 76,141,13,196,0,0,0 // lea 0xc4(%rip),%r9 # 2eb08 <_sk_load_565_dst_sse41_lowp+0xec>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,183,4,80 // movzwl (%r8,%rdx,2),%eax
.byte 102,15,110,224 // movd %eax,%xmm4
- .byte 235,74 // jmp 2ea86 <_sk_load_565_dst_sse41_lowp+0x86>
+ .byte 235,74 // jmp 2eaa2 <_sk_load_565_dst_sse41_lowp+0x86>
.byte 243,65,15,111,36,80 // movdqu (%r8,%rdx,2),%xmm4
- .byte 235,66 // jmp 2ea86 <_sk_load_565_dst_sse41_lowp+0x86>
+ .byte 235,66 // jmp 2eaa2 <_sk_load_565_dst_sse41_lowp+0x86>
.byte 102,15,239,237 // pxor %xmm5,%xmm5
.byte 102,65,15,196,108,80,4,2 // pinsrw $0x2,0x4(%r8,%rdx,2),%xmm5
.byte 102,65,15,110,36,80 // movd (%r8,%rdx,2),%xmm4
.byte 102,15,58,14,229,252 // pblendw $0xfc,%xmm5,%xmm4
- .byte 235,40 // jmp 2ea86 <_sk_load_565_dst_sse41_lowp+0x86>
+ .byte 235,40 // jmp 2eaa2 <_sk_load_565_dst_sse41_lowp+0x86>
.byte 102,15,239,237 // pxor %xmm5,%xmm5
.byte 102,65,15,196,108,80,12,6 // pinsrw $0x6,0xc(%r8,%rdx,2),%xmm5
.byte 102,65,15,196,108,80,10,5 // pinsrw $0x5,0xa(%r8,%rdx,2),%xmm5
@@ -55619,11 +55631,11 @@ _sk_load_565_dst_sse41_lowp:
.byte 102,15,58,14,229,240 // pblendw $0xf0,%xmm5,%xmm4
.byte 102,15,111,252 // movdqa %xmm4,%xmm7
.byte 102,15,113,215,8 // psrlw $0x8,%xmm7
- .byte 102,15,219,61,121,72,0,0 // pand 0x4879(%rip),%xmm7 # 33310 <_sk_srcover_rgba_8888_sse2_lowp+0x11d0>
+ .byte 102,15,219,61,157,72,0,0 // pand 0x489d(%rip),%xmm7 # 33350 <_sk_srcover_rgba_8888_sse2_lowp+0x11f4>
.byte 102,15,111,236 // movdqa %xmm4,%xmm5
.byte 102,15,113,213,5 // psrlw $0x5,%xmm5
- .byte 102,15,219,45,120,72,0,0 // pand 0x4878(%rip),%xmm5 # 33320 <_sk_srcover_rgba_8888_sse2_lowp+0x11e0>
- .byte 102,15,111,53,128,72,0,0 // movdqa 0x4880(%rip),%xmm6 # 33330 <_sk_srcover_rgba_8888_sse2_lowp+0x11f0>
+ .byte 102,15,219,45,156,72,0,0 // pand 0x489c(%rip),%xmm5 # 33360 <_sk_srcover_rgba_8888_sse2_lowp+0x1204>
+ .byte 102,15,111,53,164,72,0,0 // movdqa 0x48a4(%rip),%xmm6 # 33370 <_sk_srcover_rgba_8888_sse2_lowp+0x1214>
.byte 102,15,219,244 // pand %xmm4,%xmm6
.byte 102,15,113,212,13 // psrlw $0xd,%xmm4
.byte 102,15,235,231 // por %xmm7,%xmm4
@@ -55636,7 +55648,7 @@ _sk_load_565_dst_sse41_lowp:
.byte 102,15,113,214,2 // psrlw $0x2,%xmm6
.byte 102,15,235,247 // por %xmm7,%xmm6
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,61,118,64,0,0 // movaps 0x4076(%rip),%xmm7 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xa20>
+ .byte 15,40,61,138,64,0,0 // movaps 0x408a(%rip),%xmm7 # 32b90 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
.byte 255,224 // jmpq *%rax
.byte 69,255 // rex.RB (bad)
.byte 255 // (bad)
@@ -55647,7 +55659,7 @@ _sk_load_565_dst_sse41_lowp:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 126,255 // jle 2eb01 <_sk_load_565_dst_sse41_lowp+0x101>
+ .byte 126,255 // jle 2eb1d <_sk_load_565_dst_sse41_lowp+0x101>
.byte 255 // (bad)
.byte 255,114,255 // pushq -0x1(%rdx)
.byte 255 // (bad)
@@ -55664,10 +55676,10 @@ _sk_store_565_sse41_lowp:
.byte 76,3,0 // add (%rax),%r8
.byte 102,68,15,111,192 // movdqa %xmm0,%xmm8
.byte 102,65,15,113,240,8 // psllw $0x8,%xmm8
- .byte 102,68,15,219,5,20,72,0,0 // pand 0x4814(%rip),%xmm8 # 33340 <_sk_srcover_rgba_8888_sse2_lowp+0x1200>
+ .byte 102,68,15,219,5,56,72,0,0 // pand 0x4838(%rip),%xmm8 # 33380 <_sk_srcover_rgba_8888_sse2_lowp+0x1224>
.byte 102,68,15,111,201 // movdqa %xmm1,%xmm9
.byte 102,65,15,113,241,3 // psllw $0x3,%xmm9
- .byte 102,68,15,219,13,16,72,0,0 // pand 0x4810(%rip),%xmm9 # 33350 <_sk_srcover_rgba_8888_sse2_lowp+0x1210>
+ .byte 102,68,15,219,13,52,72,0,0 // pand 0x4834(%rip),%xmm9 # 33390 <_sk_srcover_rgba_8888_sse2_lowp+0x1234>
.byte 102,69,15,235,200 // por %xmm8,%xmm9
.byte 102,68,15,111,194 // movdqa %xmm2,%xmm8
.byte 102,65,15,113,208,3 // psrlw $0x3,%xmm8
@@ -55676,19 +55688,19 @@ _sk_store_565_sse41_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,29 // ja 2eb7c <_sk_store_565_sse41_lowp+0x74>
+ .byte 119,29 // ja 2eb98 <_sk_store_565_sse41_lowp+0x74>
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,83,0,0,0 // lea 0x53(%rip),%r9 # 2ebbc <_sk_store_565_sse41_lowp+0xb4>
+ .byte 76,141,13,83,0,0,0 // lea 0x53(%rip),%r9 # 2ebd8 <_sk_store_565_sse41_lowp+0xb4>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 102,69,15,58,21,4,80,0 // pextrw $0x0,%xmm8,(%r8,%rdx,2)
- .byte 235,58 // jmp 2ebb6 <_sk_store_565_sse41_lowp+0xae>
+ .byte 235,58 // jmp 2ebd2 <_sk_store_565_sse41_lowp+0xae>
.byte 243,69,15,127,4,80 // movdqu %xmm8,(%r8,%rdx,2)
- .byte 235,50 // jmp 2ebb6 <_sk_store_565_sse41_lowp+0xae>
+ .byte 235,50 // jmp 2ebd2 <_sk_store_565_sse41_lowp+0xae>
.byte 102,69,15,58,21,68,80,4,2 // pextrw $0x2,%xmm8,0x4(%r8,%rdx,2)
.byte 102,69,15,126,4,80 // movd %xmm8,(%r8,%rdx,2)
- .byte 235,33 // jmp 2ebb6 <_sk_store_565_sse41_lowp+0xae>
+ .byte 235,33 // jmp 2ebd2 <_sk_store_565_sse41_lowp+0xae>
.byte 102,69,15,58,21,68,80,12,6 // pextrw $0x6,%xmm8,0xc(%r8,%rdx,2)
.byte 102,69,15,58,21,68,80,10,5 // pextrw $0x5,%xmm8,0xa(%r8,%rdx,2)
.byte 102,69,15,58,21,68,80,8,4 // pextrw $0x4,%xmm8,0x8(%r8,%rdx,2)
@@ -55708,7 +55720,7 @@ _sk_store_565_sse41_lowp:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 235,255 // jmp 2ebcd <_sk_store_565_sse41_lowp+0xc5>
+ .byte 235,255 // jmp 2ebe9 <_sk_store_565_sse41_lowp+0xc5>
.byte 255 // (bad)
.byte 255,226 // jmpq *%rdx
.byte 255 // (bad)
@@ -55730,18 +55742,18 @@ _sk_load_a8_sse41_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,34 // ja 2ec11 <_sk_load_a8_sse41_lowp+0x39>
+ .byte 119,34 // ja 2ec2d <_sk_load_a8_sse41_lowp+0x39>
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,143,0,0,0 // lea 0x8f(%rip),%r9 # 2ec8c <_sk_load_a8_sse41_lowp+0xb4>
+ .byte 76,141,13,143,0,0,0 // lea 0x8f(%rip),%r9 # 2eca8 <_sk_load_a8_sse41_lowp+0xb4>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
.byte 102,15,110,216 // movd %eax,%xmm3
- .byte 235,100 // jmp 2ec75 <_sk_load_a8_sse41_lowp+0x9d>
+ .byte 235,100 // jmp 2ec91 <_sk_load_a8_sse41_lowp+0x9d>
.byte 102,65,15,56,48,28,16 // pmovzxbw (%r8,%rdx,1),%xmm3
- .byte 235,91 // jmp 2ec75 <_sk_load_a8_sse41_lowp+0x9d>
+ .byte 235,91 // jmp 2ec91 <_sk_load_a8_sse41_lowp+0x9d>
.byte 65,15,182,68,16,2 // movzbl 0x2(%r8,%rdx,1),%eax
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,15,196,192,2 // pinsrw $0x2,%eax,%xmm0
@@ -55749,7 +55761,7 @@ _sk_load_a8_sse41_lowp:
.byte 102,15,110,200 // movd %eax,%xmm1
.byte 102,15,56,48,217 // pmovzxbw %xmm1,%xmm3
.byte 102,15,58,14,216,252 // pblendw $0xfc,%xmm0,%xmm3
- .byte 235,54 // jmp 2ec75 <_sk_load_a8_sse41_lowp+0x9d>
+ .byte 235,54 // jmp 2ec91 <_sk_load_a8_sse41_lowp+0x9d>
.byte 65,15,182,68,16,6 // movzbl 0x6(%r8,%rdx,1),%eax
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,15,196,192,6 // pinsrw $0x6,%eax,%xmm0
@@ -55760,13 +55772,13 @@ _sk_load_a8_sse41_lowp:
.byte 102,65,15,110,12,16 // movd (%r8,%rdx,1),%xmm1
.byte 102,15,56,48,217 // pmovzxbw %xmm1,%xmm3
.byte 102,15,58,14,216,240 // pblendw $0xf0,%xmm0,%xmm3
- .byte 102,15,219,29,227,62,0,0 // pand 0x3ee3(%rip),%xmm3 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xa20>
+ .byte 102,15,219,29,247,62,0,0 // pand 0x3ef7(%rip),%xmm3 # 32b90 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 15,87,210 // xorps %xmm2,%xmm2
.byte 255,224 // jmpq *%rax
- .byte 122,255 // jp 2ec8d <_sk_load_a8_sse41_lowp+0xb5>
+ .byte 122,255 // jp 2eca9 <_sk_load_a8_sse41_lowp+0xb5>
.byte 255 // (bad)
.byte 255,157,255,255,255,142 // lcall *-0x71000001(%rbp)
.byte 255 // (bad)
@@ -55797,18 +55809,18 @@ _sk_load_a8_dst_sse41_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,34 // ja 2ece1 <_sk_load_a8_dst_sse41_lowp+0x39>
+ .byte 119,34 // ja 2ecfd <_sk_load_a8_dst_sse41_lowp+0x39>
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,143,0,0,0 // lea 0x8f(%rip),%r9 # 2ed5c <_sk_load_a8_dst_sse41_lowp+0xb4>
+ .byte 76,141,13,143,0,0,0 // lea 0x8f(%rip),%r9 # 2ed78 <_sk_load_a8_dst_sse41_lowp+0xb4>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
.byte 102,15,110,248 // movd %eax,%xmm7
- .byte 235,100 // jmp 2ed45 <_sk_load_a8_dst_sse41_lowp+0x9d>
+ .byte 235,100 // jmp 2ed61 <_sk_load_a8_dst_sse41_lowp+0x9d>
.byte 102,65,15,56,48,60,16 // pmovzxbw (%r8,%rdx,1),%xmm7
- .byte 235,91 // jmp 2ed45 <_sk_load_a8_dst_sse41_lowp+0x9d>
+ .byte 235,91 // jmp 2ed61 <_sk_load_a8_dst_sse41_lowp+0x9d>
.byte 65,15,182,68,16,2 // movzbl 0x2(%r8,%rdx,1),%eax
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 102,15,196,224,2 // pinsrw $0x2,%eax,%xmm4
@@ -55816,7 +55828,7 @@ _sk_load_a8_dst_sse41_lowp:
.byte 102,15,110,232 // movd %eax,%xmm5
.byte 102,15,56,48,253 // pmovzxbw %xmm5,%xmm7
.byte 102,15,58,14,252,252 // pblendw $0xfc,%xmm4,%xmm7
- .byte 235,54 // jmp 2ed45 <_sk_load_a8_dst_sse41_lowp+0x9d>
+ .byte 235,54 // jmp 2ed61 <_sk_load_a8_dst_sse41_lowp+0x9d>
.byte 65,15,182,68,16,6 // movzbl 0x6(%r8,%rdx,1),%eax
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 102,15,196,224,6 // pinsrw $0x6,%eax,%xmm4
@@ -55827,13 +55839,13 @@ _sk_load_a8_dst_sse41_lowp:
.byte 102,65,15,110,44,16 // movd (%r8,%rdx,1),%xmm5
.byte 102,15,56,48,253 // pmovzxbw %xmm5,%xmm7
.byte 102,15,58,14,252,240 // pblendw $0xf0,%xmm4,%xmm7
- .byte 102,15,219,61,19,62,0,0 // pand 0x3e13(%rip),%xmm7 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xa20>
+ .byte 102,15,219,61,39,62,0,0 // pand 0x3e27(%rip),%xmm7 # 32b90 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 102,15,239,237 // pxor %xmm5,%xmm5
.byte 15,87,246 // xorps %xmm6,%xmm6
.byte 255,224 // jmpq *%rax
- .byte 122,255 // jp 2ed5d <_sk_load_a8_dst_sse41_lowp+0xb5>
+ .byte 122,255 // jp 2ed79 <_sk_load_a8_dst_sse41_lowp+0xb5>
.byte 255 // (bad)
.byte 255,157,255,255,255,142 // lcall *-0x71000001(%rbp)
.byte 255 // (bad)
@@ -55864,28 +55876,28 @@ _sk_store_a8_sse41_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,29 // ja 2edac <_sk_store_a8_sse41_lowp+0x34>
+ .byte 119,29 // ja 2edc8 <_sk_store_a8_sse41_lowp+0x34>
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,131,0,0,0 // lea 0x83(%rip),%r9 # 2ee1c <_sk_store_a8_sse41_lowp+0xa4>
+ .byte 76,141,13,131,0,0,0 // lea 0x83(%rip),%r9 # 2ee38 <_sk_store_a8_sse41_lowp+0xa4>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 102,65,15,58,20,28,16,0 // pextrb $0x0,%xmm3,(%r8,%rdx,1)
- .byte 235,105 // jmp 2ee15 <_sk_store_a8_sse41_lowp+0x9d>
+ .byte 235,105 // jmp 2ee31 <_sk_store_a8_sse41_lowp+0x9d>
.byte 102,68,15,111,195 // movdqa %xmm3,%xmm8
- .byte 102,68,15,56,0,5,245,68,0,0 // pshufb 0x44f5(%rip),%xmm8 # 332b0 <_sk_srcover_rgba_8888_sse2_lowp+0x1170>
+ .byte 102,68,15,56,0,5,25,69,0,0 // pshufb 0x4519(%rip),%xmm8 # 332f0 <_sk_srcover_rgba_8888_sse2_lowp+0x1194>
.byte 102,69,15,214,4,16 // movq %xmm8,(%r8,%rdx,1)
- .byte 235,82 // jmp 2ee15 <_sk_store_a8_sse41_lowp+0x9d>
+ .byte 235,82 // jmp 2ee31 <_sk_store_a8_sse41_lowp+0x9d>
.byte 102,65,15,58,20,92,16,2,4 // pextrb $0x4,%xmm3,0x2(%r8,%rdx,1)
.byte 102,68,15,111,195 // movdqa %xmm3,%xmm8
- .byte 102,68,15,56,0,5,149,61,0,0 // pshufb 0x3d95(%rip),%xmm8 # 32b70 <_sk_srcover_rgba_8888_sse2_lowp+0xa30>
+ .byte 102,68,15,56,0,5,169,61,0,0 // pshufb 0x3da9(%rip),%xmm8 # 32ba0 <_sk_srcover_rgba_8888_sse2_lowp+0xa44>
.byte 102,69,15,58,21,4,16,0 // pextrw $0x0,%xmm8,(%r8,%rdx,1)
- .byte 235,48 // jmp 2ee15 <_sk_store_a8_sse41_lowp+0x9d>
+ .byte 235,48 // jmp 2ee31 <_sk_store_a8_sse41_lowp+0x9d>
.byte 102,65,15,58,20,92,16,6,12 // pextrb $0xc,%xmm3,0x6(%r8,%rdx,1)
.byte 102,65,15,58,20,92,16,5,10 // pextrb $0xa,%xmm3,0x5(%r8,%rdx,1)
.byte 102,65,15,58,20,92,16,4,8 // pextrb $0x8,%xmm3,0x4(%r8,%rdx,1)
.byte 102,68,15,111,195 // movdqa %xmm3,%xmm8
- .byte 102,68,15,56,0,5,113,61,0,0 // pshufb 0x3d71(%rip),%xmm8 # 32b80 <_sk_srcover_rgba_8888_sse2_lowp+0xa40>
+ .byte 102,68,15,56,0,5,133,61,0,0 // pshufb 0x3d85(%rip),%xmm8 # 32bb0 <_sk_srcover_rgba_8888_sse2_lowp+0xa54>
.byte 102,69,15,126,4,16 // movd %xmm8,(%r8,%rdx,1)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -55921,18 +55933,18 @@ _sk_load_g8_sse41_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,34 // ja 2ee71 <_sk_load_g8_sse41_lowp+0x39>
+ .byte 119,34 // ja 2ee8d <_sk_load_g8_sse41_lowp+0x39>
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,147,0,0,0 // lea 0x93(%rip),%r9 # 2eef0 <_sk_load_g8_sse41_lowp+0xb8>
+ .byte 76,141,13,147,0,0,0 // lea 0x93(%rip),%r9 # 2ef0c <_sk_load_g8_sse41_lowp+0xb8>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
.byte 102,15,110,192 // movd %eax,%xmm0
- .byte 235,100 // jmp 2eed5 <_sk_load_g8_sse41_lowp+0x9d>
+ .byte 235,100 // jmp 2eef1 <_sk_load_g8_sse41_lowp+0x9d>
.byte 102,65,15,56,48,4,16 // pmovzxbw (%r8,%rdx,1),%xmm0
- .byte 235,91 // jmp 2eed5 <_sk_load_g8_sse41_lowp+0x9d>
+ .byte 235,91 // jmp 2eef1 <_sk_load_g8_sse41_lowp+0x9d>
.byte 65,15,182,68,16,2 // movzbl 0x2(%r8,%rdx,1),%eax
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 102,15,196,200,2 // pinsrw $0x2,%eax,%xmm1
@@ -55940,7 +55952,7 @@ _sk_load_g8_sse41_lowp:
.byte 102,15,110,192 // movd %eax,%xmm0
.byte 102,15,56,48,192 // pmovzxbw %xmm0,%xmm0
.byte 102,15,58,14,193,252 // pblendw $0xfc,%xmm1,%xmm0
- .byte 235,54 // jmp 2eed5 <_sk_load_g8_sse41_lowp+0x9d>
+ .byte 235,54 // jmp 2eef1 <_sk_load_g8_sse41_lowp+0x9d>
.byte 65,15,182,68,16,6 // movzbl 0x6(%r8,%rdx,1),%eax
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 102,15,196,200,6 // pinsrw $0x6,%eax,%xmm1
@@ -55951,13 +55963,13 @@ _sk_load_g8_sse41_lowp:
.byte 102,65,15,110,4,16 // movd (%r8,%rdx,1),%xmm0
.byte 102,15,56,48,192 // pmovzxbw %xmm0,%xmm0
.byte 102,15,58,14,193,240 // pblendw $0xf0,%xmm1,%xmm0
- .byte 102,15,219,5,131,60,0,0 // pand 0x3c83(%rip),%xmm0 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xa20>
+ .byte 102,15,219,5,151,60,0,0 // pand 0x3c97(%rip),%xmm0 # 32b90 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,122,60,0,0 // movaps 0x3c7a(%rip),%xmm3 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xa20>
+ .byte 15,40,29,142,60,0,0 // movaps 0x3c8e(%rip),%xmm3 # 32b90 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
.byte 102,15,111,208 // movdqa %xmm0,%xmm2
.byte 255,224 // jmpq *%rax
- .byte 118,255 // jbe 2eef1 <_sk_load_g8_sse41_lowp+0xb9>
+ .byte 118,255 // jbe 2ef0d <_sk_load_g8_sse41_lowp+0xb9>
.byte 255 // (bad)
.byte 255,153,255,255,255,138 // lcall *-0x75000001(%rcx)
.byte 255 // (bad)
@@ -55986,18 +55998,18 @@ _sk_load_g8_dst_sse41_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,34 // ja 2ef45 <_sk_load_g8_dst_sse41_lowp+0x39>
+ .byte 119,34 // ja 2ef61 <_sk_load_g8_dst_sse41_lowp+0x39>
.byte 102,15,239,237 // pxor %xmm5,%xmm5
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,147,0,0,0 // lea 0x93(%rip),%r9 # 2efc4 <_sk_load_g8_dst_sse41_lowp+0xb8>
+ .byte 76,141,13,147,0,0,0 // lea 0x93(%rip),%r9 # 2efe0 <_sk_load_g8_dst_sse41_lowp+0xb8>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
.byte 102,15,110,224 // movd %eax,%xmm4
- .byte 235,100 // jmp 2efa9 <_sk_load_g8_dst_sse41_lowp+0x9d>
+ .byte 235,100 // jmp 2efc5 <_sk_load_g8_dst_sse41_lowp+0x9d>
.byte 102,65,15,56,48,36,16 // pmovzxbw (%r8,%rdx,1),%xmm4
- .byte 235,91 // jmp 2efa9 <_sk_load_g8_dst_sse41_lowp+0x9d>
+ .byte 235,91 // jmp 2efc5 <_sk_load_g8_dst_sse41_lowp+0x9d>
.byte 65,15,182,68,16,2 // movzbl 0x2(%r8,%rdx,1),%eax
.byte 102,15,239,237 // pxor %xmm5,%xmm5
.byte 102,15,196,232,2 // pinsrw $0x2,%eax,%xmm5
@@ -56005,7 +56017,7 @@ _sk_load_g8_dst_sse41_lowp:
.byte 102,15,110,224 // movd %eax,%xmm4
.byte 102,15,56,48,228 // pmovzxbw %xmm4,%xmm4
.byte 102,15,58,14,229,252 // pblendw $0xfc,%xmm5,%xmm4
- .byte 235,54 // jmp 2efa9 <_sk_load_g8_dst_sse41_lowp+0x9d>
+ .byte 235,54 // jmp 2efc5 <_sk_load_g8_dst_sse41_lowp+0x9d>
.byte 65,15,182,68,16,6 // movzbl 0x6(%r8,%rdx,1),%eax
.byte 102,15,239,237 // pxor %xmm5,%xmm5
.byte 102,15,196,232,6 // pinsrw $0x6,%eax,%xmm5
@@ -56016,13 +56028,13 @@ _sk_load_g8_dst_sse41_lowp:
.byte 102,65,15,110,36,16 // movd (%r8,%rdx,1),%xmm4
.byte 102,15,56,48,228 // pmovzxbw %xmm4,%xmm4
.byte 102,15,58,14,229,240 // pblendw $0xf0,%xmm5,%xmm4
- .byte 102,15,219,37,175,59,0,0 // pand 0x3baf(%rip),%xmm4 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xa20>
+ .byte 102,15,219,37,195,59,0,0 // pand 0x3bc3(%rip),%xmm4 # 32b90 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,61,166,59,0,0 // movaps 0x3ba6(%rip),%xmm7 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xa20>
+ .byte 15,40,61,186,59,0,0 // movaps 0x3bba(%rip),%xmm7 # 32b90 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
.byte 102,15,111,236 // movdqa %xmm4,%xmm5
.byte 102,15,111,244 // movdqa %xmm4,%xmm6
.byte 255,224 // jmpq *%rax
- .byte 118,255 // jbe 2efc5 <_sk_load_g8_dst_sse41_lowp+0xb9>
+ .byte 118,255 // jbe 2efe1 <_sk_load_g8_dst_sse41_lowp+0xb9>
.byte 255 // (bad)
.byte 255,153,255,255,255,138 // lcall *-0x75000001(%rcx)
.byte 255 // (bad)
@@ -56044,10 +56056,10 @@ HIDDEN _sk_luminance_to_alpha_sse41_lowp
FUNCTION(_sk_luminance_to_alpha_sse41_lowp)
_sk_luminance_to_alpha_sse41_lowp:
.byte 102,15,111,218 // movdqa %xmm2,%xmm3
- .byte 102,15,213,5,116,67,0,0 // pmullw 0x4374(%rip),%xmm0 # 33360 <_sk_srcover_rgba_8888_sse2_lowp+0x1220>
- .byte 102,15,213,13,124,67,0,0 // pmullw 0x437c(%rip),%xmm1 # 33370 <_sk_srcover_rgba_8888_sse2_lowp+0x1230>
+ .byte 102,15,213,5,152,67,0,0 // pmullw 0x4398(%rip),%xmm0 # 333a0 <_sk_srcover_rgba_8888_sse2_lowp+0x1244>
+ .byte 102,15,213,13,160,67,0,0 // pmullw 0x43a0(%rip),%xmm1 # 333b0 <_sk_srcover_rgba_8888_sse2_lowp+0x1254>
.byte 102,15,253,200 // paddw %xmm0,%xmm1
- .byte 102,15,213,29,128,67,0,0 // pmullw 0x4380(%rip),%xmm3 # 33380 <_sk_srcover_rgba_8888_sse2_lowp+0x1240>
+ .byte 102,15,213,29,164,67,0,0 // pmullw 0x43a4(%rip),%xmm3 # 333c0 <_sk_srcover_rgba_8888_sse2_lowp+0x1264>
.byte 102,15,253,217 // paddw %xmm1,%xmm3
.byte 102,15,113,211,8 // psrlw $0x8,%xmm3
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -56062,14 +56074,14 @@ FUNCTION(_sk_scale_1_float_sse41_lowp)
_sk_scale_1_float_sse41_lowp:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 243,68,15,16,0 // movss (%rax),%xmm8
- .byte 243,68,15,89,5,203,57,0,0 // mulss 0x39cb(%rip),%xmm8 # 329f4 <_sk_srcover_rgba_8888_sse2_lowp+0x8b4>
- .byte 243,68,15,88,5,146,57,0,0 // addss 0x3992(%rip),%xmm8 # 329c4 <_sk_srcover_rgba_8888_sse2_lowp+0x884>
+ .byte 243,68,15,89,5,207,57,0,0 // mulss 0x39cf(%rip),%xmm8 # 32a14 <_sk_srcover_rgba_8888_sse2_lowp+0x8b8>
+ .byte 243,68,15,88,5,150,57,0,0 // addss 0x3996(%rip),%xmm8 # 329e4 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 243,65,15,44,192 // cvttss2si %xmm8,%eax
.byte 102,68,15,110,192 // movd %eax,%xmm8
.byte 242,69,15,112,192,0 // pshuflw $0x0,%xmm8,%xmm8
.byte 102,69,15,112,192,80 // pshufd $0x50,%xmm8,%xmm8
.byte 102,65,15,213,192 // pmullw %xmm8,%xmm0
- .byte 102,68,15,111,13,10,59,0,0 // movdqa 0x3b0a(%rip),%xmm9 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xa20>
+ .byte 102,68,15,111,13,30,59,0,0 // movdqa 0x3b1e(%rip),%xmm9 # 32b90 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
.byte 102,65,15,253,193 // paddw %xmm9,%xmm0
.byte 102,15,113,208,8 // psrlw $0x8,%xmm0
.byte 102,65,15,213,200 // pmullw %xmm8,%xmm1
@@ -56090,13 +56102,13 @@ FUNCTION(_sk_lerp_1_float_sse41_lowp)
_sk_lerp_1_float_sse41_lowp:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 243,68,15,16,0 // movss (%rax),%xmm8
- .byte 243,68,15,89,5,83,57,0,0 // mulss 0x3953(%rip),%xmm8 # 329f4 <_sk_srcover_rgba_8888_sse2_lowp+0x8b4>
- .byte 243,68,15,88,5,26,57,0,0 // addss 0x391a(%rip),%xmm8 # 329c4 <_sk_srcover_rgba_8888_sse2_lowp+0x884>
+ .byte 243,68,15,89,5,87,57,0,0 // mulss 0x3957(%rip),%xmm8 # 32a14 <_sk_srcover_rgba_8888_sse2_lowp+0x8b8>
+ .byte 243,68,15,88,5,30,57,0,0 // addss 0x391e(%rip),%xmm8 # 329e4 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 243,65,15,44,192 // cvttss2si %xmm8,%eax
.byte 102,68,15,110,192 // movd %eax,%xmm8
.byte 242,69,15,112,192,0 // pshuflw $0x0,%xmm8,%xmm8
.byte 102,69,15,112,192,80 // pshufd $0x50,%xmm8,%xmm8
- .byte 102,68,15,111,13,151,58,0,0 // movdqa 0x3a97(%rip),%xmm9 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xa20>
+ .byte 102,68,15,111,13,171,58,0,0 // movdqa 0x3aab(%rip),%xmm9 # 32b90 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
.byte 102,65,15,213,192 // pmullw %xmm8,%xmm0
.byte 102,65,15,253,193 // paddw %xmm9,%xmm0
.byte 102,65,15,213,200 // pmullw %xmm8,%xmm1
@@ -56136,18 +56148,18 @@ _sk_scale_u8_sse41_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,36 // ja 2f180 <_sk_scale_u8_sse41_lowp+0x3b>
+ .byte 119,36 // ja 2f19c <_sk_scale_u8_sse41_lowp+0x3b>
.byte 102,69,15,239,201 // pxor %xmm9,%xmm9
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,221,0,0,0 // lea 0xdd(%rip),%r9 # 2f248 <_sk_scale_u8_sse41_lowp+0x103>
+ .byte 76,141,13,221,0,0,0 // lea 0xdd(%rip),%r9 # 2f264 <_sk_scale_u8_sse41_lowp+0x103>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
.byte 102,68,15,110,192 // movd %eax,%xmm8
- .byte 235,111 // jmp 2f1ef <_sk_scale_u8_sse41_lowp+0xaa>
+ .byte 235,111 // jmp 2f20b <_sk_scale_u8_sse41_lowp+0xaa>
.byte 102,69,15,56,48,4,16 // pmovzxbw (%r8,%rdx,1),%xmm8
- .byte 235,102 // jmp 2f1ef <_sk_scale_u8_sse41_lowp+0xaa>
+ .byte 235,102 // jmp 2f20b <_sk_scale_u8_sse41_lowp+0xaa>
.byte 65,15,182,68,16,2 // movzbl 0x2(%r8,%rdx,1),%eax
.byte 102,69,15,239,201 // pxor %xmm9,%xmm9
.byte 102,68,15,196,200,2 // pinsrw $0x2,%eax,%xmm9
@@ -56155,7 +56167,7 @@ _sk_scale_u8_sse41_lowp:
.byte 102,68,15,110,192 // movd %eax,%xmm8
.byte 102,69,15,56,48,192 // pmovzxbw %xmm8,%xmm8
.byte 102,69,15,58,14,193,252 // pblendw $0xfc,%xmm9,%xmm8
- .byte 235,60 // jmp 2f1ef <_sk_scale_u8_sse41_lowp+0xaa>
+ .byte 235,60 // jmp 2f20b <_sk_scale_u8_sse41_lowp+0xaa>
.byte 65,15,182,68,16,6 // movzbl 0x6(%r8,%rdx,1),%eax
.byte 102,69,15,239,201 // pxor %xmm9,%xmm9
.byte 102,68,15,196,200,6 // pinsrw $0x6,%eax,%xmm9
@@ -56166,9 +56178,9 @@ _sk_scale_u8_sse41_lowp:
.byte 102,69,15,110,4,16 // movd (%r8,%rdx,1),%xmm8
.byte 102,69,15,56,48,192 // pmovzxbw %xmm8,%xmm8
.byte 102,69,15,58,14,193,240 // pblendw $0xf0,%xmm9,%xmm8
- .byte 102,68,15,219,5,104,57,0,0 // pand 0x3968(%rip),%xmm8 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xa20>
+ .byte 102,68,15,219,5,124,57,0,0 // pand 0x397c(%rip),%xmm8 # 32b90 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
.byte 102,65,15,213,192 // pmullw %xmm8,%xmm0
- .byte 102,68,15,111,13,90,57,0,0 // movdqa 0x395a(%rip),%xmm9 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xa20>
+ .byte 102,68,15,111,13,110,57,0,0 // movdqa 0x396e(%rip),%xmm9 # 32b90 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
.byte 102,65,15,253,193 // paddw %xmm9,%xmm0
.byte 102,15,113,208,8 // psrlw $0x8,%xmm0
.byte 102,65,15,213,200 // pmullw %xmm8,%xmm1
@@ -56193,7 +56205,7 @@ _sk_scale_u8_sse41_lowp:
.byte 255,148,255,255,255,136,255 // callq *-0x770001(%rdi,%rdi,8)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 124,255 // jl 2f25d <_sk_scale_u8_sse41_lowp+0x118>
+ .byte 124,255 // jl 2f279 <_sk_scale_u8_sse41_lowp+0x118>
.byte 255 // (bad)
.byte 255,107,255 // ljmp *-0x1(%rbx)
.byte 255 // (bad)
@@ -56211,18 +56223,18 @@ _sk_lerp_u8_sse41_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,36 // ja 2f29f <_sk_lerp_u8_sse41_lowp+0x3b>
+ .byte 119,36 // ja 2f2bb <_sk_lerp_u8_sse41_lowp+0x3b>
.byte 102,69,15,239,201 // pxor %xmm9,%xmm9
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,30,1,0,0 // lea 0x11e(%rip),%r9 # 2f3a8 <_sk_lerp_u8_sse41_lowp+0x144>
+ .byte 76,141,13,30,1,0,0 // lea 0x11e(%rip),%r9 # 2f3c4 <_sk_lerp_u8_sse41_lowp+0x144>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
.byte 102,68,15,110,192 // movd %eax,%xmm8
- .byte 235,111 // jmp 2f30e <_sk_lerp_u8_sse41_lowp+0xaa>
+ .byte 235,111 // jmp 2f32a <_sk_lerp_u8_sse41_lowp+0xaa>
.byte 102,69,15,56,48,4,16 // pmovzxbw (%r8,%rdx,1),%xmm8
- .byte 235,102 // jmp 2f30e <_sk_lerp_u8_sse41_lowp+0xaa>
+ .byte 235,102 // jmp 2f32a <_sk_lerp_u8_sse41_lowp+0xaa>
.byte 65,15,182,68,16,2 // movzbl 0x2(%r8,%rdx,1),%eax
.byte 102,69,15,239,201 // pxor %xmm9,%xmm9
.byte 102,68,15,196,200,2 // pinsrw $0x2,%eax,%xmm9
@@ -56230,7 +56242,7 @@ _sk_lerp_u8_sse41_lowp:
.byte 102,68,15,110,192 // movd %eax,%xmm8
.byte 102,69,15,56,48,192 // pmovzxbw %xmm8,%xmm8
.byte 102,69,15,58,14,193,252 // pblendw $0xfc,%xmm9,%xmm8
- .byte 235,60 // jmp 2f30e <_sk_lerp_u8_sse41_lowp+0xaa>
+ .byte 235,60 // jmp 2f32a <_sk_lerp_u8_sse41_lowp+0xaa>
.byte 65,15,182,68,16,6 // movzbl 0x6(%r8,%rdx,1),%eax
.byte 102,69,15,239,201 // pxor %xmm9,%xmm9
.byte 102,68,15,196,200,6 // pinsrw $0x6,%eax,%xmm9
@@ -56241,8 +56253,8 @@ _sk_lerp_u8_sse41_lowp:
.byte 102,69,15,110,4,16 // movd (%r8,%rdx,1),%xmm8
.byte 102,69,15,56,48,192 // pmovzxbw %xmm8,%xmm8
.byte 102,69,15,58,14,193,240 // pblendw $0xf0,%xmm9,%xmm8
- .byte 102,68,15,219,5,73,56,0,0 // pand 0x3849(%rip),%xmm8 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xa20>
- .byte 102,68,15,111,21,64,56,0,0 // movdqa 0x3840(%rip),%xmm10 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xa20>
+ .byte 102,68,15,219,5,93,56,0,0 // pand 0x385d(%rip),%xmm8 # 32b90 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
+ .byte 102,68,15,111,21,84,56,0,0 // movdqa 0x3854(%rip),%xmm10 # 32b90 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
.byte 102,69,15,111,200 // movdqa %xmm8,%xmm9
.byte 102,69,15,239,202 // pxor %xmm10,%xmm9
.byte 102,69,15,111,217 // movdqa %xmm9,%xmm11
@@ -56272,7 +56284,7 @@ _sk_lerp_u8_sse41_lowp:
.byte 102,65,15,111,216 // movdqa %xmm8,%xmm3
.byte 255,224 // jmpq *%rax
.byte 144 // nop
- .byte 235,254 // jmp 2f3a8 <_sk_lerp_u8_sse41_lowp+0x144>
+ .byte 235,254 // jmp 2f3c4 <_sk_lerp_u8_sse41_lowp+0x144>
.byte 255 // (bad)
.byte 255,17 // callq *(%rcx)
.byte 255 // (bad)
@@ -56306,23 +56318,23 @@ _sk_scale_565_sse41_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,35 // ja 2f406 <_sk_scale_565_sse41_lowp+0x42>
+ .byte 119,35 // ja 2f422 <_sk_scale_565_sse41_lowp+0x42>
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,111,1,0,0 // lea 0x16f(%rip),%r9 # 2f560 <_sk_scale_565_sse41_lowp+0x19c>
+ .byte 76,141,13,111,1,0,0 // lea 0x16f(%rip),%r9 # 2f57c <_sk_scale_565_sse41_lowp+0x19c>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,183,4,80 // movzwl (%r8,%rdx,2),%eax
.byte 102,68,15,110,200 // movd %eax,%xmm9
- .byte 235,76 // jmp 2f452 <_sk_scale_565_sse41_lowp+0x8e>
+ .byte 235,76 // jmp 2f46e <_sk_scale_565_sse41_lowp+0x8e>
.byte 243,69,15,111,12,80 // movdqu (%r8,%rdx,2),%xmm9
- .byte 235,68 // jmp 2f452 <_sk_scale_565_sse41_lowp+0x8e>
+ .byte 235,68 // jmp 2f46e <_sk_scale_565_sse41_lowp+0x8e>
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,65,15,196,68,80,4,2 // pinsrw $0x2,0x4(%r8,%rdx,2),%xmm0
.byte 102,69,15,110,12,80 // movd (%r8,%rdx,2),%xmm9
.byte 102,68,15,58,14,200,252 // pblendw $0xfc,%xmm0,%xmm9
- .byte 235,41 // jmp 2f452 <_sk_scale_565_sse41_lowp+0x8e>
+ .byte 235,41 // jmp 2f46e <_sk_scale_565_sse41_lowp+0x8e>
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,65,15,196,68,80,12,6 // pinsrw $0x6,0xc(%r8,%rdx,2),%xmm0
.byte 102,65,15,196,68,80,10,5 // pinsrw $0x5,0xa(%r8,%rdx,2),%xmm0
@@ -56331,11 +56343,11 @@ _sk_scale_565_sse41_lowp:
.byte 102,68,15,58,14,200,240 // pblendw $0xf0,%xmm0,%xmm9
.byte 102,65,15,111,193 // movdqa %xmm9,%xmm0
.byte 102,15,113,208,8 // psrlw $0x8,%xmm0
- .byte 102,15,219,5,172,62,0,0 // pand 0x3eac(%rip),%xmm0 # 33310 <_sk_srcover_rgba_8888_sse2_lowp+0x11d0>
+ .byte 102,15,219,5,208,62,0,0 // pand 0x3ed0(%rip),%xmm0 # 33350 <_sk_srcover_rgba_8888_sse2_lowp+0x11f4>
.byte 102,69,15,111,209 // movdqa %xmm9,%xmm10
.byte 102,65,15,113,210,5 // psrlw $0x5,%xmm10
- .byte 102,68,15,219,21,168,62,0,0 // pand 0x3ea8(%rip),%xmm10 # 33320 <_sk_srcover_rgba_8888_sse2_lowp+0x11e0>
- .byte 102,68,15,111,29,175,62,0,0 // movdqa 0x3eaf(%rip),%xmm11 # 33330 <_sk_srcover_rgba_8888_sse2_lowp+0x11f0>
+ .byte 102,68,15,219,21,204,62,0,0 // pand 0x3ecc(%rip),%xmm10 # 33360 <_sk_srcover_rgba_8888_sse2_lowp+0x1204>
+ .byte 102,68,15,111,29,211,62,0,0 // movdqa 0x3ed3(%rip),%xmm11 # 33370 <_sk_srcover_rgba_8888_sse2_lowp+0x1214>
.byte 102,69,15,219,217 // pand %xmm9,%xmm11
.byte 102,65,15,113,209,13 // psrlw $0xd,%xmm9
.byte 102,68,15,235,200 // por %xmm0,%xmm9
@@ -56347,7 +56359,7 @@ _sk_scale_565_sse41_lowp:
.byte 102,15,113,240,3 // psllw $0x3,%xmm0
.byte 102,65,15,113,211,2 // psrlw $0x2,%xmm11
.byte 102,68,15,235,216 // por %xmm0,%xmm11
- .byte 102,15,111,5,13,62,0,0 // movdqa 0x3e0d(%rip),%xmm0 # 332d0 <_sk_srcover_rgba_8888_sse2_lowp+0x1190>
+ .byte 102,15,111,5,49,62,0,0 // movdqa 0x3e31(%rip),%xmm0 # 33310 <_sk_srcover_rgba_8888_sse2_lowp+0x11b4>
.byte 102,68,15,111,227 // movdqa %xmm3,%xmm12
.byte 102,68,15,239,224 // pxor %xmm0,%xmm12
.byte 102,15,239,199 // pxor %xmm7,%xmm0
@@ -56360,7 +56372,7 @@ _sk_scale_565_sse41_lowp:
.byte 102,69,15,56,62,225 // pmaxuw %xmm9,%xmm12
.byte 102,69,15,56,16,229 // pblendvb %xmm0,%xmm13,%xmm12
.byte 102,69,15,213,200 // pmullw %xmm8,%xmm9
- .byte 102,15,111,5,85,54,0,0 // movdqa 0x3655(%rip),%xmm0 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xa20>
+ .byte 102,15,111,5,105,54,0,0 // movdqa 0x3669(%rip),%xmm0 # 32b90 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
.byte 102,68,15,253,200 // paddw %xmm0,%xmm9
.byte 102,65,15,113,209,8 // psrlw $0x8,%xmm9
.byte 102,68,15,213,209 // pmullw %xmm1,%xmm10
@@ -56414,23 +56426,23 @@ _sk_lerp_565_sse41_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,35 // ja 2f5be <_sk_lerp_565_sse41_lowp+0x42>
+ .byte 119,35 // ja 2f5da <_sk_lerp_565_sse41_lowp+0x42>
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,187,1,0,0 // lea 0x1bb(%rip),%r9 # 2f764 <_sk_lerp_565_sse41_lowp+0x1e8>
+ .byte 76,141,13,187,1,0,0 // lea 0x1bb(%rip),%r9 # 2f780 <_sk_lerp_565_sse41_lowp+0x1e8>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,183,4,80 // movzwl (%r8,%rdx,2),%eax
.byte 102,68,15,110,200 // movd %eax,%xmm9
- .byte 235,76 // jmp 2f60a <_sk_lerp_565_sse41_lowp+0x8e>
+ .byte 235,76 // jmp 2f626 <_sk_lerp_565_sse41_lowp+0x8e>
.byte 243,69,15,111,12,80 // movdqu (%r8,%rdx,2),%xmm9
- .byte 235,68 // jmp 2f60a <_sk_lerp_565_sse41_lowp+0x8e>
+ .byte 235,68 // jmp 2f626 <_sk_lerp_565_sse41_lowp+0x8e>
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,65,15,196,68,80,4,2 // pinsrw $0x2,0x4(%r8,%rdx,2),%xmm0
.byte 102,69,15,110,12,80 // movd (%r8,%rdx,2),%xmm9
.byte 102,68,15,58,14,200,252 // pblendw $0xfc,%xmm0,%xmm9
- .byte 235,41 // jmp 2f60a <_sk_lerp_565_sse41_lowp+0x8e>
+ .byte 235,41 // jmp 2f626 <_sk_lerp_565_sse41_lowp+0x8e>
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,65,15,196,68,80,12,6 // pinsrw $0x6,0xc(%r8,%rdx,2),%xmm0
.byte 102,65,15,196,68,80,10,5 // pinsrw $0x5,0xa(%r8,%rdx,2),%xmm0
@@ -56439,11 +56451,11 @@ _sk_lerp_565_sse41_lowp:
.byte 102,68,15,58,14,200,240 // pblendw $0xf0,%xmm0,%xmm9
.byte 102,65,15,111,193 // movdqa %xmm9,%xmm0
.byte 102,15,113,208,8 // psrlw $0x8,%xmm0
- .byte 102,15,219,5,244,60,0,0 // pand 0x3cf4(%rip),%xmm0 # 33310 <_sk_srcover_rgba_8888_sse2_lowp+0x11d0>
+ .byte 102,15,219,5,24,61,0,0 // pand 0x3d18(%rip),%xmm0 # 33350 <_sk_srcover_rgba_8888_sse2_lowp+0x11f4>
.byte 102,69,15,111,209 // movdqa %xmm9,%xmm10
.byte 102,65,15,113,210,5 // psrlw $0x5,%xmm10
- .byte 102,68,15,219,21,240,60,0,0 // pand 0x3cf0(%rip),%xmm10 # 33320 <_sk_srcover_rgba_8888_sse2_lowp+0x11e0>
- .byte 102,68,15,111,29,247,60,0,0 // movdqa 0x3cf7(%rip),%xmm11 # 33330 <_sk_srcover_rgba_8888_sse2_lowp+0x11f0>
+ .byte 102,68,15,219,21,20,61,0,0 // pand 0x3d14(%rip),%xmm10 # 33360 <_sk_srcover_rgba_8888_sse2_lowp+0x1204>
+ .byte 102,68,15,111,29,27,61,0,0 // movdqa 0x3d1b(%rip),%xmm11 # 33370 <_sk_srcover_rgba_8888_sse2_lowp+0x1214>
.byte 102,69,15,219,217 // pand %xmm9,%xmm11
.byte 102,65,15,113,209,13 // psrlw $0xd,%xmm9
.byte 102,68,15,235,200 // por %xmm0,%xmm9
@@ -56455,7 +56467,7 @@ _sk_lerp_565_sse41_lowp:
.byte 102,15,113,240,3 // psllw $0x3,%xmm0
.byte 102,65,15,113,211,2 // psrlw $0x2,%xmm11
.byte 102,68,15,235,216 // por %xmm0,%xmm11
- .byte 102,15,111,5,85,60,0,0 // movdqa 0x3c55(%rip),%xmm0 # 332d0 <_sk_srcover_rgba_8888_sse2_lowp+0x1190>
+ .byte 102,15,111,5,121,60,0,0 // movdqa 0x3c79(%rip),%xmm0 # 33310 <_sk_srcover_rgba_8888_sse2_lowp+0x11b4>
.byte 102,68,15,111,227 // movdqa %xmm3,%xmm12
.byte 102,68,15,239,224 // pxor %xmm0,%xmm12
.byte 102,15,239,199 // pxor %xmm7,%xmm0
@@ -56467,7 +56479,7 @@ _sk_lerp_565_sse41_lowp:
.byte 102,69,15,56,62,227 // pmaxuw %xmm11,%xmm12
.byte 102,69,15,56,62,225 // pmaxuw %xmm9,%xmm12
.byte 102,69,15,56,16,229 // pblendvb %xmm0,%xmm13,%xmm12
- .byte 102,68,15,111,45,161,52,0,0 // movdqa 0x34a1(%rip),%xmm13 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xa20>
+ .byte 102,68,15,111,45,181,52,0,0 // movdqa 0x34b5(%rip),%xmm13 # 32b90 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
.byte 102,65,15,111,193 // movdqa %xmm9,%xmm0
.byte 102,65,15,239,197 // pxor %xmm13,%xmm0
.byte 102,15,213,196 // pmullw %xmm4,%xmm0
@@ -56531,48 +56543,48 @@ _sk_srcover_rgba_8888_sse41_lowp:
.byte 65,254,202 // dec %r10b
.byte 69,15,182,202 // movzbl %r10b,%r9d
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,38 // ja 2f7cb <_sk_srcover_rgba_8888_sse41_lowp+0x4b>
+ .byte 119,38 // ja 2f7e7 <_sk_srcover_rgba_8888_sse41_lowp+0x4b>
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
- .byte 76,141,29,23,2,0,0 // lea 0x217(%rip),%r11 # 2f9c8 <_sk_srcover_rgba_8888_sse41_lowp+0x248>
+ .byte 76,141,29,23,2,0,0 // lea 0x217(%rip),%r11 # 2f9e4 <_sk_srcover_rgba_8888_sse41_lowp+0x248>
.byte 75,99,4,139 // movslq (%r11,%r9,4),%rax
.byte 76,1,216 // add %r11,%rax
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 255,224 // jmpq *%rax
.byte 102,65,15,110,52,144 // movd (%r8,%rdx,4),%xmm6
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
- .byte 235,89 // jmp 2f824 <_sk_srcover_rgba_8888_sse41_lowp+0xa4>
+ .byte 235,89 // jmp 2f840 <_sk_srcover_rgba_8888_sse41_lowp+0xa4>
.byte 243,65,15,111,52,144 // movdqu (%r8,%rdx,4),%xmm6
.byte 243,69,15,111,68,144,16 // movdqu 0x10(%r8,%rdx,4),%xmm8
- .byte 235,74 // jmp 2f824 <_sk_srcover_rgba_8888_sse41_lowp+0xa4>
+ .byte 235,74 // jmp 2f840 <_sk_srcover_rgba_8888_sse41_lowp+0xa4>
.byte 102,65,15,110,100,144,8 // movd 0x8(%r8,%rdx,4),%xmm4
.byte 102,68,15,112,196,69 // pshufd $0x45,%xmm4,%xmm8
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 243,65,15,126,52,144 // movq (%r8,%rdx,4),%xmm6
.byte 102,65,15,58,14,240,240 // pblendw $0xf0,%xmm8,%xmm6
.byte 102,68,15,111,196 // movdqa %xmm4,%xmm8
- .byte 235,37 // jmp 2f824 <_sk_srcover_rgba_8888_sse41_lowp+0xa4>
+ .byte 235,37 // jmp 2f840 <_sk_srcover_rgba_8888_sse41_lowp+0xa4>
.byte 102,65,15,110,100,144,24 // movd 0x18(%r8,%rdx,4),%xmm4
.byte 102,68,15,112,196,69 // pshufd $0x45,%xmm4,%xmm8
.byte 102,69,15,58,34,68,144,20,1 // pinsrd $0x1,0x14(%r8,%rdx,4),%xmm8
.byte 102,69,15,58,34,68,144,16,0 // pinsrd $0x0,0x10(%r8,%rdx,4),%xmm8
.byte 243,65,15,111,52,144 // movdqu (%r8,%rdx,4),%xmm6
- .byte 102,15,111,37,180,58,0,0 // movdqa 0x3ab4(%rip),%xmm4 # 332e0 <_sk_srcover_rgba_8888_sse2_lowp+0x11a0>
+ .byte 102,15,111,37,216,58,0,0 // movdqa 0x3ad8(%rip),%xmm4 # 33320 <_sk_srcover_rgba_8888_sse2_lowp+0x11c4>
.byte 102,15,111,238 // movdqa %xmm6,%xmm5
.byte 102,15,56,0,236 // pshufb %xmm4,%xmm5
.byte 102,65,15,111,248 // movdqa %xmm8,%xmm7
.byte 102,15,56,0,252 // pshufb %xmm4,%xmm7
.byte 102,15,108,239 // punpcklqdq %xmm7,%xmm5
- .byte 102,68,15,111,37,20,51,0,0 // movdqa 0x3314(%rip),%xmm12 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xa20>
+ .byte 102,68,15,111,37,40,51,0,0 // movdqa 0x3328(%rip),%xmm12 # 32b90 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
.byte 102,15,111,229 // movdqa %xmm5,%xmm4
.byte 102,65,15,219,228 // pand %xmm12,%xmm4
.byte 102,15,113,213,8 // psrlw $0x8,%xmm5
- .byte 102,68,15,111,13,141,58,0,0 // movdqa 0x3a8d(%rip),%xmm9 # 332f0 <_sk_srcover_rgba_8888_sse2_lowp+0x11b0>
+ .byte 102,68,15,111,13,177,58,0,0 // movdqa 0x3ab1(%rip),%xmm9 # 33330 <_sk_srcover_rgba_8888_sse2_lowp+0x11d4>
.byte 102,15,111,254 // movdqa %xmm6,%xmm7
.byte 102,65,15,56,0,249 // pshufb %xmm9,%xmm7
.byte 102,69,15,111,208 // movdqa %xmm8,%xmm10
.byte 102,69,15,56,0,209 // pshufb %xmm9,%xmm10
.byte 102,65,15,108,250 // punpcklqdq %xmm10,%xmm7
- .byte 102,68,15,111,13,122,58,0,0 // movdqa 0x3a7a(%rip),%xmm9 # 33300 <_sk_srcover_rgba_8888_sse2_lowp+0x11c0>
+ .byte 102,68,15,111,13,158,58,0,0 // movdqa 0x3a9e(%rip),%xmm9 # 33340 <_sk_srcover_rgba_8888_sse2_lowp+0x11e4>
.byte 102,65,15,56,0,241 // pshufb %xmm9,%xmm6
.byte 102,69,15,56,0,193 // pshufb %xmm9,%xmm8
.byte 102,65,15,108,240 // punpcklqdq %xmm8,%xmm6
@@ -56614,19 +56626,19 @@ _sk_srcover_rgba_8888_sse41_lowp:
.byte 102,15,97,195 // punpcklwd %xmm3,%xmm0
.byte 102,65,15,235,196 // por %xmm12,%xmm0
.byte 65,128,250,6 // cmp $0x6,%r10b
- .byte 119,24 // ja 2f96e <_sk_srcover_rgba_8888_sse41_lowp+0x1ee>
- .byte 76,141,21,135,0,0,0 // lea 0x87(%rip),%r10 # 2f9e4 <_sk_srcover_rgba_8888_sse41_lowp+0x264>
+ .byte 119,24 // ja 2f98a <_sk_srcover_rgba_8888_sse41_lowp+0x1ee>
+ .byte 76,141,21,135,0,0,0 // lea 0x87(%rip),%r10 # 2fa00 <_sk_srcover_rgba_8888_sse41_lowp+0x264>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 102,65,15,126,4,144 // movd %xmm0,(%r8,%rdx,4)
- .byte 235,63 // jmp 2f9ad <_sk_srcover_rgba_8888_sse41_lowp+0x22d>
+ .byte 235,63 // jmp 2f9c9 <_sk_srcover_rgba_8888_sse41_lowp+0x22d>
.byte 243,65,15,127,4,144 // movdqu %xmm0,(%r8,%rdx,4)
.byte 243,65,15,127,76,144,16 // movdqu %xmm1,0x10(%r8,%rdx,4)
- .byte 235,48 // jmp 2f9ad <_sk_srcover_rgba_8888_sse41_lowp+0x22d>
+ .byte 235,48 // jmp 2f9c9 <_sk_srcover_rgba_8888_sse41_lowp+0x22d>
.byte 102,65,15,58,22,68,144,8,2 // pextrd $0x2,%xmm0,0x8(%r8,%rdx,4)
.byte 102,65,15,214,4,144 // movq %xmm0,(%r8,%rdx,4)
- .byte 235,31 // jmp 2f9ad <_sk_srcover_rgba_8888_sse41_lowp+0x22d>
+ .byte 235,31 // jmp 2f9c9 <_sk_srcover_rgba_8888_sse41_lowp+0x22d>
.byte 102,65,15,58,22,76,144,24,2 // pextrd $0x2,%xmm1,0x18(%r8,%rdx,4)
.byte 102,65,15,58,22,76,144,20,1 // pextrd $0x1,%xmm1,0x14(%r8,%rdx,4)
.byte 102,65,15,126,76,144,16 // movd %xmm1,0x10(%r8,%rdx,4)
@@ -56691,13 +56703,13 @@ _sk_start_pipeline_sse2_lowp:
.byte 73,137,246 // mov %rsi,%r14
.byte 72,137,77,192 // mov %rcx,-0x40(%rbp)
.byte 72,57,203 // cmp %rcx,%rbx
- .byte 15,131,131,0,0,0 // jae 2fab6 <_sk_start_pipeline_sse2_lowp+0xb6>
+ .byte 15,131,131,0,0,0 // jae 2fad2 <_sk_start_pipeline_sse2_lowp+0xb6>
.byte 72,139,69,208 // mov -0x30(%rbp),%rax
.byte 72,141,64,8 // lea 0x8(%rax),%rax
.byte 72,137,69,200 // mov %rax,-0x38(%rbp)
.byte 76,57,125,200 // cmp %r15,-0x38(%rbp)
.byte 72,139,85,208 // mov -0x30(%rbp),%rdx
- .byte 119,59 // ja 2fa84 <_sk_start_pipeline_sse2_lowp+0x84>
+ .byte 119,59 // ja 2faa0 <_sk_start_pipeline_sse2_lowp+0x84>
.byte 76,139,101,208 // mov -0x30(%rbp),%r12
.byte 49,255 // xor %edi,%edi
.byte 15,87,192 // xorps %xmm0,%xmm0
@@ -56716,10 +56728,10 @@ _sk_start_pipeline_sse2_lowp:
.byte 73,131,196,16 // add $0x10,%r12
.byte 77,57,252 // cmp %r15,%r12
.byte 73,137,212 // mov %rdx,%r12
- .byte 118,201 // jbe 2fa4d <_sk_start_pipeline_sse2_lowp+0x4d>
+ .byte 118,201 // jbe 2fa69 <_sk_start_pipeline_sse2_lowp+0x4d>
.byte 76,137,255 // mov %r15,%rdi
.byte 72,41,215 // sub %rdx,%rdi
- .byte 116,33 // je 2faad <_sk_start_pipeline_sse2_lowp+0xad>
+ .byte 116,33 // je 2fac9 <_sk_start_pipeline_sse2_lowp+0xad>
.byte 15,87,192 // xorps %xmm0,%xmm0
.byte 15,87,201 // xorps %xmm1,%xmm1
.byte 15,87,210 // xorps %xmm2,%xmm2
@@ -56733,7 +56745,7 @@ _sk_start_pipeline_sse2_lowp:
.byte 65,255,213 // callq *%r13
.byte 72,255,195 // inc %rbx
.byte 72,59,93,192 // cmp -0x40(%rbp),%rbx
- .byte 117,137 // jne 2fa3f <_sk_start_pipeline_sse2_lowp+0x3f>
+ .byte 117,137 // jne 2fa5b <_sk_start_pipeline_sse2_lowp+0x3f>
.byte 72,131,196,24 // add $0x18,%rsp
.byte 91 // pop %rbx
.byte 65,92 // pop %r12
@@ -56776,7 +56788,7 @@ HIDDEN _sk_black_color_sse2_lowp
FUNCTION(_sk_black_color_sse2_lowp)
_sk_black_color_sse2_lowp:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,71,48,0,0 // movaps 0x3047(%rip),%xmm3 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xa20>
+ .byte 15,40,29,91,48,0,0 // movaps 0x305b(%rip),%xmm3 # 32b90 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
.byte 15,87,192 // xorps %xmm0,%xmm0
.byte 15,87,201 // xorps %xmm1,%xmm1
.byte 15,87,210 // xorps %xmm2,%xmm2
@@ -56787,7 +56799,7 @@ HIDDEN _sk_white_color_sse2_lowp
FUNCTION(_sk_white_color_sse2_lowp)
_sk_white_color_sse2_lowp:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,5,51,48,0,0 // movaps 0x3033(%rip),%xmm0 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xa20>
+ .byte 15,40,5,71,48,0,0 // movaps 0x3047(%rip),%xmm0 # 32b90 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
.byte 15,40,200 // movaps %xmm0,%xmm1
.byte 15,40,208 // movaps %xmm0,%xmm2
.byte 15,40,216 // movaps %xmm0,%xmm3
@@ -56798,10 +56810,10 @@ HIDDEN _sk_set_rgb_sse2_lowp
FUNCTION(_sk_set_rgb_sse2_lowp)
_sk_set_rgb_sse2_lowp:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 243,15,16,21,178,46,0,0 // movss 0x2eb2(%rip),%xmm2 # 329f4 <_sk_srcover_rgba_8888_sse2_lowp+0x8b4>
+ .byte 243,15,16,21,182,46,0,0 // movss 0x2eb6(%rip),%xmm2 # 32a14 <_sk_srcover_rgba_8888_sse2_lowp+0x8b8>
.byte 243,15,16,0 // movss (%rax),%xmm0
.byte 243,15,89,194 // mulss %xmm2,%xmm0
- .byte 243,68,15,16,5,113,46,0,0 // movss 0x2e71(%rip),%xmm8 # 329c4 <_sk_srcover_rgba_8888_sse2_lowp+0x884>
+ .byte 243,68,15,16,5,117,46,0,0 // movss 0x2e75(%rip),%xmm8 # 329e4 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 243,65,15,88,192 // addss %xmm8,%xmm0
.byte 243,68,15,44,192 // cvttss2si %xmm0,%r8d
.byte 102,65,15,110,192 // movd %r8d,%xmm0
@@ -56828,7 +56840,7 @@ HIDDEN _sk_premul_sse2_lowp
FUNCTION(_sk_premul_sse2_lowp)
_sk_premul_sse2_lowp:
.byte 102,15,213,195 // pmullw %xmm3,%xmm0
- .byte 102,68,15,111,5,165,47,0,0 // movdqa 0x2fa5(%rip),%xmm8 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xa20>
+ .byte 102,68,15,111,5,185,47,0,0 // movdqa 0x2fb9(%rip),%xmm8 # 32b90 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
.byte 102,65,15,253,192 // paddw %xmm8,%xmm0
.byte 102,15,113,208,8 // psrlw $0x8,%xmm0
.byte 102,15,213,203 // pmullw %xmm3,%xmm1
@@ -56876,7 +56888,7 @@ HIDDEN _sk_invert_sse2_lowp
.globl _sk_invert_sse2_lowp
FUNCTION(_sk_invert_sse2_lowp)
_sk_invert_sse2_lowp:
- .byte 102,68,15,111,5,67,47,0,0 // movdqa 0x2f43(%rip),%xmm8 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xa20>
+ .byte 102,68,15,111,5,87,47,0,0 // movdqa 0x2f57(%rip),%xmm8 # 32b90 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
.byte 102,69,15,111,200 // movdqa %xmm8,%xmm9
.byte 102,68,15,249,200 // psubw %xmm0,%xmm9
.byte 102,69,15,111,208 // movdqa %xmm8,%xmm10
@@ -56908,7 +56920,7 @@ FUNCTION(_sk_srcatop_sse2_lowp)
_sk_srcatop_sse2_lowp:
.byte 102,68,15,111,195 // movdqa %xmm3,%xmm8
.byte 102,15,213,199 // pmullw %xmm7,%xmm0
- .byte 102,15,111,29,231,46,0,0 // movdqa 0x2ee7(%rip),%xmm3 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xa20>
+ .byte 102,15,111,29,251,46,0,0 // movdqa 0x2efb(%rip),%xmm3 # 32b90 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
.byte 102,68,15,111,203 // movdqa %xmm3,%xmm9
.byte 102,69,15,249,200 // psubw %xmm8,%xmm9
.byte 102,69,15,111,193 // movdqa %xmm9,%xmm8
@@ -56940,7 +56952,7 @@ FUNCTION(_sk_dstatop_sse2_lowp)
_sk_dstatop_sse2_lowp:
.byte 102,68,15,111,196 // movdqa %xmm4,%xmm8
.byte 102,68,15,213,195 // pmullw %xmm3,%xmm8
- .byte 102,68,15,111,13,103,46,0,0 // movdqa 0x2e67(%rip),%xmm9 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xa20>
+ .byte 102,68,15,111,13,123,46,0,0 // movdqa 0x2e7b(%rip),%xmm9 # 32b90 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
.byte 102,69,15,253,193 // paddw %xmm9,%xmm8
.byte 102,68,15,111,213 // movdqa %xmm5,%xmm10
.byte 102,68,15,213,211 // pmullw %xmm3,%xmm10
@@ -56969,7 +56981,7 @@ HIDDEN _sk_srcin_sse2_lowp
FUNCTION(_sk_srcin_sse2_lowp)
_sk_srcin_sse2_lowp:
.byte 102,15,213,199 // pmullw %xmm7,%xmm0
- .byte 102,68,15,111,5,242,45,0,0 // movdqa 0x2df2(%rip),%xmm8 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xa20>
+ .byte 102,68,15,111,5,6,46,0,0 // movdqa 0x2e06(%rip),%xmm8 # 32b90 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
.byte 102,65,15,253,192 // paddw %xmm8,%xmm0
.byte 102,15,113,208,8 // psrlw $0x8,%xmm0
.byte 102,15,213,207 // pmullw %xmm7,%xmm1
@@ -56990,7 +57002,7 @@ FUNCTION(_sk_dstin_sse2_lowp)
_sk_dstin_sse2_lowp:
.byte 102,15,111,196 // movdqa %xmm4,%xmm0
.byte 102,15,213,195 // pmullw %xmm3,%xmm0
- .byte 102,68,15,111,5,169,45,0,0 // movdqa 0x2da9(%rip),%xmm8 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xa20>
+ .byte 102,68,15,111,5,189,45,0,0 // movdqa 0x2dbd(%rip),%xmm8 # 32b90 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
.byte 102,65,15,253,192 // paddw %xmm8,%xmm0
.byte 102,15,113,208,8 // psrlw $0x8,%xmm0
.byte 102,15,111,205 // movdqa %xmm5,%xmm1
@@ -57011,7 +57023,7 @@ HIDDEN _sk_srcout_sse2_lowp
.globl _sk_srcout_sse2_lowp
FUNCTION(_sk_srcout_sse2_lowp)
_sk_srcout_sse2_lowp:
- .byte 102,68,15,111,5,96,45,0,0 // movdqa 0x2d60(%rip),%xmm8 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xa20>
+ .byte 102,68,15,111,5,116,45,0,0 // movdqa 0x2d74(%rip),%xmm8 # 32b90 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
.byte 102,69,15,111,200 // movdqa %xmm8,%xmm9
.byte 102,68,15,249,207 // psubw %xmm7,%xmm9
.byte 102,65,15,213,193 // pmullw %xmm9,%xmm0
@@ -57034,7 +57046,7 @@ HIDDEN _sk_dstout_sse2_lowp
FUNCTION(_sk_dstout_sse2_lowp)
_sk_dstout_sse2_lowp:
.byte 102,15,111,195 // movdqa %xmm3,%xmm0
- .byte 102,68,15,111,5,9,45,0,0 // movdqa 0x2d09(%rip),%xmm8 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xa20>
+ .byte 102,68,15,111,5,29,45,0,0 // movdqa 0x2d1d(%rip),%xmm8 # 32b90 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
.byte 102,65,15,111,216 // movdqa %xmm8,%xmm3
.byte 102,15,249,216 // psubw %xmm0,%xmm3
.byte 102,15,111,195 // movdqa %xmm3,%xmm0
@@ -57059,7 +57071,7 @@ HIDDEN _sk_srcover_sse2_lowp
.globl _sk_srcover_sse2_lowp
FUNCTION(_sk_srcover_sse2_lowp)
_sk_srcover_sse2_lowp:
- .byte 102,68,15,111,13,175,44,0,0 // movdqa 0x2caf(%rip),%xmm9 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xa20>
+ .byte 102,68,15,111,13,195,44,0,0 // movdqa 0x2cc3(%rip),%xmm9 # 32b90 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
.byte 102,69,15,111,193 // movdqa %xmm9,%xmm8
.byte 102,68,15,249,195 // psubw %xmm3,%xmm8
.byte 102,69,15,111,208 // movdqa %xmm8,%xmm10
@@ -57088,7 +57100,7 @@ HIDDEN _sk_dstover_sse2_lowp
.globl _sk_dstover_sse2_lowp
FUNCTION(_sk_dstover_sse2_lowp)
_sk_dstover_sse2_lowp:
- .byte 102,68,15,111,5,53,44,0,0 // movdqa 0x2c35(%rip),%xmm8 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xa20>
+ .byte 102,68,15,111,5,73,44,0,0 // movdqa 0x2c49(%rip),%xmm8 # 32b90 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
.byte 102,69,15,111,200 // movdqa %xmm8,%xmm9
.byte 102,68,15,249,207 // psubw %xmm7,%xmm9
.byte 102,65,15,213,193 // pmullw %xmm9,%xmm0
@@ -57115,7 +57127,7 @@ HIDDEN _sk_modulate_sse2_lowp
FUNCTION(_sk_modulate_sse2_lowp)
_sk_modulate_sse2_lowp:
.byte 102,15,213,196 // pmullw %xmm4,%xmm0
- .byte 102,68,15,111,5,206,43,0,0 // movdqa 0x2bce(%rip),%xmm8 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xa20>
+ .byte 102,68,15,111,5,226,43,0,0 // movdqa 0x2be2(%rip),%xmm8 # 32b90 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
.byte 102,65,15,253,192 // paddw %xmm8,%xmm0
.byte 102,15,113,208,8 // psrlw $0x8,%xmm0
.byte 102,15,213,205 // pmullw %xmm5,%xmm1
@@ -57134,7 +57146,7 @@ HIDDEN _sk_multiply_sse2_lowp
.globl _sk_multiply_sse2_lowp
FUNCTION(_sk_multiply_sse2_lowp)
_sk_multiply_sse2_lowp:
- .byte 102,68,15,111,13,141,43,0,0 // movdqa 0x2b8d(%rip),%xmm9 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xa20>
+ .byte 102,68,15,111,13,161,43,0,0 // movdqa 0x2ba1(%rip),%xmm9 # 32b90 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
.byte 102,69,15,111,193 // movdqa %xmm9,%xmm8
.byte 102,68,15,249,195 // psubw %xmm3,%xmm8
.byte 102,69,15,111,208 // movdqa %xmm8,%xmm10
@@ -57179,12 +57191,12 @@ _sk_plus__sse2_lowp:
.byte 102,68,15,111,193 // movdqa %xmm1,%xmm8
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
.byte 102,15,253,204 // paddw %xmm4,%xmm1
- .byte 102,68,15,111,21,249,50,0,0 // movdqa 0x32f9(%rip),%xmm10 # 33390 <_sk_srcover_rgba_8888_sse2_lowp+0x1250>
+ .byte 102,68,15,111,21,29,51,0,0 // movdqa 0x331d(%rip),%xmm10 # 333d0 <_sk_srcover_rgba_8888_sse2_lowp+0x1274>
.byte 102,15,111,193 // movdqa %xmm1,%xmm0
.byte 102,65,15,217,194 // psubusw %xmm10,%xmm0
.byte 102,69,15,239,228 // pxor %xmm12,%xmm12
.byte 102,65,15,117,196 // pcmpeqw %xmm12,%xmm0
- .byte 102,68,15,111,29,173,42,0,0 // movdqa 0x2aad(%rip),%xmm11 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xa20>
+ .byte 102,68,15,111,29,193,42,0,0 // movdqa 0x2ac1(%rip),%xmm11 # 32b90 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
.byte 102,15,219,200 // pand %xmm0,%xmm1
.byte 102,65,15,223,195 // pandn %xmm11,%xmm0
.byte 102,15,235,193 // por %xmm1,%xmm0
@@ -57223,7 +57235,7 @@ _sk_screen_sse2_lowp:
.byte 102,15,111,196 // movdqa %xmm4,%xmm0
.byte 102,15,253,193 // paddw %xmm1,%xmm0
.byte 102,15,213,204 // pmullw %xmm4,%xmm1
- .byte 102,68,15,111,21,13,42,0,0 // movdqa 0x2a0d(%rip),%xmm10 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xa20>
+ .byte 102,68,15,111,21,33,42,0,0 // movdqa 0x2a21(%rip),%xmm10 # 32b90 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
.byte 102,65,15,253,202 // paddw %xmm10,%xmm1
.byte 102,15,113,209,8 // psrlw $0x8,%xmm1
.byte 102,15,249,193 // psubw %xmm1,%xmm0
@@ -57255,7 +57267,7 @@ HIDDEN _sk_xor__sse2_lowp
FUNCTION(_sk_xor__sse2_lowp)
_sk_xor__sse2_lowp:
.byte 102,68,15,111,195 // movdqa %xmm3,%xmm8
- .byte 102,68,15,111,13,139,41,0,0 // movdqa 0x298b(%rip),%xmm9 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xa20>
+ .byte 102,68,15,111,13,159,41,0,0 // movdqa 0x299f(%rip),%xmm9 # 32b90 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
.byte 102,69,15,111,209 // movdqa %xmm9,%xmm10
.byte 102,68,15,249,215 // psubw %xmm7,%xmm10
.byte 102,65,15,213,194 // pmullw %xmm10,%xmm0
@@ -57297,7 +57309,7 @@ _sk_darken_sse2_lowp:
.byte 102,65,15,253,194 // paddw %xmm10,%xmm0
.byte 102,68,15,213,215 // pmullw %xmm7,%xmm10
.byte 102,68,15,213,227 // pmullw %xmm3,%xmm12
- .byte 102,68,15,111,13,70,48,0,0 // movdqa 0x3046(%rip),%xmm9 # 332d0 <_sk_srcover_rgba_8888_sse2_lowp+0x1190>
+ .byte 102,68,15,111,13,106,48,0,0 // movdqa 0x306a(%rip),%xmm9 # 33310 <_sk_srcover_rgba_8888_sse2_lowp+0x11b4>
.byte 102,69,15,111,218 // movdqa %xmm10,%xmm11
.byte 102,69,15,239,217 // pxor %xmm9,%xmm11
.byte 102,65,15,111,204 // movdqa %xmm12,%xmm1
@@ -57306,7 +57318,7 @@ _sk_darken_sse2_lowp:
.byte 102,68,15,219,225 // pand %xmm1,%xmm12
.byte 102,65,15,223,202 // pandn %xmm10,%xmm1
.byte 102,65,15,235,204 // por %xmm12,%xmm1
- .byte 102,68,15,111,21,165,40,0,0 // movdqa 0x28a5(%rip),%xmm10 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xa20>
+ .byte 102,68,15,111,21,185,40,0,0 // movdqa 0x28b9(%rip),%xmm10 # 32b90 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
.byte 102,65,15,253,202 // paddw %xmm10,%xmm1
.byte 102,15,113,209,8 // psrlw $0x8,%xmm1
.byte 102,15,249,193 // psubw %xmm1,%xmm0
@@ -57362,7 +57374,7 @@ _sk_lighten_sse2_lowp:
.byte 102,65,15,253,196 // paddw %xmm12,%xmm0
.byte 102,68,15,213,231 // pmullw %xmm7,%xmm12
.byte 102,68,15,213,211 // pmullw %xmm3,%xmm10
- .byte 102,68,15,111,13,29,47,0,0 // movdqa 0x2f1d(%rip),%xmm9 # 332d0 <_sk_srcover_rgba_8888_sse2_lowp+0x1190>
+ .byte 102,68,15,111,13,65,47,0,0 // movdqa 0x2f41(%rip),%xmm9 # 33310 <_sk_srcover_rgba_8888_sse2_lowp+0x11b4>
.byte 102,69,15,111,220 // movdqa %xmm12,%xmm11
.byte 102,69,15,239,217 // pxor %xmm9,%xmm11
.byte 102,65,15,111,202 // movdqa %xmm10,%xmm1
@@ -57371,7 +57383,7 @@ _sk_lighten_sse2_lowp:
.byte 102,68,15,219,225 // pand %xmm1,%xmm12
.byte 102,65,15,223,202 // pandn %xmm10,%xmm1
.byte 102,65,15,235,204 // por %xmm12,%xmm1
- .byte 102,68,15,111,21,124,39,0,0 // movdqa 0x277c(%rip),%xmm10 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xa20>
+ .byte 102,68,15,111,21,144,39,0,0 // movdqa 0x2790(%rip),%xmm10 # 32b90 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
.byte 102,65,15,253,202 // paddw %xmm10,%xmm1
.byte 102,15,113,209,8 // psrlw $0x8,%xmm1
.byte 102,15,249,193 // psubw %xmm1,%xmm0
@@ -57427,7 +57439,7 @@ _sk_difference_sse2_lowp:
.byte 102,65,15,253,196 // paddw %xmm12,%xmm0
.byte 102,68,15,213,231 // pmullw %xmm7,%xmm12
.byte 102,68,15,213,211 // pmullw %xmm3,%xmm10
- .byte 102,68,15,111,13,244,45,0,0 // movdqa 0x2df4(%rip),%xmm9 # 332d0 <_sk_srcover_rgba_8888_sse2_lowp+0x1190>
+ .byte 102,68,15,111,13,24,46,0,0 // movdqa 0x2e18(%rip),%xmm9 # 33310 <_sk_srcover_rgba_8888_sse2_lowp+0x11b4>
.byte 102,69,15,111,220 // movdqa %xmm12,%xmm11
.byte 102,69,15,239,217 // pxor %xmm9,%xmm11
.byte 102,65,15,111,202 // movdqa %xmm10,%xmm1
@@ -57436,10 +57448,10 @@ _sk_difference_sse2_lowp:
.byte 102,68,15,219,225 // pand %xmm1,%xmm12
.byte 102,65,15,223,202 // pandn %xmm10,%xmm1
.byte 102,65,15,235,204 // por %xmm12,%xmm1
- .byte 102,68,15,111,21,83,38,0,0 // movdqa 0x2653(%rip),%xmm10 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xa20>
+ .byte 102,68,15,111,21,103,38,0,0 // movdqa 0x2667(%rip),%xmm10 # 32b90 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
.byte 102,65,15,253,202 // paddw %xmm10,%xmm1
.byte 102,15,113,209,7 // psrlw $0x7,%xmm1
- .byte 102,68,15,111,29,160,45,0,0 // movdqa 0x2da0(%rip),%xmm11 # 332c0 <_sk_srcover_rgba_8888_sse2_lowp+0x1180>
+ .byte 102,68,15,111,29,196,45,0,0 // movdqa 0x2dc4(%rip),%xmm11 # 33300 <_sk_srcover_rgba_8888_sse2_lowp+0x11a4>
.byte 102,65,15,219,203 // pand %xmm11,%xmm1
.byte 102,15,249,193 // psubw %xmm1,%xmm0
.byte 102,68,15,111,229 // movdqa %xmm5,%xmm12
@@ -57494,10 +57506,10 @@ _sk_exclusion_sse2_lowp:
.byte 102,15,111,196 // movdqa %xmm4,%xmm0
.byte 102,15,253,193 // paddw %xmm1,%xmm0
.byte 102,15,213,204 // pmullw %xmm4,%xmm1
- .byte 102,68,15,111,13,80,37,0,0 // movdqa 0x2550(%rip),%xmm9 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xa20>
+ .byte 102,68,15,111,13,100,37,0,0 // movdqa 0x2564(%rip),%xmm9 # 32b90 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
.byte 102,65,15,253,201 // paddw %xmm9,%xmm1
.byte 102,15,113,209,7 // psrlw $0x7,%xmm1
- .byte 102,68,15,111,21,157,44,0,0 // movdqa 0x2c9d(%rip),%xmm10 # 332c0 <_sk_srcover_rgba_8888_sse2_lowp+0x1180>
+ .byte 102,68,15,111,21,193,44,0,0 // movdqa 0x2cc1(%rip),%xmm10 # 33300 <_sk_srcover_rgba_8888_sse2_lowp+0x11a4>
.byte 102,65,15,219,202 // pand %xmm10,%xmm1
.byte 102,15,249,193 // psubw %xmm1,%xmm0
.byte 102,15,111,205 // movdqa %xmm5,%xmm1
@@ -57533,7 +57545,7 @@ _sk_hardlight_sse2_lowp:
.byte 102,15,111,236 // movdqa %xmm4,%xmm5
.byte 102,68,15,111,194 // movdqa %xmm2,%xmm8
.byte 102,68,15,111,200 // movdqa %xmm0,%xmm9
- .byte 102,15,111,21,172,36,0,0 // movdqa 0x24ac(%rip),%xmm2 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xa20>
+ .byte 102,15,111,21,192,36,0,0 // movdqa 0x24c0(%rip),%xmm2 # 32b90 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
.byte 102,68,15,111,226 // movdqa %xmm2,%xmm12
.byte 102,68,15,249,231 // psubw %xmm7,%xmm12
.byte 102,65,15,111,196 // movdqa %xmm12,%xmm0
@@ -57546,7 +57558,7 @@ _sk_hardlight_sse2_lowp:
.byte 102,68,15,111,243 // movdqa %xmm3,%xmm14
.byte 102,69,15,249,241 // psubw %xmm9,%xmm14
.byte 102,69,15,253,201 // paddw %xmm9,%xmm9
- .byte 102,15,111,21,216,43,0,0 // movdqa 0x2bd8(%rip),%xmm2 # 332d0 <_sk_srcover_rgba_8888_sse2_lowp+0x1190>
+ .byte 102,15,111,21,252,43,0,0 // movdqa 0x2bfc(%rip),%xmm2 # 33310 <_sk_srcover_rgba_8888_sse2_lowp+0x11b4>
.byte 102,15,111,199 // movdqa %xmm7,%xmm0
.byte 102,68,15,111,215 // movdqa %xmm7,%xmm10
.byte 102,15,111,231 // movdqa %xmm7,%xmm4
@@ -57565,7 +57577,7 @@ _sk_hardlight_sse2_lowp:
.byte 102,68,15,219,232 // pand %xmm0,%xmm13
.byte 102,65,15,223,193 // pandn %xmm9,%xmm0
.byte 102,65,15,235,197 // por %xmm13,%xmm0
- .byte 102,15,253,5,11,36,0,0 // paddw 0x240b(%rip),%xmm0 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xa20>
+ .byte 102,15,253,5,31,36,0,0 // paddw 0x241f(%rip),%xmm0 # 32b90 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
.byte 102,65,15,253,199 // paddw %xmm15,%xmm0
.byte 102,69,15,111,204 // movdqa %xmm12,%xmm9
.byte 102,68,15,213,201 // pmullw %xmm1,%xmm9
@@ -57588,7 +57600,7 @@ _sk_hardlight_sse2_lowp:
.byte 102,65,15,219,249 // pand %xmm9,%xmm7
.byte 102,68,15,223,201 // pandn %xmm1,%xmm9
.byte 102,68,15,235,207 // por %xmm7,%xmm9
- .byte 102,68,15,253,13,150,35,0,0 // paddw 0x2396(%rip),%xmm9 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xa20>
+ .byte 102,68,15,253,13,170,35,0,0 // paddw 0x23aa(%rip),%xmm9 # 32b90 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
.byte 102,69,15,253,205 // paddw %xmm13,%xmm9
.byte 102,69,15,213,224 // pmullw %xmm8,%xmm12
.byte 102,69,15,111,251 // movdqa %xmm11,%xmm15
@@ -57610,7 +57622,7 @@ _sk_hardlight_sse2_lowp:
.byte 102,68,15,219,210 // pand %xmm2,%xmm10
.byte 102,65,15,223,208 // pandn %xmm8,%xmm2
.byte 102,65,15,235,210 // por %xmm10,%xmm2
- .byte 102,68,15,111,5,38,35,0,0 // movdqa 0x2326(%rip),%xmm8 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xa20>
+ .byte 102,68,15,111,5,58,35,0,0 // movdqa 0x233a(%rip),%xmm8 # 32b90 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
.byte 102,65,15,253,208 // paddw %xmm8,%xmm2
.byte 102,65,15,253,215 // paddw %xmm15,%xmm2
.byte 102,68,15,213,220 // pmullw %xmm4,%xmm11
@@ -57638,7 +57650,7 @@ _sk_overlay_sse2_lowp:
.byte 102,15,127,124,36,232 // movdqa %xmm7,-0x18(%rsp)
.byte 102,68,15,111,193 // movdqa %xmm1,%xmm8
.byte 102,68,15,111,248 // movdqa %xmm0,%xmm15
- .byte 102,15,111,53,183,34,0,0 // movdqa 0x22b7(%rip),%xmm6 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xa20>
+ .byte 102,15,111,53,203,34,0,0 // movdqa 0x22cb(%rip),%xmm6 # 32b90 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
.byte 102,68,15,111,222 // movdqa %xmm6,%xmm11
.byte 102,69,15,249,222 // psubw %xmm14,%xmm11
.byte 102,65,15,111,203 // movdqa %xmm11,%xmm1
@@ -57660,7 +57672,7 @@ _sk_overlay_sse2_lowp:
.byte 102,15,253,201 // paddw %xmm1,%xmm1
.byte 102,69,15,111,225 // movdqa %xmm9,%xmm12
.byte 102,68,15,249,225 // psubw %xmm1,%xmm12
- .byte 102,15,111,13,187,41,0,0 // movdqa 0x29bb(%rip),%xmm1 # 332d0 <_sk_srcover_rgba_8888_sse2_lowp+0x1190>
+ .byte 102,15,111,13,223,41,0,0 // movdqa 0x29df(%rip),%xmm1 # 33310 <_sk_srcover_rgba_8888_sse2_lowp+0x11b4>
.byte 102,69,15,111,238 // movdqa %xmm14,%xmm13
.byte 102,68,15,239,233 // pxor %xmm1,%xmm13
.byte 102,15,239,249 // pxor %xmm1,%xmm7
@@ -57687,7 +57699,7 @@ _sk_overlay_sse2_lowp:
.byte 102,68,15,213,197 // pmullw %xmm5,%xmm8
.byte 102,15,111,229 // movdqa %xmm5,%xmm4
.byte 102,15,253,228 // paddw %xmm4,%xmm4
- .byte 102,15,111,61,58,41,0,0 // movdqa 0x293a(%rip),%xmm7 # 332d0 <_sk_srcover_rgba_8888_sse2_lowp+0x1190>
+ .byte 102,15,111,61,94,41,0,0 // movdqa 0x295e(%rip),%xmm7 # 33310 <_sk_srcover_rgba_8888_sse2_lowp+0x11b4>
.byte 102,15,239,231 // pxor %xmm7,%xmm4
.byte 102,65,15,101,229 // pcmpgtw %xmm13,%xmm4
.byte 102,69,15,253,192 // paddw %xmm8,%xmm8
@@ -57747,27 +57759,27 @@ _sk_load_8888_sse2_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,41 // ja 30aac <_sk_load_8888_sse2_lowp+0x44>
+ .byte 119,41 // ja 30ac8 <_sk_load_8888_sse2_lowp+0x44>
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,22,1,0,0 // lea 0x116(%rip),%r9 # 30ba8 <_sk_load_8888_sse2_lowp+0x140>
+ .byte 76,141,13,22,1,0,0 // lea 0x116(%rip),%r9 # 30bc4 <_sk_load_8888_sse2_lowp+0x140>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 255,224 // jmpq *%rax
.byte 243,65,15,16,28,144 // movss (%r8,%rdx,4),%xmm3
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
- .byte 235,102 // jmp 30b12 <_sk_load_8888_sse2_lowp+0xaa>
+ .byte 235,102 // jmp 30b2e <_sk_load_8888_sse2_lowp+0xaa>
.byte 102,65,15,16,28,144 // movupd (%r8,%rdx,4),%xmm3
.byte 243,69,15,111,68,144,16 // movdqu 0x10(%r8,%rdx,4),%xmm8
- .byte 235,87 // jmp 30b12 <_sk_load_8888_sse2_lowp+0xaa>
+ .byte 235,87 // jmp 30b2e <_sk_load_8888_sse2_lowp+0xaa>
.byte 102,65,15,110,68,144,8 // movd 0x8(%r8,%rdx,4),%xmm0
.byte 102,68,15,112,192,69 // pshufd $0x45,%xmm0,%xmm8
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,69,15,18,4,144 // movlpd (%r8,%rdx,4),%xmm8
.byte 102,65,15,40,216 // movapd %xmm8,%xmm3
.byte 102,68,15,111,192 // movdqa %xmm0,%xmm8
- .byte 235,52 // jmp 30b12 <_sk_load_8888_sse2_lowp+0xaa>
+ .byte 235,52 // jmp 30b2e <_sk_load_8888_sse2_lowp+0xaa>
.byte 102,65,15,110,68,144,24 // movd 0x18(%r8,%rdx,4),%xmm0
.byte 102,68,15,112,192,69 // pshufd $0x45,%xmm0,%xmm8
.byte 243,65,15,16,68,144,20 // movss 0x14(%r8,%rdx,4),%xmm0
@@ -57784,7 +57796,7 @@ _sk_load_8888_sse2_lowp:
.byte 102,15,114,240,16 // pslld $0x10,%xmm0
.byte 102,15,114,224,16 // psrad $0x10,%xmm0
.byte 102,15,107,200 // packssdw %xmm0,%xmm1
- .byte 102,68,15,111,13,36,32,0,0 // movdqa 0x2024(%rip),%xmm9 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xa20>
+ .byte 102,68,15,111,13,56,32,0,0 // movdqa 0x2038(%rip),%xmm9 # 32b90 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
.byte 102,15,111,193 // movdqa %xmm1,%xmm0
.byte 102,65,15,219,193 // pand %xmm9,%xmm0
.byte 102,15,113,209,8 // psrlw $0x8,%xmm1
@@ -57837,27 +57849,27 @@ _sk_load_8888_dst_sse2_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,41 // ja 30c08 <_sk_load_8888_dst_sse2_lowp+0x44>
+ .byte 119,41 // ja 30c24 <_sk_load_8888_dst_sse2_lowp+0x44>
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,22,1,0,0 // lea 0x116(%rip),%r9 # 30d04 <_sk_load_8888_dst_sse2_lowp+0x140>
+ .byte 76,141,13,22,1,0,0 // lea 0x116(%rip),%r9 # 30d20 <_sk_load_8888_dst_sse2_lowp+0x140>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 255,224 // jmpq *%rax
.byte 243,65,15,16,60,144 // movss (%r8,%rdx,4),%xmm7
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
- .byte 235,102 // jmp 30c6e <_sk_load_8888_dst_sse2_lowp+0xaa>
+ .byte 235,102 // jmp 30c8a <_sk_load_8888_dst_sse2_lowp+0xaa>
.byte 102,65,15,16,60,144 // movupd (%r8,%rdx,4),%xmm7
.byte 243,69,15,111,68,144,16 // movdqu 0x10(%r8,%rdx,4),%xmm8
- .byte 235,87 // jmp 30c6e <_sk_load_8888_dst_sse2_lowp+0xaa>
+ .byte 235,87 // jmp 30c8a <_sk_load_8888_dst_sse2_lowp+0xaa>
.byte 102,65,15,110,100,144,8 // movd 0x8(%r8,%rdx,4),%xmm4
.byte 102,68,15,112,196,69 // pshufd $0x45,%xmm4,%xmm8
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 102,69,15,18,4,144 // movlpd (%r8,%rdx,4),%xmm8
.byte 102,65,15,40,248 // movapd %xmm8,%xmm7
.byte 102,68,15,111,196 // movdqa %xmm4,%xmm8
- .byte 235,52 // jmp 30c6e <_sk_load_8888_dst_sse2_lowp+0xaa>
+ .byte 235,52 // jmp 30c8a <_sk_load_8888_dst_sse2_lowp+0xaa>
.byte 102,65,15,110,100,144,24 // movd 0x18(%r8,%rdx,4),%xmm4
.byte 102,68,15,112,196,69 // pshufd $0x45,%xmm4,%xmm8
.byte 243,65,15,16,100,144,20 // movss 0x14(%r8,%rdx,4),%xmm4
@@ -57874,7 +57886,7 @@ _sk_load_8888_dst_sse2_lowp:
.byte 102,15,114,244,16 // pslld $0x10,%xmm4
.byte 102,15,114,228,16 // psrad $0x10,%xmm4
.byte 102,15,107,236 // packssdw %xmm4,%xmm5
- .byte 102,68,15,111,13,200,30,0,0 // movdqa 0x1ec8(%rip),%xmm9 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xa20>
+ .byte 102,68,15,111,13,220,30,0,0 // movdqa 0x1edc(%rip),%xmm9 # 32b90 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
.byte 102,15,111,229 // movdqa %xmm5,%xmm4
.byte 102,65,15,219,225 // pand %xmm9,%xmm4
.byte 102,15,113,213,8 // psrlw $0x8,%xmm5
@@ -57942,21 +57954,21 @@ _sk_store_8888_sse2_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,27 // ja 30da3 <_sk_store_8888_sse2_lowp+0x83>
+ .byte 119,27 // ja 30dbf <_sk_store_8888_sse2_lowp+0x83>
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,98,0,0,0 // lea 0x62(%rip),%r9 # 30df4 <_sk_store_8888_sse2_lowp+0xd4>
+ .byte 76,141,13,98,0,0,0 // lea 0x62(%rip),%r9 # 30e10 <_sk_store_8888_sse2_lowp+0xd4>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 102,69,15,126,12,144 // movd %xmm9,(%r8,%rdx,4)
- .byte 235,75 // jmp 30dee <_sk_store_8888_sse2_lowp+0xce>
+ .byte 235,75 // jmp 30e0a <_sk_store_8888_sse2_lowp+0xce>
.byte 243,69,15,127,12,144 // movdqu %xmm9,(%r8,%rdx,4)
.byte 243,69,15,127,68,144,16 // movdqu %xmm8,0x10(%r8,%rdx,4)
- .byte 235,60 // jmp 30dee <_sk_store_8888_sse2_lowp+0xce>
+ .byte 235,60 // jmp 30e0a <_sk_store_8888_sse2_lowp+0xce>
.byte 102,69,15,112,193,78 // pshufd $0x4e,%xmm9,%xmm8
.byte 102,69,15,126,68,144,8 // movd %xmm8,0x8(%r8,%rdx,4)
.byte 102,69,15,214,12,144 // movq %xmm9,(%r8,%rdx,4)
- .byte 235,39 // jmp 30dee <_sk_store_8888_sse2_lowp+0xce>
+ .byte 235,39 // jmp 30e0a <_sk_store_8888_sse2_lowp+0xce>
.byte 102,69,15,112,208,78 // pshufd $0x4e,%xmm8,%xmm10
.byte 102,69,15,126,84,144,24 // movd %xmm10,0x18(%r8,%rdx,4)
.byte 102,69,15,112,208,229 // pshufd $0xe5,%xmm8,%xmm10
@@ -58001,27 +58013,27 @@ _sk_load_bgra_sse2_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,41 // ja 30e54 <_sk_load_bgra_sse2_lowp+0x44>
+ .byte 119,41 // ja 30e70 <_sk_load_bgra_sse2_lowp+0x44>
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,22,1,0,0 // lea 0x116(%rip),%r9 # 30f50 <_sk_load_bgra_sse2_lowp+0x140>
+ .byte 76,141,13,22,1,0,0 // lea 0x116(%rip),%r9 # 30f6c <_sk_load_bgra_sse2_lowp+0x140>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 255,224 // jmpq *%rax
.byte 243,65,15,16,28,144 // movss (%r8,%rdx,4),%xmm3
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
- .byte 235,102 // jmp 30eba <_sk_load_bgra_sse2_lowp+0xaa>
+ .byte 235,102 // jmp 30ed6 <_sk_load_bgra_sse2_lowp+0xaa>
.byte 102,65,15,16,28,144 // movupd (%r8,%rdx,4),%xmm3
.byte 243,69,15,111,68,144,16 // movdqu 0x10(%r8,%rdx,4),%xmm8
- .byte 235,87 // jmp 30eba <_sk_load_bgra_sse2_lowp+0xaa>
+ .byte 235,87 // jmp 30ed6 <_sk_load_bgra_sse2_lowp+0xaa>
.byte 102,65,15,110,68,144,8 // movd 0x8(%r8,%rdx,4),%xmm0
.byte 102,68,15,112,192,69 // pshufd $0x45,%xmm0,%xmm8
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,69,15,18,4,144 // movlpd (%r8,%rdx,4),%xmm8
.byte 102,65,15,40,216 // movapd %xmm8,%xmm3
.byte 102,68,15,111,192 // movdqa %xmm0,%xmm8
- .byte 235,52 // jmp 30eba <_sk_load_bgra_sse2_lowp+0xaa>
+ .byte 235,52 // jmp 30ed6 <_sk_load_bgra_sse2_lowp+0xaa>
.byte 102,65,15,110,68,144,24 // movd 0x18(%r8,%rdx,4),%xmm0
.byte 102,68,15,112,192,69 // pshufd $0x45,%xmm0,%xmm8
.byte 243,65,15,16,68,144,20 // movss 0x14(%r8,%rdx,4),%xmm0
@@ -58038,7 +58050,7 @@ _sk_load_bgra_sse2_lowp:
.byte 102,15,114,240,16 // pslld $0x10,%xmm0
.byte 102,15,114,224,16 // psrad $0x10,%xmm0
.byte 102,15,107,200 // packssdw %xmm0,%xmm1
- .byte 102,68,15,111,13,124,28,0,0 // movdqa 0x1c7c(%rip),%xmm9 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xa20>
+ .byte 102,68,15,111,13,144,28,0,0 // movdqa 0x1c90(%rip),%xmm9 # 32b90 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
.byte 102,15,111,209 // movdqa %xmm1,%xmm2
.byte 102,65,15,219,209 // pand %xmm9,%xmm2
.byte 102,15,113,209,8 // psrlw $0x8,%xmm1
@@ -58091,27 +58103,27 @@ _sk_load_bgra_dst_sse2_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,41 // ja 30fb0 <_sk_load_bgra_dst_sse2_lowp+0x44>
+ .byte 119,41 // ja 30fcc <_sk_load_bgra_dst_sse2_lowp+0x44>
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,22,1,0,0 // lea 0x116(%rip),%r9 # 310ac <_sk_load_bgra_dst_sse2_lowp+0x140>
+ .byte 76,141,13,22,1,0,0 // lea 0x116(%rip),%r9 # 310c8 <_sk_load_bgra_dst_sse2_lowp+0x140>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 255,224 // jmpq *%rax
.byte 243,65,15,16,60,144 // movss (%r8,%rdx,4),%xmm7
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
- .byte 235,102 // jmp 31016 <_sk_load_bgra_dst_sse2_lowp+0xaa>
+ .byte 235,102 // jmp 31032 <_sk_load_bgra_dst_sse2_lowp+0xaa>
.byte 102,65,15,16,60,144 // movupd (%r8,%rdx,4),%xmm7
.byte 243,69,15,111,68,144,16 // movdqu 0x10(%r8,%rdx,4),%xmm8
- .byte 235,87 // jmp 31016 <_sk_load_bgra_dst_sse2_lowp+0xaa>
+ .byte 235,87 // jmp 31032 <_sk_load_bgra_dst_sse2_lowp+0xaa>
.byte 102,65,15,110,100,144,8 // movd 0x8(%r8,%rdx,4),%xmm4
.byte 102,68,15,112,196,69 // pshufd $0x45,%xmm4,%xmm8
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 102,69,15,18,4,144 // movlpd (%r8,%rdx,4),%xmm8
.byte 102,65,15,40,248 // movapd %xmm8,%xmm7
.byte 102,68,15,111,196 // movdqa %xmm4,%xmm8
- .byte 235,52 // jmp 31016 <_sk_load_bgra_dst_sse2_lowp+0xaa>
+ .byte 235,52 // jmp 31032 <_sk_load_bgra_dst_sse2_lowp+0xaa>
.byte 102,65,15,110,100,144,24 // movd 0x18(%r8,%rdx,4),%xmm4
.byte 102,68,15,112,196,69 // pshufd $0x45,%xmm4,%xmm8
.byte 243,65,15,16,100,144,20 // movss 0x14(%r8,%rdx,4),%xmm4
@@ -58128,7 +58140,7 @@ _sk_load_bgra_dst_sse2_lowp:
.byte 102,15,114,244,16 // pslld $0x10,%xmm4
.byte 102,15,114,228,16 // psrad $0x10,%xmm4
.byte 102,15,107,236 // packssdw %xmm4,%xmm5
- .byte 102,68,15,111,13,32,27,0,0 // movdqa 0x1b20(%rip),%xmm9 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xa20>
+ .byte 102,68,15,111,13,52,27,0,0 // movdqa 0x1b34(%rip),%xmm9 # 32b90 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
.byte 102,15,111,245 // movdqa %xmm5,%xmm6
.byte 102,65,15,219,241 // pand %xmm9,%xmm6
.byte 102,15,113,213,8 // psrlw $0x8,%xmm5
@@ -58196,21 +58208,21 @@ _sk_store_bgra_sse2_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,27 // ja 3114b <_sk_store_bgra_sse2_lowp+0x83>
+ .byte 119,27 // ja 31167 <_sk_store_bgra_sse2_lowp+0x83>
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,98,0,0,0 // lea 0x62(%rip),%r9 # 3119c <_sk_store_bgra_sse2_lowp+0xd4>
+ .byte 76,141,13,98,0,0,0 // lea 0x62(%rip),%r9 # 311b8 <_sk_store_bgra_sse2_lowp+0xd4>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 102,69,15,126,12,144 // movd %xmm9,(%r8,%rdx,4)
- .byte 235,75 // jmp 31196 <_sk_store_bgra_sse2_lowp+0xce>
+ .byte 235,75 // jmp 311b2 <_sk_store_bgra_sse2_lowp+0xce>
.byte 243,69,15,127,12,144 // movdqu %xmm9,(%r8,%rdx,4)
.byte 243,69,15,127,68,144,16 // movdqu %xmm8,0x10(%r8,%rdx,4)
- .byte 235,60 // jmp 31196 <_sk_store_bgra_sse2_lowp+0xce>
+ .byte 235,60 // jmp 311b2 <_sk_store_bgra_sse2_lowp+0xce>
.byte 102,69,15,112,193,78 // pshufd $0x4e,%xmm9,%xmm8
.byte 102,69,15,126,68,144,8 // movd %xmm8,0x8(%r8,%rdx,4)
.byte 102,69,15,214,12,144 // movq %xmm9,(%r8,%rdx,4)
- .byte 235,39 // jmp 31196 <_sk_store_bgra_sse2_lowp+0xce>
+ .byte 235,39 // jmp 311b2 <_sk_store_bgra_sse2_lowp+0xce>
.byte 102,69,15,112,208,78 // pshufd $0x4e,%xmm8,%xmm10
.byte 102,69,15,126,84,144,24 // movd %xmm10,0x18(%r8,%rdx,4)
.byte 102,69,15,112,208,229 // pshufd $0xe5,%xmm8,%xmm10
@@ -58255,23 +58267,23 @@ _sk_load_565_sse2_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,34 // ja 311f4 <_sk_load_565_sse2_lowp+0x3c>
+ .byte 119,34 // ja 31210 <_sk_load_565_sse2_lowp+0x3c>
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,188,0,0,0 // lea 0xbc(%rip),%r9 # 3129c <_sk_load_565_sse2_lowp+0xe4>
+ .byte 76,141,13,188,0,0,0 // lea 0xbc(%rip),%r9 # 312b8 <_sk_load_565_sse2_lowp+0xe4>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,183,4,80 // movzwl (%r8,%rdx,2),%eax
.byte 102,15,110,192 // movd %eax,%xmm0
- .byte 235,66 // jmp 31236 <_sk_load_565_sse2_lowp+0x7e>
+ .byte 235,66 // jmp 31252 <_sk_load_565_sse2_lowp+0x7e>
.byte 243,65,15,111,4,80 // movdqu (%r8,%rdx,2),%xmm0
- .byte 235,58 // jmp 31236 <_sk_load_565_sse2_lowp+0x7e>
+ .byte 235,58 // jmp 31252 <_sk_load_565_sse2_lowp+0x7e>
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,65,15,196,68,80,4,2 // pinsrw $0x2,0x4(%r8,%rdx,2),%xmm0
.byte 243,65,15,16,12,80 // movss (%r8,%rdx,2),%xmm1
.byte 243,15,16,193 // movss %xmm1,%xmm0
- .byte 235,34 // jmp 31236 <_sk_load_565_sse2_lowp+0x7e>
+ .byte 235,34 // jmp 31252 <_sk_load_565_sse2_lowp+0x7e>
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,65,15,196,68,80,12,6 // pinsrw $0x6,0xc(%r8,%rdx,2),%xmm0
.byte 102,65,15,196,68,80,10,5 // pinsrw $0x5,0xa(%r8,%rdx,2),%xmm0
@@ -58279,11 +58291,11 @@ _sk_load_565_sse2_lowp:
.byte 102,65,15,18,4,80 // movlpd (%r8,%rdx,2),%xmm0
.byte 102,15,111,216 // movdqa %xmm0,%xmm3
.byte 102,15,113,211,8 // psrlw $0x8,%xmm3
- .byte 102,15,219,29,201,32,0,0 // pand 0x20c9(%rip),%xmm3 # 33310 <_sk_srcover_rgba_8888_sse2_lowp+0x11d0>
+ .byte 102,15,219,29,237,32,0,0 // pand 0x20ed(%rip),%xmm3 # 33350 <_sk_srcover_rgba_8888_sse2_lowp+0x11f4>
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
.byte 102,15,113,209,5 // psrlw $0x5,%xmm1
- .byte 102,15,219,13,200,32,0,0 // pand 0x20c8(%rip),%xmm1 # 33320 <_sk_srcover_rgba_8888_sse2_lowp+0x11e0>
- .byte 102,15,111,21,208,32,0,0 // movdqa 0x20d0(%rip),%xmm2 # 33330 <_sk_srcover_rgba_8888_sse2_lowp+0x11f0>
+ .byte 102,15,219,13,236,32,0,0 // pand 0x20ec(%rip),%xmm1 # 33360 <_sk_srcover_rgba_8888_sse2_lowp+0x1204>
+ .byte 102,15,111,21,244,32,0,0 // movdqa 0x20f4(%rip),%xmm2 # 33370 <_sk_srcover_rgba_8888_sse2_lowp+0x1214>
.byte 102,15,219,208 // pand %xmm0,%xmm2
.byte 102,15,113,208,13 // psrlw $0xd,%xmm0
.byte 102,15,235,195 // por %xmm3,%xmm0
@@ -58296,7 +58308,7 @@ _sk_load_565_sse2_lowp:
.byte 102,15,113,210,2 // psrlw $0x2,%xmm2
.byte 102,15,235,211 // por %xmm3,%xmm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,198,24,0,0 // movaps 0x18c6(%rip),%xmm3 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xa20>
+ .byte 15,40,29,218,24,0,0 // movaps 0x18da(%rip),%xmm3 # 32b90 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
.byte 255,224 // jmpq *%rax
.byte 77,255 // rex.WRB (bad)
.byte 255 // (bad)
@@ -58322,23 +58334,23 @@ _sk_load_565_dst_sse2_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,34 // ja 312f4 <_sk_load_565_dst_sse2_lowp+0x3c>
+ .byte 119,34 // ja 31310 <_sk_load_565_dst_sse2_lowp+0x3c>
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,188,0,0,0 // lea 0xbc(%rip),%r9 # 3139c <_sk_load_565_dst_sse2_lowp+0xe4>
+ .byte 76,141,13,188,0,0,0 // lea 0xbc(%rip),%r9 # 313b8 <_sk_load_565_dst_sse2_lowp+0xe4>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,183,4,80 // movzwl (%r8,%rdx,2),%eax
.byte 102,15,110,224 // movd %eax,%xmm4
- .byte 235,66 // jmp 31336 <_sk_load_565_dst_sse2_lowp+0x7e>
+ .byte 235,66 // jmp 31352 <_sk_load_565_dst_sse2_lowp+0x7e>
.byte 243,65,15,111,36,80 // movdqu (%r8,%rdx,2),%xmm4
- .byte 235,58 // jmp 31336 <_sk_load_565_dst_sse2_lowp+0x7e>
+ .byte 235,58 // jmp 31352 <_sk_load_565_dst_sse2_lowp+0x7e>
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 102,65,15,196,100,80,4,2 // pinsrw $0x2,0x4(%r8,%rdx,2),%xmm4
.byte 243,65,15,16,44,80 // movss (%r8,%rdx,2),%xmm5
.byte 243,15,16,229 // movss %xmm5,%xmm4
- .byte 235,34 // jmp 31336 <_sk_load_565_dst_sse2_lowp+0x7e>
+ .byte 235,34 // jmp 31352 <_sk_load_565_dst_sse2_lowp+0x7e>
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 102,65,15,196,100,80,12,6 // pinsrw $0x6,0xc(%r8,%rdx,2),%xmm4
.byte 102,65,15,196,100,80,10,5 // pinsrw $0x5,0xa(%r8,%rdx,2),%xmm4
@@ -58346,11 +58358,11 @@ _sk_load_565_dst_sse2_lowp:
.byte 102,65,15,18,36,80 // movlpd (%r8,%rdx,2),%xmm4
.byte 102,15,111,252 // movdqa %xmm4,%xmm7
.byte 102,15,113,215,8 // psrlw $0x8,%xmm7
- .byte 102,15,219,61,201,31,0,0 // pand 0x1fc9(%rip),%xmm7 # 33310 <_sk_srcover_rgba_8888_sse2_lowp+0x11d0>
+ .byte 102,15,219,61,237,31,0,0 // pand 0x1fed(%rip),%xmm7 # 33350 <_sk_srcover_rgba_8888_sse2_lowp+0x11f4>
.byte 102,15,111,236 // movdqa %xmm4,%xmm5
.byte 102,15,113,213,5 // psrlw $0x5,%xmm5
- .byte 102,15,219,45,200,31,0,0 // pand 0x1fc8(%rip),%xmm5 # 33320 <_sk_srcover_rgba_8888_sse2_lowp+0x11e0>
- .byte 102,15,111,53,208,31,0,0 // movdqa 0x1fd0(%rip),%xmm6 # 33330 <_sk_srcover_rgba_8888_sse2_lowp+0x11f0>
+ .byte 102,15,219,45,236,31,0,0 // pand 0x1fec(%rip),%xmm5 # 33360 <_sk_srcover_rgba_8888_sse2_lowp+0x1204>
+ .byte 102,15,111,53,244,31,0,0 // movdqa 0x1ff4(%rip),%xmm6 # 33370 <_sk_srcover_rgba_8888_sse2_lowp+0x1214>
.byte 102,15,219,244 // pand %xmm4,%xmm6
.byte 102,15,113,212,13 // psrlw $0xd,%xmm4
.byte 102,15,235,231 // por %xmm7,%xmm4
@@ -58363,7 +58375,7 @@ _sk_load_565_dst_sse2_lowp:
.byte 102,15,113,214,2 // psrlw $0x2,%xmm6
.byte 102,15,235,247 // por %xmm7,%xmm6
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,61,198,23,0,0 // movaps 0x17c6(%rip),%xmm7 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xa20>
+ .byte 15,40,61,218,23,0,0 // movaps 0x17da(%rip),%xmm7 # 32b90 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
.byte 255,224 // jmpq *%rax
.byte 77,255 // rex.WRB (bad)
.byte 255 // (bad)
@@ -58387,10 +58399,10 @@ _sk_store_565_sse2_lowp:
.byte 76,3,0 // add (%rax),%r8
.byte 102,68,15,111,192 // movdqa %xmm0,%xmm8
.byte 102,65,15,113,240,8 // psllw $0x8,%xmm8
- .byte 102,68,15,219,5,100,31,0,0 // pand 0x1f64(%rip),%xmm8 # 33340 <_sk_srcover_rgba_8888_sse2_lowp+0x1200>
+ .byte 102,68,15,219,5,136,31,0,0 // pand 0x1f88(%rip),%xmm8 # 33380 <_sk_srcover_rgba_8888_sse2_lowp+0x1224>
.byte 102,68,15,111,201 // movdqa %xmm1,%xmm9
.byte 102,65,15,113,241,3 // psllw $0x3,%xmm9
- .byte 102,68,15,219,13,96,31,0,0 // pand 0x1f60(%rip),%xmm9 # 33350 <_sk_srcover_rgba_8888_sse2_lowp+0x1210>
+ .byte 102,68,15,219,13,132,31,0,0 // pand 0x1f84(%rip),%xmm9 # 33390 <_sk_srcover_rgba_8888_sse2_lowp+0x1234>
.byte 102,69,15,235,200 // por %xmm8,%xmm9
.byte 102,68,15,111,194 // movdqa %xmm2,%xmm8
.byte 102,65,15,113,208,3 // psrlw $0x3,%xmm8
@@ -58399,21 +58411,21 @@ _sk_store_565_sse2_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,31 // ja 3142e <_sk_store_565_sse2_lowp+0x76>
+ .byte 119,31 // ja 3144a <_sk_store_565_sse2_lowp+0x76>
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,95,0,0,0 // lea 0x5f(%rip),%r9 # 31478 <_sk_store_565_sse2_lowp+0xc0>
+ .byte 76,141,13,95,0,0,0 // lea 0x5f(%rip),%r9 # 31494 <_sk_store_565_sse2_lowp+0xc0>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 102,68,15,126,192 // movd %xmm8,%eax
.byte 102,65,137,4,80 // mov %ax,(%r8,%rdx,2)
- .byte 235,70 // jmp 31474 <_sk_store_565_sse2_lowp+0xbc>
+ .byte 235,70 // jmp 31490 <_sk_store_565_sse2_lowp+0xbc>
.byte 243,69,15,127,4,80 // movdqu %xmm8,(%r8,%rdx,2)
- .byte 235,62 // jmp 31474 <_sk_store_565_sse2_lowp+0xbc>
+ .byte 235,62 // jmp 31490 <_sk_store_565_sse2_lowp+0xbc>
.byte 102,65,15,197,192,2 // pextrw $0x2,%xmm8,%eax
.byte 102,65,137,68,80,4 // mov %ax,0x4(%r8,%rdx,2)
.byte 102,69,15,126,4,80 // movd %xmm8,(%r8,%rdx,2)
- .byte 235,42 // jmp 31474 <_sk_store_565_sse2_lowp+0xbc>
+ .byte 235,42 // jmp 31490 <_sk_store_565_sse2_lowp+0xbc>
.byte 102,65,15,197,192,6 // pextrw $0x6,%xmm8,%eax
.byte 102,65,137,68,80,12 // mov %ax,0xc(%r8,%rdx,2)
.byte 102,65,15,197,192,5 // pextrw $0x5,%xmm8,%eax
@@ -58457,19 +58469,19 @@ _sk_load_a8_sse2_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,34 // ja 314cd <_sk_load_a8_sse2_lowp+0x39>
+ .byte 119,34 // ja 314e9 <_sk_load_a8_sse2_lowp+0x39>
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,139,0,0,0 // lea 0x8b(%rip),%r9 # 31544 <_sk_load_a8_sse2_lowp+0xb0>
+ .byte 76,141,13,139,0,0,0 // lea 0x8b(%rip),%r9 # 31560 <_sk_load_a8_sse2_lowp+0xb0>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
.byte 102,15,110,216 // movd %eax,%xmm3
- .byte 235,97 // jmp 3152e <_sk_load_a8_sse2_lowp+0x9a>
+ .byte 235,97 // jmp 3154a <_sk_load_a8_sse2_lowp+0x9a>
.byte 243,65,15,126,28,16 // movq (%r8,%rdx,1),%xmm3
.byte 102,15,96,216 // punpcklbw %xmm0,%xmm3
- .byte 235,85 // jmp 3152e <_sk_load_a8_sse2_lowp+0x9a>
+ .byte 235,85 // jmp 3154a <_sk_load_a8_sse2_lowp+0x9a>
.byte 65,15,182,68,16,2 // movzbl 0x2(%r8,%rdx,1),%eax
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 102,15,196,216,2 // pinsrw $0x2,%eax,%xmm3
@@ -58477,7 +58489,7 @@ _sk_load_a8_sse2_lowp:
.byte 102,15,110,192 // movd %eax,%xmm0
.byte 102,15,96,192 // punpcklbw %xmm0,%xmm0
.byte 243,15,16,216 // movss %xmm0,%xmm3
- .byte 235,51 // jmp 3152e <_sk_load_a8_sse2_lowp+0x9a>
+ .byte 235,51 // jmp 3154a <_sk_load_a8_sse2_lowp+0x9a>
.byte 65,15,182,68,16,6 // movzbl 0x6(%r8,%rdx,1),%eax
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 102,15,196,216,6 // pinsrw $0x6,%eax,%xmm3
@@ -58488,14 +58500,14 @@ _sk_load_a8_sse2_lowp:
.byte 102,65,15,110,4,16 // movd (%r8,%rdx,1),%xmm0
.byte 102,15,96,192 // punpcklbw %xmm0,%xmm0
.byte 242,15,16,216 // movsd %xmm0,%xmm3
- .byte 102,15,219,29,42,22,0,0 // pand 0x162a(%rip),%xmm3 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xa20>
+ .byte 102,15,219,29,62,22,0,0 // pand 0x163e(%rip),%xmm3 # 32b90 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,87,192 // xorps %xmm0,%xmm0
.byte 15,87,201 // xorps %xmm1,%xmm1
.byte 15,87,210 // xorps %xmm2,%xmm2
.byte 255,224 // jmpq *%rax
.byte 144 // nop
- .byte 126,255 // jle 31545 <_sk_load_a8_sse2_lowp+0xb1>
+ .byte 126,255 // jle 31561 <_sk_load_a8_sse2_lowp+0xb1>
.byte 255 // (bad)
.byte 255,164,255,255,255,149,255 // jmpq *-0x6a0001(%rdi,%rdi,8)
.byte 255 // (bad)
@@ -58525,19 +58537,19 @@ _sk_load_a8_dst_sse2_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,34 // ja 31599 <_sk_load_a8_dst_sse2_lowp+0x39>
+ .byte 119,34 // ja 315b5 <_sk_load_a8_dst_sse2_lowp+0x39>
.byte 102,15,239,255 // pxor %xmm7,%xmm7
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,139,0,0,0 // lea 0x8b(%rip),%r9 # 31610 <_sk_load_a8_dst_sse2_lowp+0xb0>
+ .byte 76,141,13,139,0,0,0 // lea 0x8b(%rip),%r9 # 3162c <_sk_load_a8_dst_sse2_lowp+0xb0>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
.byte 102,15,110,248 // movd %eax,%xmm7
- .byte 235,97 // jmp 315fa <_sk_load_a8_dst_sse2_lowp+0x9a>
+ .byte 235,97 // jmp 31616 <_sk_load_a8_dst_sse2_lowp+0x9a>
.byte 243,65,15,126,60,16 // movq (%r8,%rdx,1),%xmm7
.byte 102,15,96,248 // punpcklbw %xmm0,%xmm7
- .byte 235,85 // jmp 315fa <_sk_load_a8_dst_sse2_lowp+0x9a>
+ .byte 235,85 // jmp 31616 <_sk_load_a8_dst_sse2_lowp+0x9a>
.byte 65,15,182,68,16,2 // movzbl 0x2(%r8,%rdx,1),%eax
.byte 102,15,239,255 // pxor %xmm7,%xmm7
.byte 102,15,196,248,2 // pinsrw $0x2,%eax,%xmm7
@@ -58545,7 +58557,7 @@ _sk_load_a8_dst_sse2_lowp:
.byte 102,15,110,224 // movd %eax,%xmm4
.byte 102,15,96,224 // punpcklbw %xmm0,%xmm4
.byte 243,15,16,252 // movss %xmm4,%xmm7
- .byte 235,51 // jmp 315fa <_sk_load_a8_dst_sse2_lowp+0x9a>
+ .byte 235,51 // jmp 31616 <_sk_load_a8_dst_sse2_lowp+0x9a>
.byte 65,15,182,68,16,6 // movzbl 0x6(%r8,%rdx,1),%eax
.byte 102,15,239,255 // pxor %xmm7,%xmm7
.byte 102,15,196,248,6 // pinsrw $0x6,%eax,%xmm7
@@ -58556,14 +58568,14 @@ _sk_load_a8_dst_sse2_lowp:
.byte 102,65,15,110,36,16 // movd (%r8,%rdx,1),%xmm4
.byte 102,15,96,224 // punpcklbw %xmm0,%xmm4
.byte 242,15,16,252 // movsd %xmm4,%xmm7
- .byte 102,15,219,61,94,21,0,0 // pand 0x155e(%rip),%xmm7 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xa20>
+ .byte 102,15,219,61,114,21,0,0 // pand 0x1572(%rip),%xmm7 # 32b90 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,87,228 // xorps %xmm4,%xmm4
.byte 15,87,237 // xorps %xmm5,%xmm5
.byte 15,87,246 // xorps %xmm6,%xmm6
.byte 255,224 // jmpq *%rax
.byte 144 // nop
- .byte 126,255 // jle 31611 <_sk_load_a8_dst_sse2_lowp+0xb1>
+ .byte 126,255 // jle 3162d <_sk_load_a8_dst_sse2_lowp+0xb1>
.byte 255 // (bad)
.byte 255,164,255,255,255,149,255 // jmpq *-0x6a0001(%rdi,%rdi,8)
.byte 255 // (bad)
@@ -58593,42 +58605,42 @@ _sk_store_a8_sse2_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,29 // ja 31660 <_sk_store_a8_sse2_lowp+0x34>
+ .byte 119,29 // ja 3167c <_sk_store_a8_sse2_lowp+0x34>
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,147,0,0,0 // lea 0x93(%rip),%r9 # 316e0 <_sk_store_a8_sse2_lowp+0xb4>
+ .byte 76,141,13,147,0,0,0 // lea 0x93(%rip),%r9 # 316fc <_sk_store_a8_sse2_lowp+0xb4>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 102,15,126,216 // movd %xmm3,%eax
.byte 65,136,4,16 // mov %al,(%r8,%rdx,1)
- .byte 235,123 // jmp 316db <_sk_store_a8_sse2_lowp+0xaf>
- .byte 102,68,15,111,5,247,20,0,0 // movdqa 0x14f7(%rip),%xmm8 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xa20>
+ .byte 235,123 // jmp 316f7 <_sk_store_a8_sse2_lowp+0xaf>
+ .byte 102,68,15,111,5,11,21,0,0 // movdqa 0x150b(%rip),%xmm8 # 32b90 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
.byte 102,68,15,219,195 // pand %xmm3,%xmm8
.byte 102,69,15,103,192 // packuswb %xmm8,%xmm8
.byte 102,69,15,214,4,16 // movq %xmm8,(%r8,%rdx,1)
- .byte 235,96 // jmp 316db <_sk_store_a8_sse2_lowp+0xaf>
+ .byte 235,96 // jmp 316f7 <_sk_store_a8_sse2_lowp+0xaf>
.byte 102,15,197,195,2 // pextrw $0x2,%xmm3,%eax
.byte 65,136,68,16,2 // mov %al,0x2(%r8,%rdx,1)
- .byte 102,68,15,111,5,210,20,0,0 // movdqa 0x14d2(%rip),%xmm8 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xa20>
+ .byte 102,68,15,111,5,230,20,0,0 // movdqa 0x14e6(%rip),%xmm8 # 32b90 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
.byte 102,68,15,219,195 // pand %xmm3,%xmm8
.byte 102,69,15,103,192 // packuswb %xmm8,%xmm8
.byte 102,68,15,126,192 // movd %xmm8,%eax
.byte 102,65,137,4,16 // mov %ax,(%r8,%rdx,1)
- .byte 235,55 // jmp 316db <_sk_store_a8_sse2_lowp+0xaf>
+ .byte 235,55 // jmp 316f7 <_sk_store_a8_sse2_lowp+0xaf>
.byte 102,15,197,195,6 // pextrw $0x6,%xmm3,%eax
.byte 65,136,68,16,6 // mov %al,0x6(%r8,%rdx,1)
.byte 102,15,197,195,5 // pextrw $0x5,%xmm3,%eax
.byte 65,136,68,16,5 // mov %al,0x5(%r8,%rdx,1)
.byte 102,15,197,195,4 // pextrw $0x4,%xmm3,%eax
.byte 65,136,68,16,4 // mov %al,0x4(%r8,%rdx,1)
- .byte 102,68,15,111,5,149,20,0,0 // movdqa 0x1495(%rip),%xmm8 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xa20>
+ .byte 102,68,15,111,5,169,20,0,0 // movdqa 0x14a9(%rip),%xmm8 # 32b90 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
.byte 102,68,15,219,195 // pand %xmm3,%xmm8
.byte 102,69,15,103,192 // packuswb %xmm8,%xmm8
.byte 102,69,15,126,4,16 // movd %xmm8,(%r8,%rdx,1)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
.byte 144 // nop
- .byte 118,255 // jbe 316e1 <_sk_store_a8_sse2_lowp+0xb5>
+ .byte 118,255 // jbe 316fd <_sk_store_a8_sse2_lowp+0xb5>
.byte 255 // (bad)
.byte 255,165,255,255,255,155 // jmpq *-0x64000001(%rbp)
.byte 255 // (bad)
@@ -58659,19 +58671,19 @@ _sk_load_g8_sse2_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,34 // ja 31735 <_sk_load_g8_sse2_lowp+0x39>
+ .byte 119,34 // ja 31751 <_sk_load_g8_sse2_lowp+0x39>
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,147,0,0,0 // lea 0x93(%rip),%r9 # 317b4 <_sk_load_g8_sse2_lowp+0xb8>
+ .byte 76,141,13,147,0,0,0 // lea 0x93(%rip),%r9 # 317d0 <_sk_load_g8_sse2_lowp+0xb8>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
.byte 102,15,110,192 // movd %eax,%xmm0
- .byte 235,97 // jmp 31796 <_sk_load_g8_sse2_lowp+0x9a>
+ .byte 235,97 // jmp 317b2 <_sk_load_g8_sse2_lowp+0x9a>
.byte 243,65,15,126,4,16 // movq (%r8,%rdx,1),%xmm0
.byte 102,15,96,192 // punpcklbw %xmm0,%xmm0
- .byte 235,85 // jmp 31796 <_sk_load_g8_sse2_lowp+0x9a>
+ .byte 235,85 // jmp 317b2 <_sk_load_g8_sse2_lowp+0x9a>
.byte 65,15,182,68,16,2 // movzbl 0x2(%r8,%rdx,1),%eax
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,15,196,192,2 // pinsrw $0x2,%eax,%xmm0
@@ -58679,7 +58691,7 @@ _sk_load_g8_sse2_lowp:
.byte 102,15,110,200 // movd %eax,%xmm1
.byte 102,15,96,200 // punpcklbw %xmm0,%xmm1
.byte 243,15,16,193 // movss %xmm1,%xmm0
- .byte 235,51 // jmp 31796 <_sk_load_g8_sse2_lowp+0x9a>
+ .byte 235,51 // jmp 317b2 <_sk_load_g8_sse2_lowp+0x9a>
.byte 65,15,182,68,16,6 // movzbl 0x6(%r8,%rdx,1),%eax
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,15,196,192,6 // pinsrw $0x6,%eax,%xmm0
@@ -58690,14 +58702,14 @@ _sk_load_g8_sse2_lowp:
.byte 102,65,15,110,12,16 // movd (%r8,%rdx,1),%xmm1
.byte 102,15,96,200 // punpcklbw %xmm0,%xmm1
.byte 242,15,16,193 // movsd %xmm1,%xmm0
- .byte 102,15,219,5,194,19,0,0 // pand 0x13c2(%rip),%xmm0 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xa20>
+ .byte 102,15,219,5,214,19,0,0 // pand 0x13d6(%rip),%xmm0 # 32b90 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,185,19,0,0 // movaps 0x13b9(%rip),%xmm3 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xa20>
+ .byte 15,40,29,205,19,0,0 // movaps 0x13cd(%rip),%xmm3 # 32b90 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
.byte 102,15,111,208 // movdqa %xmm0,%xmm2
.byte 255,224 // jmpq *%rax
.byte 15,31,0 // nopl (%rax)
- .byte 118,255 // jbe 317b5 <_sk_load_g8_sse2_lowp+0xb9>
+ .byte 118,255 // jbe 317d1 <_sk_load_g8_sse2_lowp+0xb9>
.byte 255 // (bad)
.byte 255,156,255,255,255,141,255 // lcall *-0x720001(%rdi,%rdi,8)
.byte 255 // (bad)
@@ -58725,19 +58737,19 @@ _sk_load_g8_dst_sse2_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,34 // ja 31809 <_sk_load_g8_dst_sse2_lowp+0x39>
+ .byte 119,34 // ja 31825 <_sk_load_g8_dst_sse2_lowp+0x39>
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,147,0,0,0 // lea 0x93(%rip),%r9 # 31888 <_sk_load_g8_dst_sse2_lowp+0xb8>
+ .byte 76,141,13,147,0,0,0 // lea 0x93(%rip),%r9 # 318a4 <_sk_load_g8_dst_sse2_lowp+0xb8>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
.byte 102,15,110,224 // movd %eax,%xmm4
- .byte 235,97 // jmp 3186a <_sk_load_g8_dst_sse2_lowp+0x9a>
+ .byte 235,97 // jmp 31886 <_sk_load_g8_dst_sse2_lowp+0x9a>
.byte 243,65,15,126,36,16 // movq (%r8,%rdx,1),%xmm4
.byte 102,15,96,224 // punpcklbw %xmm0,%xmm4
- .byte 235,85 // jmp 3186a <_sk_load_g8_dst_sse2_lowp+0x9a>
+ .byte 235,85 // jmp 31886 <_sk_load_g8_dst_sse2_lowp+0x9a>
.byte 65,15,182,68,16,2 // movzbl 0x2(%r8,%rdx,1),%eax
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 102,15,196,224,2 // pinsrw $0x2,%eax,%xmm4
@@ -58745,7 +58757,7 @@ _sk_load_g8_dst_sse2_lowp:
.byte 102,15,110,232 // movd %eax,%xmm5
.byte 102,15,96,232 // punpcklbw %xmm0,%xmm5
.byte 243,15,16,229 // movss %xmm5,%xmm4
- .byte 235,51 // jmp 3186a <_sk_load_g8_dst_sse2_lowp+0x9a>
+ .byte 235,51 // jmp 31886 <_sk_load_g8_dst_sse2_lowp+0x9a>
.byte 65,15,182,68,16,6 // movzbl 0x6(%r8,%rdx,1),%eax
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 102,15,196,224,6 // pinsrw $0x6,%eax,%xmm4
@@ -58756,14 +58768,14 @@ _sk_load_g8_dst_sse2_lowp:
.byte 102,65,15,110,44,16 // movd (%r8,%rdx,1),%xmm5
.byte 102,15,96,232 // punpcklbw %xmm0,%xmm5
.byte 242,15,16,229 // movsd %xmm5,%xmm4
- .byte 102,15,219,37,238,18,0,0 // pand 0x12ee(%rip),%xmm4 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xa20>
+ .byte 102,15,219,37,2,19,0,0 // pand 0x1302(%rip),%xmm4 # 32b90 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,61,229,18,0,0 // movaps 0x12e5(%rip),%xmm7 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xa20>
+ .byte 15,40,61,249,18,0,0 // movaps 0x12f9(%rip),%xmm7 # 32b90 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
.byte 102,15,111,236 // movdqa %xmm4,%xmm5
.byte 102,15,111,244 // movdqa %xmm4,%xmm6
.byte 255,224 // jmpq *%rax
.byte 15,31,0 // nopl (%rax)
- .byte 118,255 // jbe 31889 <_sk_load_g8_dst_sse2_lowp+0xb9>
+ .byte 118,255 // jbe 318a5 <_sk_load_g8_dst_sse2_lowp+0xb9>
.byte 255 // (bad)
.byte 255,156,255,255,255,141,255 // lcall *-0x720001(%rdi,%rdi,8)
.byte 255 // (bad)
@@ -58784,10 +58796,10 @@ HIDDEN _sk_luminance_to_alpha_sse2_lowp
FUNCTION(_sk_luminance_to_alpha_sse2_lowp)
_sk_luminance_to_alpha_sse2_lowp:
.byte 102,15,111,218 // movdqa %xmm2,%xmm3
- .byte 102,15,213,5,176,26,0,0 // pmullw 0x1ab0(%rip),%xmm0 # 33360 <_sk_srcover_rgba_8888_sse2_lowp+0x1220>
- .byte 102,15,213,13,184,26,0,0 // pmullw 0x1ab8(%rip),%xmm1 # 33370 <_sk_srcover_rgba_8888_sse2_lowp+0x1230>
+ .byte 102,15,213,5,212,26,0,0 // pmullw 0x1ad4(%rip),%xmm0 # 333a0 <_sk_srcover_rgba_8888_sse2_lowp+0x1244>
+ .byte 102,15,213,13,220,26,0,0 // pmullw 0x1adc(%rip),%xmm1 # 333b0 <_sk_srcover_rgba_8888_sse2_lowp+0x1254>
.byte 102,15,253,200 // paddw %xmm0,%xmm1
- .byte 102,15,213,29,188,26,0,0 // pmullw 0x1abc(%rip),%xmm3 # 33380 <_sk_srcover_rgba_8888_sse2_lowp+0x1240>
+ .byte 102,15,213,29,224,26,0,0 // pmullw 0x1ae0(%rip),%xmm3 # 333c0 <_sk_srcover_rgba_8888_sse2_lowp+0x1264>
.byte 102,15,253,217 // paddw %xmm1,%xmm3
.byte 102,15,113,211,8 // psrlw $0x8,%xmm3
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -58802,14 +58814,14 @@ FUNCTION(_sk_scale_1_float_sse2_lowp)
_sk_scale_1_float_sse2_lowp:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 243,68,15,16,0 // movss (%rax),%xmm8
- .byte 243,68,15,89,5,7,17,0,0 // mulss 0x1107(%rip),%xmm8 # 329f4 <_sk_srcover_rgba_8888_sse2_lowp+0x8b4>
- .byte 243,68,15,88,5,206,16,0,0 // addss 0x10ce(%rip),%xmm8 # 329c4 <_sk_srcover_rgba_8888_sse2_lowp+0x884>
+ .byte 243,68,15,89,5,11,17,0,0 // mulss 0x110b(%rip),%xmm8 # 32a14 <_sk_srcover_rgba_8888_sse2_lowp+0x8b8>
+ .byte 243,68,15,88,5,210,16,0,0 // addss 0x10d2(%rip),%xmm8 # 329e4 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 243,65,15,44,192 // cvttss2si %xmm8,%eax
.byte 102,68,15,110,192 // movd %eax,%xmm8
.byte 242,69,15,112,192,0 // pshuflw $0x0,%xmm8,%xmm8
.byte 102,69,15,112,192,80 // pshufd $0x50,%xmm8,%xmm8
.byte 102,65,15,213,192 // pmullw %xmm8,%xmm0
- .byte 102,68,15,111,13,70,18,0,0 // movdqa 0x1246(%rip),%xmm9 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xa20>
+ .byte 102,68,15,111,13,90,18,0,0 // movdqa 0x125a(%rip),%xmm9 # 32b90 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
.byte 102,65,15,253,193 // paddw %xmm9,%xmm0
.byte 102,15,113,208,8 // psrlw $0x8,%xmm0
.byte 102,65,15,213,200 // pmullw %xmm8,%xmm1
@@ -58830,13 +58842,13 @@ FUNCTION(_sk_lerp_1_float_sse2_lowp)
_sk_lerp_1_float_sse2_lowp:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 243,68,15,16,0 // movss (%rax),%xmm8
- .byte 243,68,15,89,5,143,16,0,0 // mulss 0x108f(%rip),%xmm8 # 329f4 <_sk_srcover_rgba_8888_sse2_lowp+0x8b4>
- .byte 243,68,15,88,5,86,16,0,0 // addss 0x1056(%rip),%xmm8 # 329c4 <_sk_srcover_rgba_8888_sse2_lowp+0x884>
+ .byte 243,68,15,89,5,147,16,0,0 // mulss 0x1093(%rip),%xmm8 # 32a14 <_sk_srcover_rgba_8888_sse2_lowp+0x8b8>
+ .byte 243,68,15,88,5,90,16,0,0 // addss 0x105a(%rip),%xmm8 # 329e4 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 243,65,15,44,192 // cvttss2si %xmm8,%eax
.byte 102,68,15,110,192 // movd %eax,%xmm8
.byte 242,69,15,112,192,0 // pshuflw $0x0,%xmm8,%xmm8
.byte 102,69,15,112,192,80 // pshufd $0x50,%xmm8,%xmm8
- .byte 102,68,15,111,13,211,17,0,0 // movdqa 0x11d3(%rip),%xmm9 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xa20>
+ .byte 102,68,15,111,13,231,17,0,0 // movdqa 0x11e7(%rip),%xmm9 # 32b90 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
.byte 102,65,15,213,192 // pmullw %xmm8,%xmm0
.byte 102,65,15,253,193 // paddw %xmm9,%xmm0
.byte 102,65,15,213,200 // pmullw %xmm8,%xmm1
@@ -58876,19 +58888,19 @@ _sk_scale_u8_sse2_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,36 // ja 31a44 <_sk_scale_u8_sse2_lowp+0x3b>
+ .byte 119,36 // ja 31a60 <_sk_scale_u8_sse2_lowp+0x3b>
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,221,0,0,0 // lea 0xdd(%rip),%r9 # 31b0c <_sk_scale_u8_sse2_lowp+0x103>
+ .byte 76,141,13,221,0,0,0 // lea 0xdd(%rip),%r9 # 31b28 <_sk_scale_u8_sse2_lowp+0x103>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
.byte 102,68,15,110,192 // movd %eax,%xmm8
- .byte 235,109 // jmp 31ab1 <_sk_scale_u8_sse2_lowp+0xa8>
+ .byte 235,109 // jmp 31acd <_sk_scale_u8_sse2_lowp+0xa8>
.byte 243,69,15,126,4,16 // movq (%r8,%rdx,1),%xmm8
.byte 102,68,15,96,192 // punpcklbw %xmm0,%xmm8
- .byte 235,96 // jmp 31ab1 <_sk_scale_u8_sse2_lowp+0xa8>
+ .byte 235,96 // jmp 31acd <_sk_scale_u8_sse2_lowp+0xa8>
.byte 65,15,182,68,16,2 // movzbl 0x2(%r8,%rdx,1),%eax
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 102,68,15,196,192,2 // pinsrw $0x2,%eax,%xmm8
@@ -58896,7 +58908,7 @@ _sk_scale_u8_sse2_lowp:
.byte 102,68,15,110,200 // movd %eax,%xmm9
.byte 102,68,15,96,200 // punpcklbw %xmm0,%xmm9
.byte 243,69,15,16,193 // movss %xmm9,%xmm8
- .byte 235,57 // jmp 31ab1 <_sk_scale_u8_sse2_lowp+0xa8>
+ .byte 235,57 // jmp 31acd <_sk_scale_u8_sse2_lowp+0xa8>
.byte 65,15,182,68,16,6 // movzbl 0x6(%r8,%rdx,1),%eax
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 102,68,15,196,192,6 // pinsrw $0x6,%eax,%xmm8
@@ -58907,9 +58919,9 @@ _sk_scale_u8_sse2_lowp:
.byte 102,69,15,110,12,16 // movd (%r8,%rdx,1),%xmm9
.byte 102,68,15,96,200 // punpcklbw %xmm0,%xmm9
.byte 242,69,15,16,193 // movsd %xmm9,%xmm8
- .byte 102,68,15,219,5,166,16,0,0 // pand 0x10a6(%rip),%xmm8 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xa20>
+ .byte 102,68,15,219,5,186,16,0,0 // pand 0x10ba(%rip),%xmm8 # 32b90 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
.byte 102,65,15,213,192 // pmullw %xmm8,%xmm0
- .byte 102,68,15,111,13,152,16,0,0 // movdqa 0x1098(%rip),%xmm9 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xa20>
+ .byte 102,68,15,111,13,172,16,0,0 // movdqa 0x10ac(%rip),%xmm9 # 32b90 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
.byte 102,65,15,253,193 // paddw %xmm9,%xmm0
.byte 102,15,113,208,8 // psrlw $0x8,%xmm0
.byte 102,65,15,213,200 // pmullw %xmm8,%xmm1
@@ -58935,7 +58947,7 @@ _sk_scale_u8_sse2_lowp:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 125,255 // jge 31b21 <_sk_scale_u8_sse2_lowp+0x118>
+ .byte 125,255 // jge 31b3d <_sk_scale_u8_sse2_lowp+0x118>
.byte 255 // (bad)
.byte 255,108,255,255 // ljmp *-0x1(%rdi,%rdi,8)
.byte 255 // .byte 0xff
@@ -58952,19 +58964,19 @@ _sk_lerp_u8_sse2_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,36 // ja 31b63 <_sk_lerp_u8_sse2_lowp+0x3b>
+ .byte 119,36 // ja 31b7f <_sk_lerp_u8_sse2_lowp+0x3b>
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,30,1,0,0 // lea 0x11e(%rip),%r9 # 31c6c <_sk_lerp_u8_sse2_lowp+0x144>
+ .byte 76,141,13,30,1,0,0 // lea 0x11e(%rip),%r9 # 31c88 <_sk_lerp_u8_sse2_lowp+0x144>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
.byte 102,68,15,110,192 // movd %eax,%xmm8
- .byte 235,109 // jmp 31bd0 <_sk_lerp_u8_sse2_lowp+0xa8>
+ .byte 235,109 // jmp 31bec <_sk_lerp_u8_sse2_lowp+0xa8>
.byte 243,69,15,126,4,16 // movq (%r8,%rdx,1),%xmm8
.byte 102,68,15,96,192 // punpcklbw %xmm0,%xmm8
- .byte 235,96 // jmp 31bd0 <_sk_lerp_u8_sse2_lowp+0xa8>
+ .byte 235,96 // jmp 31bec <_sk_lerp_u8_sse2_lowp+0xa8>
.byte 65,15,182,68,16,2 // movzbl 0x2(%r8,%rdx,1),%eax
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 102,68,15,196,192,2 // pinsrw $0x2,%eax,%xmm8
@@ -58972,7 +58984,7 @@ _sk_lerp_u8_sse2_lowp:
.byte 102,68,15,110,200 // movd %eax,%xmm9
.byte 102,68,15,96,200 // punpcklbw %xmm0,%xmm9
.byte 243,69,15,16,193 // movss %xmm9,%xmm8
- .byte 235,57 // jmp 31bd0 <_sk_lerp_u8_sse2_lowp+0xa8>
+ .byte 235,57 // jmp 31bec <_sk_lerp_u8_sse2_lowp+0xa8>
.byte 65,15,182,68,16,6 // movzbl 0x6(%r8,%rdx,1),%eax
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 102,68,15,196,192,6 // pinsrw $0x6,%eax,%xmm8
@@ -58983,8 +58995,8 @@ _sk_lerp_u8_sse2_lowp:
.byte 102,69,15,110,12,16 // movd (%r8,%rdx,1),%xmm9
.byte 102,68,15,96,200 // punpcklbw %xmm0,%xmm9
.byte 242,69,15,16,193 // movsd %xmm9,%xmm8
- .byte 102,68,15,219,5,135,15,0,0 // pand 0xf87(%rip),%xmm8 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xa20>
- .byte 102,68,15,111,21,126,15,0,0 // movdqa 0xf7e(%rip),%xmm10 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xa20>
+ .byte 102,68,15,219,5,155,15,0,0 // pand 0xf9b(%rip),%xmm8 # 32b90 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
+ .byte 102,68,15,111,21,146,15,0,0 // movdqa 0xf92(%rip),%xmm10 # 32b90 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
.byte 102,69,15,111,200 // movdqa %xmm8,%xmm9
.byte 102,69,15,239,202 // pxor %xmm10,%xmm9
.byte 102,69,15,111,217 // movdqa %xmm9,%xmm11
@@ -59014,9 +59026,9 @@ _sk_lerp_u8_sse2_lowp:
.byte 102,65,15,111,216 // movdqa %xmm8,%xmm3
.byte 255,224 // jmpq *%rax
.byte 15,31,0 // nopl (%rax)
- .byte 235,254 // jmp 31c6c <_sk_lerp_u8_sse2_lowp+0x144>
+ .byte 235,254 // jmp 31c88 <_sk_lerp_u8_sse2_lowp+0x144>
.byte 255 // (bad)
- .byte 255,21,255,255,255,4 // callq *0x4ffffff(%rip) # 5031c74 <_sk_srcover_rgba_8888_sse2_lowp+0x4fffb34>
+ .byte 255,21,255,255,255,4 // callq *0x4ffffff(%rip) # 5031c90 <_sk_srcover_rgba_8888_sse2_lowp+0x4fffb34>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,84,255,255 // callq *-0x1(%rdi,%rdi,8)
@@ -59046,23 +59058,23 @@ _sk_scale_565_sse2_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,34 // ja 31cd3 <_sk_scale_565_sse2_lowp+0x4b>
+ .byte 119,34 // ja 31cef <_sk_scale_565_sse2_lowp+0x4b>
.byte 102,15,239,246 // pxor %xmm6,%xmm6
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,229,1,0,0 // lea 0x1e5(%rip),%r9 # 31ea4 <_sk_scale_565_sse2_lowp+0x21c>
+ .byte 76,141,13,229,1,0,0 // lea 0x1e5(%rip),%r9 # 31ec0 <_sk_scale_565_sse2_lowp+0x21c>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,183,4,80 // movzwl (%r8,%rdx,2),%eax
.byte 102,15,110,240 // movd %eax,%xmm6
- .byte 235,67 // jmp 31d16 <_sk_scale_565_sse2_lowp+0x8e>
+ .byte 235,67 // jmp 31d32 <_sk_scale_565_sse2_lowp+0x8e>
.byte 243,65,15,111,52,80 // movdqu (%r8,%rdx,2),%xmm6
- .byte 235,59 // jmp 31d16 <_sk_scale_565_sse2_lowp+0x8e>
+ .byte 235,59 // jmp 31d32 <_sk_scale_565_sse2_lowp+0x8e>
.byte 102,15,239,246 // pxor %xmm6,%xmm6
.byte 102,65,15,196,116,80,4,2 // pinsrw $0x2,0x4(%r8,%rdx,2),%xmm6
.byte 243,69,15,16,12,80 // movss (%r8,%rdx,2),%xmm9
.byte 243,65,15,16,241 // movss %xmm9,%xmm6
- .byte 235,34 // jmp 31d16 <_sk_scale_565_sse2_lowp+0x8e>
+ .byte 235,34 // jmp 31d32 <_sk_scale_565_sse2_lowp+0x8e>
.byte 102,15,239,246 // pxor %xmm6,%xmm6
.byte 102,65,15,196,116,80,12,6 // pinsrw $0x6,0xc(%r8,%rdx,2),%xmm6
.byte 102,65,15,196,116,80,10,5 // pinsrw $0x5,0xa(%r8,%rdx,2),%xmm6
@@ -59070,11 +59082,11 @@ _sk_scale_565_sse2_lowp:
.byte 102,65,15,18,52,80 // movlpd (%r8,%rdx,2),%xmm6
.byte 102,68,15,111,222 // movdqa %xmm6,%xmm11
.byte 102,65,15,113,211,8 // psrlw $0x8,%xmm11
- .byte 102,68,15,219,29,230,21,0,0 // pand 0x15e6(%rip),%xmm11 # 33310 <_sk_srcover_rgba_8888_sse2_lowp+0x11d0>
+ .byte 102,68,15,219,29,10,22,0,0 // pand 0x160a(%rip),%xmm11 # 33350 <_sk_srcover_rgba_8888_sse2_lowp+0x11f4>
.byte 102,68,15,111,206 // movdqa %xmm6,%xmm9
.byte 102,65,15,113,209,5 // psrlw $0x5,%xmm9
- .byte 102,68,15,219,13,226,21,0,0 // pand 0x15e2(%rip),%xmm9 # 33320 <_sk_srcover_rgba_8888_sse2_lowp+0x11e0>
- .byte 102,68,15,111,21,233,21,0,0 // movdqa 0x15e9(%rip),%xmm10 # 33330 <_sk_srcover_rgba_8888_sse2_lowp+0x11f0>
+ .byte 102,68,15,219,13,6,22,0,0 // pand 0x1606(%rip),%xmm9 # 33360 <_sk_srcover_rgba_8888_sse2_lowp+0x1204>
+ .byte 102,68,15,111,21,13,22,0,0 // movdqa 0x160d(%rip),%xmm10 # 33370 <_sk_srcover_rgba_8888_sse2_lowp+0x1214>
.byte 102,68,15,219,214 // pand %xmm6,%xmm10
.byte 102,15,113,214,13 // psrlw $0xd,%xmm6
.byte 102,65,15,235,243 // por %xmm11,%xmm6
@@ -59086,7 +59098,7 @@ _sk_scale_565_sse2_lowp:
.byte 102,65,15,113,243,3 // psllw $0x3,%xmm11
.byte 102,65,15,113,210,2 // psrlw $0x2,%xmm10
.byte 102,69,15,235,211 // por %xmm11,%xmm10
- .byte 102,68,15,111,37,69,21,0,0 // movdqa 0x1545(%rip),%xmm12 # 332d0 <_sk_srcover_rgba_8888_sse2_lowp+0x1190>
+ .byte 102,68,15,111,37,105,21,0,0 // movdqa 0x1569(%rip),%xmm12 # 33310 <_sk_srcover_rgba_8888_sse2_lowp+0x11b4>
.byte 102,68,15,111,235 // movdqa %xmm3,%xmm13
.byte 102,69,15,239,236 // pxor %xmm12,%xmm13
.byte 102,68,15,111,223 // movdqa %xmm7,%xmm11
@@ -59127,7 +59139,7 @@ _sk_scale_565_sse2_lowp:
.byte 102,68,15,213,201 // pmullw %xmm1,%xmm9
.byte 102,68,15,213,210 // pmullw %xmm2,%xmm10
.byte 102,68,15,213,219 // pmullw %xmm3,%xmm11
- .byte 102,15,111,5,7,13,0,0 // movdqa 0xd07(%rip),%xmm0 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xa20>
+ .byte 102,15,111,5,27,13,0,0 // movdqa 0xd1b(%rip),%xmm0 # 32b90 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
.byte 102,15,253,240 // paddw %xmm0,%xmm6
.byte 102,68,15,253,200 // paddw %xmm0,%xmm9
.byte 102,68,15,253,208 // paddw %xmm0,%xmm10
@@ -59174,23 +59186,23 @@ _sk_lerp_565_sse2_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,34 // ja 31f0b <_sk_lerp_565_sse2_lowp+0x4b>
+ .byte 119,34 // ja 31f27 <_sk_lerp_565_sse2_lowp+0x4b>
.byte 102,15,239,210 // pxor %xmm2,%xmm2
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,45,2,0,0 // lea 0x22d(%rip),%r9 # 32124 <_sk_lerp_565_sse2_lowp+0x264>
+ .byte 76,141,13,45,2,0,0 // lea 0x22d(%rip),%r9 # 32140 <_sk_lerp_565_sse2_lowp+0x264>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,183,4,80 // movzwl (%r8,%rdx,2),%eax
.byte 102,15,110,208 // movd %eax,%xmm2
- .byte 235,67 // jmp 31f4e <_sk_lerp_565_sse2_lowp+0x8e>
+ .byte 235,67 // jmp 31f6a <_sk_lerp_565_sse2_lowp+0x8e>
.byte 243,65,15,111,20,80 // movdqu (%r8,%rdx,2),%xmm2
- .byte 235,59 // jmp 31f4e <_sk_lerp_565_sse2_lowp+0x8e>
+ .byte 235,59 // jmp 31f6a <_sk_lerp_565_sse2_lowp+0x8e>
.byte 102,15,239,210 // pxor %xmm2,%xmm2
.byte 102,65,15,196,84,80,4,2 // pinsrw $0x2,0x4(%r8,%rdx,2),%xmm2
.byte 243,69,15,16,12,80 // movss (%r8,%rdx,2),%xmm9
.byte 243,65,15,16,209 // movss %xmm9,%xmm2
- .byte 235,34 // jmp 31f4e <_sk_lerp_565_sse2_lowp+0x8e>
+ .byte 235,34 // jmp 31f6a <_sk_lerp_565_sse2_lowp+0x8e>
.byte 102,15,239,210 // pxor %xmm2,%xmm2
.byte 102,65,15,196,84,80,12,6 // pinsrw $0x6,0xc(%r8,%rdx,2),%xmm2
.byte 102,65,15,196,84,80,10,5 // pinsrw $0x5,0xa(%r8,%rdx,2),%xmm2
@@ -59198,11 +59210,11 @@ _sk_lerp_565_sse2_lowp:
.byte 102,65,15,18,20,80 // movlpd (%r8,%rdx,2),%xmm2
.byte 102,68,15,111,218 // movdqa %xmm2,%xmm11
.byte 102,65,15,113,211,8 // psrlw $0x8,%xmm11
- .byte 102,68,15,219,29,174,19,0,0 // pand 0x13ae(%rip),%xmm11 # 33310 <_sk_srcover_rgba_8888_sse2_lowp+0x11d0>
+ .byte 102,68,15,219,29,210,19,0,0 // pand 0x13d2(%rip),%xmm11 # 33350 <_sk_srcover_rgba_8888_sse2_lowp+0x11f4>
.byte 102,68,15,111,202 // movdqa %xmm2,%xmm9
.byte 102,65,15,113,209,5 // psrlw $0x5,%xmm9
- .byte 102,68,15,219,13,170,19,0,0 // pand 0x13aa(%rip),%xmm9 # 33320 <_sk_srcover_rgba_8888_sse2_lowp+0x11e0>
- .byte 102,68,15,111,21,177,19,0,0 // movdqa 0x13b1(%rip),%xmm10 # 33330 <_sk_srcover_rgba_8888_sse2_lowp+0x11f0>
+ .byte 102,68,15,219,13,206,19,0,0 // pand 0x13ce(%rip),%xmm9 # 33360 <_sk_srcover_rgba_8888_sse2_lowp+0x1204>
+ .byte 102,68,15,111,21,213,19,0,0 // movdqa 0x13d5(%rip),%xmm10 # 33370 <_sk_srcover_rgba_8888_sse2_lowp+0x1214>
.byte 102,68,15,219,210 // pand %xmm2,%xmm10
.byte 102,15,113,210,13 // psrlw $0xd,%xmm2
.byte 102,65,15,235,211 // por %xmm11,%xmm2
@@ -59214,7 +59226,7 @@ _sk_lerp_565_sse2_lowp:
.byte 102,65,15,113,243,3 // psllw $0x3,%xmm11
.byte 102,65,15,113,210,2 // psrlw $0x2,%xmm10
.byte 102,69,15,235,211 // por %xmm11,%xmm10
- .byte 102,68,15,111,37,13,19,0,0 // movdqa 0x130d(%rip),%xmm12 # 332d0 <_sk_srcover_rgba_8888_sse2_lowp+0x1190>
+ .byte 102,68,15,111,37,49,19,0,0 // movdqa 0x1331(%rip),%xmm12 # 33310 <_sk_srcover_rgba_8888_sse2_lowp+0x11b4>
.byte 102,68,15,111,235 // movdqa %xmm3,%xmm13
.byte 102,69,15,239,236 // pxor %xmm12,%xmm13
.byte 102,68,15,111,223 // movdqa %xmm7,%xmm11
@@ -59253,7 +59265,7 @@ _sk_lerp_565_sse2_lowp:
.byte 102,69,15,235,222 // por %xmm14,%xmm11
.byte 102,15,111,194 // movdqa %xmm2,%xmm0
.byte 102,15,213,209 // pmullw %xmm1,%xmm2
- .byte 102,68,15,111,5,217,10,0,0 // movdqa 0xad9(%rip),%xmm8 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xa20>
+ .byte 102,68,15,111,5,237,10,0,0 // movdqa 0xaed(%rip),%xmm8 # 32b90 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
.byte 102,65,15,239,192 // pxor %xmm8,%xmm0
.byte 102,15,213,196 // pmullw %xmm4,%xmm0
.byte 102,65,15,253,208 // paddw %xmm8,%xmm2
@@ -59322,26 +59334,26 @@ _sk_srcover_rgba_8888_sse2_lowp:
.byte 65,254,202 // dec %r10b
.byte 69,15,182,202 // movzbl %r10b,%r9d
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,38 // ja 3218b <_sk_srcover_rgba_8888_sse2_lowp+0x4b>
+ .byte 119,38 // ja 321a7 <_sk_srcover_rgba_8888_sse2_lowp+0x4b>
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
- .byte 76,141,29,67,2,0,0 // lea 0x243(%rip),%r11 # 323b4 <_sk_srcover_rgba_8888_sse2_lowp+0x274>
+ .byte 76,141,29,67,2,0,0 // lea 0x243(%rip),%r11 # 323d0 <_sk_srcover_rgba_8888_sse2_lowp+0x274>
.byte 75,99,4,139 // movslq (%r11,%r9,4),%rax
.byte 76,1,216 // add %r11,%rax
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 255,224 // jmpq *%rax
.byte 243,65,15,16,60,144 // movss (%r8,%rdx,4),%xmm7
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
- .byte 235,102 // jmp 321f1 <_sk_srcover_rgba_8888_sse2_lowp+0xb1>
+ .byte 235,102 // jmp 3220d <_sk_srcover_rgba_8888_sse2_lowp+0xb1>
.byte 102,65,15,16,60,144 // movupd (%r8,%rdx,4),%xmm7
.byte 243,69,15,111,68,144,16 // movdqu 0x10(%r8,%rdx,4),%xmm8
- .byte 235,87 // jmp 321f1 <_sk_srcover_rgba_8888_sse2_lowp+0xb1>
+ .byte 235,87 // jmp 3220d <_sk_srcover_rgba_8888_sse2_lowp+0xb1>
.byte 102,65,15,110,100,144,8 // movd 0x8(%r8,%rdx,4),%xmm4
.byte 102,68,15,112,196,69 // pshufd $0x45,%xmm4,%xmm8
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 102,69,15,18,4,144 // movlpd (%r8,%rdx,4),%xmm8
.byte 102,65,15,40,248 // movapd %xmm8,%xmm7
.byte 102,68,15,111,196 // movdqa %xmm4,%xmm8
- .byte 235,52 // jmp 321f1 <_sk_srcover_rgba_8888_sse2_lowp+0xb1>
+ .byte 235,52 // jmp 3220d <_sk_srcover_rgba_8888_sse2_lowp+0xb1>
.byte 102,65,15,110,100,144,24 // movd 0x18(%r8,%rdx,4),%xmm4
.byte 102,68,15,112,196,69 // pshufd $0x45,%xmm4,%xmm8
.byte 243,65,15,16,100,144,20 // movss 0x14(%r8,%rdx,4),%xmm4
@@ -59358,7 +59370,7 @@ _sk_srcover_rgba_8888_sse2_lowp:
.byte 102,15,114,244,16 // pslld $0x10,%xmm4
.byte 102,15,114,228,16 // psrad $0x10,%xmm4
.byte 102,15,107,236 // packssdw %xmm4,%xmm5
- .byte 102,68,15,111,37,69,9,0,0 // movdqa 0x945(%rip),%xmm12 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xa20>
+ .byte 102,68,15,111,37,89,9,0,0 // movdqa 0x959(%rip),%xmm12 # 32b90 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
.byte 102,15,111,229 // movdqa %xmm5,%xmm4
.byte 102,65,15,219,228 // pand %xmm12,%xmm4
.byte 102,15,113,213,8 // psrlw $0x8,%xmm5
@@ -59416,20 +59428,20 @@ _sk_srcover_rgba_8888_sse2_lowp:
.byte 102,15,105,193 // punpckhwd %xmm1,%xmm0
.byte 102,15,235,194 // por %xmm2,%xmm0
.byte 65,128,250,6 // cmp $0x6,%r10b
- .byte 119,24 // ja 32353 <_sk_srcover_rgba_8888_sse2_lowp+0x213>
- .byte 76,141,21,142,0,0,0 // lea 0x8e(%rip),%r10 # 323d0 <_sk_srcover_rgba_8888_sse2_lowp+0x290>
+ .byte 119,24 // ja 3236f <_sk_srcover_rgba_8888_sse2_lowp+0x213>
+ .byte 76,141,21,142,0,0,0 // lea 0x8e(%rip),%r10 # 323ec <_sk_srcover_rgba_8888_sse2_lowp+0x290>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 102,69,15,126,36,144 // movd %xmm12,(%r8,%rdx,4)
- .byte 235,73 // jmp 3239c <_sk_srcover_rgba_8888_sse2_lowp+0x25c>
+ .byte 235,73 // jmp 323b8 <_sk_srcover_rgba_8888_sse2_lowp+0x25c>
.byte 243,69,15,127,36,144 // movdqu %xmm12,(%r8,%rdx,4)
.byte 243,65,15,127,68,144,16 // movdqu %xmm0,0x10(%r8,%rdx,4)
- .byte 235,58 // jmp 3239c <_sk_srcover_rgba_8888_sse2_lowp+0x25c>
+ .byte 235,58 // jmp 323b8 <_sk_srcover_rgba_8888_sse2_lowp+0x25c>
.byte 102,65,15,112,196,78 // pshufd $0x4e,%xmm12,%xmm0
.byte 102,65,15,126,68,144,8 // movd %xmm0,0x8(%r8,%rdx,4)
.byte 102,69,15,214,36,144 // movq %xmm12,(%r8,%rdx,4)
- .byte 235,37 // jmp 3239c <_sk_srcover_rgba_8888_sse2_lowp+0x25c>
+ .byte 235,37 // jmp 323b8 <_sk_srcover_rgba_8888_sse2_lowp+0x25c>
.byte 102,15,112,200,78 // pshufd $0x4e,%xmm0,%xmm1
.byte 102,65,15,126,76,144,24 // movd %xmm1,0x18(%r8,%rdx,4)
.byte 102,15,112,200,229 // pshufd $0xe5,%xmm0,%xmm1
@@ -59462,7 +59474,7 @@ _sk_srcover_rgba_8888_sse2_lowp:
.byte 254 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 123,255 // jnp 323d1 <_sk_srcover_rgba_8888_sse2_lowp+0x291>
+ .byte 123,255 // jnp 323ed <_sk_srcover_rgba_8888_sse2_lowp+0x291>
.byte 255 // (bad)
.byte 255,159,255,255,255,146 // lcall *-0x6d000001(%rdi)
.byte 255 // (bad)
@@ -59557,16 +59569,16 @@ BALIGN32
.byte 0,1 // add %al,(%rcx)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a0324a8 <_sk_srcover_rgba_8888_sse2_lowp+0xa000368>
+ .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a0324c8 <_sk_srcover_rgba_8888_sse2_lowp+0xa00036c>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 120324b0 <_sk_srcover_rgba_8888_sse2_lowp+0x12000370>
+ .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 120324d0 <_sk_srcover_rgba_8888_sse2_lowp+0x12000374>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a0324b8 <_sk_srcover_rgba_8888_sse2_lowp+0x1a000378>
+ .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a0324d8 <_sk_srcover_rgba_8888_sse2_lowp+0x1a00037c>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 30324c0 <_sk_srcover_rgba_8888_sse2_lowp+0x3000380>
+ .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 30324e0 <_sk_srcover_rgba_8888_sse2_lowp+0x3000384>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,6 // incl (%rsi)
@@ -59609,16 +59621,16 @@ BALIGN32
.byte 0,0 // add %al,(%rax)
.byte 1,255 // add %edi,%edi
.byte 255 // (bad)
- .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a032508 <_sk_srcover_rgba_8888_sse2_lowp+0xa0003c8>
+ .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a032528 <_sk_srcover_rgba_8888_sse2_lowp+0xa0003cc>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 12032510 <_sk_srcover_rgba_8888_sse2_lowp+0x120003d0>
+ .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 12032530 <_sk_srcover_rgba_8888_sse2_lowp+0x120003d4>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a032518 <_sk_srcover_rgba_8888_sse2_lowp+0x1a0003d8>
+ .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a032538 <_sk_srcover_rgba_8888_sse2_lowp+0x1a0003dc>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 3032520 <_sk_srcover_rgba_8888_sse2_lowp+0x30003e0>
+ .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 3032540 <_sk_srcover_rgba_8888_sse2_lowp+0x30003e4>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,6 // incl (%rsi)
@@ -59661,16 +59673,16 @@ BALIGN32
.byte 0,0 // add %al,(%rax)
.byte 1,255 // add %edi,%edi
.byte 255 // (bad)
- .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a032568 <_sk_srcover_rgba_8888_sse2_lowp+0xa000428>
+ .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a032588 <_sk_srcover_rgba_8888_sse2_lowp+0xa00042c>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 12032570 <_sk_srcover_rgba_8888_sse2_lowp+0x12000430>
+ .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 12032590 <_sk_srcover_rgba_8888_sse2_lowp+0x12000434>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a032578 <_sk_srcover_rgba_8888_sse2_lowp+0x1a000438>
+ .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a032598 <_sk_srcover_rgba_8888_sse2_lowp+0x1a00043c>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 3032580 <_sk_srcover_rgba_8888_sse2_lowp+0x3000440>
+ .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 30325a0 <_sk_srcover_rgba_8888_sse2_lowp+0x3000444>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,6 // incl (%rsi)
@@ -59713,16 +59725,16 @@ BALIGN32
.byte 0,0 // add %al,(%rax)
.byte 1,255 // add %edi,%edi
.byte 255 // (bad)
- .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a0325c8 <_sk_srcover_rgba_8888_sse2_lowp+0xa000488>
+ .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a0325e8 <_sk_srcover_rgba_8888_sse2_lowp+0xa00048c>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 120325d0 <_sk_srcover_rgba_8888_sse2_lowp+0x12000490>
+ .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 120325f0 <_sk_srcover_rgba_8888_sse2_lowp+0x12000494>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a0325d8 <_sk_srcover_rgba_8888_sse2_lowp+0x1a000498>
+ .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a0325f8 <_sk_srcover_rgba_8888_sse2_lowp+0x1a00049c>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 30325e0 <_sk_srcover_rgba_8888_sse2_lowp+0x30004a0>
+ .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 3032600 <_sk_srcover_rgba_8888_sse2_lowp+0x30004a4>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,6 // incl (%rsi)
@@ -59765,16 +59777,16 @@ BALIGN32
.byte 0,0 // add %al,(%rax)
.byte 1,255 // add %edi,%edi
.byte 255 // (bad)
- .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a032628 <_sk_srcover_rgba_8888_sse2_lowp+0xa0004e8>
+ .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a032648 <_sk_srcover_rgba_8888_sse2_lowp+0xa0004ec>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 12032630 <_sk_srcover_rgba_8888_sse2_lowp+0x120004f0>
+ .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 12032650 <_sk_srcover_rgba_8888_sse2_lowp+0x120004f4>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a032638 <_sk_srcover_rgba_8888_sse2_lowp+0x1a0004f8>
+ .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a032658 <_sk_srcover_rgba_8888_sse2_lowp+0x1a0004fc>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 3032640 <_sk_srcover_rgba_8888_sse2_lowp+0x3000500>
+ .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 3032660 <_sk_srcover_rgba_8888_sse2_lowp+0x3000504>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,6 // incl (%rsi)
@@ -59817,16 +59829,16 @@ BALIGN32
.byte 0,0 // add %al,(%rax)
.byte 1,255 // add %edi,%edi
.byte 255 // (bad)
- .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a032688 <_sk_srcover_rgba_8888_sse2_lowp+0xa000548>
+ .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a0326a8 <_sk_srcover_rgba_8888_sse2_lowp+0xa00054c>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 12032690 <_sk_srcover_rgba_8888_sse2_lowp+0x12000550>
+ .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 120326b0 <_sk_srcover_rgba_8888_sse2_lowp+0x12000554>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a032698 <_sk_srcover_rgba_8888_sse2_lowp+0x1a000558>
+ .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a0326b8 <_sk_srcover_rgba_8888_sse2_lowp+0x1a00055c>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 30326a0 <_sk_srcover_rgba_8888_sse2_lowp+0x3000560>
+ .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 30326c0 <_sk_srcover_rgba_8888_sse2_lowp+0x3000564>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,6 // incl (%rsi)
@@ -59869,16 +59881,16 @@ BALIGN32
.byte 0,0 // add %al,(%rax)
.byte 1,255 // add %edi,%edi
.byte 255 // (bad)
- .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a0326e8 <_sk_srcover_rgba_8888_sse2_lowp+0xa0005a8>
+ .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a032708 <_sk_srcover_rgba_8888_sse2_lowp+0xa0005ac>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 120326f0 <_sk_srcover_rgba_8888_sse2_lowp+0x120005b0>
+ .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 12032710 <_sk_srcover_rgba_8888_sse2_lowp+0x120005b4>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a0326f8 <_sk_srcover_rgba_8888_sse2_lowp+0x1a0005b8>
+ .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a032718 <_sk_srcover_rgba_8888_sse2_lowp+0x1a0005bc>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 3032700 <_sk_srcover_rgba_8888_sse2_lowp+0x30005c0>
+ .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 3032720 <_sk_srcover_rgba_8888_sse2_lowp+0x30005c4>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,6 // incl (%rsi)
@@ -59921,16 +59933,16 @@ BALIGN32
.byte 0,0 // add %al,(%rax)
.byte 1,255 // add %edi,%edi
.byte 255 // (bad)
- .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a032748 <_sk_srcover_rgba_8888_sse2_lowp+0xa000608>
+ .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a032768 <_sk_srcover_rgba_8888_sse2_lowp+0xa00060c>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 12032750 <_sk_srcover_rgba_8888_sse2_lowp+0x12000610>
+ .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 12032770 <_sk_srcover_rgba_8888_sse2_lowp+0x12000614>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a032758 <_sk_srcover_rgba_8888_sse2_lowp+0x1a000618>
+ .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a032778 <_sk_srcover_rgba_8888_sse2_lowp+0x1a00061c>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 3032760 <_sk_srcover_rgba_8888_sse2_lowp+0x3000620>
+ .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 3032780 <_sk_srcover_rgba_8888_sse2_lowp+0x3000624>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,6 // incl (%rsi)
@@ -60201,7 +60213,7 @@ BALIGN32
.byte 0,255 // add %bh,%bh
.byte 0,0 // add %al,(%rax)
.byte 248 // clc
- .byte 224,255 // loopne 32973 <.const+0x573>
+ .byte 224,255 // loopne 32993 <.const+0x573>
.byte 255,0 // incl (%rax)
.byte 255,0 // incl (%rax)
.byte 54,0,183,0,19,0,255 // add %dh,%ss:-0xffed00(%rdi)
@@ -60254,16 +60266,18 @@ BALIGN4
.byte 252 // cld
.byte 190,0,0,128,191 // mov $0xbf800000,%esi
.byte 0,0 // add %al,(%rax)
- .byte 224,64 // loopne 32a28 <.literal4+0x64>
+ .byte 224,64 // loopne 32a48 <.literal4+0x64>
.byte 154 // (bad)
.byte 153 // cltd
.byte 153 // cltd
.byte 62,61,10,23,63,174 // ds cmp $0xae3f170a,%eax
- .byte 71,225,61 // rex.RXB loope 32a31 <.literal4+0x6d>
+ .byte 71,225,61 // rex.RXB loope 32a51 <.literal4+0x6d>
.byte 0,0 // add %al,(%rax)
- .byte 127,67 // jg 32a3b <.literal4+0x77>
- .byte 145 // xchg %eax,%ecx
- .byte 131,158,61,92,143,50,63 // sbbl $0x3f,0x328f5c3d(%rsi)
+ .byte 127,67 // jg 32a5b <.literal4+0x77>
+ .byte 0,0 // add %al,(%rax)
+ .byte 128,127,145,131 // cmpb $0x83,-0x6f(%rdi)
+ .byte 158 // sahf
+ .byte 61,92,143,50,63 // cmp $0x3f328f5c,%eax
.byte 10,215 // or %bh,%dl
.byte 35,59 // and (%rbx),%edi
.byte 174 // scas %es:(%rdi),%al
@@ -60296,7 +60310,7 @@ BALIGN4
.byte 0,0 // add %al,(%rax)
.byte 8,33 // or %ah,(%rcx)
.byte 132,55 // test %dh,(%rdi)
- .byte 224,7 // loopne 32a51 <.literal4+0x8d>
+ .byte 224,7 // loopne 32a75 <.literal4+0x91>
.byte 0,0 // add %al,(%rax)
.byte 33,8 // and %ecx,(%rax)
.byte 2,58 // add (%rdx),%bh
@@ -60307,8 +60321,8 @@ BALIGN4
.byte 0,0 // add %al,(%rax)
.byte 0,52,255 // add %dh,(%rdi,%rdi,8)
.byte 255 // (bad)
- .byte 127,0 // jg 32a64 <.literal4+0xa0>
- .byte 119,115 // ja 32ad9 <.literal4+0x115>
+ .byte 127,0 // jg 32a88 <.literal4+0xa4>
+ .byte 119,115 // ja 32afd <.literal4+0x119>
.byte 248 // clc
.byte 194,117,191 // retq $0xbf75
.byte 191,63,249,68,180 // mov $0xb444f93f,%edi
@@ -60331,12 +60345,12 @@ BALIGN4
.byte 190,80,128,3,62 // mov $0x3e038050,%esi
.byte 31 // (bad)
.byte 215 // xlat %ds:(%rbx)
- .byte 118,63 // jbe 32aef <.literal4+0x12b>
+ .byte 118,63 // jbe 32b13 <.literal4+0x12f>
.byte 246,64,83,63 // testb $0x3f,0x53(%rax)
.byte 0,0 // add %al,(%rax)
.byte 248 // clc
.byte 65,0,0 // add %al,(%r8)
- .byte 124,66 // jl 32afe <.literal4+0x13a>
+ .byte 124,66 // jl 32b22 <.literal4+0x13e>
.byte 0,240 // add %dh,%al
.byte 0,0 // add %al,(%rax)
.byte 137,136,136,55,0,15 // mov %ecx,0xf003788(%rax)
@@ -60346,9 +60360,9 @@ BALIGN4
.byte 137,136,136,59,15,0 // mov %ecx,0xf3b88(%rax)
.byte 0,0 // add %al,(%rax)
.byte 137,136,136,61,0,0 // mov %ecx,0x3d88(%rax)
- .byte 112,65 // jo 32b21 <.literal4+0x15d>
+ .byte 112,65 // jo 32b45 <.literal4+0x161>
.byte 0,255 // add %bh,%bh
- .byte 127,71 // jg 32b2b <.literal4+0x167>
+ .byte 127,71 // jg 32b4f <.literal4+0x16b>
.byte 89 // pop %rcx
.byte 23 // (bad)
.byte 55 // (bad)
@@ -60376,14 +60390,14 @@ BALIGN4
.byte 0,0 // add %al,(%rax)
.byte 128,0,0 // addb $0x0,(%rax)
.byte 0,191,0,0,192,191 // add %bh,-0x40400000(%rdi)
- .byte 114,28 // jb 32b4a <.literal4+0x186>
+ .byte 114,28 // jb 32b6e <.literal4+0x18a>
.byte 199 // (bad)
.byte 62,85 // ds push %rbp
.byte 85 // push %rbp
.byte 149 // xchg %eax,%ebp
.byte 191,0,0,192,63 // mov $0x3fc00000,%edi
.byte 57,142,99,61,114,249 // cmp %ecx,-0x68dc29d(%rsi)
- .byte 127,63 // jg 32b7f <_sk_srcover_rgba_8888_sse2_lowp+0xa3f>
+ .byte 127,63 // jg 32ba3 <_sk_srcover_rgba_8888_sse2_lowp+0xa47>
.byte 3,0 // add (%rax),%eax
.byte 0,0 // add %al,(%rax)
.byte 109 // insl (%dx),%es:(%rdi)
@@ -60398,7 +60412,7 @@ BALIGN4
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 127,0 // jg 32b59 <.literal4+0x195>
+ .byte 127,0 // jg 32b7d <.literal4+0x199>
.byte 0,128,56,0,64,254 // add %al,-0x1bfffc8(%rax)
.byte 255 // .byte 0xff
@@ -60501,11 +60515,11 @@ BALIGN16
.byte 0,128,191,0,0,128 // add %al,-0x7fffff41(%rax)
.byte 191,0,0,224,64 // mov $0x40e00000,%edi
.byte 0,0 // add %al,(%rax)
- .byte 224,64 // loopne 32c88 <.literal16+0x128>
+ .byte 224,64 // loopne 32cb8 <.literal16+0x128>
.byte 0,0 // add %al,(%rax)
- .byte 224,64 // loopne 32c8c <.literal16+0x12c>
+ .byte 224,64 // loopne 32cbc <.literal16+0x12c>
.byte 0,0 // add %al,(%rax)
- .byte 224,64 // loopne 32c90 <.literal16+0x130>
+ .byte 224,64 // loopne 32cc0 <.literal16+0x130>
.byte 154 // (bad)
.byte 153 // cltd
.byte 153 // cltd
@@ -60525,13 +60539,13 @@ BALIGN16
.byte 10,23 // or (%rdi),%dl
.byte 63 // (bad)
.byte 174 // scas %es:(%rdi),%al
- .byte 71,225,61 // rex.RXB loope 32cb1 <.literal16+0x151>
+ .byte 71,225,61 // rex.RXB loope 32ce1 <.literal16+0x151>
.byte 174 // scas %es:(%rdi),%al
- .byte 71,225,61 // rex.RXB loope 32cb5 <.literal16+0x155>
+ .byte 71,225,61 // rex.RXB loope 32ce5 <.literal16+0x155>
.byte 174 // scas %es:(%rdi),%al
- .byte 71,225,61 // rex.RXB loope 32cb9 <.literal16+0x159>
+ .byte 71,225,61 // rex.RXB loope 32ce9 <.literal16+0x159>
.byte 174 // scas %es:(%rdi),%al
- .byte 71,225,61 // rex.RXB loope 32cbd <.literal16+0x15d>
+ .byte 71,225,61 // rex.RXB loope 32ced <.literal16+0x15d>
.byte 255,0 // incl (%rax)
.byte 0,0 // add %al,(%rax)
.byte 255,0 // incl (%rax)
@@ -60542,10 +60556,10 @@ BALIGN16
.byte 0,0 // add %al,(%rax)
.byte 1,255 // add %edi,%edi
.byte 255 // (bad)
- .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a032c98 <_sk_srcover_rgba_8888_sse2_lowp+0xa000b58>
+ .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a032cc8 <_sk_srcover_rgba_8888_sse2_lowp+0xa000b6c>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,13,255,255,255,2 // decl 0x2ffffff(%rip) # 3032ca0 <_sk_srcover_rgba_8888_sse2_lowp+0x3000b60>
+ .byte 255,13,255,255,255,2 // decl 0x2ffffff(%rip) # 3032cd0 <_sk_srcover_rgba_8888_sse2_lowp+0x3000b74>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,6 // incl (%rsi)
@@ -60560,13 +60574,18 @@ BALIGN16
.byte 255,0 // incl (%rax)
.byte 0,127,67 // add %bh,0x43(%rdi)
.byte 0,0 // add %al,(%rax)
- .byte 127,67 // jg 32cfb <.literal16+0x19b>
+ .byte 127,67 // jg 32d2b <.literal16+0x19b>
.byte 0,0 // add %al,(%rax)
- .byte 127,67 // jg 32cff <.literal16+0x19f>
+ .byte 127,67 // jg 32d2f <.literal16+0x19f>
.byte 0,0 // add %al,(%rax)
- .byte 127,67 // jg 32d03 <.literal16+0x1a3>
- .byte 145 // xchg %eax,%ecx
- .byte 131,158,61,145,131,158,61 // sbbl $0x3d,-0x617c6ec3(%rsi)
+ .byte 127,67 // jg 32d33 <.literal16+0x1a3>
+ .byte 0,0 // add %al,(%rax)
+ .byte 128,127,0,0 // cmpb $0x0,0x0(%rdi)
+ .byte 128,127,0,0 // cmpb $0x0,0x0(%rdi)
+ .byte 128,127,0,0 // cmpb $0x0,0x0(%rdi)
+ .byte 128,127,145,131 // cmpb $0x83,-0x6f(%rdi)
+ .byte 158 // sahf
+ .byte 61,145,131,158,61 // cmp $0x3d9e8391,%eax
.byte 145 // xchg %eax,%ecx
.byte 131,158,61,145,131,158,61 // sbbl $0x3d,-0x617c6ec3(%rsi)
.byte 92 // pop %rsp
@@ -60715,13 +60734,13 @@ BALIGN16
.byte 132,55 // test %dh,(%rdi)
.byte 8,33 // or %ah,(%rcx)
.byte 132,55 // test %dh,(%rdi)
- .byte 224,7 // loopne 32e09 <.literal16+0x2a9>
+ .byte 224,7 // loopne 32e49 <.literal16+0x2b9>
.byte 0,0 // add %al,(%rax)
- .byte 224,7 // loopne 32e0d <.literal16+0x2ad>
+ .byte 224,7 // loopne 32e4d <.literal16+0x2bd>
.byte 0,0 // add %al,(%rax)
- .byte 224,7 // loopne 32e11 <.literal16+0x2b1>
+ .byte 224,7 // loopne 32e51 <.literal16+0x2c1>
.byte 0,0 // add %al,(%rax)
- .byte 224,7 // loopne 32e15 <.literal16+0x2b5>
+ .byte 224,7 // loopne 32e55 <.literal16+0x2c5>
.byte 0,0 // add %al,(%rax)
.byte 33,8 // and %ecx,(%rax)
.byte 2,58 // add (%rdx),%bh
@@ -60775,17 +60794,17 @@ BALIGN16
.byte 0,0 // add %al,(%rax)
.byte 52,255 // xor $0xff,%al
.byte 255 // (bad)
- .byte 127,0 // jg 32e84 <.literal16+0x324>
+ .byte 127,0 // jg 32ec4 <.literal16+0x334>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 127,0 // jg 32e88 <.literal16+0x328>
+ .byte 127,0 // jg 32ec8 <.literal16+0x338>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 127,0 // jg 32e8c <.literal16+0x32c>
+ .byte 127,0 // jg 32ecc <.literal16+0x33c>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 127,0 // jg 32e90 <.literal16+0x330>
- .byte 119,115 // ja 32f05 <.literal16+0x3a5>
+ .byte 127,0 // jg 32ed0 <.literal16+0x340>
+ .byte 119,115 // ja 32f45 <.literal16+0x3b5>
.byte 248 // clc
.byte 194,119,115 // retq $0x7377
.byte 248 // clc
@@ -60796,7 +60815,7 @@ BALIGN16
.byte 194,117,191 // retq $0xbf75
.byte 191,63,117,191,191 // mov $0xbfbf753f,%edi
.byte 63 // (bad)
- .byte 117,191 // jne 32e69 <.literal16+0x309>
+ .byte 117,191 // jne 32ea9 <.literal16+0x319>
.byte 191,63,117,191,191 // mov $0xbfbf753f,%edi
.byte 63 // (bad)
.byte 249 // stc
@@ -60808,7 +60827,7 @@ BALIGN16
.byte 249 // stc
.byte 68,180,62 // rex.R mov $0x3e,%spl
.byte 163,233,220,63,163,233,220,63,163 // movabs %eax,0xa33fdce9a33fdce9
- .byte 233,220,63,163,233 // jmpq ffffffffe9a66eaa <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffe9a34d6a>
+ .byte 233,220,63,163,233 // jmpq ffffffffe9a66eea <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffe9a34d8e>
.byte 220,63 // fdivrl (%rdi)
.byte 81 // push %rcx
.byte 140,242 // mov %?,%edx
@@ -60898,16 +60917,16 @@ BALIGN16
.byte 128,3,62 // addb $0x3e,(%rbx)
.byte 31 // (bad)
.byte 215 // xlat %ds:(%rbx)
- .byte 118,63 // jbe 32ff3 <.literal16+0x493>
+ .byte 118,63 // jbe 33033 <.literal16+0x4a3>
.byte 31 // (bad)
.byte 215 // xlat %ds:(%rbx)
- .byte 118,63 // jbe 32ff7 <.literal16+0x497>
+ .byte 118,63 // jbe 33037 <.literal16+0x4a7>
.byte 31 // (bad)
.byte 215 // xlat %ds:(%rbx)
- .byte 118,63 // jbe 32ffb <.literal16+0x49b>
+ .byte 118,63 // jbe 3303b <.literal16+0x4ab>
.byte 31 // (bad)
.byte 215 // xlat %ds:(%rbx)
- .byte 118,63 // jbe 32fff <.literal16+0x49f>
+ .byte 118,63 // jbe 3303f <.literal16+0x4af>
.byte 246,64,83,63 // testb $0x3f,0x53(%rax)
.byte 246,64,83,63 // testb $0x3f,0x53(%rax)
.byte 246,64,83,63 // testb $0x3f,0x53(%rax)
@@ -60928,13 +60947,13 @@ BALIGN16
.byte 65,0,0 // add %al,(%r8)
.byte 248 // clc
.byte 65,0,0 // add %al,(%r8)
- .byte 124,66 // jl 33036 <.literal16+0x4d6>
+ .byte 124,66 // jl 33076 <.literal16+0x4e6>
.byte 0,0 // add %al,(%rax)
- .byte 124,66 // jl 3303a <.literal16+0x4da>
+ .byte 124,66 // jl 3307a <.literal16+0x4ea>
.byte 0,0 // add %al,(%rax)
- .byte 124,66 // jl 3303e <.literal16+0x4de>
+ .byte 124,66 // jl 3307e <.literal16+0x4ee>
.byte 0,0 // add %al,(%rax)
- .byte 124,66 // jl 33042 <.literal16+0x4e2>
+ .byte 124,66 // jl 33082 <.literal16+0x4f2>
.byte 0,240 // add %dh,%al
.byte 0,0 // add %al,(%rax)
.byte 0,240 // add %dh,%al
@@ -60980,25 +60999,25 @@ BALIGN16
.byte 136,136,61,137,136,136 // mov %cl,-0x777776c3(%rax)
.byte 61,137,136,136,61 // cmp $0x3d888889,%eax
.byte 0,0 // add %al,(%rax)
- .byte 112,65 // jo 330c5 <.literal16+0x565>
+ .byte 112,65 // jo 33105 <.literal16+0x575>
.byte 0,0 // add %al,(%rax)
- .byte 112,65 // jo 330c9 <.literal16+0x569>
+ .byte 112,65 // jo 33109 <.literal16+0x579>
.byte 0,0 // add %al,(%rax)
- .byte 112,65 // jo 330cd <.literal16+0x56d>
+ .byte 112,65 // jo 3310d <.literal16+0x57d>
.byte 0,0 // add %al,(%rax)
- .byte 112,65 // jo 330d1 <.literal16+0x571>
+ .byte 112,65 // jo 33111 <.literal16+0x581>
.byte 0,128,0,0,0,128 // add %al,-0x80000000(%rax)
.byte 0,0 // add %al,(%rax)
.byte 0,128,0,0,0,128 // add %al,-0x80000000(%rax)
.byte 0,0 // add %al,(%rax)
.byte 255 // (bad)
- .byte 127,0 // jg 330a3 <.literal16+0x543>
+ .byte 127,0 // jg 330e3 <.literal16+0x553>
.byte 0,255 // add %bh,%bh
- .byte 127,0 // jg 330a7 <.literal16+0x547>
+ .byte 127,0 // jg 330e7 <.literal16+0x557>
.byte 0,255 // add %bh,%bh
- .byte 127,0 // jg 330ab <.literal16+0x54b>
+ .byte 127,0 // jg 330eb <.literal16+0x55b>
.byte 0,255 // add %bh,%bh
- .byte 127,0 // jg 330af <.literal16+0x54f>
+ .byte 127,0 // jg 330ef <.literal16+0x55f>
.byte 0,0 // add %al,(%rax)
.byte 4,0 // add $0x0,%al
.byte 0,0 // add %al,(%rax)
@@ -61024,13 +61043,13 @@ BALIGN16
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 127,255 // jg 330e8 <.literal16+0x588>
+ .byte 127,255 // jg 33128 <.literal16+0x598>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 127,255 // jg 330ec <.literal16+0x58c>
+ .byte 127,255 // jg 3312c <.literal16+0x59c>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 127,0 // jg 330f1 <.literal16+0x591>
+ .byte 127,0 // jg 33131 <.literal16+0x5a1>
.byte 0,128,56,0,0,128 // add %al,-0x7fffffc8(%rax)
.byte 56,0 // cmp %al,(%rax)
.byte 0,128,56,0,0,128 // add %al,-0x7fffffc8(%rax)
@@ -61044,13 +61063,13 @@ BALIGN16
.byte 64,254 // rex (bad)
.byte 255,0 // incl (%rax)
.byte 255 // (bad)
- .byte 127,71 // jg 3315b <.literal16+0x5fb>
+ .byte 127,71 // jg 3319b <.literal16+0x60b>
.byte 0,255 // add %bh,%bh
- .byte 127,71 // jg 3315f <.literal16+0x5ff>
+ .byte 127,71 // jg 3319f <.literal16+0x60f>
.byte 0,255 // add %bh,%bh
- .byte 127,71 // jg 33163 <.literal16+0x603>
+ .byte 127,71 // jg 331a3 <.literal16+0x613>
.byte 0,255 // add %bh,%bh
- .byte 127,71 // jg 33167 <.literal16+0x607>
+ .byte 127,71 // jg 331a7 <.literal16+0x617>
.byte 208 // (bad)
.byte 179,89 // mov $0x59,%bl
.byte 62,208 // ds (bad)
@@ -61080,10 +61099,10 @@ BALIGN16
.byte 61,152,221,147,61 // cmp $0x3d93dd98,%eax
.byte 152 // cwtl
.byte 221,147,61,45,16,17 // fstl 0x11102d3d(%rbx)
- .byte 192,45,16,17,192,45,16 // shrb $0x10,0x2dc01110(%rip) # 2dc3426a <_sk_srcover_rgba_8888_sse2_lowp+0x2dc0212a>
+ .byte 192,45,16,17,192,45,16 // shrb $0x10,0x2dc01110(%rip) # 2dc342aa <_sk_srcover_rgba_8888_sse2_lowp+0x2dc0214e>
.byte 17,192 // adc %eax,%eax
.byte 45,16,17,192,18 // sub $0x12c01110,%eax
- .byte 120,57 // js 3319c <.literal16+0x63c>
+ .byte 120,57 // js 331dc <.literal16+0x64c>
.byte 64,18,120,57 // adc 0x39(%rax),%dil
.byte 64,18,120,57 // adc 0x39(%rax),%dil
.byte 64,18,120,57 // adc 0x39(%rax),%dil
@@ -61148,13 +61167,13 @@ BALIGN16
.byte 192,191,0,0,192,191,0 // sarb $0x0,-0x40400000(%rdi)
.byte 0,192 // add %al,%al
.byte 191,0,0,192,191 // mov $0xbfc00000,%edi
- .byte 114,28 // jb 3324e <.literal16+0x6ee>
+ .byte 114,28 // jb 3328e <.literal16+0x6fe>
.byte 199 // (bad)
- .byte 62,114,28 // jb,pt 33252 <.literal16+0x6f2>
+ .byte 62,114,28 // jb,pt 33292 <.literal16+0x702>
.byte 199 // (bad)
- .byte 62,114,28 // jb,pt 33256 <.literal16+0x6f6>
+ .byte 62,114,28 // jb,pt 33296 <.literal16+0x706>
.byte 199 // (bad)
- .byte 62,114,28 // jb,pt 3325a <.literal16+0x6fa>
+ .byte 62,114,28 // jb,pt 3329a <.literal16+0x70a>
.byte 199 // (bad)
.byte 62,85 // ds push %rbp
.byte 85 // push %rbp
@@ -61173,15 +61192,15 @@ BALIGN16
.byte 0,192 // add %al,%al
.byte 63 // (bad)
.byte 57,142,99,61,57,142 // cmp %ecx,-0x71c6c29d(%rsi)
- .byte 99,61,57,142,99,61 // movslq 0x3d638e39(%rip),%edi # 3d66c0a5 <_sk_srcover_rgba_8888_sse2_lowp+0x3d639f65>
+ .byte 99,61,57,142,99,61 // movslq 0x3d638e39(%rip),%edi # 3d66c0e5 <_sk_srcover_rgba_8888_sse2_lowp+0x3d639f89>
.byte 57,142,99,61,114,249 // cmp %ecx,-0x68dc29d(%rsi)
- .byte 127,63 // jg 332b3 <.literal16+0x753>
- .byte 114,249 // jb 3326f <.literal16+0x70f>
- .byte 127,63 // jg 332b7 <.literal16+0x757>
- .byte 114,249 // jb 33273 <.literal16+0x713>
- .byte 127,63 // jg 332bb <.literal16+0x75b>
- .byte 114,249 // jb 33277 <.literal16+0x717>
- .byte 127,63 // jg 332bf <.literal16+0x75f>
+ .byte 127,63 // jg 332f3 <.literal16+0x763>
+ .byte 114,249 // jb 332af <.literal16+0x71f>
+ .byte 127,63 // jg 332f7 <.literal16+0x767>
+ .byte 114,249 // jb 332b3 <.literal16+0x723>
+ .byte 127,63 // jg 332fb <.literal16+0x76b>
+ .byte 114,249 // jb 332b7 <.literal16+0x727>
+ .byte 127,63 // jg 332ff <.literal16+0x76f>
.byte 3,0 // add (%rax),%eax
.byte 0,0 // add %al,(%rax)
.byte 3,0 // add (%rax),%eax
@@ -61291,14 +61310,14 @@ BALIGN16
.byte 0,248 // add %bh,%al
.byte 0,248 // add %bh,%al
.byte 0,248 // add %bh,%al
- .byte 224,255 // loopne 33351 <.literal16+0x7f1>
- .byte 224,255 // loopne 33353 <.literal16+0x7f3>
- .byte 224,255 // loopne 33355 <.literal16+0x7f5>
- .byte 224,255 // loopne 33357 <.literal16+0x7f7>
- .byte 224,255 // loopne 33359 <.literal16+0x7f9>
- .byte 224,255 // loopne 3335b <.literal16+0x7fb>
- .byte 224,255 // loopne 3335d <.literal16+0x7fd>
- .byte 224,255 // loopne 3335f <.literal16+0x7ff>
+ .byte 224,255 // loopne 33391 <.literal16+0x801>
+ .byte 224,255 // loopne 33393 <.literal16+0x803>
+ .byte 224,255 // loopne 33395 <.literal16+0x805>
+ .byte 224,255 // loopne 33397 <.literal16+0x807>
+ .byte 224,255 // loopne 33399 <.literal16+0x809>
+ .byte 224,255 // loopne 3339b <.literal16+0x80b>
+ .byte 224,255 // loopne 3339d <.literal16+0x80d>
+ .byte 224,255 // loopne 3339f <.literal16+0x80f>
.byte 54,0,54 // add %dh,%ss:(%rsi)
.byte 0,54 // add %dh,(%rsi)
.byte 0,54 // add %dh,(%rsi)
@@ -61340,9 +61359,9 @@ BALIGN8
.byte 4,0 // add $0x0,%al
.byte 0,0 // add %al,(%rax)
.byte 255 // (bad)
- .byte 127,0 // jg 333bb <.literal8+0x1b>
+ .byte 127,0 // jg 333fb <.literal8+0x1b>
.byte 0,255 // add %bh,%bh
- .byte 127,0 // jg 333bf <.literal8+0x1f>
+ .byte 127,0 // jg 333ff <.literal8+0x1f>
.byte 0,0 // add %al,(%rax)
.byte 128,0,0 // addb $0x0,(%rax)
.byte 0 // .byte 0x0
@@ -61448,11 +61467,11 @@ _sk_seed_shader_sse2:
.byte 102,15,110,2 // movd (%edx),%xmm0
.byte 102,15,112,192,0 // pshufd $0x0,%xmm0,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,88,128,231,203,0,0 // addps 0xcbe7(%eax),%xmm0
+ .byte 15,88,128,247,203,0,0 // addps 0xcbf7(%eax),%xmm0
.byte 102,15,110,74,4 // movd 0x4(%edx),%xmm1
.byte 102,15,112,201,0 // pshufd $0x0,%xmm1,%xmm1
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
- .byte 15,88,136,247,203,0,0 // addps 0xcbf7(%eax),%xmm1
+ .byte 15,88,136,7,204,0,0 // addps 0xcc07(%eax),%xmm1
.byte 141,113,4 // lea 0x4(%ecx),%esi
.byte 15,87,210 // xorps %xmm2,%xmm2
.byte 15,41,82,64 // movaps %xmm2,0x40(%edx)
@@ -61460,7 +61479,7 @@ _sk_seed_shader_sse2:
.byte 15,41,82,32 // movaps %xmm2,0x20(%edx)
.byte 15,41,82,16 // movaps %xmm2,0x10(%edx)
.byte 131,236,8 // sub $0x8,%esp
- .byte 15,40,144,7,204,0,0 // movaps 0xcc07(%eax),%xmm2
+ .byte 15,40,144,23,204,0,0 // movaps 0xcc17(%eax),%xmm2
.byte 15,87,219 // xorps %xmm3,%xmm3
.byte 86 // push %esi
.byte 82 // push %edx
@@ -61487,15 +61506,15 @@ _sk_dither_sse2:
.byte 139,69,8 // mov 0x8(%ebp),%eax
.byte 102,15,110,32 // movd (%eax),%xmm4
.byte 102,15,112,228,0 // pshufd $0x0,%xmm4,%xmm4
- .byte 102,15,254,161,162,203,0,0 // paddd 0xcba2(%ecx),%xmm4
+ .byte 102,15,254,161,178,203,0,0 // paddd 0xcbb2(%ecx),%xmm4
.byte 102,15,110,104,4 // movd 0x4(%eax),%xmm5
.byte 102,15,112,253,0 // pshufd $0x0,%xmm5,%xmm7
.byte 102,15,239,252 // pxor %xmm4,%xmm7
- .byte 102,15,111,177,178,203,0,0 // movdqa 0xcbb2(%ecx),%xmm6
+ .byte 102,15,111,177,194,203,0,0 // movdqa 0xcbc2(%ecx),%xmm6
.byte 102,15,111,207 // movdqa %xmm7,%xmm1
.byte 102,15,219,206 // pand %xmm6,%xmm1
.byte 102,15,114,241,5 // pslld $0x5,%xmm1
- .byte 102,15,111,129,210,203,0,0 // movdqa 0xcbd2(%ecx),%xmm0
+ .byte 102,15,111,129,226,203,0,0 // movdqa 0xcbe2(%ecx),%xmm0
.byte 102,15,111,239 // movdqa %xmm7,%xmm5
.byte 102,15,219,232 // pand %xmm0,%xmm5
.byte 102,15,114,245,2 // pslld $0x2,%xmm5
@@ -61505,7 +61524,7 @@ _sk_dither_sse2:
.byte 102,15,219,196 // pand %xmm4,%xmm0
.byte 102,15,254,192 // paddd %xmm0,%xmm0
.byte 102,15,235,198 // por %xmm6,%xmm0
- .byte 102,15,111,137,194,203,0,0 // movdqa 0xcbc2(%ecx),%xmm1
+ .byte 102,15,111,137,210,203,0,0 // movdqa 0xcbd2(%ecx),%xmm1
.byte 102,15,219,249 // pand %xmm1,%xmm7
.byte 102,15,219,225 // pand %xmm1,%xmm4
.byte 102,15,114,212,2 // psrld $0x2,%xmm4
@@ -61516,8 +61535,8 @@ _sk_dither_sse2:
.byte 102,15,114,215,1 // psrld $0x1,%xmm7
.byte 102,15,235,231 // por %xmm7,%xmm4
.byte 15,91,196 // cvtdq2ps %xmm4,%xmm0
- .byte 15,89,129,226,203,0,0 // mulps 0xcbe2(%ecx),%xmm0
- .byte 15,88,129,242,203,0,0 // addps 0xcbf2(%ecx),%xmm0
+ .byte 15,89,129,242,203,0,0 // mulps 0xcbf2(%ecx),%xmm0
+ .byte 15,88,129,2,204,0,0 // addps 0xcc02(%ecx),%xmm0
.byte 243,15,16,14 // movss (%esi),%xmm1
.byte 15,198,201,0 // shufps $0x0,%xmm1,%xmm1
.byte 15,89,200 // mulps %xmm0,%xmm1
@@ -61585,7 +61604,7 @@ _sk_black_color_sse2:
.byte 139,77,12 // mov 0xc(%ebp),%ecx
.byte 141,81,4 // lea 0x4(%ecx),%edx
.byte 131,236,8 // sub $0x8,%esp
- .byte 15,40,152,86,202,0,0 // movaps 0xca56(%eax),%xmm3
+ .byte 15,40,152,102,202,0,0 // movaps 0xca66(%eax),%xmm3
.byte 15,87,192 // xorps %xmm0,%xmm0
.byte 15,87,201 // xorps %xmm1,%xmm1
.byte 15,87,210 // xorps %xmm2,%xmm2
@@ -61608,7 +61627,7 @@ _sk_white_color_sse2:
.byte 139,77,12 // mov 0xc(%ebp),%ecx
.byte 141,81,4 // lea 0x4(%ecx),%edx
.byte 131,236,8 // sub $0x8,%esp
- .byte 15,40,128,38,202,0,0 // movaps 0xca26(%eax),%xmm0
+ .byte 15,40,128,54,202,0,0 // movaps 0xca36(%eax),%xmm0
.byte 15,40,200 // movaps %xmm0,%xmm1
.byte 15,40,208 // movaps %xmm0,%xmm2
.byte 15,40,216 // movaps %xmm0,%xmm3
@@ -61698,7 +61717,7 @@ _sk_srcatop_sse2:
.byte 139,77,8 // mov 0x8(%ebp),%ecx
.byte 15,40,97,64 // movaps 0x40(%ecx),%xmm4
.byte 15,89,196 // mulps %xmm4,%xmm0
- .byte 15,40,170,119,201,0,0 // movaps 0xc977(%edx),%xmm5
+ .byte 15,40,170,135,201,0,0 // movaps 0xc987(%edx),%xmm5
.byte 15,92,235 // subps %xmm3,%xmm5
.byte 15,40,113,16 // movaps 0x10(%ecx),%xmm6
.byte 15,89,245 // mulps %xmm5,%xmm6
@@ -61737,7 +61756,7 @@ _sk_dstatop_sse2:
.byte 15,40,105,64 // movaps 0x40(%ecx),%xmm5
.byte 15,40,113,16 // movaps 0x10(%ecx),%xmm6
.byte 15,89,243 // mulps %xmm3,%xmm6
- .byte 15,40,162,24,201,0,0 // movaps 0xc918(%edx),%xmm4
+ .byte 15,40,162,40,201,0,0 // movaps 0xc928(%edx),%xmm4
.byte 15,92,229 // subps %xmm5,%xmm4
.byte 15,89,196 // mulps %xmm4,%xmm0
.byte 15,88,198 // addps %xmm6,%xmm0
@@ -61821,7 +61840,7 @@ _sk_srcout_sse2:
.byte 88 // pop %eax
.byte 139,77,12 // mov 0xc(%ebp),%ecx
.byte 139,85,8 // mov 0x8(%ebp),%edx
- .byte 15,40,160,87,200,0,0 // movaps 0xc857(%eax),%xmm4
+ .byte 15,40,160,103,200,0,0 // movaps 0xc867(%eax),%xmm4
.byte 15,92,98,64 // subps 0x40(%edx),%xmm4
.byte 15,89,196 // mulps %xmm4,%xmm0
.byte 15,89,204 // mulps %xmm4,%xmm1
@@ -61847,7 +61866,7 @@ _sk_dstout_sse2:
.byte 88 // pop %eax
.byte 139,77,12 // mov 0xc(%ebp),%ecx
.byte 139,85,8 // mov 0x8(%ebp),%edx
- .byte 15,40,160,31,200,0,0 // movaps 0xc81f(%eax),%xmm4
+ .byte 15,40,160,47,200,0,0 // movaps 0xc82f(%eax),%xmm4
.byte 15,92,227 // subps %xmm3,%xmm4
.byte 15,40,66,16 // movaps 0x10(%edx),%xmm0
.byte 15,89,196 // mulps %xmm4,%xmm0
@@ -61877,7 +61896,7 @@ _sk_srcover_sse2:
.byte 88 // pop %eax
.byte 139,77,12 // mov 0xc(%ebp),%ecx
.byte 139,85,8 // mov 0x8(%ebp),%edx
- .byte 15,40,160,216,199,0,0 // movaps 0xc7d8(%eax),%xmm4
+ .byte 15,40,160,232,199,0,0 // movaps 0xc7e8(%eax),%xmm4
.byte 15,92,227 // subps %xmm3,%xmm4
.byte 15,40,106,16 // movaps 0x10(%edx),%xmm5
.byte 15,89,236 // mulps %xmm4,%xmm5
@@ -61911,7 +61930,7 @@ _sk_dstover_sse2:
.byte 139,77,12 // mov 0xc(%ebp),%ecx
.byte 139,85,8 // mov 0x8(%ebp),%edx
.byte 15,40,106,64 // movaps 0x40(%edx),%xmm5
- .byte 15,40,160,136,199,0,0 // movaps 0xc788(%eax),%xmm4
+ .byte 15,40,160,152,199,0,0 // movaps 0xc798(%eax),%xmm4
.byte 15,92,229 // subps %xmm5,%xmm4
.byte 15,89,196 // mulps %xmm4,%xmm0
.byte 15,88,66,16 // addps 0x10(%edx),%xmm0
@@ -61967,7 +61986,7 @@ _sk_multiply_sse2:
.byte 139,69,8 // mov 0x8(%ebp),%eax
.byte 15,40,80,64 // movaps 0x40(%eax),%xmm2
.byte 15,41,85,200 // movaps %xmm2,-0x38(%ebp)
- .byte 15,40,129,9,199,0,0 // movaps 0xc709(%ecx),%xmm0
+ .byte 15,40,129,25,199,0,0 // movaps 0xc719(%ecx),%xmm0
.byte 15,40,240 // movaps %xmm0,%xmm6
.byte 15,92,242 // subps %xmm2,%xmm6
.byte 15,40,254 // movaps %xmm6,%xmm7
@@ -62027,7 +62046,7 @@ _sk_plus__sse2:
.byte 139,77,12 // mov 0xc(%ebp),%ecx
.byte 139,85,8 // mov 0x8(%ebp),%edx
.byte 15,88,66,16 // addps 0x10(%edx),%xmm0
- .byte 15,40,160,99,198,0,0 // movaps 0xc663(%eax),%xmm4
+ .byte 15,40,160,115,198,0,0 // movaps 0xc673(%eax),%xmm4
.byte 15,93,196 // minps %xmm4,%xmm0
.byte 15,88,74,32 // addps 0x20(%edx),%xmm1
.byte 15,93,204 // minps %xmm4,%xmm1
@@ -62099,7 +62118,7 @@ _sk_xor__sse2:
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
.byte 15,40,105,64 // movaps 0x40(%ecx),%xmm5
- .byte 15,40,154,181,197,0,0 // movaps 0xc5b5(%edx),%xmm3
+ .byte 15,40,154,197,197,0,0 // movaps 0xc5c5(%edx),%xmm3
.byte 15,40,243 // movaps %xmm3,%xmm6
.byte 15,92,245 // subps %xmm5,%xmm6
.byte 15,89,198 // mulps %xmm6,%xmm0
@@ -62161,7 +62180,7 @@ _sk_darken_sse2:
.byte 15,89,203 // mulps %xmm3,%xmm1
.byte 15,95,209 // maxps %xmm1,%xmm2
.byte 15,92,234 // subps %xmm2,%xmm5
- .byte 15,40,138,77,197,0,0 // movaps 0xc54d(%edx),%xmm1
+ .byte 15,40,138,93,197,0,0 // movaps 0xc55d(%edx),%xmm1
.byte 15,92,203 // subps %xmm3,%xmm1
.byte 15,89,206 // mulps %xmm6,%xmm1
.byte 15,88,217 // addps %xmm1,%xmm3
@@ -62210,7 +62229,7 @@ _sk_lighten_sse2:
.byte 15,89,203 // mulps %xmm3,%xmm1
.byte 15,93,209 // minps %xmm1,%xmm2
.byte 15,92,234 // subps %xmm2,%xmm5
- .byte 15,40,138,205,196,0,0 // movaps 0xc4cd(%edx),%xmm1
+ .byte 15,40,138,221,196,0,0 // movaps 0xc4dd(%edx),%xmm1
.byte 15,92,203 // subps %xmm3,%xmm1
.byte 15,89,206 // mulps %xmm6,%xmm1
.byte 15,88,217 // addps %xmm1,%xmm3
@@ -62263,7 +62282,7 @@ _sk_difference_sse2:
.byte 15,93,214 // minps %xmm6,%xmm2
.byte 15,88,210 // addps %xmm2,%xmm2
.byte 15,92,226 // subps %xmm2,%xmm4
- .byte 15,40,146,74,196,0,0 // movaps 0xc44a(%edx),%xmm2
+ .byte 15,40,146,90,196,0,0 // movaps 0xc45a(%edx),%xmm2
.byte 15,92,211 // subps %xmm3,%xmm2
.byte 15,89,213 // mulps %xmm5,%xmm2
.byte 15,88,218 // addps %xmm2,%xmm3
@@ -62307,7 +62326,7 @@ _sk_exclusion_sse2:
.byte 15,89,202 // mulps %xmm2,%xmm1
.byte 15,88,201 // addps %xmm1,%xmm1
.byte 15,92,233 // subps %xmm1,%xmm5
- .byte 15,40,138,196,195,0,0 // movaps 0xc3c4(%edx),%xmm1
+ .byte 15,40,138,212,195,0,0 // movaps 0xc3d4(%edx),%xmm1
.byte 15,92,203 // subps %xmm3,%xmm1
.byte 15,89,73,64 // mulps 0x40(%ecx),%xmm1
.byte 15,88,217 // addps %xmm1,%xmm3
@@ -62348,7 +62367,7 @@ _sk_colorburn_sse2:
.byte 15,93,198 // minps %xmm6,%xmm0
.byte 15,40,233 // movaps %xmm1,%xmm5
.byte 15,92,232 // subps %xmm0,%xmm5
- .byte 15,40,177,69,195,0,0 // movaps 0xc345(%ecx),%xmm6
+ .byte 15,40,177,85,195,0,0 // movaps 0xc355(%ecx),%xmm6
.byte 15,40,198 // movaps %xmm6,%xmm0
.byte 15,92,193 // subps %xmm1,%xmm0
.byte 15,41,69,200 // movaps %xmm0,-0x38(%ebp)
@@ -62465,7 +62484,7 @@ _sk_colordodge_sse2:
.byte 89 // pop %ecx
.byte 139,69,8 // mov 0x8(%ebp),%eax
.byte 15,40,72,16 // movaps 0x10(%eax),%xmm1
- .byte 15,40,145,188,193,0,0 // movaps 0xc1bc(%ecx),%xmm2
+ .byte 15,40,145,204,193,0,0 // movaps 0xc1cc(%ecx),%xmm2
.byte 15,40,226 // movaps %xmm2,%xmm4
.byte 15,92,214 // subps %xmm6,%xmm2
.byte 15,40,250 // movaps %xmm2,%xmm7
@@ -62582,7 +62601,7 @@ _sk_hardlight_sse2:
.byte 89 // pop %ecx
.byte 139,69,8 // mov 0x8(%ebp),%eax
.byte 15,40,72,64 // movaps 0x40(%eax),%xmm1
- .byte 15,40,145,91,192,0,0 // movaps 0xc05b(%ecx),%xmm2
+ .byte 15,40,145,107,192,0,0 // movaps 0xc06b(%ecx),%xmm2
.byte 15,40,234 // movaps %xmm2,%xmm5
.byte 15,92,233 // subps %xmm1,%xmm5
.byte 15,40,225 // movaps %xmm1,%xmm4
@@ -62692,7 +62711,7 @@ _sk_overlay_sse2:
.byte 89 // pop %ecx
.byte 139,69,8 // mov 0x8(%ebp),%eax
.byte 15,40,80,64 // movaps 0x40(%eax),%xmm2
- .byte 15,40,161,16,191,0,0 // movaps 0xbf10(%ecx),%xmm4
+ .byte 15,40,161,32,191,0,0 // movaps 0xbf20(%ecx),%xmm4
.byte 15,40,244 // movaps %xmm4,%xmm6
.byte 15,92,242 // subps %xmm2,%xmm6
.byte 15,40,206 // movaps %xmm6,%xmm1
@@ -62820,17 +62839,17 @@ _sk_softlight_sse2:
.byte 232,0,0,0,0 // call f50 <_sk_softlight_sse2+0x52>
.byte 89 // pop %ecx
.byte 15,40,194 // movaps %xmm2,%xmm0
- .byte 15,40,137,240,189,0,0 // movaps 0xbdf0(%ecx),%xmm1
+ .byte 15,40,137,0,190,0,0 // movaps 0xbe00(%ecx),%xmm1
.byte 15,41,141,104,255,255,255 // movaps %xmm1,-0x98(%ebp)
.byte 15,88,193 // addps %xmm1,%xmm0
.byte 15,89,198 // mulps %xmm6,%xmm0
- .byte 15,40,185,128,189,0,0 // movaps 0xbd80(%ecx),%xmm7
+ .byte 15,40,185,144,189,0,0 // movaps 0xbd90(%ecx),%xmm7
.byte 15,41,125,232 // movaps %xmm7,-0x18(%ebp)
.byte 15,92,250 // subps %xmm2,%xmm7
.byte 15,82,242 // rsqrtps %xmm2,%xmm6
.byte 15,83,206 // rcpps %xmm6,%xmm1
.byte 15,92,202 // subps %xmm2,%xmm1
- .byte 15,40,161,0,190,0,0 // movaps 0xbe00(%ecx),%xmm4
+ .byte 15,40,161,16,190,0,0 // movaps 0xbe10(%ecx),%xmm4
.byte 15,41,101,152 // movaps %xmm4,-0x68(%ebp)
.byte 15,89,212 // mulps %xmm4,%xmm2
.byte 15,88,208 // addps %xmm0,%xmm2
@@ -63036,7 +63055,7 @@ _sk_hue_sse2:
.byte 15,40,226 // movaps %xmm2,%xmm4
.byte 15,40,72,64 // movaps 0x40(%eax),%xmm1
.byte 15,41,77,216 // movaps %xmm1,-0x28(%ebp)
- .byte 15,40,169,191,186,0,0 // movaps 0xbabf(%ecx),%xmm5
+ .byte 15,40,169,207,186,0,0 // movaps 0xbacf(%ecx),%xmm5
.byte 15,92,233 // subps %xmm1,%xmm5
.byte 15,89,197 // mulps %xmm5,%xmm0
.byte 15,41,133,72,255,255,255 // movaps %xmm0,-0xb8(%ebp)
@@ -63069,17 +63088,17 @@ _sk_hue_sse2:
.byte 15,89,233 // mulps %xmm1,%xmm5
.byte 15,41,173,120,255,255,255 // movaps %xmm5,-0x88(%ebp)
.byte 15,89,193 // mulps %xmm1,%xmm0
- .byte 15,40,153,79,187,0,0 // movaps 0xbb4f(%ecx),%xmm3
+ .byte 15,40,153,95,187,0,0 // movaps 0xbb5f(%ecx),%xmm3
.byte 15,41,93,232 // movaps %xmm3,-0x18(%ebp)
.byte 15,40,117,152 // movaps -0x68(%ebp),%xmm6
.byte 15,40,206 // movaps %xmm6,%xmm1
.byte 15,89,203 // mulps %xmm3,%xmm1
- .byte 15,40,153,95,187,0,0 // movaps 0xbb5f(%ecx),%xmm3
+ .byte 15,40,153,111,187,0,0 // movaps 0xbb6f(%ecx),%xmm3
.byte 15,40,109,136 // movaps -0x78(%ebp),%xmm5
.byte 15,40,253 // movaps %xmm5,%xmm7
.byte 15,89,251 // mulps %xmm3,%xmm7
.byte 15,88,249 // addps %xmm1,%xmm7
- .byte 15,40,137,191,186,0,0 // movaps 0xbabf(%ecx),%xmm1
+ .byte 15,40,137,207,186,0,0 // movaps 0xbacf(%ecx),%xmm1
.byte 15,92,77,184 // subps -0x48(%ebp),%xmm1
.byte 15,89,241 // mulps %xmm1,%xmm6
.byte 15,41,117,152 // movaps %xmm6,-0x68(%ebp)
@@ -63089,7 +63108,7 @@ _sk_hue_sse2:
.byte 15,40,77,200 // movaps -0x38(%ebp),%xmm1
.byte 15,89,241 // mulps %xmm1,%xmm6
.byte 15,41,117,168 // movaps %xmm6,-0x58(%ebp)
- .byte 15,40,169,111,187,0,0 // movaps 0xbb6f(%ecx),%xmm5
+ .byte 15,40,169,127,187,0,0 // movaps 0xbb7f(%ecx),%xmm5
.byte 15,89,205 // mulps %xmm5,%xmm1
.byte 15,88,207 // addps %xmm7,%xmm1
.byte 15,94,212 // divps %xmm4,%xmm2
@@ -63282,17 +63301,17 @@ _sk_saturation_sse2:
.byte 15,89,253 // mulps %xmm5,%xmm7
.byte 232,0,0,0,0 // call 1565 <_sk_saturation_sse2+0xb0>
.byte 89 // pop %ecx
- .byte 15,40,153,251,183,0,0 // movaps 0xb7fb(%ecx),%xmm3
+ .byte 15,40,153,11,184,0,0 // movaps 0xb80b(%ecx),%xmm3
.byte 15,41,157,88,255,255,255 // movaps %xmm3,-0xa8(%ebp)
.byte 15,40,77,184 // movaps -0x48(%ebp),%xmm1
.byte 15,40,193 // movaps %xmm1,%xmm0
.byte 15,89,195 // mulps %xmm3,%xmm0
- .byte 15,40,153,11,184,0,0 // movaps 0xb80b(%ecx),%xmm3
+ .byte 15,40,153,27,184,0,0 // movaps 0xb81b(%ecx),%xmm3
.byte 15,41,93,232 // movaps %xmm3,-0x18(%ebp)
.byte 15,40,238 // movaps %xmm6,%xmm5
.byte 15,89,235 // mulps %xmm3,%xmm5
.byte 15,88,232 // addps %xmm0,%xmm5
- .byte 15,40,129,107,183,0,0 // movaps 0xb76b(%ecx),%xmm0
+ .byte 15,40,129,123,183,0,0 // movaps 0xb77b(%ecx),%xmm0
.byte 15,41,133,104,255,255,255 // movaps %xmm0,-0x98(%ebp)
.byte 15,92,69,216 // subps -0x28(%ebp),%xmm0
.byte 15,89,200 // mulps %xmm0,%xmm1
@@ -63304,7 +63323,7 @@ _sk_saturation_sse2:
.byte 15,89,200 // mulps %xmm0,%xmm1
.byte 15,41,141,120,255,255,255 // movaps %xmm1,-0x88(%ebp)
.byte 15,40,200 // movaps %xmm0,%xmm1
- .byte 15,40,129,27,184,0,0 // movaps 0xb81b(%ecx),%xmm0
+ .byte 15,40,129,43,184,0,0 // movaps 0xb82b(%ecx),%xmm0
.byte 15,89,200 // mulps %xmm0,%xmm1
.byte 15,88,205 // addps %xmm5,%xmm1
.byte 15,40,109,168 // movaps -0x58(%ebp),%xmm5
@@ -63463,16 +63482,16 @@ _sk_color_sse2:
.byte 139,69,8 // mov 0x8(%ebp),%eax
.byte 15,40,80,16 // movaps 0x10(%eax),%xmm2
.byte 15,40,72,32 // movaps 0x20(%eax),%xmm1
- .byte 15,40,177,160,181,0,0 // movaps 0xb5a0(%ecx),%xmm6
+ .byte 15,40,177,176,181,0,0 // movaps 0xb5b0(%ecx),%xmm6
.byte 15,41,117,216 // movaps %xmm6,-0x28(%ebp)
.byte 15,40,194 // movaps %xmm2,%xmm0
.byte 15,89,198 // mulps %xmm6,%xmm0
- .byte 15,40,153,176,181,0,0 // movaps 0xb5b0(%ecx),%xmm3
+ .byte 15,40,153,192,181,0,0 // movaps 0xb5c0(%ecx),%xmm3
.byte 15,41,93,184 // movaps %xmm3,-0x48(%ebp)
.byte 15,40,241 // movaps %xmm1,%xmm6
.byte 15,89,243 // mulps %xmm3,%xmm6
.byte 15,88,240 // addps %xmm0,%xmm6
- .byte 15,40,129,16,181,0,0 // movaps 0xb510(%ecx),%xmm0
+ .byte 15,40,129,32,181,0,0 // movaps 0xb520(%ecx),%xmm0
.byte 15,41,69,168 // movaps %xmm0,-0x58(%ebp)
.byte 15,92,69,200 // subps -0x38(%ebp),%xmm0
.byte 15,89,208 // mulps %xmm0,%xmm2
@@ -63482,7 +63501,7 @@ _sk_color_sse2:
.byte 15,40,80,48 // movaps 0x30(%eax),%xmm2
.byte 15,89,194 // mulps %xmm2,%xmm0
.byte 15,41,133,72,255,255,255 // movaps %xmm0,-0xb8(%ebp)
- .byte 15,40,137,192,181,0,0 // movaps 0xb5c0(%ecx),%xmm1
+ .byte 15,40,137,208,181,0,0 // movaps 0xb5d0(%ecx),%xmm1
.byte 15,89,209 // mulps %xmm1,%xmm2
.byte 15,88,214 // addps %xmm6,%xmm2
.byte 15,40,88,64 // movaps 0x40(%eax),%xmm3
@@ -63641,18 +63660,18 @@ _sk_luminosity_sse2:
.byte 232,0,0,0,0 // call 1a23 <_sk_luminosity_sse2+0x11>
.byte 89 // pop %ecx
.byte 139,69,8 // mov 0x8(%ebp),%eax
- .byte 15,40,161,61,179,0,0 // movaps 0xb33d(%ecx),%xmm4
+ .byte 15,40,161,77,179,0,0 // movaps 0xb34d(%ecx),%xmm4
.byte 15,41,101,232 // movaps %xmm4,-0x18(%ebp)
.byte 15,40,208 // movaps %xmm0,%xmm2
.byte 15,89,212 // mulps %xmm4,%xmm2
- .byte 15,40,161,77,179,0,0 // movaps 0xb34d(%ecx),%xmm4
+ .byte 15,40,161,93,179,0,0 // movaps 0xb35d(%ecx),%xmm4
.byte 15,41,101,216 // movaps %xmm4,-0x28(%ebp)
.byte 15,40,233 // movaps %xmm1,%xmm5
.byte 15,89,236 // mulps %xmm4,%xmm5
.byte 15,88,234 // addps %xmm2,%xmm5
.byte 15,40,80,64 // movaps 0x40(%eax),%xmm2
.byte 15,41,85,184 // movaps %xmm2,-0x48(%ebp)
- .byte 15,40,161,173,178,0,0 // movaps 0xb2ad(%ecx),%xmm4
+ .byte 15,40,161,189,178,0,0 // movaps 0xb2bd(%ecx),%xmm4
.byte 15,40,252 // movaps %xmm4,%xmm7
.byte 15,92,250 // subps %xmm2,%xmm7
.byte 15,89,199 // mulps %xmm7,%xmm0
@@ -63662,7 +63681,7 @@ _sk_luminosity_sse2:
.byte 15,89,254 // mulps %xmm6,%xmm7
.byte 15,41,189,104,255,255,255 // movaps %xmm7,-0x98(%ebp)
.byte 15,40,214 // movaps %xmm6,%xmm2
- .byte 15,40,137,93,179,0,0 // movaps 0xb35d(%ecx),%xmm1
+ .byte 15,40,137,109,179,0,0 // movaps 0xb36d(%ecx),%xmm1
.byte 15,89,209 // mulps %xmm1,%xmm2
.byte 15,88,213 // addps %xmm5,%xmm2
.byte 15,40,104,16 // movaps 0x10(%eax),%xmm5
@@ -63838,7 +63857,7 @@ _sk_srcover_rgba_8888_sse2:
.byte 139,49 // mov (%ecx),%esi
.byte 15,133,224,0,0,0 // jne 1d90 <_sk_srcover_rgba_8888_sse2+0x119>
.byte 243,15,111,20,178 // movdqu (%edx,%esi,4),%xmm2
- .byte 102,15,111,167,2,177,0,0 // movdqa 0xb102(%edi),%xmm4
+ .byte 102,15,111,167,18,177,0,0 // movdqa 0xb112(%edi),%xmm4
.byte 102,15,111,234 // movdqa %xmm2,%xmm5
.byte 102,15,219,236 // pand %xmm4,%xmm5
.byte 102,15,111,242 // movdqa %xmm2,%xmm6
@@ -63849,9 +63868,9 @@ _sk_srcover_rgba_8888_sse2:
.byte 102,15,219,252 // pand %xmm4,%xmm7
.byte 15,91,229 // cvtdq2ps %xmm5,%xmm4
.byte 15,41,97,16 // movaps %xmm4,0x10(%ecx)
- .byte 15,40,175,66,176,0,0 // movaps 0xb042(%edi),%xmm5
+ .byte 15,40,175,82,176,0,0 // movaps 0xb052(%edi),%xmm5
.byte 15,92,235 // subps %xmm3,%xmm5
- .byte 15,40,143,18,177,0,0 // movaps 0xb112(%edi),%xmm1
+ .byte 15,40,143,34,177,0,0 // movaps 0xb122(%edi),%xmm1
.byte 15,89,193 // mulps %xmm1,%xmm0
.byte 15,89,229 // mulps %xmm5,%xmm4
.byte 15,88,224 // addps %xmm0,%xmm4
@@ -63965,7 +63984,7 @@ _sk_clamp_1_sse2:
.byte 232,0,0,0,0 // call 1e3a <_sk_clamp_1_sse2+0xb>
.byte 88 // pop %eax
.byte 139,77,12 // mov 0xc(%ebp),%ecx
- .byte 15,40,160,150,174,0,0 // movaps 0xae96(%eax),%xmm4
+ .byte 15,40,160,166,174,0,0 // movaps 0xaea6(%eax),%xmm4
.byte 15,93,196 // minps %xmm4,%xmm0
.byte 15,93,204 // minps %xmm4,%xmm1
.byte 15,93,212 // minps %xmm4,%xmm2
@@ -63989,7 +64008,7 @@ _sk_clamp_a_sse2:
.byte 232,0,0,0,0 // call 1e6d <_sk_clamp_a_sse2+0xb>
.byte 88 // pop %eax
.byte 139,77,12 // mov 0xc(%ebp),%ecx
- .byte 15,93,152,99,174,0,0 // minps 0xae63(%eax),%xmm3
+ .byte 15,93,152,115,174,0,0 // minps 0xae73(%eax),%xmm3
.byte 15,93,195 // minps %xmm3,%xmm0
.byte 15,93,203 // minps %xmm3,%xmm1
.byte 15,93,211 // minps %xmm3,%xmm2
@@ -64014,7 +64033,7 @@ _sk_clamp_a_dst_sse2:
.byte 139,77,12 // mov 0xc(%ebp),%ecx
.byte 139,85,8 // mov 0x8(%ebp),%edx
.byte 15,40,98,64 // movaps 0x40(%edx),%xmm4
- .byte 15,93,160,51,174,0,0 // minps 0xae33(%eax),%xmm4
+ .byte 15,93,160,67,174,0,0 // minps 0xae43(%eax),%xmm4
.byte 15,41,98,64 // movaps %xmm4,0x40(%edx)
.byte 15,40,106,16 // movaps 0x10(%edx),%xmm5
.byte 15,40,114,32 // movaps 0x20(%edx),%xmm6
@@ -64088,7 +64107,7 @@ _sk_invert_sse2:
.byte 232,0,0,0,0 // call 1f48 <_sk_invert_sse2+0xb>
.byte 88 // pop %eax
.byte 139,77,12 // mov 0xc(%ebp),%ecx
- .byte 15,40,160,136,173,0,0 // movaps 0xad88(%eax),%xmm4
+ .byte 15,40,160,152,173,0,0 // movaps 0xad98(%eax),%xmm4
.byte 15,40,236 // movaps %xmm4,%xmm5
.byte 15,92,232 // subps %xmm0,%xmm5
.byte 15,40,244 // movaps %xmm4,%xmm6
@@ -64210,14 +64229,14 @@ _sk_unpremul_sse2:
.byte 232,0,0,0,0 // call 2046 <_sk_unpremul_sse2+0xb>
.byte 88 // pop %eax
.byte 139,77,12 // mov 0xc(%ebp),%ecx
- .byte 15,87,228 // xorps %xmm4,%xmm4
- .byte 15,40,168,138,172,0,0 // movaps 0xac8a(%eax),%xmm5
- .byte 15,94,235 // divps %xmm3,%xmm5
- .byte 15,194,227,4 // cmpneqps %xmm3,%xmm4
- .byte 15,84,229 // andps %xmm5,%xmm4
- .byte 15,89,196 // mulps %xmm4,%xmm0
- .byte 15,89,204 // mulps %xmm4,%xmm1
- .byte 15,89,212 // mulps %xmm4,%xmm2
+ .byte 15,40,160,154,172,0,0 // movaps 0xac9a(%eax),%xmm4
+ .byte 15,94,227 // divps %xmm3,%xmm4
+ .byte 15,40,236 // movaps %xmm4,%xmm5
+ .byte 15,194,168,122,173,0,0,1 // cmpltps 0xad7a(%eax),%xmm5
+ .byte 15,84,236 // andps %xmm4,%xmm5
+ .byte 15,89,197 // mulps %xmm5,%xmm0
+ .byte 15,89,205 // mulps %xmm5,%xmm1
+ .byte 15,89,213 // mulps %xmm5,%xmm2
.byte 141,65,4 // lea 0x4(%ecx),%eax
.byte 131,236,8 // sub $0x8,%esp
.byte 80 // push %eax
@@ -64238,23 +64257,23 @@ _sk_from_srgb_sse2:
.byte 15,40,234 // movaps %xmm2,%xmm5
.byte 15,40,217 // movaps %xmm1,%xmm3
.byte 15,40,208 // movaps %xmm0,%xmm2
- .byte 232,0,0,0,0 // call 2090 <_sk_from_srgb_sse2+0x18>
+ .byte 232,0,0,0,0 // call 2094 <_sk_from_srgb_sse2+0x18>
.byte 88 // pop %eax
.byte 15,40,202 // movaps %xmm2,%xmm1
.byte 15,89,201 // mulps %xmm1,%xmm1
- .byte 15,40,160,208,172,0,0 // movaps 0xacd0(%eax),%xmm4
+ .byte 15,40,160,220,172,0,0 // movaps 0xacdc(%eax),%xmm4
.byte 15,89,196 // mulps %xmm4,%xmm0
- .byte 15,40,176,48,173,0,0 // movaps 0xad30(%eax),%xmm6
+ .byte 15,40,176,76,173,0,0 // movaps 0xad4c(%eax),%xmm6
.byte 15,41,117,216 // movaps %xmm6,-0x28(%ebp)
.byte 15,88,198 // addps %xmm6,%xmm0
.byte 15,89,193 // mulps %xmm1,%xmm0
- .byte 15,40,176,32,173,0,0 // movaps 0xad20(%eax),%xmm6
+ .byte 15,40,176,60,173,0,0 // movaps 0xad3c(%eax),%xmm6
.byte 15,40,202 // movaps %xmm2,%xmm1
.byte 15,89,206 // mulps %xmm6,%xmm1
- .byte 15,40,184,64,173,0,0 // movaps 0xad40(%eax),%xmm7
+ .byte 15,40,184,92,173,0,0 // movaps 0xad5c(%eax),%xmm7
.byte 15,41,125,232 // movaps %xmm7,-0x18(%ebp)
.byte 15,88,199 // addps %xmm7,%xmm0
- .byte 15,40,184,80,173,0,0 // movaps 0xad50(%eax),%xmm7
+ .byte 15,40,184,108,173,0,0 // movaps 0xad6c(%eax),%xmm7
.byte 15,194,215,1 // cmpltps %xmm7,%xmm2
.byte 15,84,202 // andps %xmm2,%xmm1
.byte 15,85,208 // andnps %xmm0,%xmm2
@@ -64308,24 +64327,24 @@ _sk_from_srgb_dst_sse2:
.byte 15,41,85,200 // movaps %xmm2,-0x38(%ebp)
.byte 15,41,77,216 // movaps %xmm1,-0x28(%ebp)
.byte 15,41,69,232 // movaps %xmm0,-0x18(%ebp)
- .byte 232,0,0,0,0 // call 216b <_sk_from_srgb_dst_sse2+0x1b>
+ .byte 232,0,0,0,0 // call 216f <_sk_from_srgb_dst_sse2+0x1b>
.byte 89 // pop %ecx
.byte 139,69,8 // mov 0x8(%ebp),%eax
.byte 15,40,72,16 // movaps 0x10(%eax),%xmm1
.byte 15,40,233 // movaps %xmm1,%xmm5
.byte 15,89,237 // mulps %xmm5,%xmm5
- .byte 15,40,161,245,171,0,0 // movaps 0xabf5(%ecx),%xmm4
+ .byte 15,40,161,1,172,0,0 // movaps 0xac01(%ecx),%xmm4
.byte 15,40,193 // movaps %xmm1,%xmm0
.byte 15,89,196 // mulps %xmm4,%xmm0
- .byte 15,40,177,85,172,0,0 // movaps 0xac55(%ecx),%xmm6
+ .byte 15,40,177,113,172,0,0 // movaps 0xac71(%ecx),%xmm6
.byte 15,88,198 // addps %xmm6,%xmm0
.byte 15,89,197 // mulps %xmm5,%xmm0
- .byte 15,40,169,69,172,0,0 // movaps 0xac45(%ecx),%xmm5
+ .byte 15,40,169,97,172,0,0 // movaps 0xac61(%ecx),%xmm5
.byte 15,40,209 // movaps %xmm1,%xmm2
.byte 15,89,213 // mulps %xmm5,%xmm2
- .byte 15,40,185,101,172,0,0 // movaps 0xac65(%ecx),%xmm7
+ .byte 15,40,185,129,172,0,0 // movaps 0xac81(%ecx),%xmm7
.byte 15,88,199 // addps %xmm7,%xmm0
- .byte 15,40,153,117,172,0,0 // movaps 0xac75(%ecx),%xmm3
+ .byte 15,40,153,145,172,0,0 // movaps 0xac91(%ecx),%xmm3
.byte 15,194,203,1 // cmpltps %xmm3,%xmm1
.byte 15,84,209 // andps %xmm1,%xmm2
.byte 15,85,200 // andnps %xmm0,%xmm1
@@ -64384,28 +64403,28 @@ _sk_to_srgb_sse2:
.byte 15,40,250 // movaps %xmm2,%xmm7
.byte 15,40,241 // movaps %xmm1,%xmm6
.byte 15,40,208 // movaps %xmm0,%xmm2
- .byte 232,0,0,0,0 // call 2256 <_sk_to_srgb_sse2+0x18>
+ .byte 232,0,0,0,0 // call 225a <_sk_to_srgb_sse2+0x18>
.byte 88 // pop %eax
.byte 15,82,218 // rsqrtps %xmm2,%xmm3
- .byte 15,40,160,170,171,0,0 // movaps 0xabaa(%eax),%xmm4
+ .byte 15,40,160,198,171,0,0 // movaps 0xabc6(%eax),%xmm4
.byte 15,40,235 // movaps %xmm3,%xmm5
.byte 15,89,236 // mulps %xmm4,%xmm5
- .byte 15,40,128,186,171,0,0 // movaps 0xabba(%eax),%xmm0
+ .byte 15,40,128,214,171,0,0 // movaps 0xabd6(%eax),%xmm0
.byte 15,41,69,232 // movaps %xmm0,-0x18(%ebp)
.byte 15,88,232 // addps %xmm0,%xmm5
.byte 15,89,235 // mulps %xmm3,%xmm5
- .byte 15,40,128,202,171,0,0 // movaps 0xabca(%eax),%xmm0
+ .byte 15,40,128,230,171,0,0 // movaps 0xabe6(%eax),%xmm0
.byte 15,41,69,200 // movaps %xmm0,-0x38(%ebp)
.byte 15,88,232 // addps %xmm0,%xmm5
- .byte 15,40,128,218,171,0,0 // movaps 0xabda(%eax),%xmm0
+ .byte 15,40,128,246,171,0,0 // movaps 0xabf6(%eax),%xmm0
.byte 15,41,69,216 // movaps %xmm0,-0x28(%ebp)
.byte 15,88,216 // addps %xmm0,%xmm3
.byte 15,83,195 // rcpps %xmm3,%xmm0
.byte 15,89,197 // mulps %xmm5,%xmm0
- .byte 15,40,168,154,171,0,0 // movaps 0xab9a(%eax),%xmm5
+ .byte 15,40,168,182,171,0,0 // movaps 0xabb6(%eax),%xmm5
.byte 15,40,202 // movaps %xmm2,%xmm1
.byte 15,89,205 // mulps %xmm5,%xmm1
- .byte 15,40,152,234,171,0,0 // movaps 0xabea(%eax),%xmm3
+ .byte 15,40,152,6,172,0,0 // movaps 0xac06(%eax),%xmm3
.byte 15,194,211,1 // cmpltps %xmm3,%xmm2
.byte 15,84,202 // andps %xmm2,%xmm1
.byte 15,85,208 // andnps %xmm0,%xmm2
@@ -64462,7 +64481,7 @@ _sk_rgb_to_hsl_sse2:
.byte 15,41,93,200 // movaps %xmm3,-0x38(%ebp)
.byte 15,40,249 // movaps %xmm1,%xmm7
.byte 15,40,224 // movaps %xmm0,%xmm4
- .byte 232,0,0,0,0 // call 234d <_sk_rgb_to_hsl_sse2+0x15>
+ .byte 232,0,0,0,0 // call 2351 <_sk_rgb_to_hsl_sse2+0x15>
.byte 88 // pop %eax
.byte 15,40,199 // movaps %xmm7,%xmm0
.byte 15,95,194 // maxps %xmm2,%xmm0
@@ -64476,14 +64495,14 @@ _sk_rgb_to_hsl_sse2:
.byte 15,40,195 // movaps %xmm3,%xmm0
.byte 15,92,193 // subps %xmm1,%xmm0
.byte 15,41,69,216 // movaps %xmm0,-0x28(%ebp)
- .byte 15,40,136,131,169,0,0 // movaps 0xa983(%eax),%xmm1
+ .byte 15,40,136,143,169,0,0 // movaps 0xa98f(%eax),%xmm1
.byte 15,94,200 // divps %xmm0,%xmm1
.byte 15,40,199 // movaps %xmm7,%xmm0
.byte 15,92,194 // subps %xmm2,%xmm0
.byte 15,89,193 // mulps %xmm1,%xmm0
.byte 15,40,239 // movaps %xmm7,%xmm5
.byte 15,194,234,1 // cmpltps %xmm2,%xmm5
- .byte 15,84,168,3,171,0,0 // andps 0xab03(%eax),%xmm5
+ .byte 15,84,168,31,171,0,0 // andps 0xab1f(%eax),%xmm5
.byte 15,88,232 // addps %xmm0,%xmm5
.byte 15,40,195 // movaps %xmm3,%xmm0
.byte 15,194,196,0 // cmpeqps %xmm4,%xmm0
@@ -64493,9 +64512,9 @@ _sk_rgb_to_hsl_sse2:
.byte 15,92,231 // subps %xmm7,%xmm4
.byte 15,89,209 // mulps %xmm1,%xmm2
.byte 15,89,225 // mulps %xmm1,%xmm4
- .byte 15,40,136,19,171,0,0 // movaps 0xab13(%eax),%xmm1
+ .byte 15,40,136,47,171,0,0 // movaps 0xab2f(%eax),%xmm1
.byte 15,88,209 // addps %xmm1,%xmm2
- .byte 15,88,160,35,171,0,0 // addps 0xab23(%eax),%xmm4
+ .byte 15,88,160,63,171,0,0 // addps 0xab3f(%eax),%xmm4
.byte 15,84,214 // andps %xmm6,%xmm2
.byte 15,85,244 // andnps %xmm4,%xmm6
.byte 15,86,242 // orps %xmm2,%xmm6
@@ -64507,7 +64526,7 @@ _sk_rgb_to_hsl_sse2:
.byte 15,194,226,4 // cmpneqps %xmm2,%xmm4
.byte 15,92,203 // subps %xmm3,%xmm1
.byte 15,88,218 // addps %xmm2,%xmm3
- .byte 15,40,168,115,169,0,0 // movaps 0xa973(%eax),%xmm5
+ .byte 15,40,168,127,169,0,0 // movaps 0xa97f(%eax),%xmm5
.byte 15,92,202 // subps %xmm2,%xmm1
.byte 15,40,211 // movaps %xmm3,%xmm2
.byte 15,89,213 // mulps %xmm5,%xmm2
@@ -64517,7 +64536,7 @@ _sk_rgb_to_hsl_sse2:
.byte 15,86,233 // orps %xmm1,%xmm5
.byte 15,40,77,216 // movaps -0x28(%ebp),%xmm1
.byte 15,94,205 // divps %xmm5,%xmm1
- .byte 15,89,128,51,171,0,0 // mulps 0xab33(%eax),%xmm0
+ .byte 15,89,128,79,171,0,0 // mulps 0xab4f(%eax),%xmm0
.byte 15,84,196 // andps %xmm4,%xmm0
.byte 15,84,204 // andps %xmm4,%xmm1
.byte 139,69,12 // mov 0xc(%ebp),%eax
@@ -64540,9 +64559,9 @@ _sk_hsl_to_rgb_sse2:
.byte 129,236,200,0,0,0 // sub $0xc8,%esp
.byte 15,41,157,56,255,255,255 // movaps %xmm3,-0xc8(%ebp)
.byte 15,41,69,184 // movaps %xmm0,-0x48(%ebp)
- .byte 232,0,0,0,0 // call 2448 <_sk_hsl_to_rgb_sse2+0x19>
+ .byte 232,0,0,0,0 // call 244c <_sk_hsl_to_rgb_sse2+0x19>
.byte 88 // pop %eax
- .byte 15,40,160,120,168,0,0 // movaps 0xa878(%eax),%xmm4
+ .byte 15,40,160,132,168,0,0 // movaps 0xa884(%eax),%xmm4
.byte 15,40,220 // movaps %xmm4,%xmm3
.byte 15,41,165,104,255,255,255 // movaps %xmm4,-0x98(%ebp)
.byte 15,194,218,2 // cmpleps %xmm2,%xmm3
@@ -64555,13 +64574,13 @@ _sk_hsl_to_rgb_sse2:
.byte 15,84,243 // andps %xmm3,%xmm6
.byte 15,85,217 // andnps %xmm1,%xmm3
.byte 15,86,222 // orps %xmm6,%xmm3
- .byte 15,40,168,72,170,0,0 // movaps 0xaa48(%eax),%xmm5
+ .byte 15,40,168,100,170,0,0 // movaps 0xaa64(%eax),%xmm5
.byte 15,88,232 // addps %xmm0,%xmm5
.byte 243,15,91,205 // cvttps2dq %xmm5,%xmm1
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
.byte 15,40,197 // movaps %xmm5,%xmm0
.byte 15,194,193,1 // cmpltps %xmm1,%xmm0
- .byte 15,40,176,136,168,0,0 // movaps 0xa888(%eax),%xmm6
+ .byte 15,40,176,148,168,0,0 // movaps 0xa894(%eax),%xmm6
.byte 15,41,117,136 // movaps %xmm6,-0x78(%ebp)
.byte 15,84,198 // andps %xmm6,%xmm0
.byte 15,92,200 // subps %xmm0,%xmm1
@@ -64571,19 +64590,19 @@ _sk_hsl_to_rgb_sse2:
.byte 15,41,93,216 // movaps %xmm3,-0x28(%ebp)
.byte 15,88,210 // addps %xmm2,%xmm2
.byte 15,92,211 // subps %xmm3,%xmm2
- .byte 15,40,184,88,170,0,0 // movaps 0xaa58(%eax),%xmm7
+ .byte 15,40,184,116,170,0,0 // movaps 0xaa74(%eax),%xmm7
.byte 15,41,189,88,255,255,255 // movaps %xmm7,-0xa8(%ebp)
.byte 15,194,253,2 // cmpleps %xmm5,%xmm7
.byte 15,92,218 // subps %xmm2,%xmm3
.byte 15,41,93,200 // movaps %xmm3,-0x38(%ebp)
.byte 15,40,204 // movaps %xmm4,%xmm1
.byte 15,194,205,2 // cmpleps %xmm5,%xmm1
- .byte 15,40,160,56,170,0,0 // movaps 0xaa38(%eax),%xmm4
+ .byte 15,40,160,84,170,0,0 // movaps 0xaa54(%eax),%xmm4
.byte 15,41,165,120,255,255,255 // movaps %xmm4,-0x88(%ebp)
.byte 15,194,229,2 // cmpleps %xmm5,%xmm4
- .byte 15,40,176,8,170,0,0 // movaps 0xaa08(%eax),%xmm6
+ .byte 15,40,176,36,170,0,0 // movaps 0xaa24(%eax),%xmm6
.byte 15,89,238 // mulps %xmm6,%xmm5
- .byte 15,40,128,40,170,0,0 // movaps 0xaa28(%eax),%xmm0
+ .byte 15,40,128,68,170,0,0 // movaps 0xaa44(%eax),%xmm0
.byte 15,41,69,168 // movaps %xmm0,-0x58(%ebp)
.byte 15,92,197 // subps %xmm5,%xmm0
.byte 15,89,195 // mulps %xmm3,%xmm0
@@ -64609,18 +64628,18 @@ _sk_hsl_to_rgb_sse2:
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
.byte 15,40,203 // movaps %xmm3,%xmm1
.byte 15,194,200,1 // cmpltps %xmm0,%xmm1
- .byte 15,84,136,136,168,0,0 // andps 0xa888(%eax),%xmm1
+ .byte 15,84,136,148,168,0,0 // andps 0xa894(%eax),%xmm1
.byte 15,92,193 // subps %xmm1,%xmm0
.byte 15,40,203 // movaps %xmm3,%xmm1
.byte 15,92,200 // subps %xmm0,%xmm1
- .byte 15,40,128,88,170,0,0 // movaps 0xaa58(%eax),%xmm0
+ .byte 15,40,128,116,170,0,0 // movaps 0xaa74(%eax),%xmm0
.byte 15,194,193,2 // cmpleps %xmm1,%xmm0
- .byte 15,40,152,120,168,0,0 // movaps 0xa878(%eax),%xmm3
+ .byte 15,40,152,132,168,0,0 // movaps 0xa884(%eax),%xmm3
.byte 15,194,217,2 // cmpleps %xmm1,%xmm3
- .byte 15,40,160,56,170,0,0 // movaps 0xaa38(%eax),%xmm4
+ .byte 15,40,160,84,170,0,0 // movaps 0xaa54(%eax),%xmm4
.byte 15,194,225,2 // cmpleps %xmm1,%xmm4
.byte 15,89,206 // mulps %xmm6,%xmm1
- .byte 15,40,168,40,170,0,0 // movaps 0xaa28(%eax),%xmm5
+ .byte 15,40,168,68,170,0,0 // movaps 0xaa44(%eax),%xmm5
.byte 15,92,233 // subps %xmm1,%xmm5
.byte 15,89,239 // mulps %xmm7,%xmm5
.byte 15,88,234 // addps %xmm2,%xmm5
@@ -64640,7 +64659,7 @@ _sk_hsl_to_rgb_sse2:
.byte 15,40,125,232 // movaps -0x18(%ebp),%xmm7
.byte 15,85,252 // andnps %xmm4,%xmm7
.byte 15,40,93,184 // movaps -0x48(%ebp),%xmm3
- .byte 15,88,152,104,170,0,0 // addps 0xaa68(%eax),%xmm3
+ .byte 15,88,152,132,170,0,0 // addps 0xaa84(%eax),%xmm3
.byte 243,15,91,195 // cvttps2dq %xmm3,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
.byte 15,40,203 // movaps %xmm3,%xmm1
@@ -64727,7 +64746,7 @@ _sk_scale_u8_sse2:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,12 // sub $0xc,%esp
- .byte 232,0,0,0,0 // call 26c2 <_sk_scale_u8_sse2+0xe>
+ .byte 232,0,0,0,0 // call 26c6 <_sk_scale_u8_sse2+0xe>
.byte 90 // pop %edx
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
@@ -64738,13 +64757,13 @@ _sk_scale_u8_sse2:
.byte 139,89,8 // mov 0x8(%ecx),%ebx
.byte 133,219 // test %ebx,%ebx
.byte 139,57 // mov (%ecx),%edi
- .byte 117,65 // jne 271e <_sk_scale_u8_sse2+0x6a>
+ .byte 117,65 // jne 2722 <_sk_scale_u8_sse2+0x6a>
.byte 102,15,110,36,62 // movd (%esi,%edi,1),%xmm4
.byte 102,15,96,224 // punpcklbw %xmm0,%xmm4
.byte 102,15,97,224 // punpcklwd %xmm0,%xmm4
- .byte 102,15,219,162,206,166,0,0 // pand 0xa6ce(%edx),%xmm4
+ .byte 102,15,219,162,218,166,0,0 // pand 0xa6da(%edx),%xmm4
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
- .byte 15,89,162,254,167,0,0 // mulps 0xa7fe(%edx),%xmm4
+ .byte 15,89,162,26,168,0,0 // mulps 0xa81a(%edx),%xmm4
.byte 15,89,196 // mulps %xmm4,%xmm0
.byte 15,89,204 // mulps %xmm4,%xmm1
.byte 15,89,212 // mulps %xmm4,%xmm2
@@ -64763,12 +64782,12 @@ _sk_scale_u8_sse2:
.byte 195 // ret
.byte 128,227,3 // and $0x3,%bl
.byte 128,251,1 // cmp $0x1,%bl
- .byte 116,50 // je 2758 <_sk_scale_u8_sse2+0xa4>
+ .byte 116,50 // je 275c <_sk_scale_u8_sse2+0xa4>
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 128,251,2 // cmp $0x2,%bl
- .byte 116,19 // je 2742 <_sk_scale_u8_sse2+0x8e>
+ .byte 116,19 // je 2746 <_sk_scale_u8_sse2+0x8e>
.byte 128,251,3 // cmp $0x3,%bl
- .byte 117,182 // jne 26ea <_sk_scale_u8_sse2+0x36>
+ .byte 117,182 // jne 26ee <_sk_scale_u8_sse2+0x36>
.byte 15,182,92,62,2 // movzbl 0x2(%esi,%edi,1),%ebx
.byte 102,15,110,227 // movd %ebx,%xmm4
.byte 102,15,112,228,69 // pshufd $0x45,%xmm4,%xmm4
@@ -64777,10 +64796,10 @@ _sk_scale_u8_sse2:
.byte 102,15,96,232 // punpcklbw %xmm0,%xmm5
.byte 102,15,97,232 // punpcklwd %xmm0,%xmm5
.byte 242,15,16,229 // movsd %xmm5,%xmm4
- .byte 235,146 // jmp 26ea <_sk_scale_u8_sse2+0x36>
+ .byte 235,146 // jmp 26ee <_sk_scale_u8_sse2+0x36>
.byte 15,182,52,62 // movzbl (%esi,%edi,1),%esi
.byte 102,15,110,230 // movd %esi,%xmm4
- .byte 235,136 // jmp 26ea <_sk_scale_u8_sse2+0x36>
+ .byte 235,136 // jmp 26ee <_sk_scale_u8_sse2+0x36>
HIDDEN _sk_scale_565_sse2
.globl _sk_scale_565_sse2
@@ -64795,7 +64814,7 @@ _sk_scale_565_sse2:
.byte 15,41,85,200 // movaps %xmm2,-0x38(%ebp)
.byte 15,41,77,216 // movaps %xmm1,-0x28(%ebp)
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
- .byte 232,0,0,0,0 // call 277c <_sk_scale_565_sse2+0x1a>
+ .byte 232,0,0,0,0 // call 2780 <_sk_scale_565_sse2+0x1a>
.byte 90 // pop %edx
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
@@ -64807,20 +64826,20 @@ _sk_scale_565_sse2:
.byte 139,89,8 // mov 0x8(%ecx),%ebx
.byte 133,219 // test %ebx,%ebx
.byte 139,57 // mov (%ecx),%edi
- .byte 15,133,157,0,0,0 // jne 283a <_sk_scale_565_sse2+0xd8>
+ .byte 15,133,157,0,0,0 // jne 283e <_sk_scale_565_sse2+0xd8>
.byte 243,15,126,52,126 // movq (%esi,%edi,2),%xmm6
.byte 102,15,97,240 // punpcklwd %xmm0,%xmm6
- .byte 102,15,111,162,84,167,0,0 // movdqa 0xa754(%edx),%xmm4
+ .byte 102,15,111,162,112,167,0,0 // movdqa 0xa770(%edx),%xmm4
.byte 102,15,219,230 // pand %xmm6,%xmm4
.byte 15,91,212 // cvtdq2ps %xmm4,%xmm2
- .byte 15,89,146,100,167,0,0 // mulps 0xa764(%edx),%xmm2
- .byte 102,15,111,170,116,167,0,0 // movdqa 0xa774(%edx),%xmm5
+ .byte 15,89,146,128,167,0,0 // mulps 0xa780(%edx),%xmm2
+ .byte 102,15,111,170,144,167,0,0 // movdqa 0xa790(%edx),%xmm5
.byte 102,15,219,238 // pand %xmm6,%xmm5
.byte 15,91,237 // cvtdq2ps %xmm5,%xmm5
- .byte 15,89,170,132,167,0,0 // mulps 0xa784(%edx),%xmm5
- .byte 102,15,219,178,148,167,0,0 // pand 0xa794(%edx),%xmm6
+ .byte 15,89,170,160,167,0,0 // mulps 0xa7a0(%edx),%xmm5
+ .byte 102,15,219,178,176,167,0,0 // pand 0xa7b0(%edx),%xmm6
.byte 15,91,246 // cvtdq2ps %xmm6,%xmm6
- .byte 15,89,178,164,167,0,0 // mulps 0xa7a4(%edx),%xmm6
+ .byte 15,89,178,192,167,0,0 // mulps 0xa7c0(%edx),%xmm6
.byte 15,40,253 // movaps %xmm5,%xmm7
.byte 15,93,254 // minps %xmm6,%xmm7
.byte 15,40,226 // movaps %xmm2,%xmm4
@@ -64855,22 +64874,22 @@ _sk_scale_565_sse2:
.byte 195 // ret
.byte 128,227,3 // and $0x3,%bl
.byte 128,251,1 // cmp $0x1,%bl
- .byte 116,51 // je 2875 <_sk_scale_565_sse2+0x113>
+ .byte 116,51 // je 2879 <_sk_scale_565_sse2+0x113>
.byte 102,15,239,246 // pxor %xmm6,%xmm6
.byte 128,251,2 // cmp $0x2,%bl
- .byte 116,23 // je 2862 <_sk_scale_565_sse2+0x100>
+ .byte 116,23 // je 2866 <_sk_scale_565_sse2+0x100>
.byte 128,251,3 // cmp $0x3,%bl
- .byte 15,133,82,255,255,255 // jne 27a6 <_sk_scale_565_sse2+0x44>
+ .byte 15,133,82,255,255,255 // jne 27aa <_sk_scale_565_sse2+0x44>
.byte 15,183,92,126,4 // movzwl 0x4(%esi,%edi,2),%ebx
.byte 102,15,110,227 // movd %ebx,%xmm4
.byte 102,15,112,244,69 // pshufd $0x45,%xmm4,%xmm6
.byte 102,15,110,36,126 // movd (%esi,%edi,2),%xmm4
.byte 242,15,112,228,212 // pshuflw $0xd4,%xmm4,%xmm4
.byte 242,15,16,244 // movsd %xmm4,%xmm6
- .byte 233,49,255,255,255 // jmp 27a6 <_sk_scale_565_sse2+0x44>
+ .byte 233,49,255,255,255 // jmp 27aa <_sk_scale_565_sse2+0x44>
.byte 15,183,52,126 // movzwl (%esi,%edi,2),%esi
.byte 102,15,110,246 // movd %esi,%xmm6
- .byte 233,36,255,255,255 // jmp 27a6 <_sk_scale_565_sse2+0x44>
+ .byte 233,36,255,255,255 // jmp 27aa <_sk_scale_565_sse2+0x44>
HIDDEN _sk_lerp_1_float_sse2
.globl _sk_lerp_1_float_sse2
@@ -64919,7 +64938,7 @@ _sk_lerp_u8_sse2:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,12 // sub $0xc,%esp
- .byte 232,0,0,0,0 // call 28ea <_sk_lerp_u8_sse2+0xe>
+ .byte 232,0,0,0,0 // call 28ee <_sk_lerp_u8_sse2+0xe>
.byte 90 // pop %edx
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
@@ -64930,13 +64949,13 @@ _sk_lerp_u8_sse2:
.byte 139,89,8 // mov 0x8(%ecx),%ebx
.byte 133,219 // test %ebx,%ebx
.byte 139,57 // mov (%ecx),%edi
- .byte 117,102 // jne 296b <_sk_lerp_u8_sse2+0x8f>
+ .byte 117,102 // jne 296f <_sk_lerp_u8_sse2+0x8f>
.byte 102,15,110,36,62 // movd (%esi,%edi,1),%xmm4
.byte 102,15,96,224 // punpcklbw %xmm0,%xmm4
.byte 102,15,97,224 // punpcklwd %xmm0,%xmm4
- .byte 102,15,219,162,166,164,0,0 // pand 0xa4a6(%edx),%xmm4
+ .byte 102,15,219,162,178,164,0,0 // pand 0xa4b2(%edx),%xmm4
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
- .byte 15,89,162,214,165,0,0 // mulps 0xa5d6(%edx),%xmm4
+ .byte 15,89,162,242,165,0,0 // mulps 0xa5f2(%edx),%xmm4
.byte 15,40,105,16 // movaps 0x10(%ecx),%xmm5
.byte 15,40,113,32 // movaps 0x20(%ecx),%xmm6
.byte 15,92,197 // subps %xmm5,%xmm0
@@ -64966,12 +64985,12 @@ _sk_lerp_u8_sse2:
.byte 195 // ret
.byte 128,227,3 // and $0x3,%bl
.byte 128,251,1 // cmp $0x1,%bl
- .byte 116,53 // je 29a8 <_sk_lerp_u8_sse2+0xcc>
+ .byte 116,53 // je 29ac <_sk_lerp_u8_sse2+0xcc>
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 128,251,2 // cmp $0x2,%bl
- .byte 116,19 // je 298f <_sk_lerp_u8_sse2+0xb3>
+ .byte 116,19 // je 2993 <_sk_lerp_u8_sse2+0xb3>
.byte 128,251,3 // cmp $0x3,%bl
- .byte 117,145 // jne 2912 <_sk_lerp_u8_sse2+0x36>
+ .byte 117,145 // jne 2916 <_sk_lerp_u8_sse2+0x36>
.byte 15,182,92,62,2 // movzbl 0x2(%esi,%edi,1),%ebx
.byte 102,15,110,227 // movd %ebx,%xmm4
.byte 102,15,112,228,69 // pshufd $0x45,%xmm4,%xmm4
@@ -64980,10 +64999,10 @@ _sk_lerp_u8_sse2:
.byte 102,15,96,232 // punpcklbw %xmm0,%xmm5
.byte 102,15,97,232 // punpcklwd %xmm0,%xmm5
.byte 242,15,16,229 // movsd %xmm5,%xmm4
- .byte 233,106,255,255,255 // jmp 2912 <_sk_lerp_u8_sse2+0x36>
+ .byte 233,106,255,255,255 // jmp 2916 <_sk_lerp_u8_sse2+0x36>
.byte 15,182,52,62 // movzbl (%esi,%edi,1),%esi
.byte 102,15,110,230 // movd %esi,%xmm4
- .byte 233,93,255,255,255 // jmp 2912 <_sk_lerp_u8_sse2+0x36>
+ .byte 233,93,255,255,255 // jmp 2916 <_sk_lerp_u8_sse2+0x36>
HIDDEN _sk_lerp_565_sse2
.globl _sk_lerp_565_sse2
@@ -64999,7 +65018,7 @@ _sk_lerp_565_sse2:
.byte 15,41,85,136 // movaps %xmm2,-0x78(%ebp)
.byte 15,41,77,152 // movaps %xmm1,-0x68(%ebp)
.byte 102,15,127,69,184 // movdqa %xmm0,-0x48(%ebp)
- .byte 232,0,0,0,0 // call 29d4 <_sk_lerp_565_sse2+0x1f>
+ .byte 232,0,0,0,0 // call 29d8 <_sk_lerp_565_sse2+0x1f>
.byte 90 // pop %edx
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
@@ -65011,20 +65030,20 @@ _sk_lerp_565_sse2:
.byte 139,89,8 // mov 0x8(%ecx),%ebx
.byte 133,219 // test %ebx,%ebx
.byte 139,57 // mov (%ecx),%edi
- .byte 15,133,211,0,0,0 // jne 2ac8 <_sk_lerp_565_sse2+0x113>
+ .byte 15,133,211,0,0,0 // jne 2acc <_sk_lerp_565_sse2+0x113>
.byte 243,15,126,44,126 // movq (%esi,%edi,2),%xmm5
.byte 102,15,97,232 // punpcklwd %xmm0,%xmm5
- .byte 102,15,111,162,252,164,0,0 // movdqa 0xa4fc(%edx),%xmm4
+ .byte 102,15,111,162,24,165,0,0 // movdqa 0xa518(%edx),%xmm4
.byte 102,15,219,229 // pand %xmm5,%xmm4
.byte 15,91,204 // cvtdq2ps %xmm4,%xmm1
- .byte 15,89,138,12,165,0,0 // mulps 0xa50c(%edx),%xmm1
- .byte 102,15,111,178,28,165,0,0 // movdqa 0xa51c(%edx),%xmm6
+ .byte 15,89,138,40,165,0,0 // mulps 0xa528(%edx),%xmm1
+ .byte 102,15,111,178,56,165,0,0 // movdqa 0xa538(%edx),%xmm6
.byte 102,15,219,245 // pand %xmm5,%xmm6
.byte 15,91,246 // cvtdq2ps %xmm6,%xmm6
- .byte 15,89,178,44,165,0,0 // mulps 0xa52c(%edx),%xmm6
- .byte 102,15,219,170,60,165,0,0 // pand 0xa53c(%edx),%xmm5
+ .byte 15,89,178,72,165,0,0 // mulps 0xa548(%edx),%xmm6
+ .byte 102,15,219,170,88,165,0,0 // pand 0xa558(%edx),%xmm5
.byte 15,91,213 // cvtdq2ps %xmm5,%xmm2
- .byte 15,89,146,76,165,0,0 // mulps 0xa54c(%edx),%xmm2
+ .byte 15,89,146,104,165,0,0 // mulps 0xa568(%edx),%xmm2
.byte 15,40,218 // movaps %xmm2,%xmm3
.byte 15,41,93,200 // movaps %xmm3,-0x38(%ebp)
.byte 15,40,254 // movaps %xmm6,%xmm7
@@ -65074,22 +65093,22 @@ _sk_lerp_565_sse2:
.byte 195 // ret
.byte 128,227,3 // and $0x3,%bl
.byte 128,251,1 // cmp $0x1,%bl
- .byte 116,51 // je 2b03 <_sk_lerp_565_sse2+0x14e>
+ .byte 116,51 // je 2b07 <_sk_lerp_565_sse2+0x14e>
.byte 102,15,239,237 // pxor %xmm5,%xmm5
.byte 128,251,2 // cmp $0x2,%bl
- .byte 116,23 // je 2af0 <_sk_lerp_565_sse2+0x13b>
+ .byte 116,23 // je 2af4 <_sk_lerp_565_sse2+0x13b>
.byte 128,251,3 // cmp $0x3,%bl
- .byte 15,133,28,255,255,255 // jne 29fe <_sk_lerp_565_sse2+0x49>
+ .byte 15,133,28,255,255,255 // jne 2a02 <_sk_lerp_565_sse2+0x49>
.byte 15,183,92,126,4 // movzwl 0x4(%esi,%edi,2),%ebx
.byte 102,15,110,227 // movd %ebx,%xmm4
.byte 102,15,112,236,69 // pshufd $0x45,%xmm4,%xmm5
.byte 102,15,110,36,126 // movd (%esi,%edi,2),%xmm4
.byte 242,15,112,228,212 // pshuflw $0xd4,%xmm4,%xmm4
.byte 242,15,16,236 // movsd %xmm4,%xmm5
- .byte 233,251,254,255,255 // jmp 29fe <_sk_lerp_565_sse2+0x49>
+ .byte 233,251,254,255,255 // jmp 2a02 <_sk_lerp_565_sse2+0x49>
.byte 15,183,52,126 // movzwl (%esi,%edi,2),%esi
.byte 102,15,110,238 // movd %esi,%xmm5
- .byte 233,238,254,255,255 // jmp 29fe <_sk_lerp_565_sse2+0x49>
+ .byte 233,238,254,255,255 // jmp 2a02 <_sk_lerp_565_sse2+0x49>
HIDDEN _sk_load_tables_sse2
.globl _sk_load_tables_sse2
@@ -65101,7 +65120,7 @@ _sk_load_tables_sse2:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,12 // sub $0xc,%esp
- .byte 232,0,0,0,0 // call 2b1e <_sk_load_tables_sse2+0xe>
+ .byte 232,0,0,0,0 // call 2b22 <_sk_load_tables_sse2+0xe>
.byte 90 // pop %edx
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
@@ -65110,9 +65129,9 @@ _sk_load_tables_sse2:
.byte 133,192 // test %eax,%eax
.byte 139,57 // mov (%ecx),%edi
.byte 139,30 // mov (%esi),%ebx
- .byte 15,133,22,1,0,0 // jne 2c4c <_sk_load_tables_sse2+0x13c>
+ .byte 15,133,22,1,0,0 // jne 2c50 <_sk_load_tables_sse2+0x13c>
.byte 243,15,111,28,187 // movdqu (%ebx,%edi,4),%xmm3
- .byte 102,15,111,146,114,162,0,0 // movdqa 0xa272(%edx),%xmm2
+ .byte 102,15,111,146,126,162,0,0 // movdqa 0xa27e(%edx),%xmm2
.byte 102,15,111,195 // movdqa %xmm3,%xmm0
.byte 102,15,219,194 // pand %xmm2,%xmm0
.byte 102,15,112,200,78 // pshufd $0x4e,%xmm0,%xmm1
@@ -65168,7 +65187,7 @@ _sk_load_tables_sse2:
.byte 102,15,20,215 // unpcklpd %xmm7,%xmm2
.byte 102,15,114,211,24 // psrld $0x18,%xmm3
.byte 15,91,219 // cvtdq2ps %xmm3,%xmm3
- .byte 15,89,154,162,163,0,0 // mulps 0xa3a2(%edx),%xmm3
+ .byte 15,89,154,190,163,0,0 // mulps 0xa3be(%edx),%xmm3
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 137,194 // mov %eax,%edx
.byte 141,66,8 // lea 0x8(%edx),%eax
@@ -65184,18 +65203,18 @@ _sk_load_tables_sse2:
.byte 195 // ret
.byte 36,3 // and $0x3,%al
.byte 60,1 // cmp $0x1,%al
- .byte 116,37 // je 2c77 <_sk_load_tables_sse2+0x167>
+ .byte 116,37 // je 2c7b <_sk_load_tables_sse2+0x167>
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 60,2 // cmp $0x2,%al
- .byte 116,19 // je 2c6d <_sk_load_tables_sse2+0x15d>
+ .byte 116,19 // je 2c71 <_sk_load_tables_sse2+0x15d>
.byte 60,3 // cmp $0x3,%al
- .byte 15,133,217,254,255,255 // jne 2b3b <_sk_load_tables_sse2+0x2b>
+ .byte 15,133,217,254,255,255 // jne 2b3f <_sk_load_tables_sse2+0x2b>
.byte 102,15,110,68,187,8 // movd 0x8(%ebx,%edi,4),%xmm0
.byte 102,15,112,216,69 // pshufd $0x45,%xmm0,%xmm3
.byte 102,15,18,28,187 // movlpd (%ebx,%edi,4),%xmm3
- .byte 233,196,254,255,255 // jmp 2b3b <_sk_load_tables_sse2+0x2b>
+ .byte 233,196,254,255,255 // jmp 2b3f <_sk_load_tables_sse2+0x2b>
.byte 102,15,110,28,187 // movd (%ebx,%edi,4),%xmm3
- .byte 233,186,254,255,255 // jmp 2b3b <_sk_load_tables_sse2+0x2b>
+ .byte 233,186,254,255,255 // jmp 2b3f <_sk_load_tables_sse2+0x2b>
HIDDEN _sk_load_tables_u16_be_sse2
.globl _sk_load_tables_u16_be_sse2
@@ -65207,7 +65226,7 @@ _sk_load_tables_u16_be_sse2:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,44 // sub $0x2c,%esp
- .byte 232,0,0,0,0 // call 2c8f <_sk_load_tables_u16_be_sse2+0xe>
+ .byte 232,0,0,0,0 // call 2c93 <_sk_load_tables_u16_be_sse2+0xe>
.byte 90 // pop %edx
.byte 139,117,12 // mov 0xc(%ebp),%esi
.byte 139,77,8 // mov 0x8(%ebp),%ecx
@@ -65217,7 +65236,7 @@ _sk_load_tables_u16_be_sse2:
.byte 133,192 // test %eax,%eax
.byte 139,54 // mov (%esi),%esi
.byte 139,30 // mov (%esi),%ebx
- .byte 15,133,210,1,0,0 // jne 2e7c <_sk_load_tables_u16_be_sse2+0x1fb>
+ .byte 15,133,210,1,0,0 // jne 2e80 <_sk_load_tables_u16_be_sse2+0x1fb>
.byte 102,15,16,4,123 // movupd (%ebx,%edi,2),%xmm0
.byte 243,15,111,76,123,16 // movdqu 0x10(%ebx,%edi,2),%xmm1
.byte 102,15,40,216 // movapd %xmm0,%xmm3
@@ -65243,7 +65262,7 @@ _sk_load_tables_u16_be_sse2:
.byte 242,15,112,192,232 // pshuflw $0xe8,%xmm0,%xmm0
.byte 243,15,112,192,232 // pshufhw $0xe8,%xmm0,%xmm0
.byte 102,15,112,192,232 // pshufd $0xe8,%xmm0,%xmm0
- .byte 102,15,111,146,161,162,0,0 // movdqa 0xa2a1(%edx),%xmm2
+ .byte 102,15,111,146,189,162,0,0 // movdqa 0xa2bd(%edx),%xmm2
.byte 102,15,219,194 // pand %xmm2,%xmm0
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 102,15,97,196 // punpcklwd %xmm4,%xmm0
@@ -65315,7 +65334,7 @@ _sk_load_tables_u16_be_sse2:
.byte 243,15,126,93,232 // movq -0x18(%ebp),%xmm3
.byte 102,15,97,220 // punpcklwd %xmm4,%xmm3
.byte 15,91,219 // cvtdq2ps %xmm3,%xmm3
- .byte 15,89,154,177,162,0,0 // mulps 0xa2b1(%edx),%xmm3
+ .byte 15,89,154,205,162,0,0 // mulps 0xa2cd(%edx),%xmm3
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 137,194 // mov %eax,%edx
.byte 141,66,8 // lea 0x8(%edx),%eax
@@ -65332,12 +65351,12 @@ _sk_load_tables_u16_be_sse2:
.byte 242,15,16,4,123 // movsd (%ebx,%edi,2),%xmm0
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 131,248,1 // cmp $0x1,%eax
- .byte 15,132,39,254,255,255 // je 2cb5 <_sk_load_tables_u16_be_sse2+0x34>
+ .byte 15,132,39,254,255,255 // je 2cb9 <_sk_load_tables_u16_be_sse2+0x34>
.byte 102,15,22,68,123,8 // movhpd 0x8(%ebx,%edi,2),%xmm0
.byte 131,248,3 // cmp $0x3,%eax
- .byte 15,130,24,254,255,255 // jb 2cb5 <_sk_load_tables_u16_be_sse2+0x34>
+ .byte 15,130,24,254,255,255 // jb 2cb9 <_sk_load_tables_u16_be_sse2+0x34>
.byte 243,15,126,76,123,16 // movq 0x10(%ebx,%edi,2),%xmm1
- .byte 233,13,254,255,255 // jmp 2cb5 <_sk_load_tables_u16_be_sse2+0x34>
+ .byte 233,13,254,255,255 // jmp 2cb9 <_sk_load_tables_u16_be_sse2+0x34>
HIDDEN _sk_load_tables_rgb_u16_be_sse2
.globl _sk_load_tables_rgb_u16_be_sse2
@@ -65349,7 +65368,7 @@ _sk_load_tables_rgb_u16_be_sse2:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,28 // sub $0x1c,%esp
- .byte 232,0,0,0,0 // call 2eb6 <_sk_load_tables_rgb_u16_be_sse2+0xe>
+ .byte 232,0,0,0,0 // call 2eba <_sk_load_tables_rgb_u16_be_sse2+0xe>
.byte 90 // pop %edx
.byte 139,117,12 // mov 0xc(%ebp),%esi
.byte 139,77,8 // mov 0x8(%ebp),%ecx
@@ -65358,7 +65377,7 @@ _sk_load_tables_rgb_u16_be_sse2:
.byte 133,192 // test %eax,%eax
.byte 139,54 // mov (%esi),%esi
.byte 139,30 // mov (%esi),%ebx
- .byte 15,133,179,1,0,0 // jne 3082 <_sk_load_tables_rgb_u16_be_sse2+0x1da>
+ .byte 15,133,179,1,0,0 // jne 3086 <_sk_load_tables_rgb_u16_be_sse2+0x1da>
.byte 243,15,111,4,123 // movdqu (%ebx,%edi,2),%xmm0
.byte 243,15,111,92,123,8 // movdqu 0x8(%ebx,%edi,2),%xmm3
.byte 102,15,115,219,4 // psrldq $0x4,%xmm3
@@ -65388,7 +65407,7 @@ _sk_load_tables_rgb_u16_be_sse2:
.byte 242,15,112,194,232 // pshuflw $0xe8,%xmm2,%xmm0
.byte 243,15,112,192,232 // pshufhw $0xe8,%xmm0,%xmm0
.byte 102,15,112,192,232 // pshufd $0xe8,%xmm0,%xmm0
- .byte 102,15,111,146,122,160,0,0 // movdqa 0xa07a(%edx),%xmm2
+ .byte 102,15,111,146,150,160,0,0 // movdqa 0xa096(%edx),%xmm2
.byte 102,15,219,194 // pand %xmm2,%xmm0
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 102,15,97,195 // punpcklwd %xmm3,%xmm0
@@ -65453,7 +65472,7 @@ _sk_load_tables_rgb_u16_be_sse2:
.byte 137,198 // mov %eax,%esi
.byte 141,70,8 // lea 0x8(%esi),%eax
.byte 131,236,8 // sub $0x8,%esp
- .byte 15,40,154,26,158,0,0 // movaps 0x9e1a(%edx),%xmm3
+ .byte 15,40,154,38,158,0,0 // movaps 0x9e26(%edx),%xmm3
.byte 80 // push %eax
.byte 81 // push %ecx
.byte 255,86,4 // call *0x4(%esi)
@@ -65467,20 +65486,20 @@ _sk_load_tables_rgb_u16_be_sse2:
.byte 102,15,196,68,123,4,2 // pinsrw $0x2,0x4(%ebx,%edi,2),%xmm0
.byte 102,15,239,210 // pxor %xmm2,%xmm2
.byte 131,248,1 // cmp $0x1,%eax
- .byte 117,13 // jne 30a4 <_sk_load_tables_rgb_u16_be_sse2+0x1fc>
+ .byte 117,13 // jne 30a8 <_sk_load_tables_rgb_u16_be_sse2+0x1fc>
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 102,15,239,201 // pxor %xmm1,%xmm1
- .byte 233,77,254,255,255 // jmp 2ef1 <_sk_load_tables_rgb_u16_be_sse2+0x49>
+ .byte 233,77,254,255,255 // jmp 2ef5 <_sk_load_tables_rgb_u16_be_sse2+0x49>
.byte 102,15,110,76,123,6 // movd 0x6(%ebx,%edi,2),%xmm1
.byte 102,15,196,76,123,10,2 // pinsrw $0x2,0xa(%ebx,%edi,2),%xmm1
.byte 102,15,239,210 // pxor %xmm2,%xmm2
.byte 131,248,3 // cmp $0x3,%eax
- .byte 114,18 // jb 30cc <_sk_load_tables_rgb_u16_be_sse2+0x224>
+ .byte 114,18 // jb 30d0 <_sk_load_tables_rgb_u16_be_sse2+0x224>
.byte 102,15,110,92,123,12 // movd 0xc(%ebx,%edi,2),%xmm3
.byte 102,15,196,92,123,16,2 // pinsrw $0x2,0x10(%ebx,%edi,2),%xmm3
- .byte 233,37,254,255,255 // jmp 2ef1 <_sk_load_tables_rgb_u16_be_sse2+0x49>
+ .byte 233,37,254,255,255 // jmp 2ef5 <_sk_load_tables_rgb_u16_be_sse2+0x49>
.byte 102,15,239,219 // pxor %xmm3,%xmm3
- .byte 233,28,254,255,255 // jmp 2ef1 <_sk_load_tables_rgb_u16_be_sse2+0x49>
+ .byte 233,28,254,255,255 // jmp 2ef5 <_sk_load_tables_rgb_u16_be_sse2+0x49>
HIDDEN _sk_byte_tables_sse2
.globl _sk_byte_tables_sse2
@@ -65492,11 +65511,11 @@ _sk_byte_tables_sse2:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,12 // sub $0xc,%esp
- .byte 232,0,0,0,0 // call 30e3 <_sk_byte_tables_sse2+0xe>
+ .byte 232,0,0,0,0 // call 30e7 <_sk_byte_tables_sse2+0xe>
.byte 90 // pop %edx
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 139,8 // mov (%eax),%ecx
- .byte 15,40,162,189,156,0,0 // movaps 0x9cbd(%edx),%xmm4
+ .byte 15,40,162,201,156,0,0 // movaps 0x9cc9(%edx),%xmm4
.byte 15,89,196 // mulps %xmm4,%xmm0
.byte 102,15,91,192 // cvtps2dq %xmm0,%xmm0
.byte 102,15,112,232,78 // pshufd $0x4e,%xmm0,%xmm5
@@ -65518,7 +65537,7 @@ _sk_byte_tables_sse2:
.byte 102,15,110,192 // movd %eax,%xmm0
.byte 139,65,4 // mov 0x4(%ecx),%eax
.byte 102,15,196,195,1 // pinsrw $0x1,%ebx,%xmm0
- .byte 15,40,170,221,157,0,0 // movaps 0x9ddd(%edx),%xmm5
+ .byte 15,40,170,249,157,0,0 // movaps 0x9df9(%edx),%xmm5
.byte 15,89,204 // mulps %xmm4,%xmm1
.byte 102,15,91,201 // cvtps2dq %xmm1,%xmm1
.byte 102,15,112,241,78 // pshufd $0x4e,%xmm1,%xmm6
@@ -65643,12 +65662,12 @@ _sk_byte_tables_rgb_sse2:
.byte 15,182,60,31 // movzbl (%edi,%ebx,1),%edi
.byte 193,231,8 // shl $0x8,%edi
.byte 9,215 // or %edx,%edi
- .byte 232,0,0,0,0 // call 32df <_sk_byte_tables_rgb_sse2+0x65>
+ .byte 232,0,0,0,0 // call 32e3 <_sk_byte_tables_rgb_sse2+0x65>
.byte 90 // pop %edx
.byte 102,15,110,199 // movd %edi,%xmm0
.byte 139,121,4 // mov 0x4(%ecx),%edi
.byte 102,15,196,198,1 // pinsrw $0x1,%esi,%xmm0
- .byte 15,40,170,225,155,0,0 // movaps 0x9be1(%edx),%xmm5
+ .byte 15,40,170,253,155,0,0 // movaps 0x9bfd(%edx),%xmm5
.byte 15,89,204 // mulps %xmm4,%xmm1
.byte 102,15,91,201 // cvtps2dq %xmm1,%xmm1
.byte 102,15,112,241,78 // pshufd $0x4e,%xmm1,%xmm6
@@ -65884,7 +65903,7 @@ _sk_parametric_r_sse2:
.byte 15,40,218 // movaps %xmm2,%xmm3
.byte 15,40,209 // movaps %xmm1,%xmm2
.byte 15,40,200 // movaps %xmm0,%xmm1
- .byte 232,0,0,0,0 // call 35af <_sk_parametric_r_sse2+0x18>
+ .byte 232,0,0,0,0 // call 35b3 <_sk_parametric_r_sse2+0x18>
.byte 90 // pop %edx
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 139,8 // mov (%eax),%ecx
@@ -65904,15 +65923,15 @@ _sk_parametric_r_sse2:
.byte 15,198,237,0 // shufps $0x0,%xmm5,%xmm5
.byte 15,88,245 // addps %xmm5,%xmm6
.byte 15,91,238 // cvtdq2ps %xmm6,%xmm5
- .byte 15,89,170,161,153,0,0 // mulps 0x99a1(%edx),%xmm5
- .byte 15,84,178,177,153,0,0 // andps 0x99b1(%edx),%xmm6
- .byte 15,86,178,17,151,0,0 // orps 0x9711(%edx),%xmm6
- .byte 15,88,170,193,153,0,0 // addps 0x99c1(%edx),%xmm5
- .byte 15,40,186,209,153,0,0 // movaps 0x99d1(%edx),%xmm7
+ .byte 15,89,170,189,153,0,0 // mulps 0x99bd(%edx),%xmm5
+ .byte 15,84,178,205,153,0,0 // andps 0x99cd(%edx),%xmm6
+ .byte 15,86,178,29,151,0,0 // orps 0x971d(%edx),%xmm6
+ .byte 15,88,170,221,153,0,0 // addps 0x99dd(%edx),%xmm5
+ .byte 15,40,186,237,153,0,0 // movaps 0x99ed(%edx),%xmm7
.byte 15,89,254 // mulps %xmm6,%xmm7
.byte 15,92,239 // subps %xmm7,%xmm5
- .byte 15,88,178,225,153,0,0 // addps 0x99e1(%edx),%xmm6
- .byte 15,40,186,241,153,0,0 // movaps 0x99f1(%edx),%xmm7
+ .byte 15,88,178,253,153,0,0 // addps 0x99fd(%edx),%xmm6
+ .byte 15,40,186,13,154,0,0 // movaps 0x9a0d(%edx),%xmm7
.byte 15,94,254 // divps %xmm6,%xmm7
.byte 243,15,16,49 // movss (%ecx),%xmm6
.byte 15,198,246,0 // shufps $0x0,%xmm6,%xmm6
@@ -65922,21 +65941,21 @@ _sk_parametric_r_sse2:
.byte 15,91,254 // cvtdq2ps %xmm6,%xmm7
.byte 15,40,197 // movaps %xmm5,%xmm0
.byte 15,194,199,1 // cmpltps %xmm7,%xmm0
- .byte 15,40,178,33,151,0,0 // movaps 0x9721(%edx),%xmm6
+ .byte 15,40,178,45,151,0,0 // movaps 0x972d(%edx),%xmm6
.byte 15,84,198 // andps %xmm6,%xmm0
.byte 15,92,248 // subps %xmm0,%xmm7
.byte 15,40,197 // movaps %xmm5,%xmm0
.byte 15,92,199 // subps %xmm7,%xmm0
- .byte 15,88,170,1,154,0,0 // addps 0x9a01(%edx),%xmm5
- .byte 15,40,186,17,154,0,0 // movaps 0x9a11(%edx),%xmm7
+ .byte 15,88,170,29,154,0,0 // addps 0x9a1d(%edx),%xmm5
+ .byte 15,40,186,45,154,0,0 // movaps 0x9a2d(%edx),%xmm7
.byte 15,89,248 // mulps %xmm0,%xmm7
.byte 15,92,239 // subps %xmm7,%xmm5
- .byte 15,40,186,33,154,0,0 // movaps 0x9a21(%edx),%xmm7
+ .byte 15,40,186,61,154,0,0 // movaps 0x9a3d(%edx),%xmm7
.byte 15,92,248 // subps %xmm0,%xmm7
- .byte 15,40,130,49,154,0,0 // movaps 0x9a31(%edx),%xmm0
+ .byte 15,40,130,77,154,0,0 // movaps 0x9a4d(%edx),%xmm0
.byte 15,94,199 // divps %xmm7,%xmm0
.byte 15,88,197 // addps %xmm5,%xmm0
- .byte 15,89,130,65,154,0,0 // mulps 0x9a41(%edx),%xmm0
+ .byte 15,89,130,93,154,0,0 // mulps 0x9a5d(%edx),%xmm0
.byte 102,15,91,192 // cvtps2dq %xmm0,%xmm0
.byte 243,15,16,105,20 // movss 0x14(%ecx),%xmm5
.byte 15,198,237,0 // shufps $0x0,%xmm5,%xmm5
@@ -65970,7 +65989,7 @@ _sk_parametric_g_sse2:
.byte 15,41,93,232 // movaps %xmm3,-0x18(%ebp)
.byte 15,40,218 // movaps %xmm2,%xmm3
.byte 15,40,208 // movaps %xmm0,%xmm2
- .byte 232,0,0,0,0 // call 36e6 <_sk_parametric_g_sse2+0x15>
+ .byte 232,0,0,0,0 // call 36ea <_sk_parametric_g_sse2+0x15>
.byte 90 // pop %edx
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 139,8 // mov (%eax),%ecx
@@ -65990,15 +66009,15 @@ _sk_parametric_g_sse2:
.byte 15,198,237,0 // shufps $0x0,%xmm5,%xmm5
.byte 15,88,245 // addps %xmm5,%xmm6
.byte 15,91,238 // cvtdq2ps %xmm6,%xmm5
- .byte 15,89,170,106,152,0,0 // mulps 0x986a(%edx),%xmm5
- .byte 15,84,178,122,152,0,0 // andps 0x987a(%edx),%xmm6
- .byte 15,86,178,218,149,0,0 // orps 0x95da(%edx),%xmm6
- .byte 15,88,170,138,152,0,0 // addps 0x988a(%edx),%xmm5
- .byte 15,40,186,154,152,0,0 // movaps 0x989a(%edx),%xmm7
+ .byte 15,89,170,134,152,0,0 // mulps 0x9886(%edx),%xmm5
+ .byte 15,84,178,150,152,0,0 // andps 0x9896(%edx),%xmm6
+ .byte 15,86,178,230,149,0,0 // orps 0x95e6(%edx),%xmm6
+ .byte 15,88,170,166,152,0,0 // addps 0x98a6(%edx),%xmm5
+ .byte 15,40,186,182,152,0,0 // movaps 0x98b6(%edx),%xmm7
.byte 15,89,254 // mulps %xmm6,%xmm7
.byte 15,92,239 // subps %xmm7,%xmm5
- .byte 15,88,178,170,152,0,0 // addps 0x98aa(%edx),%xmm6
- .byte 15,40,186,186,152,0,0 // movaps 0x98ba(%edx),%xmm7
+ .byte 15,88,178,198,152,0,0 // addps 0x98c6(%edx),%xmm6
+ .byte 15,40,186,214,152,0,0 // movaps 0x98d6(%edx),%xmm7
.byte 15,94,254 // divps %xmm6,%xmm7
.byte 243,15,16,49 // movss (%ecx),%xmm6
.byte 15,198,246,0 // shufps $0x0,%xmm6,%xmm6
@@ -66008,21 +66027,21 @@ _sk_parametric_g_sse2:
.byte 15,91,254 // cvtdq2ps %xmm6,%xmm7
.byte 15,40,197 // movaps %xmm5,%xmm0
.byte 15,194,199,1 // cmpltps %xmm7,%xmm0
- .byte 15,40,178,234,149,0,0 // movaps 0x95ea(%edx),%xmm6
+ .byte 15,40,178,246,149,0,0 // movaps 0x95f6(%edx),%xmm6
.byte 15,84,198 // andps %xmm6,%xmm0
.byte 15,92,248 // subps %xmm0,%xmm7
.byte 15,40,197 // movaps %xmm5,%xmm0
.byte 15,92,199 // subps %xmm7,%xmm0
- .byte 15,88,170,202,152,0,0 // addps 0x98ca(%edx),%xmm5
- .byte 15,40,186,218,152,0,0 // movaps 0x98da(%edx),%xmm7
+ .byte 15,88,170,230,152,0,0 // addps 0x98e6(%edx),%xmm5
+ .byte 15,40,186,246,152,0,0 // movaps 0x98f6(%edx),%xmm7
.byte 15,89,248 // mulps %xmm0,%xmm7
.byte 15,92,239 // subps %xmm7,%xmm5
- .byte 15,40,186,234,152,0,0 // movaps 0x98ea(%edx),%xmm7
+ .byte 15,40,186,6,153,0,0 // movaps 0x9906(%edx),%xmm7
.byte 15,92,248 // subps %xmm0,%xmm7
- .byte 15,40,130,250,152,0,0 // movaps 0x98fa(%edx),%xmm0
+ .byte 15,40,130,22,153,0,0 // movaps 0x9916(%edx),%xmm0
.byte 15,94,199 // divps %xmm7,%xmm0
.byte 15,88,197 // addps %xmm5,%xmm0
- .byte 15,89,130,10,153,0,0 // mulps 0x990a(%edx),%xmm0
+ .byte 15,89,130,38,153,0,0 // mulps 0x9926(%edx),%xmm0
.byte 102,15,91,192 // cvtps2dq %xmm0,%xmm0
.byte 243,15,16,105,20 // movss 0x14(%ecx),%xmm5
.byte 15,198,237,0 // shufps $0x0,%xmm5,%xmm5
@@ -66055,7 +66074,7 @@ _sk_parametric_b_sse2:
.byte 15,41,93,232 // movaps %xmm3,-0x18(%ebp)
.byte 15,40,217 // movaps %xmm1,%xmm3
.byte 15,40,200 // movaps %xmm0,%xmm1
- .byte 232,0,0,0,0 // call 381a <_sk_parametric_b_sse2+0x15>
+ .byte 232,0,0,0,0 // call 381e <_sk_parametric_b_sse2+0x15>
.byte 90 // pop %edx
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 139,8 // mov (%eax),%ecx
@@ -66075,15 +66094,15 @@ _sk_parametric_b_sse2:
.byte 15,198,237,0 // shufps $0x0,%xmm5,%xmm5
.byte 15,88,245 // addps %xmm5,%xmm6
.byte 15,91,238 // cvtdq2ps %xmm6,%xmm5
- .byte 15,89,170,54,151,0,0 // mulps 0x9736(%edx),%xmm5
- .byte 15,84,178,70,151,0,0 // andps 0x9746(%edx),%xmm6
- .byte 15,86,178,166,148,0,0 // orps 0x94a6(%edx),%xmm6
- .byte 15,88,170,86,151,0,0 // addps 0x9756(%edx),%xmm5
- .byte 15,40,186,102,151,0,0 // movaps 0x9766(%edx),%xmm7
+ .byte 15,89,170,82,151,0,0 // mulps 0x9752(%edx),%xmm5
+ .byte 15,84,178,98,151,0,0 // andps 0x9762(%edx),%xmm6
+ .byte 15,86,178,178,148,0,0 // orps 0x94b2(%edx),%xmm6
+ .byte 15,88,170,114,151,0,0 // addps 0x9772(%edx),%xmm5
+ .byte 15,40,186,130,151,0,0 // movaps 0x9782(%edx),%xmm7
.byte 15,89,254 // mulps %xmm6,%xmm7
.byte 15,92,239 // subps %xmm7,%xmm5
- .byte 15,88,178,118,151,0,0 // addps 0x9776(%edx),%xmm6
- .byte 15,40,186,134,151,0,0 // movaps 0x9786(%edx),%xmm7
+ .byte 15,88,178,146,151,0,0 // addps 0x9792(%edx),%xmm6
+ .byte 15,40,186,162,151,0,0 // movaps 0x97a2(%edx),%xmm7
.byte 15,94,254 // divps %xmm6,%xmm7
.byte 243,15,16,49 // movss (%ecx),%xmm6
.byte 15,198,246,0 // shufps $0x0,%xmm6,%xmm6
@@ -66093,21 +66112,21 @@ _sk_parametric_b_sse2:
.byte 15,91,254 // cvtdq2ps %xmm6,%xmm7
.byte 15,40,197 // movaps %xmm5,%xmm0
.byte 15,194,199,1 // cmpltps %xmm7,%xmm0
- .byte 15,40,178,182,148,0,0 // movaps 0x94b6(%edx),%xmm6
+ .byte 15,40,178,194,148,0,0 // movaps 0x94c2(%edx),%xmm6
.byte 15,84,198 // andps %xmm6,%xmm0
.byte 15,92,248 // subps %xmm0,%xmm7
.byte 15,40,197 // movaps %xmm5,%xmm0
.byte 15,92,199 // subps %xmm7,%xmm0
- .byte 15,88,170,150,151,0,0 // addps 0x9796(%edx),%xmm5
- .byte 15,40,186,166,151,0,0 // movaps 0x97a6(%edx),%xmm7
+ .byte 15,88,170,178,151,0,0 // addps 0x97b2(%edx),%xmm5
+ .byte 15,40,186,194,151,0,0 // movaps 0x97c2(%edx),%xmm7
.byte 15,89,248 // mulps %xmm0,%xmm7
.byte 15,92,239 // subps %xmm7,%xmm5
- .byte 15,40,186,182,151,0,0 // movaps 0x97b6(%edx),%xmm7
+ .byte 15,40,186,210,151,0,0 // movaps 0x97d2(%edx),%xmm7
.byte 15,92,248 // subps %xmm0,%xmm7
- .byte 15,40,130,198,151,0,0 // movaps 0x97c6(%edx),%xmm0
+ .byte 15,40,130,226,151,0,0 // movaps 0x97e2(%edx),%xmm0
.byte 15,94,199 // divps %xmm7,%xmm0
.byte 15,88,197 // addps %xmm5,%xmm0
- .byte 15,89,130,214,151,0,0 // mulps 0x97d6(%edx),%xmm0
+ .byte 15,89,130,242,151,0,0 // mulps 0x97f2(%edx),%xmm0
.byte 102,15,91,192 // cvtps2dq %xmm0,%xmm0
.byte 243,15,16,105,20 // movss 0x14(%ecx),%xmm5
.byte 15,198,237,0 // shufps $0x0,%xmm5,%xmm5
@@ -66140,7 +66159,7 @@ _sk_parametric_a_sse2:
.byte 15,41,85,232 // movaps %xmm2,-0x18(%ebp)
.byte 15,40,209 // movaps %xmm1,%xmm2
.byte 15,40,200 // movaps %xmm0,%xmm1
- .byte 232,0,0,0,0 // call 394e <_sk_parametric_a_sse2+0x15>
+ .byte 232,0,0,0,0 // call 3952 <_sk_parametric_a_sse2+0x15>
.byte 90 // pop %edx
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 139,8 // mov (%eax),%ecx
@@ -66160,15 +66179,15 @@ _sk_parametric_a_sse2:
.byte 15,198,237,0 // shufps $0x0,%xmm5,%xmm5
.byte 15,88,245 // addps %xmm5,%xmm6
.byte 15,91,238 // cvtdq2ps %xmm6,%xmm5
- .byte 15,89,170,2,150,0,0 // mulps 0x9602(%edx),%xmm5
- .byte 15,84,178,18,150,0,0 // andps 0x9612(%edx),%xmm6
- .byte 15,86,178,114,147,0,0 // orps 0x9372(%edx),%xmm6
- .byte 15,88,170,34,150,0,0 // addps 0x9622(%edx),%xmm5
- .byte 15,40,186,50,150,0,0 // movaps 0x9632(%edx),%xmm7
+ .byte 15,89,170,30,150,0,0 // mulps 0x961e(%edx),%xmm5
+ .byte 15,84,178,46,150,0,0 // andps 0x962e(%edx),%xmm6
+ .byte 15,86,178,126,147,0,0 // orps 0x937e(%edx),%xmm6
+ .byte 15,88,170,62,150,0,0 // addps 0x963e(%edx),%xmm5
+ .byte 15,40,186,78,150,0,0 // movaps 0x964e(%edx),%xmm7
.byte 15,89,254 // mulps %xmm6,%xmm7
.byte 15,92,239 // subps %xmm7,%xmm5
- .byte 15,88,178,66,150,0,0 // addps 0x9642(%edx),%xmm6
- .byte 15,40,186,82,150,0,0 // movaps 0x9652(%edx),%xmm7
+ .byte 15,88,178,94,150,0,0 // addps 0x965e(%edx),%xmm6
+ .byte 15,40,186,110,150,0,0 // movaps 0x966e(%edx),%xmm7
.byte 15,94,254 // divps %xmm6,%xmm7
.byte 243,15,16,49 // movss (%ecx),%xmm6
.byte 15,198,246,0 // shufps $0x0,%xmm6,%xmm6
@@ -66178,21 +66197,21 @@ _sk_parametric_a_sse2:
.byte 15,91,254 // cvtdq2ps %xmm6,%xmm7
.byte 15,40,197 // movaps %xmm5,%xmm0
.byte 15,194,199,1 // cmpltps %xmm7,%xmm0
- .byte 15,40,178,130,147,0,0 // movaps 0x9382(%edx),%xmm6
+ .byte 15,40,178,142,147,0,0 // movaps 0x938e(%edx),%xmm6
.byte 15,84,198 // andps %xmm6,%xmm0
.byte 15,92,248 // subps %xmm0,%xmm7
.byte 15,40,197 // movaps %xmm5,%xmm0
.byte 15,92,199 // subps %xmm7,%xmm0
- .byte 15,88,170,98,150,0,0 // addps 0x9662(%edx),%xmm5
- .byte 15,40,186,114,150,0,0 // movaps 0x9672(%edx),%xmm7
+ .byte 15,88,170,126,150,0,0 // addps 0x967e(%edx),%xmm5
+ .byte 15,40,186,142,150,0,0 // movaps 0x968e(%edx),%xmm7
.byte 15,89,248 // mulps %xmm0,%xmm7
.byte 15,92,239 // subps %xmm7,%xmm5
- .byte 15,40,186,130,150,0,0 // movaps 0x9682(%edx),%xmm7
+ .byte 15,40,186,158,150,0,0 // movaps 0x969e(%edx),%xmm7
.byte 15,92,248 // subps %xmm0,%xmm7
- .byte 15,40,130,146,150,0,0 // movaps 0x9692(%edx),%xmm0
+ .byte 15,40,130,174,150,0,0 // movaps 0x96ae(%edx),%xmm0
.byte 15,94,199 // divps %xmm7,%xmm0
.byte 15,88,197 // addps %xmm5,%xmm0
- .byte 15,89,130,162,150,0,0 // mulps 0x96a2(%edx),%xmm0
+ .byte 15,89,130,190,150,0,0 // mulps 0x96be(%edx),%xmm0
.byte 102,15,91,192 // cvtps2dq %xmm0,%xmm0
.byte 243,15,16,105,20 // movss 0x14(%ecx),%xmm5
.byte 15,198,237,0 // shufps $0x0,%xmm5,%xmm5
@@ -66224,18 +66243,18 @@ _sk_gamma_sse2:
.byte 131,236,40 // sub $0x28,%esp
.byte 15,41,93,216 // movaps %xmm3,-0x28(%ebp)
.byte 15,40,216 // movaps %xmm0,%xmm3
- .byte 232,0,0,0,0 // call 3a7f <_sk_gamma_sse2+0x12>
+ .byte 232,0,0,0,0 // call 3a83 <_sk_gamma_sse2+0x12>
.byte 88 // pop %eax
.byte 15,91,195 // cvtdq2ps %xmm3,%xmm0
- .byte 15,89,128,209,148,0,0 // mulps 0x94d1(%eax),%xmm0
- .byte 15,84,152,225,148,0,0 // andps 0x94e1(%eax),%xmm3
- .byte 15,86,152,65,146,0,0 // orps 0x9241(%eax),%xmm3
- .byte 15,88,128,241,148,0,0 // addps 0x94f1(%eax),%xmm0
+ .byte 15,89,128,237,148,0,0 // mulps 0x94ed(%eax),%xmm0
+ .byte 15,84,152,253,148,0,0 // andps 0x94fd(%eax),%xmm3
+ .byte 15,86,152,77,146,0,0 // orps 0x924d(%eax),%xmm3
+ .byte 15,88,128,13,149,0,0 // addps 0x950d(%eax),%xmm0
.byte 15,40,227 // movaps %xmm3,%xmm4
- .byte 15,89,160,1,149,0,0 // mulps 0x9501(%eax),%xmm4
+ .byte 15,89,160,29,149,0,0 // mulps 0x951d(%eax),%xmm4
.byte 15,92,196 // subps %xmm4,%xmm0
- .byte 15,88,152,17,149,0,0 // addps 0x9511(%eax),%xmm3
- .byte 15,40,160,33,149,0,0 // movaps 0x9521(%eax),%xmm4
+ .byte 15,88,152,45,149,0,0 // addps 0x952d(%eax),%xmm3
+ .byte 15,40,160,61,149,0,0 // movaps 0x953d(%eax),%xmm4
.byte 15,94,227 // divps %xmm3,%xmm4
.byte 15,92,196 // subps %xmm4,%xmm0
.byte 139,77,12 // mov 0xc(%ebp),%ecx
@@ -66248,30 +66267,30 @@ _sk_gamma_sse2:
.byte 15,91,219 // cvtdq2ps %xmm3,%xmm3
.byte 15,40,224 // movaps %xmm0,%xmm4
.byte 15,194,227,1 // cmpltps %xmm3,%xmm4
- .byte 15,84,160,81,146,0,0 // andps 0x9251(%eax),%xmm4
+ .byte 15,84,160,93,146,0,0 // andps 0x925d(%eax),%xmm4
.byte 15,92,220 // subps %xmm4,%xmm3
.byte 15,40,224 // movaps %xmm0,%xmm4
.byte 15,92,227 // subps %xmm3,%xmm4
- .byte 15,88,128,49,149,0,0 // addps 0x9531(%eax),%xmm0
- .byte 15,40,176,81,149,0,0 // movaps 0x9551(%eax),%xmm6
+ .byte 15,88,128,77,149,0,0 // addps 0x954d(%eax),%xmm0
+ .byte 15,40,176,109,149,0,0 // movaps 0x956d(%eax),%xmm6
.byte 15,92,244 // subps %xmm4,%xmm6
- .byte 15,40,168,65,149,0,0 // movaps 0x9541(%eax),%xmm5
+ .byte 15,40,168,93,149,0,0 // movaps 0x955d(%eax),%xmm5
.byte 15,89,229 // mulps %xmm5,%xmm4
.byte 15,92,196 // subps %xmm4,%xmm0
- .byte 15,40,152,97,149,0,0 // movaps 0x9561(%eax),%xmm3
+ .byte 15,40,152,125,149,0,0 // movaps 0x957d(%eax),%xmm3
.byte 15,40,227 // movaps %xmm3,%xmm4
.byte 15,94,230 // divps %xmm6,%xmm4
.byte 15,88,224 // addps %xmm0,%xmm4
.byte 15,91,193 // cvtdq2ps %xmm1,%xmm0
- .byte 15,89,128,209,148,0,0 // mulps 0x94d1(%eax),%xmm0
- .byte 15,84,136,225,148,0,0 // andps 0x94e1(%eax),%xmm1
- .byte 15,86,136,65,146,0,0 // orps 0x9241(%eax),%xmm1
- .byte 15,88,128,241,148,0,0 // addps 0x94f1(%eax),%xmm0
+ .byte 15,89,128,237,148,0,0 // mulps 0x94ed(%eax),%xmm0
+ .byte 15,84,136,253,148,0,0 // andps 0x94fd(%eax),%xmm1
+ .byte 15,86,136,77,146,0,0 // orps 0x924d(%eax),%xmm1
+ .byte 15,88,128,13,149,0,0 // addps 0x950d(%eax),%xmm0
.byte 15,40,241 // movaps %xmm1,%xmm6
- .byte 15,89,176,1,149,0,0 // mulps 0x9501(%eax),%xmm6
+ .byte 15,89,176,29,149,0,0 // mulps 0x951d(%eax),%xmm6
.byte 15,92,198 // subps %xmm6,%xmm0
- .byte 15,88,136,17,149,0,0 // addps 0x9511(%eax),%xmm1
- .byte 15,40,176,33,149,0,0 // movaps 0x9521(%eax),%xmm6
+ .byte 15,88,136,45,149,0,0 // addps 0x952d(%eax),%xmm1
+ .byte 15,40,176,61,149,0,0 // movaps 0x953d(%eax),%xmm6
.byte 15,94,241 // divps %xmm1,%xmm6
.byte 15,92,198 // subps %xmm6,%xmm0
.byte 15,89,199 // mulps %xmm7,%xmm0
@@ -66279,12 +66298,12 @@ _sk_gamma_sse2:
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
.byte 15,40,240 // movaps %xmm0,%xmm6
.byte 15,194,241,1 // cmpltps %xmm1,%xmm6
- .byte 15,84,176,81,146,0,0 // andps 0x9251(%eax),%xmm6
+ .byte 15,84,176,93,146,0,0 // andps 0x925d(%eax),%xmm6
.byte 15,92,206 // subps %xmm6,%xmm1
.byte 15,40,240 // movaps %xmm0,%xmm6
.byte 15,92,241 // subps %xmm1,%xmm6
- .byte 15,88,128,49,149,0,0 // addps 0x9531(%eax),%xmm0
- .byte 15,40,184,81,149,0,0 // movaps 0x9551(%eax),%xmm7
+ .byte 15,88,128,77,149,0,0 // addps 0x954d(%eax),%xmm0
+ .byte 15,40,184,109,149,0,0 // movaps 0x956d(%eax),%xmm7
.byte 15,92,254 // subps %xmm6,%xmm7
.byte 15,89,245 // mulps %xmm5,%xmm6
.byte 15,92,198 // subps %xmm6,%xmm0
@@ -66292,15 +66311,15 @@ _sk_gamma_sse2:
.byte 15,94,207 // divps %xmm7,%xmm1
.byte 15,88,200 // addps %xmm0,%xmm1
.byte 15,91,194 // cvtdq2ps %xmm2,%xmm0
- .byte 15,89,128,209,148,0,0 // mulps 0x94d1(%eax),%xmm0
- .byte 15,84,144,225,148,0,0 // andps 0x94e1(%eax),%xmm2
- .byte 15,86,144,65,146,0,0 // orps 0x9241(%eax),%xmm2
- .byte 15,88,128,241,148,0,0 // addps 0x94f1(%eax),%xmm0
- .byte 15,40,176,1,149,0,0 // movaps 0x9501(%eax),%xmm6
+ .byte 15,89,128,237,148,0,0 // mulps 0x94ed(%eax),%xmm0
+ .byte 15,84,144,253,148,0,0 // andps 0x94fd(%eax),%xmm2
+ .byte 15,86,144,77,146,0,0 // orps 0x924d(%eax),%xmm2
+ .byte 15,88,128,13,149,0,0 // addps 0x950d(%eax),%xmm0
+ .byte 15,40,176,29,149,0,0 // movaps 0x951d(%eax),%xmm6
.byte 15,89,242 // mulps %xmm2,%xmm6
.byte 15,92,198 // subps %xmm6,%xmm0
- .byte 15,88,144,17,149,0,0 // addps 0x9511(%eax),%xmm2
- .byte 15,40,176,33,149,0,0 // movaps 0x9521(%eax),%xmm6
+ .byte 15,88,144,45,149,0,0 // addps 0x952d(%eax),%xmm2
+ .byte 15,40,176,61,149,0,0 // movaps 0x953d(%eax),%xmm6
.byte 15,94,242 // divps %xmm2,%xmm6
.byte 15,92,198 // subps %xmm6,%xmm0
.byte 15,89,69,232 // mulps -0x18(%ebp),%xmm0
@@ -66308,18 +66327,18 @@ _sk_gamma_sse2:
.byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
.byte 15,40,240 // movaps %xmm0,%xmm6
.byte 15,194,242,1 // cmpltps %xmm2,%xmm6
- .byte 15,84,176,81,146,0,0 // andps 0x9251(%eax),%xmm6
+ .byte 15,84,176,93,146,0,0 // andps 0x925d(%eax),%xmm6
.byte 15,92,214 // subps %xmm6,%xmm2
.byte 15,40,240 // movaps %xmm0,%xmm6
.byte 15,92,242 // subps %xmm2,%xmm6
- .byte 15,88,128,49,149,0,0 // addps 0x9531(%eax),%xmm0
+ .byte 15,88,128,77,149,0,0 // addps 0x954d(%eax),%xmm0
.byte 15,89,238 // mulps %xmm6,%xmm5
.byte 15,92,197 // subps %xmm5,%xmm0
- .byte 15,40,144,81,149,0,0 // movaps 0x9551(%eax),%xmm2
+ .byte 15,40,144,109,149,0,0 // movaps 0x956d(%eax),%xmm2
.byte 15,92,214 // subps %xmm6,%xmm2
.byte 15,94,218 // divps %xmm2,%xmm3
.byte 15,88,216 // addps %xmm0,%xmm3
- .byte 15,40,128,113,149,0,0 // movaps 0x9571(%eax),%xmm0
+ .byte 15,40,128,141,149,0,0 // movaps 0x958d(%eax),%xmm0
.byte 15,89,224 // mulps %xmm0,%xmm4
.byte 15,89,200 // mulps %xmm0,%xmm1
.byte 15,89,216 // mulps %xmm0,%xmm3
@@ -66346,31 +66365,31 @@ _sk_lab_to_xyz_sse2:
.byte 15,41,93,232 // movaps %xmm3,-0x18(%ebp)
.byte 15,40,218 // movaps %xmm2,%xmm3
.byte 15,40,208 // movaps %xmm0,%xmm2
- .byte 232,0,0,0,0 // call 3c67 <_sk_lab_to_xyz_sse2+0x15>
+ .byte 232,0,0,0,0 // call 3c6b <_sk_lab_to_xyz_sse2+0x15>
.byte 88 // pop %eax
- .byte 15,89,144,153,147,0,0 // mulps 0x9399(%eax),%xmm2
- .byte 15,40,160,57,145,0,0 // movaps 0x9139(%eax),%xmm4
+ .byte 15,89,144,181,147,0,0 // mulps 0x93b5(%eax),%xmm2
+ .byte 15,40,160,69,145,0,0 // movaps 0x9145(%eax),%xmm4
.byte 15,89,204 // mulps %xmm4,%xmm1
- .byte 15,40,168,169,147,0,0 // movaps 0x93a9(%eax),%xmm5
+ .byte 15,40,168,197,147,0,0 // movaps 0x93c5(%eax),%xmm5
.byte 15,88,205 // addps %xmm5,%xmm1
.byte 15,89,220 // mulps %xmm4,%xmm3
.byte 15,88,221 // addps %xmm5,%xmm3
- .byte 15,88,144,185,147,0,0 // addps 0x93b9(%eax),%xmm2
- .byte 15,89,144,201,147,0,0 // mulps 0x93c9(%eax),%xmm2
- .byte 15,89,136,217,147,0,0 // mulps 0x93d9(%eax),%xmm1
+ .byte 15,88,144,213,147,0,0 // addps 0x93d5(%eax),%xmm2
+ .byte 15,89,144,229,147,0,0 // mulps 0x93e5(%eax),%xmm2
+ .byte 15,89,136,245,147,0,0 // mulps 0x93f5(%eax),%xmm1
.byte 15,88,202 // addps %xmm2,%xmm1
- .byte 15,89,152,233,147,0,0 // mulps 0x93e9(%eax),%xmm3
+ .byte 15,89,152,5,148,0,0 // mulps 0x9405(%eax),%xmm3
.byte 15,40,234 // movaps %xmm2,%xmm5
.byte 15,92,235 // subps %xmm3,%xmm5
.byte 15,40,193 // movaps %xmm1,%xmm0
.byte 15,89,192 // mulps %xmm0,%xmm0
.byte 15,89,193 // mulps %xmm1,%xmm0
- .byte 15,40,152,249,147,0,0 // movaps 0x93f9(%eax),%xmm3
+ .byte 15,40,152,21,148,0,0 // movaps 0x9415(%eax),%xmm3
.byte 15,40,227 // movaps %xmm3,%xmm4
.byte 15,194,224,1 // cmpltps %xmm0,%xmm4
- .byte 15,40,176,9,148,0,0 // movaps 0x9409(%eax),%xmm6
+ .byte 15,40,176,37,148,0,0 // movaps 0x9425(%eax),%xmm6
.byte 15,88,206 // addps %xmm6,%xmm1
- .byte 15,40,184,25,148,0,0 // movaps 0x9419(%eax),%xmm7
+ .byte 15,40,184,53,148,0,0 // movaps 0x9435(%eax),%xmm7
.byte 15,89,207 // mulps %xmm7,%xmm1
.byte 15,84,196 // andps %xmm4,%xmm0
.byte 15,85,225 // andnps %xmm1,%xmm4
@@ -66395,8 +66414,8 @@ _sk_lab_to_xyz_sse2:
.byte 15,85,221 // andnps %xmm5,%xmm3
.byte 15,86,216 // orps %xmm0,%xmm3
.byte 139,77,12 // mov 0xc(%ebp),%ecx
- .byte 15,89,160,41,148,0,0 // mulps 0x9429(%eax),%xmm4
- .byte 15,89,152,57,148,0,0 // mulps 0x9439(%eax),%xmm3
+ .byte 15,89,160,69,148,0,0 // mulps 0x9445(%eax),%xmm4
+ .byte 15,89,152,85,148,0,0 // mulps 0x9455(%eax),%xmm3
.byte 141,65,4 // lea 0x4(%ecx),%eax
.byte 131,236,8 // sub $0x8,%esp
.byte 15,40,196 // movaps %xmm4,%xmm0
@@ -66419,7 +66438,7 @@ _sk_load_a8_sse2:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,12 // sub $0xc,%esp
- .byte 232,0,0,0,0 // call 3d57 <_sk_load_a8_sse2+0xe>
+ .byte 232,0,0,0,0 // call 3d5b <_sk_load_a8_sse2+0xe>
.byte 90 // pop %edx
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
@@ -66430,13 +66449,13 @@ _sk_load_a8_sse2:
.byte 139,89,8 // mov 0x8(%ecx),%ebx
.byte 133,219 // test %ebx,%ebx
.byte 139,57 // mov (%ecx),%edi
- .byte 117,60 // jne 3dae <_sk_load_a8_sse2+0x65>
+ .byte 117,60 // jne 3db2 <_sk_load_a8_sse2+0x65>
.byte 102,15,110,4,62 // movd (%esi,%edi,1),%xmm0
.byte 102,15,96,192 // punpcklbw %xmm0,%xmm0
.byte 102,15,97,192 // punpcklwd %xmm0,%xmm0
- .byte 102,15,219,130,57,144,0,0 // pand 0x9039(%edx),%xmm0
+ .byte 102,15,219,130,69,144,0,0 // pand 0x9045(%edx),%xmm0
.byte 15,91,216 // cvtdq2ps %xmm0,%xmm3
- .byte 15,89,154,105,145,0,0 // mulps 0x9169(%edx),%xmm3
+ .byte 15,89,154,133,145,0,0 // mulps 0x9185(%edx),%xmm3
.byte 141,80,8 // lea 0x8(%eax),%edx
.byte 131,236,8 // sub $0x8,%esp
.byte 15,87,192 // xorps %xmm0,%xmm0
@@ -66453,12 +66472,12 @@ _sk_load_a8_sse2:
.byte 195 // ret
.byte 128,227,3 // and $0x3,%bl
.byte 128,251,1 // cmp $0x1,%bl
- .byte 116,50 // je 3de8 <_sk_load_a8_sse2+0x9f>
+ .byte 116,50 // je 3dec <_sk_load_a8_sse2+0x9f>
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 128,251,2 // cmp $0x2,%bl
- .byte 116,19 // je 3dd2 <_sk_load_a8_sse2+0x89>
+ .byte 116,19 // je 3dd6 <_sk_load_a8_sse2+0x89>
.byte 128,251,3 // cmp $0x3,%bl
- .byte 117,187 // jne 3d7f <_sk_load_a8_sse2+0x36>
+ .byte 117,187 // jne 3d83 <_sk_load_a8_sse2+0x36>
.byte 15,182,92,62,2 // movzbl 0x2(%esi,%edi,1),%ebx
.byte 102,15,110,195 // movd %ebx,%xmm0
.byte 102,15,112,192,69 // pshufd $0x45,%xmm0,%xmm0
@@ -66467,10 +66486,10 @@ _sk_load_a8_sse2:
.byte 102,15,96,200 // punpcklbw %xmm0,%xmm1
.byte 102,15,97,200 // punpcklwd %xmm0,%xmm1
.byte 242,15,16,193 // movsd %xmm1,%xmm0
- .byte 235,151 // jmp 3d7f <_sk_load_a8_sse2+0x36>
+ .byte 235,151 // jmp 3d83 <_sk_load_a8_sse2+0x36>
.byte 15,182,52,62 // movzbl (%esi,%edi,1),%esi
.byte 102,15,110,198 // movd %esi,%xmm0
- .byte 235,141 // jmp 3d7f <_sk_load_a8_sse2+0x36>
+ .byte 235,141 // jmp 3d83 <_sk_load_a8_sse2+0x36>
HIDDEN _sk_load_a8_dst_sse2
.globl _sk_load_a8_dst_sse2
@@ -66495,15 +66514,15 @@ _sk_load_a8_dst_sse2:
.byte 102,15,127,97,32 // movdqa %xmm4,0x20(%ecx)
.byte 102,15,127,97,16 // movdqa %xmm4,0x10(%ecx)
.byte 133,219 // test %ebx,%ebx
- .byte 232,0,0,0,0 // call 3e2b <_sk_load_a8_dst_sse2+0x39>
+ .byte 232,0,0,0,0 // call 3e2f <_sk_load_a8_dst_sse2+0x39>
.byte 90 // pop %edx
- .byte 117,54 // jne 3e64 <_sk_load_a8_dst_sse2+0x72>
+ .byte 117,54 // jne 3e68 <_sk_load_a8_dst_sse2+0x72>
.byte 102,15,110,36,55 // movd (%edi,%esi,1),%xmm4
.byte 102,15,96,224 // punpcklbw %xmm0,%xmm4
.byte 102,15,97,224 // punpcklwd %xmm0,%xmm4
- .byte 102,15,219,162,101,143,0,0 // pand 0x8f65(%edx),%xmm4
+ .byte 102,15,219,162,113,143,0,0 // pand 0x8f71(%edx),%xmm4
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
- .byte 15,89,162,149,144,0,0 // mulps 0x9095(%edx),%xmm4
+ .byte 15,89,162,177,144,0,0 // mulps 0x90b1(%edx),%xmm4
.byte 15,41,97,64 // movaps %xmm4,0x40(%ecx)
.byte 141,80,8 // lea 0x8(%eax),%edx
.byte 131,236,8 // sub $0x8,%esp
@@ -66518,11 +66537,11 @@ _sk_load_a8_dst_sse2:
.byte 195 // ret
.byte 128,227,3 // and $0x3,%bl
.byte 128,251,1 // cmp $0x1,%bl
- .byte 116,46 // je 3e9a <_sk_load_a8_dst_sse2+0xa8>
+ .byte 116,46 // je 3e9e <_sk_load_a8_dst_sse2+0xa8>
.byte 128,251,2 // cmp $0x2,%bl
- .byte 116,19 // je 3e84 <_sk_load_a8_dst_sse2+0x92>
+ .byte 116,19 // je 3e88 <_sk_load_a8_dst_sse2+0x92>
.byte 128,251,3 // cmp $0x3,%bl
- .byte 117,197 // jne 3e3b <_sk_load_a8_dst_sse2+0x49>
+ .byte 117,197 // jne 3e3f <_sk_load_a8_dst_sse2+0x49>
.byte 15,182,92,55,2 // movzbl 0x2(%edi,%esi,1),%ebx
.byte 102,15,110,227 // movd %ebx,%xmm4
.byte 102,15,112,228,69 // pshufd $0x45,%xmm4,%xmm4
@@ -66531,10 +66550,10 @@ _sk_load_a8_dst_sse2:
.byte 102,15,96,232 // punpcklbw %xmm0,%xmm5
.byte 102,15,97,232 // punpcklwd %xmm0,%xmm5
.byte 242,15,16,229 // movsd %xmm5,%xmm4
- .byte 235,161 // jmp 3e3b <_sk_load_a8_dst_sse2+0x49>
+ .byte 235,161 // jmp 3e3f <_sk_load_a8_dst_sse2+0x49>
.byte 15,182,52,55 // movzbl (%edi,%esi,1),%esi
.byte 102,15,110,230 // movd %esi,%xmm4
- .byte 235,151 // jmp 3e3b <_sk_load_a8_dst_sse2+0x49>
+ .byte 235,151 // jmp 3e3f <_sk_load_a8_dst_sse2+0x49>
HIDDEN _sk_gather_a8_sse2
.globl _sk_gather_a8_sse2
@@ -66588,13 +66607,13 @@ _sk_gather_a8_sse2:
.byte 9,202 // or %ecx,%edx
.byte 102,15,110,194 // movd %edx,%xmm0
.byte 102,15,196,199,1 // pinsrw $0x1,%edi,%xmm0
- .byte 232,0,0,0,0 // call 3f58 <_sk_gather_a8_sse2+0xb4>
+ .byte 232,0,0,0,0 // call 3f5c <_sk_gather_a8_sse2+0xb4>
.byte 89 // pop %ecx
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 102,15,96,193 // punpcklbw %xmm1,%xmm0
.byte 102,15,97,193 // punpcklwd %xmm1,%xmm0
.byte 15,91,216 // cvtdq2ps %xmm0,%xmm3
- .byte 15,89,153,104,143,0,0 // mulps 0x8f68(%ecx),%xmm3
+ .byte 15,89,153,132,143,0,0 // mulps 0x8f84(%ecx),%xmm3
.byte 141,72,8 // lea 0x8(%eax),%ecx
.byte 131,236,8 // sub $0x8,%esp
.byte 15,87,192 // xorps %xmm0,%xmm0
@@ -66619,7 +66638,7 @@ _sk_store_a8_sse2:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,12 // sub $0xc,%esp
- .byte 232,0,0,0,0 // call 3f9c <_sk_store_a8_sse2+0xe>
+ .byte 232,0,0,0,0 // call 3fa0 <_sk_store_a8_sse2+0xe>
.byte 94 // pop %esi
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
@@ -66628,7 +66647,7 @@ _sk_store_a8_sse2:
.byte 15,175,81,4 // imul 0x4(%ecx),%edx
.byte 3,23 // add (%edi),%edx
.byte 139,89,8 // mov 0x8(%ecx),%ebx
- .byte 15,40,166,4,142,0,0 // movaps 0x8e04(%esi),%xmm4
+ .byte 15,40,166,16,142,0,0 // movaps 0x8e10(%esi),%xmm4
.byte 15,89,227 // mulps %xmm3,%xmm4
.byte 102,15,91,228 // cvtps2dq %xmm4,%xmm4
.byte 102,15,114,244,16 // pslld $0x10,%xmm4
@@ -66637,7 +66656,7 @@ _sk_store_a8_sse2:
.byte 102,15,103,224 // packuswb %xmm0,%xmm4
.byte 133,219 // test %ebx,%ebx
.byte 139,57 // mov (%ecx),%edi
- .byte 117,26 // jne 3ff1 <_sk_store_a8_sse2+0x63>
+ .byte 117,26 // jne 3ff5 <_sk_store_a8_sse2+0x63>
.byte 102,15,126,230 // movd %xmm4,%esi
.byte 137,52,58 // mov %esi,(%edx,%edi,1)
.byte 141,80,8 // lea 0x8(%eax),%edx
@@ -66655,24 +66674,24 @@ _sk_store_a8_sse2:
.byte 102,15,97,224 // punpcklwd %xmm0,%xmm4
.byte 128,227,3 // and $0x3,%bl
.byte 128,251,1 // cmp $0x1,%bl
- .byte 116,54 // je 4037 <_sk_store_a8_sse2+0xa9>
+ .byte 116,54 // je 403b <_sk_store_a8_sse2+0xa9>
.byte 128,251,2 // cmp $0x2,%bl
- .byte 116,14 // je 4014 <_sk_store_a8_sse2+0x86>
+ .byte 116,14 // je 4018 <_sk_store_a8_sse2+0x86>
.byte 128,251,3 // cmp $0x3,%bl
- .byte 117,211 // jne 3fde <_sk_store_a8_sse2+0x50>
+ .byte 117,211 // jne 3fe2 <_sk_store_a8_sse2+0x50>
.byte 102,15,197,220,4 // pextrw $0x4,%xmm4,%ebx
.byte 136,92,58,2 // mov %bl,0x2(%edx,%edi,1)
.byte 102,15,112,228,212 // pshufd $0xd4,%xmm4,%xmm4
- .byte 102,15,219,166,20,145,0,0 // pand 0x9114(%esi),%xmm4
+ .byte 102,15,219,166,48,145,0,0 // pand 0x9130(%esi),%xmm4
.byte 102,15,103,228 // packuswb %xmm4,%xmm4
.byte 102,15,103,228 // packuswb %xmm4,%xmm4
.byte 102,15,103,228 // packuswb %xmm4,%xmm4
.byte 102,15,126,230 // movd %xmm4,%esi
.byte 102,137,52,58 // mov %si,(%edx,%edi,1)
- .byte 235,167 // jmp 3fde <_sk_store_a8_sse2+0x50>
+ .byte 235,167 // jmp 3fe2 <_sk_store_a8_sse2+0x50>
.byte 102,15,126,227 // movd %xmm4,%ebx
.byte 136,28,58 // mov %bl,(%edx,%edi,1)
- .byte 235,158 // jmp 3fde <_sk_store_a8_sse2+0x50>
+ .byte 235,158 // jmp 3fe2 <_sk_store_a8_sse2+0x50>
HIDDEN _sk_load_g8_sse2
.globl _sk_load_g8_sse2
@@ -66684,7 +66703,7 @@ _sk_load_g8_sse2:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,12 // sub $0xc,%esp
- .byte 232,0,0,0,0 // call 404e <_sk_load_g8_sse2+0xe>
+ .byte 232,0,0,0,0 // call 4052 <_sk_load_g8_sse2+0xe>
.byte 90 // pop %edx
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
@@ -66695,16 +66714,16 @@ _sk_load_g8_sse2:
.byte 139,89,8 // mov 0x8(%ecx),%ebx
.byte 133,219 // test %ebx,%ebx
.byte 139,57 // mov (%ecx),%edi
- .byte 117,63 // jne 40a8 <_sk_load_g8_sse2+0x68>
+ .byte 117,63 // jne 40ac <_sk_load_g8_sse2+0x68>
.byte 102,15,110,4,62 // movd (%esi,%edi,1),%xmm0
.byte 102,15,96,192 // punpcklbw %xmm0,%xmm0
.byte 102,15,97,192 // punpcklwd %xmm0,%xmm0
- .byte 102,15,219,130,66,141,0,0 // pand 0x8d42(%edx),%xmm0
+ .byte 102,15,219,130,78,141,0,0 // pand 0x8d4e(%edx),%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,89,130,114,142,0,0 // mulps 0x8e72(%edx),%xmm0
+ .byte 15,89,130,142,142,0,0 // mulps 0x8e8e(%edx),%xmm0
.byte 141,112,8 // lea 0x8(%eax),%esi
.byte 131,236,8 // sub $0x8,%esp
- .byte 15,40,154,130,140,0,0 // movaps 0x8c82(%edx),%xmm3
+ .byte 15,40,154,142,140,0,0 // movaps 0x8c8e(%edx),%xmm3
.byte 15,40,200 // movaps %xmm0,%xmm1
.byte 15,40,208 // movaps %xmm0,%xmm2
.byte 86 // push %esi
@@ -66718,12 +66737,12 @@ _sk_load_g8_sse2:
.byte 195 // ret
.byte 128,227,3 // and $0x3,%bl
.byte 128,251,1 // cmp $0x1,%bl
- .byte 116,50 // je 40e2 <_sk_load_g8_sse2+0xa2>
+ .byte 116,50 // je 40e6 <_sk_load_g8_sse2+0xa2>
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 128,251,2 // cmp $0x2,%bl
- .byte 116,19 // je 40cc <_sk_load_g8_sse2+0x8c>
+ .byte 116,19 // je 40d0 <_sk_load_g8_sse2+0x8c>
.byte 128,251,3 // cmp $0x3,%bl
- .byte 117,184 // jne 4076 <_sk_load_g8_sse2+0x36>
+ .byte 117,184 // jne 407a <_sk_load_g8_sse2+0x36>
.byte 15,182,92,62,2 // movzbl 0x2(%esi,%edi,1),%ebx
.byte 102,15,110,195 // movd %ebx,%xmm0
.byte 102,15,112,192,69 // pshufd $0x45,%xmm0,%xmm0
@@ -66732,10 +66751,10 @@ _sk_load_g8_sse2:
.byte 102,15,96,200 // punpcklbw %xmm0,%xmm1
.byte 102,15,97,200 // punpcklwd %xmm0,%xmm1
.byte 242,15,16,193 // movsd %xmm1,%xmm0
- .byte 235,148 // jmp 4076 <_sk_load_g8_sse2+0x36>
+ .byte 235,148 // jmp 407a <_sk_load_g8_sse2+0x36>
.byte 15,182,52,62 // movzbl (%esi,%edi,1),%esi
.byte 102,15,110,198 // movd %esi,%xmm0
- .byte 235,138 // jmp 4076 <_sk_load_g8_sse2+0x36>
+ .byte 235,138 // jmp 407a <_sk_load_g8_sse2+0x36>
HIDDEN _sk_load_g8_dst_sse2
.globl _sk_load_g8_dst_sse2
@@ -66747,7 +66766,7 @@ _sk_load_g8_dst_sse2:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,12 // sub $0xc,%esp
- .byte 232,0,0,0,0 // call 40fa <_sk_load_g8_dst_sse2+0xe>
+ .byte 232,0,0,0,0 // call 40fe <_sk_load_g8_dst_sse2+0xe>
.byte 90 // pop %edx
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
@@ -66758,17 +66777,17 @@ _sk_load_g8_dst_sse2:
.byte 139,89,8 // mov 0x8(%ecx),%ebx
.byte 133,219 // test %ebx,%ebx
.byte 139,57 // mov (%ecx),%edi
- .byte 117,73 // jne 415e <_sk_load_g8_dst_sse2+0x72>
+ .byte 117,73 // jne 4162 <_sk_load_g8_dst_sse2+0x72>
.byte 102,15,110,36,62 // movd (%esi,%edi,1),%xmm4
.byte 102,15,96,224 // punpcklbw %xmm0,%xmm4
.byte 102,15,97,224 // punpcklwd %xmm0,%xmm4
- .byte 102,15,219,162,150,140,0,0 // pand 0x8c96(%edx),%xmm4
+ .byte 102,15,219,162,162,140,0,0 // pand 0x8ca2(%edx),%xmm4
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
- .byte 15,89,162,198,141,0,0 // mulps 0x8dc6(%edx),%xmm4
+ .byte 15,89,162,226,141,0,0 // mulps 0x8de2(%edx),%xmm4
.byte 15,41,97,48 // movaps %xmm4,0x30(%ecx)
.byte 15,41,97,32 // movaps %xmm4,0x20(%ecx)
.byte 15,41,97,16 // movaps %xmm4,0x10(%ecx)
- .byte 15,40,162,214,139,0,0 // movaps 0x8bd6(%edx),%xmm4
+ .byte 15,40,162,226,139,0,0 // movaps 0x8be2(%edx),%xmm4
.byte 15,41,97,64 // movaps %xmm4,0x40(%ecx)
.byte 141,80,8 // lea 0x8(%eax),%edx
.byte 131,236,8 // sub $0x8,%esp
@@ -66783,12 +66802,12 @@ _sk_load_g8_dst_sse2:
.byte 195 // ret
.byte 128,227,3 // and $0x3,%bl
.byte 128,251,1 // cmp $0x1,%bl
- .byte 116,50 // je 4198 <_sk_load_g8_dst_sse2+0xac>
+ .byte 116,50 // je 419c <_sk_load_g8_dst_sse2+0xac>
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 128,251,2 // cmp $0x2,%bl
- .byte 116,19 // je 4182 <_sk_load_g8_dst_sse2+0x96>
+ .byte 116,19 // je 4186 <_sk_load_g8_dst_sse2+0x96>
.byte 128,251,3 // cmp $0x3,%bl
- .byte 117,174 // jne 4122 <_sk_load_g8_dst_sse2+0x36>
+ .byte 117,174 // jne 4126 <_sk_load_g8_dst_sse2+0x36>
.byte 15,182,92,62,2 // movzbl 0x2(%esi,%edi,1),%ebx
.byte 102,15,110,227 // movd %ebx,%xmm4
.byte 102,15,112,228,69 // pshufd $0x45,%xmm4,%xmm4
@@ -66797,10 +66816,10 @@ _sk_load_g8_dst_sse2:
.byte 102,15,96,232 // punpcklbw %xmm0,%xmm5
.byte 102,15,97,232 // punpcklwd %xmm0,%xmm5
.byte 242,15,16,229 // movsd %xmm5,%xmm4
- .byte 235,138 // jmp 4122 <_sk_load_g8_dst_sse2+0x36>
+ .byte 235,138 // jmp 4126 <_sk_load_g8_dst_sse2+0x36>
.byte 15,182,52,62 // movzbl (%esi,%edi,1),%esi
.byte 102,15,110,230 // movd %esi,%xmm4
- .byte 235,128 // jmp 4122 <_sk_load_g8_dst_sse2+0x36>
+ .byte 235,128 // jmp 4126 <_sk_load_g8_dst_sse2+0x36>
HIDDEN _sk_gather_g8_sse2
.globl _sk_gather_g8_sse2
@@ -66853,17 +66872,17 @@ _sk_gather_g8_sse2:
.byte 193,226,8 // shl $0x8,%edx
.byte 9,202 // or %ecx,%edx
.byte 102,15,110,194 // movd %edx,%xmm0
- .byte 232,0,0,0,0 // call 4251 <_sk_gather_g8_sse2+0xaf>
+ .byte 232,0,0,0,0 // call 4255 <_sk_gather_g8_sse2+0xaf>
.byte 89 // pop %ecx
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 102,15,196,199,1 // pinsrw $0x1,%edi,%xmm0
.byte 102,15,96,193 // punpcklbw %xmm1,%xmm0
.byte 102,15,97,193 // punpcklwd %xmm1,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,89,129,111,140,0,0 // mulps 0x8c6f(%ecx),%xmm0
+ .byte 15,89,129,139,140,0,0 // mulps 0x8c8b(%ecx),%xmm0
.byte 141,80,8 // lea 0x8(%eax),%edx
.byte 131,236,8 // sub $0x8,%esp
- .byte 15,40,153,127,138,0,0 // movaps 0x8a7f(%ecx),%xmm3
+ .byte 15,40,153,139,138,0,0 // movaps 0x8a8b(%ecx),%xmm3
.byte 15,40,200 // movaps %xmm0,%xmm1
.byte 15,40,208 // movaps %xmm0,%xmm2
.byte 82 // push %edx
@@ -66885,7 +66904,7 @@ _sk_load_565_sse2:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,12 // sub $0xc,%esp
- .byte 232,0,0,0,0 // call 429c <_sk_load_565_sse2+0xe>
+ .byte 232,0,0,0,0 // call 42a0 <_sk_load_565_sse2+0xe>
.byte 90 // pop %edx
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
@@ -66897,23 +66916,23 @@ _sk_load_565_sse2:
.byte 139,89,8 // mov 0x8(%ecx),%ebx
.byte 133,219 // test %ebx,%ebx
.byte 139,57 // mov (%ecx),%edi
- .byte 117,97 // jne 431a <_sk_load_565_sse2+0x8c>
+ .byte 117,97 // jne 431e <_sk_load_565_sse2+0x8c>
.byte 243,15,126,20,126 // movq (%esi,%edi,2),%xmm2
.byte 102,15,97,208 // punpcklwd %xmm0,%xmm2
- .byte 102,15,111,130,52,140,0,0 // movdqa 0x8c34(%edx),%xmm0
+ .byte 102,15,111,130,80,140,0,0 // movdqa 0x8c50(%edx),%xmm0
.byte 102,15,219,194 // pand %xmm2,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,89,130,68,140,0,0 // mulps 0x8c44(%edx),%xmm0
- .byte 102,15,111,138,84,140,0,0 // movdqa 0x8c54(%edx),%xmm1
+ .byte 15,89,130,96,140,0,0 // mulps 0x8c60(%edx),%xmm0
+ .byte 102,15,111,138,112,140,0,0 // movdqa 0x8c70(%edx),%xmm1
.byte 102,15,219,202 // pand %xmm2,%xmm1
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
- .byte 15,89,138,100,140,0,0 // mulps 0x8c64(%edx),%xmm1
- .byte 102,15,219,146,116,140,0,0 // pand 0x8c74(%edx),%xmm2
+ .byte 15,89,138,128,140,0,0 // mulps 0x8c80(%edx),%xmm1
+ .byte 102,15,219,146,144,140,0,0 // pand 0x8c90(%edx),%xmm2
.byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
- .byte 15,89,146,132,140,0,0 // mulps 0x8c84(%edx),%xmm2
+ .byte 15,89,146,160,140,0,0 // mulps 0x8ca0(%edx),%xmm2
.byte 141,112,8 // lea 0x8(%eax),%esi
.byte 131,236,8 // sub $0x8,%esp
- .byte 15,40,154,52,138,0,0 // movaps 0x8a34(%edx),%xmm3
+ .byte 15,40,154,64,138,0,0 // movaps 0x8a40(%edx),%xmm3
.byte 86 // push %esi
.byte 81 // push %ecx
.byte 255,80,4 // call *0x4(%eax)
@@ -66925,22 +66944,22 @@ _sk_load_565_sse2:
.byte 195 // ret
.byte 128,227,3 // and $0x3,%bl
.byte 128,251,1 // cmp $0x1,%bl
- .byte 116,47 // je 4351 <_sk_load_565_sse2+0xc3>
+ .byte 116,47 // je 4355 <_sk_load_565_sse2+0xc3>
.byte 102,15,239,210 // pxor %xmm2,%xmm2
.byte 128,251,2 // cmp $0x2,%bl
- .byte 116,19 // je 433e <_sk_load_565_sse2+0xb0>
+ .byte 116,19 // je 4342 <_sk_load_565_sse2+0xb0>
.byte 128,251,3 // cmp $0x3,%bl
- .byte 117,146 // jne 42c2 <_sk_load_565_sse2+0x34>
+ .byte 117,146 // jne 42c6 <_sk_load_565_sse2+0x34>
.byte 15,183,92,126,4 // movzwl 0x4(%esi,%edi,2),%ebx
.byte 102,15,110,195 // movd %ebx,%xmm0
.byte 102,15,112,208,69 // pshufd $0x45,%xmm0,%xmm2
.byte 102,15,110,4,126 // movd (%esi,%edi,2),%xmm0
.byte 242,15,112,192,212 // pshuflw $0xd4,%xmm0,%xmm0
.byte 242,15,16,208 // movsd %xmm0,%xmm2
- .byte 233,113,255,255,255 // jmp 42c2 <_sk_load_565_sse2+0x34>
+ .byte 233,113,255,255,255 // jmp 42c6 <_sk_load_565_sse2+0x34>
.byte 15,183,52,126 // movzwl (%esi,%edi,2),%esi
.byte 102,15,110,214 // movd %esi,%xmm2
- .byte 233,100,255,255,255 // jmp 42c2 <_sk_load_565_sse2+0x34>
+ .byte 233,100,255,255,255 // jmp 42c6 <_sk_load_565_sse2+0x34>
HIDDEN _sk_load_565_dst_sse2
.globl _sk_load_565_dst_sse2
@@ -66952,7 +66971,7 @@ _sk_load_565_dst_sse2:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,12 // sub $0xc,%esp
- .byte 232,0,0,0,0 // call 436c <_sk_load_565_dst_sse2+0xe>
+ .byte 232,0,0,0,0 // call 4370 <_sk_load_565_dst_sse2+0xe>
.byte 90 // pop %edx
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
@@ -66964,24 +66983,24 @@ _sk_load_565_dst_sse2:
.byte 139,89,8 // mov 0x8(%ecx),%ebx
.byte 133,219 // test %ebx,%ebx
.byte 139,57 // mov (%ecx),%edi
- .byte 117,113 // jne 43fa <_sk_load_565_dst_sse2+0x9c>
+ .byte 117,113 // jne 43fe <_sk_load_565_dst_sse2+0x9c>
.byte 243,15,126,36,126 // movq (%esi,%edi,2),%xmm4
.byte 102,15,97,224 // punpcklwd %xmm0,%xmm4
- .byte 102,15,111,170,100,139,0,0 // movdqa 0x8b64(%edx),%xmm5
+ .byte 102,15,111,170,128,139,0,0 // movdqa 0x8b80(%edx),%xmm5
.byte 102,15,219,236 // pand %xmm4,%xmm5
.byte 15,91,237 // cvtdq2ps %xmm5,%xmm5
- .byte 15,89,170,116,139,0,0 // mulps 0x8b74(%edx),%xmm5
+ .byte 15,89,170,144,139,0,0 // mulps 0x8b90(%edx),%xmm5
.byte 15,41,105,16 // movaps %xmm5,0x10(%ecx)
- .byte 102,15,111,170,132,139,0,0 // movdqa 0x8b84(%edx),%xmm5
+ .byte 102,15,111,170,160,139,0,0 // movdqa 0x8ba0(%edx),%xmm5
.byte 102,15,219,236 // pand %xmm4,%xmm5
.byte 15,91,237 // cvtdq2ps %xmm5,%xmm5
- .byte 15,89,170,148,139,0,0 // mulps 0x8b94(%edx),%xmm5
+ .byte 15,89,170,176,139,0,0 // mulps 0x8bb0(%edx),%xmm5
.byte 15,41,105,32 // movaps %xmm5,0x20(%ecx)
- .byte 102,15,219,162,164,139,0,0 // pand 0x8ba4(%edx),%xmm4
+ .byte 102,15,219,162,192,139,0,0 // pand 0x8bc0(%edx),%xmm4
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
- .byte 15,89,162,180,139,0,0 // mulps 0x8bb4(%edx),%xmm4
+ .byte 15,89,162,208,139,0,0 // mulps 0x8bd0(%edx),%xmm4
.byte 15,41,97,48 // movaps %xmm4,0x30(%ecx)
- .byte 15,40,162,100,137,0,0 // movaps 0x8964(%edx),%xmm4
+ .byte 15,40,162,112,137,0,0 // movaps 0x8970(%edx),%xmm4
.byte 15,41,97,64 // movaps %xmm4,0x40(%ecx)
.byte 141,80,8 // lea 0x8(%eax),%edx
.byte 131,236,8 // sub $0x8,%esp
@@ -66996,22 +67015,22 @@ _sk_load_565_dst_sse2:
.byte 195 // ret
.byte 128,227,3 // and $0x3,%bl
.byte 128,251,1 // cmp $0x1,%bl
- .byte 116,47 // je 4431 <_sk_load_565_dst_sse2+0xd3>
+ .byte 116,47 // je 4435 <_sk_load_565_dst_sse2+0xd3>
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 128,251,2 // cmp $0x2,%bl
- .byte 116,19 // je 441e <_sk_load_565_dst_sse2+0xc0>
+ .byte 116,19 // je 4422 <_sk_load_565_dst_sse2+0xc0>
.byte 128,251,3 // cmp $0x3,%bl
- .byte 117,130 // jne 4392 <_sk_load_565_dst_sse2+0x34>
+ .byte 117,130 // jne 4396 <_sk_load_565_dst_sse2+0x34>
.byte 15,183,92,126,4 // movzwl 0x4(%esi,%edi,2),%ebx
.byte 102,15,110,227 // movd %ebx,%xmm4
.byte 102,15,112,228,69 // pshufd $0x45,%xmm4,%xmm4
.byte 102,15,110,44,126 // movd (%esi,%edi,2),%xmm5
.byte 242,15,112,237,212 // pshuflw $0xd4,%xmm5,%xmm5
.byte 242,15,16,229 // movsd %xmm5,%xmm4
- .byte 233,97,255,255,255 // jmp 4392 <_sk_load_565_dst_sse2+0x34>
+ .byte 233,97,255,255,255 // jmp 4396 <_sk_load_565_dst_sse2+0x34>
.byte 15,183,52,126 // movzwl (%esi,%edi,2),%esi
.byte 102,15,110,230 // movd %esi,%xmm4
- .byte 233,84,255,255,255 // jmp 4392 <_sk_load_565_dst_sse2+0x34>
+ .byte 233,84,255,255,255 // jmp 4396 <_sk_load_565_dst_sse2+0x34>
HIDDEN _sk_gather_565_sse2
.globl _sk_gather_565_sse2
@@ -67061,25 +67080,25 @@ _sk_gather_565_sse2:
.byte 102,15,196,209,2 // pinsrw $0x2,%ecx,%xmm2
.byte 102,15,126,193 // movd %xmm0,%ecx
.byte 15,183,12,74 // movzwl (%edx,%ecx,2),%ecx
- .byte 232,0,0,0,0 // call 44ee <_sk_gather_565_sse2+0xb0>
+ .byte 232,0,0,0,0 // call 44f2 <_sk_gather_565_sse2+0xb0>
.byte 90 // pop %edx
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,15,196,209,3 // pinsrw $0x3,%ecx,%xmm2
.byte 102,15,97,208 // punpcklwd %xmm0,%xmm2
- .byte 102,15,111,130,226,137,0,0 // movdqa 0x89e2(%edx),%xmm0
+ .byte 102,15,111,130,254,137,0,0 // movdqa 0x89fe(%edx),%xmm0
.byte 102,15,219,194 // pand %xmm2,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,89,130,242,137,0,0 // mulps 0x89f2(%edx),%xmm0
- .byte 102,15,111,138,2,138,0,0 // movdqa 0x8a02(%edx),%xmm1
+ .byte 15,89,130,14,138,0,0 // mulps 0x8a0e(%edx),%xmm0
+ .byte 102,15,111,138,30,138,0,0 // movdqa 0x8a1e(%edx),%xmm1
.byte 102,15,219,202 // pand %xmm2,%xmm1
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
- .byte 15,89,138,18,138,0,0 // mulps 0x8a12(%edx),%xmm1
- .byte 102,15,219,146,34,138,0,0 // pand 0x8a22(%edx),%xmm2
+ .byte 15,89,138,46,138,0,0 // mulps 0x8a2e(%edx),%xmm1
+ .byte 102,15,219,146,62,138,0,0 // pand 0x8a3e(%edx),%xmm2
.byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
- .byte 15,89,146,50,138,0,0 // mulps 0x8a32(%edx),%xmm2
+ .byte 15,89,146,78,138,0,0 // mulps 0x8a4e(%edx),%xmm2
.byte 141,72,8 // lea 0x8(%eax),%ecx
.byte 131,236,8 // sub $0x8,%esp
- .byte 15,40,154,226,135,0,0 // movaps 0x87e2(%edx),%xmm3
+ .byte 15,40,154,238,135,0,0 // movaps 0x87ee(%edx),%xmm3
.byte 81 // push %ecx
.byte 255,117,8 // pushl 0x8(%ebp)
.byte 255,80,4 // call *0x4(%eax)
@@ -67097,7 +67116,7 @@ _sk_store_565_sse2:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,12 // sub $0xc,%esp
- .byte 232,0,0,0,0 // call 4561 <_sk_store_565_sse2+0xe>
+ .byte 232,0,0,0,0 // call 4565 <_sk_store_565_sse2+0xe>
.byte 95 // pop %edi
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
@@ -67107,8 +67126,8 @@ _sk_store_565_sse2:
.byte 1,210 // add %edx,%edx
.byte 3,22 // add (%esi),%edx
.byte 139,49 // mov (%ecx),%esi
- .byte 15,40,167,95,139,0,0 // movaps 0x8b5f(%edi),%xmm4
- .byte 15,40,175,111,139,0,0 // movaps 0x8b6f(%edi),%xmm5
+ .byte 15,40,167,123,139,0,0 // movaps 0x8b7b(%edi),%xmm4
+ .byte 15,40,175,139,139,0,0 // movaps 0x8b8b(%edi),%xmm5
.byte 139,89,8 // mov 0x8(%ecx),%ebx
.byte 15,40,240 // movaps %xmm0,%xmm6
.byte 15,89,244 // mulps %xmm4,%xmm6
@@ -67128,7 +67147,7 @@ _sk_store_565_sse2:
.byte 102,15,112,236,229 // pshufd $0xe5,%xmm4,%xmm5
.byte 102,15,126,109,236 // movd %xmm5,-0x14(%ebp)
.byte 133,219 // test %ebx,%ebx
- .byte 117,34 // jne 45f5 <_sk_store_565_sse2+0xa2>
+ .byte 117,34 // jne 45f9 <_sk_store_565_sse2+0xa2>
.byte 102,15,126,231 // movd %xmm4,%edi
.byte 102,15,126,235 // movd %xmm5,%ebx
.byte 137,60,114 // mov %edi,(%edx,%esi,2)
@@ -67148,20 +67167,20 @@ _sk_store_565_sse2:
.byte 102,15,97,224 // punpcklwd %xmm0,%xmm4
.byte 128,227,3 // and $0x3,%bl
.byte 128,251,1 // cmp $0x1,%bl
- .byte 116,37 // je 462b <_sk_store_565_sse2+0xd8>
+ .byte 116,37 // je 462f <_sk_store_565_sse2+0xd8>
.byte 128,251,2 // cmp $0x2,%bl
- .byte 116,15 // je 461a <_sk_store_565_sse2+0xc7>
+ .byte 116,15 // je 461e <_sk_store_565_sse2+0xc7>
.byte 128,251,3 // cmp $0x3,%bl
- .byte 117,210 // jne 45e2 <_sk_store_565_sse2+0x8f>
+ .byte 117,210 // jne 45e6 <_sk_store_565_sse2+0x8f>
.byte 102,15,197,252,4 // pextrw $0x4,%xmm4,%edi
.byte 102,137,124,114,4 // mov %di,0x4(%edx,%esi,2)
.byte 102,15,112,228,212 // pshufd $0xd4,%xmm4,%xmm4
.byte 242,15,112,228,232 // pshuflw $0xe8,%xmm4,%xmm4
.byte 102,15,126,36,114 // movd %xmm4,(%edx,%esi,2)
- .byte 235,183 // jmp 45e2 <_sk_store_565_sse2+0x8f>
+ .byte 235,183 // jmp 45e6 <_sk_store_565_sse2+0x8f>
.byte 102,15,126,231 // movd %xmm4,%edi
.byte 102,137,60,114 // mov %di,(%edx,%esi,2)
- .byte 235,173 // jmp 45e2 <_sk_store_565_sse2+0x8f>
+ .byte 235,173 // jmp 45e6 <_sk_store_565_sse2+0x8f>
HIDDEN _sk_load_4444_sse2
.globl _sk_load_4444_sse2
@@ -67173,7 +67192,7 @@ _sk_load_4444_sse2:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,12 // sub $0xc,%esp
- .byte 232,0,0,0,0 // call 4643 <_sk_load_4444_sse2+0xe>
+ .byte 232,0,0,0,0 // call 4647 <_sk_load_4444_sse2+0xe>
.byte 90 // pop %edx
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
@@ -67185,24 +67204,24 @@ _sk_load_4444_sse2:
.byte 139,89,8 // mov 0x8(%ecx),%ebx
.byte 133,219 // test %ebx,%ebx
.byte 139,57 // mov (%ecx),%edi
- .byte 117,112 // jne 46d0 <_sk_load_4444_sse2+0x9b>
+ .byte 117,112 // jne 46d4 <_sk_load_4444_sse2+0x9b>
.byte 243,15,126,28,126 // movq (%esi,%edi,2),%xmm3
.byte 102,15,97,216 // punpcklwd %xmm0,%xmm3
- .byte 102,15,111,130,157,138,0,0 // movdqa 0x8a9d(%edx),%xmm0
+ .byte 102,15,111,130,185,138,0,0 // movdqa 0x8ab9(%edx),%xmm0
.byte 102,15,219,195 // pand %xmm3,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,89,130,173,138,0,0 // mulps 0x8aad(%edx),%xmm0
- .byte 102,15,111,138,189,138,0,0 // movdqa 0x8abd(%edx),%xmm1
+ .byte 15,89,130,201,138,0,0 // mulps 0x8ac9(%edx),%xmm0
+ .byte 102,15,111,138,217,138,0,0 // movdqa 0x8ad9(%edx),%xmm1
.byte 102,15,219,203 // pand %xmm3,%xmm1
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
- .byte 15,89,138,205,138,0,0 // mulps 0x8acd(%edx),%xmm1
- .byte 102,15,111,146,221,138,0,0 // movdqa 0x8add(%edx),%xmm2
+ .byte 15,89,138,233,138,0,0 // mulps 0x8ae9(%edx),%xmm1
+ .byte 102,15,111,146,249,138,0,0 // movdqa 0x8af9(%edx),%xmm2
.byte 102,15,219,211 // pand %xmm3,%xmm2
.byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
- .byte 15,89,146,237,138,0,0 // mulps 0x8aed(%edx),%xmm2
- .byte 102,15,219,154,253,138,0,0 // pand 0x8afd(%edx),%xmm3
+ .byte 15,89,146,9,139,0,0 // mulps 0x8b09(%edx),%xmm2
+ .byte 102,15,219,154,25,139,0,0 // pand 0x8b19(%edx),%xmm3
.byte 15,91,219 // cvtdq2ps %xmm3,%xmm3
- .byte 15,89,154,13,139,0,0 // mulps 0x8b0d(%edx),%xmm3
+ .byte 15,89,154,41,139,0,0 // mulps 0x8b29(%edx),%xmm3
.byte 141,80,8 // lea 0x8(%eax),%edx
.byte 131,236,8 // sub $0x8,%esp
.byte 82 // push %edx
@@ -67216,22 +67235,22 @@ _sk_load_4444_sse2:
.byte 195 // ret
.byte 128,227,3 // and $0x3,%bl
.byte 128,251,1 // cmp $0x1,%bl
- .byte 116,47 // je 4707 <_sk_load_4444_sse2+0xd2>
+ .byte 116,47 // je 470b <_sk_load_4444_sse2+0xd2>
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 128,251,2 // cmp $0x2,%bl
- .byte 116,19 // je 46f4 <_sk_load_4444_sse2+0xbf>
+ .byte 116,19 // je 46f8 <_sk_load_4444_sse2+0xbf>
.byte 128,251,3 // cmp $0x3,%bl
- .byte 117,131 // jne 4669 <_sk_load_4444_sse2+0x34>
+ .byte 117,131 // jne 466d <_sk_load_4444_sse2+0x34>
.byte 15,183,92,126,4 // movzwl 0x4(%esi,%edi,2),%ebx
.byte 102,15,110,195 // movd %ebx,%xmm0
.byte 102,15,112,216,69 // pshufd $0x45,%xmm0,%xmm3
.byte 102,15,110,4,126 // movd (%esi,%edi,2),%xmm0
.byte 242,15,112,192,212 // pshuflw $0xd4,%xmm0,%xmm0
.byte 242,15,16,216 // movsd %xmm0,%xmm3
- .byte 233,98,255,255,255 // jmp 4669 <_sk_load_4444_sse2+0x34>
+ .byte 233,98,255,255,255 // jmp 466d <_sk_load_4444_sse2+0x34>
.byte 15,183,52,126 // movzwl (%esi,%edi,2),%esi
.byte 102,15,110,222 // movd %esi,%xmm3
- .byte 233,85,255,255,255 // jmp 4669 <_sk_load_4444_sse2+0x34>
+ .byte 233,85,255,255,255 // jmp 466d <_sk_load_4444_sse2+0x34>
HIDDEN _sk_load_4444_dst_sse2
.globl _sk_load_4444_dst_sse2
@@ -67243,7 +67262,7 @@ _sk_load_4444_dst_sse2:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,12 // sub $0xc,%esp
- .byte 232,0,0,0,0 // call 4722 <_sk_load_4444_dst_sse2+0xe>
+ .byte 232,0,0,0,0 // call 4726 <_sk_load_4444_dst_sse2+0xe>
.byte 90 // pop %edx
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
@@ -67255,27 +67274,27 @@ _sk_load_4444_dst_sse2:
.byte 139,89,8 // mov 0x8(%ecx),%ebx
.byte 133,219 // test %ebx,%ebx
.byte 139,57 // mov (%ecx),%edi
- .byte 15,133,128,0,0,0 // jne 47c3 <_sk_load_4444_dst_sse2+0xaf>
+ .byte 15,133,128,0,0,0 // jne 47c7 <_sk_load_4444_dst_sse2+0xaf>
.byte 243,15,126,36,126 // movq (%esi,%edi,2),%xmm4
.byte 102,15,97,224 // punpcklwd %xmm0,%xmm4
- .byte 102,15,111,170,190,137,0,0 // movdqa 0x89be(%edx),%xmm5
+ .byte 102,15,111,170,218,137,0,0 // movdqa 0x89da(%edx),%xmm5
.byte 102,15,219,236 // pand %xmm4,%xmm5
.byte 15,91,237 // cvtdq2ps %xmm5,%xmm5
- .byte 15,89,170,206,137,0,0 // mulps 0x89ce(%edx),%xmm5
+ .byte 15,89,170,234,137,0,0 // mulps 0x89ea(%edx),%xmm5
.byte 15,41,105,16 // movaps %xmm5,0x10(%ecx)
- .byte 102,15,111,170,222,137,0,0 // movdqa 0x89de(%edx),%xmm5
+ .byte 102,15,111,170,250,137,0,0 // movdqa 0x89fa(%edx),%xmm5
.byte 102,15,219,236 // pand %xmm4,%xmm5
.byte 15,91,237 // cvtdq2ps %xmm5,%xmm5
- .byte 15,89,170,238,137,0,0 // mulps 0x89ee(%edx),%xmm5
+ .byte 15,89,170,10,138,0,0 // mulps 0x8a0a(%edx),%xmm5
.byte 15,41,105,32 // movaps %xmm5,0x20(%ecx)
- .byte 102,15,111,170,254,137,0,0 // movdqa 0x89fe(%edx),%xmm5
+ .byte 102,15,111,170,26,138,0,0 // movdqa 0x8a1a(%edx),%xmm5
.byte 102,15,219,236 // pand %xmm4,%xmm5
.byte 15,91,237 // cvtdq2ps %xmm5,%xmm5
- .byte 15,89,170,14,138,0,0 // mulps 0x8a0e(%edx),%xmm5
+ .byte 15,89,170,42,138,0,0 // mulps 0x8a2a(%edx),%xmm5
.byte 15,41,105,48 // movaps %xmm5,0x30(%ecx)
- .byte 102,15,219,162,30,138,0,0 // pand 0x8a1e(%edx),%xmm4
+ .byte 102,15,219,162,58,138,0,0 // pand 0x8a3a(%edx),%xmm4
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
- .byte 15,89,162,46,138,0,0 // mulps 0x8a2e(%edx),%xmm4
+ .byte 15,89,162,74,138,0,0 // mulps 0x8a4a(%edx),%xmm4
.byte 15,41,97,64 // movaps %xmm4,0x40(%ecx)
.byte 141,80,8 // lea 0x8(%eax),%edx
.byte 131,236,8 // sub $0x8,%esp
@@ -67290,22 +67309,22 @@ _sk_load_4444_dst_sse2:
.byte 195 // ret
.byte 128,227,3 // and $0x3,%bl
.byte 128,251,1 // cmp $0x1,%bl
- .byte 116,51 // je 47fe <_sk_load_4444_dst_sse2+0xea>
+ .byte 116,51 // je 4802 <_sk_load_4444_dst_sse2+0xea>
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 128,251,2 // cmp $0x2,%bl
- .byte 116,23 // je 47eb <_sk_load_4444_dst_sse2+0xd7>
+ .byte 116,23 // je 47ef <_sk_load_4444_dst_sse2+0xd7>
.byte 128,251,3 // cmp $0x3,%bl
- .byte 15,133,111,255,255,255 // jne 474c <_sk_load_4444_dst_sse2+0x38>
+ .byte 15,133,111,255,255,255 // jne 4750 <_sk_load_4444_dst_sse2+0x38>
.byte 15,183,92,126,4 // movzwl 0x4(%esi,%edi,2),%ebx
.byte 102,15,110,227 // movd %ebx,%xmm4
.byte 102,15,112,228,69 // pshufd $0x45,%xmm4,%xmm4
.byte 102,15,110,44,126 // movd (%esi,%edi,2),%xmm5
.byte 242,15,112,237,212 // pshuflw $0xd4,%xmm5,%xmm5
.byte 242,15,16,229 // movsd %xmm5,%xmm4
- .byte 233,78,255,255,255 // jmp 474c <_sk_load_4444_dst_sse2+0x38>
+ .byte 233,78,255,255,255 // jmp 4750 <_sk_load_4444_dst_sse2+0x38>
.byte 15,183,52,126 // movzwl (%esi,%edi,2),%esi
.byte 102,15,110,230 // movd %esi,%xmm4
- .byte 233,65,255,255,255 // jmp 474c <_sk_load_4444_dst_sse2+0x38>
+ .byte 233,65,255,255,255 // jmp 4750 <_sk_load_4444_dst_sse2+0x38>
HIDDEN _sk_gather_4444_sse2
.globl _sk_gather_4444_sse2
@@ -67356,25 +67375,25 @@ _sk_gather_4444_sse2:
.byte 102,15,126,193 // movd %xmm0,%ecx
.byte 15,183,12,74 // movzwl (%edx,%ecx,2),%ecx
.byte 102,15,196,217,3 // pinsrw $0x3,%ecx,%xmm3
- .byte 232,0,0,0,0 // call 48c0 <_sk_gather_4444_sse2+0xb5>
+ .byte 232,0,0,0,0 // call 48c4 <_sk_gather_4444_sse2+0xb5>
.byte 89 // pop %ecx
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,15,97,216 // punpcklwd %xmm0,%xmm3
- .byte 102,15,111,129,32,136,0,0 // movdqa 0x8820(%ecx),%xmm0
+ .byte 102,15,111,129,60,136,0,0 // movdqa 0x883c(%ecx),%xmm0
.byte 102,15,219,195 // pand %xmm3,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,89,129,48,136,0,0 // mulps 0x8830(%ecx),%xmm0
- .byte 102,15,111,137,64,136,0,0 // movdqa 0x8840(%ecx),%xmm1
+ .byte 15,89,129,76,136,0,0 // mulps 0x884c(%ecx),%xmm0
+ .byte 102,15,111,137,92,136,0,0 // movdqa 0x885c(%ecx),%xmm1
.byte 102,15,219,203 // pand %xmm3,%xmm1
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
- .byte 15,89,137,80,136,0,0 // mulps 0x8850(%ecx),%xmm1
- .byte 102,15,111,145,96,136,0,0 // movdqa 0x8860(%ecx),%xmm2
+ .byte 15,89,137,108,136,0,0 // mulps 0x886c(%ecx),%xmm1
+ .byte 102,15,111,145,124,136,0,0 // movdqa 0x887c(%ecx),%xmm2
.byte 102,15,219,211 // pand %xmm3,%xmm2
.byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
- .byte 15,89,145,112,136,0,0 // mulps 0x8870(%ecx),%xmm2
- .byte 102,15,219,153,128,136,0,0 // pand 0x8880(%ecx),%xmm3
+ .byte 15,89,145,140,136,0,0 // mulps 0x888c(%ecx),%xmm2
+ .byte 102,15,219,153,156,136,0,0 // pand 0x889c(%ecx),%xmm3
.byte 15,91,219 // cvtdq2ps %xmm3,%xmm3
- .byte 15,89,153,144,136,0,0 // mulps 0x8890(%ecx),%xmm3
+ .byte 15,89,153,172,136,0,0 // mulps 0x88ac(%ecx),%xmm3
.byte 141,72,8 // lea 0x8(%eax),%ecx
.byte 131,236,8 // sub $0x8,%esp
.byte 81 // push %ecx
@@ -67394,7 +67413,7 @@ _sk_store_4444_sse2:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,12 // sub $0xc,%esp
- .byte 232,0,0,0,0 // call 493d <_sk_store_4444_sse2+0xe>
+ .byte 232,0,0,0,0 // call 4941 <_sk_store_4444_sse2+0xe>
.byte 95 // pop %edi
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
@@ -67404,7 +67423,7 @@ _sk_store_4444_sse2:
.byte 1,210 // add %edx,%edx
.byte 3,22 // add (%esi),%edx
.byte 139,49 // mov (%ecx),%esi
- .byte 15,40,167,35,136,0,0 // movaps 0x8823(%edi),%xmm4
+ .byte 15,40,167,63,136,0,0 // movaps 0x883f(%edi),%xmm4
.byte 139,89,8 // mov 0x8(%ecx),%ebx
.byte 15,40,232 // movaps %xmm0,%xmm5
.byte 15,89,236 // mulps %xmm4,%xmm5
@@ -67430,7 +67449,7 @@ _sk_store_4444_sse2:
.byte 102,15,112,236,229 // pshufd $0xe5,%xmm4,%xmm5
.byte 102,15,126,109,236 // movd %xmm5,-0x14(%ebp)
.byte 133,219 // test %ebx,%ebx
- .byte 117,34 // jne 49e0 <_sk_store_4444_sse2+0xb1>
+ .byte 117,34 // jne 49e4 <_sk_store_4444_sse2+0xb1>
.byte 102,15,126,231 // movd %xmm4,%edi
.byte 102,15,126,235 // movd %xmm5,%ebx
.byte 137,60,114 // mov %edi,(%edx,%esi,2)
@@ -67450,20 +67469,20 @@ _sk_store_4444_sse2:
.byte 102,15,97,224 // punpcklwd %xmm0,%xmm4
.byte 128,227,3 // and $0x3,%bl
.byte 128,251,1 // cmp $0x1,%bl
- .byte 116,37 // je 4a16 <_sk_store_4444_sse2+0xe7>
+ .byte 116,37 // je 4a1a <_sk_store_4444_sse2+0xe7>
.byte 128,251,2 // cmp $0x2,%bl
- .byte 116,15 // je 4a05 <_sk_store_4444_sse2+0xd6>
+ .byte 116,15 // je 4a09 <_sk_store_4444_sse2+0xd6>
.byte 128,251,3 // cmp $0x3,%bl
- .byte 117,210 // jne 49cd <_sk_store_4444_sse2+0x9e>
+ .byte 117,210 // jne 49d1 <_sk_store_4444_sse2+0x9e>
.byte 102,15,197,252,4 // pextrw $0x4,%xmm4,%edi
.byte 102,137,124,114,4 // mov %di,0x4(%edx,%esi,2)
.byte 102,15,112,228,212 // pshufd $0xd4,%xmm4,%xmm4
.byte 242,15,112,228,232 // pshuflw $0xe8,%xmm4,%xmm4
.byte 102,15,126,36,114 // movd %xmm4,(%edx,%esi,2)
- .byte 235,183 // jmp 49cd <_sk_store_4444_sse2+0x9e>
+ .byte 235,183 // jmp 49d1 <_sk_store_4444_sse2+0x9e>
.byte 102,15,126,231 // movd %xmm4,%edi
.byte 102,137,60,114 // mov %di,(%edx,%esi,2)
- .byte 235,173 // jmp 49cd <_sk_store_4444_sse2+0x9e>
+ .byte 235,173 // jmp 49d1 <_sk_store_4444_sse2+0x9e>
HIDDEN _sk_load_8888_sse2
.globl _sk_load_8888_sse2
@@ -67475,7 +67494,7 @@ _sk_load_8888_sse2:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,12 // sub $0xc,%esp
- .byte 232,0,0,0,0 // call 4a2e <_sk_load_8888_sse2+0xe>
+ .byte 232,0,0,0,0 // call 4a32 <_sk_load_8888_sse2+0xe>
.byte 90 // pop %edx
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
@@ -67487,13 +67506,13 @@ _sk_load_8888_sse2:
.byte 139,89,8 // mov 0x8(%ecx),%ebx
.byte 133,219 // test %ebx,%ebx
.byte 139,57 // mov (%ecx),%edi
- .byte 117,102 // jne 4ab2 <_sk_load_8888_sse2+0x92>
+ .byte 117,102 // jne 4ab6 <_sk_load_8888_sse2+0x92>
.byte 243,15,111,28,190 // movdqu (%esi,%edi,4),%xmm3
- .byte 102,15,111,146,98,131,0,0 // movdqa 0x8362(%edx),%xmm2
+ .byte 102,15,111,146,110,131,0,0 // movdqa 0x836e(%edx),%xmm2
.byte 102,15,111,195 // movdqa %xmm3,%xmm0
.byte 102,15,219,194 // pand %xmm2,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,40,162,146,132,0,0 // movaps 0x8492(%edx),%xmm4
+ .byte 15,40,162,174,132,0,0 // movaps 0x84ae(%edx),%xmm4
.byte 15,89,196 // mulps %xmm4,%xmm0
.byte 102,15,111,203 // movdqa %xmm3,%xmm1
.byte 102,15,114,209,8 // psrld $0x8,%xmm1
@@ -67521,18 +67540,18 @@ _sk_load_8888_sse2:
.byte 195 // ret
.byte 128,227,3 // and $0x3,%bl
.byte 128,251,1 // cmp $0x1,%bl
- .byte 116,35 // je 4add <_sk_load_8888_sse2+0xbd>
+ .byte 116,35 // je 4ae1 <_sk_load_8888_sse2+0xbd>
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 128,251,2 // cmp $0x2,%bl
- .byte 116,16 // je 4ad3 <_sk_load_8888_sse2+0xb3>
+ .byte 116,16 // je 4ad7 <_sk_load_8888_sse2+0xb3>
.byte 128,251,3 // cmp $0x3,%bl
- .byte 117,137 // jne 4a51 <_sk_load_8888_sse2+0x31>
+ .byte 117,137 // jne 4a55 <_sk_load_8888_sse2+0x31>
.byte 102,15,110,68,190,8 // movd 0x8(%esi,%edi,4),%xmm0
.byte 102,15,112,216,69 // pshufd $0x45,%xmm0,%xmm3
.byte 102,15,18,28,190 // movlpd (%esi,%edi,4),%xmm3
- .byte 233,116,255,255,255 // jmp 4a51 <_sk_load_8888_sse2+0x31>
+ .byte 233,116,255,255,255 // jmp 4a55 <_sk_load_8888_sse2+0x31>
.byte 102,15,110,28,190 // movd (%esi,%edi,4),%xmm3
- .byte 233,106,255,255,255 // jmp 4a51 <_sk_load_8888_sse2+0x31>
+ .byte 233,106,255,255,255 // jmp 4a55 <_sk_load_8888_sse2+0x31>
HIDDEN _sk_load_8888_dst_sse2
.globl _sk_load_8888_dst_sse2
@@ -67544,7 +67563,7 @@ _sk_load_8888_dst_sse2:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,12 // sub $0xc,%esp
- .byte 232,0,0,0,0 // call 4af5 <_sk_load_8888_dst_sse2+0xe>
+ .byte 232,0,0,0,0 // call 4af9 <_sk_load_8888_dst_sse2+0xe>
.byte 90 // pop %edx
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
@@ -67556,13 +67575,13 @@ _sk_load_8888_dst_sse2:
.byte 139,89,8 // mov 0x8(%ecx),%ebx
.byte 133,219 // test %ebx,%ebx
.byte 139,57 // mov (%ecx),%edi
- .byte 117,118 // jne 4b89 <_sk_load_8888_dst_sse2+0xa2>
+ .byte 117,118 // jne 4b8d <_sk_load_8888_dst_sse2+0xa2>
.byte 243,15,111,36,190 // movdqu (%esi,%edi,4),%xmm4
- .byte 102,15,111,170,155,130,0,0 // movdqa 0x829b(%edx),%xmm5
+ .byte 102,15,111,170,167,130,0,0 // movdqa 0x82a7(%edx),%xmm5
.byte 102,15,111,244 // movdqa %xmm4,%xmm6
.byte 102,15,219,245 // pand %xmm5,%xmm6
.byte 15,91,246 // cvtdq2ps %xmm6,%xmm6
- .byte 15,40,186,203,131,0,0 // movaps 0x83cb(%edx),%xmm7
+ .byte 15,40,186,231,131,0,0 // movaps 0x83e7(%edx),%xmm7
.byte 15,89,247 // mulps %xmm7,%xmm6
.byte 15,41,113,16 // movaps %xmm6,0x10(%ecx)
.byte 102,15,111,244 // movdqa %xmm4,%xmm6
@@ -67594,18 +67613,18 @@ _sk_load_8888_dst_sse2:
.byte 195 // ret
.byte 128,227,3 // and $0x3,%bl
.byte 128,251,1 // cmp $0x1,%bl
- .byte 116,39 // je 4bb8 <_sk_load_8888_dst_sse2+0xd1>
+ .byte 116,39 // je 4bbc <_sk_load_8888_dst_sse2+0xd1>
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 128,251,2 // cmp $0x2,%bl
- .byte 116,20 // je 4bae <_sk_load_8888_dst_sse2+0xc7>
+ .byte 116,20 // je 4bb2 <_sk_load_8888_dst_sse2+0xc7>
.byte 128,251,3 // cmp $0x3,%bl
- .byte 15,133,117,255,255,255 // jne 4b18 <_sk_load_8888_dst_sse2+0x31>
+ .byte 15,133,117,255,255,255 // jne 4b1c <_sk_load_8888_dst_sse2+0x31>
.byte 102,15,110,100,190,8 // movd 0x8(%esi,%edi,4),%xmm4
.byte 102,15,112,228,69 // pshufd $0x45,%xmm4,%xmm4
.byte 102,15,18,36,190 // movlpd (%esi,%edi,4),%xmm4
- .byte 233,96,255,255,255 // jmp 4b18 <_sk_load_8888_dst_sse2+0x31>
+ .byte 233,96,255,255,255 // jmp 4b1c <_sk_load_8888_dst_sse2+0x31>
.byte 102,15,110,36,190 // movd (%esi,%edi,4),%xmm4
- .byte 233,86,255,255,255 // jmp 4b18 <_sk_load_8888_dst_sse2+0x31>
+ .byte 233,86,255,255,255 // jmp 4b1c <_sk_load_8888_dst_sse2+0x31>
HIDDEN _sk_gather_8888_sse2
.globl _sk_gather_8888_sse2
@@ -67652,16 +67671,16 @@ _sk_gather_8888_sse2:
.byte 102,15,110,28,138 // movd (%edx,%ecx,4),%xmm3
.byte 102,15,126,201 // movd %xmm1,%ecx
.byte 102,15,110,12,138 // movd (%edx,%ecx,4),%xmm1
- .byte 232,0,0,0,0 // call 4c68 <_sk_gather_8888_sse2+0xa6>
+ .byte 232,0,0,0,0 // call 4c6c <_sk_gather_8888_sse2+0xa6>
.byte 89 // pop %ecx
.byte 102,15,98,194 // punpckldq %xmm2,%xmm0
.byte 102,15,98,217 // punpckldq %xmm1,%xmm3
.byte 102,15,108,216 // punpcklqdq %xmm0,%xmm3
- .byte 102,15,111,145,40,129,0,0 // movdqa 0x8128(%ecx),%xmm2
+ .byte 102,15,111,145,52,129,0,0 // movdqa 0x8134(%ecx),%xmm2
.byte 102,15,111,195 // movdqa %xmm3,%xmm0
.byte 102,15,219,194 // pand %xmm2,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,40,161,88,130,0,0 // movaps 0x8258(%ecx),%xmm4
+ .byte 15,40,161,116,130,0,0 // movaps 0x8274(%ecx),%xmm4
.byte 15,89,196 // mulps %xmm4,%xmm0
.byte 102,15,111,203 // movdqa %xmm3,%xmm1
.byte 102,15,114,209,8 // psrld $0x8,%xmm1
@@ -67695,7 +67714,7 @@ _sk_store_8888_sse2:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,12 // sub $0xc,%esp
- .byte 232,0,0,0,0 // call 4ce3 <_sk_store_8888_sse2+0xe>
+ .byte 232,0,0,0,0 // call 4ce7 <_sk_store_8888_sse2+0xe>
.byte 95 // pop %edi
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
@@ -67705,7 +67724,7 @@ _sk_store_8888_sse2:
.byte 193,226,2 // shl $0x2,%edx
.byte 3,22 // add (%esi),%edx
.byte 139,49 // mov (%ecx),%esi
- .byte 15,40,167,189,128,0,0 // movaps 0x80bd(%edi),%xmm4
+ .byte 15,40,167,201,128,0,0 // movaps 0x80c9(%edi),%xmm4
.byte 139,89,8 // mov 0x8(%ecx),%ebx
.byte 15,40,232 // movaps %xmm0,%xmm5
.byte 15,89,236 // mulps %xmm4,%xmm5
@@ -67725,7 +67744,7 @@ _sk_store_8888_sse2:
.byte 102,15,235,229 // por %xmm5,%xmm4
.byte 102,15,235,230 // por %xmm6,%xmm4
.byte 133,219 // test %ebx,%ebx
- .byte 117,24 // jne 4d60 <_sk_store_8888_sse2+0x8b>
+ .byte 117,24 // jne 4d64 <_sk_store_8888_sse2+0x8b>
.byte 243,15,127,36,178 // movdqu %xmm4,(%edx,%esi,4)
.byte 141,80,8 // lea 0x8(%eax),%edx
.byte 131,236,8 // sub $0x8,%esp
@@ -67740,17 +67759,17 @@ _sk_store_8888_sse2:
.byte 195 // ret
.byte 128,227,3 // and $0x3,%bl
.byte 128,251,1 // cmp $0x1,%bl
- .byte 116,28 // je 4d84 <_sk_store_8888_sse2+0xaf>
+ .byte 116,28 // je 4d88 <_sk_store_8888_sse2+0xaf>
.byte 128,251,2 // cmp $0x2,%bl
- .byte 116,16 // je 4d7d <_sk_store_8888_sse2+0xa8>
+ .byte 116,16 // je 4d81 <_sk_store_8888_sse2+0xa8>
.byte 128,251,3 // cmp $0x3,%bl
- .byte 117,219 // jne 4d4d <_sk_store_8888_sse2+0x78>
+ .byte 117,219 // jne 4d51 <_sk_store_8888_sse2+0x78>
.byte 102,15,112,236,78 // pshufd $0x4e,%xmm4,%xmm5
.byte 102,15,126,108,178,8 // movd %xmm5,0x8(%edx,%esi,4)
.byte 102,15,214,36,178 // movq %xmm4,(%edx,%esi,4)
- .byte 235,201 // jmp 4d4d <_sk_store_8888_sse2+0x78>
+ .byte 235,201 // jmp 4d51 <_sk_store_8888_sse2+0x78>
.byte 102,15,126,36,178 // movd %xmm4,(%edx,%esi,4)
- .byte 235,194 // jmp 4d4d <_sk_store_8888_sse2+0x78>
+ .byte 235,194 // jmp 4d51 <_sk_store_8888_sse2+0x78>
HIDDEN _sk_load_bgra_sse2
.globl _sk_load_bgra_sse2
@@ -67762,7 +67781,7 @@ _sk_load_bgra_sse2:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,12 // sub $0xc,%esp
- .byte 232,0,0,0,0 // call 4d99 <_sk_load_bgra_sse2+0xe>
+ .byte 232,0,0,0,0 // call 4d9d <_sk_load_bgra_sse2+0xe>
.byte 90 // pop %edx
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
@@ -67774,13 +67793,13 @@ _sk_load_bgra_sse2:
.byte 139,89,8 // mov 0x8(%ecx),%ebx
.byte 133,219 // test %ebx,%ebx
.byte 139,57 // mov (%ecx),%edi
- .byte 117,102 // jne 4e1d <_sk_load_bgra_sse2+0x92>
+ .byte 117,102 // jne 4e21 <_sk_load_bgra_sse2+0x92>
.byte 243,15,111,28,190 // movdqu (%esi,%edi,4),%xmm3
- .byte 102,15,111,130,247,127,0,0 // movdqa 0x7ff7(%edx),%xmm0
+ .byte 102,15,111,130,3,128,0,0 // movdqa 0x8003(%edx),%xmm0
.byte 102,15,111,203 // movdqa %xmm3,%xmm1
.byte 102,15,219,200 // pand %xmm0,%xmm1
.byte 15,91,209 // cvtdq2ps %xmm1,%xmm2
- .byte 15,40,162,39,129,0,0 // movaps 0x8127(%edx),%xmm4
+ .byte 15,40,162,67,129,0,0 // movaps 0x8143(%edx),%xmm4
.byte 15,89,212 // mulps %xmm4,%xmm2
.byte 102,15,111,203 // movdqa %xmm3,%xmm1
.byte 102,15,114,209,8 // psrld $0x8,%xmm1
@@ -67808,18 +67827,18 @@ _sk_load_bgra_sse2:
.byte 195 // ret
.byte 128,227,3 // and $0x3,%bl
.byte 128,251,1 // cmp $0x1,%bl
- .byte 116,35 // je 4e48 <_sk_load_bgra_sse2+0xbd>
+ .byte 116,35 // je 4e4c <_sk_load_bgra_sse2+0xbd>
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 128,251,2 // cmp $0x2,%bl
- .byte 116,16 // je 4e3e <_sk_load_bgra_sse2+0xb3>
+ .byte 116,16 // je 4e42 <_sk_load_bgra_sse2+0xb3>
.byte 128,251,3 // cmp $0x3,%bl
- .byte 117,137 // jne 4dbc <_sk_load_bgra_sse2+0x31>
+ .byte 117,137 // jne 4dc0 <_sk_load_bgra_sse2+0x31>
.byte 102,15,110,68,190,8 // movd 0x8(%esi,%edi,4),%xmm0
.byte 102,15,112,216,69 // pshufd $0x45,%xmm0,%xmm3
.byte 102,15,18,28,190 // movlpd (%esi,%edi,4),%xmm3
- .byte 233,116,255,255,255 // jmp 4dbc <_sk_load_bgra_sse2+0x31>
+ .byte 233,116,255,255,255 // jmp 4dc0 <_sk_load_bgra_sse2+0x31>
.byte 102,15,110,28,190 // movd (%esi,%edi,4),%xmm3
- .byte 233,106,255,255,255 // jmp 4dbc <_sk_load_bgra_sse2+0x31>
+ .byte 233,106,255,255,255 // jmp 4dc0 <_sk_load_bgra_sse2+0x31>
HIDDEN _sk_load_bgra_dst_sse2
.globl _sk_load_bgra_dst_sse2
@@ -67831,7 +67850,7 @@ _sk_load_bgra_dst_sse2:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,12 // sub $0xc,%esp
- .byte 232,0,0,0,0 // call 4e60 <_sk_load_bgra_dst_sse2+0xe>
+ .byte 232,0,0,0,0 // call 4e64 <_sk_load_bgra_dst_sse2+0xe>
.byte 90 // pop %edx
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
@@ -67843,13 +67862,13 @@ _sk_load_bgra_dst_sse2:
.byte 139,89,8 // mov 0x8(%ecx),%ebx
.byte 133,219 // test %ebx,%ebx
.byte 139,57 // mov (%ecx),%edi
- .byte 117,118 // jne 4ef4 <_sk_load_bgra_dst_sse2+0xa2>
+ .byte 117,118 // jne 4ef8 <_sk_load_bgra_dst_sse2+0xa2>
.byte 243,15,111,36,190 // movdqu (%esi,%edi,4),%xmm4
- .byte 102,15,111,170,48,127,0,0 // movdqa 0x7f30(%edx),%xmm5
+ .byte 102,15,111,170,60,127,0,0 // movdqa 0x7f3c(%edx),%xmm5
.byte 102,15,111,244 // movdqa %xmm4,%xmm6
.byte 102,15,219,245 // pand %xmm5,%xmm6
.byte 15,91,246 // cvtdq2ps %xmm6,%xmm6
- .byte 15,40,186,96,128,0,0 // movaps 0x8060(%edx),%xmm7
+ .byte 15,40,186,124,128,0,0 // movaps 0x807c(%edx),%xmm7
.byte 15,89,247 // mulps %xmm7,%xmm6
.byte 15,41,113,48 // movaps %xmm6,0x30(%ecx)
.byte 102,15,111,244 // movdqa %xmm4,%xmm6
@@ -67881,18 +67900,18 @@ _sk_load_bgra_dst_sse2:
.byte 195 // ret
.byte 128,227,3 // and $0x3,%bl
.byte 128,251,1 // cmp $0x1,%bl
- .byte 116,39 // je 4f23 <_sk_load_bgra_dst_sse2+0xd1>
+ .byte 116,39 // je 4f27 <_sk_load_bgra_dst_sse2+0xd1>
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 128,251,2 // cmp $0x2,%bl
- .byte 116,20 // je 4f19 <_sk_load_bgra_dst_sse2+0xc7>
+ .byte 116,20 // je 4f1d <_sk_load_bgra_dst_sse2+0xc7>
.byte 128,251,3 // cmp $0x3,%bl
- .byte 15,133,117,255,255,255 // jne 4e83 <_sk_load_bgra_dst_sse2+0x31>
+ .byte 15,133,117,255,255,255 // jne 4e87 <_sk_load_bgra_dst_sse2+0x31>
.byte 102,15,110,100,190,8 // movd 0x8(%esi,%edi,4),%xmm4
.byte 102,15,112,228,69 // pshufd $0x45,%xmm4,%xmm4
.byte 102,15,18,36,190 // movlpd (%esi,%edi,4),%xmm4
- .byte 233,96,255,255,255 // jmp 4e83 <_sk_load_bgra_dst_sse2+0x31>
+ .byte 233,96,255,255,255 // jmp 4e87 <_sk_load_bgra_dst_sse2+0x31>
.byte 102,15,110,36,190 // movd (%esi,%edi,4),%xmm4
- .byte 233,86,255,255,255 // jmp 4e83 <_sk_load_bgra_dst_sse2+0x31>
+ .byte 233,86,255,255,255 // jmp 4e87 <_sk_load_bgra_dst_sse2+0x31>
HIDDEN _sk_gather_bgra_sse2
.globl _sk_gather_bgra_sse2
@@ -67939,16 +67958,16 @@ _sk_gather_bgra_sse2:
.byte 102,15,110,28,138 // movd (%edx,%ecx,4),%xmm3
.byte 102,15,126,201 // movd %xmm1,%ecx
.byte 102,15,110,12,138 // movd (%edx,%ecx,4),%xmm1
- .byte 232,0,0,0,0 // call 4fd3 <_sk_gather_bgra_sse2+0xa6>
+ .byte 232,0,0,0,0 // call 4fd7 <_sk_gather_bgra_sse2+0xa6>
.byte 89 // pop %ecx
.byte 102,15,98,194 // punpckldq %xmm2,%xmm0
.byte 102,15,98,217 // punpckldq %xmm1,%xmm3
.byte 102,15,108,216 // punpcklqdq %xmm0,%xmm3
- .byte 102,15,111,129,189,125,0,0 // movdqa 0x7dbd(%ecx),%xmm0
+ .byte 102,15,111,129,201,125,0,0 // movdqa 0x7dc9(%ecx),%xmm0
.byte 102,15,111,203 // movdqa %xmm3,%xmm1
.byte 102,15,219,200 // pand %xmm0,%xmm1
.byte 15,91,209 // cvtdq2ps %xmm1,%xmm2
- .byte 15,40,161,237,126,0,0 // movaps 0x7eed(%ecx),%xmm4
+ .byte 15,40,161,9,127,0,0 // movaps 0x7f09(%ecx),%xmm4
.byte 15,89,212 // mulps %xmm4,%xmm2
.byte 102,15,111,203 // movdqa %xmm3,%xmm1
.byte 102,15,114,209,8 // psrld $0x8,%xmm1
@@ -67982,7 +68001,7 @@ _sk_store_bgra_sse2:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,12 // sub $0xc,%esp
- .byte 232,0,0,0,0 // call 504e <_sk_store_bgra_sse2+0xe>
+ .byte 232,0,0,0,0 // call 5052 <_sk_store_bgra_sse2+0xe>
.byte 95 // pop %edi
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
@@ -67992,7 +68011,7 @@ _sk_store_bgra_sse2:
.byte 193,226,2 // shl $0x2,%edx
.byte 3,22 // add (%esi),%edx
.byte 139,49 // mov (%ecx),%esi
- .byte 15,40,167,82,125,0,0 // movaps 0x7d52(%edi),%xmm4
+ .byte 15,40,167,94,125,0,0 // movaps 0x7d5e(%edi),%xmm4
.byte 139,89,8 // mov 0x8(%ecx),%ebx
.byte 15,40,234 // movaps %xmm2,%xmm5
.byte 15,89,236 // mulps %xmm4,%xmm5
@@ -68012,7 +68031,7 @@ _sk_store_bgra_sse2:
.byte 102,15,235,229 // por %xmm5,%xmm4
.byte 102,15,235,230 // por %xmm6,%xmm4
.byte 133,219 // test %ebx,%ebx
- .byte 117,24 // jne 50cb <_sk_store_bgra_sse2+0x8b>
+ .byte 117,24 // jne 50cf <_sk_store_bgra_sse2+0x8b>
.byte 243,15,127,36,178 // movdqu %xmm4,(%edx,%esi,4)
.byte 141,80,8 // lea 0x8(%eax),%edx
.byte 131,236,8 // sub $0x8,%esp
@@ -68027,17 +68046,17 @@ _sk_store_bgra_sse2:
.byte 195 // ret
.byte 128,227,3 // and $0x3,%bl
.byte 128,251,1 // cmp $0x1,%bl
- .byte 116,28 // je 50ef <_sk_store_bgra_sse2+0xaf>
+ .byte 116,28 // je 50f3 <_sk_store_bgra_sse2+0xaf>
.byte 128,251,2 // cmp $0x2,%bl
- .byte 116,16 // je 50e8 <_sk_store_bgra_sse2+0xa8>
+ .byte 116,16 // je 50ec <_sk_store_bgra_sse2+0xa8>
.byte 128,251,3 // cmp $0x3,%bl
- .byte 117,219 // jne 50b8 <_sk_store_bgra_sse2+0x78>
+ .byte 117,219 // jne 50bc <_sk_store_bgra_sse2+0x78>
.byte 102,15,112,236,78 // pshufd $0x4e,%xmm4,%xmm5
.byte 102,15,126,108,178,8 // movd %xmm5,0x8(%edx,%esi,4)
.byte 102,15,214,36,178 // movq %xmm4,(%edx,%esi,4)
- .byte 235,201 // jmp 50b8 <_sk_store_bgra_sse2+0x78>
+ .byte 235,201 // jmp 50bc <_sk_store_bgra_sse2+0x78>
.byte 102,15,126,36,178 // movd %xmm4,(%edx,%esi,4)
- .byte 235,194 // jmp 50b8 <_sk_store_bgra_sse2+0x78>
+ .byte 235,194 // jmp 50bc <_sk_store_bgra_sse2+0x78>
HIDDEN _sk_load_f16_sse2
.globl _sk_load_f16_sse2
@@ -68049,7 +68068,7 @@ _sk_load_f16_sse2:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,108 // sub $0x6c,%esp
- .byte 232,0,0,0,0 // call 5104 <_sk_load_f16_sse2+0xe>
+ .byte 232,0,0,0,0 // call 5108 <_sk_load_f16_sse2+0xe>
.byte 90 // pop %edx
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
@@ -68061,7 +68080,7 @@ _sk_load_f16_sse2:
.byte 139,89,8 // mov 0x8(%ecx),%ebx
.byte 133,219 // test %ebx,%ebx
.byte 139,57 // mov (%ecx),%edi
- .byte 15,133,173,1,0,0 // jne 52d3 <_sk_load_f16_sse2+0x1dd>
+ .byte 15,133,173,1,0,0 // jne 52d7 <_sk_load_f16_sse2+0x1dd>
.byte 102,15,16,4,254 // movupd (%esi,%edi,8),%xmm0
.byte 243,15,111,76,254,16 // movdqu 0x10(%esi,%edi,8),%xmm1
.byte 102,15,40,216 // movapd %xmm0,%xmm3
@@ -68091,11 +68110,11 @@ _sk_load_f16_sse2:
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,15,97,200 // punpcklwd %xmm0,%xmm1
.byte 102,15,239,210 // pxor %xmm2,%xmm2
- .byte 102,15,111,170,108,128,0,0 // movdqa 0x806c(%edx),%xmm5
+ .byte 102,15,111,170,136,128,0,0 // movdqa 0x8088(%edx),%xmm5
.byte 102,15,111,241 // movdqa %xmm1,%xmm6
.byte 102,15,219,245 // pand %xmm5,%xmm6
- .byte 102,15,219,138,124,128,0,0 // pand 0x807c(%edx),%xmm1
- .byte 102,15,111,130,140,128,0,0 // movdqa 0x808c(%edx),%xmm0
+ .byte 102,15,219,138,152,128,0,0 // pand 0x8098(%edx),%xmm1
+ .byte 102,15,111,130,168,128,0,0 // movdqa 0x80a8(%edx),%xmm0
.byte 102,15,127,69,184 // movdqa %xmm0,-0x48(%ebp)
.byte 102,15,114,246,16 // pslld $0x10,%xmm6
.byte 102,15,111,216 // movdqa %xmm0,%xmm3
@@ -68107,7 +68126,7 @@ _sk_load_f16_sse2:
.byte 102,15,239,255 // pxor %xmm7,%xmm7
.byte 102,15,111,212 // movdqa %xmm4,%xmm2
.byte 102,15,219,213 // pand %xmm5,%xmm2
- .byte 102,15,111,154,124,128,0,0 // movdqa 0x807c(%edx),%xmm3
+ .byte 102,15,111,154,152,128,0,0 // movdqa 0x8098(%edx),%xmm3
.byte 102,15,219,227 // pand %xmm3,%xmm4
.byte 102,15,114,242,16 // pslld $0x10,%xmm2
.byte 102,15,102,196 // pcmpgtd %xmm4,%xmm0
@@ -68120,7 +68139,7 @@ _sk_load_f16_sse2:
.byte 102,15,219,253 // pand %xmm5,%xmm7
.byte 102,15,219,195 // pand %xmm3,%xmm0
.byte 102,15,114,247,16 // pslld $0x10,%xmm7
- .byte 102,15,111,146,140,128,0,0 // movdqa 0x808c(%edx),%xmm2
+ .byte 102,15,111,146,168,128,0,0 // movdqa 0x80a8(%edx),%xmm2
.byte 102,15,102,208 // pcmpgtd %xmm0,%xmm2
.byte 102,15,114,240,13 // pslld $0xd,%xmm0
.byte 102,15,235,199 // por %xmm7,%xmm0
@@ -68135,7 +68154,7 @@ _sk_load_f16_sse2:
.byte 102,15,127,93,184 // movdqa %xmm3,-0x48(%ebp)
.byte 102,15,114,247,13 // pslld $0xd,%xmm7
.byte 102,15,235,253 // por %xmm5,%xmm7
- .byte 102,15,111,154,156,128,0,0 // movdqa 0x809c(%edx),%xmm3
+ .byte 102,15,111,154,184,128,0,0 // movdqa 0x80b8(%edx),%xmm3
.byte 102,15,254,203 // paddd %xmm3,%xmm1
.byte 102,15,254,227 // paddd %xmm3,%xmm4
.byte 102,15,254,195 // paddd %xmm3,%xmm0
@@ -68163,12 +68182,12 @@ _sk_load_f16_sse2:
.byte 242,15,16,4,254 // movsd (%esi,%edi,8),%xmm0
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 131,251,1 // cmp $0x1,%ebx
- .byte 15,132,76,254,255,255 // je 5131 <_sk_load_f16_sse2+0x3b>
+ .byte 15,132,76,254,255,255 // je 5135 <_sk_load_f16_sse2+0x3b>
.byte 102,15,22,68,254,8 // movhpd 0x8(%esi,%edi,8),%xmm0
.byte 131,251,3 // cmp $0x3,%ebx
- .byte 15,130,61,254,255,255 // jb 5131 <_sk_load_f16_sse2+0x3b>
+ .byte 15,130,61,254,255,255 // jb 5135 <_sk_load_f16_sse2+0x3b>
.byte 243,15,126,76,254,16 // movq 0x10(%esi,%edi,8),%xmm1
- .byte 233,50,254,255,255 // jmp 5131 <_sk_load_f16_sse2+0x3b>
+ .byte 233,50,254,255,255 // jmp 5135 <_sk_load_f16_sse2+0x3b>
HIDDEN _sk_load_f16_dst_sse2
.globl _sk_load_f16_dst_sse2
@@ -68184,7 +68203,7 @@ _sk_load_f16_dst_sse2:
.byte 15,41,85,136 // movaps %xmm2,-0x78(%ebp)
.byte 102,15,127,77,152 // movdqa %xmm1,-0x68(%ebp)
.byte 15,41,69,168 // movaps %xmm0,-0x58(%ebp)
- .byte 232,0,0,0,0 // call 5321 <_sk_load_f16_dst_sse2+0x22>
+ .byte 232,0,0,0,0 // call 5325 <_sk_load_f16_dst_sse2+0x22>
.byte 90 // pop %edx
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
@@ -68196,7 +68215,7 @@ _sk_load_f16_dst_sse2:
.byte 139,89,8 // mov 0x8(%ecx),%ebx
.byte 133,219 // test %ebx,%ebx
.byte 139,57 // mov (%ecx),%edi
- .byte 15,133,168,1,0,0 // jne 54eb <_sk_load_f16_dst_sse2+0x1ec>
+ .byte 15,133,168,1,0,0 // jne 54ef <_sk_load_f16_dst_sse2+0x1ec>
.byte 102,15,16,4,254 // movupd (%esi,%edi,8),%xmm0
.byte 243,15,111,76,254,16 // movdqu 0x10(%esi,%edi,8),%xmm1
.byte 102,15,40,208 // movapd %xmm0,%xmm2
@@ -68224,18 +68243,18 @@ _sk_load_f16_dst_sse2:
.byte 102,15,126,85,232 // movd %xmm2,-0x18(%ebp)
.byte 102,15,239,210 // pxor %xmm2,%xmm2
.byte 102,15,97,202 // punpcklwd %xmm2,%xmm1
- .byte 102,15,111,186,79,126,0,0 // movdqa 0x7e4f(%edx),%xmm7
+ .byte 102,15,111,186,107,126,0,0 // movdqa 0x7e6b(%edx),%xmm7
.byte 102,15,111,209 // movdqa %xmm1,%xmm2
.byte 102,15,219,215 // pand %xmm7,%xmm2
- .byte 102,15,111,154,95,126,0,0 // movdqa 0x7e5f(%edx),%xmm3
+ .byte 102,15,111,154,123,126,0,0 // movdqa 0x7e7b(%edx),%xmm3
.byte 102,15,219,203 // pand %xmm3,%xmm1
- .byte 102,15,111,162,111,126,0,0 // movdqa 0x7e6f(%edx),%xmm4
+ .byte 102,15,111,162,139,126,0,0 // movdqa 0x7e8b(%edx),%xmm4
.byte 102,15,114,242,16 // pslld $0x10,%xmm2
.byte 102,15,111,236 // movdqa %xmm4,%xmm5
.byte 102,15,102,233 // pcmpgtd %xmm1,%xmm5
.byte 102,15,114,241,13 // pslld $0xd,%xmm1
.byte 102,15,235,202 // por %xmm2,%xmm1
- .byte 102,15,111,146,127,126,0,0 // movdqa 0x7e7f(%edx),%xmm2
+ .byte 102,15,111,146,155,126,0,0 // movdqa 0x7e9b(%edx),%xmm2
.byte 102,15,127,85,184 // movdqa %xmm2,-0x48(%ebp)
.byte 102,15,254,202 // paddd %xmm2,%xmm1
.byte 102,15,223,233 // pandn %xmm1,%xmm5
@@ -68298,12 +68317,12 @@ _sk_load_f16_dst_sse2:
.byte 242,15,16,4,254 // movsd (%esi,%edi,8),%xmm0
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 131,251,1 // cmp $0x1,%ebx
- .byte 15,132,81,254,255,255 // je 534e <_sk_load_f16_dst_sse2+0x4f>
+ .byte 15,132,81,254,255,255 // je 5352 <_sk_load_f16_dst_sse2+0x4f>
.byte 102,15,22,68,254,8 // movhpd 0x8(%esi,%edi,8),%xmm0
.byte 131,251,3 // cmp $0x3,%ebx
- .byte 15,130,66,254,255,255 // jb 534e <_sk_load_f16_dst_sse2+0x4f>
+ .byte 15,130,66,254,255,255 // jb 5352 <_sk_load_f16_dst_sse2+0x4f>
.byte 243,15,126,76,254,16 // movq 0x10(%esi,%edi,8),%xmm1
- .byte 233,55,254,255,255 // jmp 534e <_sk_load_f16_dst_sse2+0x4f>
+ .byte 233,55,254,255,255 // jmp 5352 <_sk_load_f16_dst_sse2+0x4f>
HIDDEN _sk_gather_f16_sse2
.globl _sk_gather_f16_sse2
@@ -68350,7 +68369,7 @@ _sk_gather_f16_sse2:
.byte 243,15,126,28,202 // movq (%edx,%ecx,8),%xmm3
.byte 102,15,126,201 // movd %xmm1,%ecx
.byte 243,15,126,12,202 // movq (%edx,%ecx,8),%xmm1
- .byte 232,0,0,0,0 // call 55bd <_sk_gather_f16_sse2+0xa6>
+ .byte 232,0,0,0,0 // call 55c1 <_sk_gather_f16_sse2+0xa6>
.byte 89 // pop %ecx
.byte 102,15,239,246 // pxor %xmm6,%xmm6
.byte 102,15,108,194 // punpcklqdq %xmm2,%xmm0
@@ -68381,11 +68400,11 @@ _sk_gather_f16_sse2:
.byte 102,15,126,69,248 // movd %xmm0,-0x8(%ebp)
.byte 102,15,97,206 // punpcklwd %xmm6,%xmm1
.byte 102,15,239,210 // pxor %xmm2,%xmm2
- .byte 102,15,111,177,179,123,0,0 // movdqa 0x7bb3(%ecx),%xmm6
+ .byte 102,15,111,177,207,123,0,0 // movdqa 0x7bcf(%ecx),%xmm6
.byte 102,15,111,225 // movdqa %xmm1,%xmm4
.byte 102,15,219,230 // pand %xmm6,%xmm4
- .byte 102,15,219,137,195,123,0,0 // pand 0x7bc3(%ecx),%xmm1
- .byte 102,15,111,129,211,123,0,0 // movdqa 0x7bd3(%ecx),%xmm0
+ .byte 102,15,219,137,223,123,0,0 // pand 0x7bdf(%ecx),%xmm1
+ .byte 102,15,111,129,239,123,0,0 // movdqa 0x7bef(%ecx),%xmm0
.byte 102,15,114,244,16 // pslld $0x10,%xmm4
.byte 102,15,111,216 // movdqa %xmm0,%xmm3
.byte 102,15,102,217 // pcmpgtd %xmm1,%xmm3
@@ -68396,7 +68415,7 @@ _sk_gather_f16_sse2:
.byte 102,15,239,255 // pxor %xmm7,%xmm7
.byte 102,15,111,213 // movdqa %xmm5,%xmm2
.byte 102,15,219,214 // pand %xmm6,%xmm2
- .byte 102,15,111,153,195,123,0,0 // movdqa 0x7bc3(%ecx),%xmm3
+ .byte 102,15,111,153,223,123,0,0 // movdqa 0x7bdf(%ecx),%xmm3
.byte 102,15,219,235 // pand %xmm3,%xmm5
.byte 102,15,114,242,16 // pslld $0x10,%xmm2
.byte 102,15,111,224 // movdqa %xmm0,%xmm4
@@ -68410,7 +68429,7 @@ _sk_gather_f16_sse2:
.byte 102,15,219,254 // pand %xmm6,%xmm7
.byte 102,15,219,195 // pand %xmm3,%xmm0
.byte 102,15,114,247,16 // pslld $0x10,%xmm7
- .byte 102,15,111,145,211,123,0,0 // movdqa 0x7bd3(%ecx),%xmm2
+ .byte 102,15,111,145,239,123,0,0 // movdqa 0x7bef(%ecx),%xmm2
.byte 102,15,111,218 // movdqa %xmm2,%xmm3
.byte 102,15,102,216 // pcmpgtd %xmm0,%xmm3
.byte 102,15,114,240,13 // pslld $0xd,%xmm0
@@ -68419,12 +68438,12 @@ _sk_gather_f16_sse2:
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 102,15,97,252 // punpcklwd %xmm4,%xmm7
.byte 102,15,219,247 // pand %xmm7,%xmm6
- .byte 102,15,219,185,195,123,0,0 // pand 0x7bc3(%ecx),%xmm7
+ .byte 102,15,219,185,223,123,0,0 // pand 0x7bdf(%ecx),%xmm7
.byte 102,15,114,246,16 // pslld $0x10,%xmm6
.byte 102,15,102,215 // pcmpgtd %xmm7,%xmm2
.byte 102,15,114,247,13 // pslld $0xd,%xmm7
.byte 102,15,235,254 // por %xmm6,%xmm7
- .byte 102,15,111,161,227,123,0,0 // movdqa 0x7be3(%ecx),%xmm4
+ .byte 102,15,111,161,255,123,0,0 // movdqa 0x7bff(%ecx),%xmm4
.byte 102,15,254,204 // paddd %xmm4,%xmm1
.byte 102,15,254,236 // paddd %xmm4,%xmm5
.byte 102,15,254,196 // paddd %xmm4,%xmm0
@@ -68461,24 +68480,24 @@ _sk_store_f16_sse2:
.byte 15,41,93,184 // movaps %xmm3,-0x48(%ebp)
.byte 15,41,85,200 // movaps %xmm2,-0x38(%ebp)
.byte 102,15,111,209 // movdqa %xmm1,%xmm2
- .byte 232,0,0,0,0 // call 5781 <_sk_store_f16_sse2+0x19>
+ .byte 232,0,0,0,0 // call 5785 <_sk_store_f16_sse2+0x19>
.byte 88 // pop %eax
- .byte 102,15,111,152,47,122,0,0 // movdqa 0x7a2f(%eax),%xmm3
+ .byte 102,15,111,152,75,122,0,0 // movdqa 0x7a4b(%eax),%xmm3
.byte 102,15,111,224 // movdqa %xmm0,%xmm4
.byte 102,15,219,227 // pand %xmm3,%xmm4
- .byte 102,15,111,136,95,122,0,0 // movdqa 0x7a5f(%eax),%xmm1
+ .byte 102,15,111,136,123,122,0,0 // movdqa 0x7a7b(%eax),%xmm1
.byte 102,15,127,77,232 // movdqa %xmm1,-0x18(%ebp)
.byte 102,15,111,240 // movdqa %xmm0,%xmm6
.byte 102,15,114,246,3 // pslld $0x3,%xmm6
.byte 102,15,219,241 // pand %xmm1,%xmm6
.byte 102,15,254,244 // paddd %xmm4,%xmm6
- .byte 102,15,111,184,63,122,0,0 // movdqa 0x7a3f(%eax),%xmm7
+ .byte 102,15,111,184,91,122,0,0 // movdqa 0x7a5b(%eax),%xmm7
.byte 102,15,127,69,168 // movdqa %xmm0,-0x58(%ebp)
.byte 102,15,219,199 // pand %xmm7,%xmm0
- .byte 102,15,111,168,79,122,0,0 // movdqa 0x7a4f(%eax),%xmm5
+ .byte 102,15,111,168,107,122,0,0 // movdqa 0x7a6b(%eax),%xmm5
.byte 102,15,111,205 // movdqa %xmm5,%xmm1
.byte 102,15,102,200 // pcmpgtd %xmm0,%xmm1
- .byte 102,15,111,128,223,118,0,0 // movdqa 0x76df(%eax),%xmm0
+ .byte 102,15,111,128,251,118,0,0 // movdqa 0x76fb(%eax),%xmm0
.byte 102,15,127,69,216 // movdqa %xmm0,-0x28(%ebp)
.byte 102,15,254,240 // paddd %xmm0,%xmm6
.byte 102,15,114,230,16 // psrad $0x10,%xmm6
@@ -68540,7 +68559,7 @@ _sk_store_f16_sse2:
.byte 102,15,111,193 // movdqa %xmm1,%xmm0
.byte 102,15,98,198 // punpckldq %xmm6,%xmm0
.byte 133,255 // test %edi,%edi
- .byte 117,48 // jne 5902 <_sk_store_f16_sse2+0x19a>
+ .byte 117,48 // jne 5906 <_sk_store_f16_sse2+0x19a>
.byte 15,17,4,214 // movups %xmm0,(%esi,%edx,8)
.byte 102,15,106,206 // punpckhdq %xmm6,%xmm1
.byte 243,15,127,76,214,16 // movdqu %xmm1,0x10(%esi,%edx,8)
@@ -68560,13 +68579,13 @@ _sk_store_f16_sse2:
.byte 195 // ret
.byte 102,15,214,4,214 // movq %xmm0,(%esi,%edx,8)
.byte 131,255,1 // cmp $0x1,%edi
- .byte 116,212 // je 58e0 <_sk_store_f16_sse2+0x178>
+ .byte 116,212 // je 58e4 <_sk_store_f16_sse2+0x178>
.byte 102,15,23,68,214,8 // movhpd %xmm0,0x8(%esi,%edx,8)
.byte 131,255,3 // cmp $0x3,%edi
- .byte 114,201 // jb 58e0 <_sk_store_f16_sse2+0x178>
+ .byte 114,201 // jb 58e4 <_sk_store_f16_sse2+0x178>
.byte 102,15,106,206 // punpckhdq %xmm6,%xmm1
.byte 102,15,214,76,214,16 // movq %xmm1,0x10(%esi,%edx,8)
- .byte 235,189 // jmp 58e0 <_sk_store_f16_sse2+0x178>
+ .byte 235,189 // jmp 58e4 <_sk_store_f16_sse2+0x178>
HIDDEN _sk_load_u16_be_sse2
.globl _sk_load_u16_be_sse2
@@ -68589,9 +68608,9 @@ _sk_load_u16_be_sse2:
.byte 139,89,8 // mov 0x8(%ecx),%ebx
.byte 193,230,2 // shl $0x2,%esi
.byte 133,219 // test %ebx,%ebx
- .byte 232,0,0,0,0 // call 594e <_sk_load_u16_be_sse2+0x2b>
+ .byte 232,0,0,0,0 // call 5952 <_sk_load_u16_be_sse2+0x2b>
.byte 90 // pop %edx
- .byte 15,133,11,1,0,0 // jne 5a60 <_sk_load_u16_be_sse2+0x13d>
+ .byte 15,133,11,1,0,0 // jne 5a64 <_sk_load_u16_be_sse2+0x13d>
.byte 102,15,16,4,119 // movupd (%edi,%esi,2),%xmm0
.byte 243,15,111,76,119,16 // movdqu 0x10(%edi,%esi,2),%xmm1
.byte 102,15,40,208 // movapd %xmm0,%xmm2
@@ -68612,7 +68631,7 @@ _sk_load_u16_be_sse2:
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 102,15,97,195 // punpcklwd %xmm3,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,40,162,242,117,0,0 // movaps 0x75f2(%edx),%xmm4
+ .byte 15,40,162,14,118,0,0 // movaps 0x760e(%edx),%xmm4
.byte 15,89,196 // mulps %xmm4,%xmm0
.byte 102,15,111,205 // movdqa %xmm5,%xmm1
.byte 102,15,113,241,8 // psllw $0x8,%xmm1
@@ -68662,12 +68681,12 @@ _sk_load_u16_be_sse2:
.byte 242,15,16,4,119 // movsd (%edi,%esi,2),%xmm0
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 131,251,1 // cmp $0x1,%ebx
- .byte 15,132,238,254,255,255 // je 5960 <_sk_load_u16_be_sse2+0x3d>
+ .byte 15,132,238,254,255,255 // je 5964 <_sk_load_u16_be_sse2+0x3d>
.byte 102,15,22,68,119,8 // movhpd 0x8(%edi,%esi,2),%xmm0
.byte 131,251,3 // cmp $0x3,%ebx
- .byte 15,130,223,254,255,255 // jb 5960 <_sk_load_u16_be_sse2+0x3d>
+ .byte 15,130,223,254,255,255 // jb 5964 <_sk_load_u16_be_sse2+0x3d>
.byte 243,15,126,76,119,16 // movq 0x10(%edi,%esi,2),%xmm1
- .byte 233,212,254,255,255 // jmp 5960 <_sk_load_u16_be_sse2+0x3d>
+ .byte 233,212,254,255,255 // jmp 5964 <_sk_load_u16_be_sse2+0x3d>
HIDDEN _sk_load_rgb_u16_be_sse2
.globl _sk_load_rgb_u16_be_sse2
@@ -68689,9 +68708,9 @@ _sk_load_rgb_u16_be_sse2:
.byte 3,50 // add (%edx),%esi
.byte 107,25,3 // imul $0x3,(%ecx),%ebx
.byte 133,255 // test %edi,%edi
- .byte 232,0,0,0,0 // call 5ab5 <_sk_load_rgb_u16_be_sse2+0x29>
+ .byte 232,0,0,0,0 // call 5ab9 <_sk_load_rgb_u16_be_sse2+0x29>
.byte 90 // pop %edx
- .byte 15,133,240,0,0,0 // jne 5bac <_sk_load_rgb_u16_be_sse2+0x120>
+ .byte 15,133,240,0,0,0 // jne 5bb0 <_sk_load_rgb_u16_be_sse2+0x120>
.byte 243,15,111,20,94 // movdqu (%esi,%ebx,2),%xmm2
.byte 243,15,111,92,94,8 // movdqu 0x8(%esi,%ebx,2),%xmm3
.byte 102,15,115,219,4 // psrldq $0x4,%xmm3
@@ -68716,7 +68735,7 @@ _sk_load_rgb_u16_be_sse2:
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 102,15,97,195 // punpcklwd %xmm3,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,40,170,139,116,0,0 // movaps 0x748b(%edx),%xmm5
+ .byte 15,40,170,167,116,0,0 // movaps 0x74a7(%edx),%xmm5
.byte 15,89,197 // mulps %xmm5,%xmm0
.byte 102,15,111,204 // movdqa %xmm4,%xmm1
.byte 102,15,113,241,8 // psllw $0x8,%xmm1
@@ -68742,7 +68761,7 @@ _sk_load_rgb_u16_be_sse2:
.byte 15,89,213 // mulps %xmm5,%xmm2
.byte 141,112,8 // lea 0x8(%eax),%esi
.byte 131,236,8 // sub $0x8,%esp
- .byte 15,40,154,27,114,0,0 // movaps 0x721b(%edx),%xmm3
+ .byte 15,40,154,39,114,0,0 // movaps 0x7227(%edx),%xmm3
.byte 86 // push %esi
.byte 81 // push %ecx
.byte 255,80,4 // call *0x4(%eax)
@@ -68756,20 +68775,20 @@ _sk_load_rgb_u16_be_sse2:
.byte 102,15,196,84,94,4,2 // pinsrw $0x2,0x4(%esi,%ebx,2),%xmm2
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 131,255,1 // cmp $0x1,%edi
- .byte 117,13 // jne 5bce <_sk_load_rgb_u16_be_sse2+0x142>
+ .byte 117,13 // jne 5bd2 <_sk_load_rgb_u16_be_sse2+0x142>
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 102,15,239,192 // pxor %xmm0,%xmm0
- .byte 233,16,255,255,255 // jmp 5ade <_sk_load_rgb_u16_be_sse2+0x52>
+ .byte 233,16,255,255,255 // jmp 5ae2 <_sk_load_rgb_u16_be_sse2+0x52>
.byte 102,15,110,68,94,6 // movd 0x6(%esi,%ebx,2),%xmm0
.byte 102,15,196,68,94,10,2 // pinsrw $0x2,0xa(%esi,%ebx,2),%xmm0
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 131,255,3 // cmp $0x3,%edi
- .byte 114,18 // jb 5bf6 <_sk_load_rgb_u16_be_sse2+0x16a>
+ .byte 114,18 // jb 5bfa <_sk_load_rgb_u16_be_sse2+0x16a>
.byte 102,15,110,92,94,12 // movd 0xc(%esi,%ebx,2),%xmm3
.byte 102,15,196,92,94,16,2 // pinsrw $0x2,0x10(%esi,%ebx,2),%xmm3
- .byte 233,232,254,255,255 // jmp 5ade <_sk_load_rgb_u16_be_sse2+0x52>
+ .byte 233,232,254,255,255 // jmp 5ae2 <_sk_load_rgb_u16_be_sse2+0x52>
.byte 102,15,239,219 // pxor %xmm3,%xmm3
- .byte 233,223,254,255,255 // jmp 5ade <_sk_load_rgb_u16_be_sse2+0x52>
+ .byte 233,223,254,255,255 // jmp 5ae2 <_sk_load_rgb_u16_be_sse2+0x52>
HIDDEN _sk_store_u16_be_sse2
.globl _sk_store_u16_be_sse2
@@ -68779,7 +68798,7 @@ _sk_store_u16_be_sse2:
.byte 137,229 // mov %esp,%ebp
.byte 87 // push %edi
.byte 86 // push %esi
- .byte 232,0,0,0,0 // call 5c09 <_sk_store_u16_be_sse2+0xa>
+ .byte 232,0,0,0,0 // call 5c0d <_sk_store_u16_be_sse2+0xa>
.byte 95 // pop %edi
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
@@ -68789,7 +68808,7 @@ _sk_store_u16_be_sse2:
.byte 1,210 // add %edx,%edx
.byte 3,22 // add (%esi),%edx
.byte 139,49 // mov (%ecx),%esi
- .byte 15,40,183,231,117,0,0 // movaps 0x75e7(%edi),%xmm6
+ .byte 15,40,183,3,118,0,0 // movaps 0x7603(%edi),%xmm6
.byte 139,121,8 // mov 0x8(%ecx),%edi
.byte 193,230,2 // shl $0x2,%esi
.byte 15,40,224 // movaps %xmm0,%xmm4
@@ -68836,7 +68855,7 @@ _sk_store_u16_be_sse2:
.byte 102,15,111,244 // movdqa %xmm4,%xmm6
.byte 102,15,98,245 // punpckldq %xmm5,%xmm6
.byte 133,255 // test %edi,%edi
- .byte 117,32 // jne 5d05 <_sk_store_u16_be_sse2+0x106>
+ .byte 117,32 // jne 5d09 <_sk_store_u16_be_sse2+0x106>
.byte 15,17,52,114 // movups %xmm6,(%edx,%esi,2)
.byte 102,15,106,229 // punpckhdq %xmm5,%xmm4
.byte 243,15,127,100,114,16 // movdqu %xmm4,0x10(%edx,%esi,2)
@@ -68852,13 +68871,13 @@ _sk_store_u16_be_sse2:
.byte 195 // ret
.byte 102,15,214,52,114 // movq %xmm6,(%edx,%esi,2)
.byte 131,255,1 // cmp $0x1,%edi
- .byte 116,228 // je 5cf3 <_sk_store_u16_be_sse2+0xf4>
+ .byte 116,228 // je 5cf7 <_sk_store_u16_be_sse2+0xf4>
.byte 102,15,23,116,114,8 // movhpd %xmm6,0x8(%edx,%esi,2)
.byte 131,255,3 // cmp $0x3,%edi
- .byte 114,217 // jb 5cf3 <_sk_store_u16_be_sse2+0xf4>
+ .byte 114,217 // jb 5cf7 <_sk_store_u16_be_sse2+0xf4>
.byte 102,15,106,229 // punpckhdq %xmm5,%xmm4
.byte 102,15,214,100,114,16 // movq %xmm4,0x10(%edx,%esi,2)
- .byte 235,205 // jmp 5cf3 <_sk_store_u16_be_sse2+0xf4>
+ .byte 235,205 // jmp 5cf7 <_sk_store_u16_be_sse2+0xf4>
HIDDEN _sk_load_f32_sse2
.globl _sk_load_f32_sse2
@@ -68881,7 +68900,7 @@ _sk_load_f32_sse2:
.byte 15,16,36,23 // movups (%edi,%edx,1),%xmm4
.byte 139,121,8 // mov 0x8(%ecx),%edi
.byte 133,255 // test %edi,%edi
- .byte 117,71 // jne 5d9d <_sk_load_f32_sse2+0x77>
+ .byte 117,71 // jne 5da1 <_sk_load_f32_sse2+0x77>
.byte 15,16,84,178,16 // movups 0x10(%edx,%esi,4),%xmm2
.byte 15,16,92,178,32 // movups 0x20(%edx,%esi,4),%xmm3
.byte 15,16,68,178,48 // movups 0x30(%edx,%esi,4),%xmm0
@@ -68909,17 +68928,17 @@ _sk_load_f32_sse2:
.byte 195 // ret
.byte 15,87,192 // xorps %xmm0,%xmm0
.byte 131,255,1 // cmp $0x1,%edi
- .byte 117,8 // jne 5dad <_sk_load_f32_sse2+0x87>
+ .byte 117,8 // jne 5db1 <_sk_load_f32_sse2+0x87>
.byte 15,87,219 // xorps %xmm3,%xmm3
.byte 15,87,210 // xorps %xmm2,%xmm2
- .byte 235,184 // jmp 5d65 <_sk_load_f32_sse2+0x3f>
+ .byte 235,184 // jmp 5d69 <_sk_load_f32_sse2+0x3f>
.byte 15,16,84,178,16 // movups 0x10(%edx,%esi,4),%xmm2
.byte 131,255,3 // cmp $0x3,%edi
- .byte 114,7 // jb 5dbe <_sk_load_f32_sse2+0x98>
+ .byte 114,7 // jb 5dc2 <_sk_load_f32_sse2+0x98>
.byte 15,16,92,178,32 // movups 0x20(%edx,%esi,4),%xmm3
- .byte 235,167 // jmp 5d65 <_sk_load_f32_sse2+0x3f>
+ .byte 235,167 // jmp 5d69 <_sk_load_f32_sse2+0x3f>
.byte 15,87,219 // xorps %xmm3,%xmm3
- .byte 235,162 // jmp 5d65 <_sk_load_f32_sse2+0x3f>
+ .byte 235,162 // jmp 5d69 <_sk_load_f32_sse2+0x3f>
HIDDEN _sk_load_f32_dst_sse2
.globl _sk_load_f32_dst_sse2
@@ -68945,7 +68964,7 @@ _sk_load_f32_dst_sse2:
.byte 15,16,52,23 // movups (%edi,%edx,1),%xmm6
.byte 139,121,8 // mov 0x8(%ecx),%edi
.byte 133,255 // test %edi,%edi
- .byte 117,97 // jne 5e5f <_sk_load_f32_dst_sse2+0x9c>
+ .byte 117,97 // jne 5e63 <_sk_load_f32_dst_sse2+0x9c>
.byte 15,16,124,178,16 // movups 0x10(%edx,%esi,4),%xmm7
.byte 15,16,92,178,32 // movups 0x20(%edx,%esi,4),%xmm3
.byte 15,16,84,178,48 // movups 0x30(%edx,%esi,4),%xmm2
@@ -68979,17 +68998,17 @@ _sk_load_f32_dst_sse2:
.byte 195 // ret
.byte 15,87,210 // xorps %xmm2,%xmm2
.byte 131,255,1 // cmp $0x1,%edi
- .byte 117,8 // jne 5e6f <_sk_load_f32_dst_sse2+0xac>
+ .byte 117,8 // jne 5e73 <_sk_load_f32_dst_sse2+0xac>
.byte 15,87,219 // xorps %xmm3,%xmm3
.byte 15,87,255 // xorps %xmm7,%xmm7
- .byte 235,158 // jmp 5e0d <_sk_load_f32_dst_sse2+0x4a>
+ .byte 235,158 // jmp 5e11 <_sk_load_f32_dst_sse2+0x4a>
.byte 15,16,124,178,16 // movups 0x10(%edx,%esi,4),%xmm7
.byte 131,255,3 // cmp $0x3,%edi
- .byte 114,7 // jb 5e80 <_sk_load_f32_dst_sse2+0xbd>
+ .byte 114,7 // jb 5e84 <_sk_load_f32_dst_sse2+0xbd>
.byte 15,16,92,178,32 // movups 0x20(%edx,%esi,4),%xmm3
- .byte 235,141 // jmp 5e0d <_sk_load_f32_dst_sse2+0x4a>
+ .byte 235,141 // jmp 5e11 <_sk_load_f32_dst_sse2+0x4a>
.byte 15,87,219 // xorps %xmm3,%xmm3
- .byte 235,136 // jmp 5e0d <_sk_load_f32_dst_sse2+0x4a>
+ .byte 235,136 // jmp 5e11 <_sk_load_f32_dst_sse2+0x4a>
HIDDEN _sk_store_f32_sse2
.globl _sk_store_f32_sse2
@@ -69027,7 +69046,7 @@ _sk_store_f32_sse2:
.byte 15,40,238 // movaps %xmm6,%xmm5
.byte 102,15,20,239 // unpcklpd %xmm7,%xmm5
.byte 133,255 // test %edi,%edi
- .byte 117,40 // jne 5f0b <_sk_store_f32_sse2+0x86>
+ .byte 117,40 // jne 5f0f <_sk_store_f32_sse2+0x86>
.byte 102,15,21,247 // unpckhpd %xmm7,%xmm6
.byte 15,17,100,178,16 // movups %xmm4,0x10(%edx,%esi,4)
.byte 102,15,17,108,178,32 // movupd %xmm5,0x20(%edx,%esi,4)
@@ -69044,12 +69063,12 @@ _sk_store_f32_sse2:
.byte 93 // pop %ebp
.byte 195 // ret
.byte 131,255,1 // cmp $0x1,%edi
- .byte 116,232 // je 5ef8 <_sk_store_f32_sse2+0x73>
+ .byte 116,232 // je 5efc <_sk_store_f32_sse2+0x73>
.byte 15,17,100,178,16 // movups %xmm4,0x10(%edx,%esi,4)
.byte 131,255,3 // cmp $0x3,%edi
- .byte 114,222 // jb 5ef8 <_sk_store_f32_sse2+0x73>
+ .byte 114,222 // jb 5efc <_sk_store_f32_sse2+0x73>
.byte 102,15,17,108,178,32 // movupd %xmm5,0x20(%edx,%esi,4)
- .byte 235,214 // jmp 5ef8 <_sk_store_f32_sse2+0x73>
+ .byte 235,214 // jmp 5efc <_sk_store_f32_sse2+0x73>
HIDDEN _sk_repeat_x_sse2
.globl _sk_repeat_x_sse2
@@ -69058,7 +69077,7 @@ _sk_repeat_x_sse2:
.byte 85 // push %ebp
.byte 137,229 // mov %esp,%ebp
.byte 131,236,8 // sub $0x8,%esp
- .byte 232,0,0,0,0 // call 5f2d <_sk_repeat_x_sse2+0xb>
+ .byte 232,0,0,0,0 // call 5f31 <_sk_repeat_x_sse2+0xb>
.byte 88 // pop %eax
.byte 139,77,12 // mov 0xc(%ebp),%ecx
.byte 139,17 // mov (%ecx),%edx
@@ -69069,7 +69088,7 @@ _sk_repeat_x_sse2:
.byte 243,15,91,245 // cvttps2dq %xmm5,%xmm6
.byte 15,91,246 // cvtdq2ps %xmm6,%xmm6
.byte 15,194,238,1 // cmpltps %xmm6,%xmm5
- .byte 15,84,168,163,109,0,0 // andps 0x6da3(%eax),%xmm5
+ .byte 15,84,168,175,109,0,0 // andps 0x6daf(%eax),%xmm5
.byte 15,92,245 // subps %xmm5,%xmm6
.byte 15,198,228,0 // shufps $0x0,%xmm4,%xmm4
.byte 15,89,230 // mulps %xmm6,%xmm4
@@ -69090,7 +69109,7 @@ _sk_repeat_y_sse2:
.byte 85 // push %ebp
.byte 137,229 // mov %esp,%ebp
.byte 131,236,8 // sub $0x8,%esp
- .byte 232,0,0,0,0 // call 5f7f <_sk_repeat_y_sse2+0xb>
+ .byte 232,0,0,0,0 // call 5f83 <_sk_repeat_y_sse2+0xb>
.byte 88 // pop %eax
.byte 139,77,12 // mov 0xc(%ebp),%ecx
.byte 139,17 // mov (%ecx),%edx
@@ -69101,7 +69120,7 @@ _sk_repeat_y_sse2:
.byte 243,15,91,245 // cvttps2dq %xmm5,%xmm6
.byte 15,91,246 // cvtdq2ps %xmm6,%xmm6
.byte 15,194,238,1 // cmpltps %xmm6,%xmm5
- .byte 15,84,168,81,109,0,0 // andps 0x6d51(%eax),%xmm5
+ .byte 15,84,168,93,109,0,0 // andps 0x6d5d(%eax),%xmm5
.byte 15,92,245 // subps %xmm5,%xmm6
.byte 15,198,228,0 // shufps $0x0,%xmm4,%xmm4
.byte 15,89,230 // mulps %xmm6,%xmm4
@@ -69122,7 +69141,7 @@ _sk_mirror_x_sse2:
.byte 85 // push %ebp
.byte 137,229 // mov %esp,%ebp
.byte 131,236,8 // sub $0x8,%esp
- .byte 232,0,0,0,0 // call 5fd1 <_sk_mirror_x_sse2+0xb>
+ .byte 232,0,0,0,0 // call 5fd5 <_sk_mirror_x_sse2+0xb>
.byte 89 // pop %ecx
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 139,16 // mov (%eax),%edx
@@ -69131,13 +69150,13 @@ _sk_mirror_x_sse2:
.byte 15,40,244 // movaps %xmm4,%xmm6
.byte 15,198,246,0 // shufps $0x0,%xmm6,%xmm6
.byte 15,92,198 // subps %xmm6,%xmm0
- .byte 243,15,89,169,143,116,0,0 // mulss 0x748f(%ecx),%xmm5
+ .byte 243,15,89,169,171,116,0,0 // mulss 0x74ab(%ecx),%xmm5
.byte 15,198,237,0 // shufps $0x0,%xmm5,%xmm5
.byte 15,89,232 // mulps %xmm0,%xmm5
.byte 243,15,91,253 // cvttps2dq %xmm5,%xmm7
.byte 15,91,255 // cvtdq2ps %xmm7,%xmm7
.byte 15,194,239,1 // cmpltps %xmm7,%xmm5
- .byte 15,84,169,255,108,0,0 // andps 0x6cff(%ecx),%xmm5
+ .byte 15,84,169,11,109,0,0 // andps 0x6d0b(%ecx),%xmm5
.byte 15,92,253 // subps %xmm5,%xmm7
.byte 243,15,88,228 // addss %xmm4,%xmm4
.byte 15,198,228,0 // shufps $0x0,%xmm4,%xmm4
@@ -69163,7 +69182,7 @@ _sk_mirror_y_sse2:
.byte 85 // push %ebp
.byte 137,229 // mov %esp,%ebp
.byte 131,236,8 // sub $0x8,%esp
- .byte 232,0,0,0,0 // call 6045 <_sk_mirror_y_sse2+0xb>
+ .byte 232,0,0,0,0 // call 6049 <_sk_mirror_y_sse2+0xb>
.byte 89 // pop %ecx
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 139,16 // mov (%eax),%edx
@@ -69172,13 +69191,13 @@ _sk_mirror_y_sse2:
.byte 15,40,244 // movaps %xmm4,%xmm6
.byte 15,198,246,0 // shufps $0x0,%xmm6,%xmm6
.byte 15,92,206 // subps %xmm6,%xmm1
- .byte 243,15,89,169,27,116,0,0 // mulss 0x741b(%ecx),%xmm5
+ .byte 243,15,89,169,55,116,0,0 // mulss 0x7437(%ecx),%xmm5
.byte 15,198,237,0 // shufps $0x0,%xmm5,%xmm5
.byte 15,89,233 // mulps %xmm1,%xmm5
.byte 243,15,91,253 // cvttps2dq %xmm5,%xmm7
.byte 15,91,255 // cvtdq2ps %xmm7,%xmm7
.byte 15,194,239,1 // cmpltps %xmm7,%xmm5
- .byte 15,84,169,139,108,0,0 // andps 0x6c8b(%ecx),%xmm5
+ .byte 15,84,169,151,108,0,0 // andps 0x6c97(%ecx),%xmm5
.byte 15,92,253 // subps %xmm5,%xmm7
.byte 243,15,88,228 // addss %xmm4,%xmm4
.byte 15,198,228,0 // shufps $0x0,%xmm4,%xmm4
@@ -69204,12 +69223,12 @@ _sk_clamp_x_1_sse2:
.byte 85 // push %ebp
.byte 137,229 // mov %esp,%ebp
.byte 131,236,8 // sub $0x8,%esp
- .byte 232,0,0,0,0 // call 60b9 <_sk_clamp_x_1_sse2+0xb>
+ .byte 232,0,0,0,0 // call 60bd <_sk_clamp_x_1_sse2+0xb>
.byte 88 // pop %eax
.byte 139,77,12 // mov 0xc(%ebp),%ecx
.byte 15,87,228 // xorps %xmm4,%xmm4
.byte 15,95,224 // maxps %xmm0,%xmm4
- .byte 15,93,160,23,108,0,0 // minps 0x6c17(%eax),%xmm4
+ .byte 15,93,160,35,108,0,0 // minps 0x6c23(%eax),%xmm4
.byte 141,65,4 // lea 0x4(%ecx),%eax
.byte 131,236,8 // sub $0x8,%esp
.byte 15,40,196 // movaps %xmm4,%xmm0
@@ -69227,14 +69246,14 @@ _sk_repeat_x_1_sse2:
.byte 85 // push %ebp
.byte 137,229 // mov %esp,%ebp
.byte 131,236,8 // sub $0x8,%esp
- .byte 232,0,0,0,0 // call 60e9 <_sk_repeat_x_1_sse2+0xb>
+ .byte 232,0,0,0,0 // call 60ed <_sk_repeat_x_1_sse2+0xb>
.byte 88 // pop %eax
.byte 139,77,12 // mov 0xc(%ebp),%ecx
.byte 243,15,91,224 // cvttps2dq %xmm0,%xmm4
.byte 15,91,236 // cvtdq2ps %xmm4,%xmm5
.byte 15,40,240 // movaps %xmm0,%xmm6
.byte 15,194,245,1 // cmpltps %xmm5,%xmm6
- .byte 15,40,184,231,107,0,0 // movaps 0x6be7(%eax),%xmm7
+ .byte 15,40,184,243,107,0,0 // movaps 0x6bf3(%eax),%xmm7
.byte 15,84,247 // andps %xmm7,%xmm6
.byte 15,87,228 // xorps %xmm4,%xmm4
.byte 15,92,238 // subps %xmm6,%xmm5
@@ -69258,16 +69277,16 @@ _sk_mirror_x_1_sse2:
.byte 85 // push %ebp
.byte 137,229 // mov %esp,%ebp
.byte 131,236,8 // sub $0x8,%esp
- .byte 232,0,0,0,0 // call 6133 <_sk_mirror_x_1_sse2+0xb>
+ .byte 232,0,0,0,0 // call 6137 <_sk_mirror_x_1_sse2+0xb>
.byte 88 // pop %eax
- .byte 15,40,160,13,108,0,0 // movaps 0x6c0d(%eax),%xmm4
+ .byte 15,40,160,25,108,0,0 // movaps 0x6c19(%eax),%xmm4
.byte 15,88,196 // addps %xmm4,%xmm0
- .byte 15,40,168,141,107,0,0 // movaps 0x6b8d(%eax),%xmm5
+ .byte 15,40,168,153,107,0,0 // movaps 0x6b99(%eax),%xmm5
.byte 15,89,232 // mulps %xmm0,%xmm5
.byte 243,15,91,245 // cvttps2dq %xmm5,%xmm6
.byte 15,91,246 // cvtdq2ps %xmm6,%xmm6
.byte 15,194,238,1 // cmpltps %xmm6,%xmm5
- .byte 15,40,184,157,107,0,0 // movaps 0x6b9d(%eax),%xmm7
+ .byte 15,40,184,169,107,0,0 // movaps 0x6ba9(%eax),%xmm7
.byte 15,84,239 // andps %xmm7,%xmm5
.byte 15,92,245 // subps %xmm5,%xmm6
.byte 15,88,246 // addps %xmm6,%xmm6
@@ -69297,13 +69316,13 @@ _sk_luminance_to_alpha_sse2:
.byte 137,229 // mov %esp,%ebp
.byte 131,236,8 // sub $0x8,%esp
.byte 15,40,218 // movaps %xmm2,%xmm3
- .byte 232,0,0,0,0 // call 619d <_sk_luminance_to_alpha_sse2+0xe>
+ .byte 232,0,0,0,0 // call 61a1 <_sk_luminance_to_alpha_sse2+0xe>
.byte 88 // pop %eax
.byte 139,77,12 // mov 0xc(%ebp),%ecx
- .byte 15,89,128,99,112,0,0 // mulps 0x7063(%eax),%xmm0
- .byte 15,89,136,115,112,0,0 // mulps 0x7073(%eax),%xmm1
+ .byte 15,89,128,127,112,0,0 // mulps 0x707f(%eax),%xmm0
+ .byte 15,89,136,143,112,0,0 // mulps 0x708f(%eax),%xmm1
.byte 15,88,200 // addps %xmm0,%xmm1
- .byte 15,89,152,131,112,0,0 // mulps 0x7083(%eax),%xmm3
+ .byte 15,89,152,159,112,0,0 // mulps 0x709f(%eax),%xmm3
.byte 15,88,217 // addps %xmm1,%xmm3
.byte 141,65,4 // lea 0x4(%ecx),%eax
.byte 131,236,8 // sub $0x8,%esp
@@ -69690,7 +69709,7 @@ _sk_evenly_spaced_gradient_sse2:
.byte 86 // push %esi
.byte 131,236,60 // sub $0x3c,%esp
.byte 15,41,69,184 // movaps %xmm0,-0x48(%ebp)
- .byte 232,0,0,0,0 // call 6633 <_sk_evenly_spaced_gradient_sse2+0x12>
+ .byte 232,0,0,0,0 // call 6637 <_sk_evenly_spaced_gradient_sse2+0x12>
.byte 90 // pop %edx
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 139,8 // mov (%eax),%ecx
@@ -69699,12 +69718,12 @@ _sk_evenly_spaced_gradient_sse2:
.byte 78 // dec %esi
.byte 102,15,110,206 // movd %esi,%xmm1
.byte 102,15,112,201,0 // pshufd $0x0,%xmm1,%xmm1
- .byte 102,15,111,146,253,107,0,0 // movdqa 0x6bfd(%edx),%xmm2
+ .byte 102,15,111,146,25,108,0,0 // movdqa 0x6c19(%edx),%xmm2
.byte 102,15,219,209 // pand %xmm1,%xmm2
- .byte 102,15,235,146,189,105,0,0 // por 0x69bd(%edx),%xmm2
+ .byte 102,15,235,146,217,105,0,0 // por 0x69d9(%edx),%xmm2
.byte 102,15,114,209,16 // psrld $0x10,%xmm1
- .byte 102,15,235,138,13,108,0,0 // por 0x6c0d(%edx),%xmm1
- .byte 15,88,138,29,108,0,0 // addps 0x6c1d(%edx),%xmm1
+ .byte 102,15,235,138,41,108,0,0 // por 0x6c29(%edx),%xmm1
+ .byte 15,88,138,57,108,0,0 // addps 0x6c39(%edx),%xmm1
.byte 15,88,202 // addps %xmm2,%xmm1
.byte 15,89,200 // mulps %xmm0,%xmm1
.byte 243,15,91,201 // cvttps2dq %xmm1,%xmm1
@@ -69810,18 +69829,18 @@ _sk_gauss_a_to_rgba_sse2:
.byte 85 // push %ebp
.byte 137,229 // mov %esp,%ebp
.byte 131,236,8 // sub $0x8,%esp
- .byte 232,0,0,0,0 // call 67ec <_sk_gauss_a_to_rgba_sse2+0xb>
+ .byte 232,0,0,0,0 // call 67f0 <_sk_gauss_a_to_rgba_sse2+0xb>
.byte 88 // pop %eax
.byte 139,77,12 // mov 0xc(%ebp),%ecx
- .byte 15,40,128,116,106,0,0 // movaps 0x6a74(%eax),%xmm0
+ .byte 15,40,128,144,106,0,0 // movaps 0x6a90(%eax),%xmm0
.byte 15,89,195 // mulps %xmm3,%xmm0
- .byte 15,88,128,132,106,0,0 // addps 0x6a84(%eax),%xmm0
+ .byte 15,88,128,160,106,0,0 // addps 0x6aa0(%eax),%xmm0
.byte 15,89,195 // mulps %xmm3,%xmm0
- .byte 15,88,128,148,106,0,0 // addps 0x6a94(%eax),%xmm0
+ .byte 15,88,128,176,106,0,0 // addps 0x6ab0(%eax),%xmm0
.byte 15,89,195 // mulps %xmm3,%xmm0
- .byte 15,88,128,164,106,0,0 // addps 0x6aa4(%eax),%xmm0
+ .byte 15,88,128,192,106,0,0 // addps 0x6ac0(%eax),%xmm0
.byte 15,89,195 // mulps %xmm3,%xmm0
- .byte 15,88,128,180,106,0,0 // addps 0x6ab4(%eax),%xmm0
+ .byte 15,88,128,208,106,0,0 // addps 0x6ad0(%eax),%xmm0
.byte 141,65,4 // lea 0x4(%ecx),%eax
.byte 131,236,8 // sub $0x8,%esp
.byte 15,40,200 // movaps %xmm0,%xmm1
@@ -69849,7 +69868,7 @@ _sk_gradient_sse2:
.byte 139,10 // mov (%edx),%ecx
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 131,249,2 // cmp $0x2,%ecx
- .byte 114,33 // jb 6873 <_sk_gradient_sse2+0x3a>
+ .byte 114,33 // jb 6877 <_sk_gradient_sse2+0x3a>
.byte 139,114,36 // mov 0x24(%edx),%esi
.byte 73 // dec %ecx
.byte 131,198,4 // add $0x4,%esi
@@ -69860,7 +69879,7 @@ _sk_gradient_sse2:
.byte 102,15,250,202 // psubd %xmm2,%xmm1
.byte 131,198,4 // add $0x4,%esi
.byte 73 // dec %ecx
- .byte 117,234 // jne 685d <_sk_gradient_sse2+0x24>
+ .byte 117,234 // jne 6861 <_sk_gradient_sse2+0x24>
.byte 102,15,126,206 // movd %xmm1,%esi
.byte 102,15,112,209,229 // pshufd $0xe5,%xmm1,%xmm2
.byte 102,15,112,217,78 // pshufd $0x4e,%xmm1,%xmm3
@@ -70013,7 +70032,7 @@ _sk_xy_to_unit_angle_sse2:
.byte 15,40,218 // movaps %xmm2,%xmm3
.byte 15,40,209 // movaps %xmm1,%xmm2
.byte 15,40,200 // movaps %xmm0,%xmm1
- .byte 232,0,0,0,0 // call 6a7b <_sk_xy_to_unit_angle_sse2+0x18>
+ .byte 232,0,0,0,0 // call 6a7f <_sk_xy_to_unit_angle_sse2+0x18>
.byte 88 // pop %eax
.byte 15,87,237 // xorps %xmm5,%xmm5
.byte 15,92,233 // subps %xmm1,%xmm5
@@ -70028,30 +70047,30 @@ _sk_xy_to_unit_angle_sse2:
.byte 15,94,247 // divps %xmm7,%xmm6
.byte 15,40,254 // movaps %xmm6,%xmm7
.byte 15,89,255 // mulps %xmm7,%xmm7
- .byte 15,40,128,53,104,0,0 // movaps 0x6835(%eax),%xmm0
+ .byte 15,40,128,81,104,0,0 // movaps 0x6851(%eax),%xmm0
.byte 15,89,199 // mulps %xmm7,%xmm0
- .byte 15,88,128,69,104,0,0 // addps 0x6845(%eax),%xmm0
+ .byte 15,88,128,97,104,0,0 // addps 0x6861(%eax),%xmm0
.byte 15,89,199 // mulps %xmm7,%xmm0
- .byte 15,88,128,85,104,0,0 // addps 0x6855(%eax),%xmm0
+ .byte 15,88,128,113,104,0,0 // addps 0x6871(%eax),%xmm0
.byte 15,89,199 // mulps %xmm7,%xmm0
- .byte 15,88,128,101,104,0,0 // addps 0x6865(%eax),%xmm0
+ .byte 15,88,128,129,104,0,0 // addps 0x6881(%eax),%xmm0
.byte 15,89,198 // mulps %xmm6,%xmm0
.byte 15,194,236,1 // cmpltps %xmm4,%xmm5
- .byte 15,40,176,117,104,0,0 // movaps 0x6875(%eax),%xmm6
+ .byte 15,40,176,145,104,0,0 // movaps 0x6891(%eax),%xmm6
.byte 15,92,240 // subps %xmm0,%xmm6
.byte 15,84,245 // andps %xmm5,%xmm6
.byte 15,85,232 // andnps %xmm0,%xmm5
.byte 15,87,228 // xorps %xmm4,%xmm4
.byte 15,86,238 // orps %xmm6,%xmm5
.byte 15,194,204,1 // cmpltps %xmm4,%xmm1
- .byte 15,40,128,69,98,0,0 // movaps 0x6245(%eax),%xmm0
+ .byte 15,40,128,81,98,0,0 // movaps 0x6251(%eax),%xmm0
.byte 15,92,197 // subps %xmm5,%xmm0
.byte 15,84,193 // andps %xmm1,%xmm0
.byte 15,85,205 // andnps %xmm5,%xmm1
.byte 15,86,200 // orps %xmm0,%xmm1
.byte 15,40,194 // movaps %xmm2,%xmm0
.byte 15,194,196,1 // cmpltps %xmm4,%xmm0
- .byte 15,40,168,85,98,0,0 // movaps 0x6255(%eax),%xmm5
+ .byte 15,40,168,97,98,0,0 // movaps 0x6261(%eax),%xmm5
.byte 15,92,233 // subps %xmm1,%xmm5
.byte 15,84,232 // andps %xmm0,%xmm5
.byte 15,85,193 // andnps %xmm1,%xmm0
@@ -70112,15 +70131,15 @@ _sk_xy_to_2pt_conical_quadratic_max_sse2:
.byte 15,40,241 // movaps %xmm1,%xmm6
.byte 15,89,246 // mulps %xmm6,%xmm6
.byte 15,88,240 // addps %xmm0,%xmm6
- .byte 232,0,0,0,0 // call 6b98 <_sk_xy_to_2pt_conical_quadratic_max_sse2+0x31>
+ .byte 232,0,0,0,0 // call 6b9c <_sk_xy_to_2pt_conical_quadratic_max_sse2+0x31>
.byte 90 // pop %edx
.byte 243,15,89,237 // mulss %xmm5,%xmm5
.byte 15,198,237,0 // shufps $0x0,%xmm5,%xmm5
.byte 15,92,245 // subps %xmm5,%xmm6
.byte 243,15,16,65,32 // movss 0x20(%ecx),%xmm0
.byte 15,198,192,0 // shufps $0x0,%xmm0,%xmm0
- .byte 15,89,162,104,103,0,0 // mulps 0x6768(%edx),%xmm4
- .byte 15,89,130,120,103,0,0 // mulps 0x6778(%edx),%xmm0
+ .byte 15,89,162,132,103,0,0 // mulps 0x6784(%edx),%xmm4
+ .byte 15,89,130,148,103,0,0 // mulps 0x6794(%edx),%xmm0
.byte 15,89,198 // mulps %xmm6,%xmm0
.byte 15,40,236 // movaps %xmm4,%xmm5
.byte 15,89,237 // mulps %xmm5,%xmm5
@@ -70128,11 +70147,11 @@ _sk_xy_to_2pt_conical_quadratic_max_sse2:
.byte 15,81,237 // sqrtps %xmm5,%xmm5
.byte 15,40,197 // movaps %xmm5,%xmm0
.byte 15,92,196 // subps %xmm4,%xmm0
- .byte 15,87,162,24,102,0,0 // xorps 0x6618(%edx),%xmm4
+ .byte 15,87,162,52,102,0,0 // xorps 0x6634(%edx),%xmm4
.byte 15,92,229 // subps %xmm5,%xmm4
.byte 243,15,16,105,36 // movss 0x24(%ecx),%xmm5
.byte 15,198,237,0 // shufps $0x0,%xmm5,%xmm5
- .byte 15,89,170,40,97,0,0 // mulps 0x6128(%edx),%xmm5
+ .byte 15,89,170,52,97,0,0 // mulps 0x6134(%edx),%xmm5
.byte 15,89,197 // mulps %xmm5,%xmm0
.byte 15,89,229 // mulps %xmm5,%xmm4
.byte 15,95,196 // maxps %xmm4,%xmm0
@@ -70163,15 +70182,15 @@ _sk_xy_to_2pt_conical_quadratic_min_sse2:
.byte 15,40,241 // movaps %xmm1,%xmm6
.byte 15,89,246 // mulps %xmm6,%xmm6
.byte 15,88,240 // addps %xmm0,%xmm6
- .byte 232,0,0,0,0 // call 6c36 <_sk_xy_to_2pt_conical_quadratic_min_sse2+0x31>
+ .byte 232,0,0,0,0 // call 6c3a <_sk_xy_to_2pt_conical_quadratic_min_sse2+0x31>
.byte 90 // pop %edx
.byte 243,15,89,237 // mulss %xmm5,%xmm5
.byte 15,198,237,0 // shufps $0x0,%xmm5,%xmm5
.byte 15,92,245 // subps %xmm5,%xmm6
.byte 243,15,16,65,32 // movss 0x20(%ecx),%xmm0
.byte 15,198,192,0 // shufps $0x0,%xmm0,%xmm0
- .byte 15,89,162,202,102,0,0 // mulps 0x66ca(%edx),%xmm4
- .byte 15,89,130,218,102,0,0 // mulps 0x66da(%edx),%xmm0
+ .byte 15,89,162,230,102,0,0 // mulps 0x66e6(%edx),%xmm4
+ .byte 15,89,130,246,102,0,0 // mulps 0x66f6(%edx),%xmm0
.byte 15,89,198 // mulps %xmm6,%xmm0
.byte 15,40,236 // movaps %xmm4,%xmm5
.byte 15,89,237 // mulps %xmm5,%xmm5
@@ -70179,11 +70198,11 @@ _sk_xy_to_2pt_conical_quadratic_min_sse2:
.byte 15,81,237 // sqrtps %xmm5,%xmm5
.byte 15,40,197 // movaps %xmm5,%xmm0
.byte 15,92,196 // subps %xmm4,%xmm0
- .byte 15,87,162,122,101,0,0 // xorps 0x657a(%edx),%xmm4
+ .byte 15,87,162,150,101,0,0 // xorps 0x6596(%edx),%xmm4
.byte 15,92,229 // subps %xmm5,%xmm4
.byte 243,15,16,105,36 // movss 0x24(%ecx),%xmm5
.byte 15,198,237,0 // shufps $0x0,%xmm5,%xmm5
- .byte 15,89,170,138,96,0,0 // mulps 0x608a(%edx),%xmm5
+ .byte 15,89,170,150,96,0,0 // mulps 0x6096(%edx),%xmm5
.byte 15,89,197 // mulps %xmm5,%xmm0
.byte 15,89,229 // mulps %xmm5,%xmm4
.byte 15,93,196 // minps %xmm4,%xmm0
@@ -70203,7 +70222,7 @@ _sk_xy_to_2pt_conical_linear_sse2:
.byte 85 // push %ebp
.byte 137,229 // mov %esp,%ebp
.byte 131,236,8 // sub $0x8,%esp
- .byte 232,0,0,0,0 // call 6cae <_sk_xy_to_2pt_conical_linear_sse2+0xb>
+ .byte 232,0,0,0,0 // call 6cb2 <_sk_xy_to_2pt_conical_linear_sse2+0xb>
.byte 89 // pop %ecx
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 139,16 // mov (%eax),%edx
@@ -70212,7 +70231,7 @@ _sk_xy_to_2pt_conical_linear_sse2:
.byte 243,15,89,236 // mulss %xmm4,%xmm5
.byte 15,198,237,0 // shufps $0x0,%xmm5,%xmm5
.byte 15,88,232 // addps %xmm0,%xmm5
- .byte 15,89,169,82,102,0,0 // mulps 0x6652(%ecx),%xmm5
+ .byte 15,89,169,110,102,0,0 // mulps 0x666e(%ecx),%xmm5
.byte 15,89,192 // mulps %xmm0,%xmm0
.byte 15,40,241 // movaps %xmm1,%xmm6
.byte 15,89,246 // mulps %xmm6,%xmm6
@@ -70220,7 +70239,7 @@ _sk_xy_to_2pt_conical_linear_sse2:
.byte 243,15,89,228 // mulss %xmm4,%xmm4
.byte 15,198,228,0 // shufps $0x0,%xmm4,%xmm4
.byte 15,92,196 // subps %xmm4,%xmm0
- .byte 15,87,129,2,101,0,0 // xorps 0x6502(%ecx),%xmm0
+ .byte 15,87,129,30,101,0,0 // xorps 0x651e(%ecx),%xmm0
.byte 15,94,197 // divps %xmm5,%xmm0
.byte 141,72,8 // lea 0x8(%eax),%ecx
.byte 131,236,8 // sub $0x8,%esp
@@ -70297,16 +70316,16 @@ _sk_save_xy_sse2:
.byte 131,236,24 // sub $0x18,%esp
.byte 15,41,93,232 // movaps %xmm3,-0x18(%ebp)
.byte 15,40,218 // movaps %xmm2,%xmm3
- .byte 232,0,0,0,0 // call 6d97 <_sk_save_xy_sse2+0x12>
+ .byte 232,0,0,0,0 // call 6d9b <_sk_save_xy_sse2+0x12>
.byte 88 // pop %eax
- .byte 15,40,160,41,95,0,0 // movaps 0x5f29(%eax),%xmm4
+ .byte 15,40,160,53,95,0,0 // movaps 0x5f35(%eax),%xmm4
.byte 15,40,232 // movaps %xmm0,%xmm5
.byte 15,88,236 // addps %xmm4,%xmm5
.byte 243,15,91,245 // cvttps2dq %xmm5,%xmm6
.byte 15,91,246 // cvtdq2ps %xmm6,%xmm6
.byte 15,40,253 // movaps %xmm5,%xmm7
.byte 15,194,254,1 // cmpltps %xmm6,%xmm7
- .byte 15,40,144,57,95,0,0 // movaps 0x5f39(%eax),%xmm2
+ .byte 15,40,144,69,95,0,0 // movaps 0x5f45(%eax),%xmm2
.byte 15,84,250 // andps %xmm2,%xmm7
.byte 15,92,247 // subps %xmm7,%xmm6
.byte 15,92,238 // subps %xmm6,%xmm5
@@ -70381,15 +70400,15 @@ _sk_bilinear_nx_sse2:
.byte 137,229 // mov %esp,%ebp
.byte 86 // push %esi
.byte 80 // push %eax
- .byte 232,0,0,0,0 // call 6e79 <_sk_bilinear_nx_sse2+0xa>
+ .byte 232,0,0,0,0 // call 6e7d <_sk_bilinear_nx_sse2+0xa>
.byte 88 // pop %eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
.byte 139,85,12 // mov 0xc(%ebp),%edx
.byte 139,50 // mov (%edx),%esi
.byte 15,16,6 // movups (%esi),%xmm0
.byte 15,16,102,64 // movups 0x40(%esi),%xmm4
- .byte 15,88,128,167,100,0,0 // addps 0x64a7(%eax),%xmm0
- .byte 15,40,168,87,94,0,0 // movaps 0x5e57(%eax),%xmm5
+ .byte 15,88,128,195,100,0,0 // addps 0x64c3(%eax),%xmm0
+ .byte 15,40,168,99,94,0,0 // movaps 0x5e63(%eax),%xmm5
.byte 15,92,236 // subps %xmm4,%xmm5
.byte 15,17,174,128,0,0,0 // movups %xmm5,0x80(%esi)
.byte 141,66,8 // lea 0x8(%edx),%eax
@@ -70410,14 +70429,14 @@ _sk_bilinear_px_sse2:
.byte 137,229 // mov %esp,%ebp
.byte 86 // push %esi
.byte 80 // push %eax
- .byte 232,0,0,0,0 // call 6ebc <_sk_bilinear_px_sse2+0xa>
+ .byte 232,0,0,0,0 // call 6ec0 <_sk_bilinear_px_sse2+0xa>
.byte 88 // pop %eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
.byte 139,85,12 // mov 0xc(%ebp),%edx
.byte 139,50 // mov (%edx),%esi
.byte 15,16,6 // movups (%esi),%xmm0
.byte 15,16,102,64 // movups 0x40(%esi),%xmm4
- .byte 15,88,128,4,94,0,0 // addps 0x5e04(%eax),%xmm0
+ .byte 15,88,128,16,94,0,0 // addps 0x5e10(%eax),%xmm0
.byte 15,17,166,128,0,0,0 // movups %xmm4,0x80(%esi)
.byte 141,66,8 // lea 0x8(%edx),%eax
.byte 131,236,8 // sub $0x8,%esp
@@ -70437,15 +70456,15 @@ _sk_bilinear_ny_sse2:
.byte 137,229 // mov %esp,%ebp
.byte 86 // push %esi
.byte 80 // push %eax
- .byte 232,0,0,0,0 // call 6ef5 <_sk_bilinear_ny_sse2+0xa>
+ .byte 232,0,0,0,0 // call 6ef9 <_sk_bilinear_ny_sse2+0xa>
.byte 88 // pop %eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
.byte 139,85,12 // mov 0xc(%ebp),%edx
.byte 139,50 // mov (%edx),%esi
.byte 15,16,78,32 // movups 0x20(%esi),%xmm1
.byte 15,16,102,96 // movups 0x60(%esi),%xmm4
- .byte 15,88,136,43,100,0,0 // addps 0x642b(%eax),%xmm1
- .byte 15,40,168,219,93,0,0 // movaps 0x5ddb(%eax),%xmm5
+ .byte 15,88,136,71,100,0,0 // addps 0x6447(%eax),%xmm1
+ .byte 15,40,168,231,93,0,0 // movaps 0x5de7(%eax),%xmm5
.byte 15,92,236 // subps %xmm4,%xmm5
.byte 15,17,174,160,0,0,0 // movups %xmm5,0xa0(%esi)
.byte 141,66,8 // lea 0x8(%edx),%eax
@@ -70466,14 +70485,14 @@ _sk_bilinear_py_sse2:
.byte 137,229 // mov %esp,%ebp
.byte 86 // push %esi
.byte 80 // push %eax
- .byte 232,0,0,0,0 // call 6f39 <_sk_bilinear_py_sse2+0xa>
+ .byte 232,0,0,0,0 // call 6f3d <_sk_bilinear_py_sse2+0xa>
.byte 88 // pop %eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
.byte 139,85,12 // mov 0xc(%ebp),%edx
.byte 139,50 // mov (%edx),%esi
.byte 15,16,78,32 // movups 0x20(%esi),%xmm1
.byte 15,16,102,96 // movups 0x60(%esi),%xmm4
- .byte 15,88,136,135,93,0,0 // addps 0x5d87(%eax),%xmm1
+ .byte 15,88,136,147,93,0,0 // addps 0x5d93(%eax),%xmm1
.byte 15,17,166,160,0,0,0 // movups %xmm4,0xa0(%esi)
.byte 141,66,8 // lea 0x8(%edx),%eax
.byte 131,236,8 // sub $0x8,%esp
@@ -70493,20 +70512,20 @@ _sk_bicubic_n3x_sse2:
.byte 137,229 // mov %esp,%ebp
.byte 86 // push %esi
.byte 80 // push %eax
- .byte 232,0,0,0,0 // call 6f73 <_sk_bicubic_n3x_sse2+0xa>
+ .byte 232,0,0,0,0 // call 6f77 <_sk_bicubic_n3x_sse2+0xa>
.byte 88 // pop %eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
.byte 139,85,12 // mov 0xc(%ebp),%edx
.byte 139,50 // mov (%edx),%esi
.byte 15,16,6 // movups (%esi),%xmm0
.byte 15,16,102,64 // movups 0x40(%esi),%xmm4
- .byte 15,88,128,189,99,0,0 // addps 0x63bd(%eax),%xmm0
- .byte 15,40,168,93,93,0,0 // movaps 0x5d5d(%eax),%xmm5
+ .byte 15,88,128,217,99,0,0 // addps 0x63d9(%eax),%xmm0
+ .byte 15,40,168,105,93,0,0 // movaps 0x5d69(%eax),%xmm5
.byte 15,92,236 // subps %xmm4,%xmm5
.byte 15,40,229 // movaps %xmm5,%xmm4
.byte 15,89,228 // mulps %xmm4,%xmm4
- .byte 15,89,168,205,99,0,0 // mulps 0x63cd(%eax),%xmm5
- .byte 15,88,168,61,95,0,0 // addps 0x5f3d(%eax),%xmm5
+ .byte 15,89,168,233,99,0,0 // mulps 0x63e9(%eax),%xmm5
+ .byte 15,88,168,89,95,0,0 // addps 0x5f59(%eax),%xmm5
.byte 15,89,236 // mulps %xmm4,%xmm5
.byte 15,17,174,128,0,0,0 // movups %xmm5,0x80(%esi)
.byte 141,66,8 // lea 0x8(%edx),%eax
@@ -70527,23 +70546,23 @@ _sk_bicubic_n1x_sse2:
.byte 137,229 // mov %esp,%ebp
.byte 86 // push %esi
.byte 80 // push %eax
- .byte 232,0,0,0,0 // call 6fcd <_sk_bicubic_n1x_sse2+0xa>
+ .byte 232,0,0,0,0 // call 6fd1 <_sk_bicubic_n1x_sse2+0xa>
.byte 88 // pop %eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
.byte 139,85,12 // mov 0xc(%ebp),%edx
.byte 139,50 // mov (%edx),%esi
.byte 15,16,6 // movups (%esi),%xmm0
.byte 15,16,102,64 // movups 0x40(%esi),%xmm4
- .byte 15,88,128,83,99,0,0 // addps 0x6353(%eax),%xmm0
- .byte 15,40,168,3,93,0,0 // movaps 0x5d03(%eax),%xmm5
+ .byte 15,88,128,111,99,0,0 // addps 0x636f(%eax),%xmm0
+ .byte 15,40,168,15,93,0,0 // movaps 0x5d0f(%eax),%xmm5
.byte 15,92,236 // subps %xmm4,%xmm5
- .byte 15,40,160,131,99,0,0 // movaps 0x6383(%eax),%xmm4
+ .byte 15,40,160,159,99,0,0 // movaps 0x639f(%eax),%xmm4
.byte 15,89,229 // mulps %xmm5,%xmm4
- .byte 15,88,160,147,99,0,0 // addps 0x6393(%eax),%xmm4
+ .byte 15,88,160,175,99,0,0 // addps 0x63af(%eax),%xmm4
.byte 15,89,229 // mulps %xmm5,%xmm4
- .byte 15,88,160,243,92,0,0 // addps 0x5cf3(%eax),%xmm4
+ .byte 15,88,160,255,92,0,0 // addps 0x5cff(%eax),%xmm4
.byte 15,89,229 // mulps %xmm5,%xmm4
- .byte 15,88,160,163,99,0,0 // addps 0x63a3(%eax),%xmm4
+ .byte 15,88,160,191,99,0,0 // addps 0x63bf(%eax),%xmm4
.byte 15,17,166,128,0,0,0 // movups %xmm4,0x80(%esi)
.byte 141,66,8 // lea 0x8(%edx),%eax
.byte 131,236,8 // sub $0x8,%esp
@@ -70563,22 +70582,22 @@ _sk_bicubic_p1x_sse2:
.byte 137,229 // mov %esp,%ebp
.byte 86 // push %esi
.byte 80 // push %eax
- .byte 232,0,0,0,0 // call 7035 <_sk_bicubic_p1x_sse2+0xa>
+ .byte 232,0,0,0,0 // call 7039 <_sk_bicubic_p1x_sse2+0xa>
.byte 88 // pop %eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
.byte 139,85,12 // mov 0xc(%ebp),%edx
.byte 139,50 // mov (%edx),%esi
- .byte 15,40,160,139,92,0,0 // movaps 0x5c8b(%eax),%xmm4
+ .byte 15,40,160,151,92,0,0 // movaps 0x5c97(%eax),%xmm4
.byte 15,16,6 // movups (%esi),%xmm0
.byte 15,16,110,64 // movups 0x40(%esi),%xmm5
.byte 15,88,196 // addps %xmm4,%xmm0
- .byte 15,40,176,27,99,0,0 // movaps 0x631b(%eax),%xmm6
+ .byte 15,40,176,55,99,0,0 // movaps 0x6337(%eax),%xmm6
.byte 15,89,245 // mulps %xmm5,%xmm6
- .byte 15,88,176,43,99,0,0 // addps 0x632b(%eax),%xmm6
+ .byte 15,88,176,71,99,0,0 // addps 0x6347(%eax),%xmm6
.byte 15,89,245 // mulps %xmm5,%xmm6
.byte 15,88,244 // addps %xmm4,%xmm6
.byte 15,89,245 // mulps %xmm5,%xmm6
- .byte 15,88,176,59,99,0,0 // addps 0x633b(%eax),%xmm6
+ .byte 15,88,176,87,99,0,0 // addps 0x6357(%eax),%xmm6
.byte 15,17,182,128,0,0,0 // movups %xmm6,0x80(%esi)
.byte 141,66,8 // lea 0x8(%edx),%eax
.byte 131,236,8 // sub $0x8,%esp
@@ -70598,18 +70617,18 @@ _sk_bicubic_p3x_sse2:
.byte 137,229 // mov %esp,%ebp
.byte 86 // push %esi
.byte 80 // push %eax
- .byte 232,0,0,0,0 // call 7092 <_sk_bicubic_p3x_sse2+0xa>
+ .byte 232,0,0,0,0 // call 7096 <_sk_bicubic_p3x_sse2+0xa>
.byte 88 // pop %eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
.byte 139,85,12 // mov 0xc(%ebp),%edx
.byte 139,50 // mov (%edx),%esi
.byte 15,16,6 // movups (%esi),%xmm0
.byte 15,16,102,64 // movups 0x40(%esi),%xmm4
- .byte 15,88,128,206,98,0,0 // addps 0x62ce(%eax),%xmm0
+ .byte 15,88,128,234,98,0,0 // addps 0x62ea(%eax),%xmm0
.byte 15,40,236 // movaps %xmm4,%xmm5
.byte 15,89,237 // mulps %xmm5,%xmm5
- .byte 15,89,160,174,98,0,0 // mulps 0x62ae(%eax),%xmm4
- .byte 15,88,160,30,94,0,0 // addps 0x5e1e(%eax),%xmm4
+ .byte 15,89,160,202,98,0,0 // mulps 0x62ca(%eax),%xmm4
+ .byte 15,88,160,58,94,0,0 // addps 0x5e3a(%eax),%xmm4
.byte 15,89,229 // mulps %xmm5,%xmm4
.byte 15,17,166,128,0,0,0 // movups %xmm4,0x80(%esi)
.byte 141,66,8 // lea 0x8(%edx),%eax
@@ -70630,20 +70649,20 @@ _sk_bicubic_n3y_sse2:
.byte 137,229 // mov %esp,%ebp
.byte 86 // push %esi
.byte 80 // push %eax
- .byte 232,0,0,0,0 // call 70e2 <_sk_bicubic_n3y_sse2+0xa>
+ .byte 232,0,0,0,0 // call 70e6 <_sk_bicubic_n3y_sse2+0xa>
.byte 88 // pop %eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
.byte 139,85,12 // mov 0xc(%ebp),%edx
.byte 139,50 // mov (%edx),%esi
.byte 15,16,78,32 // movups 0x20(%esi),%xmm1
.byte 15,16,102,96 // movups 0x60(%esi),%xmm4
- .byte 15,88,136,78,98,0,0 // addps 0x624e(%eax),%xmm1
- .byte 15,40,168,238,91,0,0 // movaps 0x5bee(%eax),%xmm5
+ .byte 15,88,136,106,98,0,0 // addps 0x626a(%eax),%xmm1
+ .byte 15,40,168,250,91,0,0 // movaps 0x5bfa(%eax),%xmm5
.byte 15,92,236 // subps %xmm4,%xmm5
.byte 15,40,229 // movaps %xmm5,%xmm4
.byte 15,89,228 // mulps %xmm4,%xmm4
- .byte 15,89,168,94,98,0,0 // mulps 0x625e(%eax),%xmm5
- .byte 15,88,168,206,93,0,0 // addps 0x5dce(%eax),%xmm5
+ .byte 15,89,168,122,98,0,0 // mulps 0x627a(%eax),%xmm5
+ .byte 15,88,168,234,93,0,0 // addps 0x5dea(%eax),%xmm5
.byte 15,89,236 // mulps %xmm4,%xmm5
.byte 15,17,174,160,0,0,0 // movups %xmm5,0xa0(%esi)
.byte 141,66,8 // lea 0x8(%edx),%eax
@@ -70664,23 +70683,23 @@ _sk_bicubic_n1y_sse2:
.byte 137,229 // mov %esp,%ebp
.byte 86 // push %esi
.byte 80 // push %eax
- .byte 232,0,0,0,0 // call 713d <_sk_bicubic_n1y_sse2+0xa>
+ .byte 232,0,0,0,0 // call 7141 <_sk_bicubic_n1y_sse2+0xa>
.byte 88 // pop %eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
.byte 139,85,12 // mov 0xc(%ebp),%edx
.byte 139,50 // mov (%edx),%esi
.byte 15,16,78,32 // movups 0x20(%esi),%xmm1
.byte 15,16,102,96 // movups 0x60(%esi),%xmm4
- .byte 15,88,136,227,97,0,0 // addps 0x61e3(%eax),%xmm1
- .byte 15,40,168,147,91,0,0 // movaps 0x5b93(%eax),%xmm5
+ .byte 15,88,136,255,97,0,0 // addps 0x61ff(%eax),%xmm1
+ .byte 15,40,168,159,91,0,0 // movaps 0x5b9f(%eax),%xmm5
.byte 15,92,236 // subps %xmm4,%xmm5
- .byte 15,40,160,19,98,0,0 // movaps 0x6213(%eax),%xmm4
+ .byte 15,40,160,47,98,0,0 // movaps 0x622f(%eax),%xmm4
.byte 15,89,229 // mulps %xmm5,%xmm4
- .byte 15,88,160,35,98,0,0 // addps 0x6223(%eax),%xmm4
+ .byte 15,88,160,63,98,0,0 // addps 0x623f(%eax),%xmm4
.byte 15,89,229 // mulps %xmm5,%xmm4
- .byte 15,88,160,131,91,0,0 // addps 0x5b83(%eax),%xmm4
+ .byte 15,88,160,143,91,0,0 // addps 0x5b8f(%eax),%xmm4
.byte 15,89,229 // mulps %xmm5,%xmm4
- .byte 15,88,160,51,98,0,0 // addps 0x6233(%eax),%xmm4
+ .byte 15,88,160,79,98,0,0 // addps 0x624f(%eax),%xmm4
.byte 15,17,166,160,0,0,0 // movups %xmm4,0xa0(%esi)
.byte 141,66,8 // lea 0x8(%edx),%eax
.byte 131,236,8 // sub $0x8,%esp
@@ -70700,22 +70719,22 @@ _sk_bicubic_p1y_sse2:
.byte 137,229 // mov %esp,%ebp
.byte 86 // push %esi
.byte 80 // push %eax
- .byte 232,0,0,0,0 // call 71a6 <_sk_bicubic_p1y_sse2+0xa>
+ .byte 232,0,0,0,0 // call 71aa <_sk_bicubic_p1y_sse2+0xa>
.byte 88 // pop %eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
.byte 139,85,12 // mov 0xc(%ebp),%edx
.byte 139,50 // mov (%edx),%esi
- .byte 15,40,160,26,91,0,0 // movaps 0x5b1a(%eax),%xmm4
+ .byte 15,40,160,38,91,0,0 // movaps 0x5b26(%eax),%xmm4
.byte 15,16,78,32 // movups 0x20(%esi),%xmm1
.byte 15,16,110,96 // movups 0x60(%esi),%xmm5
.byte 15,88,204 // addps %xmm4,%xmm1
- .byte 15,40,176,170,97,0,0 // movaps 0x61aa(%eax),%xmm6
+ .byte 15,40,176,198,97,0,0 // movaps 0x61c6(%eax),%xmm6
.byte 15,89,245 // mulps %xmm5,%xmm6
- .byte 15,88,176,186,97,0,0 // addps 0x61ba(%eax),%xmm6
+ .byte 15,88,176,214,97,0,0 // addps 0x61d6(%eax),%xmm6
.byte 15,89,245 // mulps %xmm5,%xmm6
.byte 15,88,244 // addps %xmm4,%xmm6
.byte 15,89,245 // mulps %xmm5,%xmm6
- .byte 15,88,176,202,97,0,0 // addps 0x61ca(%eax),%xmm6
+ .byte 15,88,176,230,97,0,0 // addps 0x61e6(%eax),%xmm6
.byte 15,17,182,160,0,0,0 // movups %xmm6,0xa0(%esi)
.byte 141,66,8 // lea 0x8(%edx),%eax
.byte 131,236,8 // sub $0x8,%esp
@@ -70735,18 +70754,18 @@ _sk_bicubic_p3y_sse2:
.byte 137,229 // mov %esp,%ebp
.byte 86 // push %esi
.byte 80 // push %eax
- .byte 232,0,0,0,0 // call 7204 <_sk_bicubic_p3y_sse2+0xa>
+ .byte 232,0,0,0,0 // call 7208 <_sk_bicubic_p3y_sse2+0xa>
.byte 88 // pop %eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
.byte 139,85,12 // mov 0xc(%ebp),%edx
.byte 139,50 // mov (%edx),%esi
.byte 15,16,78,32 // movups 0x20(%esi),%xmm1
.byte 15,16,102,96 // movups 0x60(%esi),%xmm4
- .byte 15,88,136,92,97,0,0 // addps 0x615c(%eax),%xmm1
+ .byte 15,88,136,120,97,0,0 // addps 0x6178(%eax),%xmm1
.byte 15,40,236 // movaps %xmm4,%xmm5
.byte 15,89,237 // mulps %xmm5,%xmm5
- .byte 15,89,160,60,97,0,0 // mulps 0x613c(%eax),%xmm4
- .byte 15,88,160,172,92,0,0 // addps 0x5cac(%eax),%xmm4
+ .byte 15,89,160,88,97,0,0 // mulps 0x6158(%eax),%xmm4
+ .byte 15,88,160,200,92,0,0 // addps 0x5cc8(%eax),%xmm4
.byte 15,89,229 // mulps %xmm5,%xmm4
.byte 15,17,166,160,0,0,0 // movups %xmm4,0xa0(%esi)
.byte 141,66,8 // lea 0x8(%edx),%eax
@@ -70889,7 +70908,7 @@ _sk_clut_3D_sse2:
.byte 102,15,112,192,232 // pshufd $0xe8,%xmm0,%xmm0
.byte 102,15,98,200 // punpckldq %xmm0,%xmm1
.byte 102,15,127,77,136 // movdqa %xmm1,-0x78(%ebp)
- .byte 232,0,0,0,0 // call 73e7 <_sk_clut_3D_sse2+0xee>
+ .byte 232,0,0,0,0 // call 73eb <_sk_clut_3D_sse2+0xee>
.byte 90 // pop %edx
.byte 243,15,91,196 // cvttps2dq %xmm4,%xmm0
.byte 102,15,127,133,8,255,255,255 // movdqa %xmm0,-0xf8(%ebp)
@@ -70897,7 +70916,7 @@ _sk_clut_3D_sse2:
.byte 102,15,254,216 // paddd %xmm0,%xmm3
.byte 102,15,111,193 // movdqa %xmm1,%xmm0
.byte 102,15,254,195 // paddd %xmm3,%xmm0
- .byte 102,15,111,162,169,95,0,0 // movdqa 0x5fa9(%edx),%xmm4
+ .byte 102,15,111,162,197,95,0,0 // movdqa 0x5fc5(%edx),%xmm4
.byte 102,15,127,165,120,255,255,255 // movdqa %xmm4,-0x88(%ebp)
.byte 102,15,112,200,245 // pshufd $0xf5,%xmm0,%xmm1
.byte 102,15,244,196 // pmuludq %xmm4,%xmm0
@@ -70937,7 +70956,7 @@ _sk_clut_3D_sse2:
.byte 243,15,16,4,129 // movss (%ecx,%eax,4),%xmm0
.byte 15,20,248 // unpcklps %xmm0,%xmm7
.byte 102,15,20,252 // unpcklpd %xmm4,%xmm7
- .byte 102,15,111,130,41,89,0,0 // movdqa 0x5929(%edx),%xmm0
+ .byte 102,15,111,130,53,89,0,0 // movdqa 0x5935(%edx),%xmm0
.byte 102,15,127,133,104,255,255,255 // movdqa %xmm0,-0x98(%ebp)
.byte 102,15,254,200 // paddd %xmm0,%xmm1
.byte 102,15,112,193,229 // pshufd $0xe5,%xmm1,%xmm0
@@ -70954,7 +70973,7 @@ _sk_clut_3D_sse2:
.byte 243,15,16,4,129 // movss (%ecx,%eax,4),%xmm0
.byte 15,20,240 // unpcklps %xmm0,%xmm6
.byte 102,15,20,241 // unpcklpd %xmm1,%xmm6
- .byte 15,40,130,153,95,0,0 // movaps 0x5f99(%edx),%xmm0
+ .byte 15,40,130,181,95,0,0 // movaps 0x5fb5(%edx),%xmm0
.byte 15,40,141,248,254,255,255 // movaps -0x108(%ebp),%xmm1
.byte 15,88,200 // addps %xmm0,%xmm1
.byte 15,41,77,200 // movaps %xmm1,-0x38(%ebp)
@@ -71574,7 +71593,7 @@ _sk_clut_4D_sse2:
.byte 102,15,112,201,232 // pshufd $0xe8,%xmm1,%xmm1
.byte 102,15,98,217 // punpckldq %xmm1,%xmm3
.byte 102,15,127,93,152 // movdqa %xmm3,-0x68(%ebp)
- .byte 232,0,0,0,0 // call 7f73 <_sk_clut_4D_sse2+0x165>
+ .byte 232,0,0,0,0 // call 7f77 <_sk_clut_4D_sse2+0x165>
.byte 89 // pop %ecx
.byte 15,40,197 // movaps %xmm5,%xmm0
.byte 15,41,133,168,254,255,255 // movaps %xmm0,-0x158(%ebp)
@@ -71585,7 +71604,7 @@ _sk_clut_4D_sse2:
.byte 102,15,111,212 // movdqa %xmm4,%xmm2
.byte 102,15,254,214 // paddd %xmm6,%xmm2
.byte 102,15,254,218 // paddd %xmm2,%xmm3
- .byte 102,15,111,161,29,84,0,0 // movdqa 0x541d(%ecx),%xmm4
+ .byte 102,15,111,161,57,84,0,0 // movdqa 0x5439(%ecx),%xmm4
.byte 102,15,112,203,245 // pshufd $0xf5,%xmm3,%xmm1
.byte 102,15,244,220 // pmuludq %xmm4,%xmm3
.byte 102,15,244,204 // pmuludq %xmm4,%xmm1
@@ -71627,7 +71646,7 @@ _sk_clut_4D_sse2:
.byte 15,20,223 // unpcklps %xmm7,%xmm3
.byte 102,15,20,222 // unpcklpd %xmm6,%xmm3
.byte 102,15,41,157,232,254,255,255 // movapd %xmm3,-0x118(%ebp)
- .byte 102,15,254,137,157,77,0,0 // paddd 0x4d9d(%ecx),%xmm1
+ .byte 102,15,254,137,169,77,0,0 // paddd 0x4da9(%ecx),%xmm1
.byte 102,15,112,241,229 // pshufd $0xe5,%xmm1,%xmm6
.byte 102,15,126,240 // movd %xmm6,%eax
.byte 102,15,112,241,78 // pshufd $0x4e,%xmm1,%xmm6
@@ -71642,7 +71661,7 @@ _sk_clut_4D_sse2:
.byte 243,15,16,60,130 // movss (%edx,%eax,4),%xmm7
.byte 15,20,223 // unpcklps %xmm7,%xmm3
.byte 102,15,20,222 // unpcklpd %xmm6,%xmm3
- .byte 15,40,185,13,84,0,0 // movaps 0x540d(%ecx),%xmm7
+ .byte 15,40,185,41,84,0,0 // movaps 0x5429(%ecx),%xmm7
.byte 15,88,199 // addps %xmm7,%xmm0
.byte 15,41,133,120,255,255,255 // movaps %xmm0,-0x88(%ebp)
.byte 15,40,133,248,254,255,255 // movaps -0x108(%ebp),%xmm0
@@ -71663,7 +71682,7 @@ _sk_clut_4D_sse2:
.byte 102,15,127,101,168 // movdqa %xmm4,-0x58(%ebp)
.byte 102,15,254,212 // paddd %xmm4,%xmm2
.byte 102,15,112,194,245 // pshufd $0xf5,%xmm2,%xmm0
- .byte 102,15,111,161,29,84,0,0 // movdqa 0x541d(%ecx),%xmm4
+ .byte 102,15,111,161,57,84,0,0 // movdqa 0x5439(%ecx),%xmm4
.byte 102,15,244,212 // pmuludq %xmm4,%xmm2
.byte 102,15,244,196 // pmuludq %xmm4,%xmm0
.byte 102,15,112,240,232 // pshufd $0xe8,%xmm0,%xmm6
@@ -71699,7 +71718,7 @@ _sk_clut_4D_sse2:
.byte 243,15,16,44,130 // movss (%edx,%eax,4),%xmm5
.byte 15,20,213 // unpcklps %xmm5,%xmm2
.byte 102,15,20,214 // unpcklpd %xmm6,%xmm2
- .byte 102,15,254,129,157,77,0,0 // paddd 0x4d9d(%ecx),%xmm0
+ .byte 102,15,254,129,169,77,0,0 // paddd 0x4da9(%ecx),%xmm0
.byte 102,15,112,232,229 // pshufd $0xe5,%xmm0,%xmm5
.byte 102,15,126,232 // movd %xmm5,%eax
.byte 102,15,112,232,78 // pshufd $0x4e,%xmm0,%xmm5
@@ -71783,7 +71802,7 @@ _sk_clut_4D_sse2:
.byte 243,15,16,44,130 // movss (%edx,%eax,4),%xmm5
.byte 15,20,245 // unpcklps %xmm5,%xmm6
.byte 102,15,20,240 // unpcklpd %xmm0,%xmm6
- .byte 102,15,254,137,157,77,0,0 // paddd 0x4d9d(%ecx),%xmm1
+ .byte 102,15,254,137,169,77,0,0 // paddd 0x4da9(%ecx),%xmm1
.byte 102,15,112,193,229 // pshufd $0xe5,%xmm1,%xmm0
.byte 102,15,126,192 // movd %xmm0,%eax
.byte 102,15,112,193,78 // pshufd $0x4e,%xmm1,%xmm0
@@ -71801,7 +71820,7 @@ _sk_clut_4D_sse2:
.byte 102,15,111,202 // movdqa %xmm2,%xmm1
.byte 102,15,254,77,168 // paddd -0x58(%ebp),%xmm1
.byte 102,15,112,193,245 // pshufd $0xf5,%xmm1,%xmm0
- .byte 102,15,111,145,29,84,0,0 // movdqa 0x541d(%ecx),%xmm2
+ .byte 102,15,111,145,57,84,0,0 // movdqa 0x5439(%ecx),%xmm2
.byte 102,15,244,202 // pmuludq %xmm2,%xmm1
.byte 102,15,244,194 // pmuludq %xmm2,%xmm0
.byte 102,15,112,192,232 // pshufd $0xe8,%xmm0,%xmm0
@@ -71837,7 +71856,7 @@ _sk_clut_4D_sse2:
.byte 243,15,16,4,130 // movss (%edx,%eax,4),%xmm0
.byte 15,20,216 // unpcklps %xmm0,%xmm3
.byte 102,15,20,217 // unpcklpd %xmm1,%xmm3
- .byte 102,15,254,169,157,77,0,0 // paddd 0x4d9d(%ecx),%xmm5
+ .byte 102,15,254,169,169,77,0,0 // paddd 0x4da9(%ecx),%xmm5
.byte 102,15,112,197,229 // pshufd $0xe5,%xmm5,%xmm0
.byte 102,15,126,192 // movd %xmm0,%eax
.byte 102,15,112,197,78 // pshufd $0x4e,%xmm5,%xmm0
@@ -71897,7 +71916,7 @@ _sk_clut_4D_sse2:
.byte 102,15,111,209 // movdqa %xmm1,%xmm2
.byte 102,15,254,85,152 // paddd -0x68(%ebp),%xmm2
.byte 102,15,112,194,245 // pshufd $0xf5,%xmm2,%xmm0
- .byte 102,15,111,153,29,84,0,0 // movdqa 0x541d(%ecx),%xmm3
+ .byte 102,15,111,153,57,84,0,0 // movdqa 0x5439(%ecx),%xmm3
.byte 102,15,244,211 // pmuludq %xmm3,%xmm2
.byte 102,15,244,195 // pmuludq %xmm3,%xmm0
.byte 102,15,111,251 // movdqa %xmm3,%xmm7
@@ -71936,7 +71955,7 @@ _sk_clut_4D_sse2:
.byte 243,15,16,44,130 // movss (%edx,%eax,4),%xmm5
.byte 15,20,229 // unpcklps %xmm5,%xmm4
.byte 102,15,20,227 // unpcklpd %xmm3,%xmm4
- .byte 102,15,254,129,157,77,0,0 // paddd 0x4d9d(%ecx),%xmm0
+ .byte 102,15,254,129,169,77,0,0 // paddd 0x4da9(%ecx),%xmm0
.byte 102,15,112,216,229 // pshufd $0xe5,%xmm0,%xmm3
.byte 102,15,126,216 // movd %xmm3,%eax
.byte 102,15,112,216,78 // pshufd $0x4e,%xmm0,%xmm3
@@ -71988,7 +72007,7 @@ _sk_clut_4D_sse2:
.byte 243,15,16,52,130 // movss (%edx,%eax,4),%xmm6
.byte 15,20,238 // unpcklps %xmm6,%xmm5
.byte 102,15,20,235 // unpcklpd %xmm3,%xmm5
- .byte 102,15,111,137,157,77,0,0 // movdqa 0x4d9d(%ecx),%xmm1
+ .byte 102,15,111,137,169,77,0,0 // movdqa 0x4da9(%ecx),%xmm1
.byte 102,15,254,249 // paddd %xmm1,%xmm7
.byte 102,15,112,223,229 // pshufd $0xe5,%xmm7,%xmm3
.byte 102,15,126,216 // movd %xmm3,%eax
@@ -72022,7 +72041,7 @@ _sk_clut_4D_sse2:
.byte 102,15,111,226 // movdqa %xmm2,%xmm4
.byte 102,15,254,69,152 // paddd -0x68(%ebp),%xmm0
.byte 102,15,112,208,245 // pshufd $0xf5,%xmm0,%xmm2
- .byte 102,15,111,153,29,84,0,0 // movdqa 0x541d(%ecx),%xmm3
+ .byte 102,15,111,153,57,84,0,0 // movdqa 0x5439(%ecx),%xmm3
.byte 102,15,244,195 // pmuludq %xmm3,%xmm0
.byte 102,15,244,211 // pmuludq %xmm3,%xmm2
.byte 102,15,112,218,232 // pshufd $0xe8,%xmm2,%xmm3
@@ -72079,7 +72098,7 @@ _sk_clut_4D_sse2:
.byte 102,15,111,212 // movdqa %xmm4,%xmm2
.byte 102,15,254,85,168 // paddd -0x58(%ebp),%xmm2
.byte 102,15,112,194,245 // pshufd $0xf5,%xmm2,%xmm0
- .byte 102,15,111,137,29,84,0,0 // movdqa 0x541d(%ecx),%xmm1
+ .byte 102,15,111,137,57,84,0,0 // movdqa 0x5439(%ecx),%xmm1
.byte 102,15,244,209 // pmuludq %xmm1,%xmm2
.byte 102,15,244,193 // pmuludq %xmm1,%xmm0
.byte 102,15,112,240,232 // pshufd $0xe8,%xmm0,%xmm6
@@ -72116,7 +72135,7 @@ _sk_clut_4D_sse2:
.byte 243,15,16,36,130 // movss (%edx,%eax,4),%xmm4
.byte 15,20,212 // unpcklps %xmm4,%xmm2
.byte 102,15,20,214 // unpcklpd %xmm6,%xmm2
- .byte 102,15,254,129,157,77,0,0 // paddd 0x4d9d(%ecx),%xmm0
+ .byte 102,15,254,129,169,77,0,0 // paddd 0x4da9(%ecx),%xmm0
.byte 102,15,112,224,229 // pshufd $0xe5,%xmm0,%xmm4
.byte 102,15,126,224 // movd %xmm4,%eax
.byte 102,15,112,224,78 // pshufd $0x4e,%xmm0,%xmm4
@@ -72184,7 +72203,7 @@ _sk_clut_4D_sse2:
.byte 102,15,111,93,152 // movdqa -0x68(%ebp),%xmm3
.byte 102,15,254,217 // paddd %xmm1,%xmm3
.byte 102,15,112,211,245 // pshufd $0xf5,%xmm3,%xmm2
- .byte 102,15,111,129,29,84,0,0 // movdqa 0x541d(%ecx),%xmm0
+ .byte 102,15,111,129,57,84,0,0 // movdqa 0x5439(%ecx),%xmm0
.byte 102,15,244,216 // pmuludq %xmm0,%xmm3
.byte 102,15,244,208 // pmuludq %xmm0,%xmm2
.byte 102,15,111,248 // movdqa %xmm0,%xmm7
@@ -72223,7 +72242,7 @@ _sk_clut_4D_sse2:
.byte 243,15,16,28,130 // movss (%edx,%eax,4),%xmm3
.byte 15,20,235 // unpcklps %xmm3,%xmm5
.byte 102,15,20,238 // unpcklpd %xmm6,%xmm5
- .byte 102,15,254,145,157,77,0,0 // paddd 0x4d9d(%ecx),%xmm2
+ .byte 102,15,254,145,169,77,0,0 // paddd 0x4da9(%ecx),%xmm2
.byte 102,15,112,218,229 // pshufd $0xe5,%xmm2,%xmm3
.byte 102,15,126,216 // movd %xmm3,%eax
.byte 102,15,112,218,78 // pshufd $0x4e,%xmm2,%xmm3
@@ -72275,7 +72294,7 @@ _sk_clut_4D_sse2:
.byte 243,15,16,4,130 // movss (%edx,%eax,4),%xmm0
.byte 15,20,208 // unpcklps %xmm0,%xmm2
.byte 102,15,20,215 // unpcklpd %xmm7,%xmm2
- .byte 102,15,111,137,157,77,0,0 // movdqa 0x4d9d(%ecx),%xmm1
+ .byte 102,15,111,137,169,77,0,0 // movdqa 0x4da9(%ecx),%xmm1
.byte 102,15,254,217 // paddd %xmm1,%xmm3
.byte 102,15,112,195,229 // pshufd $0xe5,%xmm3,%xmm0
.byte 102,15,126,192 // movd %xmm0,%eax
@@ -72310,7 +72329,7 @@ _sk_clut_4D_sse2:
.byte 102,15,111,194 // movdqa %xmm2,%xmm0
.byte 102,15,254,69,152 // paddd -0x68(%ebp),%xmm0
.byte 102,15,112,224,245 // pshufd $0xf5,%xmm0,%xmm4
- .byte 102,15,111,169,29,84,0,0 // movdqa 0x541d(%ecx),%xmm5
+ .byte 102,15,111,169,57,84,0,0 // movdqa 0x5439(%ecx),%xmm5
.byte 102,15,111,221 // movdqa %xmm5,%xmm3
.byte 102,15,244,195 // pmuludq %xmm3,%xmm0
.byte 102,15,244,227 // pmuludq %xmm3,%xmm4
@@ -72366,7 +72385,7 @@ _sk_clut_4D_sse2:
.byte 102,15,111,202 // movdqa %xmm2,%xmm1
.byte 102,15,254,77,168 // paddd -0x58(%ebp),%xmm1
.byte 102,15,112,193,245 // pshufd $0xf5,%xmm1,%xmm0
- .byte 102,15,111,145,29,84,0,0 // movdqa 0x541d(%ecx),%xmm2
+ .byte 102,15,111,145,57,84,0,0 // movdqa 0x5439(%ecx),%xmm2
.byte 102,15,244,202 // pmuludq %xmm2,%xmm1
.byte 102,15,244,194 // pmuludq %xmm2,%xmm0
.byte 102,15,112,192,232 // pshufd $0xe8,%xmm0,%xmm0
@@ -72402,7 +72421,7 @@ _sk_clut_4D_sse2:
.byte 243,15,16,4,130 // movss (%edx,%eax,4),%xmm0
.byte 15,20,216 // unpcklps %xmm0,%xmm3
.byte 102,15,20,217 // unpcklpd %xmm1,%xmm3
- .byte 102,15,254,185,157,77,0,0 // paddd 0x4d9d(%ecx),%xmm7
+ .byte 102,15,254,185,169,77,0,0 // paddd 0x4da9(%ecx),%xmm7
.byte 102,15,112,199,229 // pshufd $0xe5,%xmm7,%xmm0
.byte 102,15,126,192 // movd %xmm0,%eax
.byte 102,15,112,199,78 // pshufd $0x4e,%xmm7,%xmm0
@@ -72452,7 +72471,7 @@ _sk_clut_4D_sse2:
.byte 102,15,111,233 // movdqa %xmm1,%xmm5
.byte 102,15,254,69,152 // paddd -0x68(%ebp),%xmm0
.byte 102,15,112,200,245 // pshufd $0xf5,%xmm0,%xmm1
- .byte 102,15,111,145,29,84,0,0 // movdqa 0x541d(%ecx),%xmm2
+ .byte 102,15,111,145,57,84,0,0 // movdqa 0x5439(%ecx),%xmm2
.byte 102,15,244,194 // pmuludq %xmm2,%xmm0
.byte 102,15,244,202 // pmuludq %xmm2,%xmm1
.byte 102,15,111,250 // movdqa %xmm2,%xmm7
@@ -72491,7 +72510,7 @@ _sk_clut_4D_sse2:
.byte 243,15,16,36,130 // movss (%edx,%eax,4),%xmm4
.byte 15,20,204 // unpcklps %xmm4,%xmm1
.byte 102,15,20,203 // unpcklpd %xmm3,%xmm1
- .byte 102,15,254,145,157,77,0,0 // paddd 0x4d9d(%ecx),%xmm2
+ .byte 102,15,254,145,169,77,0,0 // paddd 0x4da9(%ecx),%xmm2
.byte 102,15,112,218,229 // pshufd $0xe5,%xmm2,%xmm3
.byte 102,15,126,216 // movd %xmm3,%eax
.byte 102,15,112,218,78 // pshufd $0x4e,%xmm2,%xmm3
@@ -72545,7 +72564,7 @@ _sk_clut_4D_sse2:
.byte 243,15,16,36,130 // movss (%edx,%eax,4),%xmm4
.byte 15,20,252 // unpcklps %xmm4,%xmm7
.byte 102,15,20,254 // unpcklpd %xmm6,%xmm7
- .byte 102,15,254,153,157,77,0,0 // paddd 0x4d9d(%ecx),%xmm3
+ .byte 102,15,254,153,169,77,0,0 // paddd 0x4da9(%ecx),%xmm3
.byte 102,15,112,227,229 // pshufd $0xe5,%xmm3,%xmm4
.byte 102,15,126,224 // movd %xmm4,%eax
.byte 102,15,112,227,78 // pshufd $0x4e,%xmm3,%xmm4
@@ -72578,7 +72597,7 @@ _sk_clut_4D_sse2:
.byte 102,15,254,208 // paddd %xmm0,%xmm2
.byte 102,15,111,216 // movdqa %xmm0,%xmm3
.byte 102,15,112,194,245 // pshufd $0xf5,%xmm2,%xmm0
- .byte 102,15,111,137,29,84,0,0 // movdqa 0x541d(%ecx),%xmm1
+ .byte 102,15,111,137,57,84,0,0 // movdqa 0x5439(%ecx),%xmm1
.byte 102,15,244,209 // pmuludq %xmm1,%xmm2
.byte 102,15,244,193 // pmuludq %xmm1,%xmm0
.byte 102,15,111,241 // movdqa %xmm1,%xmm6
@@ -72618,7 +72637,7 @@ _sk_clut_4D_sse2:
.byte 15,20,225 // unpcklps %xmm1,%xmm4
.byte 102,15,20,226 // unpcklpd %xmm2,%xmm4
.byte 102,15,41,165,88,255,255,255 // movapd %xmm4,-0xa8(%ebp)
- .byte 102,15,254,129,157,77,0,0 // paddd 0x4d9d(%ecx),%xmm0
+ .byte 102,15,254,129,169,77,0,0 // paddd 0x4da9(%ecx),%xmm0
.byte 102,15,112,200,229 // pshufd $0xe5,%xmm0,%xmm1
.byte 102,15,126,200 // movd %xmm1,%eax
.byte 102,15,112,200,78 // pshufd $0x4e,%xmm0,%xmm1
@@ -72672,7 +72691,7 @@ _sk_clut_4D_sse2:
.byte 243,15,16,52,130 // movss (%edx,%eax,4),%xmm6
.byte 15,20,206 // unpcklps %xmm6,%xmm1
.byte 102,15,20,203 // unpcklpd %xmm3,%xmm1
- .byte 102,15,254,145,157,77,0,0 // paddd 0x4d9d(%ecx),%xmm2
+ .byte 102,15,254,145,169,77,0,0 // paddd 0x4da9(%ecx),%xmm2
.byte 102,15,112,218,229 // pshufd $0xe5,%xmm2,%xmm3
.byte 102,15,126,216 // movd %xmm3,%eax
.byte 102,15,112,218,78 // pshufd $0x4e,%xmm2,%xmm3
@@ -72741,7 +72760,7 @@ _sk_clut_4D_sse2:
.byte 139,85,12 // mov 0xc(%ebp),%edx
.byte 141,66,8 // lea 0x8(%edx),%eax
.byte 131,236,8 // sub $0x8,%esp
- .byte 15,40,153,93,77,0,0 // movaps 0x4d5d(%ecx),%xmm3
+ .byte 15,40,153,105,77,0,0 // movaps 0x4d69(%ecx),%xmm3
.byte 80 // push %eax
.byte 255,117,8 // pushl 0x8(%ebp)
.byte 255,82,4 // call *0x4(%edx)
@@ -72767,7 +72786,7 @@ _sk_start_pipeline_sse2_lowp:
.byte 131,236,92 // sub $0x5c,%esp
.byte 139,125,12 // mov 0xc(%ebp),%edi
.byte 59,125,20 // cmp 0x14(%ebp),%edi
- .byte 15,131,193,0,0,0 // jae 9496 <_sk_start_pipeline_sse2_lowp+0xd6>
+ .byte 15,131,193,0,0,0 // jae 949a <_sk_start_pipeline_sse2_lowp+0xd6>
.byte 139,85,16 // mov 0x10(%ebp),%edx
.byte 139,69,8 // mov 0x8(%ebp),%eax
.byte 139,117,24 // mov 0x18(%ebp),%esi
@@ -72781,7 +72800,7 @@ _sk_start_pipeline_sse2_lowp:
.byte 139,69,8 // mov 0x8(%ebp),%eax
.byte 137,223 // mov %ebx,%edi
.byte 137,243 // mov %esi,%ebx
- .byte 119,77 // ja 9448 <_sk_start_pipeline_sse2_lowp+0x88>
+ .byte 119,77 // ja 944c <_sk_start_pipeline_sse2_lowp+0x88>
.byte 139,117,8 // mov 0x8(%ebp),%esi
.byte 15,41,68,36,64 // movaps %xmm0,0x40(%esp)
.byte 15,41,68,36,48 // movaps %xmm0,0x30(%esp)
@@ -72803,13 +72822,13 @@ _sk_start_pipeline_sse2_lowp:
.byte 131,198,16 // add $0x10,%esi
.byte 57,214 // cmp %edx,%esi
.byte 137,198 // mov %eax,%esi
- .byte 118,182 // jbe 93fe <_sk_start_pipeline_sse2_lowp+0x3e>
+ .byte 118,182 // jbe 9402 <_sk_start_pipeline_sse2_lowp+0x3e>
.byte 137,209 // mov %edx,%ecx
.byte 41,193 // sub %eax,%ecx
.byte 137,222 // mov %ebx,%esi
.byte 137,251 // mov %edi,%ebx
.byte 139,125,240 // mov -0x10(%ebp),%edi
- .byte 116,55 // je 948c <_sk_start_pipeline_sse2_lowp+0xcc>
+ .byte 116,55 // je 9490 <_sk_start_pipeline_sse2_lowp+0xcc>
.byte 15,41,68,36,64 // movaps %xmm0,0x40(%esp)
.byte 15,41,68,36,48 // movaps %xmm0,0x30(%esp)
.byte 15,41,68,36,32 // movaps %xmm0,0x20(%esp)
@@ -72827,7 +72846,7 @@ _sk_start_pipeline_sse2_lowp:
.byte 139,85,16 // mov 0x10(%ebp),%edx
.byte 71 // inc %edi
.byte 59,125,20 // cmp 0x14(%ebp),%edi
- .byte 15,133,86,255,255,255 // jne 93ec <_sk_start_pipeline_sse2_lowp+0x2c>
+ .byte 15,133,86,255,255,255 // jne 93f0 <_sk_start_pipeline_sse2_lowp+0x2c>
.byte 131,196,92 // add $0x5c,%esp
.byte 94 // pop %esi
.byte 95 // pop %edi
@@ -72899,7 +72918,7 @@ _sk_black_color_sse2_lowp:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,92 // sub $0x5c,%esp
- .byte 232,0,0,0,0 // call 9545 <_sk_black_color_sse2_lowp+0xe>
+ .byte 232,0,0,0,0 // call 9549 <_sk_black_color_sse2_lowp+0xe>
.byte 88 // pop %eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
.byte 139,85,16 // mov 0x10(%ebp),%edx
@@ -72918,7 +72937,7 @@ _sk_black_color_sse2_lowp:
.byte 137,84,36,8 // mov %edx,0x8(%esp)
.byte 137,92,36,4 // mov %ebx,0x4(%esp)
.byte 137,12,36 // mov %ecx,(%esp)
- .byte 15,40,152,91,62,0,0 // movaps 0x3e5b(%eax),%xmm3
+ .byte 15,40,152,119,62,0,0 // movaps 0x3e77(%eax),%xmm3
.byte 15,87,192 // xorps %xmm0,%xmm0
.byte 15,87,201 // xorps %xmm1,%xmm1
.byte 15,87,210 // xorps %xmm2,%xmm2
@@ -72940,7 +72959,7 @@ _sk_white_color_sse2_lowp:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,92 // sub $0x5c,%esp
- .byte 232,0,0,0,0 // call 95b0 <_sk_white_color_sse2_lowp+0xe>
+ .byte 232,0,0,0,0 // call 95b4 <_sk_white_color_sse2_lowp+0xe>
.byte 88 // pop %eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
.byte 139,85,16 // mov 0x10(%ebp),%edx
@@ -72959,7 +72978,7 @@ _sk_white_color_sse2_lowp:
.byte 137,84,36,8 // mov %edx,0x8(%esp)
.byte 137,92,36,4 // mov %ebx,0x4(%esp)
.byte 137,12,36 // mov %ecx,(%esp)
- .byte 15,40,128,240,61,0,0 // movaps 0x3df0(%eax),%xmm0
+ .byte 15,40,128,12,62,0,0 // movaps 0x3e0c(%eax),%xmm0
.byte 15,40,200 // movaps %xmm0,%xmm1
.byte 15,40,208 // movaps %xmm0,%xmm2
.byte 15,40,216 // movaps %xmm0,%xmm3
@@ -72980,16 +72999,16 @@ _sk_set_rgb_sse2_lowp:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,80 // sub $0x50,%esp
- .byte 232,0,0,0,0 // call 961a <_sk_set_rgb_sse2_lowp+0xd>
+ .byte 232,0,0,0,0 // call 961e <_sk_set_rgb_sse2_lowp+0xd>
.byte 94 // pop %esi
.byte 139,69,8 // mov 0x8(%ebp),%eax
.byte 139,85,16 // mov 0x10(%ebp),%edx
.byte 139,77,12 // mov 0xc(%ebp),%ecx
.byte 139,57 // mov (%ecx),%edi
- .byte 243,15,16,150,74,62,0,0 // movss 0x3e4a(%esi),%xmm2
+ .byte 243,15,16,150,102,62,0,0 // movss 0x3e66(%esi),%xmm2
.byte 243,15,16,7 // movss (%edi),%xmm0
.byte 243,15,89,194 // mulss %xmm2,%xmm0
- .byte 243,15,16,142,70,62,0,0 // movss 0x3e46(%esi),%xmm1
+ .byte 243,15,16,142,98,62,0,0 // movss 0x3e62(%esi),%xmm1
.byte 243,15,88,193 // addss %xmm1,%xmm0
.byte 243,15,44,240 // cvttss2si %xmm0,%esi
.byte 102,15,110,198 // movd %esi,%xmm0
@@ -73038,7 +73057,7 @@ _sk_premul_sse2_lowp:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,80 // sub $0x50,%esp
- .byte 232,0,0,0,0 // call 96de <_sk_premul_sse2_lowp+0xd>
+ .byte 232,0,0,0,0 // call 96e2 <_sk_premul_sse2_lowp+0xd>
.byte 90 // pop %edx
.byte 139,69,8 // mov 0x8(%ebp),%eax
.byte 139,77,16 // mov 0x10(%ebp),%ecx
@@ -73047,7 +73066,7 @@ _sk_premul_sse2_lowp:
.byte 15,40,109,40 // movaps 0x28(%ebp),%xmm5
.byte 15,40,117,56 // movaps 0x38(%ebp),%xmm6
.byte 102,15,213,195 // pmullw %xmm3,%xmm0
- .byte 102,15,111,186,194,60,0,0 // movdqa 0x3cc2(%edx),%xmm7
+ .byte 102,15,111,186,222,60,0,0 // movdqa 0x3cde(%edx),%xmm7
.byte 102,15,253,199 // paddw %xmm7,%xmm0
.byte 102,15,213,203 // pmullw %xmm3,%xmm1
.byte 102,15,253,207 // paddw %xmm7,%xmm1
@@ -73181,12 +73200,12 @@ _sk_invert_sse2_lowp:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,80 // sub $0x50,%esp
- .byte 232,0,0,0,0 // call 9858 <_sk_invert_sse2_lowp+0xd>
+ .byte 232,0,0,0,0 // call 985c <_sk_invert_sse2_lowp+0xd>
.byte 88 // pop %eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
.byte 139,85,16 // mov 0x10(%ebp),%edx
.byte 139,117,20 // mov 0x14(%ebp),%esi
- .byte 102,15,111,160,72,59,0,0 // movdqa 0x3b48(%eax),%xmm4
+ .byte 102,15,111,160,100,59,0,0 // movdqa 0x3b64(%eax),%xmm4
.byte 102,15,111,236 // movdqa %xmm4,%xmm5
.byte 102,15,249,232 // psubw %xmm0,%xmm5
.byte 102,15,111,244 // movdqa %xmm4,%xmm6
@@ -73268,11 +73287,11 @@ _sk_srcatop_sse2_lowp:
.byte 102,15,111,234 // movdqa %xmm2,%xmm5
.byte 102,15,111,209 // movdqa %xmm1,%xmm2
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
- .byte 232,0,0,0,0 // call 9950 <_sk_srcatop_sse2_lowp+0x19>
+ .byte 232,0,0,0,0 // call 9954 <_sk_srcatop_sse2_lowp+0x19>
.byte 88 // pop %eax
.byte 102,15,111,117,72 // movdqa 0x48(%ebp),%xmm6
.byte 102,15,213,206 // pmullw %xmm6,%xmm1
- .byte 102,15,111,128,80,58,0,0 // movdqa 0x3a50(%eax),%xmm0
+ .byte 102,15,111,128,108,58,0,0 // movdqa 0x3a6c(%eax),%xmm0
.byte 102,15,253,200 // paddw %xmm0,%xmm1
.byte 102,15,213,214 // pmullw %xmm6,%xmm2
.byte 102,15,253,208 // paddw %xmm0,%xmm2
@@ -73330,12 +73349,12 @@ _sk_dstatop_sse2_lowp:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,80 // sub $0x50,%esp
- .byte 232,0,0,0,0 // call 9a24 <_sk_dstatop_sse2_lowp+0xd>
+ .byte 232,0,0,0,0 // call 9a28 <_sk_dstatop_sse2_lowp+0xd>
.byte 88 // pop %eax
.byte 102,15,111,101,40 // movdqa 0x28(%ebp),%xmm4
.byte 102,15,111,117,24 // movdqa 0x18(%ebp),%xmm6
.byte 102,15,213,243 // pmullw %xmm3,%xmm6
- .byte 102,15,111,184,124,57,0,0 // movdqa 0x397c(%eax),%xmm7
+ .byte 102,15,111,184,152,57,0,0 // movdqa 0x3998(%eax),%xmm7
.byte 102,15,253,247 // paddw %xmm7,%xmm6
.byte 102,15,213,227 // pmullw %xmm3,%xmm4
.byte 102,15,253,231 // paddw %xmm7,%xmm4
@@ -73388,7 +73407,7 @@ _sk_srcin_sse2_lowp:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,80 // sub $0x50,%esp
- .byte 232,0,0,0,0 // call 9ae5 <_sk_srcin_sse2_lowp+0xd>
+ .byte 232,0,0,0,0 // call 9ae9 <_sk_srcin_sse2_lowp+0xd>
.byte 94 // pop %esi
.byte 139,69,8 // mov 0x8(%ebp),%eax
.byte 139,77,16 // mov 0x10(%ebp),%ecx
@@ -73397,7 +73416,7 @@ _sk_srcin_sse2_lowp:
.byte 15,40,109,40 // movaps 0x28(%ebp),%xmm5
.byte 102,15,111,117,72 // movdqa 0x48(%ebp),%xmm6
.byte 102,15,213,198 // pmullw %xmm6,%xmm0
- .byte 102,15,111,190,187,56,0,0 // movdqa 0x38bb(%esi),%xmm7
+ .byte 102,15,111,190,215,56,0,0 // movdqa 0x38d7(%esi),%xmm7
.byte 102,15,253,199 // paddw %xmm7,%xmm0
.byte 102,15,213,206 // pmullw %xmm6,%xmm1
.byte 102,15,253,207 // paddw %xmm7,%xmm1
@@ -73436,14 +73455,14 @@ _sk_dstin_sse2_lowp:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,80 // sub $0x50,%esp
- .byte 232,0,0,0,0 // call 9b7c <_sk_dstin_sse2_lowp+0xd>
+ .byte 232,0,0,0,0 // call 9b80 <_sk_dstin_sse2_lowp+0xd>
.byte 88 // pop %eax
.byte 102,15,111,85,56 // movdqa 0x38(%ebp),%xmm2
.byte 102,15,111,109,40 // movdqa 0x28(%ebp),%xmm5
.byte 102,15,111,117,24 // movdqa 0x18(%ebp),%xmm6
.byte 102,15,111,198 // movdqa %xmm6,%xmm0
.byte 102,15,213,195 // pmullw %xmm3,%xmm0
- .byte 102,15,111,184,36,56,0,0 // movdqa 0x3824(%eax),%xmm7
+ .byte 102,15,111,184,64,56,0,0 // movdqa 0x3840(%eax),%xmm7
.byte 102,15,253,199 // paddw %xmm7,%xmm0
.byte 102,15,111,205 // movdqa %xmm5,%xmm1
.byte 102,15,213,203 // pmullw %xmm3,%xmm1
@@ -73487,14 +73506,14 @@ _sk_srcout_sse2_lowp:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,80 // sub $0x50,%esp
- .byte 232,0,0,0,0 // call 9c24 <_sk_srcout_sse2_lowp+0xd>
+ .byte 232,0,0,0,0 // call 9c28 <_sk_srcout_sse2_lowp+0xd>
.byte 94 // pop %esi
.byte 139,69,8 // mov 0x8(%ebp),%eax
.byte 139,77,16 // mov 0x10(%ebp),%ecx
.byte 139,85,20 // mov 0x14(%ebp),%edx
.byte 15,40,101,24 // movaps 0x18(%ebp),%xmm4
.byte 102,15,111,109,72 // movdqa 0x48(%ebp),%xmm5
- .byte 102,15,111,182,124,55,0,0 // movdqa 0x377c(%esi),%xmm6
+ .byte 102,15,111,182,152,55,0,0 // movdqa 0x3798(%esi),%xmm6
.byte 102,15,111,254 // movdqa %xmm6,%xmm7
.byte 102,15,249,253 // psubw %xmm5,%xmm7
.byte 102,15,213,199 // pmullw %xmm7,%xmm0
@@ -73538,11 +73557,11 @@ _sk_dstout_sse2_lowp:
.byte 86 // push %esi
.byte 131,236,80 // sub $0x50,%esp
.byte 102,15,111,195 // movdqa %xmm3,%xmm0
- .byte 232,0,0,0,0 // call 9cc7 <_sk_dstout_sse2_lowp+0x11>
+ .byte 232,0,0,0,0 // call 9ccb <_sk_dstout_sse2_lowp+0x11>
.byte 88 // pop %eax
.byte 102,15,111,109,56 // movdqa 0x38(%ebp),%xmm5
.byte 102,15,111,117,24 // movdqa 0x18(%ebp),%xmm6
- .byte 102,15,111,184,217,54,0,0 // movdqa 0x36d9(%eax),%xmm7
+ .byte 102,15,111,184,245,54,0,0 // movdqa 0x36f5(%eax),%xmm7
.byte 102,15,111,223 // movdqa %xmm7,%xmm3
.byte 102,15,249,216 // psubw %xmm0,%xmm3
.byte 102,15,111,195 // movdqa %xmm3,%xmm0
@@ -73594,9 +73613,9 @@ _sk_srcover_sse2_lowp:
.byte 15,41,85,232 // movaps %xmm2,-0x18(%ebp)
.byte 102,15,111,209 // movdqa %xmm1,%xmm2
.byte 102,15,111,224 // movdqa %xmm0,%xmm4
- .byte 232,0,0,0,0 // call 9d83 <_sk_srcover_sse2_lowp+0x19>
+ .byte 232,0,0,0,0 // call 9d87 <_sk_srcover_sse2_lowp+0x19>
.byte 88 // pop %eax
- .byte 102,15,111,136,29,54,0,0 // movdqa 0x361d(%eax),%xmm1
+ .byte 102,15,111,136,57,54,0,0 // movdqa 0x3639(%eax),%xmm1
.byte 102,15,111,193 // movdqa %xmm1,%xmm0
.byte 102,15,249,195 // psubw %xmm3,%xmm0
.byte 102,15,111,248 // movdqa %xmm0,%xmm7
@@ -73655,7 +73674,7 @@ _sk_dstover_sse2_lowp:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,80 // sub $0x50,%esp
- .byte 232,0,0,0,0 // call 9e53 <_sk_dstover_sse2_lowp+0xd>
+ .byte 232,0,0,0,0 // call 9e57 <_sk_dstover_sse2_lowp+0xd>
.byte 95 // pop %edi
.byte 139,77,8 // mov 0x8(%ebp),%ecx
.byte 139,85,16 // mov 0x10(%ebp),%edx
@@ -73663,7 +73682,7 @@ _sk_dstover_sse2_lowp:
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 102,15,111,101,56 // movdqa 0x38(%ebp),%xmm4
.byte 102,15,111,109,72 // movdqa 0x48(%ebp),%xmm5
- .byte 102,15,111,183,77,53,0,0 // movdqa 0x354d(%edi),%xmm6
+ .byte 102,15,111,183,105,53,0,0 // movdqa 0x3569(%edi),%xmm6
.byte 102,15,111,254 // movdqa %xmm6,%xmm7
.byte 102,15,249,253 // psubw %xmm5,%xmm7
.byte 102,15,213,199 // pmullw %xmm7,%xmm0
@@ -73709,12 +73728,12 @@ _sk_modulate_sse2_lowp:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,80 // sub $0x50,%esp
- .byte 232,0,0,0,0 // call 9f08 <_sk_modulate_sse2_lowp+0xd>
+ .byte 232,0,0,0,0 // call 9f0c <_sk_modulate_sse2_lowp+0xd>
.byte 88 // pop %eax
.byte 102,15,111,109,40 // movdqa 0x28(%ebp),%xmm5
.byte 102,15,111,117,24 // movdqa 0x18(%ebp),%xmm6
.byte 102,15,213,198 // pmullw %xmm6,%xmm0
- .byte 102,15,111,184,152,52,0,0 // movdqa 0x3498(%eax),%xmm7
+ .byte 102,15,111,184,180,52,0,0 // movdqa 0x34b4(%eax),%xmm7
.byte 102,15,253,199 // paddw %xmm7,%xmm0
.byte 102,15,213,205 // pmullw %xmm5,%xmm1
.byte 102,15,253,207 // paddw %xmm7,%xmm1
@@ -73757,10 +73776,10 @@ _sk_multiply_sse2_lowp:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,80 // sub $0x50,%esp
- .byte 232,0,0,0,0 // call 9fa4 <_sk_multiply_sse2_lowp+0xd>
+ .byte 232,0,0,0,0 // call 9fa8 <_sk_multiply_sse2_lowp+0xd>
.byte 88 // pop %eax
.byte 102,15,111,109,24 // movdqa 0x18(%ebp),%xmm5
- .byte 102,15,111,160,252,51,0,0 // movdqa 0x33fc(%eax),%xmm4
+ .byte 102,15,111,160,24,52,0,0 // movdqa 0x3418(%eax),%xmm4
.byte 102,15,111,245 // movdqa %xmm5,%xmm6
.byte 102,15,253,244 // paddw %xmm4,%xmm6
.byte 102,15,249,117,72 // psubw 0x48(%ebp),%xmm6
@@ -73830,17 +73849,17 @@ _sk_plus__sse2_lowp:
.byte 131,236,96 // sub $0x60,%esp
.byte 102,15,111,225 // movdqa %xmm1,%xmm4
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
- .byte 232,0,0,0,0 // call a0a5 <_sk_plus__sse2_lowp+0x15>
+ .byte 232,0,0,0,0 // call a0a9 <_sk_plus__sse2_lowp+0x15>
.byte 88 // pop %eax
.byte 102,15,253,77,24 // paddw 0x18(%ebp),%xmm1
- .byte 102,15,111,168,11,51,0,0 // movdqa 0x330b(%eax),%xmm5
+ .byte 102,15,111,168,39,51,0,0 // movdqa 0x3327(%eax),%xmm5
.byte 102,15,111,193 // movdqa %xmm1,%xmm0
.byte 102,15,217,197 // psubusw %xmm5,%xmm0
.byte 102,15,127,109,232 // movdqa %xmm5,-0x18(%ebp)
.byte 102,15,239,255 // pxor %xmm7,%xmm7
.byte 102,15,117,199 // pcmpeqw %xmm7,%xmm0
.byte 102,15,219,200 // pand %xmm0,%xmm1
- .byte 102,15,111,176,251,50,0,0 // movdqa 0x32fb(%eax),%xmm6
+ .byte 102,15,111,176,23,51,0,0 // movdqa 0x3317(%eax),%xmm6
.byte 102,15,223,198 // pandn %xmm6,%xmm0
.byte 102,15,235,193 // por %xmm1,%xmm0
.byte 102,15,253,101,40 // paddw 0x28(%ebp),%xmm4
@@ -73901,14 +73920,14 @@ _sk_screen_sse2_lowp:
.byte 131,236,80 // sub $0x50,%esp
.byte 102,15,111,225 // movdqa %xmm1,%xmm4
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
- .byte 232,0,0,0,0 // call a19d <_sk_screen_sse2_lowp+0x15>
+ .byte 232,0,0,0,0 // call a1a1 <_sk_screen_sse2_lowp+0x15>
.byte 88 // pop %eax
.byte 102,15,111,109,40 // movdqa 0x28(%ebp),%xmm5
.byte 102,15,111,117,24 // movdqa 0x18(%ebp),%xmm6
.byte 102,15,111,198 // movdqa %xmm6,%xmm0
.byte 102,15,253,193 // paddw %xmm1,%xmm0
.byte 102,15,213,206 // pmullw %xmm6,%xmm1
- .byte 102,15,111,176,3,50,0,0 // movdqa 0x3203(%eax),%xmm6
+ .byte 102,15,111,176,31,50,0,0 // movdqa 0x321f(%eax),%xmm6
.byte 102,15,253,206 // paddw %xmm6,%xmm1
.byte 102,15,113,209,8 // psrlw $0x8,%xmm1
.byte 102,15,249,193 // psubw %xmm1,%xmm0
@@ -73966,9 +73985,9 @@ _sk_xor__sse2_lowp:
.byte 86 // push %esi
.byte 131,236,96 // sub $0x60,%esp
.byte 102,15,127,93,232 // movdqa %xmm3,-0x18(%ebp)
- .byte 232,0,0,0,0 // call a27d <_sk_xor__sse2_lowp+0x12>
+ .byte 232,0,0,0,0 // call a281 <_sk_xor__sse2_lowp+0x12>
.byte 88 // pop %eax
- .byte 102,15,111,176,35,49,0,0 // movdqa 0x3123(%eax),%xmm6
+ .byte 102,15,111,176,63,49,0,0 // movdqa 0x313f(%eax),%xmm6
.byte 102,15,111,254 // movdqa %xmm6,%xmm7
.byte 102,15,249,125,72 // psubw 0x48(%ebp),%xmm7
.byte 102,15,213,199 // pmullw %xmm7,%xmm0
@@ -74035,7 +74054,7 @@ _sk_darken_sse2_lowp:
.byte 15,41,85,200 // movaps %xmm2,-0x38(%ebp)
.byte 102,15,111,225 // movdqa %xmm1,%xmm4
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
- .byte 232,0,0,0,0 // call a372 <_sk_darken_sse2_lowp+0x25>
+ .byte 232,0,0,0,0 // call a376 <_sk_darken_sse2_lowp+0x25>
.byte 88 // pop %eax
.byte 102,15,111,117,72 // movdqa 0x48(%ebp),%xmm6
.byte 102,15,111,109,24 // movdqa 0x18(%ebp),%xmm5
@@ -74046,7 +74065,7 @@ _sk_darken_sse2_lowp:
.byte 102,15,111,222 // movdqa %xmm6,%xmm3
.byte 102,15,111,197 // movdqa %xmm5,%xmm0
.byte 102,15,213,199 // pmullw %xmm7,%xmm0
- .byte 102,15,111,184,78,48,0,0 // movdqa 0x304e(%eax),%xmm7
+ .byte 102,15,111,184,106,48,0,0 // movdqa 0x306a(%eax),%xmm7
.byte 102,15,111,241 // movdqa %xmm1,%xmm6
.byte 102,15,239,247 // pxor %xmm7,%xmm6
.byte 102,15,111,232 // movdqa %xmm0,%xmm5
@@ -74055,7 +74074,7 @@ _sk_darken_sse2_lowp:
.byte 102,15,219,197 // pand %xmm5,%xmm0
.byte 102,15,223,233 // pandn %xmm1,%xmm5
.byte 102,15,235,232 // por %xmm0,%xmm5
- .byte 102,15,111,128,46,48,0,0 // movdqa 0x302e(%eax),%xmm0
+ .byte 102,15,111,128,74,48,0,0 // movdqa 0x304a(%eax),%xmm0
.byte 102,15,127,69,232 // movdqa %xmm0,-0x18(%ebp)
.byte 102,15,253,232 // paddw %xmm0,%xmm5
.byte 102,15,113,213,8 // psrlw $0x8,%xmm5
@@ -74146,7 +74165,7 @@ _sk_lighten_sse2_lowp:
.byte 15,41,85,200 // movaps %xmm2,-0x38(%ebp)
.byte 102,15,111,225 // movdqa %xmm1,%xmm4
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
- .byte 232,0,0,0,0 // call a51b <_sk_lighten_sse2_lowp+0x25>
+ .byte 232,0,0,0,0 // call a51f <_sk_lighten_sse2_lowp+0x25>
.byte 88 // pop %eax
.byte 102,15,111,109,24 // movdqa 0x18(%ebp),%xmm5
.byte 102,15,111,197 // movdqa %xmm5,%xmm0
@@ -74155,7 +74174,7 @@ _sk_lighten_sse2_lowp:
.byte 102,15,213,77,72 // pmullw 0x48(%ebp),%xmm1
.byte 102,15,111,197 // movdqa %xmm5,%xmm0
.byte 102,15,213,198 // pmullw %xmm6,%xmm0
- .byte 102,15,111,184,165,46,0,0 // movdqa 0x2ea5(%eax),%xmm7
+ .byte 102,15,111,184,193,46,0,0 // movdqa 0x2ec1(%eax),%xmm7
.byte 102,15,111,241 // movdqa %xmm1,%xmm6
.byte 102,15,239,247 // pxor %xmm7,%xmm6
.byte 102,15,111,232 // movdqa %xmm0,%xmm5
@@ -74164,7 +74183,7 @@ _sk_lighten_sse2_lowp:
.byte 102,15,219,205 // pand %xmm5,%xmm1
.byte 102,15,223,232 // pandn %xmm0,%xmm5
.byte 102,15,235,233 // por %xmm1,%xmm5
- .byte 102,15,111,128,133,46,0,0 // movdqa 0x2e85(%eax),%xmm0
+ .byte 102,15,111,128,161,46,0,0 // movdqa 0x2ea1(%eax),%xmm0
.byte 102,15,253,232 // paddw %xmm0,%xmm5
.byte 102,15,111,208 // movdqa %xmm0,%xmm2
.byte 102,15,127,85,232 // movdqa %xmm2,-0x18(%ebp)
@@ -74254,7 +74273,7 @@ _sk_difference_sse2_lowp:
.byte 15,41,85,184 // movaps %xmm2,-0x48(%ebp)
.byte 102,15,111,225 // movdqa %xmm1,%xmm4
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
- .byte 232,0,0,0,0 // call a6b9 <_sk_difference_sse2_lowp+0x25>
+ .byte 232,0,0,0,0 // call a6bd <_sk_difference_sse2_lowp+0x25>
.byte 88 // pop %eax
.byte 102,15,111,117,72 // movdqa 0x48(%ebp),%xmm6
.byte 102,15,111,109,24 // movdqa 0x18(%ebp),%xmm5
@@ -74265,7 +74284,7 @@ _sk_difference_sse2_lowp:
.byte 102,15,111,222 // movdqa %xmm6,%xmm3
.byte 102,15,111,197 // movdqa %xmm5,%xmm0
.byte 102,15,213,199 // pmullw %xmm7,%xmm0
- .byte 102,15,111,184,7,45,0,0 // movdqa 0x2d07(%eax),%xmm7
+ .byte 102,15,111,184,35,45,0,0 // movdqa 0x2d23(%eax),%xmm7
.byte 102,15,111,241 // movdqa %xmm1,%xmm6
.byte 102,15,239,247 // pxor %xmm7,%xmm6
.byte 102,15,111,232 // movdqa %xmm0,%xmm5
@@ -74274,11 +74293,11 @@ _sk_difference_sse2_lowp:
.byte 102,15,219,205 // pand %xmm5,%xmm1
.byte 102,15,223,232 // pandn %xmm0,%xmm5
.byte 102,15,235,233 // por %xmm1,%xmm5
- .byte 102,15,111,128,231,44,0,0 // movdqa 0x2ce7(%eax),%xmm0
+ .byte 102,15,111,128,3,45,0,0 // movdqa 0x2d03(%eax),%xmm0
.byte 102,15,127,69,216 // movdqa %xmm0,-0x28(%ebp)
.byte 102,15,253,232 // paddw %xmm0,%xmm5
.byte 102,15,113,213,7 // psrlw $0x7,%xmm5
- .byte 102,15,111,128,23,45,0,0 // movdqa 0x2d17(%eax),%xmm0
+ .byte 102,15,111,128,51,45,0,0 // movdqa 0x2d33(%eax),%xmm0
.byte 102,15,127,69,232 // movdqa %xmm0,-0x18(%ebp)
.byte 102,15,219,232 // pand %xmm0,%xmm5
.byte 102,15,249,213 // psubw %xmm5,%xmm2
@@ -74367,16 +74386,16 @@ _sk_exclusion_sse2_lowp:
.byte 131,236,80 // sub $0x50,%esp
.byte 102,15,111,225 // movdqa %xmm1,%xmm4
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
- .byte 232,0,0,0,0 // call a86d <_sk_exclusion_sse2_lowp+0x15>
+ .byte 232,0,0,0,0 // call a871 <_sk_exclusion_sse2_lowp+0x15>
.byte 88 // pop %eax
.byte 102,15,111,109,24 // movdqa 0x18(%ebp),%xmm5
.byte 102,15,111,197 // movdqa %xmm5,%xmm0
.byte 102,15,253,193 // paddw %xmm1,%xmm0
.byte 102,15,213,205 // pmullw %xmm5,%xmm1
- .byte 102,15,111,184,51,43,0,0 // movdqa 0x2b33(%eax),%xmm7
+ .byte 102,15,111,184,79,43,0,0 // movdqa 0x2b4f(%eax),%xmm7
.byte 102,15,253,207 // paddw %xmm7,%xmm1
.byte 102,15,113,209,7 // psrlw $0x7,%xmm1
- .byte 102,15,111,176,99,43,0,0 // movdqa 0x2b63(%eax),%xmm6
+ .byte 102,15,111,176,127,43,0,0 // movdqa 0x2b7f(%eax),%xmm6
.byte 102,15,219,206 // pand %xmm6,%xmm1
.byte 102,15,249,193 // psubw %xmm1,%xmm0
.byte 102,15,111,109,40 // movdqa 0x28(%ebp),%xmm5
@@ -74437,9 +74456,9 @@ _sk_hardlight_sse2_lowp:
.byte 15,41,85,152 // movaps %xmm2,-0x68(%ebp)
.byte 102,15,111,233 // movdqa %xmm1,%xmm5
.byte 102,15,111,224 // movdqa %xmm0,%xmm4
- .byte 232,0,0,0,0 // call a967 <_sk_hardlight_sse2_lowp+0x1c>
+ .byte 232,0,0,0,0 // call a96b <_sk_hardlight_sse2_lowp+0x1c>
.byte 88 // pop %eax
- .byte 102,15,111,184,57,42,0,0 // movdqa 0x2a39(%eax),%xmm7
+ .byte 102,15,111,184,85,42,0,0 // movdqa 0x2a55(%eax),%xmm7
.byte 102,15,127,125,200 // movdqa %xmm7,-0x38(%ebp)
.byte 102,15,111,215 // movdqa %xmm7,%xmm2
.byte 102,15,249,85,72 // psubw 0x48(%ebp),%xmm2
@@ -74466,7 +74485,7 @@ _sk_hardlight_sse2_lowp:
.byte 102,15,111,214 // movdqa %xmm6,%xmm2
.byte 102,15,249,209 // psubw %xmm1,%xmm2
.byte 102,15,253,228 // paddw %xmm4,%xmm4
- .byte 102,15,111,128,89,42,0,0 // movdqa 0x2a59(%eax),%xmm0
+ .byte 102,15,111,128,117,42,0,0 // movdqa 0x2a75(%eax),%xmm0
.byte 102,15,239,216 // pxor %xmm0,%xmm3
.byte 102,15,127,93,184 // movdqa %xmm3,-0x48(%ebp)
.byte 102,15,111,204 // movdqa %xmm4,%xmm1
@@ -74573,10 +74592,10 @@ _sk_overlay_sse2_lowp:
.byte 15,41,85,152 // movaps %xmm2,-0x68(%ebp)
.byte 15,41,141,120,255,255,255 // movaps %xmm1,-0x88(%ebp)
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
- .byte 232,0,0,0,0 // call ab89 <_sk_overlay_sse2_lowp+0x1f>
+ .byte 232,0,0,0,0 // call ab8d <_sk_overlay_sse2_lowp+0x1f>
.byte 88 // pop %eax
.byte 102,15,111,69,72 // movdqa 0x48(%ebp),%xmm0
- .byte 102,15,111,184,23,40,0,0 // movdqa 0x2817(%eax),%xmm7
+ .byte 102,15,111,184,51,40,0,0 // movdqa 0x2833(%eax),%xmm7
.byte 102,15,127,125,232 // movdqa %xmm7,-0x18(%ebp)
.byte 102,15,111,215 // movdqa %xmm7,%xmm2
.byte 102,15,249,208 // psubw %xmm0,%xmm2
@@ -74603,7 +74622,7 @@ _sk_overlay_sse2_lowp:
.byte 102,15,249,234 // psubw %xmm2,%xmm5
.byte 102,15,111,195 // movdqa %xmm3,%xmm0
.byte 102,15,253,192 // paddw %xmm0,%xmm0
- .byte 102,15,111,144,55,40,0,0 // movdqa 0x2837(%eax),%xmm2
+ .byte 102,15,111,144,83,40,0,0 // movdqa 0x2853(%eax),%xmm2
.byte 102,15,127,85,184 // movdqa %xmm2,-0x48(%ebp)
.byte 102,15,239,226 // pxor %xmm2,%xmm4
.byte 102,15,239,194 // pxor %xmm2,%xmm0
@@ -74733,10 +74752,10 @@ _sk_load_8888_sse2_lowp:
.byte 128,225,7 // and $0x7,%cl
.byte 254,201 // dec %cl
.byte 128,249,6 // cmp $0x6,%cl
- .byte 232,0,0,0,0 // call adf8 <_sk_load_8888_sse2_lowp+0x30>
+ .byte 232,0,0,0,0 // call adfc <_sk_load_8888_sse2_lowp+0x30>
.byte 95 // pop %edi
.byte 139,117,16 // mov 0x10(%ebp),%esi
- .byte 119,32 // ja ae1e <_sk_load_8888_sse2_lowp+0x56>
+ .byte 119,32 // ja ae22 <_sk_load_8888_sse2_lowp+0x56>
.byte 102,15,239,246 // pxor %xmm6,%xmm6
.byte 15,182,201 // movzbl %cl,%ecx
.byte 139,140,143,52,1,0,0 // mov 0x134(%edi,%ecx,4),%ecx
@@ -74745,14 +74764,14 @@ _sk_load_8888_sse2_lowp:
.byte 255,225 // jmp *%ecx
.byte 243,15,16,28,179 // movss (%ebx,%esi,4),%xmm3
.byte 15,87,246 // xorps %xmm6,%xmm6
- .byte 235,73 // jmp ae67 <_sk_load_8888_sse2_lowp+0x9f>
+ .byte 235,73 // jmp ae6b <_sk_load_8888_sse2_lowp+0x9f>
.byte 102,15,16,28,179 // movupd (%ebx,%esi,4),%xmm3
.byte 15,16,116,179,16 // movups 0x10(%ebx,%esi,4),%xmm6
- .byte 235,61 // jmp ae67 <_sk_load_8888_sse2_lowp+0x9f>
+ .byte 235,61 // jmp ae6b <_sk_load_8888_sse2_lowp+0x9f>
.byte 102,15,110,68,179,8 // movd 0x8(%ebx,%esi,4),%xmm0
.byte 102,15,112,216,69 // pshufd $0x45,%xmm0,%xmm3
.byte 102,15,18,28,179 // movlpd (%ebx,%esi,4),%xmm3
- .byte 235,43 // jmp ae67 <_sk_load_8888_sse2_lowp+0x9f>
+ .byte 235,43 // jmp ae6b <_sk_load_8888_sse2_lowp+0x9f>
.byte 102,15,110,68,179,24 // movd 0x18(%ebx,%esi,4),%xmm0
.byte 102,15,112,240,69 // pshufd $0x45,%xmm0,%xmm6
.byte 243,15,16,68,179,20 // movss 0x14(%ebx,%esi,4),%xmm0
@@ -74769,7 +74788,7 @@ _sk_load_8888_sse2_lowp:
.byte 102,15,114,240,16 // pslld $0x10,%xmm0
.byte 102,15,114,224,16 // psrad $0x10,%xmm0
.byte 102,15,107,200 // packssdw %xmm0,%xmm1
- .byte 102,15,111,175,168,37,0,0 // movdqa 0x25a8(%edi),%xmm5
+ .byte 102,15,111,175,196,37,0,0 // movdqa 0x25c4(%edi),%xmm5
.byte 102,15,111,193 // movdqa %xmm1,%xmm0
.byte 102,15,219,197 // pand %xmm5,%xmm0
.byte 102,15,113,209,8 // psrlw $0x8,%xmm1
@@ -74849,10 +74868,10 @@ _sk_load_8888_dst_sse2_lowp:
.byte 128,225,7 // and $0x7,%cl
.byte 254,201 // dec %cl
.byte 128,249,6 // cmp $0x6,%cl
- .byte 232,0,0,0,0 // call af85 <_sk_load_8888_dst_sse2_lowp+0x3d>
+ .byte 232,0,0,0,0 // call af89 <_sk_load_8888_dst_sse2_lowp+0x3d>
.byte 95 // pop %edi
.byte 139,117,16 // mov 0x10(%ebp),%esi
- .byte 119,32 // ja afab <_sk_load_8888_dst_sse2_lowp+0x63>
+ .byte 119,32 // ja afaf <_sk_load_8888_dst_sse2_lowp+0x63>
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 15,182,201 // movzbl %cl,%ecx
.byte 139,140,143,59,1,0,0 // mov 0x13b(%edi,%ecx,4),%ecx
@@ -74861,14 +74880,14 @@ _sk_load_8888_dst_sse2_lowp:
.byte 255,225 // jmp *%ecx
.byte 243,15,16,60,179 // movss (%ebx,%esi,4),%xmm7
.byte 15,87,219 // xorps %xmm3,%xmm3
- .byte 235,73 // jmp aff4 <_sk_load_8888_dst_sse2_lowp+0xac>
+ .byte 235,73 // jmp aff8 <_sk_load_8888_dst_sse2_lowp+0xac>
.byte 102,15,16,60,179 // movupd (%ebx,%esi,4),%xmm7
.byte 15,16,92,179,16 // movups 0x10(%ebx,%esi,4),%xmm3
- .byte 235,61 // jmp aff4 <_sk_load_8888_dst_sse2_lowp+0xac>
+ .byte 235,61 // jmp aff8 <_sk_load_8888_dst_sse2_lowp+0xac>
.byte 102,15,110,84,179,8 // movd 0x8(%ebx,%esi,4),%xmm2
.byte 102,15,112,250,69 // pshufd $0x45,%xmm2,%xmm7
.byte 102,15,18,60,179 // movlpd (%ebx,%esi,4),%xmm7
- .byte 235,43 // jmp aff4 <_sk_load_8888_dst_sse2_lowp+0xac>
+ .byte 235,43 // jmp aff8 <_sk_load_8888_dst_sse2_lowp+0xac>
.byte 102,15,110,84,179,24 // movd 0x18(%ebx,%esi,4),%xmm2
.byte 102,15,112,218,69 // pshufd $0x45,%xmm2,%xmm3
.byte 243,15,16,84,179,20 // movss 0x14(%ebx,%esi,4),%xmm2
@@ -74885,7 +74904,7 @@ _sk_load_8888_dst_sse2_lowp:
.byte 102,15,114,242,16 // pslld $0x10,%xmm2
.byte 102,15,114,226,16 // psrad $0x10,%xmm2
.byte 102,15,107,242 // packssdw %xmm2,%xmm6
- .byte 102,15,111,151,27,36,0,0 // movdqa 0x241b(%edi),%xmm2
+ .byte 102,15,111,151,55,36,0,0 // movdqa 0x2437(%edi),%xmm2
.byte 102,15,111,206 // movdqa %xmm6,%xmm1
.byte 102,15,219,202 // pand %xmm2,%xmm1
.byte 102,15,113,214,8 // psrlw $0x8,%xmm6
@@ -74979,19 +74998,19 @@ _sk_store_8888_sse2_lowp:
.byte 128,227,7 // and $0x7,%bl
.byte 254,203 // dec %bl
.byte 128,251,6 // cmp $0x6,%bl
- .byte 232,0,0,0,0 // call b150 <_sk_store_8888_sse2_lowp+0x74>
+ .byte 232,0,0,0,0 // call b154 <_sk_store_8888_sse2_lowp+0x74>
.byte 89 // pop %ecx
.byte 139,117,16 // mov 0x10(%ebp),%esi
.byte 15,40,109,40 // movaps 0x28(%ebp),%xmm5
- .byte 119,19 // ja b16d <_sk_store_8888_sse2_lowp+0x91>
+ .byte 119,19 // ja b171 <_sk_store_8888_sse2_lowp+0x91>
.byte 15,182,219 // movzbl %bl,%ebx
.byte 3,140,153,184,0,0,0 // add 0xb8(%ecx,%ebx,4),%ecx
.byte 255,225 // jmp *%ecx
.byte 102,15,126,60,183 // movd %xmm7,(%edi,%esi,4)
- .byte 235,93 // jmp b1ca <_sk_store_8888_sse2_lowp+0xee>
+ .byte 235,93 // jmp b1ce <_sk_store_8888_sse2_lowp+0xee>
.byte 243,15,127,60,183 // movdqu %xmm7,(%edi,%esi,4)
.byte 243,15,127,116,183,16 // movdqu %xmm6,0x10(%edi,%esi,4)
- .byte 235,80 // jmp b1ca <_sk_store_8888_sse2_lowp+0xee>
+ .byte 235,80 // jmp b1ce <_sk_store_8888_sse2_lowp+0xee>
.byte 102,15,111,244 // movdqa %xmm4,%xmm6
.byte 15,40,227 // movaps %xmm3,%xmm4
.byte 102,15,112,223,78 // pshufd $0x4e,%xmm7,%xmm3
@@ -74999,7 +75018,7 @@ _sk_store_8888_sse2_lowp:
.byte 15,40,220 // movaps %xmm4,%xmm3
.byte 102,15,111,230 // movdqa %xmm6,%xmm4
.byte 102,15,214,60,183 // movq %xmm7,(%edi,%esi,4)
- .byte 235,48 // jmp b1ca <_sk_store_8888_sse2_lowp+0xee>
+ .byte 235,48 // jmp b1ce <_sk_store_8888_sse2_lowp+0xee>
.byte 102,15,112,222,78 // pshufd $0x4e,%xmm6,%xmm3
.byte 102,15,126,92,183,24 // movd %xmm3,0x18(%edi,%esi,4)
.byte 15,40,93,72 // movaps 0x48(%ebp),%xmm3
@@ -75036,7 +75055,7 @@ _sk_store_8888_sse2_lowp:
.byte 0,0 // add %al,(%eax)
.byte 42,0 // sub (%eax),%al
.byte 0,0 // add %al,(%eax)
- .byte 117,0 // jne b216 <_sk_store_8888_sse2_lowp+0x13a>
+ .byte 117,0 // jne b21a <_sk_store_8888_sse2_lowp+0x13a>
.byte 0,0 // add %al,(%eax)
.byte 111 // outsl %ds:(%esi),(%dx)
.byte 0,0 // add %al,(%eax)
@@ -75068,10 +75087,10 @@ _sk_load_bgra_sse2_lowp:
.byte 128,225,7 // and $0x7,%cl
.byte 254,201 // dec %cl
.byte 128,249,6 // cmp $0x6,%cl
- .byte 232,0,0,0,0 // call b254 <_sk_load_bgra_sse2_lowp+0x30>
+ .byte 232,0,0,0,0 // call b258 <_sk_load_bgra_sse2_lowp+0x30>
.byte 95 // pop %edi
.byte 139,117,16 // mov 0x10(%ebp),%esi
- .byte 119,32 // ja b27a <_sk_load_bgra_sse2_lowp+0x56>
+ .byte 119,32 // ja b27e <_sk_load_bgra_sse2_lowp+0x56>
.byte 102,15,239,246 // pxor %xmm6,%xmm6
.byte 15,182,201 // movzbl %cl,%ecx
.byte 139,140,143,52,1,0,0 // mov 0x134(%edi,%ecx,4),%ecx
@@ -75080,14 +75099,14 @@ _sk_load_bgra_sse2_lowp:
.byte 255,225 // jmp *%ecx
.byte 243,15,16,28,179 // movss (%ebx,%esi,4),%xmm3
.byte 15,87,246 // xorps %xmm6,%xmm6
- .byte 235,73 // jmp b2c3 <_sk_load_bgra_sse2_lowp+0x9f>
+ .byte 235,73 // jmp b2c7 <_sk_load_bgra_sse2_lowp+0x9f>
.byte 102,15,16,28,179 // movupd (%ebx,%esi,4),%xmm3
.byte 15,16,116,179,16 // movups 0x10(%ebx,%esi,4),%xmm6
- .byte 235,61 // jmp b2c3 <_sk_load_bgra_sse2_lowp+0x9f>
+ .byte 235,61 // jmp b2c7 <_sk_load_bgra_sse2_lowp+0x9f>
.byte 102,15,110,68,179,8 // movd 0x8(%ebx,%esi,4),%xmm0
.byte 102,15,112,216,69 // pshufd $0x45,%xmm0,%xmm3
.byte 102,15,18,28,179 // movlpd (%ebx,%esi,4),%xmm3
- .byte 235,43 // jmp b2c3 <_sk_load_bgra_sse2_lowp+0x9f>
+ .byte 235,43 // jmp b2c7 <_sk_load_bgra_sse2_lowp+0x9f>
.byte 102,15,110,68,179,24 // movd 0x18(%ebx,%esi,4),%xmm0
.byte 102,15,112,240,69 // pshufd $0x45,%xmm0,%xmm6
.byte 243,15,16,68,179,20 // movss 0x14(%ebx,%esi,4),%xmm0
@@ -75104,7 +75123,7 @@ _sk_load_bgra_sse2_lowp:
.byte 102,15,114,240,16 // pslld $0x10,%xmm0
.byte 102,15,114,224,16 // psrad $0x10,%xmm0
.byte 102,15,107,200 // packssdw %xmm0,%xmm1
- .byte 102,15,111,175,76,33,0,0 // movdqa 0x214c(%edi),%xmm5
+ .byte 102,15,111,175,104,33,0,0 // movdqa 0x2168(%edi),%xmm5
.byte 102,15,111,209 // movdqa %xmm1,%xmm2
.byte 102,15,219,213 // pand %xmm5,%xmm2
.byte 102,15,113,209,8 // psrlw $0x8,%xmm1
@@ -75184,10 +75203,10 @@ _sk_load_bgra_dst_sse2_lowp:
.byte 128,225,7 // and $0x7,%cl
.byte 254,201 // dec %cl
.byte 128,249,6 // cmp $0x6,%cl
- .byte 232,0,0,0,0 // call b3e1 <_sk_load_bgra_dst_sse2_lowp+0x3d>
+ .byte 232,0,0,0,0 // call b3e5 <_sk_load_bgra_dst_sse2_lowp+0x3d>
.byte 95 // pop %edi
.byte 139,117,16 // mov 0x10(%ebp),%esi
- .byte 119,32 // ja b407 <_sk_load_bgra_dst_sse2_lowp+0x63>
+ .byte 119,32 // ja b40b <_sk_load_bgra_dst_sse2_lowp+0x63>
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 15,182,201 // movzbl %cl,%ecx
.byte 139,140,143,59,1,0,0 // mov 0x13b(%edi,%ecx,4),%ecx
@@ -75196,14 +75215,14 @@ _sk_load_bgra_dst_sse2_lowp:
.byte 255,225 // jmp *%ecx
.byte 243,15,16,60,179 // movss (%ebx,%esi,4),%xmm7
.byte 15,87,219 // xorps %xmm3,%xmm3
- .byte 235,73 // jmp b450 <_sk_load_bgra_dst_sse2_lowp+0xac>
+ .byte 235,73 // jmp b454 <_sk_load_bgra_dst_sse2_lowp+0xac>
.byte 102,15,16,60,179 // movupd (%ebx,%esi,4),%xmm7
.byte 15,16,92,179,16 // movups 0x10(%ebx,%esi,4),%xmm3
- .byte 235,61 // jmp b450 <_sk_load_bgra_dst_sse2_lowp+0xac>
+ .byte 235,61 // jmp b454 <_sk_load_bgra_dst_sse2_lowp+0xac>
.byte 102,15,110,84,179,8 // movd 0x8(%ebx,%esi,4),%xmm2
.byte 102,15,112,250,69 // pshufd $0x45,%xmm2,%xmm7
.byte 102,15,18,60,179 // movlpd (%ebx,%esi,4),%xmm7
- .byte 235,43 // jmp b450 <_sk_load_bgra_dst_sse2_lowp+0xac>
+ .byte 235,43 // jmp b454 <_sk_load_bgra_dst_sse2_lowp+0xac>
.byte 102,15,110,84,179,24 // movd 0x18(%ebx,%esi,4),%xmm2
.byte 102,15,112,218,69 // pshufd $0x45,%xmm2,%xmm3
.byte 243,15,16,84,179,20 // movss 0x14(%ebx,%esi,4),%xmm2
@@ -75220,7 +75239,7 @@ _sk_load_bgra_dst_sse2_lowp:
.byte 102,15,114,242,16 // pslld $0x10,%xmm2
.byte 102,15,114,226,16 // psrad $0x10,%xmm2
.byte 102,15,107,242 // packssdw %xmm2,%xmm6
- .byte 102,15,111,151,191,31,0,0 // movdqa 0x1fbf(%edi),%xmm2
+ .byte 102,15,111,151,219,31,0,0 // movdqa 0x1fdb(%edi),%xmm2
.byte 102,15,111,206 // movdqa %xmm6,%xmm1
.byte 102,15,219,202 // pand %xmm2,%xmm1
.byte 102,15,113,214,8 // psrlw $0x8,%xmm6
@@ -75314,19 +75333,19 @@ _sk_store_bgra_sse2_lowp:
.byte 128,227,7 // and $0x7,%bl
.byte 254,203 // dec %bl
.byte 128,251,6 // cmp $0x6,%bl
- .byte 232,0,0,0,0 // call b5ac <_sk_store_bgra_sse2_lowp+0x74>
+ .byte 232,0,0,0,0 // call b5b0 <_sk_store_bgra_sse2_lowp+0x74>
.byte 89 // pop %ecx
.byte 139,117,16 // mov 0x10(%ebp),%esi
.byte 15,40,109,40 // movaps 0x28(%ebp),%xmm5
- .byte 119,19 // ja b5c9 <_sk_store_bgra_sse2_lowp+0x91>
+ .byte 119,19 // ja b5cd <_sk_store_bgra_sse2_lowp+0x91>
.byte 15,182,219 // movzbl %bl,%ebx
.byte 3,140,153,184,0,0,0 // add 0xb8(%ecx,%ebx,4),%ecx
.byte 255,225 // jmp *%ecx
.byte 102,15,126,60,183 // movd %xmm7,(%edi,%esi,4)
- .byte 235,93 // jmp b626 <_sk_store_bgra_sse2_lowp+0xee>
+ .byte 235,93 // jmp b62a <_sk_store_bgra_sse2_lowp+0xee>
.byte 243,15,127,60,183 // movdqu %xmm7,(%edi,%esi,4)
.byte 243,15,127,116,183,16 // movdqu %xmm6,0x10(%edi,%esi,4)
- .byte 235,80 // jmp b626 <_sk_store_bgra_sse2_lowp+0xee>
+ .byte 235,80 // jmp b62a <_sk_store_bgra_sse2_lowp+0xee>
.byte 102,15,111,244 // movdqa %xmm4,%xmm6
.byte 15,40,227 // movaps %xmm3,%xmm4
.byte 102,15,112,223,78 // pshufd $0x4e,%xmm7,%xmm3
@@ -75334,7 +75353,7 @@ _sk_store_bgra_sse2_lowp:
.byte 15,40,220 // movaps %xmm4,%xmm3
.byte 102,15,111,230 // movdqa %xmm6,%xmm4
.byte 102,15,214,60,183 // movq %xmm7,(%edi,%esi,4)
- .byte 235,48 // jmp b626 <_sk_store_bgra_sse2_lowp+0xee>
+ .byte 235,48 // jmp b62a <_sk_store_bgra_sse2_lowp+0xee>
.byte 102,15,112,222,78 // pshufd $0x4e,%xmm6,%xmm3
.byte 102,15,126,92,183,24 // movd %xmm3,0x18(%edi,%esi,4)
.byte 15,40,93,72 // movaps 0x48(%ebp),%xmm3
@@ -75371,7 +75390,7 @@ _sk_store_bgra_sse2_lowp:
.byte 0,0 // add %al,(%eax)
.byte 42,0 // sub (%eax),%al
.byte 0,0 // add %al,(%eax)
- .byte 117,0 // jne b672 <_sk_store_bgra_sse2_lowp+0x13a>
+ .byte 117,0 // jne b676 <_sk_store_bgra_sse2_lowp+0x13a>
.byte 0,0 // add %al,(%eax)
.byte 111 // outsl %ds:(%esi),(%dx)
.byte 0,0 // add %al,(%eax)
@@ -75406,10 +75425,10 @@ _sk_load_565_sse2_lowp:
.byte 128,225,7 // and $0x7,%cl
.byte 254,201 // dec %cl
.byte 128,249,6 // cmp $0x6,%cl
- .byte 232,0,0,0,0 // call b6bb <_sk_load_565_sse2_lowp+0x3b>
+ .byte 232,0,0,0,0 // call b6bf <_sk_load_565_sse2_lowp+0x3b>
.byte 94 // pop %esi
.byte 139,125,16 // mov 0x10(%ebp),%edi
- .byte 119,28 // ja b6dd <_sk_load_565_sse2_lowp+0x5d>
+ .byte 119,28 // ja b6e1 <_sk_load_565_sse2_lowp+0x5d>
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 15,182,201 // movzbl %cl,%ecx
.byte 139,140,142,245,0,0,0 // mov 0xf5(%esi,%ecx,4),%ecx
@@ -75417,14 +75436,14 @@ _sk_load_565_sse2_lowp:
.byte 255,225 // jmp *%ecx
.byte 15,183,12,123 // movzwl (%ebx,%edi,2),%ecx
.byte 102,15,110,193 // movd %ecx,%xmm0
- .byte 235,59 // jmp b718 <_sk_load_565_sse2_lowp+0x98>
+ .byte 235,59 // jmp b71c <_sk_load_565_sse2_lowp+0x98>
.byte 243,15,111,4,123 // movdqu (%ebx,%edi,2),%xmm0
- .byte 235,52 // jmp b718 <_sk_load_565_sse2_lowp+0x98>
+ .byte 235,52 // jmp b71c <_sk_load_565_sse2_lowp+0x98>
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,15,196,68,123,4,2 // pinsrw $0x2,0x4(%ebx,%edi,2),%xmm0
.byte 243,15,16,12,123 // movss (%ebx,%edi,2),%xmm1
.byte 243,15,16,193 // movss %xmm1,%xmm0
- .byte 235,30 // jmp b718 <_sk_load_565_sse2_lowp+0x98>
+ .byte 235,30 // jmp b71c <_sk_load_565_sse2_lowp+0x98>
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,15,196,68,123,12,6 // pinsrw $0x6,0xc(%ebx,%edi,2),%xmm0
.byte 102,15,196,68,123,10,5 // pinsrw $0x5,0xa(%ebx,%edi,2),%xmm0
@@ -75432,11 +75451,11 @@ _sk_load_565_sse2_lowp:
.byte 102,15,18,4,123 // movlpd (%ebx,%edi,2),%xmm0
.byte 102,15,111,248 // movdqa %xmm0,%xmm7
.byte 102,15,113,215,8 // psrlw $0x8,%xmm7
- .byte 102,15,219,190,37,29,0,0 // pand 0x1d25(%esi),%xmm7
+ .byte 102,15,219,190,65,29,0,0 // pand 0x1d41(%esi),%xmm7
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
.byte 102,15,113,209,5 // psrlw $0x5,%xmm1
- .byte 102,15,219,142,53,29,0,0 // pand 0x1d35(%esi),%xmm1
- .byte 102,15,111,150,69,29,0,0 // movdqa 0x1d45(%esi),%xmm2
+ .byte 102,15,219,142,81,29,0,0 // pand 0x1d51(%esi),%xmm1
+ .byte 102,15,111,150,97,29,0,0 // movdqa 0x1d61(%esi),%xmm2
.byte 102,15,219,208 // pand %xmm0,%xmm2
.byte 102,15,113,208,13 // psrlw $0xd,%xmm0
.byte 102,15,235,199 // por %xmm7,%xmm0
@@ -75458,7 +75477,7 @@ _sk_load_565_sse2_lowp:
.byte 137,124,36,8 // mov %edi,0x8(%esp)
.byte 137,76,36,4 // mov %ecx,0x4(%esp)
.byte 137,20,36 // mov %edx,(%esp)
- .byte 15,40,158,229,28,0,0 // movaps 0x1ce5(%esi),%xmm3
+ .byte 15,40,158,1,29,0,0 // movaps 0x1d01(%esi),%xmm3
.byte 255,80,4 // call *0x4(%eax)
.byte 131,196,92 // add $0x5c,%esp
.byte 94 // pop %esi
@@ -75504,10 +75523,10 @@ _sk_load_565_dst_sse2_lowp:
.byte 128,225,7 // and $0x7,%cl
.byte 254,201 // dec %cl
.byte 128,249,6 // cmp $0x6,%cl
- .byte 232,0,0,0,0 // call b7f7 <_sk_load_565_dst_sse2_lowp+0x2b>
+ .byte 232,0,0,0,0 // call b7fb <_sk_load_565_dst_sse2_lowp+0x2b>
.byte 95 // pop %edi
.byte 139,117,16 // mov 0x10(%ebp),%esi
- .byte 119,28 // ja b819 <_sk_load_565_dst_sse2_lowp+0x4d>
+ .byte 119,28 // ja b81d <_sk_load_565_dst_sse2_lowp+0x4d>
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 15,182,201 // movzbl %cl,%ecx
.byte 139,140,143,249,0,0,0 // mov 0xf9(%edi,%ecx,4),%ecx
@@ -75515,14 +75534,14 @@ _sk_load_565_dst_sse2_lowp:
.byte 255,225 // jmp *%ecx
.byte 15,183,12,115 // movzwl (%ebx,%esi,2),%ecx
.byte 102,15,110,225 // movd %ecx,%xmm4
- .byte 235,59 // jmp b854 <_sk_load_565_dst_sse2_lowp+0x88>
+ .byte 235,59 // jmp b858 <_sk_load_565_dst_sse2_lowp+0x88>
.byte 243,15,111,36,115 // movdqu (%ebx,%esi,2),%xmm4
- .byte 235,52 // jmp b854 <_sk_load_565_dst_sse2_lowp+0x88>
+ .byte 235,52 // jmp b858 <_sk_load_565_dst_sse2_lowp+0x88>
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 102,15,196,100,115,4,2 // pinsrw $0x2,0x4(%ebx,%esi,2),%xmm4
.byte 243,15,16,44,115 // movss (%ebx,%esi,2),%xmm5
.byte 243,15,16,229 // movss %xmm5,%xmm4
- .byte 235,30 // jmp b854 <_sk_load_565_dst_sse2_lowp+0x88>
+ .byte 235,30 // jmp b858 <_sk_load_565_dst_sse2_lowp+0x88>
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 102,15,196,100,115,12,6 // pinsrw $0x6,0xc(%ebx,%esi,2),%xmm4
.byte 102,15,196,100,115,10,5 // pinsrw $0x5,0xa(%ebx,%esi,2),%xmm4
@@ -75530,11 +75549,11 @@ _sk_load_565_dst_sse2_lowp:
.byte 102,15,18,36,115 // movlpd (%ebx,%esi,2),%xmm4
.byte 102,15,111,244 // movdqa %xmm4,%xmm6
.byte 102,15,113,214,8 // psrlw $0x8,%xmm6
- .byte 102,15,219,183,233,27,0,0 // pand 0x1be9(%edi),%xmm6
+ .byte 102,15,219,183,5,28,0,0 // pand 0x1c05(%edi),%xmm6
.byte 102,15,111,236 // movdqa %xmm4,%xmm5
.byte 102,15,113,213,5 // psrlw $0x5,%xmm5
- .byte 102,15,219,175,249,27,0,0 // pand 0x1bf9(%edi),%xmm5
- .byte 102,15,111,191,9,28,0,0 // movdqa 0x1c09(%edi),%xmm7
+ .byte 102,15,219,175,21,28,0,0 // pand 0x1c15(%edi),%xmm5
+ .byte 102,15,111,191,37,28,0,0 // movdqa 0x1c25(%edi),%xmm7
.byte 102,15,219,252 // pand %xmm4,%xmm7
.byte 102,15,113,212,13 // psrlw $0xd,%xmm4
.byte 102,15,235,230 // por %xmm6,%xmm4
@@ -75547,7 +75566,7 @@ _sk_load_565_dst_sse2_lowp:
.byte 102,15,113,215,2 // psrlw $0x2,%xmm7
.byte 102,15,235,254 // por %xmm6,%xmm7
.byte 141,72,8 // lea 0x8(%eax),%ecx
- .byte 15,40,183,169,27,0,0 // movaps 0x1ba9(%edi),%xmm6
+ .byte 15,40,183,197,27,0,0 // movaps 0x1bc5(%edi),%xmm6
.byte 15,41,116,36,64 // movaps %xmm6,0x40(%esp)
.byte 139,125,20 // mov 0x14(%ebp),%edi
.byte 137,124,36,12 // mov %edi,0xc(%esp)
@@ -75592,15 +75611,15 @@ _sk_store_565_sse2_lowp:
.byte 86 // push %esi
.byte 131,236,92 // sub $0x5c,%esp
.byte 102,15,111,226 // movdqa %xmm2,%xmm4
- .byte 232,0,0,0,0 // call b91e <_sk_store_565_sse2_lowp+0x12>
+ .byte 232,0,0,0,0 // call b922 <_sk_store_565_sse2_lowp+0x12>
.byte 95 // pop %edi
.byte 15,40,109,72 // movaps 0x48(%ebp),%xmm5
.byte 102,15,111,208 // movdqa %xmm0,%xmm2
.byte 102,15,113,242,8 // psllw $0x8,%xmm2
- .byte 102,15,219,151,242,26,0,0 // pand 0x1af2(%edi),%xmm2
+ .byte 102,15,219,151,14,27,0,0 // pand 0x1b0e(%edi),%xmm2
.byte 102,15,111,241 // movdqa %xmm1,%xmm6
.byte 102,15,113,246,3 // psllw $0x3,%xmm6
- .byte 102,15,219,183,2,27,0,0 // pand 0x1b02(%edi),%xmm6
+ .byte 102,15,219,183,30,27,0,0 // pand 0x1b1e(%edi),%xmm6
.byte 102,15,235,242 // por %xmm2,%xmm6
.byte 102,15,111,212 // movdqa %xmm4,%xmm2
.byte 102,15,113,210,3 // psrlw $0x3,%xmm2
@@ -75619,19 +75638,19 @@ _sk_store_565_sse2_lowp:
.byte 128,249,6 // cmp $0x6,%cl
.byte 139,117,16 // mov 0x10(%ebp),%esi
.byte 15,40,125,24 // movaps 0x18(%ebp),%xmm7
- .byte 119,22 // ja b996 <_sk_store_565_sse2_lowp+0x8a>
+ .byte 119,22 // ja b99a <_sk_store_565_sse2_lowp+0x8a>
.byte 15,182,201 // movzbl %cl,%ecx
.byte 3,188,143,242,0,0,0 // add 0xf2(%edi,%ecx,4),%edi
.byte 255,231 // jmp *%edi
.byte 102,15,126,209 // movd %xmm2,%ecx
.byte 102,137,12,115 // mov %cx,(%ebx,%esi,2)
- .byte 235,59 // jmp b9d1 <_sk_store_565_sse2_lowp+0xc5>
+ .byte 235,59 // jmp b9d5 <_sk_store_565_sse2_lowp+0xc5>
.byte 243,15,127,20,115 // movdqu %xmm2,(%ebx,%esi,2)
- .byte 235,52 // jmp b9d1 <_sk_store_565_sse2_lowp+0xc5>
+ .byte 235,52 // jmp b9d5 <_sk_store_565_sse2_lowp+0xc5>
.byte 102,15,197,202,2 // pextrw $0x2,%xmm2,%ecx
.byte 102,137,76,115,4 // mov %cx,0x4(%ebx,%esi,2)
.byte 102,15,126,20,115 // movd %xmm2,(%ebx,%esi,2)
- .byte 235,35 // jmp b9d1 <_sk_store_565_sse2_lowp+0xc5>
+ .byte 235,35 // jmp b9d5 <_sk_store_565_sse2_lowp+0xc5>
.byte 102,15,197,202,6 // pextrw $0x6,%xmm2,%ecx
.byte 102,137,76,115,12 // mov %cx,0xc(%ebx,%esi,2)
.byte 102,15,197,202,5 // pextrw $0x5,%xmm2,%ecx
@@ -75693,10 +75712,10 @@ _sk_load_a8_sse2_lowp:
.byte 128,225,7 // and $0x7,%cl
.byte 254,201 // dec %cl
.byte 128,249,6 // cmp $0x6,%cl
- .byte 232,0,0,0,0 // call ba66 <_sk_load_a8_sse2_lowp+0x3a>
+ .byte 232,0,0,0,0 // call ba6a <_sk_load_a8_sse2_lowp+0x3a>
.byte 95 // pop %edi
.byte 139,117,16 // mov 0x10(%ebp),%esi
- .byte 119,28 // ja ba88 <_sk_load_a8_sse2_lowp+0x5c>
+ .byte 119,28 // ja ba8c <_sk_load_a8_sse2_lowp+0x5c>
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 15,182,201 // movzbl %cl,%ecx
.byte 139,140,143,198,0,0,0 // mov 0xc6(%edi,%ecx,4),%ecx
@@ -75704,10 +75723,10 @@ _sk_load_a8_sse2_lowp:
.byte 255,225 // jmp *%ecx
.byte 15,182,12,51 // movzbl (%ebx,%esi,1),%ecx
.byte 102,15,110,217 // movd %ecx,%xmm3
- .byte 235,90 // jmp bae2 <_sk_load_a8_sse2_lowp+0xb6>
+ .byte 235,90 // jmp bae6 <_sk_load_a8_sse2_lowp+0xb6>
.byte 243,15,126,28,51 // movq (%ebx,%esi,1),%xmm3
.byte 102,15,96,216 // punpcklbw %xmm0,%xmm3
- .byte 235,79 // jmp bae2 <_sk_load_a8_sse2_lowp+0xb6>
+ .byte 235,79 // jmp bae6 <_sk_load_a8_sse2_lowp+0xb6>
.byte 15,182,76,51,2 // movzbl 0x2(%ebx,%esi,1),%ecx
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 102,15,196,217,2 // pinsrw $0x2,%ecx,%xmm3
@@ -75715,7 +75734,7 @@ _sk_load_a8_sse2_lowp:
.byte 102,15,110,233 // movd %ecx,%xmm5
.byte 102,15,96,232 // punpcklbw %xmm0,%xmm5
.byte 243,15,16,221 // movss %xmm5,%xmm3
- .byte 235,47 // jmp bae2 <_sk_load_a8_sse2_lowp+0xb6>
+ .byte 235,47 // jmp bae6 <_sk_load_a8_sse2_lowp+0xb6>
.byte 15,182,76,51,6 // movzbl 0x6(%ebx,%esi,1),%ecx
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 102,15,196,217,6 // pinsrw $0x6,%ecx,%xmm3
@@ -75726,7 +75745,7 @@ _sk_load_a8_sse2_lowp:
.byte 102,15,110,44,51 // movd (%ebx,%esi,1),%xmm5
.byte 102,15,96,232 // punpcklbw %xmm0,%xmm5
.byte 242,15,16,221 // movsd %xmm5,%xmm3
- .byte 102,15,219,159,58,25,0,0 // pand 0x193a(%edi),%xmm3
+ .byte 102,15,219,159,86,25,0,0 // pand 0x1956(%edi),%xmm3
.byte 141,72,8 // lea 0x8(%eax),%ecx
.byte 15,41,100,36,64 // movaps %xmm4,0x40(%esp)
.byte 15,41,84,36,48 // movaps %xmm2,0x30(%esp)
@@ -75781,10 +75800,10 @@ _sk_load_a8_dst_sse2_lowp:
.byte 128,225,7 // and $0x7,%cl
.byte 254,201 // dec %cl
.byte 128,249,6 // cmp $0x6,%cl
- .byte 232,0,0,0,0 // call bb71 <_sk_load_a8_dst_sse2_lowp+0x29>
+ .byte 232,0,0,0,0 // call bb75 <_sk_load_a8_dst_sse2_lowp+0x29>
.byte 95 // pop %edi
.byte 139,117,16 // mov 0x10(%ebp),%esi
- .byte 119,28 // ja bb93 <_sk_load_a8_dst_sse2_lowp+0x4b>
+ .byte 119,28 // ja bb97 <_sk_load_a8_dst_sse2_lowp+0x4b>
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 15,182,201 // movzbl %cl,%ecx
.byte 139,140,143,195,0,0,0 // mov 0xc3(%edi,%ecx,4),%ecx
@@ -75792,10 +75811,10 @@ _sk_load_a8_dst_sse2_lowp:
.byte 255,225 // jmp *%ecx
.byte 15,182,12,51 // movzbl (%ebx,%esi,1),%ecx
.byte 102,15,110,225 // movd %ecx,%xmm4
- .byte 235,90 // jmp bbed <_sk_load_a8_dst_sse2_lowp+0xa5>
+ .byte 235,90 // jmp bbf1 <_sk_load_a8_dst_sse2_lowp+0xa5>
.byte 243,15,126,36,51 // movq (%ebx,%esi,1),%xmm4
.byte 102,15,96,224 // punpcklbw %xmm0,%xmm4
- .byte 235,79 // jmp bbed <_sk_load_a8_dst_sse2_lowp+0xa5>
+ .byte 235,79 // jmp bbf1 <_sk_load_a8_dst_sse2_lowp+0xa5>
.byte 15,182,76,51,2 // movzbl 0x2(%ebx,%esi,1),%ecx
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 102,15,196,225,2 // pinsrw $0x2,%ecx,%xmm4
@@ -75803,7 +75822,7 @@ _sk_load_a8_dst_sse2_lowp:
.byte 102,15,110,233 // movd %ecx,%xmm5
.byte 102,15,96,232 // punpcklbw %xmm0,%xmm5
.byte 243,15,16,229 // movss %xmm5,%xmm4
- .byte 235,47 // jmp bbed <_sk_load_a8_dst_sse2_lowp+0xa5>
+ .byte 235,47 // jmp bbf1 <_sk_load_a8_dst_sse2_lowp+0xa5>
.byte 15,182,76,51,6 // movzbl 0x6(%ebx,%esi,1),%ecx
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 102,15,196,225,6 // pinsrw $0x6,%ecx,%xmm4
@@ -75814,7 +75833,7 @@ _sk_load_a8_dst_sse2_lowp:
.byte 102,15,110,44,51 // movd (%ebx,%esi,1),%xmm5
.byte 102,15,96,232 // punpcklbw %xmm0,%xmm5
.byte 242,15,16,229 // movsd %xmm5,%xmm4
- .byte 102,15,219,167,47,24,0,0 // pand 0x182f(%edi),%xmm4
+ .byte 102,15,219,167,75,24,0,0 // pand 0x184b(%edi),%xmm4
.byte 141,72,8 // lea 0x8(%eax),%ecx
.byte 102,15,127,100,36,64 // movdqa %xmm4,0x40(%esp)
.byte 102,15,239,228 // pxor %xmm4,%xmm4
@@ -75871,32 +75890,32 @@ _sk_store_a8_sse2_lowp:
.byte 128,225,7 // and $0x7,%cl
.byte 254,201 // dec %cl
.byte 128,249,6 // cmp $0x6,%cl
- .byte 232,0,0,0,0 // call bc89 <_sk_store_a8_sse2_lowp+0x39>
+ .byte 232,0,0,0,0 // call bc8d <_sk_store_a8_sse2_lowp+0x39>
.byte 91 // pop %ebx
.byte 139,117,16 // mov 0x10(%ebp),%esi
- .byte 119,26 // ja bca9 <_sk_store_a8_sse2_lowp+0x59>
+ .byte 119,26 // ja bcad <_sk_store_a8_sse2_lowp+0x59>
.byte 15,182,201 // movzbl %cl,%ecx
.byte 139,140,139,223,0,0,0 // mov 0xdf(%ebx,%ecx,4),%ecx
.byte 1,217 // add %ebx,%ecx
.byte 255,225 // jmp *%ecx
.byte 102,15,126,217 // movd %xmm3,%ecx
.byte 136,12,55 // mov %cl,(%edi,%esi,1)
- .byte 233,136,0,0,0 // jmp bd31 <_sk_store_a8_sse2_lowp+0xe1>
- .byte 102,15,111,163,23,23,0,0 // movdqa 0x1717(%ebx),%xmm4
+ .byte 233,136,0,0,0 // jmp bd35 <_sk_store_a8_sse2_lowp+0xe1>
+ .byte 102,15,111,163,51,23,0,0 // movdqa 0x1733(%ebx),%xmm4
.byte 102,15,219,227 // pand %xmm3,%xmm4
.byte 102,15,103,228 // packuswb %xmm4,%xmm4
.byte 102,15,214,36,55 // movq %xmm4,(%edi,%esi,1)
.byte 15,40,101,24 // movaps 0x18(%ebp),%xmm4
- .byte 235,109 // jmp bd31 <_sk_store_a8_sse2_lowp+0xe1>
+ .byte 235,109 // jmp bd35 <_sk_store_a8_sse2_lowp+0xe1>
.byte 102,15,197,203,2 // pextrw $0x2,%xmm3,%ecx
.byte 136,76,55,2 // mov %cl,0x2(%edi,%esi,1)
- .byte 102,15,111,163,23,23,0,0 // movdqa 0x1717(%ebx),%xmm4
+ .byte 102,15,111,163,51,23,0,0 // movdqa 0x1733(%ebx),%xmm4
.byte 102,15,219,227 // pand %xmm3,%xmm4
.byte 102,15,103,228 // packuswb %xmm4,%xmm4
.byte 102,15,126,225 // movd %xmm4,%ecx
.byte 15,40,101,24 // movaps 0x18(%ebp),%xmm4
.byte 102,137,12,55 // mov %cx,(%edi,%esi,1)
- .byte 235,70 // jmp bd31 <_sk_store_a8_sse2_lowp+0xe1>
+ .byte 235,70 // jmp bd35 <_sk_store_a8_sse2_lowp+0xe1>
.byte 102,15,197,203,6 // pextrw $0x6,%xmm3,%ecx
.byte 136,76,55,6 // mov %cl,0x6(%edi,%esi,1)
.byte 102,15,197,203,5 // pextrw $0x5,%xmm3,%ecx
@@ -75906,7 +75925,7 @@ _sk_store_a8_sse2_lowp:
.byte 15,40,254 // movaps %xmm6,%xmm7
.byte 15,40,245 // movaps %xmm5,%xmm6
.byte 15,40,236 // movaps %xmm4,%xmm5
- .byte 102,15,111,163,23,23,0,0 // movdqa 0x1717(%ebx),%xmm4
+ .byte 102,15,111,163,51,23,0,0 // movdqa 0x1733(%ebx),%xmm4
.byte 102,15,219,227 // pand %xmm3,%xmm4
.byte 102,15,103,228 // packuswb %xmm4,%xmm4
.byte 102,15,126,36,55 // movd %xmm4,(%edi,%esi,1)
@@ -75940,7 +75959,7 @@ _sk_store_a8_sse2_lowp:
.byte 0,0 // add %al,(%eax)
.byte 0,125,0 // add %bh,0x0(%ebp)
.byte 0,0 // add %al,(%eax)
- .byte 116,0 // je bd7a <_sk_store_a8_sse2_lowp+0x12a>
+ .byte 116,0 // je bd7e <_sk_store_a8_sse2_lowp+0x12a>
.byte 0,0 // add %al,(%eax)
.byte 107,0,0 // imul $0x0,(%eax),%eax
.byte 0,98,0 // add %ah,0x0(%edx)
@@ -75970,10 +75989,10 @@ _sk_load_g8_sse2_lowp:
.byte 128,225,7 // and $0x7,%cl
.byte 254,201 // dec %cl
.byte 128,249,6 // cmp $0x6,%cl
- .byte 232,0,0,0,0 // call bdbd <_sk_load_g8_sse2_lowp+0x39>
+ .byte 232,0,0,0,0 // call bdc1 <_sk_load_g8_sse2_lowp+0x39>
.byte 94 // pop %esi
.byte 139,125,16 // mov 0x10(%ebp),%edi
- .byte 119,28 // ja bddf <_sk_load_g8_sse2_lowp+0x5b>
+ .byte 119,28 // ja bde3 <_sk_load_g8_sse2_lowp+0x5b>
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 15,182,201 // movzbl %cl,%ecx
.byte 139,140,142,199,0,0,0 // mov 0xc7(%esi,%ecx,4),%ecx
@@ -75981,10 +76000,10 @@ _sk_load_g8_sse2_lowp:
.byte 255,225 // jmp *%ecx
.byte 15,182,12,59 // movzbl (%ebx,%edi,1),%ecx
.byte 102,15,110,193 // movd %ecx,%xmm0
- .byte 235,90 // jmp be39 <_sk_load_g8_sse2_lowp+0xb5>
+ .byte 235,90 // jmp be3d <_sk_load_g8_sse2_lowp+0xb5>
.byte 243,15,126,4,59 // movq (%ebx,%edi,1),%xmm0
.byte 102,15,96,192 // punpcklbw %xmm0,%xmm0
- .byte 235,79 // jmp be39 <_sk_load_g8_sse2_lowp+0xb5>
+ .byte 235,79 // jmp be3d <_sk_load_g8_sse2_lowp+0xb5>
.byte 15,182,76,59,2 // movzbl 0x2(%ebx,%edi,1),%ecx
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,15,196,193,2 // pinsrw $0x2,%ecx,%xmm0
@@ -75992,7 +76011,7 @@ _sk_load_g8_sse2_lowp:
.byte 102,15,110,233 // movd %ecx,%xmm5
.byte 102,15,96,232 // punpcklbw %xmm0,%xmm5
.byte 243,15,16,197 // movss %xmm5,%xmm0
- .byte 235,47 // jmp be39 <_sk_load_g8_sse2_lowp+0xb5>
+ .byte 235,47 // jmp be3d <_sk_load_g8_sse2_lowp+0xb5>
.byte 15,182,76,59,6 // movzbl 0x6(%ebx,%edi,1),%ecx
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,15,196,193,6 // pinsrw $0x6,%ecx,%xmm0
@@ -76003,7 +76022,7 @@ _sk_load_g8_sse2_lowp:
.byte 102,15,110,44,59 // movd (%ebx,%edi,1),%xmm5
.byte 102,15,96,232 // punpcklbw %xmm0,%xmm5
.byte 242,15,16,197 // movsd %xmm5,%xmm0
- .byte 102,15,219,134,227,21,0,0 // pand 0x15e3(%esi),%xmm0
+ .byte 102,15,219,134,255,21,0,0 // pand 0x15ff(%esi),%xmm0
.byte 141,72,8 // lea 0x8(%eax),%ecx
.byte 15,41,100,36,64 // movaps %xmm4,0x40(%esp)
.byte 15,41,92,36,48 // movaps %xmm3,0x30(%esp)
@@ -76014,7 +76033,7 @@ _sk_load_g8_sse2_lowp:
.byte 137,124,36,8 // mov %edi,0x8(%esp)
.byte 137,76,36,4 // mov %ecx,0x4(%esp)
.byte 137,20,36 // mov %edx,(%esp)
- .byte 15,40,158,227,21,0,0 // movaps 0x15e3(%esi),%xmm3
+ .byte 15,40,158,255,21,0,0 // movaps 0x15ff(%esi),%xmm3
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
.byte 102,15,111,208 // movdqa %xmm0,%xmm2
.byte 255,80,4 // call *0x4(%eax)
@@ -76057,10 +76076,10 @@ _sk_load_g8_dst_sse2_lowp:
.byte 128,225,7 // and $0x7,%cl
.byte 254,201 // dec %cl
.byte 128,249,6 // cmp $0x6,%cl
- .byte 232,0,0,0,0 // call bec9 <_sk_load_g8_dst_sse2_lowp+0x29>
+ .byte 232,0,0,0,0 // call becd <_sk_load_g8_dst_sse2_lowp+0x29>
.byte 95 // pop %edi
.byte 139,117,16 // mov 0x10(%ebp),%esi
- .byte 119,28 // ja beeb <_sk_load_g8_dst_sse2_lowp+0x4b>
+ .byte 119,28 // ja beef <_sk_load_g8_dst_sse2_lowp+0x4b>
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 15,182,201 // movzbl %cl,%ecx
.byte 139,140,143,195,0,0,0 // mov 0xc3(%edi,%ecx,4),%ecx
@@ -76068,10 +76087,10 @@ _sk_load_g8_dst_sse2_lowp:
.byte 255,225 // jmp *%ecx
.byte 15,182,12,51 // movzbl (%ebx,%esi,1),%ecx
.byte 102,15,110,225 // movd %ecx,%xmm4
- .byte 235,90 // jmp bf45 <_sk_load_g8_dst_sse2_lowp+0xa5>
+ .byte 235,90 // jmp bf49 <_sk_load_g8_dst_sse2_lowp+0xa5>
.byte 243,15,126,36,51 // movq (%ebx,%esi,1),%xmm4
.byte 102,15,96,224 // punpcklbw %xmm0,%xmm4
- .byte 235,79 // jmp bf45 <_sk_load_g8_dst_sse2_lowp+0xa5>
+ .byte 235,79 // jmp bf49 <_sk_load_g8_dst_sse2_lowp+0xa5>
.byte 15,182,76,51,2 // movzbl 0x2(%ebx,%esi,1),%ecx
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 102,15,196,225,2 // pinsrw $0x2,%ecx,%xmm4
@@ -76079,7 +76098,7 @@ _sk_load_g8_dst_sse2_lowp:
.byte 102,15,110,233 // movd %ecx,%xmm5
.byte 102,15,96,232 // punpcklbw %xmm0,%xmm5
.byte 243,15,16,229 // movss %xmm5,%xmm4
- .byte 235,47 // jmp bf45 <_sk_load_g8_dst_sse2_lowp+0xa5>
+ .byte 235,47 // jmp bf49 <_sk_load_g8_dst_sse2_lowp+0xa5>
.byte 15,182,76,51,6 // movzbl 0x6(%ebx,%esi,1),%ecx
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 102,15,196,225,6 // pinsrw $0x6,%ecx,%xmm4
@@ -76090,9 +76109,9 @@ _sk_load_g8_dst_sse2_lowp:
.byte 102,15,110,44,51 // movd (%ebx,%esi,1),%xmm5
.byte 102,15,96,232 // punpcklbw %xmm0,%xmm5
.byte 242,15,16,229 // movsd %xmm5,%xmm4
- .byte 102,15,219,167,215,20,0,0 // pand 0x14d7(%edi),%xmm4
+ .byte 102,15,219,167,243,20,0,0 // pand 0x14f3(%edi),%xmm4
.byte 141,72,8 // lea 0x8(%eax),%ecx
- .byte 15,40,175,215,20,0,0 // movaps 0x14d7(%edi),%xmm5
+ .byte 15,40,175,243,20,0,0 // movaps 0x14f3(%edi),%xmm5
.byte 15,41,108,36,64 // movaps %xmm5,0x40(%esp)
.byte 102,15,127,100,36,48 // movdqa %xmm4,0x30(%esp)
.byte 102,15,127,100,36,32 // movdqa %xmm4,0x20(%esp)
@@ -76133,7 +76152,7 @@ _sk_luminance_to_alpha_sse2_lowp:
.byte 86 // push %esi
.byte 131,236,80 // sub $0x50,%esp
.byte 102,15,111,218 // movdqa %xmm2,%xmm3
- .byte 232,0,0,0,0 // call bfb9 <_sk_luminance_to_alpha_sse2_lowp+0x11>
+ .byte 232,0,0,0,0 // call bfbd <_sk_luminance_to_alpha_sse2_lowp+0x11>
.byte 88 // pop %eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
.byte 139,85,16 // mov 0x10(%ebp),%edx
@@ -76143,10 +76162,10 @@ _sk_luminance_to_alpha_sse2_lowp:
.byte 15,40,109,56 // movaps 0x38(%ebp),%xmm5
.byte 15,40,117,72 // movaps 0x48(%ebp),%xmm6
.byte 139,125,12 // mov 0xc(%ebp),%edi
- .byte 102,15,213,128,119,20,0,0 // pmullw 0x1477(%eax),%xmm0
- .byte 102,15,213,136,135,20,0,0 // pmullw 0x1487(%eax),%xmm1
+ .byte 102,15,213,128,147,20,0,0 // pmullw 0x1493(%eax),%xmm0
+ .byte 102,15,213,136,163,20,0,0 // pmullw 0x14a3(%eax),%xmm1
.byte 102,15,253,200 // paddw %xmm0,%xmm1
- .byte 102,15,213,152,151,20,0,0 // pmullw 0x1497(%eax),%xmm3
+ .byte 102,15,213,152,179,20,0,0 // pmullw 0x14b3(%eax),%xmm3
.byte 102,15,253,217 // paddw %xmm1,%xmm3
.byte 102,15,113,211,8 // psrlw $0x8,%xmm3
.byte 141,71,4 // lea 0x4(%edi),%eax
@@ -76177,15 +76196,15 @@ _sk_scale_1_float_sse2_lowp:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,80 // sub $0x50,%esp
- .byte 232,0,0,0,0 // call c042 <_sk_scale_1_float_sse2_lowp+0xd>
+ .byte 232,0,0,0,0 // call c046 <_sk_scale_1_float_sse2_lowp+0xd>
.byte 94 // pop %esi
.byte 139,69,8 // mov 0x8(%ebp),%eax
.byte 139,85,16 // mov 0x10(%ebp),%edx
.byte 139,77,12 // mov 0xc(%ebp),%ecx
.byte 139,57 // mov (%ecx),%edi
.byte 243,15,16,39 // movss (%edi),%xmm4
- .byte 243,15,89,166,34,20,0,0 // mulss 0x1422(%esi),%xmm4
- .byte 243,15,88,166,30,20,0,0 // addss 0x141e(%esi),%xmm4
+ .byte 243,15,89,166,62,20,0,0 // mulss 0x143e(%esi),%xmm4
+ .byte 243,15,88,166,58,20,0,0 // addss 0x143a(%esi),%xmm4
.byte 243,15,44,252 // cvttss2si %xmm4,%edi
.byte 102,15,110,239 // movd %edi,%xmm5
.byte 139,125,20 // mov 0x14(%ebp),%edi
@@ -76198,7 +76217,7 @@ _sk_scale_1_float_sse2_lowp:
.byte 102,15,213,205 // pmullw %xmm5,%xmm1
.byte 102,15,213,213 // pmullw %xmm5,%xmm2
.byte 102,15,213,221 // pmullw %xmm5,%xmm3
- .byte 102,15,111,174,94,19,0,0 // movdqa 0x135e(%esi),%xmm5
+ .byte 102,15,111,174,122,19,0,0 // movdqa 0x137a(%esi),%xmm5
.byte 102,15,253,197 // paddw %xmm5,%xmm0
.byte 102,15,253,205 // paddw %xmm5,%xmm1
.byte 102,15,253,213 // paddw %xmm5,%xmm2
@@ -76237,19 +76256,19 @@ _sk_lerp_1_float_sse2_lowp:
.byte 102,15,111,218 // movdqa %xmm2,%xmm3
.byte 102,15,111,209 // movdqa %xmm1,%xmm2
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
- .byte 232,0,0,0,0 // call c110 <_sk_lerp_1_float_sse2_lowp+0x1d>
+ .byte 232,0,0,0,0 // call c114 <_sk_lerp_1_float_sse2_lowp+0x1d>
.byte 89 // pop %ecx
.byte 102,15,111,109,24 // movdqa 0x18(%ebp),%xmm5
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 139,16 // mov (%eax),%edx
.byte 243,15,16,50 // movss (%edx),%xmm6
- .byte 243,15,89,177,84,19,0,0 // mulss 0x1354(%ecx),%xmm6
- .byte 243,15,88,177,80,19,0,0 // addss 0x1350(%ecx),%xmm6
+ .byte 243,15,89,177,112,19,0,0 // mulss 0x1370(%ecx),%xmm6
+ .byte 243,15,88,177,108,19,0,0 // addss 0x136c(%ecx),%xmm6
.byte 243,15,44,214 // cvttss2si %xmm6,%edx
.byte 102,15,110,242 // movd %edx,%xmm6
.byte 242,15,112,246,0 // pshuflw $0x0,%xmm6,%xmm6
.byte 102,15,112,246,80 // pshufd $0x50,%xmm6,%xmm6
- .byte 102,15,111,129,144,18,0,0 // movdqa 0x1290(%ecx),%xmm0
+ .byte 102,15,111,129,172,18,0,0 // movdqa 0x12ac(%ecx),%xmm0
.byte 102,15,213,206 // pmullw %xmm6,%xmm1
.byte 102,15,253,200 // paddw %xmm0,%xmm1
.byte 102,15,213,214 // pmullw %xmm6,%xmm2
@@ -76322,10 +76341,10 @@ _sk_scale_u8_sse2_lowp:
.byte 128,225,7 // and $0x7,%cl
.byte 254,201 // dec %cl
.byte 128,249,6 // cmp $0x6,%cl
- .byte 232,0,0,0,0 // call c239 <_sk_scale_u8_sse2_lowp+0x31>
+ .byte 232,0,0,0,0 // call c23d <_sk_scale_u8_sse2_lowp+0x31>
.byte 95 // pop %edi
.byte 139,117,16 // mov 0x10(%ebp),%esi
- .byte 119,28 // ja c25b <_sk_scale_u8_sse2_lowp+0x53>
+ .byte 119,28 // ja c25f <_sk_scale_u8_sse2_lowp+0x53>
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 15,182,201 // movzbl %cl,%ecx
.byte 139,140,143,3,1,0,0 // mov 0x103(%edi,%ecx,4),%ecx
@@ -76333,10 +76352,10 @@ _sk_scale_u8_sse2_lowp:
.byte 255,225 // jmp *%ecx
.byte 15,182,12,51 // movzbl (%ebx,%esi,1),%ecx
.byte 102,15,110,225 // movd %ecx,%xmm4
- .byte 235,90 // jmp c2b5 <_sk_scale_u8_sse2_lowp+0xad>
+ .byte 235,90 // jmp c2b9 <_sk_scale_u8_sse2_lowp+0xad>
.byte 243,15,126,36,51 // movq (%ebx,%esi,1),%xmm4
.byte 102,15,96,224 // punpcklbw %xmm0,%xmm4
- .byte 235,79 // jmp c2b5 <_sk_scale_u8_sse2_lowp+0xad>
+ .byte 235,79 // jmp c2b9 <_sk_scale_u8_sse2_lowp+0xad>
.byte 15,182,76,51,2 // movzbl 0x2(%ebx,%esi,1),%ecx
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 102,15,196,225,2 // pinsrw $0x2,%ecx,%xmm4
@@ -76344,7 +76363,7 @@ _sk_scale_u8_sse2_lowp:
.byte 102,15,110,233 // movd %ecx,%xmm5
.byte 102,15,96,232 // punpcklbw %xmm0,%xmm5
.byte 243,15,16,229 // movss %xmm5,%xmm4
- .byte 235,47 // jmp c2b5 <_sk_scale_u8_sse2_lowp+0xad>
+ .byte 235,47 // jmp c2b9 <_sk_scale_u8_sse2_lowp+0xad>
.byte 15,182,76,51,6 // movzbl 0x6(%ebx,%esi,1),%ecx
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 102,15,196,225,6 // pinsrw $0x6,%ecx,%xmm4
@@ -76355,9 +76374,9 @@ _sk_scale_u8_sse2_lowp:
.byte 102,15,110,44,51 // movd (%ebx,%esi,1),%xmm5
.byte 102,15,96,232 // punpcklbw %xmm0,%xmm5
.byte 242,15,16,229 // movsd %xmm5,%xmm4
- .byte 102,15,219,167,103,17,0,0 // pand 0x1167(%edi),%xmm4
+ .byte 102,15,219,167,131,17,0,0 // pand 0x1183(%edi),%xmm4
.byte 102,15,213,196 // pmullw %xmm4,%xmm0
- .byte 102,15,111,175,103,17,0,0 // movdqa 0x1167(%edi),%xmm5
+ .byte 102,15,111,175,131,17,0,0 // movdqa 0x1183(%edi),%xmm5
.byte 102,15,253,197 // paddw %xmm5,%xmm0
.byte 102,15,113,208,8 // psrlw $0x8,%xmm0
.byte 102,15,213,204 // pmullw %xmm4,%xmm1
@@ -76424,10 +76443,10 @@ _sk_lerp_u8_sse2_lowp:
.byte 128,225,7 // and $0x7,%cl
.byte 254,201 // dec %cl
.byte 128,249,6 // cmp $0x6,%cl
- .byte 232,0,0,0,0 // call c386 <_sk_lerp_u8_sse2_lowp+0x2e>
+ .byte 232,0,0,0,0 // call c38a <_sk_lerp_u8_sse2_lowp+0x2e>
.byte 95 // pop %edi
.byte 139,117,16 // mov 0x10(%ebp),%esi
- .byte 119,28 // ja c3a8 <_sk_lerp_u8_sse2_lowp+0x50>
+ .byte 119,28 // ja c3ac <_sk_lerp_u8_sse2_lowp+0x50>
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 15,182,201 // movzbl %cl,%ecx
.byte 139,140,143,74,1,0,0 // mov 0x14a(%edi,%ecx,4),%ecx
@@ -76435,10 +76454,10 @@ _sk_lerp_u8_sse2_lowp:
.byte 255,225 // jmp *%ecx
.byte 15,182,12,51 // movzbl (%ebx,%esi,1),%ecx
.byte 102,15,110,217 // movd %ecx,%xmm3
- .byte 235,90 // jmp c402 <_sk_lerp_u8_sse2_lowp+0xaa>
+ .byte 235,90 // jmp c406 <_sk_lerp_u8_sse2_lowp+0xaa>
.byte 243,15,126,28,51 // movq (%ebx,%esi,1),%xmm3
.byte 102,15,96,216 // punpcklbw %xmm0,%xmm3
- .byte 235,79 // jmp c402 <_sk_lerp_u8_sse2_lowp+0xaa>
+ .byte 235,79 // jmp c406 <_sk_lerp_u8_sse2_lowp+0xaa>
.byte 15,182,76,51,2 // movzbl 0x2(%ebx,%esi,1),%ecx
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 102,15,196,217,2 // pinsrw $0x2,%ecx,%xmm3
@@ -76446,7 +76465,7 @@ _sk_lerp_u8_sse2_lowp:
.byte 102,15,110,225 // movd %ecx,%xmm4
.byte 102,15,96,224 // punpcklbw %xmm0,%xmm4
.byte 243,15,16,220 // movss %xmm4,%xmm3
- .byte 235,47 // jmp c402 <_sk_lerp_u8_sse2_lowp+0xaa>
+ .byte 235,47 // jmp c406 <_sk_lerp_u8_sse2_lowp+0xaa>
.byte 15,182,76,51,6 // movzbl 0x6(%ebx,%esi,1),%ecx
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 102,15,196,217,6 // pinsrw $0x6,%ecx,%xmm3
@@ -76457,8 +76476,8 @@ _sk_lerp_u8_sse2_lowp:
.byte 102,15,110,36,51 // movd (%ebx,%esi,1),%xmm4
.byte 102,15,96,224 // punpcklbw %xmm0,%xmm4
.byte 242,15,16,220 // movsd %xmm4,%xmm3
- .byte 102,15,219,159,26,16,0,0 // pand 0x101a(%edi),%xmm3
- .byte 102,15,111,183,26,16,0,0 // movdqa 0x101a(%edi),%xmm6
+ .byte 102,15,219,159,54,16,0,0 // pand 0x1036(%edi),%xmm3
+ .byte 102,15,111,183,54,16,0,0 // movdqa 0x1036(%edi),%xmm6
.byte 102,15,111,227 // movdqa %xmm3,%xmm4
.byte 102,15,239,230 // pxor %xmm6,%xmm4
.byte 102,15,111,252 // movdqa %xmm4,%xmm7
@@ -76547,10 +76566,10 @@ _sk_scale_565_sse2_lowp:
.byte 128,225,7 // and $0x7,%cl
.byte 254,201 // dec %cl
.byte 128,249,6 // cmp $0x6,%cl
- .byte 232,0,0,0,0 // call c52f <_sk_scale_565_sse2_lowp+0x43>
+ .byte 232,0,0,0,0 // call c533 <_sk_scale_565_sse2_lowp+0x43>
.byte 95 // pop %edi
.byte 139,117,16 // mov 0x10(%ebp),%esi
- .byte 119,28 // ja c551 <_sk_scale_565_sse2_lowp+0x65>
+ .byte 119,28 // ja c555 <_sk_scale_565_sse2_lowp+0x65>
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 15,182,201 // movzbl %cl,%ecx
.byte 139,140,143,249,1,0,0 // mov 0x1f9(%edi,%ecx,4),%ecx
@@ -76558,14 +76577,14 @@ _sk_scale_565_sse2_lowp:
.byte 255,225 // jmp *%ecx
.byte 15,183,12,115 // movzwl (%ebx,%esi,2),%ecx
.byte 102,15,110,217 // movd %ecx,%xmm3
- .byte 235,59 // jmp c58c <_sk_scale_565_sse2_lowp+0xa0>
+ .byte 235,59 // jmp c590 <_sk_scale_565_sse2_lowp+0xa0>
.byte 243,15,111,28,115 // movdqu (%ebx,%esi,2),%xmm3
- .byte 235,52 // jmp c58c <_sk_scale_565_sse2_lowp+0xa0>
+ .byte 235,52 // jmp c590 <_sk_scale_565_sse2_lowp+0xa0>
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 102,15,196,92,115,4,2 // pinsrw $0x2,0x4(%ebx,%esi,2),%xmm3
.byte 243,15,16,12,115 // movss (%ebx,%esi,2),%xmm1
.byte 243,15,16,217 // movss %xmm1,%xmm3
- .byte 235,30 // jmp c58c <_sk_scale_565_sse2_lowp+0xa0>
+ .byte 235,30 // jmp c590 <_sk_scale_565_sse2_lowp+0xa0>
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 102,15,196,92,115,12,6 // pinsrw $0x6,0xc(%ebx,%esi,2),%xmm3
.byte 102,15,196,92,115,10,5 // pinsrw $0x5,0xa(%ebx,%esi,2),%xmm3
@@ -76573,11 +76592,11 @@ _sk_scale_565_sse2_lowp:
.byte 102,15,18,28,115 // movlpd (%ebx,%esi,2),%xmm3
.byte 102,15,111,203 // movdqa %xmm3,%xmm1
.byte 102,15,113,209,8 // psrlw $0x8,%xmm1
- .byte 102,15,219,143,177,14,0,0 // pand 0xeb1(%edi),%xmm1
+ .byte 102,15,219,143,205,14,0,0 // pand 0xecd(%edi),%xmm1
.byte 102,15,111,211 // movdqa %xmm3,%xmm2
.byte 102,15,113,210,5 // psrlw $0x5,%xmm2
- .byte 102,15,219,151,193,14,0,0 // pand 0xec1(%edi),%xmm2
- .byte 102,15,111,135,209,14,0,0 // movdqa 0xed1(%edi),%xmm0
+ .byte 102,15,219,151,221,14,0,0 // pand 0xedd(%edi),%xmm2
+ .byte 102,15,111,135,237,14,0,0 // movdqa 0xeed(%edi),%xmm0
.byte 102,15,219,195 // pand %xmm3,%xmm0
.byte 102,15,113,211,13 // psrlw $0xd,%xmm3
.byte 102,15,235,217 // por %xmm1,%xmm3
@@ -76590,7 +76609,7 @@ _sk_scale_565_sse2_lowp:
.byte 102,15,113,208,2 // psrlw $0x2,%xmm0
.byte 102,15,235,193 // por %xmm1,%xmm0
.byte 102,15,127,69,200 // movdqa %xmm0,-0x38(%ebp)
- .byte 102,15,111,167,145,14,0,0 // movdqa 0xe91(%edi),%xmm4
+ .byte 102,15,111,167,173,14,0,0 // movdqa 0xead(%edi),%xmm4
.byte 15,41,117,184 // movaps %xmm6,-0x48(%ebp)
.byte 102,15,239,244 // pxor %xmm4,%xmm6
.byte 102,15,239,252 // pxor %xmm4,%xmm7
@@ -76633,7 +76652,7 @@ _sk_scale_565_sse2_lowp:
.byte 102,15,111,229 // movdqa %xmm5,%xmm4
.byte 102,15,213,101,136 // pmullw -0x78(%ebp),%xmm4
.byte 102,15,213,125,184 // pmullw -0x48(%ebp),%xmm7
- .byte 102,15,111,135,113,14,0,0 // movdqa 0xe71(%edi),%xmm0
+ .byte 102,15,111,135,141,14,0,0 // movdqa 0xe8d(%edi),%xmm0
.byte 102,15,253,216 // paddw %xmm0,%xmm3
.byte 102,15,253,208 // paddw %xmm0,%xmm2
.byte 102,15,253,224 // paddw %xmm0,%xmm4
@@ -76710,10 +76729,10 @@ _sk_lerp_565_sse2_lowp:
.byte 128,225,7 // and $0x7,%cl
.byte 254,201 // dec %cl
.byte 128,249,6 // cmp $0x6,%cl
- .byte 232,0,0,0,0 // call c787 <_sk_lerp_565_sse2_lowp+0x43>
+ .byte 232,0,0,0,0 // call c78b <_sk_lerp_565_sse2_lowp+0x43>
.byte 95 // pop %edi
.byte 139,117,16 // mov 0x10(%ebp),%esi
- .byte 119,28 // ja c7a9 <_sk_lerp_565_sse2_lowp+0x65>
+ .byte 119,28 // ja c7ad <_sk_lerp_565_sse2_lowp+0x65>
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 15,182,201 // movzbl %cl,%ecx
.byte 139,140,143,73,2,0,0 // mov 0x249(%edi,%ecx,4),%ecx
@@ -76721,14 +76740,14 @@ _sk_lerp_565_sse2_lowp:
.byte 255,225 // jmp *%ecx
.byte 15,183,12,115 // movzwl (%ebx,%esi,2),%ecx
.byte 102,15,110,217 // movd %ecx,%xmm3
- .byte 235,59 // jmp c7e4 <_sk_lerp_565_sse2_lowp+0xa0>
+ .byte 235,59 // jmp c7e8 <_sk_lerp_565_sse2_lowp+0xa0>
.byte 243,15,111,28,115 // movdqu (%ebx,%esi,2),%xmm3
- .byte 235,52 // jmp c7e4 <_sk_lerp_565_sse2_lowp+0xa0>
+ .byte 235,52 // jmp c7e8 <_sk_lerp_565_sse2_lowp+0xa0>
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 102,15,196,92,115,4,2 // pinsrw $0x2,0x4(%ebx,%esi,2),%xmm3
.byte 243,15,16,12,115 // movss (%ebx,%esi,2),%xmm1
.byte 243,15,16,217 // movss %xmm1,%xmm3
- .byte 235,30 // jmp c7e4 <_sk_lerp_565_sse2_lowp+0xa0>
+ .byte 235,30 // jmp c7e8 <_sk_lerp_565_sse2_lowp+0xa0>
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 102,15,196,92,115,12,6 // pinsrw $0x6,0xc(%ebx,%esi,2),%xmm3
.byte 102,15,196,92,115,10,5 // pinsrw $0x5,0xa(%ebx,%esi,2),%xmm3
@@ -76736,11 +76755,11 @@ _sk_lerp_565_sse2_lowp:
.byte 102,15,18,28,115 // movlpd (%ebx,%esi,2),%xmm3
.byte 102,15,111,203 // movdqa %xmm3,%xmm1
.byte 102,15,113,209,8 // psrlw $0x8,%xmm1
- .byte 102,15,219,143,89,12,0,0 // pand 0xc59(%edi),%xmm1
+ .byte 102,15,219,143,117,12,0,0 // pand 0xc75(%edi),%xmm1
.byte 102,15,111,211 // movdqa %xmm3,%xmm2
.byte 102,15,113,210,5 // psrlw $0x5,%xmm2
- .byte 102,15,219,151,105,12,0,0 // pand 0xc69(%edi),%xmm2
- .byte 102,15,111,175,121,12,0,0 // movdqa 0xc79(%edi),%xmm5
+ .byte 102,15,219,151,133,12,0,0 // pand 0xc85(%edi),%xmm2
+ .byte 102,15,111,175,149,12,0,0 // movdqa 0xc95(%edi),%xmm5
.byte 102,15,219,235 // pand %xmm3,%xmm5
.byte 102,15,113,211,13 // psrlw $0xd,%xmm3
.byte 102,15,235,217 // por %xmm1,%xmm3
@@ -76753,7 +76772,7 @@ _sk_lerp_565_sse2_lowp:
.byte 102,15,113,213,2 // psrlw $0x2,%xmm5
.byte 102,15,235,233 // por %xmm1,%xmm5
.byte 102,15,127,109,216 // movdqa %xmm5,-0x28(%ebp)
- .byte 102,15,111,167,57,12,0,0 // movdqa 0xc39(%edi),%xmm4
+ .byte 102,15,111,167,85,12,0,0 // movdqa 0xc55(%edi),%xmm4
.byte 102,15,111,198 // movdqa %xmm6,%xmm0
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
.byte 102,15,239,204 // pxor %xmm4,%xmm1
@@ -76794,7 +76813,7 @@ _sk_lerp_565_sse2_lowp:
.byte 102,15,235,249 // por %xmm1,%xmm7
.byte 102,15,111,195 // movdqa %xmm3,%xmm0
.byte 102,15,213,93,168 // pmullw -0x58(%ebp),%xmm3
- .byte 102,15,111,143,25,12,0,0 // movdqa 0xc19(%edi),%xmm1
+ .byte 102,15,111,143,53,12,0,0 // movdqa 0xc35(%edi),%xmm1
.byte 102,15,239,193 // pxor %xmm1,%xmm0
.byte 102,15,111,101,24 // movdqa 0x18(%ebp),%xmm4
.byte 102,15,213,196 // pmullw %xmm4,%xmm0
@@ -76890,11 +76909,11 @@ _sk_srcover_rgba_8888_sse2_lowp:
.byte 128,227,7 // and $0x7,%bl
.byte 254,203 // dec %bl
.byte 128,251,6 // cmp $0x6,%bl
- .byte 232,0,0,0,0 // call ca2b <_sk_srcover_rgba_8888_sse2_lowp+0x3f>
+ .byte 232,0,0,0,0 // call ca2f <_sk_srcover_rgba_8888_sse2_lowp+0x3f>
.byte 89 // pop %ecx
.byte 139,117,16 // mov 0x10(%ebp),%esi
.byte 15,182,211 // movzbl %bl,%edx
- .byte 119,29 // ja ca51 <_sk_srcover_rgba_8888_sse2_lowp+0x65>
+ .byte 119,29 // ja ca55 <_sk_srcover_rgba_8888_sse2_lowp+0x65>
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 139,132,145,77,2,0,0 // mov 0x24d(%ecx,%edx,4),%eax
.byte 1,200 // add %ecx,%eax
@@ -76902,14 +76921,14 @@ _sk_srcover_rgba_8888_sse2_lowp:
.byte 255,224 // jmp *%eax
.byte 243,15,16,52,183 // movss (%edi,%esi,4),%xmm6
.byte 15,87,219 // xorps %xmm3,%xmm3
- .byte 235,73 // jmp ca9a <_sk_srcover_rgba_8888_sse2_lowp+0xae>
+ .byte 235,73 // jmp ca9e <_sk_srcover_rgba_8888_sse2_lowp+0xae>
.byte 102,15,16,52,183 // movupd (%edi,%esi,4),%xmm6
.byte 15,16,92,183,16 // movups 0x10(%edi,%esi,4),%xmm3
- .byte 235,61 // jmp ca9a <_sk_srcover_rgba_8888_sse2_lowp+0xae>
+ .byte 235,61 // jmp ca9e <_sk_srcover_rgba_8888_sse2_lowp+0xae>
.byte 102,15,110,68,183,8 // movd 0x8(%edi,%esi,4),%xmm0
.byte 102,15,112,240,69 // pshufd $0x45,%xmm0,%xmm6
.byte 102,15,18,52,183 // movlpd (%edi,%esi,4),%xmm6
- .byte 235,43 // jmp ca9a <_sk_srcover_rgba_8888_sse2_lowp+0xae>
+ .byte 235,43 // jmp ca9e <_sk_srcover_rgba_8888_sse2_lowp+0xae>
.byte 102,15,110,68,183,24 // movd 0x18(%edi,%esi,4),%xmm0
.byte 102,15,112,216,69 // pshufd $0x45,%xmm0,%xmm3
.byte 243,15,16,68,183,20 // movss 0x14(%edi,%esi,4),%xmm0
@@ -76935,7 +76954,7 @@ _sk_srcover_rgba_8888_sse2_lowp:
.byte 102,15,114,243,16 // pslld $0x10,%xmm3
.byte 102,15,114,227,16 // psrad $0x10,%xmm3
.byte 102,15,107,243 // packssdw %xmm3,%xmm6
- .byte 102,15,111,153,117,9,0,0 // movdqa 0x975(%ecx),%xmm3
+ .byte 102,15,111,153,145,9,0,0 // movdqa 0x991(%ecx),%xmm3
.byte 102,15,114,208,16 // psrld $0x10,%xmm0
.byte 102,15,114,210,16 // psrld $0x10,%xmm2
.byte 102,15,114,242,16 // pslld $0x10,%xmm2
@@ -76987,18 +77006,18 @@ _sk_srcover_rgba_8888_sse2_lowp:
.byte 102,15,105,220 // punpckhwd %xmm4,%xmm3
.byte 102,15,235,222 // por %xmm6,%xmm3
.byte 128,251,6 // cmp $0x6,%bl
- .byte 119,16 // ja cbdb <_sk_srcover_rgba_8888_sse2_lowp+0x1ef>
+ .byte 119,16 // ja cbdf <_sk_srcover_rgba_8888_sse2_lowp+0x1ef>
.byte 3,140,145,105,2,0,0 // add 0x269(%ecx,%edx,4),%ecx
.byte 255,225 // jmp *%ecx
.byte 102,15,126,4,183 // movd %xmm0,(%edi,%esi,4)
- .byte 235,64 // jmp cc1b <_sk_srcover_rgba_8888_sse2_lowp+0x22f>
+ .byte 235,64 // jmp cc1f <_sk_srcover_rgba_8888_sse2_lowp+0x22f>
.byte 243,15,127,4,183 // movdqu %xmm0,(%edi,%esi,4)
.byte 243,15,127,92,183,16 // movdqu %xmm3,0x10(%edi,%esi,4)
- .byte 235,51 // jmp cc1b <_sk_srcover_rgba_8888_sse2_lowp+0x22f>
+ .byte 235,51 // jmp cc1f <_sk_srcover_rgba_8888_sse2_lowp+0x22f>
.byte 102,15,112,208,78 // pshufd $0x4e,%xmm0,%xmm2
.byte 102,15,126,84,183,8 // movd %xmm2,0x8(%edi,%esi,4)
.byte 102,15,214,4,183 // movq %xmm0,(%edi,%esi,4)
- .byte 235,33 // jmp cc1b <_sk_srcover_rgba_8888_sse2_lowp+0x22f>
+ .byte 235,33 // jmp cc1f <_sk_srcover_rgba_8888_sse2_lowp+0x22f>
.byte 102,15,112,211,78 // pshufd $0x4e,%xmm3,%xmm2
.byte 102,15,126,84,183,24 // movd %xmm2,0x18(%edi,%esi,4)
.byte 102,15,112,211,229 // pshufd $0xe5,%xmm3,%xmm2
@@ -77127,11 +77146,11 @@ BALIGN16
.byte 0,128,191,0,0,128 // add %al,-0x7fffff41(%eax)
.byte 191,0,0,224,64 // mov $0x40e00000,%edi
.byte 0,0 // add %al,(%eax)
- .byte 224,64 // loopne cd98 <.literal16+0xe8>
+ .byte 224,64 // loopne cda8 <.literal16+0xe8>
.byte 0,0 // add %al,(%eax)
- .byte 224,64 // loopne cd9c <.literal16+0xec>
+ .byte 224,64 // loopne cdac <.literal16+0xec>
.byte 0,0 // add %al,(%eax)
- .byte 224,64 // loopne cda0 <.literal16+0xf0>
+ .byte 224,64 // loopne cdb0 <.literal16+0xf0>
.byte 154,153,153,62,154,153,153 // lcall $0x9999,$0x9a3e9999
.byte 62,154,153,153,62,154,153,153 // ds lcall $0x9999,$0x9a3e9999
.byte 62,61,10,23,63,61 // ds cmp $0x3d3f170a,%eax
@@ -77142,16 +77161,16 @@ BALIGN16
.byte 63 // aas
.byte 174 // scas %es:(%edi),%al
.byte 71 // inc %edi
- .byte 225,61 // loope cdc1 <.literal16+0x111>
+ .byte 225,61 // loope cdd1 <.literal16+0x111>
.byte 174 // scas %es:(%edi),%al
.byte 71 // inc %edi
- .byte 225,61 // loope cdc5 <.literal16+0x115>
+ .byte 225,61 // loope cdd5 <.literal16+0x115>
.byte 174 // scas %es:(%edi),%al
.byte 71 // inc %edi
- .byte 225,61 // loope cdc9 <.literal16+0x119>
+ .byte 225,61 // loope cdd9 <.literal16+0x119>
.byte 174 // scas %es:(%edi),%al
.byte 71 // inc %edi
- .byte 225,61 // loope cdcd <.literal16+0x11d>
+ .byte 225,61 // loope cddd <.literal16+0x11d>
.byte 255,0 // incl (%eax)
.byte 0,0 // add %al,(%eax)
.byte 255,0 // incl (%eax)
@@ -77161,15 +77180,20 @@ BALIGN16
.byte 255,0 // incl (%eax)
.byte 0,0 // add %al,(%eax)
.byte 0,0 // add %al,(%eax)
- .byte 127,67 // jg cde7 <.literal16+0x137>
+ .byte 127,67 // jg cdf7 <.literal16+0x137>
.byte 0,0 // add %al,(%eax)
- .byte 127,67 // jg cdeb <.literal16+0x13b>
+ .byte 127,67 // jg cdfb <.literal16+0x13b>
.byte 0,0 // add %al,(%eax)
- .byte 127,67 // jg cdef <.literal16+0x13f>
+ .byte 127,67 // jg cdff <.literal16+0x13f>
.byte 0,0 // add %al,(%eax)
- .byte 127,67 // jg cdf3 <.literal16+0x143>
- .byte 145 // xchg %eax,%ecx
- .byte 131,158,61,145,131,158,61 // sbbl $0x3d,-0x617c6ec3(%esi)
+ .byte 127,67 // jg ce03 <.literal16+0x143>
+ .byte 0,0 // add %al,(%eax)
+ .byte 128,127,0,0 // cmpb $0x0,0x0(%edi)
+ .byte 128,127,0,0 // cmpb $0x0,0x0(%edi)
+ .byte 128,127,0,0 // cmpb $0x0,0x0(%edi)
+ .byte 128,127,145,131 // cmpb $0x83,-0x6f(%edi)
+ .byte 158 // sahf
+ .byte 61,145,131,158,61 // cmp $0x3d9e8391,%eax
.byte 145 // xchg %eax,%ecx
.byte 131,158,61,145,131,158,61 // sbbl $0x3d,-0x617c6ec3(%esi)
.byte 92 // pop %esp
@@ -77318,13 +77342,13 @@ BALIGN16
.byte 132,55 // test %dh,(%edi)
.byte 8,33 // or %ah,(%ecx)
.byte 132,55 // test %dh,(%edi)
- .byte 224,7 // loopne cef9 <.literal16+0x249>
+ .byte 224,7 // loopne cf19 <.literal16+0x259>
.byte 0,0 // add %al,(%eax)
- .byte 224,7 // loopne cefd <.literal16+0x24d>
+ .byte 224,7 // loopne cf1d <.literal16+0x25d>
.byte 0,0 // add %al,(%eax)
- .byte 224,7 // loopne cf01 <.literal16+0x251>
+ .byte 224,7 // loopne cf21 <.literal16+0x261>
.byte 0,0 // add %al,(%eax)
- .byte 224,7 // loopne cf05 <.literal16+0x255>
+ .byte 224,7 // loopne cf25 <.literal16+0x265>
.byte 0,0 // add %al,(%eax)
.byte 33,8 // and %ecx,(%eax)
.byte 2,58 // add (%edx),%bh
@@ -77373,17 +77397,17 @@ BALIGN16
.byte 0,0 // add %al,(%eax)
.byte 52,255 // xor $0xff,%al
.byte 255 // (bad)
- .byte 127,0 // jg cf64 <.literal16+0x2b4>
+ .byte 127,0 // jg cf84 <.literal16+0x2c4>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 127,0 // jg cf68 <.literal16+0x2b8>
+ .byte 127,0 // jg cf88 <.literal16+0x2c8>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 127,0 // jg cf6c <.literal16+0x2bc>
+ .byte 127,0 // jg cf8c <.literal16+0x2cc>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 127,0 // jg cf70 <.literal16+0x2c0>
- .byte 119,115 // ja cfe5 <.literal16+0x335>
+ .byte 127,0 // jg cf90 <.literal16+0x2d0>
+ .byte 119,115 // ja d005 <.literal16+0x345>
.byte 248 // clc
.byte 194,119,115 // ret $0x7377
.byte 248 // clc
@@ -77394,7 +77418,7 @@ BALIGN16
.byte 194,117,191 // ret $0xbf75
.byte 191,63,117,191,191 // mov $0xbfbf753f,%edi
.byte 63 // aas
- .byte 117,191 // jne cf49 <.literal16+0x299>
+ .byte 117,191 // jne cf69 <.literal16+0x2a9>
.byte 191,63,117,191,191 // mov $0xbfbf753f,%edi
.byte 63 // aas
.byte 249 // stc
@@ -77410,7 +77434,7 @@ BALIGN16
.byte 68 // inc %esp
.byte 180,62 // mov $0x3e,%ah
.byte 163,233,220,63,163 // mov %eax,0xa33fdce9
- .byte 233,220,63,163,233 // jmp e9a40f86 <_sk_srcover_rgba_8888_sse2_lowp+0xe9a3459a>
+ .byte 233,220,63,163,233 // jmp e9a40fa6 <_sk_srcover_rgba_8888_sse2_lowp+0xe9a345b6>
.byte 220,63 // fdivrl (%edi)
.byte 163,233,220,63,81 // mov %eax,0x513fdce9
.byte 140,242 // mov %?,%edx
@@ -77506,16 +77530,16 @@ BALIGN16
.byte 128,3,62 // addb $0x3e,(%ebx)
.byte 31 // pop %ds
.byte 215 // xlat %ds:(%ebx)
- .byte 118,63 // jbe d0d3 <.literal16+0x423>
+ .byte 118,63 // jbe d0f3 <.literal16+0x433>
.byte 31 // pop %ds
.byte 215 // xlat %ds:(%ebx)
- .byte 118,63 // jbe d0d7 <.literal16+0x427>
+ .byte 118,63 // jbe d0f7 <.literal16+0x437>
.byte 31 // pop %ds
.byte 215 // xlat %ds:(%ebx)
- .byte 118,63 // jbe d0db <.literal16+0x42b>
+ .byte 118,63 // jbe d0fb <.literal16+0x43b>
.byte 31 // pop %ds
.byte 215 // xlat %ds:(%ebx)
- .byte 118,63 // jbe d0df <.literal16+0x42f>
+ .byte 118,63 // jbe d0ff <.literal16+0x43f>
.byte 246,64,83,63 // testb $0x3f,0x53(%eax)
.byte 246,64,83,63 // testb $0x3f,0x53(%eax)
.byte 246,64,83,63 // testb $0x3f,0x53(%eax)
@@ -77541,13 +77565,13 @@ BALIGN16
.byte 248 // clc
.byte 65 // inc %ecx
.byte 0,0 // add %al,(%eax)
- .byte 124,66 // jl d116 <.literal16+0x466>
+ .byte 124,66 // jl d136 <.literal16+0x476>
.byte 0,0 // add %al,(%eax)
- .byte 124,66 // jl d11a <.literal16+0x46a>
+ .byte 124,66 // jl d13a <.literal16+0x47a>
.byte 0,0 // add %al,(%eax)
- .byte 124,66 // jl d11e <.literal16+0x46e>
+ .byte 124,66 // jl d13e <.literal16+0x47e>
.byte 0,0 // add %al,(%eax)
- .byte 124,66 // jl d122 <.literal16+0x472>
+ .byte 124,66 // jl d142 <.literal16+0x482>
.byte 0,240 // add %dh,%al
.byte 0,0 // add %al,(%eax)
.byte 0,240 // add %dh,%al
@@ -77593,25 +77617,25 @@ BALIGN16
.byte 136,136,61,137,136,136 // mov %cl,-0x777776c3(%eax)
.byte 61,137,136,136,61 // cmp $0x3d888889,%eax
.byte 0,0 // add %al,(%eax)
- .byte 112,65 // jo d1a5 <.literal16+0x4f5>
+ .byte 112,65 // jo d1c5 <.literal16+0x505>
.byte 0,0 // add %al,(%eax)
- .byte 112,65 // jo d1a9 <.literal16+0x4f9>
+ .byte 112,65 // jo d1c9 <.literal16+0x509>
.byte 0,0 // add %al,(%eax)
- .byte 112,65 // jo d1ad <.literal16+0x4fd>
+ .byte 112,65 // jo d1cd <.literal16+0x50d>
.byte 0,0 // add %al,(%eax)
- .byte 112,65 // jo d1b1 <.literal16+0x501>
+ .byte 112,65 // jo d1d1 <.literal16+0x511>
.byte 0,128,0,0,0,128 // add %al,-0x80000000(%eax)
.byte 0,0 // add %al,(%eax)
.byte 0,128,0,0,0,128 // add %al,-0x80000000(%eax)
.byte 0,0 // add %al,(%eax)
.byte 255 // (bad)
- .byte 127,0 // jg d183 <.literal16+0x4d3>
+ .byte 127,0 // jg d1a3 <.literal16+0x4e3>
.byte 0,255 // add %bh,%bh
- .byte 127,0 // jg d187 <.literal16+0x4d7>
+ .byte 127,0 // jg d1a7 <.literal16+0x4e7>
.byte 0,255 // add %bh,%bh
- .byte 127,0 // jg d18b <.literal16+0x4db>
+ .byte 127,0 // jg d1ab <.literal16+0x4eb>
.byte 0,255 // add %bh,%bh
- .byte 127,0 // jg d18f <.literal16+0x4df>
+ .byte 127,0 // jg d1af <.literal16+0x4ef>
.byte 0,0 // add %al,(%eax)
.byte 4,0 // add $0x0,%al
.byte 0,0 // add %al,(%eax)
@@ -77637,13 +77661,13 @@ BALIGN16
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 127,255 // jg d1c8 <.literal16+0x518>
+ .byte 127,255 // jg d1e8 <.literal16+0x528>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 127,255 // jg d1cc <.literal16+0x51c>
+ .byte 127,255 // jg d1ec <.literal16+0x52c>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 127,0 // jg d1d1 <.literal16+0x521>
+ .byte 127,0 // jg d1f1 <.literal16+0x531>
.byte 0,128,56,0,0,128 // add %al,-0x7fffffc8(%eax)
.byte 56,0 // cmp %al,(%eax)
.byte 0,128,56,0,0,128 // add %al,-0x7fffffc8(%eax)
@@ -77657,13 +77681,13 @@ BALIGN16
.byte 0,255 // add %bh,%bh
.byte 255,0 // incl (%eax)
.byte 255 // (bad)
- .byte 127,71 // jg d23b <.literal16+0x58b>
+ .byte 127,71 // jg d25b <.literal16+0x59b>
.byte 0,255 // add %bh,%bh
- .byte 127,71 // jg d23f <.literal16+0x58f>
+ .byte 127,71 // jg d25f <.literal16+0x59f>
.byte 0,255 // add %bh,%bh
- .byte 127,71 // jg d243 <.literal16+0x593>
+ .byte 127,71 // jg d263 <.literal16+0x5a3>
.byte 0,255 // add %bh,%bh
- .byte 127,71 // jg d247 <.literal16+0x597>
+ .byte 127,71 // jg d267 <.literal16+0x5a7>
.byte 208 // (bad)
.byte 179,89 // mov $0x59,%bl
.byte 62,208 // ds (bad)
@@ -77716,7 +77740,7 @@ BALIGN16
.byte 192,45,16,17,192,45,16 // shrb $0x10,0x2dc01110
.byte 17,192 // adc %eax,%eax
.byte 45,16,17,192,18 // sub $0x12c01110,%eax
- .byte 120,57 // js d2ac <.literal16+0x5fc>
+ .byte 120,57 // js d2cc <.literal16+0x60c>
.byte 64 // inc %eax
.byte 18,120,57 // adc 0x39(%eax),%bh
.byte 64 // inc %eax
@@ -77787,13 +77811,13 @@ BALIGN16
.byte 192,191,0,0,192,191,0 // sarb $0x0,-0x40400000(%edi)
.byte 0,192 // add %al,%al
.byte 191,0,0,192,191 // mov $0xbfc00000,%edi
- .byte 114,28 // jb d35e <.literal16+0x6ae>
+ .byte 114,28 // jb d37e <.literal16+0x6be>
.byte 199 // (bad)
- .byte 62,114,28 // jb,pt d362 <.literal16+0x6b2>
+ .byte 62,114,28 // jb,pt d382 <.literal16+0x6c2>
.byte 199 // (bad)
- .byte 62,114,28 // jb,pt d366 <.literal16+0x6b6>
+ .byte 62,114,28 // jb,pt d386 <.literal16+0x6c6>
.byte 199 // (bad)
- .byte 62,114,28 // jb,pt d36a <.literal16+0x6ba>
+ .byte 62,114,28 // jb,pt d38a <.literal16+0x6ca>
.byte 199 // (bad)
.byte 62,85 // ds push %ebp
.byte 85 // push %ebp
@@ -77814,13 +77838,13 @@ BALIGN16
.byte 57,142,99,61,57,142 // cmp %ecx,-0x71c6c29d(%esi)
.byte 99,61,57,142,99,61 // arpl %di,0x3d638e39
.byte 57,142,99,61,114,249 // cmp %ecx,-0x68dc29d(%esi)
- .byte 127,63 // jg d3c3 <.literal16+0x713>
- .byte 114,249 // jb d37f <.literal16+0x6cf>
- .byte 127,63 // jg d3c7 <.literal16+0x717>
- .byte 114,249 // jb d383 <.literal16+0x6d3>
- .byte 127,63 // jg d3cb <.literal16+0x71b>
- .byte 114,249 // jb d387 <.literal16+0x6d7>
- .byte 127,63 // jg d3cf <.literal16+0x71f>
+ .byte 127,63 // jg d3e3 <.literal16+0x723>
+ .byte 114,249 // jb d39f <.literal16+0x6df>
+ .byte 127,63 // jg d3e7 <.literal16+0x727>
+ .byte 114,249 // jb d3a3 <.literal16+0x6e3>
+ .byte 127,63 // jg d3eb <.literal16+0x72b>
+ .byte 114,249 // jb d3a7 <.literal16+0x6e7>
+ .byte 127,63 // jg d3ef <.literal16+0x72f>
.byte 3,0 // add (%eax),%eax
.byte 0,0 // add %al,(%eax)
.byte 3,0 // add (%eax),%eax
@@ -77888,14 +77912,14 @@ BALIGN16
.byte 0,248 // add %bh,%al
.byte 0,248 // add %bh,%al
.byte 0,248 // add %bh,%al
- .byte 224,255 // loopne d421 <.literal16+0x771>
- .byte 224,255 // loopne d423 <.literal16+0x773>
- .byte 224,255 // loopne d425 <.literal16+0x775>
- .byte 224,255 // loopne d427 <.literal16+0x777>
- .byte 224,255 // loopne d429 <.literal16+0x779>
- .byte 224,255 // loopne d42b <.literal16+0x77b>
- .byte 224,255 // loopne d42d <.literal16+0x77d>
- .byte 224,255 // loopne d42f <.literal16+0x77f>
+ .byte 224,255 // loopne d441 <.literal16+0x781>
+ .byte 224,255 // loopne d443 <.literal16+0x783>
+ .byte 224,255 // loopne d445 <.literal16+0x785>
+ .byte 224,255 // loopne d447 <.literal16+0x787>
+ .byte 224,255 // loopne d449 <.literal16+0x789>
+ .byte 224,255 // loopne d44b <.literal16+0x78b>
+ .byte 224,255 // loopne d44d <.literal16+0x78d>
+ .byte 224,255 // loopne d44f <.literal16+0x78f>
.byte 54,0,54 // add %dh,%ss:(%esi)
.byte 0,54 // add %dh,(%esi)
.byte 0,54 // add %dh,(%esi)
@@ -77919,5 +77943,5 @@ BALIGN4
.byte 0,0 // add %al,(%eax)
.byte 0,63 // add %bh,(%edi)
.byte 0,0 // add %al,(%eax)
- .byte 127,67 // jg d4ab <_sk_srcover_rgba_8888_sse2_lowp+0xabf>
+ .byte 127,67 // jg d4cb <_sk_srcover_rgba_8888_sse2_lowp+0xadb>
#endif