.file "Program" .section .rodata.cst8,"aM",@progbits,8 .align 8 .LCPI0_0: .quad 4607182418800017408 .LCPI0_1: .quad 4382569440205035030 .LCPI0_3: .quad -9223372036854775808 .LCPI0_4: .quad 4307583784117748259 .LCPI0_5: .quad 4599676419421066580 .LCPI0_6: .quad 4602678819172646912 .LCPI0_7: .quad 4609434218613702656 .LCPI0_8: .quad -4614688418178968235 .LCPI0_9: .quad -4610935418489492822 .LCPI0_10: .quad 4611686018427387904 .LCPI0_11: .quad 4607215944355556140 .LCPI0_12: .quad 4606822130829827768 .LCPI0_13: .quad 4412443251819771522 .LCPI0_14: .quad 4580160821035794432 .LCPI0_15: .quad -4616189618054758400 .LCPI0_16: .quad -4691351453243840271 .LCPI0_17: .quad 4532020583610935537 .LCPI0_18: .quad -4626998257160447590 .LCPI0_19: .quad 4601678019255453466 .LCPI0_20: .quad 4608683618675807573 .LCPI0_21: .quad -4607182418800017408 .LCPI0_22: .quad -4611686018427387904 .LCPI0_23: .quad -4620693217682128896 .LCPI0_24: .quad 0 .section .rodata.cst16,"aM",@progbits,16 .align 16 .LCPI0_2: .quad -9223372036854775808 .quad -9223372036854775808 .text .globl ComputeResidual .align 16, 0x90 .type ComputeResidual,@function ComputeResidual: .cfi_startproc pushq %rbp .Ltmp3: .cfi_def_cfa_offset 16 .Ltmp4: .cfi_offset %rbp, -16 movq %rsp, %rbp .Ltmp5: .cfi_def_cfa_register %rbp pushq %r15 pushq %r14 pushq %r13 pushq %r12 pushq %rbx andq $-128, %rsp subq $12288, %rsp movq %rsp, %rbx .Ltmp6: .cfi_offset %rbx, -56 .Ltmp7: .cfi_offset %r12, -48 .Ltmp8: .cfi_offset %r13, -40 .Ltmp9: .cfi_offset %r14, -32 .Ltmp10: .cfi_offset %r15, -24 movq 112(%rdi), %r8 movq 104(%rdi), %rcx movq %rcx, %rax imulq %r8, %rax imulq 120(%rdi), %rax imulq $1640, %rax, %rax imulq (%rsi), %rcx addq 56(%rdi), %rcx movq %rcx, 1696(%rbx) imulq 8(%rsi), %r8 addq $15, %rax andq $-16, %rax movq 32(%rdi), %rcx movq %rcx, 1328(%rbx) movq 24(%rdi), %rcx movq %rcx, 1344(%rbx) movq 16(%rdi), %rcx movq %rcx, 1320(%rbx) movq (%rdi), %rcx movq %rcx, 1784(%rbx) movq 8(%rdi), %rcx movq %rcx, 904(%rbx) movq %rsp, %r13 subq %rax, %r13 xorl %edx, %edx andq $-128, %r13 addq 64(%rdi), %r8 movq %r8, 1704(%rbx) vxorps %xmm0, %xmm0, %xmm0 movq %r13, %rsp leaq 24(%r13), %rax movq %rax, 1680(%rbx) leaq 56(%r13), %rax movq %rax, 1672(%rbx) leaq 60(%r13), %rax movq %rax, 1664(%rbx) leaq 40(%r13), %rax movq %rax, 1656(%rbx) leaq 8(%r13), %rax movq %rax, 1648(%rbx) leaq 16(%r13), %rax movq %rax, 1640(%rbx) leaq 48(%r13), %rax movq %rax, 1632(%rbx) movq 104(%rdi), %rax movq %rax, 1240(%rbx) movq 112(%rdi), %rax movq %rax, 1232(%rbx) vmovups %xmm0, 12208(%rbx) leaq 32(%r13), %rax movq %rax, 1624(%rbx) leaq 64(%r13), %rax movq %rax, 1616(%rbx) leaq 68(%r13), %rax movq %rax, 1608(%rbx) leaq 72(%r13), %rax movq %rax, 1600(%rbx) movq 12208(%rbx), %r11 xorl %r10d, %r10d jmp .LBB0_1 .align 16, 0x90 .LBB0_731: addq $1640, %rdx .LBB0_1: movq 1696(%rbx), %rax leaq (%r11,%rax), %rcx movq 1704(%rbx), %rax leaq (%r10,%rax), %rsi movl %esi, %edi orl %ecx, %edi cmpl $64, %edi sbbl %eax, %eax andl $1, %eax cmpl $64, %edi movq %rcx, (%r13,%rdx) movq 1648(%rbx), %rdi movl %ecx, (%rdi,%rdx) movq 1640(%rbx), %rcx movq %rsi, (%rcx,%rdx) movq 1680(%rbx), %rcx movl %esi, (%rcx,%rdx) movq 1624(%rbx), %rcx movq %r11, (%rcx,%rdx) movq 1656(%rbx), %rcx movl %r11d, (%rcx,%rdx) movq 1632(%rbx), %rcx movq %r10, (%rcx,%rdx) movq 1672(%rbx), %rcx movl %r10d, (%rcx,%rdx) movq 1664(%rbx), %rcx movl %eax, (%rcx,%rdx) jae .LBB0_2 movl 24(%r13,%rdx), %r14d movl 40(%r13,%rdx), %r15d movq 48(%r13,%rdx), %rax shlq $32, %rax movabsq $8589934592, %rcx addq %rcx, %rax shrq $32, %rax imull $12, %eax, %esi leal 2(%r15,%rsi), %eax leal 290(%r15,%rsi), %ecx movl %ecx, 1776(%rbx) leal 1154(%r15,%rsi), %ecx movl %ecx, 1744(%rbx) leal 146(%r15,%rsi), %ecx movl %ecx, 1768(%rbx) leal 434(%r15,%rsi), %ecx movl %ecx, 1760(%rbx) leal 578(%r15,%rsi), %ecx movl %ecx, 1752(%rbx) leal 722(%r15,%rsi), %ecx movl %ecx, 1728(%rbx) leal 866(%r15,%rsi), %r8d leal 1010(%r15,%rsi), %ecx shll $6, %r14d movl 8(%r13,%rdx), %r12d addl %r14d, %r12d addl $2, %r15d movslq %eax, %rax leal (%r12,%r12,8), %edi movslq %edi, %r9 movq 1784(%rbx), %rsi vmovsd (%rsi,%r9,8), %xmm0 vmovsd %xmm0, 1792(%rbx,%rax,8) vmovsd 8(%rsi,%r9,8), %xmm0 movslq 1744(%rbx), %rax movq %rax, 1744(%rbx) movslq %ecx, %rax movq %rax, 1720(%rbx) movslq %r8d, %rax movq %rax, 1712(%rbx) movslq 1728(%rbx), %rax movq %rax, 1728(%rbx) movslq 1752(%rbx), %rax movslq 1760(%rbx), %r8 movslq 1776(%rbx), %rdi movslq 1768(%rbx), %rcx vmovsd %xmm0, 1792(%rbx,%rcx,8) vmovsd 16(%rsi,%r9,8), %xmm0 vmovsd %xmm0, 1792(%rbx,%rdi,8) vmovsd 24(%rsi,%r9,8), %xmm0 vmovsd %xmm0, 1792(%rbx,%r8,8) vmovsd 32(%rsi,%r9,8), %xmm0 vmovsd %xmm0, 1792(%rbx,%rax,8) movl $1, %eax vmovsd 40(%rsi,%r9,8), %xmm0 movq 1728(%rbx), %rcx vmovsd %xmm0, 1792(%rbx,%rcx,8) vmovsd 48(%rsi,%r9,8), %xmm0 movq 1712(%rbx), %rcx vmovsd %xmm0, 1792(%rbx,%rcx,8) vmovsd 56(%rsi,%r9,8), %xmm0 movq 1720(%rbx), %rcx vmovsd %xmm0, 1792(%rbx,%rcx,8) vmovsd 64(%rsi,%r9,8), %xmm0 movq 1744(%rbx), %rcx vmovsd %xmm0, 1792(%rbx,%rcx,8) jmp .LBB0_4 .align 16, 0x90 .LBB0_2: movl 24(%r13,%rdx), %r14d movl 40(%r13,%rdx), %r15d shll $6, %r14d movl 8(%r13,%rdx), %r12d addl %r14d, %r12d addl $2, %r15d xorl %eax, %eax .LBB0_4: movl %eax, 76(%r13,%rdx) movq 1600(%rbx), %rax movl %r15d, (%rax,%rdx) movq 1608(%rbx), %rax movl %r14d, (%rax,%rdx) movq 1616(%rbx), %rax movl %r12d, (%rax,%rdx) incq %r11 cmpq 1240(%rbx), %r11 jb .LBB0_731 incq %r10 cmpq 1232(%rbx), %r10 movl $0, %r11d jb .LBB0_731 vmovsd .LCPI0_0(%rip), %xmm14 xorl %eax, %eax movq %rax, 1336(%rbx) vxorps %xmm1, %xmm1, %xmm1 vsqrtpd %xmm14, %xmm0 vmovapd %xmm0, 1728(%rbx) vmovups %xmm1, 12208(%rbx) movq 12208(%rbx), %rdx movabsq $8589934592, %rcx vmovsd .LCPI0_2(%rip), %xmm15 vmovsd .LCPI0_1(%rip), %xmm12 xorl %r12d, %r12d jmp .LBB0_7 .align 16, 0x90 .LBB0_732: addq $1640, %r12 movabsq $8589934592, %rcx .LBB0_7: movq %rdx, 1312(%rbx) testb $1, 76(%r12,%r13) jne .LBB0_9 movq 48(%r12,%r13), %r15 leaq 64(%r13,%r12), %rax movq %rax, 1760(%rbx) shlq $32, %r15 addq %rcx, %r15 jmp .LBB0_10 .align 16, 0x90 .LBB0_9: movq 48(%r12,%r13), %r15 movl 72(%r13,%r12), %eax shlq $32, %r15 addq %rcx, %r15 movq %r15, %rcx shrq $32, %rcx imull $12, %ecx, %ecx leal 288(%rax,%rcx), %edx movslq %edx, %rdi leal 432(%rax,%rcx), %edx movslq %edx, %rdx leal 144(%rax,%rcx), %r8d leal (%rax,%rcx), %r9d leal 1008(%rax,%rcx), %r14d leal 720(%rax,%rcx), %esi vmovsd 1792(%rbx,%rdx,8), %xmm3 vmovsd %xmm3, 1520(%rbx) vmovsd 1792(%rbx,%rdi,8), %xmm0 vmovsd %xmm0, 1488(%rbx) vxorps %xmm2, %xmm2, %xmm2 vmulsd %xmm2, %xmm0, %xmm1 vmovaps %xmm0, %xmm7 leal 576(%rax,%rcx), %edx movslq %edx, %rdi leal 864(%rax,%rcx), %edx vmovsd 1792(%rbx,%rdi,8), %xmm4 vmovsd %xmm4, 1528(%rbx) vmulsd %xmm1, %xmm4, %xmm0 vmulsd %xmm1, %xmm3, %xmm1 movslq %edx, %r10 movslq %esi, %r11 movslq %r14d, %rdx movslq %r9d, %rdi movslq %r8d, %rsi leal 1152(%rax,%rcx), %ecx imull $9, 64(%r13,%r12), %eax movslq %eax, %rax movslq %ecx, %rcx vmovsd 1792(%rbx,%rcx,8), %xmm5 vmovsd %xmm5, 1352(%rbx) vmaxsd 1792(%rbx,%rsi,8), %xmm12, %xmm5 vmovsd %xmm5, 1744(%rbx) vmaxsd 1792(%rbx,%rdi,8), %xmm12, %xmm5 vmovsd %xmm5, 1752(%rbx) vmovsd 1792(%rbx,%rdx,8), %xmm5 vmovsd %xmm5, 1624(%rbx) vaddsd %xmm0, %xmm1, %xmm0 vmovsd 1792(%rbx,%r11,8), %xmm10 vmovsd %xmm10, 1256(%rbx) vmovsd 1792(%rbx,%r10,8), %xmm11 vmovsd %xmm11, 1272(%rbx) movq 904(%rbx), %rcx vmovsd 64(%rcx,%rax,8), %xmm1 vmovsd %xmm1, 1296(%rbx) vmovsd 8(%rcx,%rax,8), %xmm1 vmovsd %xmm1, 1632(%rbx) vmovsd (%rcx,%rax,8), %xmm1 vmovsd %xmm1, 1264(%rbx) vmovsd 32(%rcx,%rax,8), %xmm1 vmovsd %xmm1, 1576(%rbx) vmovsd 24(%rcx,%rax,8), %xmm1 vmovsd %xmm1, 1568(%rbx) vmovsd 16(%rcx,%rax,8), %xmm1 vmovsd %xmm1, 1560(%rbx) vmovsd 56(%rcx,%rax,8), %xmm1 vmovsd %xmm1, 1704(%rbx) vmovsd 40(%rcx,%rax,8), %xmm1 vmovsd %xmm1, 1712(%rbx) vmovsd 48(%rcx,%rax,8), %xmm1 vmovsd %xmm1, 1696(%rbx) movabsq $-4616189618054758400, %rcx movq %rcx, 1384(%r12,%r13) vxorps %xmm1, %xmm1, %xmm1 vmovups %xmm1, 1408(%r12,%r13) vmovups %xmm1, 1392(%r12,%r13) movabsq $4607182418800017408, %rax movq %rax, 1424(%r12,%r13) vmovups %xmm1, 1448(%r12,%r13) vmovups %xmm1, 1432(%r12,%r13) movq %rax, 1464(%r12,%r13) vmovups %xmm1, 1488(%r12,%r13) vmovups %xmm1, 1472(%r12,%r13) vmulsd %xmm2, %xmm3, %xmm1 vmulsd %xmm1, %xmm4, %xmm1 vaddsd %xmm1, %xmm0, %xmm0 vmulsd %xmm7, %xmm7, %xmm1 vmovaps %xmm7, %xmm8 vaddsd %xmm14, %xmm1, %xmm1 vmulsd %xmm3, %xmm3, %xmm2 vmovaps %xmm3, %xmm5 vaddsd %xmm2, %xmm1, %xmm1 vmulsd %xmm4, %xmm4, %xmm2 vmovaps %xmm4, %xmm7 vaddsd %xmm2, %xmm1, %xmm1 vaddsd %xmm0, %xmm0, %xmm0 vaddsd %xmm0, %xmm1, %xmm1 movq %rax, 1504(%r12,%r13) movq %rcx, 1256(%r12,%r13) movabsq $-9223372036854775808, %rcx movq %rcx, 1264(%r12,%r13) movq %rcx, 1272(%r12,%r13) movq %rcx, 1280(%r12,%r13) movq %rcx, 1288(%r12,%r13) movq %rax, 1296(%r12,%r13) movq %rcx, 1304(%r12,%r13) movq %rcx, 1312(%r12,%r13) movq %rcx, 1320(%r12,%r13) movq %rcx, 1328(%r12,%r13) movq %rax, 1336(%r12,%r13) movq %rcx, 1344(%r12,%r13) movq %rcx, 1352(%r12,%r13) movq %rcx, 1360(%r12,%r13) movq %rcx, 1368(%r12,%r13) movq %rax, 1376(%r12,%r13) vmovsd 1256(%r12,%r13), %xmm2 vmovsd 1416(%r12,%r13), %xmm3 vmovsd %xmm3, 1720(%rbx) vxorpd %xmm15, %xmm2, %xmm2 vmovq %xmm2, %xmm2 vsqrtpd %xmm2, %xmm2 vdivsd %xmm2, %xmm14, %xmm0 vmovsd %xmm0, 1248(%rbx) vmovq %xmm1, %xmm1 vsqrtpd %xmm1, %xmm4 vmovapd %xmm4, 1216(%rbx) vdivsd %xmm0, %xmm4, %xmm15 vmovsd %xmm15, 1088(%rbx) vmulsd %xmm15, %xmm3, %xmm1 vmulsd 1272(%r12,%r13), %xmm4, %xmm2 vmulsd %xmm0, %xmm2, %xmm2 vmulsd .LCPI0_3(%rip), %xmm4, %xmm3 vmulsd %xmm0, %xmm3, %xmm3 vsubsd %xmm3, %xmm7, %xmm6 vmovsd %xmm6, 1672(%rbx) vsubsd %xmm2, %xmm5, %xmm5 vmovsd %xmm5, 1432(%rbx) vmulsd 1264(%r12,%r13), %xmm4, %xmm2 vmulsd %xmm0, %xmm2, %xmm2 vsubsd %xmm2, %xmm8, %xmm7 vmovsd %xmm7, 1376(%rbx) vaddsd %xmm7, %xmm1, %xmm1 vxorps %xmm2, %xmm2, %xmm2 vmulsd %xmm2, %xmm5, %xmm9 vaddsd %xmm9, %xmm1, %xmm1 vmulsd %xmm2, %xmm6, %xmm3 vaddsd %xmm3, %xmm1, %xmm0 vmovsd %xmm0, 1776(%rbx) vmulsd %xmm2, %xmm7, %xmm4 vmovaps %xmm7, %xmm12 vmulsd %xmm2, %xmm15, %xmm1 vaddsd %xmm4, %xmm1, %xmm1 vaddsd %xmm5, %xmm1, %xmm1 vmovaps %xmm5, %xmm2 vaddsd %xmm3, %xmm1, %xmm1 vmovsd %xmm1, 1760(%rbx) vmulsd %xmm1, %xmm11, %xmm1 vmovaps %xmm10, %xmm7 vmulsd %xmm0, %xmm7, %xmm5 vaddsd %xmm1, %xmm5, %xmm13 vmovsd 1480(%r12,%r13), %xmm5 vmulsd %xmm15, %xmm5, %xmm1 vaddsd %xmm4, %xmm1, %xmm1 vmovsd 1496(%r12,%r13), %xmm8 vmulsd %xmm2, %xmm8, %xmm0 vmovaps %xmm2, %xmm10 vaddsd %xmm0, %xmm1, %xmm0 vaddsd %xmm6, %xmm0, %xmm0 vmovsd %xmm0, 1768(%rbx) vmovsd 1624(%rbx), %xmm14 vmulsd %xmm0, %xmm14, %xmm0 vaddsd %xmm0, %xmm13, %xmm6 vmovsd %xmm6, 1384(%rbx) vsubsd %xmm15, %xmm4, %xmm0 vaddsd %xmm9, %xmm0, %xmm2 vmovsd 1720(%rbx), %xmm0 vmulsd %xmm6, %xmm0, %xmm0 vaddsd %xmm3, %xmm2, %xmm13 vmovsd %xmm13, 1680(%rbx) vmulsd %xmm12, %xmm6, %xmm2 vaddsd %xmm2, %xmm7, %xmm3 vmovsd %xmm3, 1304(%rbx) vmulsd %xmm6, %xmm5, %xmm2 vdivsd %xmm15, %xmm3, %xmm9 vmovsd %xmm9, 1648(%rbx) vmulsd 1488(%r12,%r13), %xmm9, %xmm3 vaddsd %xmm3, %xmm2, %xmm3 vmulsd %xmm10, %xmm6, %xmm2 vaddsd %xmm2, %xmm11, %xmm5 vmovsd %xmm5, 1288(%rbx) vxorps %xmm2, %xmm2, %xmm2 vmulsd %xmm2, %xmm6, %xmm4 vmovaps %xmm6, %xmm7 vmulsd %xmm2, %xmm9, %xmm2 vxorps %xmm11, %xmm11, %xmm11 vaddsd %xmm2, %xmm4, %xmm4 vdivsd %xmm15, %xmm5, %xmm6 vmovsd %xmm6, 1720(%rbx) vmulsd 1464(%r12,%r13), %xmm6, %xmm5 vaddsd %xmm5, %xmm4, %xmm4 vmulsd %xmm6, %xmm8, %xmm1 vaddsd %xmm1, %xmm3, %xmm1 vmovsd 1672(%rbx), %xmm5 vmulsd %xmm5, %xmm7, %xmm3 vaddsd %xmm3, %xmm14, %xmm3 vmovsd %xmm3, 1280(%rbx) vdivsd %xmm15, %xmm3, %xmm14 vmovsd %xmm14, 1656(%rbx) vmulsd 1504(%r12,%r13), %xmm14, %xmm3 vaddsd %xmm3, %xmm1, %xmm1 vmovsd %xmm1, 1592(%rbx) vmovaps %xmm1, %xmm3 vmulsd 1472(%r12,%r13), %xmm14, %xmm1 vaddsd %xmm1, %xmm4, %xmm1 vmovsd %xmm1, 1600(%rbx) vmovaps %xmm1, %xmm4 vaddsd %xmm9, %xmm0, %xmm0 vmulsd %xmm11, %xmm6, %xmm1 vaddsd %xmm1, %xmm0, %xmm0 vsubsd %xmm7, %xmm2, %xmm2 vaddsd %xmm1, %xmm2, %xmm1 vmulsd %xmm11, %xmm14, %xmm2 vaddsd %xmm2, %xmm1, %xmm1 vmovsd %xmm1, 1608(%rbx) vaddsd %xmm2, %xmm0, %xmm0 vmovsd %xmm0, 1616(%rbx) vmulsd %xmm0, %xmm9, %xmm2 vmovsd %xmm2, 1512(%rbx) vmulsd %xmm1, %xmm7, %xmm0 vmovsd %xmm0, 1504(%rbx) vaddsd %xmm2, %xmm0, %xmm0 vmulsd %xmm4, %xmm6, %xmm1 vmovsd %xmm1, 1664(%rbx) vaddsd %xmm1, %xmm0, %xmm0 vmulsd %xmm3, %xmm14, %xmm1 vmovsd %xmm1, 1640(%rbx) vaddsd %xmm1, %xmm0, %xmm0 vmovsd .LCPI0_4(%rip), %xmm1 vmaxsd %xmm0, %xmm1, %xmm4 vmovaps %xmm4, 1536(%rbx) vmovsd 1744(%rbx), %xmm2 vmovsd 1752(%rbx), %xmm0 vaddsd %xmm2, %xmm0, %xmm0 vmovsd .LCPI0_5(%rip), %xmm1 vmulsd %xmm1, %xmm2, %xmm3 vmovsd %xmm3, 1584(%rbx) vaddsd %xmm0, %xmm3, %xmm0 vmovsd .LCPI0_6(%rip), %xmm1 vmulsd %xmm1, %xmm4, %xmm1 vaddsd %xmm1, %xmm3, %xmm1 vaddsd %xmm0, %xmm4, %xmm2 vmulsd %xmm2, %xmm10, %xmm7 vmulsd %xmm2, %xmm12, %xmm0 vmulsd %xmm2, %xmm5, %xmm5 vmulsd %xmm2, %xmm15, %xmm2 vmulsd %xmm2, %xmm13, %xmm3 vaddsd %xmm3, %xmm1, %xmm3 vmovsd %xmm3, 1464(%rbx) vmovsd 1768(%rbx), %xmm8 vmulsd %xmm5, %xmm8, %xmm3 vaddsd %xmm3, %xmm1, %xmm3 vmovsd %xmm3, 1496(%rbx) vmovsd 1776(%rbx), %xmm4 vmulsd %xmm0, %xmm4, %xmm3 vaddsd %xmm3, %xmm1, %xmm3 vmovsd %xmm3, 1472(%rbx) vmovsd 1760(%rbx), %xmm10 vmulsd %xmm7, %xmm10, %xmm3 vaddsd %xmm3, %xmm1, %xmm3 vmovsd %xmm3, 1480(%rbx) vmulsd .LCPI0_24, %xmm1, %xmm6 vmulsd %xmm2, %xmm4, %xmm1 vmulsd %xmm2, %xmm10, %xmm3 vmovsd %xmm3, 1424(%rbx) vmovaps %xmm10, %xmm3 vmovaps %xmm8, %xmm12 vmulsd %xmm2, %xmm12, %xmm2 vmovsd %xmm2, 1408(%rbx) vaddsd %xmm1, %xmm6, %xmm1 vmovsd %xmm1, 1448(%rbx) vmulsd %xmm7, %xmm12, %xmm11 vmovaps %xmm12, %xmm2 vmulsd %xmm7, %xmm4, %xmm1 vmovsd %xmm1, 1416(%rbx) vmulsd %xmm7, %xmm13, %xmm12 vmulsd %xmm0, %xmm2, %xmm8 vmulsd %xmm0, %xmm3, %xmm10 vmulsd %xmm0, %xmm13, %xmm0 vmulsd %xmm5, %xmm3, %xmm2 vmulsd %xmm5, %xmm4, %xmm7 vmulsd %xmm5, %xmm13, %xmm5 vaddsd %xmm5, %xmm6, %xmm3 vmovsd %xmm3, 1440(%rbx) vaddsd %xmm7, %xmm6, %xmm3 vmovsd %xmm3, 1456(%rbx) vaddsd %xmm2, %xmm6, %xmm13 vaddsd %xmm11, %xmm6, %xmm7 vaddsd %xmm0, %xmm6, %xmm5 vaddsd 1408(%rbx), %xmm6, %xmm1 vaddsd 1424(%rbx), %xmm6, %xmm2 vaddsd %xmm10, %xmm6, %xmm0 vmovsd %xmm0, 1208(%rbx) vaddsd %xmm8, %xmm6, %xmm0 vmovsd %xmm0, 1200(%rbx) vaddsd %xmm12, %xmm6, %xmm10 vaddsd 1416(%rbx), %xmm6, %xmm12 vmovsd 1464(%rbx), %xmm0 vsubsd 1504(%rbx), %xmm0, %xmm0 vmovsd %xmm0, 1360(%rbx) vmovsd 1384(%rbx), %xmm11 vmovsd 1616(%rbx), %xmm8 vmulsd %xmm8, %xmm11, %xmm0 vmovsd 1448(%rbx), %xmm3 vsubsd %xmm0, %xmm3, %xmm0 vmovsd %xmm0, 1368(%rbx) vmovsd 1600(%rbx), %xmm4 vmulsd %xmm4, %xmm11, %xmm0 vsubsd %xmm0, %xmm2, %xmm0 vmovsd %xmm0, 1392(%rbx) vmovsd 1592(%rbx), %xmm2 vmulsd %xmm2, %xmm11, %xmm0 vsubsd %xmm0, %xmm1, %xmm0 vmovsd %xmm0, 1400(%rbx) vmovsd 1472(%rbx), %xmm0 vsubsd 1512(%rbx), %xmm0, %xmm0 vmovsd %xmm0, 1424(%rbx) vmovsd 1608(%rbx), %xmm1 vmulsd %xmm1, %xmm9, %xmm0 vsubsd %xmm0, %xmm5, %xmm0 vmovsd %xmm0, 1408(%rbx) vmovsd 1720(%rbx), %xmm6 vmulsd %xmm2, %xmm6, %xmm0 vmovaps %xmm2, %xmm3 vsubsd %xmm0, %xmm7, %xmm0 vmovsd %xmm0, 1448(%rbx) vmovsd 1496(%rbx), %xmm0 vsubsd 1640(%rbx), %xmm0, %xmm0 vmovsd %xmm0, 1496(%rbx) vmovaps %xmm4, %xmm5 vmulsd %xmm5, %xmm14, %xmm0 vsubsd %xmm0, %xmm13, %xmm0 vmovsd %xmm0, 1472(%rbx) vmovaps %xmm8, %xmm7 vmulsd %xmm7, %xmm14, %xmm0 vmovsd 1456(%rbx), %xmm2 vsubsd %xmm0, %xmm2, %xmm0 vmovsd %xmm0, 1456(%rbx) vmulsd %xmm1, %xmm14, %xmm0 vmovsd 1440(%rbx), %xmm2 vsubsd %xmm0, %xmm2, %xmm0 vmovsd %xmm0, 1416(%rbx) vmovsd 1480(%rbx), %xmm0 vsubsd 1664(%rbx), %xmm0, %xmm0 vmovsd %xmm0, 1504(%rbx) vmovaps %xmm6, %xmm2 vmulsd %xmm7, %xmm2, %xmm0 vsubsd %xmm0, %xmm12, %xmm0 vmovsd %xmm0, 1480(%rbx) vmulsd %xmm1, %xmm2, %xmm0 vsubsd %xmm0, %xmm10, %xmm0 vmovsd %xmm0, 1464(%rbx) vmulsd %xmm3, %xmm9, %xmm0 vmovaps %xmm3, %xmm10 vmovsd 1200(%rbx), %xmm2 vsubsd %xmm0, %xmm2, %xmm0 vmovsd %xmm0, 1440(%rbx) vmulsd %xmm5, %xmm9, %xmm0 vmovaps %xmm5, %xmm8 vmovsd 1208(%rbx), %xmm2 vsubsd %xmm0, %xmm2, %xmm0 vmovsd %xmm0, 1512(%rbx) vmovq 1536(%rbx), %xmm0 vsqrtpd %xmm0, %xmm13 vmovapd %xmm13, 1056(%rbx) vmovsd 1352(%rbx), %xmm6 vmulsd %xmm6, %xmm11, %xmm0 vdivsd %xmm13, %xmm0, %xmm4 vmovsd %xmm4, 1640(%rbx) vmovsd 1680(%rbx), %xmm12 vmulsd %xmm4, %xmm12, %xmm0 vmovsd 1360(%rbx), %xmm2 vaddsd %xmm0, %xmm2, %xmm0 vmulsd %xmm6, %xmm1, %xmm2 vdivsd %xmm13, %xmm2, %xmm1 vmovsd %xmm1, 1664(%rbx) vmulsd %xmm1, %xmm15, %xmm3 vaddsd %xmm3, %xmm0, %xmm0 vmovsd %xmm0, 1512(%r12,%r13) vmovsd 1776(%rbx), %xmm9 vmulsd %xmm4, %xmm9, %xmm0 vmovaps %xmm4, %xmm1 vmovsd 1368(%rbx), %xmm2 vaddsd %xmm0, %xmm2, %xmm3 vmulsd %xmm6, %xmm7, %xmm0 vdivsd %xmm13, %xmm0, %xmm14 vmulsd %xmm14, %xmm15, %xmm4 vaddsd %xmm4, %xmm3, %xmm3 vmovsd %xmm3, 1520(%r12,%r13) vmovsd 1760(%rbx), %xmm5 vmulsd %xmm1, %xmm5, %xmm3 vmovsd 1392(%rbx), %xmm0 vaddsd %xmm3, %xmm0, %xmm3 vmulsd %xmm6, %xmm8, %xmm4 vdivsd %xmm13, %xmm4, %xmm11 vmulsd %xmm11, %xmm15, %xmm4 vaddsd %xmm4, %xmm3, %xmm3 vmovsd %xmm3, 1528(%r12,%r13) vmovsd 1768(%rbx), %xmm2 vmulsd %xmm1, %xmm2, %xmm3 vmovsd 1400(%rbx), %xmm0 vaddsd %xmm3, %xmm0, %xmm3 vmulsd %xmm6, %xmm10, %xmm4 vdivsd %xmm13, %xmm4, %xmm10 vmulsd %xmm10, %xmm15, %xmm4 vaddsd %xmm4, %xmm3, %xmm3 vmovsd %xmm3, 1536(%r12,%r13) vmovsd 1648(%rbx), %xmm0 vmulsd %xmm6, %xmm0, %xmm3 vdivsd %xmm13, %xmm3, %xmm8 vmulsd %xmm8, %xmm12, %xmm3 vmovsd 1408(%rbx), %xmm0 vaddsd %xmm3, %xmm0, %xmm1 vmovsd 1376(%rbx), %xmm7 vmulsd 1664(%rbx), %xmm7, %xmm3 vaddsd %xmm3, %xmm1, %xmm1 vmovaps %xmm9, %xmm4 vmulsd %xmm8, %xmm4, %xmm3 vmovsd 1424(%rbx), %xmm0 vaddsd %xmm3, %xmm0, %xmm3 vmovsd %xmm1, 1544(%r12,%r13) vmovsd 1720(%rbx), %xmm0 vmulsd %xmm6, %xmm0, %xmm1 vdivsd %xmm13, %xmm1, %xmm9 vmovsd %xmm9, 1032(%rbx) vmulsd %xmm9, %xmm2, %xmm1 vmovsd 1448(%rbx), %xmm0 vaddsd %xmm1, %xmm0, %xmm0 vmovsd %xmm0, 1448(%rbx) vmovsd 1656(%rbx), %xmm0 vmulsd %xmm6, %xmm0, %xmm1 vdivsd %xmm13, %xmm1, %xmm6 vmovsd %xmm6, 1040(%rbx) vmulsd %xmm6, %xmm12, %xmm1 vmovsd 1416(%rbx), %xmm0 vaddsd %xmm1, %xmm0, %xmm0 vmovsd %xmm0, 1424(%rbx) vmulsd %xmm6, %xmm4, %xmm1 vmovaps %xmm4, %xmm0 vmovsd 1456(%rbx), %xmm4 vaddsd %xmm1, %xmm4, %xmm1 vmulsd %xmm6, %xmm5, %xmm4 vmovaps %xmm5, %xmm15 vmovsd 1472(%rbx), %xmm5 vaddsd %xmm4, %xmm5, %xmm4 vmulsd %xmm6, %xmm2, %xmm5 vmovsd 1496(%rbx), %xmm6 vaddsd %xmm5, %xmm6, %xmm5 vmulsd %xmm14, %xmm7, %xmm6 vmovaps %xmm7, %xmm13 vaddsd %xmm6, %xmm3, %xmm3 vmulsd %xmm8, %xmm2, %xmm6 vmovsd 1440(%rbx), %xmm2 vaddsd %xmm6, %xmm2, %xmm2 vmovsd %xmm2, 1472(%rbx) vmulsd %xmm9, %xmm12, %xmm6 vmovsd 1464(%rbx), %xmm2 vaddsd %xmm6, %xmm2, %xmm7 vmulsd %xmm9, %xmm0, %xmm6 vmovsd 1480(%rbx), %xmm0 vaddsd %xmm6, %xmm0, %xmm12 vmulsd %xmm9, %xmm15, %xmm6 vmovsd 1504(%rbx), %xmm0 vaddsd %xmm6, %xmm0, %xmm6 vmovsd %xmm3, 1552(%r12,%r13) vmovsd 1672(%rbx), %xmm0 vmulsd %xmm10, %xmm0, %xmm3 vaddsd %xmm3, %xmm5, %xmm2 vmovsd %xmm2, 1504(%rbx) vmulsd %xmm11, %xmm0, %xmm3 vaddsd %xmm3, %xmm4, %xmm2 vmovsd %xmm2, 1496(%rbx) vmulsd %xmm14, %xmm0, %xmm3 vaddsd %xmm3, %xmm1, %xmm1 vmovsd %xmm1, 1480(%rbx) vmovsd 1664(%rbx), %xmm5 vmulsd %xmm5, %xmm0, %xmm1 vmovsd 1424(%rbx), %xmm0 vaddsd %xmm1, %xmm0, %xmm9 vmovsd 1432(%rbx), %xmm2 vmulsd %xmm10, %xmm2, %xmm1 vmovsd 1448(%rbx), %xmm0 vaddsd %xmm1, %xmm0, %xmm3 vmulsd %xmm11, %xmm2, %xmm1 vaddsd %xmm1, %xmm6, %xmm4 vmulsd %xmm14, %xmm2, %xmm0 vaddsd %xmm0, %xmm12, %xmm0 vmulsd %xmm5, %xmm2, %xmm1 vaddsd %xmm1, %xmm7, %xmm2 vmulsd %xmm10, %xmm13, %xmm1 vmovsd 1472(%rbx), %xmm5 vaddsd %xmm1, %xmm5, %xmm6 vmulsd %xmm8, %xmm15, %xmm1 vmovsd 1512(%rbx), %xmm7 vaddsd %xmm1, %xmm7, %xmm1 vmulsd %xmm11, %xmm13, %xmm7 vaddsd %xmm7, %xmm1, %xmm1 vmovsd %xmm1, 1560(%r12,%r13) vmovsd %xmm6, 1568(%r12,%r13) vmovsd %xmm2, 1576(%r12,%r13) vmovsd %xmm0, 1584(%r12,%r13) vmovsd %xmm4, 1592(%r12,%r13) vmovsd %xmm3, 1600(%r12,%r13) vmovsd %xmm9, 1608(%r12,%r13) vmovsd 1480(%rbx), %xmm0 vmovsd %xmm0, 1616(%r12,%r13) vmovsd 1496(%rbx), %xmm0 vmovsd %xmm0, 1624(%r12,%r13) vmovsd 1504(%rbx), %xmm0 vmovsd %xmm0, 1632(%r12,%r13) vmovsd 1408(%r12,%r13), %xmm0 vmovsd %xmm0, 1504(%rbx) vmovsd 1400(%r12,%r13), %xmm0 vmovsd %xmm0, 1360(%rbx) vmovsd 1384(%r12,%r13), %xmm0 vmovsd %xmm0, 1072(%rbx) vmovsd 1392(%r12,%r13), %xmm0 vmovsd %xmm0, 1424(%rbx) vmovsd 1496(%r12,%r13), %xmm0 vmovsd %xmm0, 1512(%rbx) vmovsd 1480(%r12,%r13), %xmm0 vmovsd %xmm0, 1480(%rbx) vmovsd 1488(%r12,%r13), %xmm0 vmovsd %xmm0, 1472(%rbx) vmovsd 1448(%r12,%r13), %xmm0 vmovsd %xmm0, 1448(%rbx) vmovsd 1456(%r12,%r13), %xmm0 vmovsd %xmm0, 1440(%rbx) vmovsd 1416(%r12,%r13), %xmm0 vmovsd %xmm0, 1496(%rbx) vmovsd 1280(%r12,%r13), %xmm0 vmovsd %xmm0, 1024(%rbx) vmovsd 1264(%r12,%r13), %xmm0 vmovsd %xmm0, 1016(%rbx) vmovsd 1272(%r12,%r13), %xmm0 vmovsd %xmm0, 1008(%rbx) vmovsd 1504(%r12,%r13), %xmm0 vmovsd %xmm0, 1664(%rbx) vmovsd 1424(%r12,%r13), %xmm12 vmovsd %xmm12, 1392(%rbx) vmovsd 1464(%r12,%r13), %xmm14 vmovsd %xmm14, 1368(%rbx) vmovsd 1472(%r12,%r13), %xmm10 vmovsd %xmm10, 1400(%rbx) vmovsd 1440(%r12,%r13), %xmm11 vmovsd %xmm11, 1408(%rbx) vmovsd 1432(%r12,%r13), %xmm13 vmovsd %xmm13, 1416(%rbx) vmovaps 1536(%rbx), %xmm9 vmovaps %xmm9, %xmm0 vmovsd .LCPI0_7(%rip), %xmm1 callq __ocl_svml_e9_pow1 vmovsd %xmm0, 1000(%rbx) vmovsd 1696(%rbx), %xmm0 vmulsd %xmm15, %xmm0, %xmm0 vmovsd 1712(%rbx), %xmm1 vmulsd 1776(%rbx), %xmm1, %xmm1 vaddsd %xmm0, %xmm1, %xmm0 vmovsd 1704(%rbx), %xmm1 vmulsd 1768(%rbx), %xmm1, %xmm1 vaddsd %xmm1, %xmm0, %xmm0 vmovsd %xmm0, 1048(%rbx) vmovsd 1584(%rbx), %xmm0 vaddsd 1752(%rbx), %xmm0, %xmm0 vmovsd 1744(%rbx), %xmm1 vaddsd %xmm0, %xmm1, %xmm0 vaddsd %xmm0, %xmm9, %xmm0 vmovsd %xmm0, 1080(%rbx) vmovsd 1560(%rbx), %xmm3 vmulsd %xmm13, %xmm3, %xmm0 vmovsd 1520(%rbx), %xmm4 vmulsd %xmm0, %xmm4, %xmm0 vmovsd 1488(%rbx), %xmm7 vmulsd %xmm13, %xmm7, %xmm1 vmovsd 1568(%rbx), %xmm2 vmulsd %xmm1, %xmm2, %xmm1 vaddsd %xmm1, %xmm0, %xmm0 vmulsd %xmm11, %xmm3, %xmm1 vmovaps %xmm3, %xmm5 vmovsd 1528(%rbx), %xmm6 vmulsd %xmm1, %xmm6, %xmm1 vaddsd %xmm1, %xmm0, %xmm0 vmulsd %xmm11, %xmm7, %xmm1 vmovsd 1576(%rbx), %xmm3 vmulsd %xmm1, %xmm3, %xmm1 vaddsd %xmm0, %xmm1, %xmm0 vmulsd %xmm10, %xmm2, %xmm1 vmulsd %xmm1, %xmm6, %xmm1 vaddsd %xmm0, %xmm1, %xmm0 vmulsd %xmm4, %xmm14, %xmm1 vmulsd %xmm2, %xmm1, %xmm1 vmulsd %xmm7, %xmm12, %xmm2 vmulsd %xmm5, %xmm2, %xmm2 vaddsd %xmm1, %xmm2, %xmm1 vmulsd %xmm10, %xmm4, %xmm2 vmulsd %xmm2, %xmm3, %xmm2 vaddsd %xmm0, %xmm2, %xmm0 vmovsd 1664(%rbx), %xmm2 vmulsd %xmm6, %xmm2, %xmm2 vmulsd %xmm3, %xmm2, %xmm2 vaddsd %xmm2, %xmm1, %xmm1 vmovsd 1416(%r12,%r13), %xmm2 vmovsd %xmm2, 1208(%rbx) vmovsd 1640(%rbx), %xmm6 vmulsd %xmm6, %xmm2, %xmm2 vxorps %xmm4, %xmm4, %xmm4 vaddsd %xmm4, %xmm2, %xmm2 vmovsd 1424(%r12,%r13), %xmm3 vmovsd %xmm3, 1200(%rbx) vmulsd %xmm8, %xmm3, %xmm3 vaddsd %xmm3, %xmm2, %xmm2 vmovsd %xmm2, 992(%rbx) vmovsd 1384(%r12,%r13), %xmm2 vmovsd %xmm2, 1160(%rbx) vmovsd 1392(%r12,%r13), %xmm3 vmovsd %xmm3, 1128(%rbx) vmulsd %xmm6, %xmm2, %xmm2 vaddsd %xmm4, %xmm2, %xmm2 vmulsd %xmm8, %xmm3, %xmm3 vaddsd %xmm3, %xmm2, %xmm2 vmovsd %xmm2, 984(%rbx) vmovsd 1480(%r12,%r13), %xmm2 vmovsd %xmm2, 1184(%rbx) vmulsd %xmm6, %xmm2, %xmm2 vaddsd %xmm4, %xmm2, %xmm2 vmovsd 1488(%r12,%r13), %xmm3 vmovsd %xmm3, 1176(%rbx) vmulsd %xmm8, %xmm3, %xmm3 vaddsd %xmm3, %xmm2, %xmm2 vmovsd %xmm2, 976(%rbx) vmovsd 1456(%r12,%r13), %xmm2 vmovsd %xmm2, 1136(%rbx) vmulsd %xmm8, %xmm2, %xmm2 vmovsd 1448(%r12,%r13), %xmm3 vmovsd %xmm3, 1168(%rbx) vmulsd %xmm6, %xmm3, %xmm3 vaddsd %xmm4, %xmm3, %xmm3 vaddsd %xmm2, %xmm3, %xmm2 vmovsd %xmm2, 944(%rbx) vaddsd %xmm0, %xmm1, %xmm0 vmovsd %xmm0, 968(%rbx) vmovsd 1472(%r12,%r13), %xmm0 vmovsd %xmm0, 1536(%rbx) vmovsd 1504(%r12,%r13), %xmm0 vmovsd %xmm0, 1528(%rbx) vmovsd 1408(%r12,%r13), %xmm0 vmovsd %xmm0, 1520(%rbx) vmovsd 1440(%r12,%r13), %xmm0 vmovsd %xmm0, 1488(%rbx) vmovsd 1432(%r12,%r13), %xmm0 vmovsd %xmm0, 1456(%rbx) vmovsd 1400(%r12,%r13), %xmm0 vmovsd %xmm0, 1464(%rbx) vmovsd 1496(%r12,%r13), %xmm15 vmovsd %xmm15, 1112(%rbx) vmovsd 1464(%r12,%r13), %xmm13 vmovsd %xmm13, 1120(%rbx) vmovsd 1752(%rbx), %xmm11 vmovaps %xmm11, %xmm0 vmovsd .LCPI0_8(%rip), %xmm12 vmovaps %xmm12, %xmm1 callq __ocl_svml_e9_pow1 vmovaps %xmm0, %xmm8 vmovsd 1744(%rbx), %xmm9 vmulsd %xmm8, %xmm9, %xmm14 vmovaps %xmm14, %xmm0 callq __ocl_svml_e9_log1 vmovaps %xmm0, %xmm10 vmulsd %xmm12, %xmm9, %xmm12 vmovaps %xmm11, %xmm0 vmovsd .LCPI0_9(%rip), %xmm1 callq __ocl_svml_e9_pow1 vmulsd %xmm0, %xmm12, %xmm3 vmovsd 1032(%rbx), %xmm4 vmulsd %xmm4, %xmm13, %xmm0 vmovsd 944(%rbx), %xmm1 vaddsd %xmm0, %xmm1, %xmm13 vmulsd %xmm4, %xmm15, %xmm1 vmovsd 976(%rbx), %xmm0 vaddsd %xmm1, %xmm0, %xmm12 vmovsd 1464(%rbx), %xmm0 vmulsd %xmm4, %xmm0, %xmm2 vmovsd 984(%rbx), %xmm0 vaddsd %xmm2, %xmm0, %xmm2 vmovsd 1456(%rbx), %xmm0 vmulsd %xmm4, %xmm0, %xmm4 vmovsd 992(%rbx), %xmm0 vaddsd %xmm4, %xmm0, %xmm5 vmovsd 968(%rbx), %xmm0 vdivsd 1216(%rbx), %xmm0, %xmm9 vmovsd 1264(%rbx), %xmm0 vmulsd %xmm3, %xmm0, %xmm3 vmulsd 1632(%rbx), %xmm8, %xmm4 vaddsd %xmm3, %xmm4, %xmm15 vmovsd .LCPI0_5(%rip), %xmm1 vmovaps %xmm11, %xmm3 vdivsd %xmm1, %xmm3, %xmm6 vdivsd %xmm14, %xmm6, %xmm4 vdivsd %xmm1, %xmm0, %xmm7 vmovaps %xmm0, %xmm14 vmulsd %xmm7, %xmm10, %xmm8 vmulsd %xmm10, %xmm6, %xmm0 vmovsd %xmm0, 928(%rbx) vmovsd 1488(%rbx), %xmm0 vmovsd 1040(%rbx), %xmm1 vmulsd %xmm1, %xmm0, %xmm6 vaddsd %xmm6, %xmm5, %xmm0 vmovsd %xmm0, 992(%rbx) vmovsd 1520(%rbx), %xmm0 vmulsd %xmm1, %xmm0, %xmm5 vaddsd %xmm5, %xmm2, %xmm0 vmovsd %xmm0, 984(%rbx) vmovsd 1528(%rbx), %xmm0 vmulsd %xmm1, %xmm0, %xmm2 vaddsd %xmm2, %xmm12, %xmm0 vmovsd %xmm0, 976(%rbx) vmovsd 1536(%rbx), %xmm0 vmulsd %xmm1, %xmm0, %xmm1 vaddsd %xmm1, %xmm13, %xmm0 vmovsd %xmm0, 968(%rbx) vmulsd %xmm15, %xmm4, %xmm10 vmovsd 1744(%rbx), %xmm0 vmulsd %xmm14, %xmm0, %xmm12 vmovaps %xmm3, %xmm0 vmovsd .LCPI0_10(%rip), %xmm15 vmovaps %xmm15, %xmm1 callq __ocl_svml_e9_pow1 vdivsd %xmm0, %xmm12, %xmm12 vmovsd 1008(%rbx), %xmm0 vmulsd %xmm9, %xmm0, %xmm11 vaddsd %xmm10, %xmm8, %xmm0 vmovsd %xmm0, 920(%rbx) vmovsd 1352(%rbx), %xmm13 vmovaps %xmm13, %xmm0 vmovaps %xmm15, %xmm1 callq __ocl_svml_e9_pow1 vmovsd .LCPI0_11(%rip), %xmm1 vmulsd %xmm1, %xmm0, %xmm10 vmulsd %xmm1, %xmm13, %xmm0 vmovaps %xmm13, %xmm1 vmovsd 1296(%rbx), %xmm3 vmulsd %xmm3, %xmm0, %xmm0 vmovsd %xmm0, 1744(%rbx) vmovsd 1384(%rbx), %xmm4 vmulsd %xmm4, %xmm3, %xmm15 vmovsd 1720(%rbx), %xmm6 vmulsd %xmm6, %xmm3, %xmm13 vmovsd 1656(%rbx), %xmm5 vmulsd %xmm5, %xmm3, %xmm8 vmovsd 1648(%rbx), %xmm7 vmulsd %xmm7, %xmm3, %xmm3 vmovaps 1056(%rbx), %xmm0 vdivsd %xmm0, %xmm15, %xmm2 vmovsd %xmm2, 944(%rbx) vdivsd %xmm0, %xmm3, %xmm3 vmovsd %xmm3, 1008(%rbx) vdivsd %xmm0, %xmm8, %xmm2 vmovsd %xmm2, 1040(%rbx) vdivsd %xmm0, %xmm13, %xmm2 vmovsd %xmm2, 1032(%rbx) vdivsd %xmm0, %xmm1, %xmm0 vmovsd %xmm0, 936(%rbx) vmulsd .LCPI0_6(%rip), %xmm1, %xmm2 vmulsd %xmm2, %xmm4, %xmm1 vmovaps %xmm4, %xmm15 vmulsd %xmm2, %xmm5, %xmm0 vmulsd %xmm2, %xmm6, %xmm3 vmulsd %xmm2, %xmm7, %xmm2 vmovsd 1000(%rbx), %xmm4 vdivsd %xmm4, %xmm2, %xmm2 vmovsd %xmm2, 1056(%rbx) vdivsd %xmm4, %xmm1, %xmm1 vmovsd %xmm1, 1216(%rbx) vdivsd %xmm4, %xmm3, %xmm1 vmovsd %xmm1, 1296(%rbx) vdivsd %xmm4, %xmm0, %xmm0 vmovsd %xmm0, 1352(%rbx) vmovsd 1016(%rbx), %xmm0 vmulsd %xmm9, %xmm0, %xmm0 vmovsd 1248(%rbx), %xmm4 vmulsd %xmm4, %xmm0, %xmm0 vmulsd %xmm4, %xmm11, %xmm1 vmovsd 1024(%rbx), %xmm2 vmulsd %xmm9, %xmm2, %xmm2 vmulsd %xmm4, %xmm2, %xmm3 vdivsd %xmm4, %xmm9, %xmm2 vmovsd 1568(%rbx), %xmm4 vsubsd %xmm1, %xmm4, %xmm11 vmovsd 1560(%rbx), %xmm1 vsubsd %xmm0, %xmm1, %xmm0 vmovsd 1632(%rbx), %xmm5 vmovsd .LCPI0_5(%rip), %xmm6 vmulsd %xmm6, %xmm5, %xmm1 vmovsd %xmm1, 1024(%rbx) vaddsd %xmm14, %xmm1, %xmm4 vaddsd %xmm4, %xmm5, %xmm1 vmovsd %xmm1, 1248(%rbx) vmovsd 1752(%rbx), %xmm1 vdivsd %xmm1, %xmm5, %xmm4 vsubsd %xmm12, %xmm4, %xmm4 vmovsd 1576(%rbx), %xmm5 vsubsd %xmm3, %xmm5, %xmm3 vmulsd %xmm6, %xmm4, %xmm4 vmovsd 1392(%rbx), %xmm5 vmulsd %xmm0, %xmm5, %xmm5 vmovsd 1496(%rbx), %xmm6 vmulsd %xmm2, %xmm6, %xmm7 vaddsd %xmm5, %xmm7, %xmm5 vmovsd 1416(%rbx), %xmm6 vmulsd %xmm11, %xmm6, %xmm7 vaddsd %xmm7, %xmm5, %xmm9 vmovsd 1088(%rbx), %xmm5 vmovsd 920(%rbx), %xmm6 vmulsd %xmm5, %xmm6, %xmm7 vmovsd 928(%rbx), %xmm6 vmulsd %xmm2, %xmm6, %xmm6 vaddsd %xmm6, %xmm7, %xmm6 vmovsd %xmm6, 1632(%rbx) vmovaps %xmm1, %xmm6 vmovsd 1584(%rbx), %xmm1 vdivsd %xmm6, %xmm1, %xmm1 vmovsd %xmm1, 1568(%rbx) vmulsd %xmm5, %xmm14, %xmm7 vmovaps %xmm5, %xmm8 vmulsd %xmm2, %xmm6, %xmm6 vaddsd %xmm6, %xmm7, %xmm5 vmovsd %xmm5, 1752(%rbx) vaddsd %xmm1, %xmm1, %xmm6 vdivsd %xmm6, %xmm10, %xmm5 vmovsd %xmm5, 1264(%rbx) vmulsd %xmm10, %xmm4, %xmm6 vmulsd 1640(%rbx), %xmm4, %xmm4 vmulsd %xmm1, %xmm1, %xmm7 vdivsd %xmm7, %xmm6, %xmm1 vmovsd %xmm1, 1576(%rbx) vdivsd %xmm7, %xmm4, %xmm4 vmovsd %xmm4, 1584(%rbx) vmovsd 1408(%rbx), %xmm4 vmulsd %xmm3, %xmm4, %xmm4 vaddsd %xmm4, %xmm9, %xmm14 vmovsd 1256(%rbx), %xmm4 vmulsd %xmm14, %xmm4, %xmm4 vmovsd 1048(%rbx), %xmm1 vaddsd %xmm4, %xmm1, %xmm4 vmovsd 1440(%rbx), %xmm5 vmulsd %xmm0, %xmm5, %xmm5 vmovsd 1448(%rbx), %xmm6 vmulsd %xmm2, %xmm6, %xmm6 vaddsd %xmm5, %xmm6, %xmm5 vmovsd 1368(%rbx), %xmm6 vmulsd %xmm11, %xmm6, %xmm6 vaddsd %xmm6, %xmm5, %xmm5 vmovsd 1400(%rbx), %xmm6 vmulsd %xmm3, %xmm6, %xmm6 vaddsd %xmm6, %xmm5, %xmm7 vmovsd 1272(%rbx), %xmm5 vmulsd %xmm7, %xmm5, %xmm5 vaddsd %xmm5, %xmm4, %xmm5 vmovsd 1472(%rbx), %xmm4 vmulsd %xmm0, %xmm4, %xmm4 vmovsd 1480(%rbx), %xmm6 vmulsd %xmm2, %xmm6, %xmm6 vaddsd %xmm4, %xmm6, %xmm4 vmovsd 1512(%rbx), %xmm6 vmulsd %xmm11, %xmm6, %xmm6 vaddsd %xmm6, %xmm4, %xmm4 vmovsd 1664(%rbx), %xmm6 vmulsd %xmm3, %xmm6, %xmm6 vaddsd %xmm6, %xmm4, %xmm4 vmovsd 1624(%rbx), %xmm6 vmulsd %xmm4, %xmm6, %xmm6 vaddsd %xmm6, %xmm5, %xmm13 vmovsd 1424(%rbx), %xmm5 vmulsd %xmm0, %xmm5, %xmm5 vmovsd 1072(%rbx), %xmm10 vmulsd %xmm2, %xmm10, %xmm6 vaddsd %xmm5, %xmm6, %xmm5 vmovsd 1360(%rbx), %xmm1 vmulsd %xmm11, %xmm1, %xmm6 vaddsd %xmm6, %xmm5, %xmm5 vmovsd 1504(%rbx), %xmm6 vmulsd %xmm3, %xmm6, %xmm6 vaddsd %xmm6, %xmm5, %xmm9 vmulsd %xmm0, %xmm15, %xmm0 vmovsd 1712(%rbx), %xmm5 vaddsd %xmm0, %xmm5, %xmm0 vmulsd 1376(%rbx), %xmm13, %xmm5 vaddsd %xmm0, %xmm5, %xmm0 vmovsd %xmm0, 1000(%rbx) vmovsd 1776(%rbx), %xmm0 vmulsd %xmm2, %xmm0, %xmm0 vmovaps %xmm8, %xmm6 vmulsd %xmm14, %xmm6, %xmm5 vaddsd %xmm5, %xmm0, %xmm0 vmovsd %xmm0, 920(%rbx) vmovsd 1760(%rbx), %xmm0 vmulsd %xmm2, %xmm0, %xmm0 vmulsd %xmm7, %xmm6, %xmm5 vaddsd %xmm5, %xmm0, %xmm0 vmovsd %xmm0, 1256(%rbx) vmovsd 1680(%rbx), %xmm0 vmulsd %xmm2, %xmm0, %xmm0 vmulsd %xmm9, %xmm6, %xmm5 vmovaps %xmm6, %xmm12 vaddsd %xmm5, %xmm0, %xmm0 vmovsd %xmm0, 1016(%rbx) vmulsd 1280(%rbx), %xmm2, %xmm0 vmulsd 1288(%rbx), %xmm2, %xmm6 vmulsd 1304(%rbx), %xmm2, %xmm5 vmulsd %xmm12, %xmm12, %xmm8 vdivsd %xmm8, %xmm5, %xmm5 vdivsd %xmm8, %xmm6, %xmm1 vmovsd %xmm1, 912(%rbx) vdivsd %xmm8, %xmm0, %xmm0 vmovsd %xmm0, 928(%rbx) vmulsd 968(%rbx), %xmm2, %xmm0 vmovsd %xmm0, 1376(%rbx) vmulsd 976(%rbx), %xmm2, %xmm0 vmovsd %xmm0, 1304(%rbx) vmulsd 984(%rbx), %xmm2, %xmm0 vmovsd %xmm0, 1288(%rbx) vmulsd 992(%rbx), %xmm2, %xmm0 vmovsd %xmm0, 1560(%rbx) vmulsd 1264(%rbx), %xmm2, %xmm0 vmovsd %xmm0, 1624(%rbx) vmovsd 1768(%rbx), %xmm0 vmulsd %xmm2, %xmm0, %xmm0 vmulsd %xmm4, %xmm12, %xmm2 vaddsd %xmm2, %xmm0, %xmm0 vmovaps %xmm15, %xmm8 vmulsd %xmm11, %xmm8, %xmm1 vmovsd 1696(%rbx), %xmm2 vaddsd %xmm1, %xmm2, %xmm1 vmovsd 1432(%rbx), %xmm2 vmulsd %xmm13, %xmm2, %xmm2 vaddsd %xmm2, %xmm1, %xmm1 vmulsd %xmm3, %xmm8, %xmm2 vmovsd 1704(%rbx), %xmm3 vaddsd %xmm2, %xmm3, %xmm2 vmovsd 1672(%rbx), %xmm3 vmulsd %xmm13, %xmm3, %xmm3 vaddsd %xmm3, %xmm2, %xmm2 vmovsd 936(%rbx), %xmm15 vmulsd %xmm13, %xmm15, %xmm3 vmovsd 944(%rbx), %xmm6 vaddsd %xmm3, %xmm6, %xmm3 vmovsd %xmm3, 1048(%rbx) vmovsd 1640(%rbx), %xmm3 vmulsd %xmm3, %xmm4, %xmm4 vmovsd %xmm4, 1432(%rbx) vmulsd %xmm3, %xmm7, %xmm4 vmovsd %xmm4, 1280(%rbx) vmulsd %xmm3, %xmm9, %xmm4 vmovsd %xmm4, 1272(%rbx) vmulsd %xmm3, %xmm14, %xmm3 vmovsd %xmm3, 1672(%rbx) vmovsd 1080(%rbx), %xmm3 vmulsd 1016(%rbx), %xmm3, %xmm4 vmovsd %xmm4, 1016(%rbx) vmulsd 1256(%rbx), %xmm3, %xmm4 vmovsd %xmm4, 1264(%rbx) vmulsd %xmm0, %xmm3, %xmm0 vmovsd %xmm0, 1256(%rbx) vmulsd 920(%rbx), %xmm3, %xmm0 vmovsd %xmm0, 1640(%rbx) vmovsd 1000(%rbx), %xmm0 vdivsd %xmm12, %xmm0, %xmm0 vsubsd %xmm5, %xmm0, %xmm0 vmulsd %xmm13, %xmm10, %xmm3 vmovsd 1424(%rbx), %xmm4 vmulsd %xmm0, %xmm4, %xmm4 vaddsd %xmm4, %xmm3, %xmm3 vdivsd %xmm12, %xmm1, %xmm1 vsubsd 912(%rbx), %xmm1, %xmm1 vmovsd 1360(%rbx), %xmm4 vmulsd %xmm1, %xmm4, %xmm4 vaddsd %xmm4, %xmm3, %xmm3 vmovsd 1448(%rbx), %xmm4 vmulsd %xmm13, %xmm4, %xmm4 vmovsd 1440(%rbx), %xmm5 vmulsd %xmm0, %xmm5, %xmm5 vaddsd %xmm5, %xmm4, %xmm5 vdivsd %xmm12, %xmm2, %xmm2 vsubsd 928(%rbx), %xmm2, %xmm4 vmovsd 1368(%rbx), %xmm2 vmulsd %xmm1, %xmm2, %xmm2 vaddsd %xmm2, %xmm5, %xmm2 vmovsd 1480(%rbx), %xmm5 vmulsd %xmm13, %xmm5, %xmm5 vmovsd 1472(%rbx), %xmm6 vmulsd %xmm0, %xmm6, %xmm6 vaddsd %xmm6, %xmm5, %xmm6 vmovsd 1504(%rbx), %xmm5 vmulsd %xmm4, %xmm5, %xmm5 vaddsd %xmm5, %xmm3, %xmm7 vmovsd 1496(%rbx), %xmm3 vmulsd %xmm13, %xmm3, %xmm3 vmovsd 1392(%rbx), %xmm5 vmulsd %xmm0, %xmm5, %xmm5 vaddsd %xmm5, %xmm3, %xmm3 vmovsd 1416(%rbx), %xmm5 vmulsd %xmm1, %xmm5, %xmm5 vaddsd %xmm5, %xmm3, %xmm3 vmovsd 1408(%rbx), %xmm5 vmulsd %xmm4, %xmm5, %xmm5 vaddsd %xmm5, %xmm3, %xmm11 vmulsd 1608(%rbx), %xmm13, %xmm10 vmovsd 1648(%rbx), %xmm3 vmulsd %xmm11, %xmm3, %xmm3 vmovaps %xmm8, %xmm14 vmulsd %xmm7, %xmm14, %xmm5 vmovsd %xmm5, 1504(%rbx) vaddsd %xmm10, %xmm5, %xmm7 vaddsd %xmm3, %xmm7, %xmm9 vmovsd 1512(%rbx), %xmm3 vmulsd %xmm1, %xmm3, %xmm3 vaddsd %xmm3, %xmm6, %xmm8 vmovsd 1400(%rbx), %xmm3 vmulsd %xmm4, %xmm3, %xmm3 vaddsd %xmm3, %xmm2, %xmm2 vmovaps %xmm15, %xmm7 vmulsd %xmm0, %xmm7, %xmm3 vmovsd 1008(%rbx), %xmm5 vaddsd %xmm3, %xmm5, %xmm15 vmovsd 1616(%rbx), %xmm3 vmulsd %xmm3, %xmm0, %xmm6 vmulsd %xmm3, %xmm13, %xmm0 vmovsd %xmm0, 1648(%rbx) vmovsd 1592(%rbx), %xmm5 vmulsd %xmm5, %xmm13, %xmm0 vmovsd %xmm0, 1616(%rbx) vmovsd 1600(%rbx), %xmm0 vmulsd %xmm0, %xmm13, %xmm3 vmovsd %xmm3, 1608(%rbx) vmulsd %xmm0, %xmm1, %xmm0 vmulsd %xmm1, %xmm7, %xmm3 vmulsd %xmm4, %xmm7, %xmm7 vmulsd %xmm5, %xmm4, %xmm1 vmovsd 1664(%rbx), %xmm5 vmulsd %xmm4, %xmm5, %xmm4 vaddsd %xmm6, %xmm9, %xmm6 vmovsd 1032(%rbx), %xmm5 vaddsd %xmm3, %xmm5, %xmm9 vmovsd 1040(%rbx), %xmm3 vaddsd %xmm7, %xmm3, %xmm3 vmovsd %xmm3, 1600(%rbx) vmovsd 1720(%rbx), %xmm3 vmulsd %xmm2, %xmm3, %xmm3 vaddsd %xmm3, %xmm6, %xmm3 vaddsd %xmm0, %xmm3, %xmm0 vaddsd %xmm4, %xmm8, %xmm3 vmovsd 1656(%rbx), %xmm4 vmulsd %xmm3, %xmm4, %xmm4 vaddsd %xmm4, %xmm0, %xmm0 vmovaps %xmm14, %xmm4 vmulsd %xmm3, %xmm4, %xmm3 vmovsd %xmm3, 1664(%rbx) vmulsd %xmm2, %xmm4, %xmm2 vmovsd %xmm2, 1656(%rbx) vmulsd %xmm11, %xmm4, %xmm2 vmovsd %xmm2, 1720(%rbx) vaddsd %xmm1, %xmm0, %xmm5 vmulsd 1056(%rbx), %xmm5, %xmm0 vsubsd %xmm0, %xmm15, %xmm6 vmulsd .LCPI0_6(%rip), %xmm5, %xmm0 vaddsd 1024(%rbx), %xmm0, %xmm0 vaddsd 1248(%rbx), %xmm5, %xmm1 vmulsd %xmm12, %xmm1, %xmm13 vmovsd 1680(%rbx), %xmm14 vmulsd %xmm14, %xmm13, %xmm1 vaddsd 1016(%rbx), %xmm1, %xmm1 vaddsd %xmm1, %xmm0, %xmm0 vsubsd %xmm10, %xmm0, %xmm2 vmovsd 1128(%rbx), %xmm0 vmulsd %xmm6, %xmm0, %xmm0 vmulsd 1216(%rbx), %xmm5, %xmm1 vmovsd 1048(%rbx), %xmm3 vsubsd %xmm1, %xmm3, %xmm3 vmovsd 1160(%rbx), %xmm1 vmulsd %xmm3, %xmm1, %xmm1 vxorps %xmm4, %xmm4, %xmm4 vaddsd %xmm4, %xmm1, %xmm1 vaddsd %xmm0, %xmm1, %xmm15 vmovsd 1200(%rbx), %xmm0 vmulsd %xmm6, %xmm0, %xmm0 vmovsd 1208(%rbx), %xmm1 vmulsd %xmm3, %xmm1, %xmm1 vaddsd %xmm4, %xmm1, %xmm1 vxorps %xmm7, %xmm7, %xmm7 vaddsd %xmm0, %xmm1, %xmm8 vsubsd 1504(%rbx), %xmm2, %xmm11 vmulsd 1296(%rbx), %xmm5, %xmm0 vsubsd %xmm0, %xmm9, %xmm4 vmovsd 1136(%rbx), %xmm0 vmulsd %xmm6, %xmm0, %xmm0 vmovsd 1176(%rbx), %xmm1 vmulsd %xmm6, %xmm1, %xmm2 vmovsd 1184(%rbx), %xmm1 vmulsd %xmm3, %xmm1, %xmm1 vaddsd %xmm7, %xmm1, %xmm6 vmovsd 1168(%rbx), %xmm1 vmulsd %xmm3, %xmm1, %xmm1 vaddsd %xmm7, %xmm1, %xmm7 vmulsd 1352(%rbx), %xmm5, %xmm1 vaddsd %xmm0, %xmm7, %xmm10 vaddsd %xmm2, %xmm6, %xmm9 vmovsd 1456(%rbx), %xmm0 vmulsd %xmm4, %xmm0, %xmm0 vaddsd %xmm0, %xmm8, %xmm0 vmovsd %xmm0, 1592(%rbx) vmovsd 1464(%rbx), %xmm0 vmulsd %xmm4, %xmm0, %xmm0 vaddsd %xmm0, %xmm15, %xmm0 vmovsd %xmm0, 1512(%rbx) vmulsd %xmm3, %xmm14, %xmm0 vaddsd %xmm11, %xmm0, %xmm11 vmovsd 1600(%rbx), %xmm0 vsubsd %xmm1, %xmm0, %xmm7 vmovsd 1120(%rbx), %xmm0 vmulsd %xmm4, %xmm0, %xmm5 vmovsd 1112(%rbx), %xmm0 vmulsd %xmm4, %xmm0, %xmm1 vmovsd 1768(%rbx), %xmm6 vmulsd %xmm6, %xmm13, %xmm0 vaddsd 1256(%rbx), %xmm0, %xmm4 vmovsd 1760(%rbx), %xmm2 vmulsd %xmm2, %xmm13, %xmm0 vaddsd 1264(%rbx), %xmm0, %xmm0 vsubsd 1608(%rbx), %xmm0, %xmm0 vsubsd 1656(%rbx), %xmm0, %xmm0 vsubsd 1616(%rbx), %xmm4, %xmm4 vsubsd 1664(%rbx), %xmm4, %xmm4 vaddsd %xmm1, %xmm9, %xmm9 vaddsd %xmm5, %xmm10, %xmm8 vmulsd %xmm3, %xmm6, %xmm1 vaddsd %xmm1, %xmm4, %xmm10 vmulsd %xmm3, %xmm2, %xmm1 vaddsd %xmm1, %xmm0, %xmm5 vmovsd 1528(%rbx), %xmm0 vmulsd %xmm7, %xmm0, %xmm2 vmovsd 1536(%rbx), %xmm0 vmulsd %xmm7, %xmm0, %xmm4 vmovsd 1488(%rbx), %xmm0 vmulsd %xmm7, %xmm0, %xmm1 vmovsd 1520(%rbx), %xmm0 vmulsd %xmm7, %xmm0, %xmm0 vmovsd 1272(%rbx), %xmm6 vaddsd %xmm11, %xmm6, %xmm15 vmovsd 1512(%rbx), %xmm6 vaddsd %xmm0, %xmm6, %xmm11 vmovsd 1592(%rbx), %xmm0 vaddsd %xmm1, %xmm0, %xmm1 vmovsd .LCPI0_0(%rip), %xmm14 vaddsd %xmm4, %xmm8, %xmm6 vaddsd %xmm2, %xmm9, %xmm4 vaddsd 1280(%rbx), %xmm5, %xmm2 vaddsd 1432(%rbx), %xmm10, %xmm5 vmovsd 1744(%rbx), %xmm7 vmovsd 1568(%rbx), %xmm0 vdivsd %xmm0, %xmm7, %xmm7 vmulsd %xmm7, %xmm12, %xmm7 vmovsd %xmm7, 1768(%rbx) vmovaps %xmm12, %xmm7 vmulsd 1576(%rbx), %xmm7, %xmm12 vmulsd %xmm4, %xmm7, %xmm8 vmulsd %xmm6, %xmm7, %xmm9 vmulsd %xmm1, %xmm7, %xmm10 vmulsd %xmm11, %xmm7, %xmm7 vmovsd 1288(%rbx), %xmm1 vaddsd %xmm15, %xmm1, %xmm4 vmovsd .LCPI0_2(%rip), %xmm15 vaddsd 1304(%rbx), %xmm5, %xmm11 vaddsd 1376(%rbx), %xmm2, %xmm5 vdivsd %xmm0, %xmm3, %xmm2 vmovsd 1776(%rbx), %xmm6 vmulsd %xmm3, %xmm6, %xmm1 vmulsd %xmm6, %xmm13, %xmm3 vaddsd 1640(%rbx), %xmm3, %xmm3 vsubsd 1648(%rbx), %xmm3, %xmm3 vsubsd 1720(%rbx), %xmm3, %xmm3 vaddsd %xmm1, %xmm3, %xmm1 vaddsd 1672(%rbx), %xmm1, %xmm1 vaddsd 1560(%rbx), %xmm1, %xmm3 vaddsd %xmm4, %xmm7, %xmm1 vaddsd %xmm10, %xmm3, %xmm0 vaddsd %xmm9, %xmm5, %xmm4 vaddsd %xmm8, %xmm11, %xmm6 vmovsd 1632(%rbx), %xmm3 vaddsd %xmm2, %xmm3, %xmm2 vmovaps 1728(%rbx), %xmm3 vmovsd 1704(%rbx), %xmm5 vmulsd %xmm3, %xmm5, %xmm7 vmovsd 1696(%rbx), %xmm5 vmulsd %xmm3, %xmm5, %xmm13 vmovsd 1712(%rbx), %xmm5 vmulsd %xmm3, %xmm5, %xmm11 vmovsd 1752(%rbx), %xmm5 vmulsd %xmm3, %xmm5, %xmm8 leaq 64(%r13,%r12), %rax movq %rax, 1760(%rbx) vmulsd %xmm3, %xmm1, %xmm9 vmulsd %xmm3, %xmm6, %xmm6 vmulsd %xmm3, %xmm4, %xmm4 vmulsd %xmm3, %xmm0, %xmm1 vsubsd 1584(%rbx), %xmm2, %xmm0 vsubsd 1768(%rbx), %xmm0, %xmm0 vaddsd %xmm12, %xmm0, %xmm0 vmovsd .LCPI0_1(%rip), %xmm12 vsubsd 1624(%rbx), %xmm0, %xmm0 vmulsd %xmm3, %xmm0, %xmm0 .LBB0_10: vmovsd %xmm0, 152(%r13,%r12) vmovsd %xmm7, 144(%r13,%r12) vmovsd %xmm13, 136(%r13,%r12) vmovsd %xmm11, 128(%r13,%r12) vmovsd %xmm6, 120(%r13,%r12) vmovsd %xmm4, 112(%r13,%r12) movq %r15, %rax shrq $32, %rax movq %rax, 1752(%rbx) vmovsd %xmm1, 104(%r13,%r12) vmovsd %xmm9, 96(%r13,%r12) imull $12, %eax, %r10d movl $1296, %eax vmovsd %xmm8, 88(%r13,%r12) movq %r15, 80(%r13,%r12) movl 56(%r13,%r12), %ecx movl %ecx, 1768(%rbx) movl 8(%r13,%r12), %edx movl %edx, 1744(%rbx) movl 24(%r13,%r12), %ecx movl %ecx, 1776(%rbx) cmpl $7, 40(%r13,%r12) sete %cl movzbl %cl, %ecx movl %ecx, 160(%r13,%r12) movl 8(%r13,%r12), %esi movl %esi, 1720(%rbx) movl 16(%r13,%r12), %r15d movl 68(%r13,%r12), %ecx addl %esi, %ecx movslq 72(%r13,%r12), %rdi movq 32(%r13,%r12), %r14 leal 67108862(%r15), %r8d addl $67108863, %r15d leal 64(%rdx), %r9d leal 9(%rcx,%rcx,8), %esi movslq %esi, %r11 leal 18(%rcx,%rcx,8), %ecx movslq %ecx, %rcx movq 1784(%rbx), %rsi leaq (%rsi,%rcx,8), %rcx movq %rcx, 1696(%rbx) leaq (%rsi,%r11,8), %rcx movq %rcx, 1680(%rbx) leaq 1024(%rbx), %rcx leaq 1056(%rcx,%rdi,8), %rcx movq %rcx, 1672(%rbx) leaq 928(%rbx), %rcx leaq 1056(%rcx,%rdi,8), %rcx movq %rcx, 1664(%rbx) leaq 832(%rbx), %rsi leaq 1056(%rsi,%rdi,8), %rcx movq %rcx, 1656(%rbx) leaq 736(%rbx), %rdx leaq 1056(%rdx,%rdi,8), %rcx movq %rcx, 1648(%rbx) leaq 1504(%rbx), %rcx leaq 1056(%rcx,%rdi,8), %rcx movq %rcx, 1640(%rbx) leaq 1696(%rbx), %r11 leaq 1056(%r11,%rdi,8), %rcx movq %rcx, 1632(%rbx) leaq 1600(%rbx), %rcx leaq 1056(%rcx,%rdi,8), %rcx movq %rcx, 1624(%rbx) leaq 2848(%rbx,%rdi,8), %rcx movq %rcx, 1616(%rbx) shlq $32, %r14 movq %r14, 1592(%rbx) movabsq $8589934592, %rcx leaq (%r14,%rcx), %rcx sarq $32, %rcx leaq 1056(%rsi,%rcx,8), %rsi movq %rsi, 1608(%rbx) leaq 1056(%rdx,%rcx,8), %rdx movq %rdx, 1600(%rbx) shll $6, %r15d movl %r15d, 1704(%rbx) leaq 1056(%r11,%rcx,8), %r15 shll $6, %r8d movl %r8d, 1712(%rbx) leaq 2848(%rbx,%rcx,8), %r8 xorl %r14d, %r14d xorl %r11d, %r11d .align 16, 0x90 .LBB0_11: movl 40(%r13,%r12), %ecx testl %ecx, %ecx jne .LBB0_12 cmpl $2, 1744(%rbx) jl .LBB0_16 movq 1760(%rbx), %rcx movl (%rcx), %ecx leal -18(%rcx,%rcx,8), %esi movslq %esi, %rsi addq %r11, %rsi movq 1784(%rbx), %rdi vmovsd (%rdi,%rsi,8), %xmm0 movslq %r10d, %rsi vmovsd %xmm0, 1792(%rbx,%rsi,8) leal -9(%rcx,%rcx,8), %ecx movslq %ecx, %rcx addq %r11, %rcx vmovsd (%rdi,%rcx,8), %xmm0 leal 1(%r10), %ecx movslq %ecx, %rcx jmp .LBB0_17 .align 16, 0x90 .LBB0_12: cmpl $7, %ecx jne .LBB0_22 imull $12, %r11d, %ecx movq 1752(%rbx), %rdx addl %edx, %ecx imull $12, %ecx, %edi jmp .LBB0_18 .align 16, 0x90 .LBB0_16: movslq %r10d, %rcx leal 2(%rcx), %esi movslq %esi, %rsi vmovsd 1792(%rbx,%rsi,8), %xmm0 vmovsd %xmm0, 1792(%rbx,%rcx,8) incl %ecx movslq %ecx, %rcx .LBB0_17: vmovsd %xmm0, 1792(%rbx,%rcx,8) testb $1, 160(%r13,%r12) movl %r10d, %edi je .LBB0_22 .LBB0_18: cmpl $62, 1720(%rbx) jg .LBB0_20 movq 1680(%rbx), %rcx subq %r14, %rcx vmovsd (%rcx), %xmm0 leal 10(%rdi), %ecx movslq %ecx, %rcx vmovsd %xmm0, 1792(%rbx,%rcx,8) movq 1696(%rbx), %rcx subq %r14, %rcx vmovsd (%rcx), %xmm0 jmp .LBB0_21 .align 16, 0x90 .LBB0_20: leal 10(%rdi), %ecx movslq %ecx, %rcx leal 9(%rdi), %esi movslq %esi, %rsi vmovsd 1792(%rbx,%rsi,8), %xmm0 vmovsd %xmm0, 1792(%rbx,%rcx,8) .LBB0_21: addl $11, %edi movslq %edi, %rcx vmovsd %xmm0, 1792(%rbx,%rcx,8) .LBB0_22: movl 56(%r13,%r12), %ecx cmpl $7, %ecx je .LBB0_28 testl %ecx, %ecx jne .LBB0_31 cmpl $2, 1776(%rbx) jl .LBB0_26 movl 8(%r13,%r12), %ecx addl 1712(%rbx), %ecx leal (%rcx,%rcx,8), %ecx movslq %ecx, %rcx addq %r11, %rcx movq 1784(%rbx), %rdi vmovsd (%rdi,%rcx,8), %xmm0 imulq $-144, %r14, %rcx movq 1600(%rbx), %rdx vmovsd %xmm0, (%rdx,%rcx) movl 8(%r13,%r12), %esi addl 1704(%rbx), %esi leal (%rsi,%rsi,8), %esi movslq %esi, %rsi addq %r11, %rsi vmovsd (%rdi,%rsi,8), %xmm0 movq 1608(%rbx), %rdx jmp .LBB0_27 .LBB0_26: imulq $-144, %r14, %rcx movq 1672(%rbx), %rdx vmovsd (%rdx,%rcx), %xmm0 movq 1648(%rbx), %rdx vmovsd %xmm0, (%rdx,%rcx) movq 1664(%rbx), %rdx vmovsd (%rdx,%rcx), %xmm0 movq 1656(%rbx), %rdx .LBB0_27: vmovsd %xmm0, (%rdx,%rcx) cmpl $7, 1768(%rbx) jne .LBB0_31 .align 16, 0x90 .LBB0_28: cmpl $62, 1776(%rbx) jg .LBB0_30 movl 16(%r13,%r12), %ecx shll $6, %ecx addl %r9d, %ecx leal (%rcx,%rcx,8), %ecx movslq %ecx, %rcx addq %r11, %rcx imulq $-144, %r14, %rdi movq 1784(%rbx), %rsi vmovsd (%rsi,%rcx,8), %xmm0 vmovsd %xmm0, (%r15,%rdi) movl 16(%r13,%r12), %ecx shll $6, %ecx addl %r9d, %ecx leal 576(%rcx,%rcx,8), %ecx movslq %ecx, %rcx addq %r11, %rcx vmovsd (%rsi,%rcx,8), %xmm0 vmovsd %xmm0, (%r8,%rdi) jmp .LBB0_31 .align 16, 0x90 .LBB0_30: imulq $-144, %r14, %rcx movq 1624(%rbx), %rdx vmovsd (%rdx,%rcx), %xmm0 movq 1632(%rbx), %rdx vmovsd %xmm0, (%rdx,%rcx) movq 1640(%rbx), %rdx vmovsd (%rdx,%rcx), %xmm0 movq 1616(%rbx), %rdx vmovsd %xmm0, (%rdx,%rcx) .LBB0_31: addl $144, %r10d addq $-8, %r14 incq %r11 addl $-144, %eax jne .LBB0_11 cmpl $0, 56(%r13,%r12) movq 1312(%rbx), %rdx movq 1592(%rbx), %rsi jne .LBB0_35 cmpl $1, 24(%r13,%r12) jg .LBB0_35 movabsq $1864015806464, %rax leaq (%rsi,%rax), %rax sarq $32, %rax vmovsd 1792(%rbx,%rax,8), %xmm0 vxorpd %xmm15, %xmm0, %xmm0 vmovsd %xmm0, 1792(%rbx,%rax,8) movabsq $3770981285888, %rax leaq (%rsi,%rax), %rax movabsq $3719441678336, %rcx leaq (%rsi,%rcx), %rcx sarq $32, %rcx vmovsd 1792(%rbx,%rcx,8), %xmm0 vxorpd %xmm15, %xmm0, %xmm0 vmovsd %xmm0, 1792(%rbx,%rcx,8) sarq $32, %rax movabsq $1915555414016, %rcx leaq (%rsi,%rcx), %rcx sarq $32, %rcx vmovsd 1792(%rbx,%rcx,8), %xmm0 vxorpd %xmm15, %xmm0, %xmm0 vmovsd %xmm0, 1792(%rbx,%rcx,8) vmovsd 1792(%rbx,%rax,8), %xmm0 vxorpd %xmm15, %xmm0, %xmm0 vmovsd %xmm0, 1792(%rbx,%rax,8) .align 16, 0x90 .LBB0_35: cmpl $7, 1768(%rbx) jne .LBB0_38 cmpl $63, 24(%r13,%r12) jl .LBB0_38 movabsq $2379411881984, %rax leaq (%rsi,%rax), %rax sarq $32, %rax vmovsd 1792(%rbx,%rax,8), %xmm0 vxorpd %xmm15, %xmm0, %xmm0 vmovsd %xmm0, 1792(%rbx,%rax,8) movabsq $4286377361408, %rax leaq (%rsi,%rax), %rax movabsq $4234837753856, %rcx leaq (%rsi,%rcx), %rcx sarq $32, %rcx vmovsd 1792(%rbx,%rcx,8), %xmm0 vxorpd %xmm15, %xmm0, %xmm0 vmovsd %xmm0, 1792(%rbx,%rcx,8) sarq $32, %rax movabsq $2430951489536, %rcx addq %rcx, %rsi sarq $32, %rsi vmovsd 1792(%rbx,%rsi,8), %xmm0 vxorpd %xmm15, %xmm0, %xmm0 vmovsd %xmm0, 1792(%rbx,%rsi,8) vmovsd 1792(%rbx,%rax,8), %xmm0 vxorpd %xmm15, %xmm0, %xmm0 vmovsd %xmm0, 1792(%rbx,%rax,8) .align 16, 0x90 .LBB0_38: incq %rdx cmpq 1240(%rbx), %rdx jb .LBB0_732 movq 1336(%rbx), %rax incq %rax movq %rax, 1336(%rbx) cmpq 1232(%rbx), %rax movl $0, %edx jb .LBB0_732 xorl %eax, %eax movq %rax, 896(%rbx) movq $-168, 888(%rbx) movq $-480, 880(%rbx) vxorpd %xmm0, %xmm0, %xmm0 movl $288, %eax movq %rax, 872(%rbx) leaq 1536(%r13), %rax movq %rax, 192(%rbx) leaq 1528(%r13), %rax movq %rax, 184(%rbx) leaq 1520(%r13), %rax movq %rax, 176(%rbx) leaq 1512(%r13), %rax movq %rax, 168(%rbx) vmovupd %xmm0, 12208(%rbx) vdivsd 1728(%rbx), %xmm14, %xmm13 vmovsd %xmm13, 1720(%rbx) leaq 1280(%r13), %rax movq %rax, 160(%rbx) leaq 1272(%r13), %rax movq %rax, 1568(%rbx) leaq 1264(%r13), %rax movq %rax, 1560(%rbx) leaq 1256(%r13), %rax movq %rax, 1536(%rbx) leaq 1088(%r13), %rax movq %rax, 1528(%rbx) leaq 1032(%r13), %rax movq %rax, 1520(%rbx) leaq 904(%r13), %rax movq %rax, 1512(%rbx) leaq 776(%r13), %rax movq %rax, 1504(%rbx) leaq 1128(%r13), %rax movq %rax, 1496(%rbx) leaq 1080(%r13), %rax movq %rax, 1488(%rbx) leaq 960(%r13), %rax movq %rax, 1480(%rbx) leaq 1000(%r13), %rax movq %rax, 1472(%rbx) leaq 952(%r13), %rax movq %rax, 1464(%rbx) leaq 872(%r13), %rax movq %rax, 1456(%rbx) leaq 744(%r13), %rax movq %rax, 1448(%rbx) leaq 1096(%r13), %rax movq %rax, 1440(%rbx) leaq 1072(%r13), %rax movq %rax, 1432(%rbx) leaq 832(%r13), %rax movq %rax, 1424(%rbx) leaq 968(%r13), %rax movq %rax, 1416(%rbx) leaq 944(%r13), %rax movq %rax, 1408(%rbx) leaq 824(%r13), %rax movq %rax, 1400(%rbx) leaq 840(%r13), %rax movq %rax, 1392(%rbx) leaq 1160(%r13), %rax movq %rax, 1712(%rbx) leaq 816(%r13), %rax movq %rax, 1384(%rbx) leaq 712(%r13), %rax movq %rax, 1376(%rbx) leaq 1064(%r13), %rax movq %rax, 152(%rbx) leaq 704(%r13), %rax movq %rax, 1368(%rbx) leaq 936(%r13), %rax movq %rax, 144(%rbx) leaq 696(%r13), %rax movq %rax, 1360(%rbx) leaq 808(%r13), %rax movq %rax, 136(%rbx) leaq 688(%r13), %rax movq %rax, 1352(%rbx) leaq 680(%r13), %rax movq %rax, 1704(%rbx) leaq 1224(%r13), %rax movq %rax, 128(%rbx) movq 12208(%rbx), %rcx movq %rcx, 864(%rbx) vxorpd %xmm0, %xmm0, %xmm0 vmulsd .LCPI0_3(%rip), %xmm13, %xmm1 vmovsd %xmm1, 1784(%rbx) vmulsd %xmm0, %xmm1, %xmm0 vmovsd %xmm0, 1752(%rbx) vmulsd %xmm1, %xmm1, %xmm0 vmovsd %xmm0, 1744(%rbx) movl $0, %ecx movq %rcx, 1312(%rbx) movq %rax, 856(%rbx) xorl %eax, %eax movq %rax, 848(%rbx) xorl %ecx, %ecx jmp .LBB0_41 .align 16, 0x90 .LBB0_638: movq %rdx, 864(%rbx) addq $1640, 880(%rbx) addq $-1640, 896(%rbx) addq $1640, 1312(%rbx) addq $-1640, 888(%rbx) addq $1640, 856(%rbx) addq $1640, 872(%rbx) addq $1640, %rcx .LBB0_41: cmpl $63, 8(%rcx,%r13) jl .LBB0_51 movl 160(%rcx,%r13), %eax andl $1, %eax je .LBB0_51 movq 80(%rcx,%r13), %rax sarq $32, %rax shlq $34, %rax leaq (%rax,%rax,2), %rdi leaq 1392(%rcx,%r13), %rax movq %rax, 1776(%rbx) leaq 1472(%rcx,%r13), %rax movq %rax, 1768(%rbx) leaq 1432(%rcx,%r13), %rax movq %rax, 1760(%rbx) movl $16, %esi movq %rdi, %r8 sarq $32, %r8 movabsq $3092376453120, %rax leaq (%rdi,%rax), %r12 movabsq $4329327034368, %rax leaq (%rdi,%rax), %rax movabsq $3710851743744, %rdx leaq (%rdi,%rdx), %r10 movabsq $4947802324992, %rdx leaq (%rdi,%rdx), %r11 movabsq $2473901162496, %rdx leaq (%rdi,%rdx), %r14 movabsq $618475290624, %rdx leaq (%rdi,%rdx), %rdx movq %rdx, 1656(%rbx) movabsq $1236950581248, %rdx leaq (%rdi,%rdx), %rdx movq %rdx, 1648(%rbx) movabsq $1855425871872, %rdx leaq (%rdi,%rdx), %r15 leaq 1872(%rbx), %r9 leaq (%r9,%r8,8), %rdi movq %rdi, 1696(%rbx) leaq 80(,%r8,8), %rdi movq %rdi, 1680(%rbx) sarq $32, %r11 sarq $32, %r10 sarq $32, %rax sarq $32, %r12 leaq (%r9,%r11,8), %rdi movq %rdi, 1672(%rbx) leaq 80(,%r11,8), %rdi movq %rdi, 1664(%rbx) sarq $32, %r15 movq 1648(%rbx), %r8 sarq $32, %r8 movq 1656(%rbx), %rdx sarq $32, %rdx sarq $32, %r14 leaq (%r9,%rax,8), %rdi movq %rdi, 1656(%rbx) leaq 80(,%rax,8), %rax movq %rax, 1648(%rbx) leaq (%r9,%r10,8), %rax movq %rax, 1640(%rbx) leaq 80(,%r10,8), %rax movq %rax, 1632(%rbx) leaq (%r9,%r12,8), %rax movq %rax, 1624(%rbx) leaq 80(,%r12,8), %rax movq %rax, 1616(%rbx) leaq (%r9,%r14,8), %rax movq %rax, 1608(%rbx) leaq 80(,%r14,8), %rax movq %rax, 1600(%rbx) movabsq $9223372036854775807, %r14 leaq (%r9,%rdx,8), %rax movq %rax, 1592(%rbx) movq %r8, %rdi leaq (%r9,%rdi,8), %rax movq %rax, 1584(%rbx) leaq (%r9,%r15,8), %r8 leaq 80(,%r15,8), %r9 leaq 80(,%rdi,8), %r10 leaq 80(,%rdx,8), %r11 leaq 1792(%rbx), %r15 xorl %r12d, %r12d .align 16, 0x90 .LBB0_44: movq 1600(%rbx), %rax vmovsd (%r15,%rax), %xmm6 vmovsd (%r15,%r10), %xmm0 vxorpd %xmm15, %xmm15, %xmm15 vmulsd %xmm15, %xmm0, %xmm1 vmulsd %xmm1, %xmm6, %xmm2 vmovsd (%r15,%r9), %xmm7 vmulsd %xmm1, %xmm7, %xmm1 vaddsd %xmm2, %xmm1, %xmm1 vmulsd %xmm15, %xmm7, %xmm2 vmulsd %xmm2, %xmm6, %xmm2 vaddsd %xmm2, %xmm1, %xmm1 vmulsd %xmm7, %xmm7, %xmm2 vmulsd %xmm0, %xmm0, %xmm3 vaddsd %xmm14, %xmm3, %xmm3 vaddsd %xmm2, %xmm3, %xmm2 vmulsd %xmm6, %xmm6, %xmm3 vaddsd %xmm1, %xmm1, %xmm1 vmaxsd (%r15,%r11), %xmm12, %xmm4 movq 1680(%rbx), %rax vmaxsd (%r15,%rax), %xmm12, %xmm5 vaddsd %xmm3, %xmm2, %xmm2 movq 1664(%rbx), %rax vmovsd (%r15,%rax), %xmm8 movq 1648(%rbx), %rax vmovsd (%r15,%rax), %xmm9 vaddsd %xmm1, %xmm2, %xmm1 movq 1632(%rbx), %rax vmovsd (%r15,%rax), %xmm10 movq 1616(%rbx), %rax vmovsd (%r15,%rax), %xmm11 movabsq $-4616189618054758400, %rax movq %rax, 1384(%r13,%rcx) vxorps %xmm2, %xmm2, %xmm2 movq 1776(%rbx), %rdi vmovups %xmm2, 16(%rdi) vmovups %xmm2, (%rdi) movabsq $4607182418800017408, %rdi movq %rdi, 1424(%r13,%rcx) movq 1760(%rbx), %rdx vmovups %xmm2, 16(%rdx) vmovups %xmm2, (%rdx) movq %rdi, 1464(%r13,%rcx) movq 1768(%rbx), %rdx vmovups %xmm2, 16(%rdx) vmovups %xmm2, (%rdx) movq %rdi, 1504(%r13,%rcx) movq %rax, 1256(%r13,%rcx) movabsq $-9223372036854775808, %rax movq %rax, 1264(%r13,%rcx) movq %rax, 1272(%r13,%rcx) movq %rax, 1280(%r13,%rcx) movq %rax, 1288(%r13,%rcx) movq %rdi, 1296(%r13,%rcx) movq %rax, 1304(%r13,%rcx) vmovq %xmm1, %xmm1 movq %rax, 1312(%r13,%rcx) vsqrtpd %xmm1, %xmm1 movq %rax, 1320(%r13,%rcx) movq %rax, 1328(%r13,%rcx) movq %rdi, 1336(%r13,%rcx) movq %rax, 1344(%r13,%rcx) movq %rax, 1352(%r13,%rcx) movq %rax, 1360(%r13,%rcx) movq %rax, 1368(%r13,%rcx) movq %rdi, 1376(%r13,%rcx) vmulsd %xmm15, %xmm1, %xmm2 vmulsd %xmm13, %xmm2, %xmm2 vaddsd %xmm2, %xmm0, %xmm2 vucomisd %xmm2, %xmm15 jbe .LBB0_50 vdivsd %xmm1, %xmm7, %xmm0 vdivsd %xmm1, %xmm6, %xmm6 vmovsd 1752(%rbx), %xmm1 vmulsd %xmm6, %xmm1, %xmm7 vmulsd %xmm0, %xmm1, %xmm1 vmovsd 1744(%rbx), %xmm2 vaddsd %xmm1, %xmm2, %xmm2 vmulsd %xmm15, %xmm0, %xmm3 vmulsd %xmm3, %xmm6, %xmm1 vaddsd %xmm7, %xmm2, %xmm2 vmovsd 1784(%rbx), %xmm7 vmulsd %xmm3, %xmm7, %xmm3 vaddsd %xmm3, %xmm2, %xmm2 vmulsd %xmm0, %xmm0, %xmm3 vaddsd %xmm3, %xmm2, %xmm2 vaddsd %xmm1, %xmm2, %xmm1 vmulsd %xmm15, %xmm6, %xmm2 vmulsd %xmm2, %xmm7, %xmm2 vaddsd %xmm2, %xmm1, %xmm1 vmulsd 1496(%r13,%rcx), %xmm6, %xmm2 vmulsd %xmm2, %xmm0, %xmm2 vmulsd %xmm6, %xmm6, %xmm3 vaddsd %xmm2, %xmm1, %xmm1 vaddsd %xmm3, %xmm1, %xmm7 vmovd %xmm7, %rdi andq %r14, %rdi vmovd %rdi, %xmm1 vmovsd .LCPI0_13(%rip), %xmm2 vucomisd %xmm1, %xmm2 vmovapd %xmm2, %xmm1 ja .LBB0_47 vmovapd %xmm7, %xmm1 .LBB0_47: vmovd %xmm1, %rdi andq %r14, %rdi vmovd %rdi, %xmm2 vucomisd %xmm14, %xmm2 jb .LBB0_49 vmovsd .LCPI0_12(%rip), %xmm1 .LBB0_49: vsubsd %xmm1, %xmm14, %xmm1 vmovq %xmm1, %xmm1 vsqrtpd %xmm1, %xmm1 vdivsd %xmm1, %xmm14, %xmm1 vmulsd %xmm6, %xmm1, %xmm6 vmulsd %xmm0, %xmm1, %xmm7 vmulsd 1784(%rbx), %xmm1, %xmm0 .LBB0_50: movq 1696(%rbx), %rax vmovsd %xmm5, (%r12,%rax) movq 1592(%rbx), %rax vmovsd %xmm4, (%r12,%rax) movq 1584(%rbx), %rax vmovsd %xmm0, (%r12,%rax) vmovsd %xmm7, (%r12,%r8) movq 1608(%rbx), %rax vmovsd %xmm6, (%r12,%rax) addq $8, %r15 addl $-8, %esi movq 1624(%rbx), %rax vmovsd %xmm11, (%r12,%rax) movq 1640(%rbx), %rax vmovsd %xmm10, (%r12,%rax) movq 1656(%rbx), %rax vmovsd %xmm9, (%r12,%rax) movq 1672(%rbx), %rax vmovsd %xmm8, (%r12,%rax) leaq 8(%r12), %r12 jne .LBB0_44 .align 16, 0x90 .LBB0_51: cmpl $0, 8(%r13,%rcx) jg .LBB0_53 movl 40(%r13,%rcx), %eax testl %eax, %eax jne .LBB0_53 movq 80(%rcx,%r13), %rax sarq $32, %rax movq %rax, 1304(%rbx) shlq $34, %rax leaq (%rax,%rax,2), %rsi leaq 1392(%rcx,%r13), %rax movq %rax, 1760(%rbx) leaq 1472(%rcx,%r13), %rax movq %rax, 1776(%rbx) leaq 1432(%rcx,%r13), %rax movq %rax, 1768(%rbx) movq %rcx, %r15 movl $16, %ecx movq %rsi, %rdi sarq $32, %rdi movabsq $1236950581248, %rax leaq (%rsi,%rax), %r8 movabsq $4947802324992, %rax leaq (%rsi,%rax), %r11 movabsq $4329327034368, %rax leaq (%rsi,%rax), %r10 movabsq $3710851743744, %rax leaq (%rsi,%rax), %r9 movabsq $3092376453120, %rax leaq (%rsi,%rax), %r14 movabsq $2473901162496, %rax leaq (%rsi,%rax), %r12 movabsq $618475290624, %rax leaq (%rsi,%rax), %rax movabsq $1855425871872, %rdx leaq (%rsi,%rdx), %rsi leaq 1792(%rbx,%rdi,8), %rdx movq %rdx, 1624(%rbx) shlq $3, %rdi movq %rdi, 1696(%rbx) sarq $32, %rax sarq $32, %r12 sarq $32, %r14 sarq $32, %r9 sarq $32, %r10 sarq $32, %r11 sarq $32, %r8 sarq $32, %rsi leaq 1792(%rbx,%rax,8), %rdx movq %rdx, 1616(%rbx) shlq $3, %rax movq %rax, 1632(%rbx) leaq 1792(%rbx,%r8,8), %rax movq %rax, 1608(%rbx) shlq $3, %r8 movq %r8, 1680(%rbx) leaq 1792(%rbx,%rsi,8), %rax movq %rax, 1600(%rbx) shlq $3, %rsi leaq 1792(%rbx,%r12,8), %rax movq %rax, 1592(%rbx) shlq $3, %r12 movq %r12, 1640(%rbx) leaq 1792(%rbx,%r14,8), %r12 shlq $3, %r14 movq %r14, 1648(%rbx) leaq 1792(%rbx,%r9,8), %r14 shlq $3, %r9 movq %r9, 1656(%rbx) leaq 1792(%rbx,%r10,8), %rax movq %rax, 1584(%rbx) shlq $3, %r10 movq %r10, 1664(%rbx) leaq 1792(%rbx,%r11,8), %rax movq %rax, 1576(%rbx) shlq $3, %r11 movq %r11, 1672(%rbx) leaq 1792(%rbx), %r8 xorl %r9d, %r9d .align 16, 0x90 .LBB0_175: movq 1640(%rbx), %rax vmovsd (%r8,%rax), %xmm6 movq 1680(%rbx), %rdx vmovsd (%r8,%rdx), %xmm0 vxorps %xmm4, %xmm4, %xmm4 vmulsd %xmm4, %xmm0, %xmm1 vmulsd %xmm1, %xmm6, %xmm2 vmovsd (%r8,%rsi), %xmm7 vmulsd %xmm1, %xmm7, %xmm1 vaddsd %xmm2, %xmm1, %xmm1 vmulsd %xmm4, %xmm7, %xmm2 vmulsd %xmm2, %xmm6, %xmm2 vaddsd %xmm2, %xmm1, %xmm1 vmulsd %xmm7, %xmm7, %xmm2 vmulsd %xmm0, %xmm0, %xmm3 vaddsd %xmm14, %xmm3, %xmm3 vaddsd %xmm2, %xmm3, %xmm2 vmulsd %xmm6, %xmm6, %xmm3 vaddsd %xmm1, %xmm1, %xmm1 movq 1632(%rbx), %rax vmaxsd (%r8,%rax), %xmm12, %xmm15 movq 1696(%rbx), %rdx vmaxsd (%r8,%rdx), %xmm12, %xmm5 vaddsd %xmm3, %xmm2, %xmm2 movq 1672(%rbx), %rdx vmovsd (%r8,%rdx), %xmm8 movq 1664(%rbx), %rdx vmovsd (%r8,%rdx), %xmm9 vaddsd %xmm1, %xmm2, %xmm1 movq 1656(%rbx), %rdx vmovsd (%r8,%rdx), %xmm10 movq 1648(%rbx), %rax vmovsd (%r8,%rax), %xmm11 movabsq $-4616189618054758400, %rdi movq %rdi, 1384(%r13,%r15) vxorps %xmm2, %xmm2, %xmm2 movq 1760(%rbx), %rdx vmovups %xmm2, 16(%rdx) vmovups %xmm2, (%rdx) movabsq $4607182418800017408, %rdx movq %rdx, 1424(%r13,%r15) movq 1768(%rbx), %rax vmovups %xmm2, 16(%rax) vmovups %xmm2, (%rax) movq %rdx, 1464(%r13,%r15) movq 1776(%rbx), %rax vmovups %xmm2, 16(%rax) vmovups %xmm2, (%rax) movq %rdx, 1504(%r13,%r15) movq %rdi, 1256(%r13,%r15) movabsq $-9223372036854775808, %rdi movq %rdi, 1264(%r13,%r15) movq %rdi, 1272(%r13,%r15) movq %rdi, 1280(%r13,%r15) movq %rdi, 1288(%r13,%r15) movq %rdx, 1296(%r13,%r15) movq %rdi, 1304(%r13,%r15) vmovq %xmm1, %xmm1 movq %rdi, 1312(%r13,%r15) vsqrtpd %xmm1, %xmm1 movq %rdi, 1320(%r13,%r15) movq %rdi, 1328(%r13,%r15) movq %rdx, 1336(%r13,%r15) movq %rdi, 1344(%r13,%r15) movq %rdi, 1352(%r13,%r15) movq %rdi, 1360(%r13,%r15) movq %rdi, 1368(%r13,%r15) movq %rdx, 1376(%r13,%r15) vmulsd %xmm4, %xmm1, %xmm2 vmulsd %xmm13, %xmm2, %xmm2 vaddsd %xmm2, %xmm0, %xmm2 vucomisd %xmm4, %xmm2 jbe .LBB0_181 vdivsd %xmm1, %xmm7, %xmm0 vdivsd %xmm1, %xmm6, %xmm6 vmovsd 1752(%rbx), %xmm1 vmulsd %xmm6, %xmm1, %xmm7 vmulsd %xmm0, %xmm1, %xmm1 vmovsd 1744(%rbx), %xmm2 vaddsd %xmm1, %xmm2, %xmm2 vmulsd %xmm4, %xmm0, %xmm3 vmulsd %xmm3, %xmm6, %xmm1 vaddsd %xmm7, %xmm2, %xmm2 vmovsd 1784(%rbx), %xmm7 vmulsd %xmm3, %xmm7, %xmm3 vaddsd %xmm3, %xmm2, %xmm2 vmulsd %xmm0, %xmm0, %xmm3 vaddsd %xmm3, %xmm2, %xmm2 vaddsd %xmm1, %xmm2, %xmm1 vmulsd %xmm4, %xmm6, %xmm2 vmulsd %xmm2, %xmm7, %xmm2 vaddsd %xmm2, %xmm1, %xmm1 vmulsd 1496(%r13,%r15), %xmm6, %xmm2 vmulsd %xmm2, %xmm0, %xmm2 vmulsd %xmm6, %xmm6, %xmm3 vaddsd %xmm2, %xmm1, %xmm1 vaddsd %xmm3, %xmm1, %xmm7 vmovd %xmm7, %r10 movabsq $9223372036854775807, %rdx andq %rdx, %r10 vmovd %r10, %xmm1 vmovsd .LCPI0_13(%rip), %xmm2 vucomisd %xmm1, %xmm2 vmovapd %xmm2, %xmm1 ja .LBB0_178 vmovapd %xmm7, %xmm1 .LBB0_178: vmovd %xmm1, %rdx movabsq $9223372036854775807, %rdi andq %rdi, %rdx vmovd %rdx, %xmm2 vucomisd %xmm14, %xmm2 jb .LBB0_180 vmovsd .LCPI0_12(%rip), %xmm1 .LBB0_180: vsubsd %xmm1, %xmm14, %xmm1 vmovq %xmm1, %xmm1 vsqrtpd %xmm1, %xmm1 vdivsd %xmm1, %xmm14, %xmm1 vmulsd %xmm6, %xmm1, %xmm6 vmulsd %xmm0, %xmm1, %xmm7 vmulsd 1784(%rbx), %xmm1, %xmm0 .LBB0_181: movq 1624(%rbx), %rax vmovsd %xmm5, (%r9,%rax) movq 1616(%rbx), %rax vmovsd %xmm15, (%r9,%rax) movq 1608(%rbx), %rax vmovsd %xmm0, (%r9,%rax) movq 1600(%rbx), %rax vmovsd %xmm7, (%r9,%rax) movq 1592(%rbx), %rax vmovsd %xmm6, (%r9,%rax) addq $8, %r8 addl $-8, %ecx vmovsd %xmm11, (%r9,%r12) vmovsd %xmm10, (%r9,%r14) movq 1584(%rbx), %rax vmovsd %xmm9, (%r9,%rax) movq 1576(%rbx), %rax vmovsd %xmm8, (%r9,%rax) leaq 8(%r9), %r9 jne .LBB0_175 movq %r15, %rcx movq 1776(%rbx), %rax movq 1768(%rbx), %r11 movq 1760(%rbx), %r14 movq 1304(%rbx), %rdx jmp .LBB0_54 .align 16, 0x90 .LBB0_53: leaq 1472(%rcx,%r13), %rax leaq 1432(%rcx,%r13), %r11 leaq 1392(%rcx,%r13), %r14 movq 80(%rcx,%r13), %rdx sarq $32, %rdx .LBB0_54: movq %rax, 1776(%rbx) movq %r14, 1760(%rbx) movq %r11, 1768(%rbx) movl 72(%r13,%rcx), %eax imull $12, %edx, %esi leal 1152(%rax,%rsi), %r9d leal 144(%rax,%rsi), %r15d leal (%rax,%rsi), %r12d leal 1008(%rax,%rsi), %r8d leal 720(%rax,%rsi), %edx leal 864(%rax,%rsi), %edi vcvtsi2sdl 8(%r13,%rcx), %xmm0, %xmm1 vcvtsi2sdl 24(%r13,%rcx), %xmm0, %xmm0 movslq %edi, %rdi movq %rdi, 1696(%rbx) movslq %edx, %r10 movslq %r8d, %r8 movslq %r12d, %r12 movslq %r15d, %rdi movslq %r9d, %rdx vmovsd .LCPI0_6(%rip), %xmm2 vaddsd %xmm2, %xmm0, %xmm0 vaddsd %xmm2, %xmm1, %xmm1 leal 576(%rax,%rsi), %r9d vmovsd 1792(%rbx,%rdx,8), %xmm2 vmovsd %xmm2, 1672(%rbx) leal 288(%rax,%rsi), %edx vmaxsd 1792(%rbx,%rdi,8), %xmm12, %xmm2 vmovsd %xmm2, 1584(%rbx) vmaxsd 1792(%rbx,%r12,8), %xmm12, %xmm2 vmovsd %xmm2, 1304(%rbx) vmovsd 1792(%rbx,%r8,8), %xmm2 vmovsd %xmm2, 1592(%rbx) vmovsd 1792(%rbx,%r10,8), %xmm2 vmovsd %xmm2, 1288(%rbx) movq 1696(%rbx), %rdi vmovsd 1792(%rbx,%rdi,8), %xmm2 vmovsd %xmm2, 1280(%rbx) movslq %edx, %rdi movslq %r9d, %rdx movq %rcx, %r8 leal 432(%rax,%rsi), %eax movslq %eax, %rax vmovsd .LCPI0_14(%rip), %xmm2 vmulsd %xmm2, %xmm1, %xmm1 vmovsd %xmm1, 1576(%rbx) vmovsd 1792(%rbx,%rax,8), %xmm1 vmovsd %xmm1, 1664(%rbx) vmulsd %xmm2, %xmm0, %xmm0 vmovsd %xmm0, 1296(%rbx) vmovsd 1792(%rbx,%rdx,8), %xmm9 vmovsd %xmm9, 1648(%rbx) vmovsd 1792(%rbx,%rdi,8), %xmm12 vmovsd %xmm12, 1624(%rbx) movabsq $-4616189618054758400, %rcx movq %rcx, 1384(%r13,%r8) vxorps %xmm0, %xmm0, %xmm0 vmovups %xmm0, 16(%r14) vmovups %xmm0, (%r14) movabsq $4607182418800017408, %rax movq %rax, 1424(%r13,%r8) vmovups %xmm0, 16(%r11) vmovups %xmm0, (%r11) movq %rax, 1464(%r13,%r8) movq 1776(%rbx), %rdx vmovups %xmm0, 16(%rdx) vmovups %xmm0, (%rdx) movq %rax, 1504(%r13,%r8) movq %rcx, 1256(%r13,%r8) movabsq $-9223372036854775808, %rax movq %rax, 1264(%r13,%r8) movq %rax, 1272(%r13,%r8) vmovsd 1456(%r13,%r8), %xmm1 vmovsd %xmm1, 1680(%rbx) vmovsd 1400(%r13,%r8), %xmm6 vmovsd %xmm6, 1264(%rbx) vmovsd 1408(%r13,%r8), %xmm14 vmovsd %xmm14, 1272(%rbx) vmovsd (%r11), %xmm4 vmovsd %xmm4, 1600(%rbx) vmulsd %xmm4, %xmm14, %xmm0 vmovsd %xmm0, 1608(%rbx) vmulsd %xmm1, %xmm0, %xmm0 vmovaps %xmm1, %xmm2 vmovsd (%rdx), %xmm11 vmulsd %xmm11, %xmm6, %xmm13 vmovsd 1440(%r13,%r8), %xmm3 vmovsd %xmm3, 1696(%rbx) vmovsd (%r14), %xmm7 vmovsd %xmm7, 1640(%rbx) vmulsd %xmm3, %xmm7, %xmm5 vmovsd %xmm5, 1208(%rbx) vaddsd %xmm13, %xmm5, %xmm1 vmovaps %xmm5, %xmm15 vaddsd %xmm0, %xmm1, %xmm0 vmulsd %xmm4, %xmm7, %xmm1 vmovsd %xmm1, 1632(%rbx) vmulsd %xmm1, %xmm11, %xmm1 vsubsd %xmm1, %xmm0, %xmm0 vmulsd %xmm6, %xmm3, %xmm5 vmovsd %xmm5, 1200(%rbx) vmovaps %xmm6, %xmm7 vmulsd %xmm2, %xmm5, %xmm1 vmovaps %xmm5, %xmm8 vsubsd %xmm1, %xmm0, %xmm0 vmovaps %xmm12, %xmm2 vmulsd %xmm3, %xmm2, %xmm1 vmulsd %xmm1, %xmm9, %xmm1 vmulsd %xmm4, %xmm2, %xmm3 vmovapd %xmm4, %xmm10 vmovsd 1664(%rbx), %xmm12 vmulsd %xmm3, %xmm12, %xmm3 vaddsd %xmm1, %xmm3, %xmm1 vmulsd %xmm11, %xmm12, %xmm3 vmulsd %xmm3, %xmm9, %xmm3 vaddsd %xmm3, %xmm1, %xmm1 vmovsd %xmm1, 1656(%rbx) vmovaps %xmm14, %xmm3 vsubsd %xmm3, %xmm0, %xmm0 vmovsd .LCPI0_2(%rip), %xmm6 vxorpd %xmm6, %xmm0, %xmm0 vmovsd %xmm0, 1256(%rbx) vmovsd %xmm0, 1280(%r13,%r8) movq %rax, 1288(%r13,%r8) vmovsd 1448(%r13,%r8), %xmm9 vmovsd 1480(%r13,%r8), %xmm5 vmulsd %xmm5, %xmm13, %xmm1 vmovsd .LCPI0_15(%rip), %xmm4 vaddsd %xmm4, %xmm1, %xmm1 vmulsd %xmm9, %xmm3, %xmm13 vmovaps %xmm3, %xmm0 vmovsd 1496(%r13,%r8), %xmm2 vmulsd %xmm2, %xmm13, %xmm3 vaddsd %xmm3, %xmm1, %xmm1 vxorpd %xmm6, %xmm11, %xmm3 vmulsd %xmm2, %xmm3, %xmm3 vsubsd %xmm3, %xmm1, %xmm1 vmulsd %xmm9, %xmm7, %xmm3 vmovsd %xmm3, 1616(%rbx) vsubsd %xmm3, %xmm1, %xmm1 vmulsd %xmm0, %xmm5, %xmm3 vmovsd %xmm3, 1248(%rbx) vsubsd %xmm3, %xmm1, %xmm1 vxorpd %xmm6, %xmm1, %xmm1 vmovsd %xmm1, 1296(%r13,%r8) vxorpd %xmm6, %xmm10, %xmm1 vmulsd %xmm11, %xmm1, %xmm1 vmulsd %xmm9, %xmm8, %xmm3 vaddsd %xmm3, %xmm1, %xmm1 vmulsd %xmm5, %xmm15, %xmm3 vaddsd %xmm4, %xmm3, %xmm3 vmovsd %xmm3, 1216(%rbx) vmovsd 1416(%r13,%r8), %xmm3 vmulsd %xmm0, %xmm3, %xmm14 vaddsd %xmm14, %xmm1, %xmm1 vmovsd 1696(%rbx), %xmm0 vaddsd %xmm0, %xmm1, %xmm1 vmulsd %xmm3, %xmm7, %xmm8 vmulsd %xmm8, %xmm11, %xmm4 vsubsd %xmm4, %xmm1, %xmm1 vmovsd 1640(%rbx), %xmm4 vmulsd %xmm3, %xmm4, %xmm12 vmovapd %xmm6, %xmm15 vxorpd %xmm15, %xmm0, %xmm10 vmovsd 1680(%rbx), %xmm0 vmulsd %xmm0, %xmm10, %xmm3 vmulsd %xmm11, %xmm12, %xmm4 vaddsd %xmm4, %xmm3, %xmm3 vaddsd %xmm13, %xmm3, %xmm6 vmovsd 1608(%rbx), %xmm4 vmulsd %xmm4, %xmm9, %xmm3 vsubsd %xmm3, %xmm1, %xmm13 vmulsd %xmm5, %xmm4, %xmm1 vmulsd %xmm2, %xmm10, %xmm3 vaddsd %xmm8, %xmm3, %xmm3 vaddsd %xmm1, %xmm3, %xmm1 vmovsd 1200(%rbx), %xmm3 vmulsd %xmm5, %xmm3, %xmm3 vmovsd 1600(%rbx), %xmm5 vaddsd %xmm5, %xmm1, %xmm1 vsubsd %xmm3, %xmm1, %xmm1 vmulsd %xmm14, %xmm2, %xmm2 vsubsd %xmm2, %xmm1, %xmm1 vxorpd %xmm15, %xmm1, %xmm1 vmovsd %xmm1, 1304(%r13,%r8) vxorpd %xmm15, %xmm13, %xmm2 vmovsd %xmm2, 1312(%r13,%r8) movq %rax, 1320(%r13,%r8) vmovsd %xmm1, 1328(%r13,%r8) vmovsd 1208(%rbx), %xmm1 vmulsd %xmm9, %xmm1, %xmm1 vaddsd %xmm11, %xmm6, %xmm3 vsubsd %xmm1, %xmm3, %xmm1 vmulsd %xmm14, %xmm0, %xmm3 vsubsd %xmm3, %xmm1, %xmm1 vmovsd 1488(%r13,%r8), %xmm4 vmovsd %xmm4, 1608(%rbx) vmulsd %xmm4, %xmm14, %xmm3 vmovsd 1216(%rbx), %xmm6 vaddsd %xmm3, %xmm6, %xmm3 vmulsd %xmm4, %xmm10, %xmm4 vsubsd %xmm4, %xmm3, %xmm3 vsubsd %xmm12, %xmm3, %xmm3 vsubsd 1248(%rbx), %xmm3, %xmm3 vxorpd %xmm15, %xmm3, %xmm3 vmovsd %xmm3, 1336(%r13,%r8) vxorpd %xmm15, %xmm1, %xmm1 vmovsd %xmm1, 1344(%r13,%r8) vmovsd 1256(%rbx), %xmm13 vmovsd %xmm13, 1352(%r13,%r8) vmovsd %xmm2, 1360(%r13,%r8) vmovsd %xmm1, 1368(%r13,%r8) vmovsd 1632(%rbx), %xmm1 vmulsd %xmm9, %xmm1, %xmm1 vmovsd 1384(%r13,%r8), %xmm3 vmovsd %xmm3, 1248(%rbx) vmovsd 1464(%r13,%r8), %xmm14 vmulsd %xmm14, %xmm3, %xmm2 vaddsd %xmm1, %xmm2, %xmm1 vmulsd %xmm0, %xmm8, %xmm2 vaddsd %xmm2, %xmm1, %xmm1 vmulsd %xmm5, %xmm3, %xmm2 vmovaps %xmm5, %xmm10 vmulsd %xmm0, %xmm2, %xmm2 vsubsd %xmm2, %xmm1, %xmm1 vmulsd %xmm12, %xmm14, %xmm2 vsubsd %xmm2, %xmm1, %xmm1 vsubsd 1616(%rbx), %xmm1, %xmm1 vxorpd %xmm15, %xmm1, %xmm1 vmovsd %xmm1, 1376(%r13,%r8) vmovsd 1624(%rbx), %xmm6 vmulsd %xmm6, %xmm6, %xmm1 vmovsd .LCPI0_0(%rip), %xmm3 vaddsd %xmm3, %xmm1, %xmm1 vmovsd 1664(%rbx), %xmm0 vmulsd %xmm0, %xmm14, %xmm2 vmulsd %xmm2, %xmm0, %xmm2 vaddsd %xmm2, %xmm1, %xmm1 vmovsd 1504(%r13,%r8), %xmm7 vmovsd %xmm7, 1216(%rbx) vmovsd 1648(%rbx), %xmm5 vmulsd %xmm5, %xmm7, %xmm2 vmulsd %xmm2, %xmm5, %xmm2 vaddsd %xmm2, %xmm1, %xmm1 vmovsd 1656(%rbx), %xmm2 vaddsd %xmm2, %xmm2, %xmm2 vaddsd %xmm2, %xmm1, %xmm1 vmovsd 1256(%r13,%r8), %xmm2 vmovsd 1416(%r13,%r8), %xmm4 vxorpd %xmm15, %xmm2, %xmm2 vmovq %xmm2, %xmm2 vsqrtpd %xmm2, %xmm2 vdivsd %xmm2, %xmm3, %xmm2 vmovq %xmm1, %xmm1 vsqrtpd %xmm1, %xmm1 vmulsd %xmm1, %xmm13, %xmm3 vmulsd %xmm2, %xmm3, %xmm3 vsubsd %xmm3, %xmm5, %xmm5 vmovsd %xmm5, 1648(%rbx) vmulsd 1272(%r13,%r8), %xmm1, %xmm3 vmulsd %xmm2, %xmm3, %xmm3 vsubsd %xmm3, %xmm0, %xmm0 vmovsd %xmm0, 1664(%rbx) vmulsd 1264(%r13,%r8), %xmm1, %xmm3 vdivsd %xmm2, %xmm1, %xmm8 vmovsd %xmm8, 1632(%rbx) vmulsd %xmm2, %xmm3, %xmm1 vsubsd %xmm1, %xmm6, %xmm6 vmovsd %xmm6, 1656(%rbx) vmulsd %xmm8, %xmm4, %xmm1 vmovaps %xmm4, %xmm15 vaddsd %xmm6, %xmm1, %xmm1 vmulsd %xmm0, %xmm10, %xmm2 vaddsd %xmm2, %xmm1, %xmm1 vmovsd 1696(%rbx), %xmm2 vmulsd %xmm5, %xmm2, %xmm2 vaddsd %xmm2, %xmm1, %xmm3 vmovsd %xmm3, 1616(%rbx) vmulsd %xmm8, %xmm9, %xmm1 vmovsd 1680(%rbx), %xmm2 vmulsd %xmm6, %xmm2, %xmm2 vaddsd %xmm2, %xmm1, %xmm1 vmulsd %xmm0, %xmm14, %xmm2 vaddsd %xmm2, %xmm1, %xmm1 vmulsd %xmm5, %xmm11, %xmm2 vmovaps %xmm5, %xmm10 vaddsd %xmm2, %xmm1, %xmm1 vmovsd %xmm1, 1624(%rbx) vmovsd 1280(%rbx), %xmm13 vmulsd %xmm1, %xmm13, %xmm1 vmovsd 1288(%rbx), %xmm5 vmulsd %xmm3, %xmm5, %xmm2 vaddsd %xmm1, %xmm2, %xmm3 vmovsd 1608(%rbx), %xmm1 vmulsd %xmm6, %xmm1, %xmm1 vmovsd 1480(%r13,%r8), %xmm12 vmulsd %xmm8, %xmm12, %xmm2 vaddsd %xmm1, %xmm2, %xmm1 vmovsd 1496(%r13,%r8), %xmm2 vmovsd %xmm2, 1208(%rbx) vmulsd %xmm0, %xmm2, %xmm4 vaddsd %xmm4, %xmm1, %xmm1 vmulsd %xmm10, %xmm7, %xmm4 vaddsd %xmm4, %xmm1, %xmm1 vmovsd %xmm1, 1608(%rbx) vmovsd 1592(%rbx), %xmm2 vmulsd %xmm1, %xmm2, %xmm1 vaddsd %xmm1, %xmm3, %xmm7 vmovsd 1640(%rbx), %xmm14 vmulsd %xmm6, %xmm14, %xmm1 vmovsd 1248(%rbx), %xmm4 vmulsd %xmm8, %xmm4, %xmm3 vaddsd %xmm1, %xmm3, %xmm1 vmulsd %xmm6, %xmm7, %xmm3 vaddsd %xmm3, %xmm5, %xmm5 vmovsd 1264(%rbx), %xmm11 vmulsd %xmm0, %xmm11, %xmm3 vaddsd %xmm3, %xmm1, %xmm3 vmulsd %xmm0, %xmm7, %xmm1 vaddsd %xmm1, %xmm13, %xmm13 vmulsd %xmm7, %xmm4, %xmm6 vmulsd %xmm7, %xmm9, %xmm1 vmulsd %xmm10, %xmm7, %xmm0 vaddsd %xmm0, %xmm2, %xmm0 vmovsd %xmm0, 1280(%rbx) vmulsd %xmm7, %xmm15, %xmm0 vmovsd %xmm0, 1288(%rbx) vmovsd 1272(%rbx), %xmm15 vmulsd %xmm10, %xmm15, %xmm0 vaddsd %xmm0, %xmm3, %xmm0 vmovsd %xmm0, 1592(%rbx) vmovaps %xmm8, %xmm4 vdivsd %xmm4, %xmm5, %xmm2 vmovsd %xmm2, 1256(%rbx) vmulsd %xmm7, %xmm12, %xmm0 vmulsd 1488(%r13,%r8), %xmm2, %xmm3 vaddsd %xmm3, %xmm0, %xmm10 vmovsd 1680(%rbx), %xmm0 vmulsd %xmm2, %xmm0, %xmm3 vaddsd %xmm3, %xmm1, %xmm0 vmulsd %xmm2, %xmm14, %xmm1 vmovaps %xmm2, %xmm3 vaddsd %xmm1, %xmm6, %xmm1 vdivsd %xmm4, %xmm13, %xmm13 vmulsd %xmm13, %xmm11, %xmm6 vaddsd %xmm6, %xmm1, %xmm9 vmulsd 1464(%r13,%r8), %xmm13, %xmm6 vaddsd %xmm6, %xmm0, %xmm8 vmovsd 1208(%rbx), %xmm0 vmulsd %xmm13, %xmm0, %xmm2 vaddsd %xmm2, %xmm10, %xmm2 vmovsd 1280(%rbx), %xmm0 vdivsd %xmm4, %xmm0, %xmm6 vmulsd %xmm6, %xmm15, %xmm10 vmovsd 1216(%rbx), %xmm0 vmulsd %xmm6, %xmm0, %xmm1 vaddsd %xmm1, %xmm2, %xmm4 vmovsd %xmm4, 1136(%rbx) vmulsd (%rdx), %xmm6, %xmm1 vaddsd %xmm1, %xmm8, %xmm0 vmovsd %xmm0, 1160(%rbx) vaddsd %xmm10, %xmm9, %xmm2 vmovsd %xmm2, 1216(%rbx) vmovsd 1288(%rbx), %xmm1 vaddsd %xmm3, %xmm1, %xmm8 vmovsd 1600(%rbx), %xmm1 vmulsd %xmm13, %xmm1, %xmm1 vaddsd %xmm1, %xmm8, %xmm8 vmovsd 1696(%rbx), %xmm1 vmulsd %xmm6, %xmm1, %xmm1 vaddsd %xmm1, %xmm8, %xmm1 vmovsd %xmm1, 1176(%rbx) vmulsd %xmm1, %xmm3, %xmm1 vmovsd %xmm1, 1696(%rbx) vmulsd %xmm2, %xmm7, %xmm2 vmovsd %xmm2, 1640(%rbx) vaddsd %xmm1, %xmm2, %xmm2 vmulsd %xmm0, %xmm13, %xmm1 vmovsd %xmm1, 1288(%rbx) vaddsd %xmm1, %xmm2, %xmm0 vmulsd %xmm4, %xmm6, %xmm1 vmovsd %xmm1, 1272(%rbx) vaddsd %xmm1, %xmm0, %xmm0 vmovsd .LCPI0_4(%rip), %xmm1 vmaxsd %xmm0, %xmm1, %xmm3 vmovaps %xmm3, 1680(%rbx) vmovsd 1584(%rbx), %xmm1 vmovsd 1304(%rbx), %xmm0 vaddsd %xmm1, %xmm0, %xmm0 vmulsd .LCPI0_5(%rip), %xmm1, %xmm4 vmovsd %xmm4, 984(%rbx) vaddsd %xmm0, %xmm4, %xmm0 vxorps %xmm9, %xmm9, %xmm9 vmovsd 1296(%rbx), %xmm1 vaddsd %xmm9, %xmm1, %xmm1 vmovsd %xmm1, 1208(%rbx) vmovsd 1576(%rbx), %xmm2 vaddsd %xmm9, %xmm2, %xmm10 vaddsd %xmm0, %xmm3, %xmm0 vmulsd .LCPI0_6(%rip), %xmm3, %xmm3 vaddsd %xmm3, %xmm4, %xmm3 vmulsd %xmm9, %xmm3, %xmm14 vmovsd 1664(%rbx), %xmm4 vmulsd %xmm0, %xmm4, %xmm11 vmovsd 1656(%rbx), %xmm4 vmulsd %xmm0, %xmm4, %xmm9 vmovsd 1648(%rbx), %xmm4 vmulsd %xmm0, %xmm4, %xmm15 vmovsd 1632(%rbx), %xmm1 vmulsd %xmm0, %xmm1, %xmm12 vmovsd 1592(%rbx), %xmm8 vmulsd %xmm12, %xmm8, %xmm0 vaddsd %xmm0, %xmm3, %xmm0 vmovsd %xmm0, 1280(%rbx) vmovsd 1608(%rbx), %xmm2 vmulsd %xmm15, %xmm2, %xmm0 vaddsd %xmm0, %xmm3, %xmm0 vmovsd %xmm0, 1600(%rbx) vmovsd 1616(%rbx), %xmm4 vmulsd %xmm9, %xmm4, %xmm0 vaddsd %xmm0, %xmm3, %xmm0 vmovsd %xmm0, 1576(%rbx) vmovsd 1624(%rbx), %xmm1 vmulsd %xmm11, %xmm1, %xmm0 vaddsd %xmm0, %xmm3, %xmm0 vmovsd %xmm0, 1584(%rbx) vmulsd %xmm12, %xmm2, %xmm0 vaddsd %xmm0, %xmm14, %xmm0 vmovsd %xmm0, 1264(%rbx) vmulsd %xmm12, %xmm1, %xmm0 vaddsd %xmm0, %xmm14, %xmm0 vmovsd %xmm0, 1200(%rbx) vmulsd %xmm11, %xmm4, %xmm0 vmovsd %xmm0, 1248(%rbx) vmovaps %xmm8, %xmm0 vmulsd %xmm11, %xmm0, %xmm3 vmovsd %xmm3, 1296(%rbx) vmulsd %xmm11, %xmm2, %xmm5 vmulsd %xmm12, %xmm4, %xmm3 vmovsd %xmm3, 1184(%rbx) vmulsd %xmm9, %xmm2, %xmm8 vmovaps %xmm0, %xmm2 vmulsd %xmm9, %xmm2, %xmm12 vmovaps %xmm1, %xmm0 vmulsd %xmm9, %xmm0, %xmm11 vmulsd %xmm15, %xmm0, %xmm9 vmulsd %xmm15, %xmm2, %xmm0 vmulsd %xmm15, %xmm4, %xmm3 vaddsd %xmm3, %xmm14, %xmm1 vmovsd %xmm1, 1112(%rbx) vaddsd 1296(%rbx), %xmm14, %xmm1 vmovsd %xmm1, 1296(%rbx) vaddsd 1248(%rbx), %xmm14, %xmm1 vmovsd %xmm1, 1248(%rbx) vaddsd %xmm0, %xmm14, %xmm0 vmovsd %xmm0, 1088(%rbx) vaddsd %xmm9, %xmm14, %xmm15 vaddsd %xmm12, %xmm14, %xmm9 vaddsd 1184(%rbx), %xmm14, %xmm3 vaddsd %xmm5, %xmm14, %xmm12 vaddsd %xmm11, %xmm14, %xmm5 vaddsd %xmm8, %xmm14, %xmm14 vmovsd 1280(%rbx), %xmm0 vsubsd 1640(%rbx), %xmm0, %xmm0 vmovsd %xmm0, 1128(%rbx) vmovsd 1160(%rbx), %xmm4 vmulsd %xmm4, %xmm7, %xmm0 vmovsd 1200(%rbx), %xmm1 vsubsd %xmm0, %xmm1, %xmm0 vmovsd %xmm0, 1200(%rbx) vmovsd 1136(%rbx), %xmm1 vmulsd %xmm1, %xmm7, %xmm0 vmovsd 1264(%rbx), %xmm2 vsubsd %xmm0, %xmm2, %xmm0 vmovsd %xmm0, 1168(%rbx) vmovsd 1176(%rbx), %xmm2 vmulsd %xmm2, %xmm7, %xmm0 vsubsd %xmm0, %xmm3, %xmm0 vmovsd %xmm0, 1120(%rbx) vmovsd 1576(%rbx), %xmm0 vsubsd 1696(%rbx), %xmm0, %xmm0 vmovsd %xmm0, 1264(%rbx) vmovsd 1216(%rbx), %xmm3 vmovsd 1256(%rbx), %xmm8 vmulsd %xmm3, %xmm8, %xmm0 vsubsd %xmm0, %xmm9, %xmm0 vmovsd %xmm0, 1184(%rbx) vmovsd 1600(%rbx), %xmm0 vsubsd 1272(%rbx), %xmm0, %xmm0 vmovsd %xmm0, 1696(%rbx) vmulsd %xmm4, %xmm6, %xmm0 vmovaps %xmm4, %xmm9 vsubsd %xmm0, %xmm15, %xmm0 vmovsd %xmm0, 1640(%rbx) vmulsd %xmm2, %xmm6, %xmm0 vmovsd 1112(%rbx), %xmm4 vsubsd %xmm0, %xmm4, %xmm0 vmovsd %xmm0, 1600(%rbx) vmulsd %xmm3, %xmm6, %xmm0 vmovsd 1088(%rbx), %xmm4 vsubsd %xmm0, %xmm4, %xmm0 vmovsd %xmm0, 1576(%rbx) vmulsd %xmm1, %xmm13, %xmm0 vsubsd %xmm0, %xmm12, %xmm0 vmovsd %xmm0, 1280(%rbx) vmovsd 1584(%rbx), %xmm0 vsubsd 1288(%rbx), %xmm0, %xmm0 vmovsd %xmm0, 1272(%rbx) vmulsd %xmm2, %xmm13, %xmm0 vmovsd 1248(%rbx), %xmm4 vsubsd %xmm0, %xmm4, %xmm0 vmovsd %xmm0, 1248(%rbx) vmulsd %xmm3, %xmm13, %xmm0 vmovsd 1296(%rbx), %xmm4 vsubsd %xmm0, %xmm4, %xmm0 vmovsd %xmm0, 1584(%rbx) vmovaps %xmm8, %xmm4 vmulsd %xmm1, %xmm4, %xmm0 vsubsd %xmm0, %xmm14, %xmm0 vmovsd %xmm0, 1296(%rbx) vmulsd %xmm9, %xmm4, %xmm0 vsubsd %xmm0, %xmm5, %xmm0 vmovsd %xmm0, 1288(%rbx) vmovsd 1672(%rbx), %xmm4 vmulsd %xmm4, %xmm7, %xmm15 vmulsd %xmm4, %xmm2, %xmm14 vmulsd %xmm4, %xmm9, %xmm9 vmulsd %xmm4, %xmm1, %xmm11 vmulsd %xmm4, %xmm3, %xmm0 vmulsd %xmm4, %xmm8, %xmm1 vmulsd %xmm4, %xmm6, %xmm7 vmulsd %xmm4, %xmm13, %xmm5 vmovq 1680(%rbx), %xmm4 vsqrtpd %xmm4, %xmm4 vdivsd %xmm4, %xmm15, %xmm3 vdivsd %xmm4, %xmm14, %xmm13 vdivsd %xmm4, %xmm0, %xmm15 vdivsd %xmm4, %xmm5, %xmm8 vdivsd %xmm4, %xmm7, %xmm0 vdivsd %xmm4, %xmm1, %xmm7 vdivsd %xmm4, %xmm11, %xmm14 vdivsd %xmm4, %xmm9, %xmm11 vmovsd 1592(%rbx), %xmm2 vmulsd %xmm3, %xmm2, %xmm4 vmovsd 1128(%rbx), %xmm1 vaddsd %xmm4, %xmm1, %xmm4 vmovsd 1632(%rbx), %xmm6 vmulsd %xmm15, %xmm6, %xmm5 vaddsd %xmm5, %xmm4, %xmm4 vmovsd %xmm4, 1512(%r13,%r8) vmovsd 1616(%rbx), %xmm12 vmulsd %xmm3, %xmm12, %xmm4 vmovsd 1120(%rbx), %xmm1 vaddsd %xmm4, %xmm1, %xmm4 vmulsd %xmm13, %xmm6, %xmm5 vaddsd %xmm5, %xmm4, %xmm4 vmovsd %xmm4, 1520(%r13,%r8) vmovsd 1608(%rbx), %xmm1 vmulsd %xmm3, %xmm1, %xmm4 vmovsd 1168(%rbx), %xmm5 vaddsd %xmm4, %xmm5, %xmm9 vmovsd 1624(%rbx), %xmm4 vmulsd %xmm3, %xmm4, %xmm3 vmovsd 1200(%rbx), %xmm5 vaddsd %xmm3, %xmm5, %xmm3 vmulsd %xmm11, %xmm6, %xmm5 vaddsd %xmm5, %xmm3, %xmm3 vmovsd %xmm3, 1528(%r13,%r8) vmulsd %xmm14, %xmm6, %xmm3 vaddsd %xmm3, %xmm9, %xmm3 vmovsd %xmm3, 1680(%rbx) vmulsd %xmm7, %xmm2, %xmm3 vmovsd 1184(%rbx), %xmm5 vaddsd %xmm3, %xmm5, %xmm3 vmovsd %xmm3, 1256(%rbx) vmovaps %xmm12, %xmm5 vmulsd %xmm7, %xmm5, %xmm3 vmovsd 1264(%rbx), %xmm6 vaddsd %xmm3, %xmm6, %xmm12 vmulsd %xmm0, %xmm1, %xmm3 vmovsd %xmm3, 1264(%rbx) vmulsd %xmm0, %xmm4, %xmm3 vmovsd %xmm3, 1216(%rbx) vmulsd %xmm0, %xmm5, %xmm3 vmovaps %xmm5, %xmm6 vmulsd %xmm0, %xmm2, %xmm5 vmulsd %xmm8, %xmm6, %xmm0 vmulsd %xmm8, %xmm2, %xmm2 vmovsd %xmm2, 1592(%rbx) vmulsd %xmm8, %xmm1, %xmm9 vmulsd %xmm8, %xmm4, %xmm6 vmulsd %xmm7, %xmm1, %xmm1 vmulsd %xmm7, %xmm4, %xmm7 vmovsd 1680(%rbx), %xmm2 vmovsd %xmm2, 1536(%r13,%r8) vmovsd 1248(%rbx), %xmm2 vaddsd %xmm0, %xmm2, %xmm0 vmovsd %xmm0, 1680(%rbx) vmovsd 1272(%rbx), %xmm0 vaddsd %xmm6, %xmm0, %xmm0 vmovsd %xmm0, 1632(%rbx) vmovsd 1280(%rbx), %xmm0 vaddsd %xmm9, %xmm0, %xmm0 vmovsd %xmm0, 1624(%rbx) vmovsd 1576(%rbx), %xmm0 vaddsd %xmm5, %xmm0, %xmm0 vmovsd %xmm0, 1616(%rbx) vmovsd 1600(%rbx), %xmm0 vaddsd %xmm3, %xmm0, %xmm0 vmovsd %xmm0, 1608(%rbx) vmovsd 1640(%rbx), %xmm0 vaddsd 1216(%rbx), %xmm0, %xmm0 vmovsd %xmm0, 1640(%rbx) vmovsd 1696(%rbx), %xmm0 vaddsd 1264(%rbx), %xmm0, %xmm0 vmovsd %xmm0, 1600(%rbx) vmovsd 1656(%rbx), %xmm4 vmovaps %xmm13, %xmm2 vmulsd %xmm2, %xmm4, %xmm3 vaddsd %xmm3, %xmm12, %xmm0 vmovsd %xmm0, 1576(%rbx) vmulsd %xmm15, %xmm4, %xmm3 vmovaps %xmm4, %xmm8 vmovsd 1256(%rbx), %xmm0 vaddsd %xmm3, %xmm0, %xmm6 vmovsd 1288(%rbx), %xmm0 vaddsd %xmm7, %xmm0, %xmm13 vmovsd 1296(%rbx), %xmm0 vaddsd %xmm1, %xmm0, %xmm0 vmovsd %xmm0, 1696(%rbx) vmovsd 1584(%rbx), %xmm0 vaddsd 1592(%rbx), %xmm0, %xmm0 vmovsd %xmm0, 1592(%rbx) vmovsd 1648(%rbx), %xmm0 vmulsd %xmm15, %xmm0, %xmm1 vmovsd %xmm1, 1584(%rbx) vmulsd %xmm2, %xmm0, %xmm1 vmulsd %xmm11, %xmm0, %xmm7 vmulsd %xmm14, %xmm0, %xmm9 vmovsd 1664(%rbx), %xmm4 vmulsd %xmm14, %xmm4, %xmm5 vmulsd %xmm14, %xmm8, %xmm12 vmulsd %xmm11, %xmm8, %xmm14 vmulsd %xmm15, %xmm4, %xmm3 vmulsd %xmm2, %xmm4, %xmm0 vmulsd %xmm11, %xmm4, %xmm4 vmovsd %xmm6, 1544(%r13,%r8) vmovsd 1576(%rbx), %xmm2 vmovsd %xmm2, 1552(%r13,%r8) vmovsd 1600(%rbx), %xmm2 vaddsd %xmm9, %xmm2, %xmm15 vmovsd 1640(%rbx), %xmm2 vaddsd %xmm7, %xmm2, %xmm2 vmovsd 1608(%rbx), %xmm6 vaddsd %xmm1, %xmm6, %xmm1 vmovsd 1616(%rbx), %xmm6 vaddsd 1584(%rbx), %xmm6, %xmm11 vmovsd 1624(%rbx), %xmm6 vaddsd %xmm5, %xmm6, %xmm8 vmovsd 1632(%rbx), %xmm5 vaddsd %xmm4, %xmm5, %xmm4 vmovsd 1680(%rbx), %xmm5 vaddsd %xmm0, %xmm5, %xmm6 vmovsd 1592(%rbx), %xmm0 vaddsd %xmm3, %xmm0, %xmm0 vmovsd 1696(%rbx), %xmm3 vaddsd %xmm12, %xmm3, %xmm3 vaddsd %xmm14, %xmm13, %xmm5 movq 128(%rbx), %rax leaq (%rax,%r8), %rcx leaq 1224(%r13,%r8), %rax movq %rax, 1696(%rbx) movl $4, %edx vmovsd %xmm5, 1560(%r13,%r8) vmovsd %xmm3, 1568(%r13,%r8) vmovsd %xmm0, 1576(%r13,%r8) vmovsd %xmm6, 1584(%r13,%r8) vxorps %xmm6, %xmm6, %xmm6 vmovsd %xmm4, 1592(%r13,%r8) vmovsd %xmm8, 1600(%r13,%r8) vmovsd %xmm11, 1608(%r13,%r8) vmovsd %xmm1, 1616(%r13,%r8) vmovsd 1208(%rbx), %xmm1 vmovsd %xmm2, 1624(%r13,%r8) vmovsd %xmm15, 1632(%r13,%r8) movq 856(%rbx), %rsi xorl %edi, %edi vmovsd .LCPI0_16(%rip), %xmm4 vmovsd .LCPI0_17(%rip), %xmm5 .align 16, 0x90 .LBB0_55: movq $0, 1224(%r13,%r8) vmovsd %xmm10, 1232(%r13,%r8) vmovsd %xmm1, 1240(%r13,%r8) movq $0, 1248(%r13,%r8) movq $0, 1192(%r13,%r8) vmovsd %xmm10, 1200(%r13,%r8) movl $32, %r11d vmovsd %xmm1, 1208(%r13,%r8) decl %edx movq $0, 1216(%r13,%r8) vaddsd (%rsi), %xmm4, %xmm0 leaq 8(%rsi), %rsi vmovsd %xmm0, (%rcx,%rdi,8) vaddsd -32(%rcx,%rdi,8), %xmm5, %xmm3 vsubsd %xmm0, %xmm3, %xmm0 vdivsd %xmm0, %xmm6, %xmm0 vmovsd %xmm3, -32(%rcx,%rdi,8) vmovsd %xmm0, -544(%rcx,%rdi,8) vmovsd %xmm0, -512(%rcx,%rdi,8) vmovsd %xmm0, -480(%rcx,%rdi,8) vmovsd %xmm0, -448(%rcx,%rdi,8) vmovsd %xmm0, -416(%rcx,%rdi,8) vmovsd %xmm0, -384(%rcx,%rdi,8) vmovsd %xmm0, -352(%rcx,%rdi,8) vmovsd %xmm0, -320(%rcx,%rdi,8) vmovsd %xmm0, -288(%rcx,%rdi,8) vmovsd %xmm0, -256(%rcx,%rdi,8) vmovsd %xmm0, -224(%rcx,%rdi,8) vmovsd %xmm0, -192(%rcx,%rdi,8) vmovsd %xmm0, -160(%rcx,%rdi,8) vmovsd %xmm0, -128(%rcx,%rdi,8) vmovsd %xmm0, -96(%rcx,%rdi,8) vmovsd %xmm0, -64(%rcx,%rdi,8) leaq 1(%rdi), %rdi jne .LBB0_55 movq %r8, 1336(%rbx) movq 1312(%rbx), %rax movq %rax, %rdx movq %rax, %rsi movq %r13, %r12 movq 888(%rbx), %r13 movq 872(%rbx), %rdi vmovaps 1728(%rbx), %xmm11 vmovsd .LCPI0_6(%rip), %xmm12 movq 152(%rbx), %r15 movq 144(%rbx), %r14 movq 136(%rbx), %r9 movq 1704(%rbx), %rcx .align 16, 0x90 .LBB0_57: movq %r12, %rax subq %r13, %rax vmovsd (%rcx,%rsi), %xmm0 vaddsd %xmm0, %xmm0, %xmm0 vsubsd 680(%r12,%rdx), %xmm0, %xmm0 vmulsd %xmm12, %xmm0, %xmm0 vmovsd %xmm0, (%rax) movq 1352(%rbx), %rax vmovsd (%rax,%rsi), %xmm0 addq $-128, %r13 vaddsd (%r9,%rsi), %xmm0, %xmm2 vsubsd (%r9,%rdx), %xmm2, %xmm0 leaq 8(%rdx), %r10 leaq 32(%rsi), %rax movq %rdi, %r8 subq $-128, %r8 vmulsd %xmm12, %xmm0, %xmm0 vmovsd %xmm0, -112(%r12,%rdi) movq 1360(%rbx), %rcx vmovsd (%rcx,%rsi), %xmm0 vaddsd (%r14,%rsi), %xmm0, %xmm1 vsubsd (%r14,%rdx), %xmm1, %xmm0 vmulsd %xmm12, %xmm0, %xmm0 vmovsd %xmm0, -104(%r12,%rdi) movq 1368(%rbx), %rcx vmovsd (%rcx,%rsi), %xmm0 vaddsd (%r15,%rsi), %xmm0, %xmm0 vsubsd (%r15,%rdx), %xmm0, %xmm3 vmulsd %xmm12, %xmm3, %xmm3 vmovsd %xmm3, -96(%r12,%rdi) movq 1376(%rbx), %rcx vsubsd (%rcx,%rdx), %xmm2, %xmm2 vmulsd %xmm12, %xmm2, %xmm2 vmovsd %xmm2, -88(%r12,%rdi) movq 1384(%rbx), %rcx vmovsd (%rcx,%rsi), %xmm2 vaddsd %xmm2, %xmm2, %xmm2 movq 1392(%rbx), %rcx vsubsd (%rcx,%rdx), %xmm2, %xmm2 vmulsd %xmm12, %xmm2, %xmm2 vmovsd %xmm2, -80(%r12,%rdi) movq 1400(%rbx), %rcx vmovsd (%rcx,%rsi), %xmm2 addl $-8, %r11d movq 1408(%rbx), %rcx vaddsd (%rcx,%rsi), %xmm2, %xmm3 movq 1416(%rbx), %rcx vsubsd (%rcx,%rdx), %xmm3, %xmm2 vmulsd %xmm12, %xmm2, %xmm2 vmovsd %xmm2, -72(%r12,%rdi) movq 1424(%rbx), %rcx vmovsd (%rcx,%rsi), %xmm2 movq 1432(%rbx), %rcx vaddsd (%rcx,%rsi), %xmm2, %xmm2 movq 1440(%rbx), %rcx vsubsd (%rcx,%rdx), %xmm2, %xmm4 vmulsd %xmm12, %xmm4, %xmm4 vmovsd %xmm4, -64(%r12,%rdi) movq 1448(%rbx), %rcx vsubsd (%rcx,%rdx), %xmm1, %xmm1 vmulsd %xmm12, %xmm1, %xmm1 vmovsd %xmm1, -56(%r12,%rdi) movq 1456(%rbx), %rcx vsubsd (%rcx,%rdx), %xmm3, %xmm1 vmulsd %xmm12, %xmm1, %xmm1 vmovsd %xmm1, -48(%r12,%rdi) movq 1464(%rbx), %rcx vmovsd (%rcx,%rsi), %xmm1 vaddsd %xmm1, %xmm1, %xmm1 movq 1472(%rbx), %rcx vsubsd (%rcx,%rdx), %xmm1, %xmm1 vmulsd %xmm12, %xmm1, %xmm1 vmovsd %xmm1, -40(%r12,%rdi) movq 1480(%rbx), %rcx vmovsd (%rcx,%rsi), %xmm1 movq 1488(%rbx), %rcx vaddsd (%rcx,%rsi), %xmm1, %xmm1 movq 1496(%rbx), %rcx vsubsd (%rcx,%rdx), %xmm1, %xmm3 vmulsd %xmm12, %xmm3, %xmm3 vmovsd %xmm3, -32(%r12,%rdi) movq 1504(%rbx), %rcx vsubsd (%rcx,%rdx), %xmm0, %xmm0 vmulsd %xmm12, %xmm0, %xmm0 vmovsd %xmm0, -24(%r12,%rdi) movq 1512(%rbx), %rcx vsubsd (%rcx,%rdx), %xmm2, %xmm0 vmulsd %xmm12, %xmm0, %xmm0 vmovsd %xmm0, -16(%r12,%rdi) movq 1520(%rbx), %rcx vsubsd (%rcx,%rdx), %xmm1, %xmm0 vmulsd %xmm12, %xmm0, %xmm0 vmovsd %xmm0, -8(%r12,%rdi) movq 1528(%rbx), %rcx vmovsd (%rcx,%rsi), %xmm0 vaddsd %xmm0, %xmm0, %xmm0 movq 1712(%rbx), %rcx vsubsd (%rcx,%rdx), %xmm0, %xmm0 vmulsd %xmm12, %xmm0, %xmm0 vmovsd %xmm0, (%r12,%rdi) movq %r10, %rdx movq %rax, %rsi movq %r8, %rdi movq 1704(%rbx), %rcx jne .LBB0_57 movq 1336(%rbx), %r14 leaq (%rcx,%r14), %rax movl $128, %r9d movq 1312(%rbx), %r10 movq 896(%rbx), %rsi xorl %edi, %edi movq %r12, %r13 movq 160(%rbx), %r12 .align 16, 0x90 .LBB0_59: movq 1560(%rbx), %r11 subq %rsi, %r11 vmovsd (%r11), %xmm0 vmulsd 296(%r13,%r14), %xmm0, %xmm2 movq 1536(%rbx), %r15 subq %rsi, %r15 vmovsd (%r15), %xmm1 vmulsd 168(%r13,%r14), %xmm1, %xmm3 vaddsd %xmm6, %xmm3, %xmm3 vaddsd %xmm2, %xmm3, %xmm3 movq 1568(%rbx), %rdx subq %rsi, %rdx vmovsd (%rdx), %xmm2 vmulsd 424(%r13,%r14), %xmm2, %xmm4 vaddsd %xmm4, %xmm3, %xmm4 movq %r12, %rcx subq %rsi, %rcx vmovsd (%rcx), %xmm3 vmulsd 552(%r13,%r14), %xmm3, %xmm5 addq $-32, %rsi vaddsd %xmm5, %xmm4, %xmm4 vmovsd %xmm4, 680(%r13,%r10) subq $-128, %r10 leaq 32(%rdi), %r8 addl $-32, %r9d vmulsd 304(%r13,%r14), %xmm0, %xmm4 vmulsd 176(%r13,%r14), %xmm1, %xmm5 vaddsd %xmm6, %xmm5, %xmm5 vaddsd %xmm4, %xmm5, %xmm4 vmulsd 432(%r13,%r14), %xmm2, %xmm5 vaddsd %xmm5, %xmm4, %xmm4 vmulsd 560(%r13,%r14), %xmm3, %xmm5 vaddsd %xmm5, %xmm4, %xmm4 vmovsd %xmm4, 8(%rax,%rdi,4) vmulsd 312(%r13,%r14), %xmm0, %xmm4 vmulsd 184(%r13,%r14), %xmm1, %xmm5 vaddsd %xmm6, %xmm5, %xmm5 vaddsd %xmm4, %xmm5, %xmm4 vmulsd 440(%r13,%r14), %xmm2, %xmm5 vaddsd %xmm5, %xmm4, %xmm4 vmulsd 568(%r13,%r14), %xmm3, %xmm5 vaddsd %xmm5, %xmm4, %xmm4 vmovsd %xmm4, 16(%rax,%rdi,4) vmulsd 320(%r13,%r14), %xmm0, %xmm4 vmulsd 192(%r13,%r14), %xmm1, %xmm5 vaddsd %xmm6, %xmm5, %xmm5 vaddsd %xmm4, %xmm5, %xmm4 vmulsd 448(%r13,%r14), %xmm2, %xmm5 vaddsd %xmm5, %xmm4, %xmm4 vmulsd 576(%r13,%r14), %xmm3, %xmm5 vaddsd %xmm5, %xmm4, %xmm4 vmovsd %xmm4, 24(%rax,%rdi,4) vmulsd 328(%r13,%r14), %xmm0, %xmm4 vmulsd 200(%r13,%r14), %xmm1, %xmm5 vaddsd %xmm6, %xmm5, %xmm5 vaddsd %xmm4, %xmm5, %xmm4 vmulsd 456(%r13,%r14), %xmm2, %xmm5 vaddsd %xmm5, %xmm4, %xmm4 vmulsd 584(%r13,%r14), %xmm3, %xmm5 vaddsd %xmm5, %xmm4, %xmm4 vmovsd %xmm4, 32(%rax,%rdi,4) vmulsd 336(%r13,%r14), %xmm0, %xmm4 vmulsd 208(%r13,%r14), %xmm1, %xmm5 vaddsd %xmm6, %xmm5, %xmm5 vaddsd %xmm4, %xmm5, %xmm4 vmulsd 464(%r13,%r14), %xmm2, %xmm5 vaddsd %xmm5, %xmm4, %xmm4 vmulsd 592(%r13,%r14), %xmm3, %xmm3 vaddsd %xmm3, %xmm4, %xmm3 vmovsd %xmm3, 40(%rax,%rdi,4) vmulsd 344(%r13,%r14), %xmm0, %xmm3 vmulsd 216(%r13,%r14), %xmm1, %xmm4 vaddsd %xmm6, %xmm4, %xmm4 vaddsd %xmm3, %xmm4, %xmm3 vmulsd 472(%r13,%r14), %xmm2, %xmm4 vaddsd %xmm4, %xmm3, %xmm4 vmovsd (%rcx), %xmm3 vmulsd 600(%r13,%r14), %xmm3, %xmm5 vaddsd %xmm5, %xmm4, %xmm4 vmovsd %xmm4, 48(%rax,%rdi,4) vmulsd 352(%r13,%r14), %xmm0, %xmm4 vmulsd 224(%r13,%r14), %xmm1, %xmm5 vaddsd %xmm6, %xmm5, %xmm5 vaddsd %xmm4, %xmm5, %xmm4 vmulsd 480(%r13,%r14), %xmm2, %xmm5 vaddsd %xmm5, %xmm4, %xmm4 vmulsd 608(%r13,%r14), %xmm3, %xmm5 vaddsd %xmm5, %xmm4, %xmm4 vmovsd %xmm4, 56(%rax,%rdi,4) vmulsd 360(%r13,%r14), %xmm0, %xmm4 vmulsd 232(%r13,%r14), %xmm1, %xmm5 vaddsd %xmm6, %xmm5, %xmm5 vaddsd %xmm4, %xmm5, %xmm4 vmulsd 488(%r13,%r14), %xmm2, %xmm5 vaddsd %xmm5, %xmm4, %xmm4 vmulsd 616(%r13,%r14), %xmm3, %xmm5 vaddsd %xmm5, %xmm4, %xmm4 vmovsd %xmm4, 64(%rax,%rdi,4) vmulsd 368(%r13,%r14), %xmm0, %xmm4 vmulsd 240(%r13,%r14), %xmm1, %xmm5 vaddsd %xmm6, %xmm5, %xmm5 vaddsd %xmm4, %xmm5, %xmm4 vmulsd 496(%r13,%r14), %xmm2, %xmm5 vaddsd %xmm5, %xmm4, %xmm4 vmulsd 624(%r13,%r14), %xmm3, %xmm5 vaddsd %xmm5, %xmm4, %xmm4 vmovsd %xmm4, 72(%rax,%rdi,4) vmulsd 376(%r13,%r14), %xmm0, %xmm0 vmulsd 248(%r13,%r14), %xmm1, %xmm1 vaddsd %xmm6, %xmm1, %xmm1 vaddsd %xmm0, %xmm1, %xmm0 vmulsd 504(%r13,%r14), %xmm2, %xmm1 vaddsd %xmm1, %xmm0, %xmm0 vmulsd 632(%r13,%r14), %xmm3, %xmm1 vaddsd %xmm1, %xmm0, %xmm0 vmovsd %xmm0, 80(%rax,%rdi,4) vmovsd (%r11), %xmm0 vmulsd 384(%r13,%r14), %xmm0, %xmm2 vmovsd (%r15), %xmm1 vmulsd 256(%r13,%r14), %xmm1, %xmm4 vaddsd %xmm6, %xmm4, %xmm4 vaddsd %xmm2, %xmm4, %xmm4 vmovsd (%rdx), %xmm2 vmulsd 512(%r13,%r14), %xmm2, %xmm5 vaddsd %xmm5, %xmm4, %xmm4 vmulsd 640(%r13,%r14), %xmm3, %xmm3 vaddsd %xmm3, %xmm4, %xmm3 vmovsd %xmm3, 88(%rax,%rdi,4) vmulsd 392(%r13,%r14), %xmm0, %xmm3 vmulsd 264(%r13,%r14), %xmm1, %xmm4 vaddsd %xmm6, %xmm4, %xmm4 vaddsd %xmm3, %xmm4, %xmm3 vmulsd 520(%r13,%r14), %xmm2, %xmm4 vaddsd %xmm4, %xmm3, %xmm4 vmovsd (%rcx), %xmm3 vmulsd 648(%r13,%r14), %xmm3, %xmm5 vaddsd %xmm5, %xmm4, %xmm4 vmovsd %xmm4, 96(%rax,%rdi,4) vmulsd 400(%r13,%r14), %xmm0, %xmm4 vmulsd 272(%r13,%r14), %xmm1, %xmm5 vaddsd %xmm6, %xmm5, %xmm5 vaddsd %xmm4, %xmm5, %xmm4 vmulsd 528(%r13,%r14), %xmm2, %xmm5 vaddsd %xmm5, %xmm4, %xmm4 vmulsd 656(%r13,%r14), %xmm3, %xmm5 vaddsd %xmm5, %xmm4, %xmm4 vmovsd %xmm4, 104(%rax,%rdi,4) vmulsd 408(%r13,%r14), %xmm0, %xmm4 vmulsd 280(%r13,%r14), %xmm1, %xmm5 vaddsd %xmm6, %xmm5, %xmm5 vaddsd %xmm4, %xmm5, %xmm4 vmulsd 536(%r13,%r14), %xmm2, %xmm5 vaddsd %xmm5, %xmm4, %xmm4 vmulsd 664(%r13,%r14), %xmm3, %xmm5 vaddsd %xmm5, %xmm4, %xmm4 vmovsd %xmm4, 112(%rax,%rdi,4) vmulsd 416(%r13,%r14), %xmm0, %xmm0 vmulsd 288(%r13,%r14), %xmm1, %xmm1 vaddsd %xmm6, %xmm1, %xmm1 vaddsd %xmm0, %xmm1, %xmm0 vmulsd 544(%r13,%r14), %xmm2, %xmm1 vaddsd %xmm1, %xmm0, %xmm0 vmulsd 672(%r13,%r14), %xmm3, %xmm1 vaddsd %xmm1, %xmm0, %xmm0 vmovsd %xmm0, 120(%rax,%rdi,4) movq %r8, %rdi jne .LBB0_59 movq 1712(%rbx), %rax leaq (%rax,%r14), %rax movl $32, %ecx vmovsd 120(%r14,%r13), %xmm8 vmovsd 112(%r14,%r13), %xmm13 vmovsd 96(%r14,%r13), %xmm7 vmovsd 104(%r14,%r13), %xmm6 movq 880(%rbx), %rdx movq 1312(%rbx), %rsi xorl %edi, %edi movq 192(%rbx), %r8 movq 184(%rbx), %r9 movq 176(%rbx), %r10 movq 168(%rbx), %r11 .align 16, 0x90 .LBB0_61: vmovsd (%r11,%rsi), %xmm1 vmovsd (%r10,%rsi), %xmm0 vmulsd -448(%rax,%rdi), %xmm1, %xmm4 vmulsd -416(%rax,%rdi), %xmm1, %xmm2 vmulsd -384(%rax,%rdi), %xmm1, %xmm3 vmulsd 1160(%r13,%rdx), %xmm1, %xmm5 vmulsd %xmm11, %xmm4, %xmm1 vmulsd -256(%rax,%rdi), %xmm0, %xmm4 vsubsd %xmm1, %xmm6, %xmm1 vmulsd %xmm11, %xmm5, %xmm6 vmulsd %xmm11, %xmm3, %xmm5 vmulsd %xmm11, %xmm2, %xmm3 vmulsd %xmm11, %xmm4, %xmm4 vmulsd -352(%rax,%rdi), %xmm0, %xmm2 vsubsd %xmm5, %xmm8, %xmm5 vmulsd %xmm11, %xmm2, %xmm2 vsubsd %xmm6, %xmm7, %xmm7 vmulsd -320(%rax,%rdi), %xmm0, %xmm6 vmulsd %xmm11, %xmm6, %xmm6 vsubsd %xmm6, %xmm1, %xmm8 vmovsd (%r9,%rsi), %xmm6 vsubsd %xmm2, %xmm7, %xmm9 vmulsd -224(%rax,%rdi), %xmm6, %xmm1 vsubsd %xmm4, %xmm5, %xmm5 vmulsd %xmm11, %xmm1, %xmm10 vmulsd -128(%rax,%rdi), %xmm6, %xmm1 vmulsd %xmm11, %xmm1, %xmm7 vsubsd %xmm3, %xmm13, %xmm1 vmulsd -192(%rax,%rdi), %xmm6, %xmm3 vmulsd -160(%rax,%rdi), %xmm6, %xmm4 vmulsd -288(%rax,%rdi), %xmm0, %xmm0 vmulsd %xmm11, %xmm0, %xmm0 vsubsd %xmm0, %xmm1, %xmm2 vmulsd %xmm11, %xmm4, %xmm4 vmulsd %xmm11, %xmm3, %xmm1 vmovsd (%r8,%rsi), %xmm6 vsubsd %xmm7, %xmm5, %xmm3 vmulsd -64(%rax,%rdi), %xmm6, %xmm5 vsubsd %xmm10, %xmm9, %xmm0 vmulsd -96(%rax,%rdi), %xmm6, %xmm7 vsubsd %xmm1, %xmm8, %xmm1 vsubsd %xmm4, %xmm2, %xmm4 vmulsd %xmm11, %xmm7, %xmm2 vmulsd %xmm11, %xmm5, %xmm5 vmulsd -32(%rax,%rdi), %xmm6, %xmm7 vmulsd %xmm11, %xmm7, %xmm7 vmulsd (%rax,%rdi), %xmm6, %xmm6 vmulsd %xmm11, %xmm6, %xmm6 vsubsd %xmm6, %xmm3, %xmm8 vsubsd %xmm7, %xmm4, %xmm13 vsubsd %xmm5, %xmm1, %xmm6 vsubsd %xmm2, %xmm0, %xmm7 addq $8, %rdx addq $32, %rsi addq $8, %rdi addl $-8, %ecx jne .LBB0_61 vmovsd %xmm7, 816(%rbx) vmovsd %xmm6, 824(%rbx) vmovsd %xmm13, 832(%rbx) vmovsd %xmm8, 840(%rbx) vmovsd 1672(%rbx), %xmm0 vmovsd .LCPI0_10(%rip), %xmm1 callq __ocl_svml_e9_pow1 vmovsd %xmm0, 976(%rbx) movq %r14, %rsi vmovsd 152(%r13,%rsi), %xmm0 vmovsd %xmm0, 920(%rbx) vxorpd %xmm6, %xmm6, %xmm6 imull $12, 56(%r13,%rsi), %edi movl 40(%r13,%rsi), %eax leal 24(%rax,%rdi), %ecx movslq %ecx, %rcx vmovsd 1792(%rbx,%rcx,8), %xmm2 leal 25(%rax,%rdi), %ecx movslq %ecx, %rcx movq %rcx, 1296(%rbx) vmovsd 1792(%rbx,%rcx,8), %xmm4 vmovsd %xmm4, 1608(%rbx) vsubsd %xmm2, %xmm4, %xmm0 vaddsd %xmm0, %xmm0, %xmm1 leal 24(%rdi), %edx movl %edx, 1280(%rbx) movl 72(%r13,%rsi), %ecx addl %edx, %ecx movslq %ecx, %rcx movq %rcx, 1680(%rbx) vmovsd 1792(%rbx,%rcx,8), %xmm3 vsubsd %xmm4, %xmm3, %xmm0 vaddsd %xmm0, %xmm0, %xmm0 vmulsd %xmm0, %xmm1, %xmm4 vucomisd %xmm4, %xmm6 vxorpd %xmm5, %xmm5, %xmm5 movabsq $9223372036854775807, %r14 jae .LBB0_68 vsubsd %xmm2, %xmm3, %xmm2 vmulsd %xmm12, %xmm2, %xmm2 vmovd %xmm2, %rcx andq %r14, %rcx vmovd %xmm1, %rdx vmovd %rcx, %xmm3 andq %r14, %rdx vmovd %rdx, %xmm5 vmovd %xmm0, %rcx andq %r14, %rcx vmovd %rcx, %xmm4 vucomisd %xmm5, %xmm4 jbe .LBB0_65 vucomisd %xmm5, %xmm3 vmovapd %xmm1, %xmm5 ja .LBB0_68 .align 16, 0x90 .LBB0_65: vucomisd %xmm4, %xmm3 ja .LBB0_67 vmovapd %xmm2, %xmm0 .LBB0_67: vmovapd %xmm0, %xmm5 .LBB0_68: vmovsd %xmm5, 1592(%rbx) incl %eax leal 168(%rdi), %edx movl %edx, 1288(%rbx) movl 72(%r13,%rsi), %ecx addl %edx, %ecx movslq %ecx, %rcx movq %rcx, 1672(%rbx) vmovsd 1792(%rbx,%rcx,8), %xmm2 leal 168(%rax,%rdi), %ecx movslq %ecx, %rcx movq %rcx, 1184(%rbx) vmovsd 1792(%rbx,%rcx,8), %xmm4 vmovsd %xmm4, 1576(%rbx) vsubsd %xmm4, %xmm2, %xmm0 movl 40(%r13,%rsi), %ecx addl %edx, %ecx movslq %ecx, %rcx vmovsd 1792(%rbx,%rcx,8), %xmm3 vaddsd %xmm0, %xmm0, %xmm1 vsubsd %xmm3, %xmm4, %xmm0 vaddsd %xmm0, %xmm0, %xmm0 vmulsd %xmm1, %xmm0, %xmm4 vucomisd %xmm4, %xmm6 movq 1760(%rbx), %r8 jae .LBB0_74 vsubsd %xmm3, %xmm2, %xmm2 vmulsd %xmm12, %xmm2, %xmm2 vmovd %xmm2, %rcx andq %r14, %rcx vmovd %xmm0, %rdx vmovd %rcx, %xmm3 andq %r14, %rdx vmovd %rdx, %xmm5 vmovd %xmm1, %rcx andq %r14, %rcx vmovd %rcx, %xmm4 vucomisd %xmm5, %xmm4 jbe .LBB0_71 vucomisd %xmm5, %xmm3 vmovapd %xmm0, %xmm6 ja .LBB0_74 .align 16, 0x90 .LBB0_71: vucomisd %xmm4, %xmm3 ja .LBB0_73 vmovapd %xmm2, %xmm1 .LBB0_73: vmovapd %xmm1, %xmm6 .LBB0_74: leal 312(%rdi), %edx movl %edx, 1272(%rbx) movl 72(%r13,%rsi), %ecx addl %edx, %ecx movslq %ecx, %rcx movq %rcx, 1664(%rbx) vmovsd 1792(%rbx,%rcx,8), %xmm2 leal 312(%rax,%rdi), %ecx movslq %ecx, %rcx movq %rcx, 1176(%rbx) vmovsd 1792(%rbx,%rcx,8), %xmm4 vmovsd %xmm4, 1088(%rbx) vsubsd %xmm4, %xmm2, %xmm0 movl 40(%r13,%rsi), %ecx addl %edx, %ecx movslq %ecx, %rcx vmovsd 1792(%rbx,%rcx,8), %xmm3 vaddsd %xmm0, %xmm0, %xmm1 vsubsd %xmm3, %xmm4, %xmm0 vaddsd %xmm0, %xmm0, %xmm0 vmulsd %xmm1, %xmm0, %xmm4 vxorpd %xmm9, %xmm9, %xmm9 vucomisd %xmm4, %xmm9 vxorpd %xmm5, %xmm5, %xmm5 jae .LBB0_80 vsubsd %xmm3, %xmm2, %xmm2 vmulsd %xmm12, %xmm2, %xmm2 vmovd %xmm2, %rcx andq %r14, %rcx vmovd %xmm0, %rdx vmovd %rcx, %xmm3 andq %r14, %rdx vmovd %rdx, %xmm5 vmovd %xmm1, %rcx andq %r14, %rcx vmovd %rcx, %xmm4 vucomisd %xmm5, %xmm4 jbe .LBB0_77 vucomisd %xmm5, %xmm3 vmovapd %xmm0, %xmm5 ja .LBB0_80 .align 16, 0x90 .LBB0_77: vucomisd %xmm4, %xmm3 ja .LBB0_79 vmovapd %xmm2, %xmm1 .LBB0_79: vmovapd %xmm1, %xmm5 .LBB0_80: vmovsd %xmm5, 1080(%rbx) vmovsd %xmm6, 1600(%rbx) leal 456(%rdi), %edx movl %edx, 1264(%rbx) movl 72(%r13,%rsi), %ecx addl %edx, %ecx movslq %ecx, %rcx movq %rcx, 1656(%rbx) vmovsd 1792(%rbx,%rcx,8), %xmm1 leal 456(%rax,%rdi), %ecx movslq %ecx, %rcx movq %rcx, 1168(%rbx) vmovsd 1792(%rbx,%rcx,8), %xmm4 vmovsd %xmm4, 1072(%rbx) vsubsd %xmm4, %xmm1, %xmm0 movl 40(%r13,%rsi), %ecx addl %edx, %ecx movslq %ecx, %rcx vmovsd 1792(%rbx,%rcx,8), %xmm3 vaddsd %xmm0, %xmm0, %xmm2 vsubsd %xmm3, %xmm4, %xmm0 vaddsd %xmm0, %xmm0, %xmm0 vmulsd %xmm2, %xmm0, %xmm4 vucomisd %xmm4, %xmm9 jae .LBB0_86 vsubsd %xmm3, %xmm1, %xmm1 vmulsd %xmm12, %xmm1, %xmm3 vmovd %xmm3, %rcx andq %r14, %rcx vmovd %xmm0, %rdx vmovd %rcx, %xmm1 andq %r14, %rdx vmovd %rdx, %xmm5 vmovd %xmm2, %rcx andq %r14, %rcx vmovd %rcx, %xmm4 vucomisd %xmm5, %xmm4 jbe .LBB0_83 vucomisd %xmm5, %xmm1 vmovapd %xmm0, %xmm9 ja .LBB0_86 .align 16, 0x90 .LBB0_83: vucomisd %xmm4, %xmm1 ja .LBB0_85 vmovapd %xmm3, %xmm2 .LBB0_85: vmovapd %xmm2, %xmm9 .LBB0_86: leal 600(%rdi), %edx movl %edx, 1256(%rbx) movl 72(%r13,%rsi), %ecx addl %edx, %ecx movslq %ecx, %rcx movq %rcx, 1648(%rbx) vmovsd 1792(%rbx,%rcx,8), %xmm1 leal 600(%rax,%rdi), %ecx movslq %ecx, %rcx movq %rcx, 1160(%rbx) vmovsd 1792(%rbx,%rcx,8), %xmm2 vmovsd %xmm2, 1056(%rbx) vsubsd %xmm2, %xmm1, %xmm0 movl 40(%r13,%rsi), %ecx addl %edx, %ecx movslq %ecx, %rcx vmovsd 1792(%rbx,%rcx,8), %xmm3 vaddsd %xmm0, %xmm0, %xmm5 vsubsd %xmm3, %xmm2, %xmm0 vaddsd %xmm0, %xmm0, %xmm0 vmulsd %xmm5, %xmm0, %xmm4 vxorpd %xmm2, %xmm2, %xmm2 vucomisd %xmm4, %xmm2 vxorpd %xmm6, %xmm6, %xmm6 jae .LBB0_92 vsubsd %xmm3, %xmm1, %xmm1 vmulsd %xmm12, %xmm1, %xmm3 vmovd %xmm3, %rcx andq %r14, %rcx vmovd %xmm0, %rdx vmovd %rcx, %xmm1 andq %r14, %rdx vmovd %rdx, %xmm6 vmovd %xmm5, %rcx andq %r14, %rcx vmovd %rcx, %xmm4 vucomisd %xmm6, %xmm4 jbe .LBB0_89 vucomisd %xmm6, %xmm1 vmovapd %xmm0, %xmm6 ja .LBB0_92 .align 16, 0x90 .LBB0_89: vucomisd %xmm4, %xmm1 ja .LBB0_91 vmovapd %xmm3, %xmm5 .LBB0_91: vmovapd %xmm5, %xmm6 .LBB0_92: vmovsd %xmm6, 1048(%rbx) leal 744(%rdi), %edx movl %edx, 1248(%rbx) movl 72(%r13,%rsi), %ecx addl %edx, %ecx movslq %ecx, %rcx movq %rcx, 1640(%rbx) vmovsd 1792(%rbx,%rcx,8), %xmm1 leal 744(%rax,%rdi), %ecx movslq %ecx, %rcx movq %rcx, 1136(%rbx) vmovsd 1792(%rbx,%rcx,8), %xmm4 vmovsd %xmm4, 1040(%rbx) vsubsd %xmm4, %xmm1, %xmm0 movl 40(%r13,%rsi), %ecx addl %edx, %ecx movslq %ecx, %rcx vmovsd 1792(%rbx,%rcx,8), %xmm3 vaddsd %xmm0, %xmm0, %xmm5 vsubsd %xmm3, %xmm4, %xmm0 vaddsd %xmm0, %xmm0, %xmm0 vmulsd %xmm5, %xmm0, %xmm4 vucomisd %xmm4, %xmm2 jae .LBB0_98 vsubsd %xmm3, %xmm1, %xmm1 vmulsd %xmm12, %xmm1, %xmm3 vmovd %xmm3, %rcx andq %r14, %rcx vmovd %xmm0, %rdx vmovd %rcx, %xmm1 andq %r14, %rdx vmovd %rdx, %xmm2 vmovd %xmm5, %rcx andq %r14, %rcx vmovd %rcx, %xmm4 vucomisd %xmm2, %xmm4 jbe .LBB0_95 vucomisd %xmm2, %xmm1 vmovapd %xmm0, %xmm2 ja .LBB0_98 .align 16, 0x90 .LBB0_95: vucomisd %xmm4, %xmm1 ja .LBB0_97 vmovapd %xmm3, %xmm5 .LBB0_97: vmovapd %xmm5, %xmm2 .LBB0_98: leal 888(%rdi), %edx movl %edx, 1216(%rbx) movl 72(%r13,%rsi), %ecx addl %edx, %ecx movslq %ecx, %rcx movq %rcx, 1632(%rbx) vmovsd 1792(%rbx,%rcx,8), %xmm1 leal 888(%rax,%rdi), %ecx movslq %ecx, %rcx movq %rcx, 1128(%rbx) vmovsd 1792(%rbx,%rcx,8), %xmm14 vsubsd %xmm14, %xmm1, %xmm0 movl 40(%r13,%rsi), %ecx addl %edx, %ecx movslq %ecx, %rcx vmovsd 1792(%rbx,%rcx,8), %xmm3 vaddsd %xmm0, %xmm0, %xmm5 vsubsd %xmm3, %xmm14, %xmm0 vaddsd %xmm0, %xmm0, %xmm0 vmulsd %xmm5, %xmm0, %xmm4 vxorpd %xmm7, %xmm7, %xmm7 vucomisd %xmm4, %xmm7 vxorpd %xmm15, %xmm15, %xmm15 jae .LBB0_104 vsubsd %xmm3, %xmm1, %xmm1 vmulsd %xmm12, %xmm1, %xmm3 vmovd %xmm3, %rcx andq %r14, %rcx vmovd %xmm0, %rdx vmovd %rcx, %xmm1 andq %r14, %rdx vmovd %rdx, %xmm6 vmovd %xmm5, %rcx andq %r14, %rcx vmovd %rcx, %xmm4 vucomisd %xmm6, %xmm4 jbe .LBB0_101 vucomisd %xmm6, %xmm1 vmovapd %xmm0, %xmm15 ja .LBB0_104 .align 16, 0x90 .LBB0_101: vucomisd %xmm4, %xmm1 ja .LBB0_103 vmovapd %xmm3, %xmm5 .LBB0_103: vmovapd %xmm5, %xmm15 .LBB0_104: leal 1032(%rdi), %edx movl %edx, 1208(%rbx) movl 72(%r13,%rsi), %ecx addl %edx, %ecx movslq %ecx, %rcx movq %rcx, 1624(%rbx) vmovsd 1792(%rbx,%rcx,8), %xmm1 leal 1032(%rax,%rdi), %ecx movslq %ecx, %rcx movq %rcx, 1120(%rbx) vmovsd 1792(%rbx,%rcx,8), %xmm10 vsubsd %xmm10, %xmm1, %xmm0 movl 40(%r13,%rsi), %ecx addl %edx, %ecx movslq %ecx, %rcx vmovsd 1792(%rbx,%rcx,8), %xmm3 vaddsd %xmm0, %xmm0, %xmm5 vsubsd %xmm3, %xmm10, %xmm0 vaddsd %xmm0, %xmm0, %xmm0 vmulsd %xmm5, %xmm0, %xmm4 vucomisd %xmm4, %xmm7 jae .LBB0_110 vsubsd %xmm3, %xmm1, %xmm1 vmulsd %xmm12, %xmm1, %xmm3 vmovd %xmm3, %rcx andq %r14, %rcx vmovd %xmm0, %rdx vmovd %rcx, %xmm1 andq %r14, %rdx vmovd %rdx, %xmm6 vmovd %xmm5, %rcx andq %r14, %rcx vmovd %rcx, %xmm4 vucomisd %xmm6, %xmm4 jbe .LBB0_107 vucomisd %xmm6, %xmm1 vmovapd %xmm0, %xmm7 ja .LBB0_110 .align 16, 0x90 .LBB0_107: vucomisd %xmm4, %xmm1 ja .LBB0_109 vmovapd %xmm3, %xmm5 .LBB0_109: vmovapd %xmm5, %xmm7 .LBB0_110: leal 1176(%rdi), %edx movl %edx, 1200(%rbx) movl 72(%r13,%rsi), %ecx addl %edx, %ecx movslq %ecx, %rcx movq %rcx, 1616(%rbx) vmovsd 1792(%rbx,%rcx,8), %xmm1 leal 1176(%rax,%rdi), %eax movl %edi, 1584(%rbx) movslq %eax, %rax movq %rax, 1112(%rbx) vmovsd 1792(%rbx,%rax,8), %xmm11 vsubsd %xmm11, %xmm1, %xmm0 movl 40(%r13,%rsi), %eax addl %edx, %eax movslq %eax, %rax vmovsd 1792(%rbx,%rax,8), %xmm4 vaddsd %xmm0, %xmm0, %xmm13 vsubsd %xmm4, %xmm11, %xmm0 vaddsd %xmm0, %xmm0, %xmm3 vmulsd %xmm13, %xmm3, %xmm0 vxorpd %xmm6, %xmm6, %xmm6 vucomisd %xmm0, %xmm6 vxorpd %xmm0, %xmm0, %xmm0 movq 1776(%rbx), %rdx jae .LBB0_116 vsubsd %xmm4, %xmm1, %xmm0 vmulsd %xmm12, %xmm0, %xmm1 vmovd %xmm1, %rax andq %r14, %rax vmovd %xmm3, %rcx vmovd %rax, %xmm4 andq %r14, %rcx vmovd %rcx, %xmm0 vmovd %xmm13, %rax andq %r14, %rax vmovd %rax, %xmm6 vucomisd %xmm0, %xmm6 jbe .LBB0_113 vucomisd %xmm0, %xmm4 vmovapd %xmm3, %xmm0 ja .LBB0_116 .align 16, 0x90 .LBB0_113: vucomisd %xmm6, %xmm4 ja .LBB0_115 vmovapd %xmm1, %xmm13 .LBB0_115: vmovapd %xmm13, %xmm0 .LBB0_116: vmovaps %xmm12, %xmm6 vmovsd 1592(%rbx), %xmm1 vmulsd %xmm6, %xmm1, %xmm1 vmovsd 1608(%rbx), %xmm3 vaddsd %xmm1, %xmm3, %xmm12 vmovsd 1600(%rbx), %xmm1 vmulsd %xmm6, %xmm1, %xmm1 vmovsd 1576(%rbx), %xmm3 vaddsd %xmm1, %xmm3, %xmm3 vmovsd 1080(%rbx), %xmm1 vmulsd %xmm6, %xmm1, %xmm1 vmovsd 1088(%rbx), %xmm4 vaddsd %xmm1, %xmm4, %xmm8 vmovsd %xmm8, 1080(%rbx) vmulsd %xmm6, %xmm9, %xmm1 vmovsd 1072(%rbx), %xmm4 vaddsd %xmm1, %xmm4, %xmm5 vmovsd %xmm5, 1592(%rbx) vmovsd 1048(%rbx), %xmm1 vmulsd %xmm6, %xmm1, %xmm1 vmovsd 1056(%rbx), %xmm4 vaddsd %xmm1, %xmm4, %xmm4 vmovsd %xmm4, 1576(%rbx) vmulsd %xmm6, %xmm2, %xmm1 vmovsd 1040(%rbx), %xmm2 vaddsd %xmm1, %xmm2, %xmm1 vmovsd %xmm1, 1048(%rbx) vmulsd %xmm6, %xmm15, %xmm1 vaddsd %xmm1, %xmm14, %xmm1 vmovsd %xmm1, 1040(%rbx) vmulsd %xmm6, %xmm7, %xmm1 vaddsd %xmm1, %xmm10, %xmm1 vmovsd %xmm1, 1088(%rbx) movabsq $-4616189618054758400, %rax movq %rax, 1384(%r13,%rsi) vxorps %xmm1, %xmm1, %xmm1 vmovups %xmm1, 16(%r8) vmovups %xmm1, (%r8) movabsq $4607182418800017408, %r15 movq %r15, 1424(%r13,%rsi) movq 1768(%rbx), %rcx vmovups %xmm1, 16(%rcx) vmovups %xmm1, (%rcx) movq %r15, 1464(%r13,%rsi) vmovups %xmm1, 16(%rdx) vmovups %xmm1, (%rdx) vmulsd %xmm8, %xmm8, %xmm1 movq %r15, 1504(%r13,%rsi) vmovsd .LCPI0_0(%rip), %xmm2 vaddsd %xmm2, %xmm1, %xmm1 vmulsd %xmm6, %xmm0, %xmm0 vmulsd %xmm5, %xmm5, %xmm2 vaddsd %xmm2, %xmm1, %xmm1 vmulsd %xmm4, %xmm4, %xmm2 vaddsd %xmm2, %xmm1, %xmm1 vmovsd %xmm1, 1600(%rbx) vmovsd .LCPI0_1(%rip), %xmm1 vmaxsd %xmm3, %xmm1, %xmm2 vmovsd %xmm2, 992(%rbx) movq %rax, 1256(%r13,%rsi) vmaxsd %xmm12, %xmm1, %xmm1 vmovsd %xmm1, 1000(%rbx) vaddsd %xmm0, %xmm11, %xmm0 vmovsd %xmm0, 1608(%rbx) movabsq $-9223372036854775808, %rax movq %rax, 1264(%r13,%rsi) movq %rax, 1272(%r13,%rsi) movq %rax, 1280(%r13,%rsi) movq %rax, 1288(%r13,%rsi) movq %r15, 1296(%r13,%rsi) movq %rax, 1304(%r13,%rsi) movq %rax, 1312(%r13,%rsi) movq %rax, 1320(%r13,%rsi) movq %rax, 1328(%r13,%rsi) vmovsd (%r8), %xmm2 vmovsd %xmm2, 912(%rbx) vxorps %xmm1, %xmm1, %xmm1 vmulsd %xmm1, %xmm2, %xmm0 vmovaps %xmm2, %xmm10 vmulsd %xmm1, %xmm0, %xmm0 vxorps %xmm3, %xmm3, %xmm3 vmovsd .LCPI0_15(%rip), %xmm6 vaddsd %xmm6, %xmm0, %xmm0 vmovsd 1488(%r13,%rsi), %xmm5 vmovsd %xmm5, 1056(%rbx) vmovsd 1408(%r13,%rsi), %xmm4 vmovsd %xmm4, 1032(%rbx) vmovsd 1416(%r13,%rsi), %xmm7 vmovsd %xmm7, 904(%rbx) vmulsd %xmm7, %xmm4, %xmm1 vmulsd %xmm5, %xmm1, %xmm2 vaddsd %xmm2, %xmm0, %xmm0 vmovsd .LCPI0_3(%rip), %xmm9 vmulsd %xmm9, %xmm5, %xmm2 vmovaps %xmm9, %xmm12 vsubsd %xmm2, %xmm0, %xmm0 vmulsd %xmm7, %xmm10, %xmm2 vmovaps %xmm7, %xmm11 vsubsd %xmm2, %xmm0, %xmm0 vmulsd %xmm3, %xmm4, %xmm3 vsubsd %xmm3, %xmm0, %xmm0 vmovsd .LCPI0_2(%rip), %xmm14 vxorpd %xmm14, %xmm0, %xmm0 vmovsd %xmm0, 1336(%r13,%rsi) vmovsd 1456(%r13,%rsi), %xmm15 vmovsd 1440(%r13,%rsi), %xmm3 vmovsd %xmm3, 1024(%rbx) vmovsd 1448(%r13,%rsi), %xmm9 vmulsd %xmm15, %xmm3, %xmm5 vmovsd (%rdx), %xmm13 vmulsd %xmm13, %xmm2, %xmm7 vsubsd %xmm5, %xmm7, %xmm5 vmulsd %xmm9, %xmm4, %xmm7 vaddsd %xmm7, %xmm5, %xmm4 vaddsd %xmm13, %xmm4, %xmm4 vmulsd %xmm10, %xmm3, %xmm7 vmulsd %xmm9, %xmm7, %xmm7 vsubsd %xmm7, %xmm4, %xmm4 vmulsd %xmm1, %xmm15, %xmm1 vsubsd %xmm1, %xmm4, %xmm1 vxorpd %xmm14, %xmm1, %xmm1 vmovsd %xmm1, 1344(%r13,%rsi) movq %rax, 1352(%r13,%rsi) movq %rax, 1360(%r13,%rsi) vmovsd %xmm1, 1368(%r13,%rsi) vmovsd (%rcx), %xmm5 vmovsd %xmm5, 1016(%rbx) vmulsd %xmm5, %xmm10, %xmm1 vmulsd %xmm9, %xmm1, %xmm1 vaddsd %xmm6, %xmm1, %xmm1 vmovsd 1400(%r13,%rsi), %xmm10 vmulsd %xmm11, %xmm10, %xmm4 vmulsd %xmm15, %xmm4, %xmm4 vaddsd %xmm4, %xmm1, %xmm1 vmulsd %xmm15, %xmm5, %xmm4 vaddsd %xmm4, %xmm1, %xmm1 vsubsd %xmm2, %xmm1, %xmm1 vmulsd %xmm10, %xmm9, %xmm2 vsubsd %xmm2, %xmm1, %xmm1 vmulsd %xmm3, %xmm8, %xmm2 vmovsd 1576(%rbx), %xmm7 vmulsd %xmm2, %xmm7, %xmm2 vmulsd %xmm5, %xmm8, %xmm4 vmovaps %xmm5, %xmm0 vmovsd 1592(%rbx), %xmm5 vmulsd %xmm4, %xmm5, %xmm4 vaddsd %xmm2, %xmm4, %xmm2 vmulsd %xmm13, %xmm5, %xmm4 vmovaps %xmm5, %xmm6 vmulsd %xmm4, %xmm7, %xmm4 vmovaps %xmm7, %xmm5 vaddsd %xmm4, %xmm2, %xmm2 vaddsd %xmm2, %xmm2, %xmm2 vmovsd 1600(%rbx), %xmm4 vaddsd %xmm2, %xmm4, %xmm2 vxorpd %xmm14, %xmm1, %xmm1 vmovsd %xmm1, 1376(%r13,%rsi) vmovq %xmm2, %xmm1 vsqrtpd %xmm1, %xmm1 vmulsd %xmm12, %xmm1, %xmm2 vmovsd 1720(%rbx), %xmm4 vdivsd %xmm4, %xmm1, %xmm8 vmovsd %xmm8, 968(%rbx) vmulsd %xmm4, %xmm2, %xmm1 vsubsd %xmm1, %xmm5, %xmm5 vmovsd %xmm5, 1008(%rbx) vsubsd %xmm1, %xmm6, %xmm6 vmovsd %xmm6, 1600(%rbx) vmovsd 1080(%rbx), %xmm2 vsubsd %xmm1, %xmm2, %xmm4 vmovsd %xmm4, 1592(%rbx) vmulsd %xmm8, %xmm11, %xmm1 vaddsd %xmm4, %xmm1, %xmm1 vmulsd %xmm6, %xmm0, %xmm2 vaddsd %xmm2, %xmm1, %xmm1 vmulsd %xmm5, %xmm3, %xmm2 vaddsd %xmm2, %xmm1, %xmm3 vmovsd %xmm3, 1072(%rbx) vmulsd %xmm4, %xmm15, %xmm1 vmulsd %xmm8, %xmm9, %xmm2 vaddsd %xmm1, %xmm2, %xmm1 vmulsd %xmm5, %xmm13, %xmm0 vmovaps %xmm5, %xmm7 vaddsd %xmm6, %xmm1, %xmm1 vaddsd %xmm0, %xmm1, %xmm0 vmovsd %xmm0, 1080(%rbx) vmovsd 1040(%rbx), %xmm11 vmulsd %xmm0, %xmm11, %xmm0 vmovsd 1048(%rbx), %xmm13 vmulsd %xmm3, %xmm13, %xmm1 vaddsd %xmm0, %xmm1, %xmm0 vmovsd 1056(%rbx), %xmm1 vmulsd %xmm4, %xmm1, %xmm1 vxorps %xmm5, %xmm5, %xmm5 vmulsd %xmm5, %xmm8, %xmm2 vmovsd %xmm2, 784(%rbx) vaddsd %xmm1, %xmm2, %xmm1 vmulsd %xmm5, %xmm6, %xmm2 vmovsd %xmm2, 928(%rbx) vaddsd %xmm2, %xmm1, %xmm1 vaddsd %xmm7, %xmm1, %xmm2 vmovsd %xmm2, 1056(%rbx) vmovsd 1088(%rbx), %xmm1 vmulsd %xmm2, %xmm1, %xmm1 vaddsd %xmm1, %xmm0, %xmm12 vmovsd %xmm12, 936(%rbx) vmovsd 912(%rbx), %xmm5 vmulsd %xmm4, %xmm5, %xmm0 vsubsd %xmm8, %xmm0, %xmm0 vmulsd %xmm6, %xmm10, %xmm1 vaddsd %xmm1, %xmm0, %xmm1 vmulsd %xmm12, %xmm9, %xmm0 vmovsd 1032(%rbx), %xmm14 vmulsd %xmm7, %xmm14, %xmm2 vaddsd %xmm2, %xmm1, %xmm1 vmovsd %xmm1, 1576(%rbx) vmulsd %xmm4, %xmm12, %xmm1 vmovsd %xmm1, 808(%rbx) vaddsd %xmm1, %xmm13, %xmm1 vdivsd %xmm8, %xmm1, %xmm9 vmovsd %xmm9, 944(%rbx) vxorps %xmm4, %xmm4, %xmm4 vmulsd %xmm4, %xmm12, %xmm1 vmulsd 1488(%r13,%rsi), %xmm9, %xmm2 vaddsd %xmm2, %xmm1, %xmm1 vmulsd %xmm9, %xmm15, %xmm2 vaddsd %xmm2, %xmm0, %xmm3 vmulsd %xmm6, %xmm12, %xmm0 vmovsd %xmm0, 776(%rbx) vaddsd %xmm0, %xmm11, %xmm0 vdivsd %xmm8, %xmm0, %xmm11 vmovsd %xmm11, 736(%rbx) vmulsd %xmm9, %xmm5, %xmm0 vsubsd %xmm12, %xmm0, %xmm0 vmulsd %xmm11, %xmm10, %xmm2 vaddsd %xmm2, %xmm0, %xmm10 vmulsd 1464(%r13,%rsi), %xmm11, %xmm2 vaddsd %xmm2, %xmm3, %xmm3 vmulsd %xmm4, %xmm11, %xmm2 vaddsd %xmm2, %xmm1, %xmm1 vmulsd %xmm7, %xmm12, %xmm2 vmovsd %xmm2, 728(%rbx) vmovsd 1088(%rbx), %xmm4 vaddsd %xmm2, %xmm4, %xmm2 vdivsd %xmm8, %xmm2, %xmm15 vmovsd %xmm15, 720(%rbx) vmovsd 904(%rbx), %xmm0 vmulsd %xmm12, %xmm0, %xmm0 vmulsd %xmm15, %xmm14, %xmm6 vmulsd 1504(%r13,%rsi), %xmm15, %xmm2 vaddsd %xmm2, %xmm1, %xmm5 vmovsd %xmm5, 624(%rbx) vmulsd (%rdx), %xmm15, %xmm1 vaddsd %xmm1, %xmm3, %xmm4 vmovsd %xmm4, 632(%rbx) vaddsd %xmm6, %xmm10, %xmm6 vmovsd %xmm6, 664(%rbx) vaddsd %xmm9, %xmm0, %xmm0 vmovsd 1016(%rbx), %xmm1 vmulsd %xmm11, %xmm1, %xmm1 vaddsd %xmm1, %xmm0, %xmm0 vmovsd 1024(%rbx), %xmm1 vmulsd %xmm15, %xmm1, %xmm1 vaddsd %xmm1, %xmm0, %xmm3 vmovsd %xmm3, 640(%rbx) vmovsd 992(%rbx), %xmm1 vmovsd 1000(%rbx), %xmm0 vaddsd %xmm1, %xmm0, %xmm0 vmulsd .LCPI0_5(%rip), %xmm1, %xmm2 vmovsd %xmm2, 712(%rbx) vaddsd %xmm0, %xmm2, %xmm10 vmulsd %xmm3, %xmm9, %xmm0 vmovsd %xmm0, 1032(%rbx) vmulsd %xmm6, %xmm12, %xmm1 vmovsd %xmm1, 1024(%rbx) vaddsd %xmm0, %xmm1, %xmm1 vmulsd %xmm4, %xmm11, %xmm3 vmovsd %xmm3, 1048(%rbx) vaddsd %xmm3, %xmm1, %xmm1 vmulsd %xmm5, %xmm15, %xmm0 vmovsd %xmm0, 1040(%rbx) vaddsd %xmm0, %xmm1, %xmm3 vmovsd %xmm3, 704(%rbx) vmovsd .LCPI0_4(%rip), %xmm1 vmaxsd %xmm3, %xmm1, %xmm1 vmovaps %xmm1, 1088(%rbx) vaddsd %xmm10, %xmm1, %xmm6 vmulsd .LCPI0_6(%rip), %xmm1, %xmm0 vaddsd %xmm0, %xmm2, %xmm4 vmovsd 1600(%rbx), %xmm0 vmulsd %xmm6, %xmm0, %xmm3 vmovsd 1592(%rbx), %xmm0 vmulsd %xmm6, %xmm0, %xmm13 vmulsd %xmm6, %xmm8, %xmm1 vmulsd %xmm6, %xmm7, %xmm2 vmovsd 1056(%rbx), %xmm5 vmulsd %xmm2, %xmm5, %xmm10 vmovsd 1080(%rbx), %xmm7 vmulsd %xmm2, %xmm7, %xmm0 vmovsd %xmm0, 752(%rbx) vmovsd 1072(%rbx), %xmm6 vmulsd %xmm2, %xmm6, %xmm0 vmovsd %xmm0, 744(%rbx) vmovsd 1576(%rbx), %xmm0 vmulsd %xmm2, %xmm0, %xmm2 vmovsd %xmm2, 792(%rbx) vmulsd %xmm1, %xmm0, %xmm2 vaddsd %xmm2, %xmm4, %xmm2 vmovsd %xmm2, 800(%rbx) vaddsd %xmm10, %xmm4, %xmm2 vmovsd %xmm2, 1016(%rbx) vmulsd %xmm13, %xmm6, %xmm2 vaddsd %xmm2, %xmm4, %xmm2 vmovsd %xmm2, 904(%rbx) vmulsd %xmm3, %xmm7, %xmm2 vaddsd %xmm2, %xmm4, %xmm2 vmovsd %xmm2, 912(%rbx) vmulsd .LCPI0_24, %xmm4, %xmm4 vmulsd %xmm3, %xmm5, %xmm2 vmovsd %xmm2, 672(%rbx) vmulsd %xmm3, %xmm6, %xmm2 vmovsd %xmm2, 696(%rbx) vmulsd %xmm3, %xmm0, %xmm3 vmulsd %xmm1, %xmm6, %xmm2 vmulsd %xmm1, %xmm7, %xmm14 vmovaps %xmm7, %xmm6 vmovaps %xmm5, %xmm7 vmulsd %xmm1, %xmm7, %xmm10 vaddsd %xmm2, %xmm4, %xmm1 vaddsd 792(%rbx), %xmm4, %xmm2 vmovsd %xmm2, 792(%rbx) vaddsd 744(%rbx), %xmm4, %xmm2 vmovsd %xmm2, 744(%rbx) vaddsd 752(%rbx), %xmm4, %xmm2 vmovsd %xmm2, 576(%rbx) vaddsd 672(%rbx), %xmm4, %xmm2 vmovsd %xmm2, 568(%rbx) vmulsd %xmm13, %xmm0, %xmm2 vaddsd %xmm2, %xmm4, %xmm0 vmovsd %xmm0, 560(%rbx) vaddsd %xmm10, %xmm4, %xmm5 vaddsd %xmm14, %xmm4, %xmm10 vmulsd %xmm13, %xmm7, %xmm2 vmulsd %xmm13, %xmm6, %xmm0 vaddsd %xmm0, %xmm4, %xmm0 vmovsd %xmm0, 672(%rbx) vaddsd %xmm2, %xmm4, %xmm0 vmovsd %xmm0, 584(%rbx) vaddsd %xmm3, %xmm4, %xmm0 vaddsd 696(%rbx), %xmm4, %xmm4 vmovsd 800(%rbx), %xmm2 vsubsd 1024(%rbx), %xmm2, %xmm13 vmovsd 640(%rbx), %xmm6 vmulsd %xmm6, %xmm12, %xmm2 vsubsd %xmm2, %xmm1, %xmm1 vmovsd %xmm1, 592(%rbx) vmovsd 632(%rbx), %xmm3 vmulsd %xmm3, %xmm12, %xmm1 vsubsd %xmm1, %xmm10, %xmm1 vmovsd %xmm1, 616(%rbx) vmovsd 624(%rbx), %xmm2 vmulsd %xmm2, %xmm12, %xmm1 vsubsd %xmm1, %xmm5, %xmm1 vmovsd %xmm1, 656(%rbx) vmovsd 904(%rbx), %xmm1 vsubsd 1032(%rbx), %xmm1, %xmm1 vmovsd %xmm1, 752(%rbx) vmovsd 664(%rbx), %xmm5 vmulsd %xmm5, %xmm9, %xmm1 vmovsd 560(%rbx), %xmm7 vsubsd %xmm1, %xmm7, %xmm1 vmovsd %xmm1, 696(%rbx) vmulsd %xmm2, %xmm11, %xmm1 vmovaps %xmm2, %xmm14 vmovsd 568(%rbx), %xmm2 vsubsd %xmm1, %xmm2, %xmm1 vmovsd %xmm1, 800(%rbx) vmovsd 1016(%rbx), %xmm1 vsubsd 1040(%rbx), %xmm1, %xmm1 vmovsd %xmm1, 1032(%rbx) vmulsd %xmm3, %xmm15, %xmm1 vmovaps %xmm3, %xmm10 vmovsd 576(%rbx), %xmm2 vsubsd %xmm1, %xmm2, %xmm1 vmovsd %xmm1, 1016(%rbx) vmovaps %xmm6, %xmm2 vmulsd %xmm2, %xmm15, %xmm1 vmovsd 744(%rbx), %xmm3 vsubsd %xmm1, %xmm3, %xmm1 vmovsd %xmm1, 904(%rbx) vmovaps %xmm5, %xmm3 vmulsd %xmm3, %xmm15, %xmm1 vmovsd 792(%rbx), %xmm5 vsubsd %xmm1, %xmm5, %xmm1 vmovsd %xmm1, 744(%rbx) vmovsd 912(%rbx), %xmm1 vsubsd 1048(%rbx), %xmm1, %xmm1 vmovsd %xmm1, 1040(%rbx) vmulsd %xmm2, %xmm11, %xmm1 vsubsd %xmm1, %xmm4, %xmm1 vmovsd %xmm1, 1024(%rbx) vmulsd %xmm3, %xmm11, %xmm1 vmovaps %xmm3, %xmm7 vsubsd %xmm1, %xmm0, %xmm0 vmovsd %xmm0, 912(%rbx) vmovaps %xmm14, %xmm5 vmulsd %xmm5, %xmm9, %xmm0 vmovsd 584(%rbx), %xmm1 vsubsd %xmm0, %xmm1, %xmm0 vmovsd %xmm0, 792(%rbx) vmulsd %xmm10, %xmm9, %xmm0 vmovsd 672(%rbx), %xmm1 vsubsd %xmm0, %xmm1, %xmm0 vmovsd %xmm0, 1048(%rbx) vmovq 1088(%rbx), %xmm0 vsqrtpd %xmm0, %xmm3 vmovapd %xmm3, 672(%rbx) vmovsd 1608(%rbx), %xmm6 vmulsd %xmm6, %xmm12, %xmm0 vdivsd %xmm3, %xmm0, %xmm4 vmovsd 1576(%rbx), %xmm0 vmulsd %xmm4, %xmm0, %xmm0 vaddsd %xmm0, %xmm13, %xmm0 vmulsd %xmm6, %xmm7, %xmm1 vdivsd %xmm3, %xmm1, %xmm1 vmovsd %xmm1, 1088(%rbx) vmulsd %xmm1, %xmm8, %xmm1 vaddsd %xmm1, %xmm0, %xmm0 vmovsd %xmm0, 1512(%r13,%rsi) vmovsd 1072(%rbx), %xmm13 vmulsd %xmm4, %xmm13, %xmm0 vmovsd 592(%rbx), %xmm1 vaddsd %xmm0, %xmm1, %xmm1 vmulsd %xmm6, %xmm2, %xmm0 vdivsd %xmm3, %xmm0, %xmm0 vmovsd %xmm0, 640(%rbx) vmulsd %xmm0, %xmm8, %xmm2 vaddsd %xmm2, %xmm1, %xmm1 vmovsd %xmm1, 1520(%r13,%rsi) vmovsd 1080(%rbx), %xmm14 vmulsd %xmm4, %xmm14, %xmm1 vmovsd 616(%rbx), %xmm0 vaddsd %xmm1, %xmm0, %xmm1 vmulsd %xmm6, %xmm10, %xmm2 vdivsd %xmm3, %xmm2, %xmm0 vmovsd %xmm0, 664(%rbx) vmulsd %xmm0, %xmm8, %xmm2 vaddsd %xmm2, %xmm1, %xmm1 vmovsd %xmm1, 1528(%r13,%rsi) vmovsd 1056(%rbx), %xmm10 vmulsd %xmm4, %xmm10, %xmm1 vmovsd 656(%rbx), %xmm0 vaddsd %xmm1, %xmm0, %xmm1 vmulsd %xmm6, %xmm5, %xmm2 vdivsd %xmm3, %xmm2, %xmm12 vmulsd %xmm12, %xmm8, %xmm2 vaddsd %xmm2, %xmm1, %xmm1 vmovsd %xmm1, 1536(%r13,%rsi) vmulsd %xmm6, %xmm9, %xmm1 vdivsd %xmm3, %xmm1, %xmm8 vmovsd 1576(%rbx), %xmm0 vmulsd %xmm8, %xmm0, %xmm1 vmovsd 696(%rbx), %xmm2 vaddsd %xmm1, %xmm2, %xmm1 vmovsd 1592(%rbx), %xmm7 vmulsd 1088(%rbx), %xmm7, %xmm2 vaddsd %xmm2, %xmm1, %xmm1 vmovaps %xmm13, %xmm4 vmulsd %xmm8, %xmm4, %xmm2 vmovsd 752(%rbx), %xmm5 vaddsd %xmm2, %xmm5, %xmm13 vmovsd %xmm1, 1544(%r13,%rsi) vmulsd %xmm6, %xmm11, %xmm1 vdivsd %xmm3, %xmm1, %xmm1 vmulsd %xmm1, %xmm10, %xmm2 vmovsd 800(%rbx), %xmm5 vaddsd %xmm2, %xmm5, %xmm2 vmovsd %xmm2, 800(%rbx) vmulsd %xmm6, %xmm15, %xmm2 vdivsd %xmm3, %xmm2, %xmm3 vmulsd %xmm3, %xmm0, %xmm2 vmovsd 744(%rbx), %xmm5 vaddsd %xmm2, %xmm5, %xmm2 vmovsd %xmm2, 752(%rbx) vmulsd %xmm3, %xmm4, %xmm2 vmovsd 904(%rbx), %xmm6 vaddsd %xmm2, %xmm6, %xmm2 vmovsd %xmm2, 904(%rbx) vmulsd %xmm3, %xmm14, %xmm2 vmovapd %xmm14, %xmm5 vmovsd 1016(%rbx), %xmm6 vaddsd %xmm2, %xmm6, %xmm15 vmulsd %xmm3, %xmm10, %xmm2 vmovaps %xmm10, %xmm3 vmovsd 1032(%rbx), %xmm6 vaddsd %xmm2, %xmm6, %xmm11 vmovsd 640(%rbx), %xmm6 vmulsd %xmm6, %xmm7, %xmm2 vmovaps %xmm7, %xmm9 vaddsd %xmm2, %xmm13, %xmm10 vmulsd %xmm8, %xmm3, %xmm2 vmovsd 792(%rbx), %xmm3 vaddsd %xmm2, %xmm3, %xmm2 vmovsd %xmm2, 1032(%rbx) vmulsd %xmm1, %xmm0, %xmm2 vmovsd 912(%rbx), %xmm0 vaddsd %xmm2, %xmm0, %xmm14 vmulsd %xmm1, %xmm4, %xmm2 vmovsd 1024(%rbx), %xmm0 vaddsd %xmm2, %xmm0, %xmm13 vmulsd %xmm1, %xmm5, %xmm1 vmovsd 1040(%rbx), %xmm0 vaddsd %xmm1, %xmm0, %xmm0 vmovsd %xmm10, 1552(%r13,%rsi) vmovsd 1008(%rbx), %xmm2 vmulsd %xmm12, %xmm2, %xmm1 vaddsd %xmm1, %xmm11, %xmm1 vmovsd %xmm1, 1072(%rbx) vmovsd 664(%rbx), %xmm3 vmulsd %xmm3, %xmm2, %xmm1 vaddsd %xmm1, %xmm15, %xmm1 vmovsd %xmm1, 1056(%rbx) vmulsd %xmm6, %xmm2, %xmm1 vmovaps %xmm6, %xmm7 vmovsd 904(%rbx), %xmm4 vaddsd %xmm1, %xmm4, %xmm1 vmovsd %xmm1, 1040(%rbx) vmovsd 1088(%rbx), %xmm6 vmulsd %xmm6, %xmm2, %xmm1 vmovsd 752(%rbx), %xmm2 vaddsd %xmm1, %xmm2, %xmm10 vmovsd 1600(%rbx), %xmm2 vmulsd %xmm12, %xmm2, %xmm1 vmovsd 800(%rbx), %xmm4 vaddsd %xmm1, %xmm4, %xmm11 vmulsd %xmm3, %xmm2, %xmm1 vaddsd %xmm1, %xmm0, %xmm15 vmulsd %xmm7, %xmm2, %xmm0 vaddsd %xmm0, %xmm13, %xmm0 vmulsd %xmm6, %xmm2, %xmm1 vaddsd %xmm1, %xmm14, %xmm2 vmulsd %xmm12, %xmm9, %xmm1 vmovsd 1032(%rbx), %xmm4 vaddsd %xmm1, %xmm4, %xmm7 vmovsd %xmm7, 1576(%rbx) vmovsd .LCPI0_6(%rip), %xmm14 vmulsd %xmm8, %xmm5, %xmm1 vmovsd 1048(%rbx), %xmm4 vaddsd %xmm1, %xmm4, %xmm4 vmulsd %xmm3, %xmm9, %xmm1 vaddsd %xmm1, %xmm4, %xmm1 vmovsd %xmm1, 696(%rbx) vmovsd %xmm1, 1560(%r13,%rsi) vmovsd %xmm7, 1568(%r13,%rsi) vmovsd %xmm2, 1576(%r13,%rsi) vmovsd %xmm0, 1584(%r13,%rsi) vmovsd %xmm15, 1592(%r13,%rsi) vmovsd %xmm11, 1600(%r13,%rsi) vmovsd %xmm10, 1608(%r13,%rsi) vmovsd 1040(%rbx), %xmm0 vmovsd %xmm0, 1616(%r13,%rsi) vmovsd 1056(%rbx), %xmm0 vmovsd %xmm0, 1624(%r13,%rsi) vmovsd 1072(%rbx), %xmm0 vmovsd %xmm0, 1632(%r13,%rsi) vmovaps 1728(%rbx), %xmm10 vmulsd 1536(%r13,%rsi), %xmm10, %xmm0 vmovsd %xmm0, 912(%rbx) vmulsd 1528(%r13,%rsi), %xmm10, %xmm0 vmovsd %xmm0, 904(%rbx) vmulsd 1520(%r13,%rsi), %xmm10, %xmm0 vmovsd %xmm0, 792(%rbx) vmulsd 1512(%r13,%rsi), %xmm10, %xmm0 vmovsd %xmm0, 800(%rbx) vmulsd 1552(%r13,%rsi), %xmm10, %xmm0 vmovsd %xmm0, 744(%rbx) vmulsd 1544(%r13,%rsi), %xmm10, %xmm0 vmovsd %xmm0, 752(%rbx) vmovsd 1000(%rbx), %xmm0 vmovaps %xmm0, %xmm9 vmovsd .LCPI0_8(%rip), %xmm1 movq %rsi, %r12 callq __ocl_svml_e9_pow1 vmovsd 992(%rbx), %xmm1 vmulsd %xmm0, %xmm1, %xmm0 vmovaps %xmm1, %xmm12 callq __ocl_svml_e9_log1 vmovsd %xmm0, 488(%rbx) vmovsd 1608(%rbx), %xmm0 vmovsd .LCPI0_10(%rip), %xmm1 callq __ocl_svml_e9_pow1 movq %r12, %rsi vmovsd %xmm0, 512(%rbx) movq 1696(%rbx), %rax vxorps %xmm0, %xmm0, %xmm0 vmovups %xmm0, 16(%rax) vmovups %xmm0, (%rax) movq %r15, 1232(%r13,%rsi) vmovsd 1256(%r13,%rsi), %xmm11 vmovsd 1264(%r13,%rsi), %xmm15 vmovsd 1328(%r13,%rsi), %xmm0 vmovsd %xmm0, 464(%rbx) vmovsd 1320(%r13,%rsi), %xmm13 vxorps %xmm1, %xmm1, %xmm1 vmulsd 1272(%r13,%rsi), %xmm1, %xmm0 vmovsd %xmm0, 496(%rbx) vmulsd 1280(%r13,%rsi), %xmm1, %xmm0 vmovsd %xmm0, 568(%rbx) vmovsd 1296(%r13,%rsi), %xmm0 vmovsd %xmm0, 560(%rbx) vmovsd 1288(%r13,%rsi), %xmm0 vmovsd %xmm0, 544(%rbx) vmulsd 1304(%r13,%rsi), %xmm1, %xmm0 vmovsd %xmm0, 536(%rbx) vmulsd 1312(%r13,%rsi), %xmm1, %xmm0 vmovsd %xmm0, 528(%rbx) vmulsd 1336(%r13,%rsi), %xmm1, %xmm0 vmovsd %xmm0, 520(%rbx) vmulsd 1344(%r13,%rsi), %xmm1, %xmm0 vmovsd %xmm0, 576(%rbx) vmovsd 1360(%r13,%rsi), %xmm0 vmovsd %xmm0, 624(%rbx) vmovsd 1352(%r13,%rsi), %xmm0 vmovsd %xmm0, 616(%rbx) vmulsd 1368(%r13,%rsi), %xmm1, %xmm0 vmovsd %xmm0, 592(%rbx) vmulsd 1376(%r13,%rsi), %xmm1, %xmm0 vxorpd %xmm5, %xmm5, %xmm5 vmovsd %xmm0, 584(%rbx) movl 40(%r13,%rsi), %eax movl 1280(%rbx), %ecx leal 3(%rax,%rcx), %ecx movslq %ecx, %rcx movq %rcx, 1080(%rbx) vmovsd 1792(%rbx,%rcx,8), %xmm2 movq 1296(%rbx), %rcx vmovsd 1792(%rbx,%rcx,8), %xmm3 movq 1680(%rbx), %rcx vmovsd 1792(%rbx,%rcx,8), %xmm1 vmovsd %xmm1, 664(%rbx) vsubsd %xmm1, %xmm2, %xmm0 vsubsd %xmm3, %xmm1, %xmm1 vaddsd %xmm1, %xmm1, %xmm1 vaddsd %xmm0, %xmm0, %xmm0 vmulsd %xmm0, %xmm1, %xmm4 vucomisd %xmm4, %xmm5 vxorpd %xmm5, %xmm5, %xmm5 jae .LBB0_122 vsubsd %xmm3, %xmm2, %xmm2 vmulsd %xmm14, %xmm2, %xmm2 vmovd %xmm2, %rcx andq %r14, %rcx vmovd %xmm1, %rdx vmovd %rcx, %xmm3 andq %r14, %rdx vmovd %rdx, %xmm5 vmovd %xmm0, %rcx andq %r14, %rcx vmovd %rcx, %xmm4 vucomisd %xmm5, %xmm4 jbe .LBB0_119 vucomisd %xmm5, %xmm3 vmovapd %xmm1, %xmm5 ja .LBB0_122 .align 16, 0x90 .LBB0_119: vucomisd %xmm4, %xmm3 ja .LBB0_121 vmovapd %xmm2, %xmm0 .LBB0_121: vmovapd %xmm0, %xmm5 .LBB0_122: vmovsd %xmm5, 640(%rbx) addl $3, %eax movl 1288(%rbx), %ecx leal (%rax,%rcx), %ecx movq 1184(%rbx), %rdx vmovsd 1792(%rbx,%rdx,8), %xmm2 movq 1672(%rbx), %rdx vmovsd 1792(%rbx,%rdx,8), %xmm4 vmovsd %xmm4, 632(%rbx) vsubsd %xmm2, %xmm4, %xmm0 vaddsd %xmm0, %xmm0, %xmm1 movslq %ecx, %rcx movq %rcx, 1024(%rbx) vmovsd 1792(%rbx,%rcx,8), %xmm3 vsubsd %xmm4, %xmm3, %xmm0 vaddsd %xmm0, %xmm0, %xmm0 vmulsd %xmm0, %xmm1, %xmm4 vxorpd %xmm6, %xmm6, %xmm6 vucomisd %xmm4, %xmm6 vxorpd %xmm5, %xmm5, %xmm5 jae .LBB0_128 vsubsd %xmm2, %xmm3, %xmm2 vmulsd %xmm14, %xmm2, %xmm2 vmovd %xmm2, %rcx andq %r14, %rcx vmovd %xmm1, %rdx vmovd %rcx, %xmm3 andq %r14, %rdx vmovd %rdx, %xmm5 vmovd %xmm0, %rcx andq %r14, %rcx vmovd %rcx, %xmm4 vucomisd %xmm5, %xmm4 jbe .LBB0_125 vucomisd %xmm5, %xmm3 vmovapd %xmm1, %xmm5 ja .LBB0_128 .align 16, 0x90 .LBB0_125: vucomisd %xmm4, %xmm3 ja .LBB0_127 vmovapd %xmm2, %xmm0 .LBB0_127: vmovapd %xmm0, %xmm5 .LBB0_128: vmovsd %xmm5, 440(%rbx) movl 1272(%rbx), %ecx leal (%rax,%rcx), %ecx movq 1176(%rbx), %rdx vmovsd 1792(%rbx,%rdx,8), %xmm2 movq 1664(%rbx), %rdx vmovsd 1792(%rbx,%rdx,8), %xmm4 vmovsd %xmm4, 432(%rbx) vsubsd %xmm2, %xmm4, %xmm0 vaddsd %xmm0, %xmm0, %xmm1 movslq %ecx, %rcx movq %rcx, 1016(%rbx) vmovsd 1792(%rbx,%rcx,8), %xmm3 vsubsd %xmm4, %xmm3, %xmm0 vaddsd %xmm0, %xmm0, %xmm0 vmulsd %xmm0, %xmm1, %xmm4 vucomisd %xmm4, %xmm6 movq 1760(%rbx), %rdi jae .LBB0_134 vsubsd %xmm2, %xmm3, %xmm2 vmulsd %xmm14, %xmm2, %xmm2 vmovd %xmm2, %rcx andq %r14, %rcx vmovd %xmm1, %rdx vmovd %rcx, %xmm3 andq %r14, %rdx vmovd %rdx, %xmm5 vmovd %xmm0, %rcx andq %r14, %rcx vmovd %rcx, %xmm4 vucomisd %xmm5, %xmm4 jbe .LBB0_131 vucomisd %xmm5, %xmm3 vmovapd %xmm1, %xmm6 ja .LBB0_134 .align 16, 0x90 .LBB0_131: vucomisd %xmm4, %xmm3 ja .LBB0_133 vmovapd %xmm2, %xmm0 .LBB0_133: vmovapd %xmm0, %xmm6 .LBB0_134: vmovsd %xmm6, 448(%rbx) movl 1264(%rbx), %ecx leal (%rax,%rcx), %ecx movq 1168(%rbx), %rdx vmovsd 1792(%rbx,%rdx,8), %xmm2 movq 1656(%rbx), %rdx vmovsd 1792(%rbx,%rdx,8), %xmm4 vmovsd %xmm4, 424(%rbx) vsubsd %xmm2, %xmm4, %xmm0 vaddsd %xmm0, %xmm0, %xmm1 movslq %ecx, %rcx movq %rcx, 1040(%rbx) vmovsd 1792(%rbx,%rcx,8), %xmm3 vsubsd %xmm4, %xmm3, %xmm0 vaddsd %xmm0, %xmm0, %xmm0 vmulsd %xmm0, %xmm1, %xmm4 vxorpd %xmm6, %xmm6, %xmm6 vucomisd %xmm4, %xmm6 vxorpd %xmm5, %xmm5, %xmm5 jae .LBB0_140 vsubsd %xmm2, %xmm3, %xmm2 vmulsd %xmm14, %xmm2, %xmm2 vmovd %xmm2, %rcx andq %r14, %rcx vmovd %xmm1, %rdx vmovd %rcx, %xmm3 andq %r14, %rdx vmovd %rdx, %xmm5 vmovd %xmm0, %rcx andq %r14, %rcx vmovd %rcx, %xmm4 vucomisd %xmm5, %xmm4 jbe .LBB0_137 vucomisd %xmm5, %xmm3 vmovapd %xmm1, %xmm5 ja .LBB0_140 .align 16, 0x90 .LBB0_137: vucomisd %xmm4, %xmm3 ja .LBB0_139 vmovapd %xmm2, %xmm0 .LBB0_139: vmovapd %xmm0, %xmm5 .LBB0_140: vmovsd %xmm5, 408(%rbx) movl 1256(%rbx), %ecx leal (%rax,%rcx), %ecx movq 1160(%rbx), %rdx vmovsd 1792(%rbx,%rdx,8), %xmm2 movq 1648(%rbx), %rdx vmovsd 1792(%rbx,%rdx,8), %xmm4 vmovsd %xmm4, 400(%rbx) vsubsd %xmm2, %xmm4, %xmm0 vaddsd %xmm0, %xmm0, %xmm1 movslq %ecx, %rcx movq %rcx, 1032(%rbx) vmovsd 1792(%rbx,%rcx,8), %xmm3 vsubsd %xmm4, %xmm3, %xmm0 vaddsd %xmm0, %xmm0, %xmm0 vmulsd %xmm0, %xmm1, %xmm4 vucomisd %xmm4, %xmm6 jae .LBB0_146 vsubsd %xmm2, %xmm3, %xmm2 vmulsd %xmm14, %xmm2, %xmm2 vmovd %xmm2, %rcx andq %r14, %rcx vmovd %xmm1, %rdx vmovd %rcx, %xmm3 andq %r14, %rdx vmovd %rdx, %xmm5 vmovd %xmm0, %rcx andq %r14, %rcx vmovd %rcx, %xmm4 vucomisd %xmm5, %xmm4 jbe .LBB0_143 vucomisd %xmm5, %xmm3 vmovapd %xmm1, %xmm6 ja .LBB0_146 .align 16, 0x90 .LBB0_143: vucomisd %xmm4, %xmm3 ja .LBB0_145 vmovapd %xmm2, %xmm0 .LBB0_145: vmovapd %xmm0, %xmm6 .LBB0_146: vmovsd %xmm6, 416(%rbx) movl 1248(%rbx), %ecx leal (%rax,%rcx), %ecx movq 1136(%rbx), %rdx vmovsd 1792(%rbx,%rdx,8), %xmm2 movq 1640(%rbx), %rdx vmovsd 1792(%rbx,%rdx,8), %xmm4 vmovsd %xmm4, 392(%rbx) vsubsd %xmm2, %xmm4, %xmm0 vaddsd %xmm0, %xmm0, %xmm1 movslq %ecx, %rcx movq %rcx, 1056(%rbx) vmovsd 1792(%rbx,%rcx,8), %xmm3 vsubsd %xmm4, %xmm3, %xmm0 vaddsd %xmm0, %xmm0, %xmm0 vmulsd %xmm0, %xmm1, %xmm4 vxorpd %xmm6, %xmm6, %xmm6 vucomisd %xmm4, %xmm6 vxorpd %xmm5, %xmm5, %xmm5 jae .LBB0_152 vsubsd %xmm2, %xmm3, %xmm2 vmulsd %xmm14, %xmm2, %xmm2 vmovd %xmm2, %rcx andq %r14, %rcx vmovd %xmm1, %rdx vmovd %rcx, %xmm3 andq %r14, %rdx vmovd %rdx, %xmm5 vmovd %xmm0, %rcx andq %r14, %rcx vmovd %rcx, %xmm4 vucomisd %xmm5, %xmm4 jbe .LBB0_149 vucomisd %xmm5, %xmm3 vmovapd %xmm1, %xmm5 ja .LBB0_152 .align 16, 0x90 .LBB0_149: vucomisd %xmm4, %xmm3 ja .LBB0_151 vmovapd %xmm2, %xmm0 .LBB0_151: vmovapd %xmm0, %xmm5 .LBB0_152: vmovsd %xmm5, 376(%rbx) movl 1216(%rbx), %ecx leal (%rax,%rcx), %ecx movq 1128(%rbx), %rdx vmovsd 1792(%rbx,%rdx,8), %xmm2 movq 1632(%rbx), %rdx vmovsd 1792(%rbx,%rdx,8), %xmm4 vmovsd %xmm4, 368(%rbx) vsubsd %xmm2, %xmm4, %xmm0 vaddsd %xmm0, %xmm0, %xmm1 movslq %ecx, %rcx movq %rcx, 1048(%rbx) vmovsd 1792(%rbx,%rcx,8), %xmm3 vsubsd %xmm4, %xmm3, %xmm0 vaddsd %xmm0, %xmm0, %xmm0 vmulsd %xmm0, %xmm1, %xmm4 vucomisd %xmm4, %xmm6 jae .LBB0_158 vsubsd %xmm2, %xmm3, %xmm2 vmulsd %xmm14, %xmm2, %xmm2 vmovd %xmm2, %rcx andq %r14, %rcx vmovd %xmm1, %rdx vmovd %rcx, %xmm3 andq %r14, %rdx vmovd %rdx, %xmm5 vmovd %xmm0, %rcx andq %r14, %rcx vmovd %rcx, %xmm4 vucomisd %xmm5, %xmm4 jbe .LBB0_155 vucomisd %xmm5, %xmm3 vmovapd %xmm1, %xmm6 ja .LBB0_158 .align 16, 0x90 .LBB0_155: vucomisd %xmm4, %xmm3 ja .LBB0_157 vmovapd %xmm2, %xmm0 .LBB0_157: vmovapd %xmm0, %xmm6 .LBB0_158: vmovsd %xmm6, 384(%rbx) movl 1208(%rbx), %ecx leal (%rax,%rcx), %ecx movq 1120(%rbx), %rdx vmovsd 1792(%rbx,%rdx,8), %xmm1 movq 1624(%rbx), %rdx vmovsd 1792(%rbx,%rdx,8), %xmm4 vmovsd %xmm4, 360(%rbx) vsubsd %xmm1, %xmm4, %xmm0 vaddsd %xmm0, %xmm0, %xmm2 movslq %ecx, %rcx movq %rcx, 1088(%rbx) vmovsd 1792(%rbx,%rcx,8), %xmm3 vsubsd %xmm4, %xmm3, %xmm0 vaddsd %xmm0, %xmm0, %xmm0 vmulsd %xmm0, %xmm2, %xmm4 vxorpd %xmm5, %xmm5, %xmm5 vucomisd %xmm4, %xmm5 vxorpd %xmm5, %xmm5, %xmm5 jae .LBB0_164 vsubsd %xmm1, %xmm3, %xmm1 vmulsd %xmm14, %xmm1, %xmm1 vmovd %xmm1, %rcx andq %r14, %rcx vmovd %xmm2, %rdx vmovd %rcx, %xmm3 andq %r14, %rdx vmovd %rdx, %xmm5 vmovd %xmm0, %rcx andq %r14, %rcx vmovd %rcx, %xmm4 vucomisd %xmm5, %xmm4 jbe .LBB0_161 vucomisd %xmm5, %xmm3 vmovapd %xmm2, %xmm5 ja .LBB0_164 .align 16, 0x90 .LBB0_161: vucomisd %xmm4, %xmm3 ja .LBB0_163 vmovapd %xmm1, %xmm0 .LBB0_163: vmovapd %xmm0, %xmm5 .LBB0_164: vmovsd %xmm5, 344(%rbx) addl 1200(%rbx), %eax movq 1112(%rbx), %rcx vmovsd 1792(%rbx,%rcx,8), %xmm2 movq 1616(%rbx), %rcx vmovsd 1792(%rbx,%rcx,8), %xmm4 vmovsd %xmm4, 352(%rbx) vsubsd %xmm2, %xmm4, %xmm0 vaddsd %xmm0, %xmm0, %xmm1 movslq %eax, %rax movq %rax, 1072(%rbx) vmovsd 1792(%rbx,%rax,8), %xmm3 vsubsd %xmm4, %xmm3, %xmm0 vaddsd %xmm0, %xmm0, %xmm0 vmulsd %xmm0, %xmm1, %xmm4 vxorpd %xmm5, %xmm5, %xmm5 vucomisd %xmm4, %xmm5 movq 1776(%rbx), %rdx jae .LBB0_170 vsubsd %xmm2, %xmm3, %xmm2 vmulsd %xmm14, %xmm2, %xmm2 vmovd %xmm2, %rax andq %r14, %rax vmovd %xmm1, %rcx vmovd %rax, %xmm3 andq %r14, %rcx vmovd %rcx, %xmm5 vmovd %xmm0, %rax andq %r14, %rax vmovd %rax, %xmm4 vucomisd %xmm5, %xmm4 jbe .LBB0_167 vucomisd %xmm5, %xmm3 vmovapd %xmm1, %xmm5 ja .LBB0_170 .align 16, 0x90 .LBB0_167: vucomisd %xmm4, %xmm3 ja .LBB0_169 vmovapd %xmm2, %xmm0 .LBB0_169: vmovapd %xmm0, %xmm5 .LBB0_170: vmovsd %xmm5, 336(%rbx) vmovsd 984(%rbx), %xmm0 vdivsd 1304(%rbx), %xmm0, %xmm0 vmulsd .LCPI0_18(%rip), %xmm0, %xmm1 vmulsd %xmm1, %xmm0, %xmm0 vmovsd 976(%rbx), %xmm1 vdivsd %xmm0, %xmm1, %xmm0 vmulsd %xmm10, %xmm0, %xmm0 vmovsd %xmm0, 656(%rbx) vxorps %xmm10, %xmm10, %xmm10 vmulsd %xmm10, %xmm15, %xmm0 vaddsd %xmm0, %xmm11, %xmm14 vmulsd %xmm10, %xmm11, %xmm0 vaddsd %xmm15, %xmm0, %xmm7 vmovsd .LCPI0_19(%rip), %xmm0 vmovaps %xmm12, %xmm8 vmulsd %xmm0, %xmm8, %xmm0 vmovsd .LCPI0_20(%rip), %xmm1 vmulsd %xmm1, %xmm8, %xmm2 vaddsd %xmm2, %xmm9, %xmm1 vdivsd %xmm1, %xmm0, %xmm0 vmovsd 1592(%rbx), %xmm12 vmovsd 784(%rbx), %xmm1 vaddsd %xmm12, %xmm1, %xmm1 vmovsd 928(%rbx), %xmm4 vaddsd %xmm4, %xmm1, %xmm1 vmulsd %xmm10, %xmm12, %xmm3 vmovsd 968(%rbx), %xmm11 vaddsd %xmm3, %xmm11, %xmm3 vaddsd %xmm4, %xmm3, %xmm3 vmovsd 1008(%rbx), %xmm5 vmulsd %xmm10, %xmm5, %xmm4 vaddsd %xmm4, %xmm3, %xmm3 vmovsd %xmm3, 976(%rbx) vaddsd %xmm4, %xmm1, %xmm1 vmovsd %xmm1, 928(%rbx) vmovsd 944(%rbx), %xmm15 vmulsd 1600(%rbx), %xmm15, %xmm1 vmovsd 736(%rbx), %xmm4 vmulsd %xmm12, %xmm4, %xmm3 vsubsd %xmm1, %xmm3, %xmm1 vmovsd %xmm1, 1600(%rbx) vmulsd %xmm5, %xmm15, %xmm1 vmovsd 720(%rbx), %xmm5 vmulsd %xmm12, %xmm5, %xmm3 vsubsd %xmm1, %xmm3, %xmm1 vmovsd %xmm1, 1304(%rbx) vmulsd %xmm11, %xmm15, %xmm1 vsubsd 808(%rbx), %xmm1, %xmm1 vmovsd %xmm1, 1008(%rbx) vmulsd %xmm11, %xmm4, %xmm1 vsubsd 776(%rbx), %xmm1, %xmm1 vmovsd %xmm1, 992(%rbx) vmulsd %xmm11, %xmm5, %xmm1 vsubsd 728(%rbx), %xmm1, %xmm1 vmovsd %xmm1, 984(%rbx) vmovsd 704(%rbx), %xmm3 vaddsd %xmm3, %xmm9, %xmm1 vaddsd %xmm2, %xmm1, %xmm1 vdivsd %xmm1, %xmm3, %xmm2 vmulsd %xmm0, %xmm2, %xmm1 vaddsd %xmm0, %xmm2, %xmm0 vmovsd 712(%rbx), %xmm2 vdivsd %xmm9, %xmm2, %xmm2 vmovsd 1608(%rbx), %xmm3 vdivsd %xmm2, %xmm3, %xmm4 vmulsd 936(%rbx), %xmm4, %xmm3 vmulsd %xmm15, %xmm4, %xmm4 vmovaps 672(%rbx), %xmm5 vdivsd %xmm5, %xmm4, %xmm4 vdivsd %xmm5, %xmm3, %xmm6 vsubsd %xmm1, %xmm0, %xmm0 vmovsd %xmm0, 784(%rbx) vmovsd .LCPI0_5(%rip), %xmm1 vdivsd %xmm1, %xmm9, %xmm1 vmulsd 488(%rbx), %xmm1, %xmm5 vmovaps %xmm13, %xmm0 vmulsd %xmm10, %xmm0, %xmm1 vmovsd 464(%rbx), %xmm13 vaddsd %xmm13, %xmm1, %xmm1 vmovsd %xmm1, 776(%rbx) vmulsd %xmm10, %xmm13, %xmm1 vaddsd %xmm1, %xmm0, %xmm13 vaddsd %xmm2, %xmm2, %xmm2 vmovsd 512(%rbx), %xmm0 vmulsd .LCPI0_11(%rip), %xmm0, %xmm3 vdivsd %xmm2, %xmm3, %xmm0 vmovsd %xmm0, 808(%rbx) vmulsd %xmm11, %xmm5, %xmm2 vaddsd %xmm6, %xmm2, %xmm0 vmovsd %xmm0, 1608(%rbx) vmulsd %xmm12, %xmm5, %xmm2 vaddsd %xmm4, %xmm2, %xmm0 vmovsd %xmm0, 936(%rbx) vmovsd 496(%rbx), %xmm0 vaddsd %xmm0, %xmm7, %xmm2 vaddsd %xmm0, %xmm14, %xmm1 vmovsd 568(%rbx), %xmm0 vaddsd %xmm0, %xmm2, %xmm2 vmovsd 544(%rbx), %xmm4 vmulsd %xmm10, %xmm4, %xmm3 vmovsd 560(%rbx), %xmm6 vaddsd %xmm6, %xmm3, %xmm3 vmovsd 536(%rbx), %xmm7 vaddsd %xmm7, %xmm3, %xmm3 vmovsd 528(%rbx), %xmm14 vaddsd %xmm14, %xmm3, %xmm3 vmulsd %xmm10, %xmm3, %xmm5 vaddsd %xmm5, %xmm2, %xmm8 vmulsd %xmm10, %xmm2, %xmm2 vaddsd %xmm3, %xmm2, %xmm5 vmovsd 520(%rbx), %xmm2 vaddsd %xmm2, %xmm13, %xmm13 vmovsd 776(%rbx), %xmm3 vaddsd %xmm2, %xmm3, %xmm2 vaddsd %xmm0, %xmm1, %xmm1 vmulsd %xmm10, %xmm6, %xmm3 vaddsd %xmm3, %xmm4, %xmm3 vaddsd %xmm7, %xmm3, %xmm3 vaddsd %xmm14, %xmm3, %xmm3 vmulsd %xmm10, %xmm3, %xmm3 vaddsd %xmm3, %xmm1, %xmm1 vmovsd 576(%rbx), %xmm0 vaddsd %xmm0, %xmm2, %xmm3 vmulsd %xmm10, %xmm3, %xmm3 vaddsd %xmm3, %xmm5, %xmm4 vaddsd %xmm3, %xmm8, %xmm5 vaddsd %xmm0, %xmm13, %xmm2 vmovsd 616(%rbx), %xmm14 vmulsd %xmm10, %xmm14, %xmm3 vmovsd 624(%rbx), %xmm8 vaddsd %xmm8, %xmm3, %xmm3 vmovsd 592(%rbx), %xmm0 vaddsd %xmm0, %xmm3, %xmm3 vmovsd 584(%rbx), %xmm13 vaddsd %xmm13, %xmm3, %xmm3 vmulsd %xmm10, %xmm3, %xmm3 vaddsd %xmm3, %xmm5, %xmm7 vaddsd %xmm3, %xmm4, %xmm6 vmulsd %xmm10, %xmm2, %xmm2 vaddsd %xmm2, %xmm1, %xmm1 vmulsd %xmm10, %xmm8, %xmm2 vaddsd %xmm2, %xmm14, %xmm2 vaddsd %xmm0, %xmm2, %xmm2 vaddsd %xmm13, %xmm2, %xmm2 vmulsd %xmm10, %xmm2, %xmm2 vaddsd %xmm2, %xmm1, %xmm2 vmovsd 976(%rbx), %xmm0 vmovsd 928(%rbx), %xmm3 vmulsd %xmm3, %xmm0, %xmm1 vmulsd %xmm3, %xmm3, %xmm4 vmulsd %xmm0, %xmm0, %xmm5 vaddsd %xmm5, %xmm2, %xmm2 vmovsd 784(%rbx), %xmm0 vmulsd %xmm2, %xmm0, %xmm3 vaddsd %xmm6, %xmm4, %xmm2 vmulsd %xmm2, %xmm0, %xmm2 vaddsd %xmm1, %xmm7, %xmm6 vmulsd %xmm6, %xmm0, %xmm8 vsubsd %xmm2, %xmm4, %xmm4 vsubsd %xmm3, %xmm5, %xmm10 vmovaps 1728(%rbx), %xmm0 vmulsd %xmm0, %xmm9, %xmm2 vmulsd %xmm12, %xmm2, %xmm3 vmovsd %xmm3, 584(%rbx) vmulsd %xmm11, %xmm2, %xmm2 vmovsd %xmm2, 592(%rbx) vmulsd %xmm12, %xmm15, %xmm6 vmovsd 808(%rbx), %xmm2 vmulsd %xmm2, %xmm11, %xmm5 vmulsd %xmm2, %xmm12, %xmm2 vmovsd .LCPI0_21(%rip), %xmm3 vmulsd %xmm3, %xmm10, %xmm3 vmulsd %xmm4, %xmm3, %xmm7 vsubsd %xmm8, %xmm1, %xmm3 vmovsd 936(%rbx), %xmm1 vsubsd %xmm2, %xmm1, %xmm4 vmovsd 1608(%rbx), %xmm1 vsubsd %xmm5, %xmm1, %xmm5 vaddsd %xmm3, %xmm3, %xmm1 vmulsd %xmm1, %xmm1, %xmm2 vaddsd %xmm7, %xmm2, %xmm8 vsubsd %xmm6, %xmm6, %xmm6 vmovaps %xmm0, %xmm2 vmovsd 984(%rbx), %xmm7 vmulsd %xmm2, %xmm7, %xmm7 vmovsd %xmm7, 704(%rbx) vmovsd 992(%rbx), %xmm7 vmulsd %xmm2, %xmm7, %xmm7 vmovsd %xmm7, 624(%rbx) vmovsd 1008(%rbx), %xmm7 vmulsd %xmm2, %xmm7, %xmm7 vmovsd %xmm7, 576(%rbx) vmovsd 1304(%rbx), %xmm7 vmulsd %xmm2, %xmm7, %xmm7 vmovsd %xmm7, 616(%rbx) vmovsd 1600(%rbx), %xmm7 vmulsd %xmm2, %xmm7, %xmm7 vmovsd %xmm7, 672(%rbx) vmulsd %xmm2, %xmm6, %xmm6 vmovsd %xmm6, 712(%rbx) vmovsd 1576(%rbx), %xmm6 vmulsd %xmm2, %xmm6, %xmm6 vmovsd %xmm6, 776(%rbx) vmovsd 696(%rbx), %xmm6 vmulsd %xmm2, %xmm6, %xmm6 vmovsd %xmm6, 784(%rbx) vmulsd %xmm2, %xmm5, %xmm5 vmovsd %xmm5, 736(%rbx) vmulsd %xmm2, %xmm4, %xmm4 vmovsd %xmm4, 728(%rbx) vmovsd .LCPI0_22(%rip), %xmm4 vmulsd %xmm4, %xmm3, %xmm3 vaddsd %xmm10, %xmm10, %xmm0 vmovq %xmm8, %xmm2 vsqrtpd %xmm2, %xmm2 vsubsd %xmm1, %xmm2, %xmm1 vmovsd .LCPI0_2(%rip), %xmm4 vxorpd %xmm4, %xmm1, %xmm1 vdivsd %xmm0, %xmm1, %xmm1 vsubsd %xmm2, %xmm3, %xmm2 vxorpd %xmm4, %xmm2, %xmm2 vdivsd %xmm0, %xmm2, %xmm0 vminsd %xmm1, %xmm0, %xmm2 vmovsd %xmm2, 720(%rbx) vmaxsd %xmm0, %xmm1, %xmm0 vmovsd %xmm0, 808(%rbx) vmovsd .LCPI0_23(%rip), %xmm1 vmovsd 640(%rbx), %xmm0 vmulsd %xmm1, %xmm0, %xmm0 vmovsd 664(%rbx), %xmm2 vaddsd %xmm0, %xmm2, %xmm12 vmovsd 440(%rbx), %xmm0 vmulsd %xmm1, %xmm0, %xmm0 vmovsd 632(%rbx), %xmm2 vaddsd %xmm0, %xmm2, %xmm14 vmovsd 448(%rbx), %xmm0 vmulsd %xmm1, %xmm0, %xmm0 vmovsd 432(%rbx), %xmm2 vaddsd %xmm0, %xmm2, %xmm0 vmovsd 408(%rbx), %xmm2 vmulsd %xmm1, %xmm2, %xmm2 vmovsd 424(%rbx), %xmm3 vaddsd %xmm2, %xmm3, %xmm2 vmovsd 416(%rbx), %xmm3 vmulsd %xmm1, %xmm3, %xmm3 vmovsd 400(%rbx), %xmm4 vaddsd %xmm3, %xmm4, %xmm7 vmovsd 376(%rbx), %xmm3 vmulsd %xmm1, %xmm3, %xmm3 vmovsd 392(%rbx), %xmm4 vaddsd %xmm3, %xmm4, %xmm11 vmovsd 384(%rbx), %xmm3 vmulsd %xmm1, %xmm3, %xmm3 vmovsd 368(%rbx), %xmm4 vaddsd %xmm3, %xmm4, %xmm15 vmovsd 344(%rbx), %xmm3 vmulsd %xmm1, %xmm3, %xmm3 vmovsd 360(%rbx), %xmm4 vaddsd %xmm3, %xmm4, %xmm8 vxorps %xmm10, %xmm10, %xmm10 vmulsd %xmm10, %xmm0, %xmm3 vmulsd %xmm3, %xmm7, %xmm4 vmulsd %xmm3, %xmm2, %xmm3 vaddsd %xmm4, %xmm3, %xmm3 vmulsd %xmm10, %xmm2, %xmm4 vmulsd %xmm4, %xmm7, %xmm4 vaddsd %xmm4, %xmm3, %xmm3 vaddsd %xmm3, %xmm3, %xmm4 vmulsd %xmm2, %xmm2, %xmm3 vmulsd %xmm0, %xmm0, %xmm5 vmovsd .LCPI0_0(%rip), %xmm6 vaddsd %xmm6, %xmm5, %xmm5 vaddsd %xmm3, %xmm5, %xmm3 vmulsd %xmm7, %xmm7, %xmm5 vaddsd %xmm5, %xmm3, %xmm3 vaddsd %xmm4, %xmm3, %xmm4 vmovsd 336(%rbx), %xmm3 vmulsd %xmm1, %xmm3, %xmm3 vmovsd .LCPI0_1(%rip), %xmm5 vmaxsd %xmm14, %xmm5, %xmm1 vmovsd %xmm1, 944(%rbx) vmaxsd %xmm12, %xmm5, %xmm1 vmovsd %xmm1, 1576(%rbx) vmovq %xmm4, %xmm1 vmovsd 352(%rbx), %xmm4 vaddsd %xmm3, %xmm4, %xmm3 vmovsd %xmm3, 1592(%rbx) vsqrtpd %xmm1, %xmm1 vmovsd 1720(%rbx), %xmm3 vdivsd %xmm3, %xmm1, %xmm4 vmovsd %xmm4, 1608(%rbx) vmulsd .LCPI0_3(%rip), %xmm1, %xmm1 vmulsd %xmm3, %xmm1, %xmm1 vsubsd %xmm1, %xmm7, %xmm6 vmovsd %xmm6, 1000(%rbx) vsubsd %xmm1, %xmm0, %xmm5 vmovsd %xmm5, 1600(%rbx) vsubsd %xmm1, %xmm2, %xmm0 vmovsd %xmm0, 1008(%rbx) vmulsd %xmm10, %xmm0, %xmm3 vmovsd %xmm3, 536(%rbx) vmovaps %xmm0, %xmm9 vmulsd %xmm10, %xmm4, %xmm7 vaddsd %xmm5, %xmm7, %xmm1 vaddsd %xmm3, %xmm1, %xmm1 vmulsd %xmm10, %xmm6, %xmm2 vmovsd %xmm2, 976(%rbx) vaddsd %xmm2, %xmm1, %xmm0 vmovsd %xmm0, 1304(%rbx) vmulsd %xmm10, %xmm5, %xmm1 vmovsd %xmm1, 968(%rbx) vmovaps %xmm5, %xmm12 vaddsd %xmm1, %xmm7, %xmm5 vaddsd %xmm9, %xmm5, %xmm1 vmovaps %xmm9, %xmm7 vaddsd %xmm2, %xmm1, %xmm1 vmovsd %xmm1, 928(%rbx) vmulsd %xmm1, %xmm15, %xmm1 vmulsd %xmm0, %xmm11, %xmm2 vmovaps %xmm11, %xmm9 vaddsd %xmm1, %xmm2, %xmm1 vaddsd %xmm3, %xmm5, %xmm0 vmovaps %xmm3, %xmm14 vaddsd %xmm6, %xmm0, %xmm0 vmovsd %xmm0, 936(%rbx) vmulsd %xmm0, %xmm8, %xmm0 vaddsd %xmm0, %xmm1, %xmm13 vmovsd %xmm13, 696(%rbx) movabsq $-4616189618054758400, %rax movq %rax, 1384(%r13,%rsi) vxorps %xmm0, %xmm0, %xmm0 vmovups %xmm0, 16(%rdi) vmovups %xmm0, (%rdi) movabsq $4607182418800017408, %r15 movq %r15, 1424(%r13,%rsi) movq 1768(%rbx), %rcx vmovups %xmm0, 16(%rcx) vmovups %xmm0, (%rcx) movq %r15, 1464(%r13,%rsi) vmovups %xmm0, 16(%rdx) vmovups %xmm0, (%rdx) movq %r15, 1504(%r13,%rsi) movq %rax, 1256(%r13,%rsi) movabsq $-9223372036854775808, %rax movq %rax, 1264(%r13,%rsi) movq %rax, 1272(%r13,%rsi) movq %rax, 1280(%r13,%rsi) movq %rax, 1288(%r13,%rsi) movq %r15, 1296(%r13,%rsi) movq %rax, 1304(%r13,%rsi) movq %rax, 1312(%r13,%rsi) movq %rax, 1320(%r13,%rsi) movq %rax, 1328(%r13,%rsi) movq %r15, 1336(%r13,%rsi) movq %rax, 1344(%r13,%rsi) movq %rax, 1352(%r13,%rsi) movq %rax, 1360(%r13,%rsi) movq %rax, 1368(%r13,%rsi) movq %r15, 1376(%r13,%rsi) vmulsd %xmm7, %xmm13, %xmm0 vmovsd %xmm0, 664(%rbx) vaddsd %xmm0, %xmm15, %xmm0 vmulsd %xmm6, %xmm13, %xmm1 vmovaps %xmm6, %xmm11 vmovsd %xmm1, 640(%rbx) vaddsd %xmm1, %xmm8, %xmm1 vdivsd %xmm4, %xmm1, %xmm8 vmovsd %xmm8, 568(%rbx) vdivsd %xmm4, %xmm0, %xmm15 vmovsd %xmm15, 984(%rbx) vmulsd %xmm12, %xmm13, %xmm0 vmovsd %xmm0, 632(%rbx) vaddsd %xmm0, %xmm9, %xmm0 vdivsd %xmm4, %xmm0, %xmm6 vmovsd %xmm6, 992(%rbx) vmovaps %xmm4, %xmm5 vxorps %xmm4, %xmm4, %xmm4 vmulsd %xmm4, %xmm13, %xmm0 vmulsd %xmm4, %xmm6, %xmm1 vaddsd %xmm1, %xmm0, %xmm2 vsubsd %xmm13, %xmm1, %xmm3 vaddsd %xmm6, %xmm0, %xmm1 vmovaps %xmm6, %xmm9 vmulsd %xmm4, %xmm15, %xmm0 vaddsd %xmm0, %xmm1, %xmm1 vaddsd %xmm0, %xmm3, %xmm3 vaddsd %xmm0, %xmm2, %xmm10 vaddsd %xmm15, %xmm2, %xmm2 vmulsd (%rdx), %xmm8, %xmm4 vaddsd %xmm4, %xmm2, %xmm6 vmovsd %xmm6, 368(%rbx) vmulsd .LCPI0_24, %xmm8, %xmm2 vaddsd %xmm2, %xmm3, %xmm0 vmovsd %xmm0, 392(%rbx) vaddsd %xmm2, %xmm1, %xmm3 vmovsd %xmm3, 376(%rbx) vmovsd 944(%rbx), %xmm2 vmovsd 1576(%rbx), %xmm1 vaddsd %xmm2, %xmm1, %xmm1 vmulsd .LCPI0_5(%rip), %xmm2, %xmm4 vmovsd %xmm4, 560(%rbx) vaddsd %xmm1, %xmm4, %xmm1 vmovsd 968(%rbx), %xmm2 vsubsd %xmm5, %xmm2, %xmm2 vaddsd %xmm14, %xmm2, %xmm2 vaddsd 976(%rbx), %xmm2, %xmm14 vmovsd %xmm14, 344(%rbx) vmulsd %xmm3, %xmm9, %xmm2 vmovsd %xmm2, 512(%rbx) vmulsd %xmm0, %xmm13, %xmm0 vmovsd %xmm0, 488(%rbx) vaddsd %xmm2, %xmm0, %xmm3 vmulsd %xmm6, %xmm15, %xmm2 vmovsd %xmm2, 520(%rbx) vaddsd %xmm2, %xmm3, %xmm3 vaddsd %xmm8, %xmm10, %xmm0 vmovsd %xmm0, 360(%rbx) vmulsd %xmm0, %xmm8, %xmm0 vmovsd %xmm0, 496(%rbx) vaddsd %xmm0, %xmm3, %xmm2 vmovsd %xmm2, 528(%rbx) vmovsd .LCPI0_4(%rip), %xmm0 vmaxsd %xmm2, %xmm0, %xmm0 vmovaps %xmm0, 544(%rbx) vaddsd %xmm1, %xmm0, %xmm1 vmulsd .LCPI0_6(%rip), %xmm0, %xmm0 vaddsd %xmm0, %xmm4, %xmm0 vmulsd %xmm1, %xmm7, %xmm3 vmulsd %xmm1, %xmm12, %xmm9 vmulsd %xmm1, %xmm5, %xmm7 vmulsd %xmm1, %xmm11, %xmm1 vmovsd 936(%rbx), %xmm6 vmulsd %xmm1, %xmm6, %xmm11 vmovsd 928(%rbx), %xmm2 vmulsd %xmm1, %xmm2, %xmm4 vmovsd %xmm4, 384(%rbx) vmovsd 1304(%rbx), %xmm10 vmulsd %xmm1, %xmm10, %xmm4 vmovsd %xmm4, 408(%rbx) vmovaps %xmm14, %xmm4 vmulsd %xmm1, %xmm4, %xmm1 vmovsd %xmm1, 424(%rbx) vmulsd %xmm7, %xmm4, %xmm5 vmovaps %xmm4, %xmm1 vaddsd %xmm5, %xmm0, %xmm4 vmovsd %xmm4, 432(%rbx) vaddsd %xmm11, %xmm0, %xmm4 vmovsd %xmm4, 464(%rbx) vmovaps %xmm10, %xmm5 vmulsd %xmm9, %xmm5, %xmm4 vaddsd %xmm4, %xmm0, %xmm4 vmovsd %xmm4, 440(%rbx) vmulsd %xmm3, %xmm2, %xmm4 vaddsd %xmm4, %xmm0, %xmm4 vmovsd %xmm4, 448(%rbx) vmulsd .LCPI0_24, %xmm0, %xmm0 vmulsd %xmm3, %xmm6, %xmm12 vmulsd %xmm3, %xmm5, %xmm4 vmovsd %xmm4, 416(%rbx) vmulsd %xmm3, %xmm1, %xmm3 vmovsd %xmm3, 400(%rbx) vmulsd %xmm7, %xmm5, %xmm14 vmulsd %xmm7, %xmm2, %xmm11 vmulsd %xmm7, %xmm6, %xmm10 vaddsd %xmm14, %xmm0, %xmm7 vaddsd 424(%rbx), %xmm0, %xmm3 vmovsd %xmm3, 424(%rbx) vaddsd 408(%rbx), %xmm0, %xmm3 vmovsd %xmm3, 408(%rbx) vaddsd 384(%rbx), %xmm0, %xmm3 vmovsd %xmm3, 304(%rbx) vaddsd %xmm12, %xmm0, %xmm14 vmulsd %xmm9, %xmm1, %xmm1 vaddsd %xmm1, %xmm0, %xmm1 vaddsd %xmm10, %xmm0, %xmm10 vaddsd %xmm11, %xmm0, %xmm11 vmulsd %xmm9, %xmm6, %xmm4 vmulsd %xmm9, %xmm2, %xmm5 vaddsd %xmm5, %xmm0, %xmm2 vmovsd %xmm2, 320(%rbx) vaddsd %xmm4, %xmm0, %xmm2 vmovsd %xmm2, 312(%rbx) vaddsd 400(%rbx), %xmm0, %xmm12 vaddsd 416(%rbx), %xmm0, %xmm0 vmovsd 432(%rbx), %xmm2 vsubsd 488(%rbx), %xmm2, %xmm2 vmovsd %xmm2, 328(%rbx) vmovsd 376(%rbx), %xmm6 vmulsd %xmm6, %xmm13, %xmm5 vsubsd %xmm5, %xmm7, %xmm2 vmovsd %xmm2, 336(%rbx) vmovsd 368(%rbx), %xmm2 vmulsd %xmm2, %xmm13, %xmm5 vsubsd %xmm5, %xmm11, %xmm3 vmovsd %xmm3, 352(%rbx) vmovsd 360(%rbx), %xmm4 vmulsd %xmm4, %xmm13, %xmm5 vsubsd %xmm5, %xmm10, %xmm5 vmovsd %xmm5, 384(%rbx) vmovsd 440(%rbx), %xmm3 vsubsd 512(%rbx), %xmm3, %xmm5 vmovsd %xmm5, 416(%rbx) vmovsd 392(%rbx), %xmm7 vmovsd 992(%rbx), %xmm3 vmulsd %xmm7, %xmm3, %xmm5 vsubsd %xmm5, %xmm1, %xmm1 vmovsd %xmm1, 400(%rbx) vmulsd %xmm4, %xmm15, %xmm1 vmovaps %xmm4, %xmm9 vsubsd %xmm1, %xmm14, %xmm1 vmovsd %xmm1, 432(%rbx) vmovsd 464(%rbx), %xmm1 vsubsd 496(%rbx), %xmm1, %xmm1 vmovsd %xmm1, 496(%rbx) vmulsd %xmm2, %xmm8, %xmm1 vmovaps %xmm2, %xmm4 vmovsd 304(%rbx), %xmm2 vsubsd %xmm1, %xmm2, %xmm1 vmovsd %xmm1, 464(%rbx) vmovaps %xmm6, %xmm2 vmulsd %xmm2, %xmm8, %xmm1 vmovsd 408(%rbx), %xmm5 vsubsd %xmm1, %xmm5, %xmm1 vmovsd %xmm1, 440(%rbx) vmovaps %xmm7, %xmm5 vmulsd %xmm5, %xmm8, %xmm1 vmovsd 424(%rbx), %xmm6 vsubsd %xmm1, %xmm6, %xmm1 vmovsd %xmm1, 408(%rbx) vmovsd 448(%rbx), %xmm1 vsubsd 520(%rbx), %xmm1, %xmm1 vmovsd %xmm1, 520(%rbx) vmulsd %xmm2, %xmm15, %xmm1 vmovaps %xmm2, %xmm10 vsubsd %xmm1, %xmm0, %xmm0 vmovsd %xmm0, 488(%rbx) vmulsd %xmm5, %xmm15, %xmm0 vsubsd %xmm0, %xmm12, %xmm0 vmovsd %xmm0, 448(%rbx) vmovaps %xmm3, %xmm1 vmulsd %xmm9, %xmm1, %xmm0 vmovsd 312(%rbx), %xmm2 vsubsd %xmm0, %xmm2, %xmm0 vmovsd %xmm0, 424(%rbx) vmulsd %xmm4, %xmm1, %xmm0 vmovaps %xmm1, %xmm12 vmovsd 320(%rbx), %xmm1 vsubsd %xmm0, %xmm1, %xmm0 vmovsd %xmm0, 512(%rbx) vmovq 544(%rbx), %xmm0 vsqrtpd %xmm0, %xmm6 vmovapd %xmm6, 544(%rbx) vmovsd 1592(%rbx), %xmm2 vmulsd %xmm2, %xmm13, %xmm0 vdivsd %xmm6, %xmm0, %xmm0 vmovsd 344(%rbx), %xmm13 vmulsd %xmm0, %xmm13, %xmm1 vmovsd 328(%rbx), %xmm3 vaddsd %xmm1, %xmm3, %xmm1 vmulsd %xmm2, %xmm5, %xmm3 vdivsd %xmm6, %xmm3, %xmm11 vmovsd 1608(%rbx), %xmm7 vmulsd %xmm11, %xmm7, %xmm3 vaddsd %xmm3, %xmm1, %xmm1 vmovsd %xmm1, 1512(%r13,%rsi) vmovsd 1304(%rbx), %xmm5 vmulsd %xmm0, %xmm5, %xmm1 vmovsd 336(%rbx), %xmm3 vaddsd %xmm1, %xmm3, %xmm1 vmulsd %xmm2, %xmm10, %xmm3 vdivsd %xmm6, %xmm3, %xmm15 vmulsd %xmm15, %xmm7, %xmm3 vaddsd %xmm3, %xmm1, %xmm1 vmovsd %xmm1, 1520(%r13,%rsi) vmovsd 928(%rbx), %xmm14 vmulsd %xmm0, %xmm14, %xmm1 vmovsd 352(%rbx), %xmm3 vaddsd %xmm1, %xmm3, %xmm1 vmulsd %xmm2, %xmm4, %xmm3 vdivsd %xmm6, %xmm3, %xmm10 vmulsd %xmm10, %xmm7, %xmm4 vaddsd %xmm4, %xmm1, %xmm1 vmovsd %xmm1, 1528(%r13,%rsi) vmovsd 936(%rbx), %xmm4 vmulsd %xmm0, %xmm4, %xmm0 vmovsd 384(%rbx), %xmm1 vaddsd %xmm0, %xmm1, %xmm0 vmulsd %xmm2, %xmm9, %xmm1 vdivsd %xmm6, %xmm1, %xmm9 vmulsd %xmm9, %xmm7, %xmm1 vaddsd %xmm1, %xmm0, %xmm0 vmovsd %xmm0, 1536(%r13,%rsi) vmulsd %xmm2, %xmm12, %xmm0 vdivsd %xmm6, %xmm0, %xmm12 vmulsd %xmm12, %xmm13, %xmm0 vmovsd 400(%rbx), %xmm1 vaddsd %xmm0, %xmm1, %xmm0 vmovsd 1600(%rbx), %xmm3 vmulsd %xmm11, %xmm3, %xmm1 vaddsd %xmm1, %xmm0, %xmm0 vmulsd %xmm12, %xmm5, %xmm1 vmovsd 416(%rbx), %xmm7 vaddsd %xmm1, %xmm7, %xmm1 vmovsd %xmm1, 400(%rbx) vmovsd %xmm0, 1544(%r13,%rsi) vmovsd 984(%rbx), %xmm0 vmulsd %xmm2, %xmm0, %xmm0 vdivsd %xmm6, %xmm0, %xmm0 vmulsd %xmm0, %xmm4, %xmm1 vmovsd 432(%rbx), %xmm7 vaddsd %xmm1, %xmm7, %xmm1 vmovsd %xmm1, 432(%rbx) vmulsd %xmm2, %xmm8, %xmm1 vdivsd %xmm6, %xmm1, %xmm1 vmulsd %xmm1, %xmm13, %xmm6 vmovsd 408(%rbx), %xmm2 vaddsd %xmm6, %xmm2, %xmm2 vmovsd %xmm2, 416(%rbx) vmovaps %xmm5, %xmm2 vmulsd %xmm1, %xmm2, %xmm6 vmovsd 440(%rbx), %xmm5 vaddsd %xmm6, %xmm5, %xmm8 vmulsd %xmm1, %xmm14, %xmm6 vmovsd 464(%rbx), %xmm5 vaddsd %xmm6, %xmm5, %xmm7 vmulsd %xmm1, %xmm4, %xmm1 vmovsd 496(%rbx), %xmm5 vaddsd %xmm1, %xmm5, %xmm5 vmulsd %xmm15, %xmm3, %xmm6 vmovsd 400(%rbx), %xmm1 vaddsd %xmm6, %xmm1, %xmm6 vmulsd %xmm12, %xmm4, %xmm1 vmovsd 424(%rbx), %xmm3 vaddsd %xmm1, %xmm3, %xmm1 vmovsd %xmm1, 496(%rbx) vmulsd %xmm0, %xmm13, %xmm1 vmovsd 448(%rbx), %xmm3 vaddsd %xmm1, %xmm3, %xmm1 vmovsd %xmm1, 464(%rbx) vmulsd %xmm0, %xmm2, %xmm1 vmovsd 488(%rbx), %xmm2 vaddsd %xmm1, %xmm2, %xmm4 vmulsd %xmm0, %xmm14, %xmm0 vmovaps %xmm14, %xmm3 vmovsd 520(%rbx), %xmm1 vaddsd %xmm0, %xmm1, %xmm2 vmovsd %xmm6, 1552(%r13,%rsi) vmovsd 1000(%rbx), %xmm1 vmulsd %xmm9, %xmm1, %xmm0 vaddsd %xmm0, %xmm5, %xmm0 vmovsd %xmm0, 936(%rbx) vmulsd %xmm10, %xmm1, %xmm0 vaddsd %xmm0, %xmm7, %xmm7 vmulsd %xmm15, %xmm1, %xmm0 vaddsd %xmm0, %xmm8, %xmm14 vmulsd %xmm11, %xmm1, %xmm0 vmovsd 416(%rbx), %xmm1 vaddsd %xmm0, %xmm1, %xmm8 vmovsd 1008(%rbx), %xmm0 vmulsd %xmm9, %xmm0, %xmm1 vmovsd 432(%rbx), %xmm5 vaddsd %xmm1, %xmm5, %xmm13 vmulsd %xmm10, %xmm0, %xmm6 vaddsd %xmm6, %xmm2, %xmm2 vmulsd %xmm15, %xmm0, %xmm5 vaddsd %xmm5, %xmm4, %xmm5 vmulsd %xmm11, %xmm0, %xmm6 vmovsd 464(%rbx), %xmm0 vaddsd %xmm6, %xmm0, %xmm6 vmovsd 1600(%rbx), %xmm0 vmulsd %xmm9, %xmm0, %xmm4 vmovsd 496(%rbx), %xmm1 vaddsd %xmm4, %xmm1, %xmm1 vmovsd %xmm1, 520(%rbx) vmulsd %xmm12, %xmm3, %xmm4 vmovsd 512(%rbx), %xmm3 vaddsd %xmm4, %xmm3, %xmm4 vmulsd %xmm10, %xmm0, %xmm3 vaddsd %xmm3, %xmm4, %xmm0 vmovsd %xmm0, 496(%rbx) vmovsd %xmm0, 1560(%r13,%rsi) vmovsd %xmm1, 1568(%r13,%rsi) vmovsd %xmm6, 1576(%r13,%rsi) vmovsd %xmm5, 1584(%r13,%rsi) vmovsd %xmm2, 1592(%r13,%rsi) vmovsd %xmm13, 1600(%r13,%rsi) vmovsd %xmm8, 1608(%r13,%rsi) vmovsd %xmm14, 1616(%r13,%rsi) vmovsd %xmm7, 1624(%r13,%rsi) vmovsd 936(%rbx), %xmm0 vmovsd %xmm0, 1632(%r13,%rsi) vmovaps 1728(%rbx), %xmm0 vmulsd 1544(%r13,%rsi), %xmm0, %xmm1 vmovsd %xmm1, 512(%rbx) vmulsd 1552(%r13,%rsi), %xmm0, %xmm1 vmovsd %xmm1, 488(%rbx) vmulsd 1536(%r13,%rsi), %xmm0, %xmm1 vmovsd %xmm1, 464(%rbx) vmulsd 1528(%r13,%rsi), %xmm0, %xmm1 vmovsd %xmm1, 448(%rbx) vmulsd 1520(%r13,%rsi), %xmm0, %xmm1 vmovsd %xmm1, 440(%rbx) vmulsd 1512(%r13,%rsi), %xmm0, %xmm0 vmovsd %xmm0, 432(%rbx) vmovsd 1576(%rbx), %xmm8 vmovaps %xmm8, %xmm0 vmovsd .LCPI0_8(%rip), %xmm1 movq %rsi, %r12 callq __ocl_svml_e9_pow1 vmovsd 944(%rbx), %xmm9 vmulsd %xmm0, %xmm9, %xmm0 callq __ocl_svml_e9_log1 vmovsd %xmm0, 416(%rbx) vmovsd 1592(%rbx), %xmm0 vmovsd .LCPI0_10(%rip), %xmm1 callq __ocl_svml_e9_pow1 movq %r12, %rdx vmovsd %xmm0, 424(%rbx) movq 1696(%rbx), %rax vxorps %xmm0, %xmm0, %xmm0 vmovups %xmm0, 16(%rax) vmovups %xmm0, (%rax) movq %r15, 1232(%r13,%rdx) vmovsd 1256(%r13,%rdx), %xmm0 vmovsd 1264(%r13,%rdx), %xmm1 vxorps %xmm6, %xmm6, %xmm6 vmulsd %xmm6, %xmm1, %xmm2 vaddsd %xmm2, %xmm0, %xmm2 vmulsd %xmm6, %xmm0, %xmm0 vaddsd %xmm1, %xmm0, %xmm0 vmovsd %xmm0, 936(%rbx) vmovaps %xmm9, %xmm1 vmulsd .LCPI0_19(%rip), %xmm1, %xmm0 vmulsd .LCPI0_20(%rip), %xmm1, %xmm3 vmovaps %xmm8, %xmm4 vaddsd %xmm3, %xmm4, %xmm1 vdivsd %xmm1, %xmm0, %xmm1 vmovsd 1608(%rbx), %xmm0 vaddsd 968(%rbx), %xmm0, %xmm0 vaddsd 536(%rbx), %xmm0, %xmm0 vaddsd 976(%rbx), %xmm0, %xmm0 vmovsd %xmm0, 976(%rbx) vmovsd 528(%rbx), %xmm5 vaddsd %xmm5, %xmm4, %xmm0 vaddsd %xmm3, %xmm0, %xmm0 vdivsd %xmm0, %xmm5, %xmm0 vmulsd %xmm1, %xmm0, %xmm3 vaddsd %xmm1, %xmm0, %xmm0 vsubsd %xmm3, %xmm0, %xmm8 vmovsd 1352(%r13,%rdx), %xmm0 vmovsd 1360(%r13,%rdx), %xmm1 vmulsd %xmm6, %xmm1, %xmm3 vaddsd %xmm3, %xmm0, %xmm9 vmulsd %xmm6, %xmm0, %xmm0 vaddsd %xmm1, %xmm0, %xmm1 vmulsd 1272(%r13,%rdx), %xmm6, %xmm13 vaddsd %xmm13, %xmm2, %xmm0 vmulsd 1280(%r13,%rdx), %xmm6, %xmm15 vaddsd %xmm15, %xmm0, %xmm4 vmovsd 1288(%r13,%rdx), %xmm11 vmovsd 1296(%r13,%rdx), %xmm7 vmulsd %xmm6, %xmm7, %xmm0 vaddsd %xmm0, %xmm11, %xmm0 vmulsd 1304(%r13,%rdx), %xmm6, %xmm3 vaddsd %xmm3, %xmm0, %xmm0 vmulsd 1312(%r13,%rdx), %xmm6, %xmm2 vaddsd %xmm2, %xmm0, %xmm0 vmulsd %xmm6, %xmm0, %xmm0 vaddsd %xmm0, %xmm4, %xmm12 vmulsd 1368(%r13,%rdx), %xmm6, %xmm0 vaddsd %xmm0, %xmm1, %xmm14 vaddsd %xmm0, %xmm9, %xmm9 vmovsd 1320(%r13,%rdx), %xmm5 vmovsd 1328(%r13,%rdx), %xmm4 vmulsd %xmm6, %xmm4, %xmm0 vaddsd %xmm0, %xmm5, %xmm0 vmulsd %xmm6, %xmm5, %xmm1 vaddsd %xmm4, %xmm1, %xmm4 vmulsd 1336(%r13,%rdx), %xmm6, %xmm1 vxorps %xmm6, %xmm6, %xmm6 vaddsd %xmm1, %xmm4, %xmm5 vaddsd %xmm1, %xmm0, %xmm0 vmulsd 1344(%r13,%rdx), %xmm6, %xmm10 vaddsd %xmm10, %xmm0, %xmm0 vmulsd %xmm6, %xmm0, %xmm0 vaddsd %xmm0, %xmm12, %xmm12 vmulsd 1376(%r13,%rdx), %xmm6, %xmm0 vaddsd %xmm0, %xmm9, %xmm9 vaddsd %xmm0, %xmm14, %xmm1 vaddsd %xmm10, %xmm5, %xmm4 vmulsd %xmm6, %xmm11, %xmm0 vaddsd %xmm7, %xmm0, %xmm0 vaddsd %xmm3, %xmm0, %xmm0 vaddsd %xmm2, %xmm0, %xmm2 vmovsd 936(%rbx), %xmm0 vaddsd %xmm13, %xmm0, %xmm0 vaddsd %xmm15, %xmm0, %xmm3 vmovsd .LCPI0_2(%rip), %xmm13 vmulsd %xmm6, %xmm3, %xmm0 vaddsd %xmm2, %xmm0, %xmm0 vmulsd %xmm6, %xmm4, %xmm4 vaddsd %xmm4, %xmm0, %xmm0 vmulsd %xmm6, %xmm1, %xmm5 vaddsd %xmm5, %xmm0, %xmm1 vmovsd 1304(%rbx), %xmm7 vmulsd %xmm7, %xmm7, %xmm0 vaddsd %xmm1, %xmm0, %xmm1 vmulsd %xmm1, %xmm8, %xmm1 vsubsd %xmm1, %xmm0, %xmm11 vmulsd %xmm6, %xmm9, %xmm0 vaddsd %xmm0, %xmm12, %xmm0 vmovsd 976(%rbx), %xmm1 vmulsd %xmm7, %xmm1, %xmm6 vmulsd %xmm1, %xmm1, %xmm1 vxorps %xmm10, %xmm10, %xmm10 vaddsd %xmm1, %xmm0, %xmm0 vmulsd %xmm0, %xmm8, %xmm0 vsubsd %xmm0, %xmm1, %xmm1 vmulsd %xmm10, %xmm2, %xmm0 vaddsd %xmm0, %xmm3, %xmm0 vmulsd .LCPI0_21(%rip), %xmm1, %xmm2 vmulsd %xmm11, %xmm2, %xmm2 vaddsd %xmm4, %xmm0, %xmm0 vaddsd %xmm5, %xmm0, %xmm0 vaddsd %xmm6, %xmm0, %xmm0 vmulsd %xmm0, %xmm8, %xmm0 vsubsd %xmm0, %xmm6, %xmm3 vaddsd %xmm3, %xmm3, %xmm0 vmulsd %xmm0, %xmm0, %xmm4 vaddsd %xmm2, %xmm4, %xmm2 vmovq %xmm2, %xmm2 vsqrtpd %xmm2, %xmm2 vmulsd .LCPI0_22(%rip), %xmm3, %xmm3 vsubsd %xmm0, %xmm2, %xmm0 vsubsd %xmm2, %xmm3, %xmm2 vaddsd %xmm1, %xmm1, %xmm1 vxorpd %xmm13, %xmm2, %xmm2 vdivsd %xmm1, %xmm2, %xmm8 vxorpd %xmm13, %xmm0, %xmm0 vdivsd %xmm1, %xmm0, %xmm9 vmovsd 808(%rbx), %xmm0 vmaxsd %xmm10, %xmm0, %xmm0 vucomisd %xmm0, %xmm0 vmaxsd %xmm8, %xmm9, %xmm14 jp .LBB0_172 vmaxsd %xmm0, %xmm14, %xmm14 .LBB0_172: vmovsd 920(%rbx), %xmm0 vaddsd 656(%rbx), %xmm0, %xmm0 vmovsd %xmm0, 808(%rbx) vmovsd .LCPI0_3(%rip), %xmm0 vmovsd 720(%rbx), %xmm12 vucomisd %xmm12, %xmm0 vmovsd 1576(%rbx), %xmm0 vmovsd 560(%rbx), %xmm1 vdivsd %xmm0, %xmm1, %xmm4 vdivsd .LCPI0_5(%rip), %xmm0, %xmm15 vmovapd 1728(%rbx), %xmm10 vmulsd %xmm10, %xmm0, %xmm0 vmovsd 1600(%rbx), %xmm5 vmulsd %xmm5, %xmm0, %xmm1 vmovsd 584(%rbx), %xmm2 vaddsd %xmm1, %xmm2, %xmm1 vmovsd %xmm1, 976(%rbx) vmovsd 1608(%rbx), %xmm3 vmulsd %xmm3, %xmm0, %xmm0 vsubsd 592(%rbx), %xmm0, %xmm0 vmovsd %xmm0, 968(%rbx) vmovsd 992(%rbx), %xmm13 vmulsd 1000(%rbx), %xmm13, %xmm0 vmovsd 568(%rbx), %xmm11 vmulsd %xmm5, %xmm11, %xmm1 vsubsd %xmm0, %xmm1, %xmm7 vmulsd 1008(%rbx), %xmm13, %xmm0 vmovsd 984(%rbx), %xmm2 vmulsd %xmm5, %xmm2, %xmm1 vsubsd %xmm0, %xmm1, %xmm6 vmulsd %xmm3, %xmm11, %xmm0 vsubsd 640(%rbx), %xmm0, %xmm1 vmulsd %xmm3, %xmm2, %xmm0 vsubsd 664(%rbx), %xmm0, %xmm0 vmulsd %xmm3, %xmm13, %xmm2 vsubsd 632(%rbx), %xmm2, %xmm2 vmulsd %xmm10, %xmm2, %xmm2 vsubsd 576(%rbx), %xmm2, %xmm2 vmovsd %xmm2, 936(%rbx) vmulsd %xmm10, %xmm7, %xmm2 vmovsd 616(%rbx), %xmm7 vaddsd %xmm2, %xmm7, %xmm2 vmovsd %xmm2, 1000(%rbx) vmulsd %xmm10, %xmm0, %xmm0 vsubsd 624(%rbx), %xmm0, %xmm0 vmovsd %xmm0, 984(%rbx) vmulsd %xmm10, %xmm1, %xmm0 vsubsd 704(%rbx), %xmm0, %xmm0 vmovsd %xmm0, 944(%rbx) vmulsd %xmm10, %xmm6, %xmm0 vmovsd 672(%rbx), %xmm1 vaddsd %xmm0, %xmm1, %xmm0 vmovsd %xmm0, 1008(%rbx) vmovsd 1592(%rbx), %xmm0 vdivsd %xmm4, %xmm0, %xmm1 vmulsd 696(%rbx), %xmm1, %xmm0 vmulsd %xmm13, %xmm1, %xmm1 vmulsd %xmm5, %xmm13, %xmm2 vsubsd %xmm2, %xmm2, %xmm2 vmulsd %xmm10, %xmm2, %xmm2 vmovsd 712(%rbx), %xmm6 vaddsd %xmm2, %xmm6, %xmm2 vmovsd %xmm2, 992(%rbx) vmovaps 544(%rbx), %xmm2 vdivsd %xmm2, %xmm1, %xmm1 vdivsd %xmm2, %xmm0, %xmm0 vmovsd 520(%rbx), %xmm2 vmulsd %xmm10, %xmm2, %xmm2 vmovsd 776(%rbx), %xmm6 vaddsd %xmm2, %xmm6, %xmm2 vmovsd %xmm2, 928(%rbx) vmovsd 496(%rbx), %xmm2 vmulsd %xmm10, %xmm2, %xmm2 vmovsd 784(%rbx), %xmm6 vaddsd %xmm2, %xmm6, %xmm2 vmovsd %xmm2, 920(%rbx) vmulsd 416(%rbx), %xmm15, %xmm6 vmulsd %xmm3, %xmm6, %xmm2 vaddsd %xmm0, %xmm2, %xmm7 vmulsd %xmm5, %xmm6, %xmm0 vaddsd %xmm1, %xmm0, %xmm1 vmovsd 432(%rbx), %xmm0 vsubsd 800(%rbx), %xmm0, %xmm0 vmovsd %xmm0, 800(%rbx) vmovsd 440(%rbx), %xmm0 vsubsd 792(%rbx), %xmm0, %xmm0 vmovsd %xmm0, 792(%rbx) vmovsd 448(%rbx), %xmm0 vsubsd 904(%rbx), %xmm0, %xmm0 vmovsd %xmm0, 784(%rbx) vmovsd 464(%rbx), %xmm0 vsubsd 912(%rbx), %xmm0, %xmm0 vmovsd %xmm0, 776(%rbx) vmovsd 744(%rbx), %xmm0 vaddsd 488(%rbx), %xmm0, %xmm0 vmovsd %xmm0, 912(%rbx) vmovsd 752(%rbx), %xmm0 vaddsd 512(%rbx), %xmm0, %xmm0 vmovsd %xmm0, 904(%rbx) vaddsd %xmm4, %xmm4, %xmm0 vmovsd 424(%rbx), %xmm2 vmulsd .LCPI0_11(%rip), %xmm2, %xmm2 vdivsd %xmm0, %xmm2, %xmm4 vmulsd %xmm4, %xmm5, %xmm0 vsubsd %xmm0, %xmm1, %xmm0 vmulsd %xmm4, %xmm3, %xmm1 vsubsd %xmm1, %xmm7, %xmm1 vmulsd %xmm10, %xmm1, %xmm1 vmulsd %xmm10, %xmm0, %xmm0 vmovsd 728(%rbx), %xmm2 vaddsd %xmm0, %xmm2, %xmm0 vmovsd %xmm0, 752(%rbx) vsubsd 736(%rbx), %xmm1, %xmm0 vmovsd %xmm0, 744(%rbx) vminsd %xmm9, %xmm8, %xmm0 vmovd %xmm14, %rax vmovsd .LCPI0_2(%rip), %xmm1 vxorpd %xmm1, %xmm0, %xmm0 movq 1768(%rbx), %rsi movq 1760(%rbx), %rdi ja .LBB0_173 vxorpd %xmm1, %xmm1, %xmm1 jmp .LBB0_184 .align 16, 0x90 .LBB0_173: vxorpd %xmm1, %xmm12, %xmm1 .LBB0_184: vucomisd %xmm1, %xmm1 jp .LBB0_186 vmaxsd %xmm1, %xmm0, %xmm0 .LBB0_186: vmovd %xmm0, %rcx andq %r14, %rcx andq %r14, %rax vmovd %rax, %xmm0 vucomisd %xmm0, %xmm0 vmovd %rcx, %xmm1 vmovsd .LCPI0_6(%rip), %xmm14 vxorpd %xmm7, %xmm7, %xmm7 jp .LBB0_188 vmaxsd %xmm0, %xmm1, %xmm1 .LBB0_188: vmovsd %xmm1, 736(%rbx) movq 1680(%rbx), %rax vmovsd 1792(%rbx,%rax,8), %xmm1 vmovsd %xmm1, 1608(%rbx) movq 1080(%rbx), %rax vmovsd 1792(%rbx,%rax,8), %xmm2 vsubsd %xmm1, %xmm2, %xmm0 vaddsd %xmm0, %xmm0, %xmm0 movq 1296(%rbx), %rax vmovsd 1792(%rbx,%rax,8), %xmm3 vsubsd %xmm3, %xmm1, %xmm1 vaddsd %xmm1, %xmm1, %xmm1 vmulsd %xmm0, %xmm1, %xmm4 vucomisd %xmm4, %xmm7 jae .LBB0_194 vsubsd %xmm3, %xmm2, %xmm2 vmulsd %xmm14, %xmm2, %xmm2 vmovd %xmm2, %rax andq %r14, %rax vmovd %xmm1, %rcx vmovd %rax, %xmm3 andq %r14, %rcx vmovd %rcx, %xmm5 vmovd %xmm0, %rax andq %r14, %rax vmovd %rax, %xmm4 vucomisd %xmm5, %xmm4 jbe .LBB0_191 vucomisd %xmm5, %xmm3 vmovapd %xmm1, %xmm7 ja .LBB0_194 .align 16, 0x90 .LBB0_191: vucomisd %xmm4, %xmm3 ja .LBB0_193 vmovapd %xmm2, %xmm0 .LBB0_193: vmovapd %xmm0, %xmm7 .LBB0_194: movq 1672(%rbx), %rax vmovsd 1792(%rbx,%rax,8), %xmm1 vmovsd %xmm1, 1600(%rbx) movq 1024(%rbx), %rax vmovsd 1792(%rbx,%rax,8), %xmm2 vsubsd %xmm1, %xmm2, %xmm0 vaddsd %xmm0, %xmm0, %xmm0 movq 1184(%rbx), %rax vmovsd 1792(%rbx,%rax,8), %xmm3 vsubsd %xmm3, %xmm1, %xmm1 vaddsd %xmm1, %xmm1, %xmm1 vmulsd %xmm0, %xmm1, %xmm4 vxorpd %xmm6, %xmm6, %xmm6 vucomisd %xmm4, %xmm6 vxorpd %xmm5, %xmm5, %xmm5 jae .LBB0_200 vsubsd %xmm3, %xmm2, %xmm2 vmulsd %xmm14, %xmm2, %xmm2 vmovd %xmm2, %rax andq %r14, %rax vmovd %xmm1, %rcx vmovd %rax, %xmm3 andq %r14, %rcx vmovd %rcx, %xmm5 vmovd %xmm0, %rax andq %r14, %rax vmovd %rax, %xmm4 vucomisd %xmm5, %xmm4 jbe .LBB0_197 vucomisd %xmm5, %xmm3 vmovapd %xmm1, %xmm5 ja .LBB0_200 .align 16, 0x90 .LBB0_197: vucomisd %xmm4, %xmm3 ja .LBB0_199 vmovapd %xmm2, %xmm0 .LBB0_199: vmovapd %xmm0, %xmm5 .LBB0_200: vmovsd %xmm5, 1576(%rbx) movq 1664(%rbx), %rax vmovsd 1792(%rbx,%rax,8), %xmm2 vmovsd %xmm2, 1304(%rbx) movq 1016(%rbx), %rax vmovsd 1792(%rbx,%rax,8), %xmm1 vsubsd %xmm2, %xmm1, %xmm0 vaddsd %xmm0, %xmm0, %xmm0 movq 1176(%rbx), %rax vmovsd 1792(%rbx,%rax,8), %xmm3 vsubsd %xmm3, %xmm2, %xmm2 vaddsd %xmm2, %xmm2, %xmm2 vmulsd %xmm0, %xmm2, %xmm4 vucomisd %xmm4, %xmm6 jae .LBB0_206 vsubsd %xmm3, %xmm1, %xmm1 vmulsd %xmm14, %xmm1, %xmm3 vmovd %xmm3, %rax andq %r14, %rax vmovd %xmm2, %rcx vmovd %rax, %xmm4 andq %r14, %rcx vmovd %rcx, %xmm5 vmovd %xmm0, %rax andq %r14, %rax vmovd %rax, %xmm1 vucomisd %xmm5, %xmm1 jbe .LBB0_203 vucomisd %xmm5, %xmm4 vmovapd %xmm2, %xmm6 ja .LBB0_206 .align 16, 0x90 .LBB0_203: vucomisd %xmm1, %xmm4 ja .LBB0_205 vmovapd %xmm3, %xmm0 .LBB0_205: vmovapd %xmm0, %xmm6 .LBB0_206: vmovapd %xmm7, %xmm12 movq 1656(%rbx), %rax vmovsd 1792(%rbx,%rax,8), %xmm2 vmovsd %xmm2, 1296(%rbx) movq 1040(%rbx), %rax vmovsd 1792(%rbx,%rax,8), %xmm1 vsubsd %xmm2, %xmm1, %xmm0 vaddsd %xmm0, %xmm0, %xmm0 movq 1168(%rbx), %rax vmovsd 1792(%rbx,%rax,8), %xmm3 vsubsd %xmm3, %xmm2, %xmm2 vaddsd %xmm2, %xmm2, %xmm2 vmulsd %xmm0, %xmm2, %xmm4 vxorpd %xmm10, %xmm10, %xmm10 vucomisd %xmm4, %xmm10 vxorpd %xmm5, %xmm5, %xmm5 jae .LBB0_212 vsubsd %xmm3, %xmm1, %xmm1 vmulsd %xmm14, %xmm1, %xmm3 vmovd %xmm3, %rax andq %r14, %rax vmovd %xmm2, %rcx vmovd %rax, %xmm4 andq %r14, %rcx vmovd %rcx, %xmm5 vmovd %xmm0, %rax andq %r14, %rax vmovd %rax, %xmm1 vucomisd %xmm5, %xmm1 jbe .LBB0_209 vucomisd %xmm5, %xmm4 vmovapd %xmm2, %xmm5 ja .LBB0_212 .align 16, 0x90 .LBB0_209: vucomisd %xmm1, %xmm4 ja .LBB0_211 vmovapd %xmm3, %xmm0 .LBB0_211: vmovapd %xmm0, %xmm5 .LBB0_212: vmovsd %xmm5, 1184(%rbx) vmovsd %xmm6, 1592(%rbx) movq 1648(%rbx), %rax vmovsd 1792(%rbx,%rax,8), %xmm2 vmovsd %xmm2, 1176(%rbx) movq 1032(%rbx), %rax vmovsd 1792(%rbx,%rax,8), %xmm1 vsubsd %xmm2, %xmm1, %xmm0 vaddsd %xmm0, %xmm0, %xmm0 movq 1160(%rbx), %rax vmovsd 1792(%rbx,%rax,8), %xmm3 vsubsd %xmm3, %xmm2, %xmm2 vaddsd %xmm2, %xmm2, %xmm2 vmulsd %xmm0, %xmm2, %xmm4 vucomisd %xmm4, %xmm10 jae .LBB0_218 vsubsd %xmm3, %xmm1, %xmm1 vmulsd %xmm14, %xmm1, %xmm3 vmovd %xmm3, %rax andq %r14, %rax vmovd %xmm2, %rcx vmovd %rax, %xmm4 andq %r14, %rcx vmovd %rcx, %xmm5 vmovd %xmm0, %rax andq %r14, %rax vmovd %rax, %xmm1 vucomisd %xmm5, %xmm1 jbe .LBB0_215 vucomisd %xmm5, %xmm4 vmovapd %xmm2, %xmm10 ja .LBB0_218 .align 16, 0x90 .LBB0_215: vucomisd %xmm1, %xmm4 ja .LBB0_217 vmovapd %xmm3, %xmm0 .LBB0_217: vmovapd %xmm0, %xmm10 .LBB0_218: movq 1640(%rbx), %rax vmovsd 1792(%rbx,%rax,8), %xmm2 vmovsd %xmm2, 1168(%rbx) movq 1056(%rbx), %rax vmovsd 1792(%rbx,%rax,8), %xmm1 vsubsd %xmm2, %xmm1, %xmm0 vaddsd %xmm0, %xmm0, %xmm0 movq 1136(%rbx), %rax vmovsd 1792(%rbx,%rax,8), %xmm4 vsubsd %xmm4, %xmm2, %xmm2 vaddsd %xmm2, %xmm2, %xmm2 vmulsd %xmm0, %xmm2, %xmm5 vxorpd %xmm3, %xmm3, %xmm3 vucomisd %xmm5, %xmm3 vxorpd %xmm11, %xmm11, %xmm11 jae .LBB0_224 vsubsd %xmm4, %xmm1, %xmm1 vmulsd %xmm14, %xmm1, %xmm4 vmovd %xmm4, %rax andq %r14, %rax vmovd %xmm2, %rcx vmovd %rax, %xmm5 andq %r14, %rcx vmovd %rcx, %xmm6 vmovd %xmm0, %rax andq %r14, %rax vmovd %rax, %xmm1 vucomisd %xmm6, %xmm1 jbe .LBB0_221 vucomisd %xmm6, %xmm5 vmovapd %xmm2, %xmm11 ja .LBB0_224 .align 16, 0x90 .LBB0_221: vucomisd %xmm1, %xmm5 ja .LBB0_223 vmovapd %xmm4, %xmm0 .LBB0_223: vmovapd %xmm0, %xmm11 .LBB0_224: movq 1632(%rbx), %rax vmovsd 1792(%rbx,%rax,8), %xmm13 movq 1048(%rbx), %rax vmovsd 1792(%rbx,%rax,8), %xmm1 vsubsd %xmm13, %xmm1, %xmm0 vaddsd %xmm0, %xmm0, %xmm0 movq 1128(%rbx), %rax vmovsd 1792(%rbx,%rax,8), %xmm4 vsubsd %xmm4, %xmm13, %xmm2 vaddsd %xmm2, %xmm2, %xmm2 vmulsd %xmm0, %xmm2, %xmm5 vucomisd %xmm5, %xmm3 jae .LBB0_230 vsubsd %xmm4, %xmm1, %xmm1 vmulsd %xmm14, %xmm1, %xmm4 vmovd %xmm4, %rax andq %r14, %rax vmovd %xmm2, %rcx vmovd %rax, %xmm5 andq %r14, %rcx vmovd %rcx, %xmm3 vmovd %xmm0, %rax andq %r14, %rax vmovd %rax, %xmm1 vucomisd %xmm3, %xmm1 jbe .LBB0_227 vucomisd %xmm3, %xmm5 vmovapd %xmm2, %xmm3 ja .LBB0_230 .align 16, 0x90 .LBB0_227: vucomisd %xmm1, %xmm5 ja .LBB0_229 vmovapd %xmm4, %xmm0 .LBB0_229: vmovapd %xmm0, %xmm3 .LBB0_230: movq 1624(%rbx), %rax vmovsd 1792(%rbx,%rax,8), %xmm15 movq 1088(%rbx), %rax vmovsd 1792(%rbx,%rax,8), %xmm1 vsubsd %xmm15, %xmm1, %xmm0 vaddsd %xmm0, %xmm0, %xmm2 movq 1120(%rbx), %rax vmovsd 1792(%rbx,%rax,8), %xmm5 vsubsd %xmm5, %xmm15, %xmm0 vaddsd %xmm0, %xmm0, %xmm4 vmulsd %xmm2, %xmm4, %xmm6 vxorpd %xmm0, %xmm0, %xmm0 vucomisd %xmm6, %xmm0 vxorpd %xmm9, %xmm9, %xmm9 jae .LBB0_236 vsubsd %xmm5, %xmm1, %xmm1 vmulsd %xmm14, %xmm1, %xmm5 vmovd %xmm5, %rax andq %r14, %rax vmovd %xmm4, %rcx vmovd %rax, %xmm1 andq %r14, %rcx vmovd %rcx, %xmm7 vmovd %xmm2, %rax andq %r14, %rax vmovd %rax, %xmm6 vucomisd %xmm7, %xmm6 jbe .LBB0_233 vucomisd %xmm7, %xmm1 vmovapd %xmm4, %xmm9 ja .LBB0_236 .align 16, 0x90 .LBB0_233: vucomisd %xmm6, %xmm1 ja .LBB0_235 vmovapd %xmm5, %xmm2 .LBB0_235: vmovapd %xmm2, %xmm9 .LBB0_236: movq 1616(%rbx), %rax vmovsd 1792(%rbx,%rax,8), %xmm8 movq 1072(%rbx), %rax vmovsd 1792(%rbx,%rax,8), %xmm1 vsubsd %xmm8, %xmm1, %xmm2 vaddsd %xmm2, %xmm2, %xmm2 movq 1112(%rbx), %rax vmovsd 1792(%rbx,%rax,8), %xmm5 vsubsd %xmm5, %xmm8, %xmm4 vaddsd %xmm4, %xmm4, %xmm4 vmulsd %xmm2, %xmm4, %xmm6 vucomisd %xmm6, %xmm0 jae .LBB0_242 vsubsd %xmm5, %xmm1, %xmm0 vmulsd %xmm14, %xmm0, %xmm5 vmovd %xmm5, %rax andq %r14, %rax vmovd %xmm4, %rcx vmovd %rax, %xmm1 andq %r14, %rcx vmovd %rcx, %xmm0 vmovd %xmm2, %rax andq %r14, %rax vmovd %rax, %xmm6 vucomisd %xmm0, %xmm6 jbe .LBB0_239 vucomisd %xmm0, %xmm1 vmovapd %xmm4, %xmm0 ja .LBB0_242 .align 16, 0x90 .LBB0_239: vucomisd %xmm6, %xmm1 ja .LBB0_241 vmovapd %xmm5, %xmm2 .LBB0_241: vmovapd %xmm2, %xmm0 .LBB0_242: vmulsd %xmm14, %xmm12, %xmm1 vmovsd 1608(%rbx), %xmm2 vaddsd %xmm1, %xmm2, %xmm12 vmovsd 1576(%rbx), %xmm1 vmulsd %xmm14, %xmm1, %xmm1 vmovsd 1600(%rbx), %xmm2 vaddsd %xmm1, %xmm2, %xmm14 vmovsd 1592(%rbx), %xmm1 vmulsd .LCPI0_6(%rip), %xmm1, %xmm1 vmovsd 1304(%rbx), %xmm2 vaddsd %xmm1, %xmm2, %xmm1 vmovsd 1184(%rbx), %xmm2 vmulsd .LCPI0_6(%rip), %xmm2, %xmm2 vmovsd 1296(%rbx), %xmm4 vaddsd %xmm2, %xmm4, %xmm6 vmulsd .LCPI0_6(%rip), %xmm10, %xmm2 vmovsd 1176(%rbx), %xmm4 vaddsd %xmm2, %xmm4, %xmm2 vmulsd .LCPI0_6(%rip), %xmm11, %xmm7 vmovsd 1168(%rbx), %xmm4 vaddsd %xmm7, %xmm4, %xmm10 vmulsd .LCPI0_6(%rip), %xmm3, %xmm3 vaddsd %xmm3, %xmm13, %xmm11 vmulsd .LCPI0_6(%rip), %xmm9, %xmm3 vaddsd %xmm3, %xmm15, %xmm13 vxorpd %xmm9, %xmm9, %xmm9 vmulsd %xmm9, %xmm1, %xmm3 vmulsd %xmm3, %xmm2, %xmm7 vmulsd %xmm3, %xmm6, %xmm3 vaddsd %xmm7, %xmm3, %xmm3 vmulsd %xmm9, %xmm6, %xmm7 vmulsd %xmm7, %xmm2, %xmm7 vaddsd %xmm7, %xmm3, %xmm3 vaddsd %xmm3, %xmm3, %xmm3 vmulsd %xmm6, %xmm6, %xmm7 vmulsd %xmm1, %xmm1, %xmm5 vmovsd .LCPI0_0(%rip), %xmm4 vaddsd %xmm4, %xmm5, %xmm5 vaddsd %xmm7, %xmm5, %xmm7 vmulsd %xmm2, %xmm2, %xmm5 vaddsd %xmm5, %xmm7, %xmm5 vaddsd %xmm3, %xmm5, %xmm3 vmulsd .LCPI0_6(%rip), %xmm0, %xmm0 vmovsd .LCPI0_1(%rip), %xmm4 vmaxsd %xmm14, %xmm4, %xmm14 vmovsd %xmm14, 320(%rbx) vmaxsd %xmm12, %xmm4, %xmm4 vmovsd %xmm4, 1296(%rbx) vaddsd %xmm0, %xmm8, %xmm0 vmovsd %xmm0, 1600(%rbx) vmovq %xmm3, %xmm0 vsqrtpd %xmm0, %xmm0 vmovsd 1720(%rbx), %xmm3 vdivsd %xmm3, %xmm0, %xmm12 vmovsd %xmm12, 1120(%rbx) vmulsd .LCPI0_3(%rip), %xmm0, %xmm0 vmulsd %xmm3, %xmm0, %xmm0 vsubsd %xmm0, %xmm2, %xmm4 vmovsd %xmm4, 1592(%rbx) vsubsd %xmm0, %xmm1, %xmm2 vmovsd %xmm2, 1304(%rbx) vsubsd %xmm0, %xmm6, %xmm0 vmovsd %xmm0, 1576(%rbx) vmulsd %xmm9, %xmm0, %xmm5 vmovaps %xmm0, %xmm3 vmovsd %xmm5, 704(%rbx) vmulsd %xmm9, %xmm12, %xmm0 vaddsd %xmm2, %xmm0, %xmm1 vaddsd %xmm5, %xmm1, %xmm1 vmulsd %xmm9, %xmm4, %xmm7 vmovsd %xmm7, 696(%rbx) vaddsd %xmm7, %xmm1, %xmm6 vmovsd %xmm6, 1608(%rbx) vmulsd %xmm9, %xmm2, %xmm1 vmovsd %xmm1, 1184(%rbx) vmovaps %xmm2, %xmm9 vaddsd %xmm1, %xmm0, %xmm0 vaddsd %xmm3, %xmm0, %xmm1 vaddsd %xmm7, %xmm1, %xmm1 vmovsd %xmm1, 1168(%rbx) vmulsd %xmm1, %xmm11, %xmm1 vmovaps %xmm11, %xmm15 vmulsd %xmm6, %xmm10, %xmm2 vmovaps %xmm10, %xmm11 vaddsd %xmm1, %xmm2, %xmm1 vaddsd %xmm5, %xmm0, %xmm0 vaddsd %xmm4, %xmm0, %xmm0 vmovsd %xmm0, 1160(%rbx) vmulsd %xmm0, %xmm13, %xmm0 vaddsd %xmm0, %xmm1, %xmm10 vmovsd %xmm10, 712(%rbx) movabsq $-4616189618054758400, %rax movq %rax, 1384(%r13,%rdx) vxorps %xmm0, %xmm0, %xmm0 vmovups %xmm0, 16(%rdi) vmovups %xmm0, (%rdi) movabsq $4607182418800017408, %r15 movq %r15, 1424(%r13,%rdx) vmovups %xmm0, 16(%rsi) vmovups %xmm0, (%rsi) movq %r15, 1464(%r13,%rdx) movq 1776(%rbx), %rcx vmovups %xmm0, 16(%rcx) vmovups %xmm0, (%rcx) movq %r15, 1504(%r13,%rdx) movq %rax, 1256(%r13,%rdx) movabsq $-9223372036854775808, %rax movq %rax, 1264(%r13,%rdx) movq %rax, 1272(%r13,%rdx) movq %rax, 1280(%r13,%rdx) movq %rax, 1288(%r13,%rdx) movq %r15, 1296(%r13,%rdx) movq %rax, 1304(%r13,%rdx) movq %rax, 1312(%r13,%rdx) movq %rax, 1320(%r13,%rdx) movq %rax, 1328(%r13,%rdx) movq %r15, 1336(%r13,%rdx) movq %rax, 1344(%r13,%rdx) movq %rax, 1352(%r13,%rdx) movq %rax, 1360(%r13,%rdx) movq %rax, 1368(%r13,%rdx) movq %r15, 1376(%r13,%rdx) vmulsd %xmm3, %xmm10, %xmm0 vmovsd %xmm0, 672(%rbx) vaddsd %xmm0, %xmm15, %xmm0 vmulsd %xmm4, %xmm10, %xmm1 vmovsd %xmm1, 664(%rbx) vaddsd %xmm1, %xmm13, %xmm1 vdivsd %xmm12, %xmm1, %xmm15 vmovsd %xmm15, 656(%rbx) vdivsd %xmm12, %xmm0, %xmm13 vmovsd %xmm13, 1176(%rbx) vmulsd %xmm9, %xmm10, %xmm0 vmovsd %xmm0, 640(%rbx) vaddsd %xmm0, %xmm11, %xmm0 vdivsd %xmm12, %xmm0, %xmm11 vmovsd %xmm11, 1112(%rbx) vxorps %xmm4, %xmm4, %xmm4 vmulsd %xmm4, %xmm10, %xmm0 vmulsd %xmm4, %xmm11, %xmm1 vaddsd %xmm1, %xmm0, %xmm2 vsubsd %xmm10, %xmm1, %xmm3 vaddsd %xmm11, %xmm0, %xmm1 vmulsd %xmm4, %xmm13, %xmm0 vxorps %xmm6, %xmm6, %xmm6 vaddsd %xmm0, %xmm1, %xmm1 vaddsd %xmm0, %xmm3, %xmm3 vaddsd %xmm0, %xmm2, %xmm8 vaddsd %xmm13, %xmm2, %xmm2 vmulsd (%rcx), %xmm15, %xmm4 vaddsd %xmm4, %xmm2, %xmm0 vmovsd %xmm0, 464(%rbx) vmulsd %xmm6, %xmm15, %xmm2 vaddsd %xmm2, %xmm3, %xmm3 vmovsd %xmm3, 512(%rbx) vaddsd %xmm2, %xmm1, %xmm4 vmovsd %xmm4, 488(%rbx) vmovsd 1296(%rbx), %xmm1 vaddsd %xmm14, %xmm1, %xmm1 vmulsd .LCPI0_5(%rip), %xmm14, %xmm6 vmovsd %xmm6, 632(%rbx) vaddsd %xmm1, %xmm6, %xmm1 vmovsd 1184(%rbx), %xmm2 vsubsd %xmm12, %xmm2, %xmm2 vaddsd %xmm5, %xmm2, %xmm2 vaddsd %xmm7, %xmm2, %xmm5 vmovsd %xmm5, 432(%rbx) vmulsd %xmm4, %xmm11, %xmm2 vmovsd %xmm2, 728(%rbx) vmulsd %xmm3, %xmm10, %xmm3 vmovsd %xmm3, 616(%rbx) vaddsd %xmm2, %xmm3, %xmm3 vmulsd %xmm0, %xmm13, %xmm2 vmovsd %xmm2, 1128(%rbx) vaddsd %xmm2, %xmm3, %xmm3 vaddsd %xmm15, %xmm8, %xmm0 vmovsd %xmm0, 448(%rbx) vmulsd %xmm0, %xmm15, %xmm0 vmovsd %xmm0, 720(%rbx) vaddsd %xmm0, %xmm3, %xmm3 vmovsd %xmm3, 624(%rbx) vmovsd .LCPI0_4(%rip), %xmm0 vmaxsd %xmm3, %xmm0, %xmm0 vmovaps %xmm0, 1136(%rbx) vaddsd %xmm1, %xmm0, %xmm4 vmulsd .LCPI0_6(%rip), %xmm0, %xmm0 vaddsd %xmm0, %xmm6, %xmm7 vmovsd 1576(%rbx), %xmm0 vmulsd %xmm4, %xmm0, %xmm1 vmulsd %xmm4, %xmm9, %xmm14 vmulsd %xmm4, %xmm12, %xmm3 vmovsd 1592(%rbx), %xmm2 vmulsd %xmm4, %xmm2, %xmm4 vmovsd 1160(%rbx), %xmm9 vmulsd %xmm4, %xmm9, %xmm8 vmovsd 1168(%rbx), %xmm6 vmulsd %xmm4, %xmm6, %xmm2 vmovsd %xmm2, 536(%rbx) vmovsd 1608(%rbx), %xmm2 vmulsd %xmm4, %xmm2, %xmm0 vmovsd %xmm0, 568(%rbx) vmulsd %xmm4, %xmm5, %xmm0 vmovsd %xmm0, 544(%rbx) vmulsd %xmm3, %xmm5, %xmm4 vaddsd %xmm4, %xmm7, %xmm4 vmovsd %xmm4, 560(%rbx) vaddsd %xmm8, %xmm7, %xmm4 vmovsd %xmm4, 584(%rbx) vmulsd %xmm14, %xmm2, %xmm4 vaddsd %xmm4, %xmm7, %xmm4 vmovsd %xmm4, 576(%rbx) vmulsd %xmm1, %xmm6, %xmm4 vaddsd %xmm4, %xmm7, %xmm4 vmovsd %xmm4, 592(%rbx) vmulsd .LCPI0_24, %xmm7, %xmm7 vmovaps %xmm9, %xmm4 vmulsd %xmm1, %xmm4, %xmm0 vmovsd %xmm0, 440(%rbx) vmulsd %xmm1, %xmm2, %xmm0 vmovsd %xmm0, 520(%rbx) vmulsd %xmm1, %xmm5, %xmm0 vmovsd %xmm0, 496(%rbx) vmulsd %xmm3, %xmm2, %xmm1 vmulsd %xmm3, %xmm6, %xmm9 vmulsd %xmm3, %xmm4, %xmm8 vmovaps %xmm4, %xmm2 vaddsd %xmm1, %xmm7, %xmm3 vaddsd 544(%rbx), %xmm7, %xmm1 vmovsd %xmm1, 544(%rbx) vaddsd 568(%rbx), %xmm7, %xmm1 vmovsd %xmm1, 568(%rbx) vaddsd 536(%rbx), %xmm7, %xmm1 vmovsd %xmm1, 528(%rbx) vaddsd 440(%rbx), %xmm7, %xmm1 vmovsd %xmm1, 400(%rbx) vmulsd %xmm14, %xmm5, %xmm1 vaddsd %xmm1, %xmm7, %xmm1 vaddsd %xmm8, %xmm7, %xmm4 vaddsd %xmm9, %xmm7, %xmm8 vmulsd %xmm14, %xmm2, %xmm5 vmulsd %xmm14, %xmm6, %xmm0 vaddsd %xmm0, %xmm7, %xmm0 vmovsd %xmm0, 416(%rbx) vaddsd %xmm5, %xmm7, %xmm0 vmovsd %xmm0, 408(%rbx) vaddsd 496(%rbx), %xmm7, %xmm0 vaddsd 520(%rbx), %xmm7, %xmm9 vmovsd 560(%rbx), %xmm2 vsubsd 616(%rbx), %xmm2, %xmm2 vmovsd %xmm2, 392(%rbx) vmovsd 488(%rbx), %xmm2 vmulsd %xmm2, %xmm10, %xmm5 vsubsd %xmm5, %xmm3, %xmm3 vmovsd %xmm3, 424(%rbx) vmovsd 464(%rbx), %xmm5 vmulsd %xmm5, %xmm10, %xmm3 vsubsd %xmm3, %xmm8, %xmm3 vmovsd %xmm3, 440(%rbx) vmovsd 448(%rbx), %xmm6 vmulsd %xmm6, %xmm10, %xmm3 vsubsd %xmm3, %xmm4, %xmm3 vmovsd %xmm3, 496(%rbx) vmovsd 576(%rbx), %xmm3 vsubsd 728(%rbx), %xmm3, %xmm3 vmovsd %xmm3, 536(%rbx) vmovsd 512(%rbx), %xmm4 vmulsd %xmm4, %xmm11, %xmm3 vsubsd %xmm3, %xmm1, %xmm1 vmovsd %xmm1, 520(%rbx) vmulsd %xmm6, %xmm13, %xmm1 vmovaps %xmm6, %xmm14 vmovsd 400(%rbx), %xmm3 vsubsd %xmm1, %xmm3, %xmm1 vmovsd %xmm1, 560(%rbx) vmovsd 584(%rbx), %xmm1 vsubsd 720(%rbx), %xmm1, %xmm1 vmovsd %xmm1, 720(%rbx) vmulsd %xmm5, %xmm15, %xmm1 vmovaps %xmm5, %xmm7 vmovsd 528(%rbx), %xmm3 vsubsd %xmm1, %xmm3, %xmm1 vmovsd %xmm1, 584(%rbx) vmulsd %xmm2, %xmm15, %xmm1 vmovsd 568(%rbx), %xmm3 vsubsd %xmm1, %xmm3, %xmm1 vmovsd %xmm1, 568(%rbx) vmulsd %xmm4, %xmm15, %xmm1 vmovsd 544(%rbx), %xmm3 vsubsd %xmm1, %xmm3, %xmm1 vmovsd %xmm1, 528(%rbx) vmovsd 592(%rbx), %xmm1 vsubsd 1128(%rbx), %xmm1, %xmm1 vmovsd %xmm1, 728(%rbx) vmulsd %xmm2, %xmm13, %xmm3 vsubsd %xmm3, %xmm9, %xmm1 vmovsd %xmm1, 616(%rbx) vmulsd %xmm4, %xmm13, %xmm3 vsubsd %xmm3, %xmm0, %xmm0 vmovsd %xmm0, 576(%rbx) vmulsd %xmm14, %xmm11, %xmm0 vmovsd 408(%rbx), %xmm1 vsubsd %xmm0, %xmm1, %xmm0 vmovsd %xmm0, 544(%rbx) vmulsd %xmm7, %xmm11, %xmm0 vmovsd 416(%rbx), %xmm1 vsubsd %xmm0, %xmm1, %xmm0 vmovsd %xmm0, 1128(%rbx) vmovq 1136(%rbx), %xmm0 vsqrtpd %xmm0, %xmm1 vmovapd %xmm1, 592(%rbx) vmovsd 1600(%rbx), %xmm6 vmulsd %xmm6, %xmm10, %xmm0 vdivsd %xmm1, %xmm0, %xmm0 vmovsd 432(%rbx), %xmm9 vmulsd %xmm0, %xmm9, %xmm3 vmovsd 392(%rbx), %xmm5 vaddsd %xmm3, %xmm5, %xmm3 vmulsd %xmm6, %xmm4, %xmm4 vdivsd %xmm1, %xmm4, %xmm4 vmovsd %xmm4, 1136(%rbx) vmulsd %xmm4, %xmm12, %xmm4 vaddsd %xmm4, %xmm3, %xmm3 vmovsd %xmm3, 1512(%r13,%rdx) vmovsd 1608(%rbx), %xmm5 vmulsd %xmm0, %xmm5, %xmm3 vmovsd 424(%rbx), %xmm4 vaddsd %xmm3, %xmm4, %xmm3 vmulsd %xmm6, %xmm2, %xmm4 vdivsd %xmm1, %xmm4, %xmm10 vmulsd %xmm10, %xmm12, %xmm4 vaddsd %xmm4, %xmm3, %xmm3 vmovsd %xmm3, 1520(%r13,%rdx) vmovsd 1168(%rbx), %xmm2 vmulsd %xmm0, %xmm2, %xmm3 vmovsd 440(%rbx), %xmm4 vaddsd %xmm3, %xmm4, %xmm4 vmulsd %xmm6, %xmm7, %xmm3 vmovaps %xmm6, %xmm7 vdivsd %xmm1, %xmm3, %xmm13 vmulsd %xmm13, %xmm12, %xmm6 vaddsd %xmm6, %xmm4, %xmm4 vmovsd %xmm4, 1528(%r13,%rdx) vmovsd 1160(%rbx), %xmm3 vmulsd %xmm0, %xmm3, %xmm0 vmovsd 496(%rbx), %xmm4 vaddsd %xmm0, %xmm4, %xmm0 vmulsd %xmm7, %xmm14, %xmm4 vdivsd %xmm1, %xmm4, %xmm8 vmulsd %xmm8, %xmm12, %xmm6 vaddsd %xmm6, %xmm0, %xmm0 vmovsd %xmm0, 1536(%r13,%rdx) vmulsd %xmm7, %xmm11, %xmm0 vdivsd %xmm1, %xmm0, %xmm12 vmulsd %xmm12, %xmm9, %xmm0 vmovsd 520(%rbx), %xmm4 vaddsd %xmm0, %xmm4, %xmm0 vmovsd 1304(%rbx), %xmm14 vmulsd 1136(%rbx), %xmm14, %xmm6 vaddsd %xmm6, %xmm0, %xmm0 vmulsd %xmm12, %xmm5, %xmm6 vmovsd 536(%rbx), %xmm4 vaddsd %xmm6, %xmm4, %xmm4 vmovsd %xmm4, 520(%rbx) vmovsd %xmm0, 1544(%r13,%rdx) vmovsd 1176(%rbx), %xmm0 vmulsd %xmm7, %xmm0, %xmm0 vdivsd %xmm1, %xmm0, %xmm0 vmulsd %xmm0, %xmm3, %xmm6 vmovsd 560(%rbx), %xmm4 vaddsd %xmm6, %xmm4, %xmm4 vmovsd %xmm4, 560(%rbx) vmulsd %xmm7, %xmm15, %xmm6 vdivsd %xmm1, %xmm6, %xmm6 vmulsd %xmm6, %xmm9, %xmm1 vmovsd 528(%rbx), %xmm4 vaddsd %xmm1, %xmm4, %xmm1 vmovsd %xmm1, 536(%rbx) vmulsd %xmm6, %xmm5, %xmm1 vmovsd 568(%rbx), %xmm7 vaddsd %xmm1, %xmm7, %xmm4 vmulsd %xmm6, %xmm2, %xmm1 vmovaps %xmm2, %xmm15 vmovsd 584(%rbx), %xmm2 vaddsd %xmm1, %xmm2, %xmm1 vmovsd %xmm1, 584(%rbx) vmulsd %xmm6, %xmm3, %xmm1 vmovsd 720(%rbx), %xmm2 vaddsd %xmm1, %xmm2, %xmm11 vmulsd %xmm10, %xmm14, %xmm6 vmovsd 520(%rbx), %xmm1 vaddsd %xmm6, %xmm1, %xmm6 vmulsd %xmm12, %xmm3, %xmm1 vmovsd 544(%rbx), %xmm2 vaddsd %xmm1, %xmm2, %xmm1 vmovsd %xmm1, 720(%rbx) vmulsd %xmm0, %xmm9, %xmm1 vmovsd 576(%rbx), %xmm2 vaddsd %xmm1, %xmm2, %xmm3 vmulsd %xmm0, %xmm5, %xmm1 vmovsd 616(%rbx), %xmm2 vaddsd %xmm1, %xmm2, %xmm5 vmulsd %xmm0, %xmm15, %xmm0 vmovsd 728(%rbx), %xmm1 vaddsd %xmm0, %xmm1, %xmm0 vmovsd %xmm6, 1552(%r13,%rdx) vmovsd 1592(%rbx), %xmm2 vmulsd %xmm8, %xmm2, %xmm1 vaddsd %xmm1, %xmm11, %xmm7 vmulsd %xmm13, %xmm2, %xmm1 vmovsd 584(%rbx), %xmm6 vaddsd %xmm1, %xmm6, %xmm1 vmovsd %xmm1, 1160(%rbx) vmulsd %xmm10, %xmm2, %xmm1 vaddsd %xmm1, %xmm4, %xmm1 vmovsd %xmm1, 728(%rbx) vmovsd .LCPI0_6(%rip), %xmm14 vmovaps %xmm14, %xmm9 vmovsd 1136(%rbx), %xmm4 vmulsd %xmm4, %xmm2, %xmm1 vmovsd 536(%rbx), %xmm2 vaddsd %xmm1, %xmm2, %xmm11 vmovsd 1576(%rbx), %xmm6 vmulsd %xmm8, %xmm6, %xmm1 vmovsd 560(%rbx), %xmm2 vaddsd %xmm1, %xmm2, %xmm14 vmulsd %xmm13, %xmm6, %xmm1 vaddsd %xmm1, %xmm0, %xmm0 vmulsd %xmm10, %xmm6, %xmm1 vaddsd %xmm1, %xmm5, %xmm1 vmulsd %xmm4, %xmm6, %xmm5 vaddsd %xmm5, %xmm3, %xmm5 vmovsd 1304(%rbx), %xmm2 vmulsd %xmm8, %xmm2, %xmm4 vmovsd 720(%rbx), %xmm3 vaddsd %xmm4, %xmm3, %xmm6 vmovsd %xmm6, 616(%rbx) vmulsd %xmm12, %xmm15, %xmm4 vmovsd 1128(%rbx), %xmm3 vaddsd %xmm4, %xmm3, %xmm4 vmulsd %xmm13, %xmm2, %xmm3 vaddsd %xmm3, %xmm4, %xmm3 vmovsd %xmm3, 584(%rbx) vmovsd %xmm3, 1560(%r13,%rdx) vmovsd %xmm6, 1568(%r13,%rdx) vmovsd %xmm5, 1576(%r13,%rdx) vmovsd %xmm1, 1584(%r13,%rdx) vmovsd %xmm0, 1592(%r13,%rdx) vmovsd %xmm14, 1600(%r13,%rdx) vmovsd %xmm11, 1608(%r13,%rdx) vmovsd 728(%rbx), %xmm0 vmovsd %xmm0, 1616(%r13,%rdx) vmovsd 1160(%rbx), %xmm0 vmovsd %xmm0, 1624(%r13,%rdx) vmovsd %xmm7, 1632(%r13,%rdx) vmovaps 1728(%rbx), %xmm1 vmulsd 1536(%r13,%rdx), %xmm1, %xmm0 vmovsd %xmm0, 1168(%rbx) vmulsd 1528(%r13,%rdx), %xmm1, %xmm0 vmovsd %xmm0, 1160(%rbx) vmulsd 1520(%r13,%rdx), %xmm1, %xmm0 vmovsd %xmm0, 728(%rbx) vmulsd 1512(%r13,%rdx), %xmm1, %xmm0 vmovsd %xmm0, 720(%rbx) vmulsd 1552(%r13,%rdx), %xmm1, %xmm0 vmovsd %xmm0, 1128(%rbx) vmulsd 1544(%r13,%rdx), %xmm1, %xmm0 vmovsd %xmm0, 1136(%rbx) vmovsd 1296(%rbx), %xmm0 vmovsd .LCPI0_8(%rip), %xmm1 movq %rdx, %r12 callq __ocl_svml_e9_pow1 vmovsd 320(%rbx), %xmm1 vmulsd %xmm0, %xmm1, %xmm0 vmovaps %xmm1, %xmm11 callq __ocl_svml_e9_log1 vmovsd %xmm0, 440(%rbx) vmovsd 1600(%rbx), %xmm0 vmovsd .LCPI0_10(%rip), %xmm1 callq __ocl_svml_e9_pow1 vmovaps %xmm9, %xmm7 movq %r12, %rsi vmovsd %xmm0, 432(%rbx) movq 1696(%rbx), %rax vxorps %xmm0, %xmm0, %xmm0 vmovups %xmm0, 16(%rax) vmovups %xmm0, (%rax) movq %r15, 1232(%r13,%rsi) vmovsd 1256(%r13,%rsi), %xmm15 vmovsd 1264(%r13,%rsi), %xmm13 vmovsd 1328(%r13,%rsi), %xmm0 vmovsd %xmm0, 416(%rbx) vmovsd 1320(%r13,%rsi), %xmm0 vmovsd %xmm0, 408(%rbx) vxorps %xmm1, %xmm1, %xmm1 vmulsd 1272(%r13,%rsi), %xmm1, %xmm0 vmovsd %xmm0, 424(%rbx) vmulsd 1280(%r13,%rsi), %xmm1, %xmm0 vmovsd %xmm0, 520(%rbx) vmovsd 1296(%r13,%rsi), %xmm0 vmovsd %xmm0, 512(%rbx) vmovsd 1288(%r13,%rsi), %xmm0 vmovsd %xmm0, 496(%rbx) vmulsd 1304(%r13,%rsi), %xmm1, %xmm0 vmovsd %xmm0, 488(%rbx) vmulsd 1312(%r13,%rsi), %xmm1, %xmm0 vmovsd %xmm0, 464(%rbx) vmulsd 1336(%r13,%rsi), %xmm1, %xmm0 vmovsd %xmm0, 448(%rbx) vmulsd 1344(%r13,%rsi), %xmm1, %xmm0 vmovsd %xmm0, 528(%rbx) vmovsd 1360(%r13,%rsi), %xmm0 vmovsd %xmm0, 568(%rbx) vmovsd 1352(%r13,%rsi), %xmm0 vmovsd %xmm0, 560(%rbx) vmulsd 1368(%r13,%rsi), %xmm1, %xmm0 vmovsd %xmm0, 544(%rbx) vmulsd 1376(%r13,%rsi), %xmm1, %xmm0 vxorpd %xmm5, %xmm5, %xmm5 vmovsd %xmm0, 536(%rbx) movl 40(%r13,%rsi), %eax movl 1280(%rbx), %ecx leal 4(%rax,%rcx), %ecx movslq %ecx, %rcx vmovsd 1792(%rbx,%rcx,8), %xmm2 movq 1680(%rbx), %rcx vmovsd 1792(%rbx,%rcx,8), %xmm3 movq 1080(%rbx), %rcx vmovsd 1792(%rbx,%rcx,8), %xmm1 vmovsd %xmm1, 1280(%rbx) vsubsd %xmm1, %xmm2, %xmm0 vsubsd %xmm3, %xmm1, %xmm1 vaddsd %xmm1, %xmm1, %xmm1 vaddsd %xmm0, %xmm0, %xmm0 vmulsd %xmm0, %xmm1, %xmm4 vucomisd %xmm4, %xmm5 vxorpd %xmm6, %xmm6, %xmm6 vxorpd %xmm5, %xmm5, %xmm5 jae .LBB0_248 vsubsd %xmm3, %xmm2, %xmm2 vmulsd %xmm7, %xmm2, %xmm2 vmovd %xmm2, %rcx andq %r14, %rcx vmovd %xmm1, %rdx vmovd %rcx, %xmm3 andq %r14, %rdx vmovd %rdx, %xmm5 vmovd %xmm0, %rcx andq %r14, %rcx vmovd %rcx, %xmm4 vucomisd %xmm5, %xmm4 jbe .LBB0_245 vucomisd %xmm5, %xmm3 vmovapd %xmm1, %xmm5 ja .LBB0_248 .align 16, 0x90 .LBB0_245: vucomisd %xmm4, %xmm3 ja .LBB0_247 vmovapd %xmm2, %xmm0 .LBB0_247: vmovapd %xmm0, %xmm5 .LBB0_248: vmovsd %xmm5, 576(%rbx) addl $4, %eax movl 1288(%rbx), %edx addl %eax, %edx movq 1672(%rbx), %rcx vmovsd 1792(%rbx,%rcx,8), %xmm2 movq 1024(%rbx), %rcx vmovsd 1792(%rbx,%rcx,8), %xmm4 vmovsd %xmm4, 1288(%rbx) vsubsd %xmm2, %xmm4, %xmm0 vaddsd %xmm0, %xmm0, %xmm1 movslq %edx, %rcx vmovsd 1792(%rbx,%rcx,8), %xmm3 vsubsd %xmm4, %xmm3, %xmm0 vaddsd %xmm0, %xmm0, %xmm0 vmulsd %xmm0, %xmm1, %xmm4 vucomisd %xmm4, %xmm6 vxorpd %xmm5, %xmm5, %xmm5 jae .LBB0_254 vsubsd %xmm2, %xmm3, %xmm2 vmulsd %xmm7, %xmm2, %xmm2 vmovd %xmm2, %rcx andq %r14, %rcx vmovd %xmm1, %rdx vmovd %rcx, %xmm3 andq %r14, %rdx vmovd %rdx, %xmm5 vmovd %xmm0, %rcx andq %r14, %rcx vmovd %rcx, %xmm4 vucomisd %xmm5, %xmm4 jbe .LBB0_251 vucomisd %xmm5, %xmm3 vmovapd %xmm1, %xmm5 ja .LBB0_254 .align 16, 0x90 .LBB0_251: vucomisd %xmm4, %xmm3 ja .LBB0_253 vmovapd %xmm2, %xmm0 .LBB0_253: vmovapd %xmm0, %xmm5 .LBB0_254: vmovsd %xmm5, 400(%rbx) movl 1272(%rbx), %edx addl %eax, %edx movq 1664(%rbx), %rcx vmovsd 1792(%rbx,%rcx,8), %xmm2 movq 1016(%rbx), %rcx vmovsd 1792(%rbx,%rcx,8), %xmm4 vmovsd %xmm4, 1272(%rbx) vsubsd %xmm2, %xmm4, %xmm0 vaddsd %xmm0, %xmm0, %xmm1 movslq %edx, %rcx vmovsd 1792(%rbx,%rcx,8), %xmm3 vsubsd %xmm4, %xmm3, %xmm0 vaddsd %xmm0, %xmm0, %xmm0 vmulsd %xmm0, %xmm1, %xmm4 vxorpd %xmm6, %xmm6, %xmm6 vucomisd %xmm4, %xmm6 vxorpd %xmm5, %xmm5, %xmm5 movq 1760(%rbx), %rdi jae .LBB0_260 vsubsd %xmm2, %xmm3, %xmm2 vmulsd %xmm7, %xmm2, %xmm2 vmovd %xmm2, %rcx andq %r14, %rcx vmovd %xmm1, %rdx vmovd %rcx, %xmm3 andq %r14, %rdx vmovd %rdx, %xmm5 vmovd %xmm0, %rcx andq %r14, %rcx vmovd %rcx, %xmm4 vucomisd %xmm5, %xmm4 jbe .LBB0_257 vucomisd %xmm5, %xmm3 vmovapd %xmm1, %xmm5 ja .LBB0_260 .align 16, 0x90 .LBB0_257: vucomisd %xmm4, %xmm3 ja .LBB0_259 vmovapd %xmm2, %xmm0 .LBB0_259: vmovapd %xmm0, %xmm5 .LBB0_260: vmovsd %xmm5, 392(%rbx) movl 1264(%rbx), %edx addl %eax, %edx movq 1656(%rbx), %rcx vmovsd 1792(%rbx,%rcx,8), %xmm2 movq 1040(%rbx), %rcx vmovsd 1792(%rbx,%rcx,8), %xmm4 vmovsd %xmm4, 384(%rbx) vsubsd %xmm2, %xmm4, %xmm0 vaddsd %xmm0, %xmm0, %xmm1 movslq %edx, %rcx vmovsd 1792(%rbx,%rcx,8), %xmm3 vsubsd %xmm4, %xmm3, %xmm0 vaddsd %xmm0, %xmm0, %xmm0 vmulsd %xmm0, %xmm1, %xmm4 vucomisd %xmm4, %xmm6 jae .LBB0_266 vsubsd %xmm2, %xmm3, %xmm2 vmulsd %xmm7, %xmm2, %xmm2 vmovd %xmm2, %rcx andq %r14, %rcx vmovd %xmm1, %rdx vmovd %rcx, %xmm3 andq %r14, %rdx vmovd %rdx, %xmm5 vmovd %xmm0, %rcx andq %r14, %rcx vmovd %rcx, %xmm4 vucomisd %xmm5, %xmm4 jbe .LBB0_263 vucomisd %xmm5, %xmm3 vmovapd %xmm1, %xmm6 ja .LBB0_266 .align 16, 0x90 .LBB0_263: vucomisd %xmm4, %xmm3 ja .LBB0_265 vmovapd %xmm2, %xmm0 .LBB0_265: vmovapd %xmm0, %xmm6 .LBB0_266: vmovsd %xmm6, 1264(%rbx) movl 1256(%rbx), %edx addl %eax, %edx movq 1648(%rbx), %rcx vmovsd 1792(%rbx,%rcx,8), %xmm2 movq 1032(%rbx), %rcx vmovsd 1792(%rbx,%rcx,8), %xmm4 vmovsd %xmm4, 1256(%rbx) vsubsd %xmm2, %xmm4, %xmm0 vaddsd %xmm0, %xmm0, %xmm1 movslq %edx, %rcx vmovsd 1792(%rbx,%rcx,8), %xmm3 vsubsd %xmm4, %xmm3, %xmm0 vaddsd %xmm0, %xmm0, %xmm0 vmulsd %xmm0, %xmm1, %xmm4 vxorpd %xmm6, %xmm6, %xmm6 vucomisd %xmm4, %xmm6 vxorpd %xmm5, %xmm5, %xmm5 jae .LBB0_272 vsubsd %xmm2, %xmm3, %xmm2 vmulsd %xmm7, %xmm2, %xmm2 vmovd %xmm2, %rcx andq %r14, %rcx vmovd %xmm1, %rdx vmovd %rcx, %xmm3 andq %r14, %rdx vmovd %rdx, %xmm5 vmovd %xmm0, %rcx andq %r14, %rcx vmovd %rcx, %xmm4 vucomisd %xmm5, %xmm4 jbe .LBB0_269 vucomisd %xmm5, %xmm3 vmovapd %xmm1, %xmm5 ja .LBB0_272 .align 16, 0x90 .LBB0_269: vucomisd %xmm4, %xmm3 ja .LBB0_271 vmovapd %xmm2, %xmm0 .LBB0_271: vmovapd %xmm0, %xmm5 .LBB0_272: vmovsd %xmm5, 376(%rbx) movl 1248(%rbx), %edx addl %eax, %edx movq 1640(%rbx), %rcx vmovsd 1792(%rbx,%rcx,8), %xmm2 movq 1056(%rbx), %rcx vmovsd 1792(%rbx,%rcx,8), %xmm4 vmovsd %xmm4, 368(%rbx) vsubsd %xmm2, %xmm4, %xmm0 vaddsd %xmm0, %xmm0, %xmm1 movslq %edx, %rcx vmovsd 1792(%rbx,%rcx,8), %xmm3 vsubsd %xmm4, %xmm3, %xmm0 vaddsd %xmm0, %xmm0, %xmm0 vmulsd %xmm0, %xmm1, %xmm4 vucomisd %xmm4, %xmm6 jae .LBB0_278 vsubsd %xmm2, %xmm3, %xmm2 vmulsd %xmm7, %xmm2, %xmm2 vmovd %xmm2, %rcx andq %r14, %rcx vmovd %xmm1, %rdx vmovd %rcx, %xmm3 andq %r14, %rdx vmovd %rdx, %xmm5 vmovd %xmm0, %rcx andq %r14, %rcx vmovd %rcx, %xmm4 vucomisd %xmm5, %xmm4 jbe .LBB0_275 vucomisd %xmm5, %xmm3 vmovapd %xmm1, %xmm6 ja .LBB0_278 .align 16, 0x90 .LBB0_275: vucomisd %xmm4, %xmm3 ja .LBB0_277 vmovapd %xmm2, %xmm0 .LBB0_277: vmovapd %xmm0, %xmm6 .LBB0_278: vmovsd %xmm6, 1248(%rbx) movl 1216(%rbx), %edx addl %eax, %edx movq 1632(%rbx), %rcx vmovsd 1792(%rbx,%rcx,8), %xmm0 movq 1048(%rbx), %rcx vmovsd 1792(%rbx,%rcx,8), %xmm4 vmovsd %xmm4, 360(%rbx) vsubsd %xmm0, %xmm4, %xmm1 vaddsd %xmm1, %xmm1, %xmm2 movslq %edx, %rcx vmovsd 1792(%rbx,%rcx,8), %xmm3 vsubsd %xmm4, %xmm3, %xmm1 vaddsd %xmm1, %xmm1, %xmm1 vmulsd %xmm1, %xmm2, %xmm4 vxorpd %xmm6, %xmm6, %xmm6 vucomisd %xmm4, %xmm6 vxorpd %xmm5, %xmm5, %xmm5 jae .LBB0_284 vsubsd %xmm0, %xmm3, %xmm0 vmulsd %xmm7, %xmm0, %xmm0 vmovd %xmm0, %rcx andq %r14, %rcx vmovd %xmm2, %rdx vmovd %rcx, %xmm3 andq %r14, %rdx vmovd %rdx, %xmm5 vmovd %xmm1, %rcx andq %r14, %rcx vmovd %rcx, %xmm4 vucomisd %xmm5, %xmm4 jbe .LBB0_281 vucomisd %xmm5, %xmm3 vmovapd %xmm2, %xmm5 ja .LBB0_284 .align 16, 0x90 .LBB0_281: vucomisd %xmm4, %xmm3 ja .LBB0_283 vmovapd %xmm0, %xmm1 .LBB0_283: vmovapd %xmm1, %xmm5 .LBB0_284: vmovsd %xmm5, 344(%rbx) movl 1208(%rbx), %edx addl %eax, %edx movq 1624(%rbx), %rcx vmovsd 1792(%rbx,%rcx,8), %xmm0 movq 1088(%rbx), %rcx vmovsd 1792(%rbx,%rcx,8), %xmm4 vmovsd %xmm4, 336(%rbx) vsubsd %xmm0, %xmm4, %xmm1 vaddsd %xmm1, %xmm1, %xmm2 movslq %edx, %rcx vmovsd 1792(%rbx,%rcx,8), %xmm3 vsubsd %xmm4, %xmm3, %xmm1 vaddsd %xmm1, %xmm1, %xmm1 vmulsd %xmm1, %xmm2, %xmm4 vucomisd %xmm4, %xmm6 jae .LBB0_290 vsubsd %xmm0, %xmm3, %xmm0 vmulsd %xmm7, %xmm0, %xmm0 vmovd %xmm0, %rcx andq %r14, %rcx vmovd %xmm2, %rdx vmovd %rcx, %xmm3 andq %r14, %rdx vmovd %rdx, %xmm5 vmovd %xmm1, %rcx andq %r14, %rcx vmovd %rcx, %xmm4 vucomisd %xmm5, %xmm4 jbe .LBB0_287 vucomisd %xmm5, %xmm3 vmovapd %xmm2, %xmm6 ja .LBB0_290 .align 16, 0x90 .LBB0_287: vucomisd %xmm4, %xmm3 ja .LBB0_289 vmovapd %xmm0, %xmm1 .LBB0_289: vmovapd %xmm1, %xmm6 .LBB0_290: vmovsd %xmm6, 352(%rbx) addl 1200(%rbx), %eax movq 1616(%rbx), %rcx vmovsd 1792(%rbx,%rcx,8), %xmm0 movq 1072(%rbx), %rcx vmovsd 1792(%rbx,%rcx,8), %xmm4 vmovsd %xmm4, 328(%rbx) vsubsd %xmm0, %xmm4, %xmm1 vaddsd %xmm1, %xmm1, %xmm2 movslq %eax, %rax vmovsd 1792(%rbx,%rax,8), %xmm3 vsubsd %xmm4, %xmm3, %xmm1 vaddsd %xmm1, %xmm1, %xmm1 vmulsd %xmm1, %xmm2, %xmm4 vxorpd %xmm5, %xmm5, %xmm5 vucomisd %xmm4, %xmm5 vxorpd %xmm5, %xmm5, %xmm5 movq 1776(%rbx), %rdx jae .LBB0_296 vsubsd %xmm0, %xmm3, %xmm0 vmulsd %xmm7, %xmm0, %xmm0 vmovd %xmm0, %rax andq %r14, %rax vmovd %xmm2, %rcx vmovd %rax, %xmm3 andq %r14, %rcx vmovd %rcx, %xmm5 vmovd %xmm1, %rax andq %r14, %rax vmovd %rax, %xmm4 vucomisd %xmm5, %xmm4 jbe .LBB0_293 vucomisd %xmm5, %xmm3 vmovapd %xmm2, %xmm5 ja .LBB0_296 .align 16, 0x90 .LBB0_293: vucomisd %xmm4, %xmm3 ja .LBB0_295 vmovapd %xmm0, %xmm1 .LBB0_295: vmovapd %xmm1, %xmm5 .LBB0_296: vmovsd %xmm5, 312(%rbx) vmovsd 736(%rbx), %xmm1 vmulsd 936(%rbx), %xmm1, %xmm8 vmulsd 776(%rbx), %xmm1, %xmm10 vmulsd 784(%rbx), %xmm1, %xmm2 vmulsd 792(%rbx), %xmm1, %xmm3 vmulsd 800(%rbx), %xmm1, %xmm5 vmulsd 968(%rbx), %xmm1, %xmm6 vmulsd 744(%rbx), %xmm1, %xmm7 vmulsd 944(%rbx), %xmm1, %xmm0 vmulsd 984(%rbx), %xmm1, %xmm4 vmovsd 1000(%rbx), %xmm1 vsubsd %xmm0, %xmm1, %xmm0 vmovsd %xmm0, 1216(%rbx) vmovsd 752(%rbx), %xmm0 vsubsd %xmm7, %xmm0, %xmm0 vmovsd %xmm0, 1072(%rbx) vmovsd 976(%rbx), %xmm0 vsubsd %xmm6, %xmm0, %xmm0 vmovsd %xmm0, 1088(%rbx) vmovsd 904(%rbx), %xmm0 vsubsd %xmm5, %xmm0, %xmm0 vmovsd %xmm0, 1080(%rbx) vmovsd 912(%rbx), %xmm0 vsubsd %xmm3, %xmm0, %xmm0 vmovsd %xmm0, 1200(%rbx) vmovsd 920(%rbx), %xmm0 vsubsd %xmm2, %xmm0, %xmm0 vmovsd %xmm0, 1208(%rbx) vmovsd 928(%rbx), %xmm0 vsubsd %xmm10, %xmm0, %xmm0 vmovsd %xmm0, 1056(%rbx) vmovsd 992(%rbx), %xmm0 vsubsd %xmm8, %xmm0, %xmm0 vmovsd %xmm0, 1048(%rbx) vmovsd 1008(%rbx), %xmm0 vsubsd %xmm4, %xmm0, %xmm0 vmovsd %xmm0, 1040(%rbx) vxorps %xmm12, %xmm12, %xmm12 vmulsd %xmm12, %xmm13, %xmm0 vaddsd %xmm0, %xmm15, %xmm8 vmulsd %xmm12, %xmm15, %xmm0 vaddsd %xmm13, %xmm0, %xmm0 vmovsd %xmm0, 992(%rbx) vmovsd .LCPI0_19(%rip), %xmm0 vmovaps %xmm11, %xmm9 vmulsd %xmm0, %xmm9, %xmm0 vmovsd .LCPI0_20(%rip), %xmm1 vmulsd %xmm1, %xmm9, %xmm2 vmovsd 1296(%rbx), %xmm11 vaddsd %xmm2, %xmm11, %xmm1 vdivsd %xmm1, %xmm0, %xmm1 vmovsd 1120(%rbx), %xmm10 vaddsd 1184(%rbx), %xmm10, %xmm0 vaddsd 704(%rbx), %xmm0, %xmm0 vaddsd 696(%rbx), %xmm0, %xmm0 vmovsd %xmm0, 1024(%rbx) vmovsd 1112(%rbx), %xmm15 vmulsd 1576(%rbx), %xmm15, %xmm0 vmovsd 1304(%rbx), %xmm13 vmovsd 1176(%rbx), %xmm5 vmulsd %xmm13, %xmm5, %xmm3 vsubsd %xmm0, %xmm3, %xmm0 vmovsd %xmm0, 1576(%rbx) vmulsd 1592(%rbx), %xmm15, %xmm0 vmovsd 656(%rbx), %xmm4 vmulsd %xmm13, %xmm4, %xmm3 vsubsd %xmm0, %xmm3, %xmm0 vmovsd %xmm0, 1592(%rbx) vmulsd %xmm10, %xmm15, %xmm0 vsubsd 640(%rbx), %xmm0, %xmm0 vmovsd %xmm0, 1184(%rbx) vmulsd %xmm10, %xmm5, %xmm0 vsubsd 672(%rbx), %xmm0, %xmm0 vmovsd %xmm0, 1176(%rbx) vmulsd %xmm10, %xmm4, %xmm0 vsubsd 664(%rbx), %xmm0, %xmm0 vmovsd %xmm0, 1032(%rbx) vmovsd 624(%rbx), %xmm3 vaddsd %xmm3, %xmm11, %xmm0 vaddsd %xmm2, %xmm0, %xmm0 vdivsd %xmm0, %xmm3, %xmm2 vmulsd %xmm1, %xmm2, %xmm0 vaddsd %xmm1, %xmm2, %xmm2 vmovsd 632(%rbx), %xmm1 vdivsd %xmm11, %xmm1, %xmm1 vmovsd 1600(%rbx), %xmm3 vdivsd %xmm1, %xmm3, %xmm5 vmulsd 712(%rbx), %xmm5, %xmm3 vmulsd %xmm15, %xmm5, %xmm5 vmovaps 592(%rbx), %xmm4 vdivsd %xmm4, %xmm5, %xmm6 vdivsd %xmm4, %xmm3, %xmm7 vsubsd %xmm0, %xmm2, %xmm0 vmovsd %xmm0, 1000(%rbx) vmovsd .LCPI0_5(%rip), %xmm0 vdivsd %xmm0, %xmm11, %xmm0 vmulsd 440(%rbx), %xmm0, %xmm5 vmovsd 408(%rbx), %xmm4 vmulsd %xmm12, %xmm4, %xmm0 vmovsd 416(%rbx), %xmm2 vaddsd %xmm2, %xmm0, %xmm3 vmulsd %xmm12, %xmm2, %xmm0 vaddsd %xmm0, %xmm4, %xmm14 vaddsd %xmm1, %xmm1, %xmm1 vmovsd 432(%rbx), %xmm0 vmulsd .LCPI0_11(%rip), %xmm0, %xmm4 vdivsd %xmm1, %xmm4, %xmm0 vmovsd %xmm0, 1016(%rbx) vmulsd %xmm10, %xmm5, %xmm1 vaddsd %xmm7, %xmm1, %xmm0 vmovsd %xmm0, 1600(%rbx) vmulsd %xmm13, %xmm5, %xmm1 vaddsd %xmm6, %xmm1, %xmm0 vmovsd %xmm0, 1008(%rbx) vmovsd 424(%rbx), %xmm0 vmovsd 992(%rbx), %xmm1 vaddsd %xmm0, %xmm1, %xmm1 vaddsd %xmm0, %xmm8, %xmm5 vmovsd 520(%rbx), %xmm2 vaddsd %xmm2, %xmm1, %xmm6 vmovsd 496(%rbx), %xmm0 vmulsd %xmm12, %xmm0, %xmm1 vmovsd 512(%rbx), %xmm4 vaddsd %xmm4, %xmm1, %xmm1 vmovsd 488(%rbx), %xmm8 vaddsd %xmm8, %xmm1, %xmm1 vmovsd 464(%rbx), %xmm9 vaddsd %xmm9, %xmm1, %xmm7 vmulsd %xmm12, %xmm7, %xmm1 vaddsd %xmm1, %xmm6, %xmm1 vmovsd %xmm1, 992(%rbx) vmulsd %xmm12, %xmm6, %xmm1 vaddsd %xmm7, %xmm1, %xmm7 vmovsd 448(%rbx), %xmm1 vaddsd %xmm1, %xmm14, %xmm14 vaddsd %xmm1, %xmm3, %xmm6 vaddsd %xmm2, %xmm5, %xmm3 vmulsd %xmm12, %xmm4, %xmm1 vaddsd %xmm1, %xmm0, %xmm1 vaddsd %xmm8, %xmm1, %xmm1 vaddsd %xmm9, %xmm1, %xmm1 vmulsd %xmm12, %xmm1, %xmm1 vaddsd %xmm1, %xmm3, %xmm3 vmovsd 528(%rbx), %xmm2 vaddsd %xmm2, %xmm6, %xmm1 vmulsd %xmm12, %xmm1, %xmm1 vaddsd %xmm1, %xmm7, %xmm5 vmovsd 992(%rbx), %xmm0 vaddsd %xmm1, %xmm0, %xmm4 vaddsd %xmm2, %xmm14, %xmm6 vmovsd 560(%rbx), %xmm2 vmulsd %xmm12, %xmm2, %xmm0 vmovsd 568(%rbx), %xmm7 vaddsd %xmm7, %xmm0, %xmm0 vmovsd 544(%rbx), %xmm9 vaddsd %xmm9, %xmm0, %xmm0 vmovsd 536(%rbx), %xmm14 vaddsd %xmm14, %xmm0, %xmm0 vmulsd %xmm12, %xmm0, %xmm1 vaddsd %xmm1, %xmm4, %xmm0 vaddsd %xmm1, %xmm5, %xmm4 vmulsd %xmm12, %xmm6, %xmm1 vaddsd %xmm1, %xmm3, %xmm3 vmulsd %xmm12, %xmm7, %xmm1 vaddsd %xmm1, %xmm2, %xmm1 vaddsd %xmm9, %xmm1, %xmm1 vaddsd %xmm14, %xmm1, %xmm1 vmulsd %xmm12, %xmm1, %xmm1 vaddsd %xmm1, %xmm3, %xmm7 vmovsd 1608(%rbx), %xmm1 vmovsd 1024(%rbx), %xmm2 vmulsd %xmm1, %xmm2, %xmm3 vmulsd %xmm1, %xmm1, %xmm5 vmulsd %xmm2, %xmm2, %xmm6 vaddsd %xmm6, %xmm7, %xmm1 vmovsd 1000(%rbx), %xmm2 vmulsd %xmm1, %xmm2, %xmm7 vaddsd %xmm4, %xmm5, %xmm1 vmulsd %xmm1, %xmm2, %xmm1 vaddsd %xmm3, %xmm0, %xmm0 vmulsd %xmm0, %xmm2, %xmm12 vsubsd %xmm1, %xmm5, %xmm5 vsubsd %xmm7, %xmm6, %xmm2 vmovaps 1728(%rbx), %xmm6 vmulsd %xmm6, %xmm11, %xmm0 vmulsd %xmm13, %xmm0, %xmm1 vmovsd %xmm1, 928(%rbx) vmulsd %xmm10, %xmm0, %xmm0 vmovsd %xmm0, 936(%rbx) vmulsd %xmm13, %xmm15, %xmm7 vmovsd 1016(%rbx), %xmm0 vmulsd %xmm0, %xmm10, %xmm1 vmulsd %xmm0, %xmm13, %xmm0 vmovsd 1008(%rbx), %xmm4 vsubsd %xmm0, %xmm4, %xmm8 vmovsd 1600(%rbx), %xmm0 vsubsd %xmm1, %xmm0, %xmm9 vmovsd .LCPI0_21(%rip), %xmm1 vmulsd %xmm1, %xmm2, %xmm1 vmulsd %xmm5, %xmm1, %xmm1 vsubsd %xmm12, %xmm3, %xmm3 vsubsd %xmm7, %xmm7, %xmm4 vmovsd 1032(%rbx), %xmm0 vmulsd %xmm6, %xmm0, %xmm5 vmovsd %xmm5, 976(%rbx) vmovsd 1176(%rbx), %xmm0 vmulsd %xmm6, %xmm0, %xmm5 vmovsd %xmm5, 944(%rbx) vmovsd 1184(%rbx), %xmm0 vmulsd %xmm6, %xmm0, %xmm5 vmovsd %xmm5, 984(%rbx) vmovsd 1592(%rbx), %xmm0 vmulsd %xmm6, %xmm0, %xmm5 vmovsd %xmm5, 968(%rbx) vmovsd 1576(%rbx), %xmm0 vmulsd %xmm6, %xmm0, %xmm5 vmovsd %xmm5, 992(%rbx) vmulsd %xmm6, %xmm4, %xmm4 vmovsd %xmm4, 1000(%rbx) vmovsd 616(%rbx), %xmm4 vmulsd %xmm6, %xmm4, %xmm4 vmovsd %xmm4, 1008(%rbx) vmovsd 584(%rbx), %xmm4 vmulsd %xmm6, %xmm4, %xmm4 vmovsd %xmm4, 1016(%rbx) vmulsd %xmm6, %xmm9, %xmm4 vmovsd %xmm4, 1032(%rbx) vmulsd %xmm6, %xmm8, %xmm0 vmovsd %xmm0, 1176(%rbx) vaddsd %xmm3, %xmm3, %xmm4 vmulsd %xmm4, %xmm4, %xmm0 vaddsd %xmm1, %xmm0, %xmm5 vmovsd .LCPI0_22(%rip), %xmm0 vmulsd %xmm0, %xmm3, %xmm1 vaddsd %xmm2, %xmm2, %xmm0 vmovq %xmm5, %xmm2 vsqrtpd %xmm2, %xmm2 vsubsd %xmm4, %xmm2, %xmm3 vmovsd .LCPI0_2(%rip), %xmm4 vxorpd %xmm4, %xmm3, %xmm3 vdivsd %xmm0, %xmm3, %xmm3 vsubsd %xmm2, %xmm1, %xmm1 vxorpd %xmm4, %xmm1, %xmm1 vdivsd %xmm0, %xmm1, %xmm0 vminsd %xmm3, %xmm0, %xmm1 vmovsd %xmm1, 1024(%rbx) vmaxsd %xmm0, %xmm3, %xmm0 vmovsd %xmm0, 1184(%rbx) vmovsd .LCPI0_23(%rip), %xmm6 vmovsd 576(%rbx), %xmm0 vmulsd %xmm6, %xmm0, %xmm0 vmovsd 1280(%rbx), %xmm1 vaddsd %xmm0, %xmm1, %xmm10 vmovsd 400(%rbx), %xmm0 vmulsd %xmm6, %xmm0, %xmm0 vmovsd 1288(%rbx), %xmm1 vaddsd %xmm0, %xmm1, %xmm0 vmovsd 392(%rbx), %xmm1 vmulsd %xmm6, %xmm1, %xmm1 vmovsd 1272(%rbx), %xmm2 vaddsd %xmm1, %xmm2, %xmm13 vmovsd 1264(%rbx), %xmm1 vmulsd %xmm6, %xmm1, %xmm2 vmovsd 384(%rbx), %xmm1 vaddsd %xmm2, %xmm1, %xmm1 vmovsd 376(%rbx), %xmm2 vmulsd %xmm6, %xmm2, %xmm2 vmovsd 1256(%rbx), %xmm3 vaddsd %xmm2, %xmm3, %xmm3 vmovsd 1248(%rbx), %xmm2 vmulsd %xmm6, %xmm2, %xmm2 vmovsd 368(%rbx), %xmm4 vaddsd %xmm2, %xmm4, %xmm12 vmovsd 344(%rbx), %xmm2 vmulsd %xmm6, %xmm2, %xmm2 vmovsd 360(%rbx), %xmm4 vaddsd %xmm2, %xmm4, %xmm15 vmovsd 352(%rbx), %xmm2 vmulsd %xmm6, %xmm2, %xmm2 vmovsd 336(%rbx), %xmm4 vaddsd %xmm2, %xmm4, %xmm14 vxorps %xmm5, %xmm5, %xmm5 vmulsd %xmm5, %xmm13, %xmm2 vmulsd %xmm2, %xmm3, %xmm4 vmulsd %xmm2, %xmm1, %xmm2 vaddsd %xmm4, %xmm2, %xmm2 vmulsd %xmm5, %xmm1, %xmm4 vmulsd %xmm4, %xmm3, %xmm4 vaddsd %xmm4, %xmm2, %xmm2 vaddsd %xmm2, %xmm2, %xmm2 vmulsd %xmm1, %xmm1, %xmm4 vmulsd %xmm13, %xmm13, %xmm5 vmovsd .LCPI0_0(%rip), %xmm7 vaddsd %xmm7, %xmm5, %xmm5 vaddsd %xmm4, %xmm5, %xmm4 vmulsd %xmm3, %xmm3, %xmm5 vaddsd %xmm5, %xmm4, %xmm4 vaddsd %xmm2, %xmm4, %xmm2 vmovsd 312(%rbx), %xmm4 vmulsd %xmm6, %xmm4, %xmm4 vmovsd .LCPI0_1(%rip), %xmm5 vmaxsd %xmm0, %xmm5, %xmm7 vmovsd %xmm7, 640(%rbx) vmaxsd %xmm10, %xmm5, %xmm0 vmovsd %xmm0, 1256(%rbx) vmovq %xmm2, %xmm0 vmovsd 328(%rbx), %xmm2 vaddsd %xmm4, %xmm2, %xmm2 vmovsd %xmm2, 1280(%rbx) vsqrtpd %xmm0, %xmm0 vmovsd 1720(%rbx), %xmm2 vdivsd %xmm2, %xmm0, %xmm4 vmovsd %xmm4, 1592(%rbx) vmulsd .LCPI0_3(%rip), %xmm0, %xmm0 vmulsd %xmm2, %xmm0, %xmm0 vsubsd %xmm0, %xmm3, %xmm6 vmovsd %xmm6, 1264(%rbx) vsubsd %xmm0, %xmm13, %xmm5 vmovsd %xmm5, 1288(%rbx) vsubsd %xmm0, %xmm1, %xmm0 vmovsd %xmm0, 1272(%rbx) vxorps %xmm8, %xmm8, %xmm8 vmulsd %xmm8, %xmm0, %xmm3 vmovsd %xmm3, 1112(%rbx) vmovaps %xmm0, %xmm9 vmulsd %xmm8, %xmm4, %xmm10 vaddsd %xmm5, %xmm10, %xmm1 vaddsd %xmm3, %xmm1, %xmm1 vmulsd %xmm8, %xmm6, %xmm2 vmovsd %xmm2, 1576(%rbx) vmovaps %xmm6, %xmm11 vaddsd %xmm2, %xmm1, %xmm0 vmovsd %xmm0, 1608(%rbx) vmulsd %xmm8, %xmm5, %xmm1 vmovsd %xmm1, 1304(%rbx) vaddsd %xmm1, %xmm10, %xmm8 vaddsd %xmm9, %xmm8, %xmm1 vaddsd %xmm2, %xmm1, %xmm1 vmovsd %xmm1, 1600(%rbx) vmulsd %xmm1, %xmm15, %xmm1 vmovaps %xmm12, %xmm6 vmulsd %xmm0, %xmm6, %xmm2 vaddsd %xmm1, %xmm2, %xmm1 vaddsd %xmm3, %xmm8, %xmm0 vmovaps %xmm3, %xmm8 vaddsd %xmm11, %xmm0, %xmm0 vmovsd %xmm0, 1296(%rbx) vmovaps %xmm11, %xmm2 vmulsd %xmm0, %xmm14, %xmm0 vaddsd %xmm0, %xmm1, %xmm11 vmovsd %xmm11, 920(%rbx) movabsq $-4616189618054758400, %rax movq %rax, 1384(%r13,%rsi) vxorps %xmm0, %xmm0, %xmm0 vmovups %xmm0, 16(%rdi) vmovups %xmm0, (%rdi) movabsq $4607182418800017408, %r15 movq %r15, 1424(%r13,%rsi) movq 1768(%rbx), %rcx vmovups %xmm0, 16(%rcx) vmovups %xmm0, (%rcx) movq %r15, 1464(%r13,%rsi) vmovups %xmm0, 16(%rdx) vmovups %xmm0, (%rdx) movq %r15, 1504(%r13,%rsi) movq %rax, 1256(%r13,%rsi) movabsq $-9223372036854775808, %rax movq %rax, 1264(%r13,%rsi) movq %rax, 1272(%r13,%rsi) movq %rax, 1280(%r13,%rsi) movq %rax, 1288(%r13,%rsi) movq %r15, 1296(%r13,%rsi) movq %rax, 1304(%r13,%rsi) movq %rax, 1312(%r13,%rsi) movq %rax, 1320(%r13,%rsi) movq %rax, 1328(%r13,%rsi) movq %r15, 1336(%r13,%rsi) movq %rax, 1344(%r13,%rsi) movq %rax, 1352(%r13,%rsi) movq %rax, 1360(%r13,%rsi) movq %rax, 1368(%r13,%rsi) movq %r15, 1376(%r13,%rsi) vmulsd %xmm9, %xmm11, %xmm0 vmovsd %xmm0, 912(%rbx) vaddsd %xmm0, %xmm15, %xmm0 vmulsd %xmm2, %xmm11, %xmm1 vmovsd %xmm1, 792(%rbx) vaddsd %xmm1, %xmm14, %xmm1 vdivsd %xmm4, %xmm1, %xmm14 vmovsd %xmm14, 784(%rbx) vdivsd %xmm4, %xmm0, %xmm15 vmovsd %xmm15, 904(%rbx) vmulsd %xmm5, %xmm11, %xmm0 vmovsd %xmm0, 776(%rbx) vaddsd %xmm0, %xmm6, %xmm0 vdivsd %xmm4, %xmm0, %xmm10 vmovaps %xmm4, %xmm9 vmovsd %xmm10, 800(%rbx) vxorps %xmm4, %xmm4, %xmm4 vmulsd %xmm4, %xmm11, %xmm0 vmulsd %xmm4, %xmm10, %xmm1 vaddsd %xmm1, %xmm0, %xmm2 vsubsd %xmm11, %xmm1, %xmm3 vaddsd %xmm10, %xmm0, %xmm1 vmulsd %xmm4, %xmm15, %xmm0 vxorps %xmm12, %xmm12, %xmm12 vaddsd %xmm0, %xmm1, %xmm1 vaddsd %xmm0, %xmm3, %xmm3 vaddsd %xmm0, %xmm2, %xmm13 vaddsd %xmm15, %xmm2, %xmm2 vmulsd (%rdx), %xmm14, %xmm4 vaddsd %xmm4, %xmm2, %xmm6 vmovsd %xmm6, 544(%rbx) vmulsd %xmm12, %xmm14, %xmm2 vaddsd %xmm2, %xmm3, %xmm0 vmovsd %xmm0, 576(%rbx) vaddsd %xmm2, %xmm1, %xmm3 vmovsd %xmm3, 560(%rbx) vmovsd 1256(%rbx), %xmm1 vaddsd %xmm7, %xmm1, %xmm1 vmulsd .LCPI0_5(%rip), %xmm7, %xmm4 vmovsd %xmm4, 1120(%rbx) vaddsd %xmm1, %xmm4, %xmm1 vmovsd 1304(%rbx), %xmm2 vsubsd %xmm9, %xmm2, %xmm2 vmovaps %xmm9, %xmm7 vaddsd %xmm8, %xmm2, %xmm2 vaddsd 1576(%rbx), %xmm2, %xmm8 vmulsd %xmm3, %xmm10, %xmm2 vmovsd %xmm2, 712(%rbx) vmulsd %xmm0, %xmm11, %xmm0 vmovsd %xmm0, 696(%rbx) vaddsd %xmm2, %xmm0, %xmm3 vmulsd %xmm6, %xmm15, %xmm0 vmovsd %xmm0, 736(%rbx) vaddsd %xmm0, %xmm3, %xmm3 vaddsd %xmm14, %xmm13, %xmm0 vmovsd %xmm0, 1248(%rbx) vmulsd %xmm0, %xmm14, %xmm0 vmovsd %xmm0, 704(%rbx) vaddsd %xmm0, %xmm3, %xmm2 vmovsd %xmm2, 744(%rbx) vmovsd .LCPI0_4(%rip), %xmm0 vmaxsd %xmm2, %xmm0, %xmm0 vmovaps %xmm0, 752(%rbx) vaddsd %xmm1, %xmm0, %xmm1 vmulsd .LCPI0_6(%rip), %xmm0, %xmm0 vaddsd %xmm0, %xmm4, %xmm0 vmovsd 1272(%rbx), %xmm2 vmulsd %xmm1, %xmm2, %xmm3 vmulsd %xmm1, %xmm5, %xmm9 vmulsd %xmm1, %xmm7, %xmm7 vmovsd 1264(%rbx), %xmm2 vmulsd %xmm1, %xmm2, %xmm1 vmovsd 1296(%rbx), %xmm2 vmulsd %xmm1, %xmm2, %xmm13 vmovsd 1600(%rbx), %xmm6 vmulsd %xmm1, %xmm6, %xmm4 vmovsd %xmm4, 616(%rbx) vmovsd 1608(%rbx), %xmm4 vmulsd %xmm1, %xmm4, %xmm5 vmovsd %xmm5, 592(%rbx) vmulsd %xmm1, %xmm8, %xmm1 vmulsd %xmm7, %xmm8, %xmm5 vaddsd %xmm5, %xmm0, %xmm5 vmovsd %xmm5, 632(%rbx) vaddsd %xmm13, %xmm0, %xmm5 vmovsd %xmm5, 672(%rbx) vmovaps %xmm4, %xmm5 vmulsd %xmm9, %xmm5, %xmm4 vaddsd %xmm4, %xmm0, %xmm4 vmovsd %xmm4, 656(%rbx) vmulsd %xmm3, %xmm6, %xmm4 vmovaps %xmm6, %xmm13 vaddsd %xmm4, %xmm0, %xmm4 vmovsd %xmm4, 664(%rbx) vmulsd %xmm12, %xmm0, %xmm0 vmulsd %xmm3, %xmm2, %xmm4 vmulsd %xmm3, %xmm5, %xmm6 vmovsd %xmm6, 584(%rbx) vmulsd %xmm3, %xmm8, %xmm12 vmulsd %xmm7, %xmm5, %xmm5 vmovaps %xmm13, %xmm6 vmulsd %xmm7, %xmm6, %xmm3 vmulsd %xmm7, %xmm2, %xmm7 vaddsd %xmm5, %xmm0, %xmm5 vaddsd %xmm1, %xmm0, %xmm1 vmovsd %xmm1, 624(%rbx) vaddsd 592(%rbx), %xmm0, %xmm1 vmovsd %xmm1, 592(%rbx) vaddsd 616(%rbx), %xmm0, %xmm1 vmovsd %xmm1, 488(%rbx) vaddsd %xmm4, %xmm0, %xmm1 vmovsd %xmm1, 464(%rbx) vmulsd %xmm9, %xmm8, %xmm1 vaddsd %xmm1, %xmm0, %xmm1 vaddsd %xmm7, %xmm0, %xmm7 vaddsd %xmm3, %xmm0, %xmm13 vmulsd %xmm9, %xmm2, %xmm3 vmulsd %xmm9, %xmm6, %xmm4 vaddsd %xmm4, %xmm0, %xmm2 vmovsd %xmm2, 512(%rbx) vaddsd %xmm3, %xmm0, %xmm2 vmovsd %xmm2, 496(%rbx) vaddsd %xmm12, %xmm0, %xmm12 vaddsd 584(%rbx), %xmm0, %xmm0 vmovsd 632(%rbx), %xmm2 vsubsd 696(%rbx), %xmm2, %xmm2 vmovsd %xmm2, 520(%rbx) vmovsd 560(%rbx), %xmm2 vmulsd %xmm2, %xmm11, %xmm4 vsubsd %xmm4, %xmm5, %xmm3 vmovsd %xmm3, 528(%rbx) vmovsd 544(%rbx), %xmm5 vmulsd %xmm5, %xmm11, %xmm4 vsubsd %xmm4, %xmm13, %xmm3 vmovsd %xmm3, 536(%rbx) vmovsd 1248(%rbx), %xmm6 vmulsd %xmm6, %xmm11, %xmm4 vsubsd %xmm4, %xmm7, %xmm4 vmovsd %xmm4, 568(%rbx) vmovsd 656(%rbx), %xmm3 vsubsd 712(%rbx), %xmm3, %xmm4 vmovsd %xmm4, 616(%rbx) vmovsd 576(%rbx), %xmm7 vmulsd %xmm7, %xmm10, %xmm4 vsubsd %xmm4, %xmm1, %xmm1 vmovsd %xmm1, 584(%rbx) vmulsd %xmm6, %xmm15, %xmm1 vmovaps %xmm6, %xmm3 vmovsd 464(%rbx), %xmm4 vsubsd %xmm1, %xmm4, %xmm1 vmovsd %xmm1, 632(%rbx) vmovsd 672(%rbx), %xmm1 vsubsd 704(%rbx), %xmm1, %xmm1 vmovsd %xmm1, 704(%rbx) vmulsd %xmm5, %xmm14, %xmm1 vmovaps %xmm5, %xmm4 vmovsd 488(%rbx), %xmm5 vsubsd %xmm1, %xmm5, %xmm1 vmovsd %xmm1, 672(%rbx) vmulsd %xmm2, %xmm14, %xmm1 vmovsd 592(%rbx), %xmm5 vsubsd %xmm1, %xmm5, %xmm1 vmovsd %xmm1, 656(%rbx) vmovaps %xmm7, %xmm6 vmulsd %xmm6, %xmm14, %xmm1 vmovsd 624(%rbx), %xmm5 vsubsd %xmm1, %xmm5, %xmm1 vmovsd %xmm1, 592(%rbx) vmovsd 664(%rbx), %xmm1 vsubsd 736(%rbx), %xmm1, %xmm1 vmovsd %xmm1, 712(%rbx) vmulsd %xmm2, %xmm15, %xmm1 vmovaps %xmm2, %xmm9 vsubsd %xmm1, %xmm0, %xmm0 vmovsd %xmm0, 696(%rbx) vmulsd %xmm6, %xmm15, %xmm0 vsubsd %xmm0, %xmm12, %xmm0 vmovsd %xmm0, 664(%rbx) vmulsd %xmm3, %xmm10, %xmm0 vmovsd 496(%rbx), %xmm1 vsubsd %xmm0, %xmm1, %xmm0 vmovsd %xmm0, 624(%rbx) vmulsd %xmm4, %xmm10, %xmm0 vmovsd 512(%rbx), %xmm1 vsubsd %xmm0, %xmm1, %xmm0 vmovsd %xmm0, 736(%rbx) vmovq 752(%rbx), %xmm0 vsqrtpd %xmm0, %xmm6 vmovapd %xmm6, 752(%rbx) vmovsd 1280(%rbx), %xmm2 vmulsd %xmm2, %xmm11, %xmm0 vdivsd %xmm6, %xmm0, %xmm0 vmovaps %xmm8, %xmm11 vmulsd %xmm0, %xmm11, %xmm1 vmovsd 520(%rbx), %xmm3 vaddsd %xmm1, %xmm3, %xmm1 vmulsd %xmm2, %xmm7, %xmm3 vdivsd %xmm6, %xmm3, %xmm5 vmovsd %xmm5, 576(%rbx) vmovsd 1592(%rbx), %xmm7 vmulsd %xmm5, %xmm7, %xmm3 vaddsd %xmm3, %xmm1, %xmm1 vmovsd %xmm1, 1512(%r13,%rsi) vmovsd 1608(%rbx), %xmm13 vmulsd %xmm0, %xmm13, %xmm1 vmovsd 528(%rbx), %xmm3 vaddsd %xmm1, %xmm3, %xmm1 vmulsd %xmm2, %xmm9, %xmm3 vdivsd %xmm6, %xmm3, %xmm12 vmulsd %xmm12, %xmm7, %xmm3 vaddsd %xmm3, %xmm1, %xmm1 vmovsd %xmm1, 1520(%r13,%rsi) vmovsd 1600(%rbx), %xmm1 vmulsd %xmm0, %xmm1, %xmm1 vmovsd 536(%rbx), %xmm3 vaddsd %xmm1, %xmm3, %xmm1 vmulsd %xmm2, %xmm4, %xmm3 vdivsd %xmm6, %xmm3, %xmm9 vmulsd %xmm9, %xmm7, %xmm4 vaddsd %xmm4, %xmm1, %xmm1 vmovsd %xmm1, 1528(%r13,%rsi) vmovsd 1296(%rbx), %xmm3 vmulsd %xmm0, %xmm3, %xmm0 vmovsd 568(%rbx), %xmm1 vaddsd %xmm0, %xmm1, %xmm0 vmovsd 1248(%rbx), %xmm1 vmulsd %xmm2, %xmm1, %xmm1 vdivsd %xmm6, %xmm1, %xmm8 vmulsd %xmm8, %xmm7, %xmm1 vaddsd %xmm1, %xmm0, %xmm0 vmovsd %xmm0, 1536(%r13,%rsi) vmulsd %xmm2, %xmm10, %xmm0 vdivsd %xmm6, %xmm0, %xmm7 vmulsd %xmm7, %xmm11, %xmm0 vmovsd 584(%rbx), %xmm1 vaddsd %xmm0, %xmm1, %xmm0 vmovsd 1288(%rbx), %xmm4 vmulsd %xmm5, %xmm4, %xmm1 vaddsd %xmm1, %xmm0, %xmm0 vmulsd %xmm7, %xmm13, %xmm1 vmovsd 616(%rbx), %xmm5 vaddsd %xmm1, %xmm5, %xmm1 vmovsd %xmm1, 616(%rbx) vmovsd %xmm0, 1544(%r13,%rsi) vmulsd %xmm2, %xmm15, %xmm0 vdivsd %xmm6, %xmm0, %xmm0 vmulsd %xmm0, %xmm3, %xmm1 vmovsd 632(%rbx), %xmm5 vaddsd %xmm1, %xmm5, %xmm1 vmovsd %xmm1, 1248(%rbx) vmulsd %xmm2, %xmm14, %xmm1 vdivsd %xmm6, %xmm1, %xmm1 vmulsd %xmm1, %xmm11, %xmm6 vmovsd 592(%rbx), %xmm2 vaddsd %xmm6, %xmm2, %xmm2 vmovsd %xmm2, 632(%rbx) vmovaps %xmm13, %xmm2 vmulsd %xmm1, %xmm2, %xmm6 vmovsd 656(%rbx), %xmm5 vaddsd %xmm6, %xmm5, %xmm5 vmovsd %xmm5, 656(%rbx) vmovsd 1600(%rbx), %xmm15 vmulsd %xmm1, %xmm15, %xmm6 vmovsd 672(%rbx), %xmm5 vaddsd %xmm6, %xmm5, %xmm14 vmulsd %xmm1, %xmm3, %xmm1 vmovsd 704(%rbx), %xmm6 vaddsd %xmm1, %xmm6, %xmm10 vmulsd %xmm12, %xmm4, %xmm6 vmovsd 616(%rbx), %xmm1 vaddsd %xmm6, %xmm1, %xmm6 vmulsd %xmm7, %xmm3, %xmm1 vmovsd 624(%rbx), %xmm3 vaddsd %xmm1, %xmm3, %xmm1 vmovsd %xmm1, 704(%rbx) vmulsd %xmm0, %xmm11, %xmm1 vmovsd 664(%rbx), %xmm3 vaddsd %xmm1, %xmm3, %xmm4 vmulsd %xmm0, %xmm2, %xmm1 vmovsd 696(%rbx), %xmm2 vaddsd %xmm1, %xmm2, %xmm13 vmulsd %xmm0, %xmm15, %xmm0 vmovaps %xmm15, %xmm11 vmovsd 712(%rbx), %xmm1 vaddsd %xmm0, %xmm1, %xmm0 vmovsd %xmm6, 1552(%r13,%rsi) vmovsd 1264(%rbx), %xmm2 vmulsd %xmm8, %xmm2, %xmm1 vaddsd %xmm1, %xmm10, %xmm1 vmovsd %xmm1, 712(%rbx) vmulsd %xmm9, %xmm2, %xmm1 vaddsd %xmm1, %xmm14, %xmm1 vmovsd %xmm1, 1296(%rbx) vmulsd %xmm12, %xmm2, %xmm1 vmovsd 656(%rbx), %xmm3 vaddsd %xmm1, %xmm3, %xmm14 vmovsd 576(%rbx), %xmm3 vmulsd %xmm3, %xmm2, %xmm1 vmovsd 632(%rbx), %xmm2 vaddsd %xmm1, %xmm2, %xmm15 vmovsd 1272(%rbx), %xmm6 vmulsd %xmm8, %xmm6, %xmm1 vmovsd 1248(%rbx), %xmm2 vaddsd %xmm1, %xmm2, %xmm10 vmulsd %xmm9, %xmm6, %xmm1 vaddsd %xmm1, %xmm0, %xmm0 vmulsd %xmm12, %xmm6, %xmm1 vaddsd %xmm1, %xmm13, %xmm1 vmulsd %xmm3, %xmm6, %xmm5 vaddsd %xmm5, %xmm4, %xmm5 vmovsd 1288(%rbx), %xmm6 vmulsd %xmm8, %xmm6, %xmm4 vmovsd 704(%rbx), %xmm2 vaddsd %xmm4, %xmm2, %xmm2 vmovsd %xmm2, 1248(%rbx) vmulsd %xmm7, %xmm11, %xmm4 vmovsd 736(%rbx), %xmm3 vaddsd %xmm4, %xmm3, %xmm4 vmulsd %xmm9, %xmm6, %xmm3 vaddsd %xmm3, %xmm4, %xmm3 vmovsd %xmm3, 736(%rbx) vmovsd %xmm3, 1560(%r13,%rsi) vmovsd %xmm2, 1568(%r13,%rsi) vmovsd %xmm5, 1576(%r13,%rsi) vmovsd %xmm1, 1584(%r13,%rsi) vmovsd %xmm0, 1592(%r13,%rsi) vmovsd %xmm10, 1600(%r13,%rsi) vmovsd %xmm15, 1608(%r13,%rsi) vmovsd %xmm14, 1616(%r13,%rsi) vmovsd 1296(%rbx), %xmm0 vmovsd %xmm0, 1624(%r13,%rsi) vmovsd 712(%rbx), %xmm0 vmovsd %xmm0, 1632(%r13,%rsi) vmovaps 1728(%rbx), %xmm1 vmulsd 1544(%r13,%rsi), %xmm1, %xmm0 vmovsd %xmm0, 712(%rbx) vmulsd 1552(%r13,%rsi), %xmm1, %xmm0 vmovsd %xmm0, 696(%rbx) vmulsd 1536(%r13,%rsi), %xmm1, %xmm0 vmovsd %xmm0, 704(%rbx) vmulsd 1528(%r13,%rsi), %xmm1, %xmm0 vmovsd %xmm0, 672(%rbx) vmulsd 1520(%r13,%rsi), %xmm1, %xmm0 vmovsd %xmm0, 664(%rbx) vmulsd 1512(%r13,%rsi), %xmm1, %xmm0 vmovsd %xmm0, 656(%rbx) vmovsd 1256(%rbx), %xmm8 vmovaps %xmm8, %xmm0 vmovsd .LCPI0_8(%rip), %xmm1 movq %rsi, %r12 callq __ocl_svml_e9_pow1 vmovsd 640(%rbx), %xmm9 vmulsd %xmm0, %xmm9, %xmm0 callq __ocl_svml_e9_log1 vmovsd %xmm0, 624(%rbx) vmovsd 1280(%rbx), %xmm0 vmovsd .LCPI0_10(%rip), %xmm1 callq __ocl_svml_e9_pow1 movq %r12, %rdx vmovsd %xmm0, 632(%rbx) movq 1696(%rbx), %rax vxorps %xmm0, %xmm0, %xmm0 vmovups %xmm0, 16(%rax) vmovups %xmm0, (%rax) movq %r15, 1232(%r13,%rdx) vmovsd 1256(%r13,%rdx), %xmm0 vmovsd 1264(%r13,%rdx), %xmm1 vxorps %xmm6, %xmm6, %xmm6 vmulsd %xmm6, %xmm1, %xmm2 vaddsd %xmm2, %xmm0, %xmm2 vmulsd %xmm6, %xmm0, %xmm0 vaddsd %xmm1, %xmm0, %xmm0 vmovsd %xmm0, 1296(%rbx) vmovaps %xmm9, %xmm1 vmulsd .LCPI0_19(%rip), %xmm1, %xmm0 vmulsd .LCPI0_20(%rip), %xmm1, %xmm3 vmovaps %xmm8, %xmm4 vaddsd %xmm3, %xmm4, %xmm1 vdivsd %xmm1, %xmm0, %xmm1 vmovsd 1592(%rbx), %xmm0 vaddsd 1304(%rbx), %xmm0, %xmm0 vaddsd 1112(%rbx), %xmm0, %xmm0 vaddsd 1576(%rbx), %xmm0, %xmm0 vmovsd %xmm0, 1600(%rbx) vmovsd 744(%rbx), %xmm5 vaddsd %xmm5, %xmm4, %xmm0 vaddsd %xmm3, %xmm0, %xmm0 vdivsd %xmm0, %xmm5, %xmm0 vmulsd %xmm1, %xmm0, %xmm3 vaddsd %xmm1, %xmm0, %xmm0 vsubsd %xmm3, %xmm0, %xmm0 vmovsd %xmm0, 1576(%rbx) vmovsd 1352(%r13,%rdx), %xmm0 vmovsd 1360(%r13,%rdx), %xmm1 vmulsd %xmm6, %xmm1, %xmm3 vaddsd %xmm3, %xmm0, %xmm5 vmulsd %xmm6, %xmm0, %xmm0 vaddsd %xmm1, %xmm0, %xmm1 vmulsd 1272(%r13,%rdx), %xmm6, %xmm14 vaddsd %xmm14, %xmm2, %xmm0 vmulsd 1280(%r13,%rdx), %xmm6, %xmm9 vaddsd %xmm9, %xmm0, %xmm4 vmovsd 1288(%r13,%rdx), %xmm12 vmovsd 1296(%r13,%rdx), %xmm15 vmulsd %xmm6, %xmm15, %xmm0 vaddsd %xmm0, %xmm12, %xmm0 vmulsd 1304(%r13,%rdx), %xmm6, %xmm3 vaddsd %xmm3, %xmm0, %xmm0 vmulsd 1312(%r13,%rdx), %xmm6, %xmm2 vaddsd %xmm2, %xmm0, %xmm0 vmulsd %xmm6, %xmm0, %xmm0 vaddsd %xmm0, %xmm4, %xmm13 vmulsd 1368(%r13,%rdx), %xmm6, %xmm0 vaddsd %xmm0, %xmm1, %xmm7 vaddsd %xmm0, %xmm5, %xmm11 vmovsd 1320(%r13,%rdx), %xmm5 vmovsd 1328(%r13,%rdx), %xmm4 vmulsd %xmm6, %xmm4, %xmm0 vaddsd %xmm0, %xmm5, %xmm0 vmulsd %xmm6, %xmm5, %xmm1 vaddsd %xmm4, %xmm1, %xmm4 vmulsd 1336(%r13,%rdx), %xmm6, %xmm1 vxorps %xmm8, %xmm8, %xmm8 vaddsd %xmm1, %xmm4, %xmm5 vaddsd %xmm1, %xmm0, %xmm0 vmulsd 1344(%r13,%rdx), %xmm8, %xmm10 vaddsd %xmm10, %xmm0, %xmm0 vmulsd %xmm8, %xmm0, %xmm0 vaddsd %xmm0, %xmm13, %xmm0 vmovsd %xmm0, 1304(%rbx) vmulsd 1376(%r13,%rdx), %xmm8, %xmm0 vaddsd %xmm0, %xmm11, %xmm13 vaddsd %xmm0, %xmm7, %xmm1 vmovsd .LCPI0_2(%rip), %xmm0 vmovapd %xmm0, %xmm11 vaddsd %xmm10, %xmm5, %xmm4 vmulsd %xmm8, %xmm12, %xmm0 vaddsd %xmm15, %xmm0, %xmm0 vaddsd %xmm3, %xmm0, %xmm0 vaddsd %xmm2, %xmm0, %xmm2 vmovsd 1296(%rbx), %xmm0 vaddsd %xmm14, %xmm0, %xmm0 vaddsd %xmm9, %xmm0, %xmm3 vmulsd %xmm8, %xmm3, %xmm0 vaddsd %xmm2, %xmm0, %xmm0 vmulsd %xmm8, %xmm4, %xmm4 vaddsd %xmm4, %xmm0, %xmm0 vmulsd %xmm8, %xmm1, %xmm5 vaddsd %xmm5, %xmm0, %xmm1 vmovsd 1608(%rbx), %xmm6 vmulsd %xmm6, %xmm6, %xmm0 vaddsd %xmm1, %xmm0, %xmm1 vmovsd 1576(%rbx), %xmm7 vmulsd %xmm1, %xmm7, %xmm1 vsubsd %xmm1, %xmm0, %xmm9 vmulsd %xmm8, %xmm13, %xmm0 vmovsd 1304(%rbx), %xmm1 vaddsd %xmm0, %xmm1, %xmm0 vmovsd 1600(%rbx), %xmm1 vmulsd %xmm6, %xmm1, %xmm6 vmulsd %xmm1, %xmm1, %xmm1 vaddsd %xmm1, %xmm0, %xmm0 vmulsd %xmm0, %xmm7, %xmm0 vsubsd %xmm0, %xmm1, %xmm1 vmulsd %xmm8, %xmm2, %xmm0 vaddsd %xmm0, %xmm3, %xmm0 vmulsd .LCPI0_21(%rip), %xmm1, %xmm2 vmulsd %xmm9, %xmm2, %xmm2 vaddsd %xmm4, %xmm0, %xmm0 vaddsd %xmm5, %xmm0, %xmm0 vaddsd %xmm6, %xmm0, %xmm0 vmulsd %xmm0, %xmm7, %xmm0 vsubsd %xmm0, %xmm6, %xmm3 vaddsd %xmm3, %xmm3, %xmm0 vmulsd %xmm0, %xmm0, %xmm4 vaddsd %xmm2, %xmm4, %xmm2 vmovq %xmm2, %xmm2 vsqrtpd %xmm2, %xmm2 vmulsd .LCPI0_22(%rip), %xmm3, %xmm3 vsubsd %xmm0, %xmm2, %xmm0 vsubsd %xmm2, %xmm3, %xmm2 vaddsd %xmm1, %xmm1, %xmm1 vxorpd %xmm11, %xmm2, %xmm2 vdivsd %xmm1, %xmm2, %xmm2 vmovsd %xmm2, 640(%rbx) vxorpd %xmm11, %xmm0, %xmm0 vdivsd %xmm1, %xmm0, %xmm9 vmovsd 1184(%rbx), %xmm0 vmaxsd %xmm8, %xmm0, %xmm0 vucomisd %xmm0, %xmm0 vmaxsd %xmm2, %xmm9, %xmm13 jp .LBB0_298 vmaxsd %xmm0, %xmm13, %xmm13 .LBB0_298: vmovsd .LCPI0_6(%rip), %xmm14 vmovsd 1072(%rbx), %xmm0 vmulsd %xmm14, %xmm0, %xmm0 vmovsd %xmm0, 1576(%rbx) vmovsd 1216(%rbx), %xmm0 vmulsd %xmm14, %xmm0, %xmm0 vmovsd %xmm0, 1304(%rbx) vmovsd 1040(%rbx), %xmm0 vmulsd %xmm14, %xmm0, %xmm0 vmovsd %xmm0, 1296(%rbx) vmovsd 1048(%rbx), %xmm0 vmulsd %xmm14, %xmm0, %xmm0 vmovsd %xmm0, 1216(%rbx) vmovsd 1056(%rbx), %xmm0 vmulsd %xmm14, %xmm0, %xmm0 vmovsd %xmm0, 1600(%rbx) vmovsd 1208(%rbx), %xmm0 vmulsd %xmm14, %xmm0, %xmm0 vmovsd %xmm0, 1208(%rbx) vmovsd 1200(%rbx), %xmm0 vmulsd %xmm14, %xmm0, %xmm0 vmovsd %xmm0, 1200(%rbx) vmovsd 1080(%rbx), %xmm0 vmulsd %xmm14, %xmm0, %xmm0 vmovsd %xmm0, 1608(%rbx) vmovsd 1088(%rbx), %xmm0 vmulsd %xmm14, %xmm0, %xmm0 vmovsd %xmm0, 1184(%rbx) vmovsd .LCPI0_3(%rip), %xmm0 vmovsd 1024(%rbx), %xmm12 vucomisd %xmm12, %xmm0 vmovsd 1256(%rbx), %xmm0 vmovsd 1120(%rbx), %xmm1 vdivsd %xmm0, %xmm1, %xmm8 vdivsd .LCPI0_5(%rip), %xmm0, %xmm10 vmovaps 1728(%rbx), %xmm11 vmulsd %xmm11, %xmm0, %xmm0 vmovsd 1288(%rbx), %xmm15 vmulsd %xmm15, %xmm0, %xmm1 vmovsd 928(%rbx), %xmm2 vaddsd %xmm1, %xmm2, %xmm1 vmovsd %xmm1, 1120(%rbx) vmovsd 1592(%rbx), %xmm3 vmulsd %xmm3, %xmm0, %xmm0 vsubsd 936(%rbx), %xmm0, %xmm0 vmovsd %xmm0, 1112(%rbx) vmovsd 800(%rbx), %xmm4 vmulsd %xmm3, %xmm4, %xmm0 vsubsd 776(%rbx), %xmm0, %xmm6 vmovsd 784(%rbx), %xmm1 vmulsd %xmm3, %xmm1, %xmm0 vsubsd 792(%rbx), %xmm0, %xmm7 vmulsd 1264(%rbx), %xmm4, %xmm0 vmulsd %xmm15, %xmm1, %xmm1 vsubsd %xmm0, %xmm1, %xmm2 vmovsd 904(%rbx), %xmm5 vmulsd %xmm3, %xmm5, %xmm0 vsubsd 912(%rbx), %xmm0, %xmm0 vmulsd 1272(%rbx), %xmm4, %xmm1 vmulsd %xmm15, %xmm5, %xmm5 vsubsd %xmm1, %xmm5, %xmm1 vmulsd %xmm11, %xmm0, %xmm0 vsubsd 944(%rbx), %xmm0, %xmm0 vmovsd %xmm0, 904(%rbx) vmulsd %xmm11, %xmm2, %xmm0 vmovsd 968(%rbx), %xmm2 vaddsd %xmm0, %xmm2, %xmm0 vmovsd %xmm0, 1080(%rbx) vmulsd %xmm11, %xmm7, %xmm0 vsubsd 976(%rbx), %xmm0, %xmm0 vmovsd %xmm0, 912(%rbx) vmulsd %xmm11, %xmm6, %xmm0 vsubsd 984(%rbx), %xmm0, %xmm0 vmovsd %xmm0, 792(%rbx) vmulsd %xmm11, %xmm1, %xmm0 vmovsd 992(%rbx), %xmm1 vaddsd %xmm0, %xmm1, %xmm0 vmovsd %xmm0, 1088(%rbx) vmovsd 1280(%rbx), %xmm0 vdivsd %xmm8, %xmm0, %xmm1 vmulsd 920(%rbx), %xmm1, %xmm0 vmulsd %xmm4, %xmm1, %xmm1 vmulsd %xmm15, %xmm4, %xmm2 vsubsd %xmm2, %xmm2, %xmm2 vmulsd %xmm11, %xmm2, %xmm2 vmovsd 1000(%rbx), %xmm5 vaddsd %xmm2, %xmm5, %xmm2 vmovsd %xmm2, 800(%rbx) vmovaps 752(%rbx), %xmm2 vdivsd %xmm2, %xmm0, %xmm6 vdivsd %xmm2, %xmm1, %xmm0 vmovsd 1248(%rbx), %xmm1 vmulsd %xmm11, %xmm1, %xmm1 vmovsd 1008(%rbx), %xmm2 vaddsd %xmm1, %xmm2, %xmm1 vmovsd %xmm1, 784(%rbx) vmovsd 736(%rbx), %xmm1 vmulsd %xmm11, %xmm1, %xmm1 vmovsd 1016(%rbx), %xmm2 vaddsd %xmm1, %xmm2, %xmm1 vmovsd %xmm1, 776(%rbx) vmulsd 624(%rbx), %xmm10, %xmm1 vmulsd %xmm15, %xmm1, %xmm2 vaddsd %xmm0, %xmm2, %xmm5 vmulsd %xmm3, %xmm1, %xmm0 vaddsd %xmm6, %xmm0, %xmm6 vmovsd 656(%rbx), %xmm0 vsubsd 720(%rbx), %xmm0, %xmm0 vmovsd %xmm0, 736(%rbx) vmovsd 664(%rbx), %xmm0 vsubsd 728(%rbx), %xmm0, %xmm0 vmovsd %xmm0, 728(%rbx) vmovsd 672(%rbx), %xmm0 vsubsd 1160(%rbx), %xmm0, %xmm0 vmovsd %xmm0, 720(%rbx) vmovsd 704(%rbx), %xmm0 vsubsd 1168(%rbx), %xmm0, %xmm0 vmovsd %xmm0, 704(%rbx) vmovsd 1128(%rbx), %xmm0 vaddsd 696(%rbx), %xmm0, %xmm0 vmovsd %xmm0, 752(%rbx) vmovsd 1136(%rbx), %xmm0 vaddsd 712(%rbx), %xmm0, %xmm0 vmovsd %xmm0, 744(%rbx) vaddsd %xmm8, %xmm8, %xmm0 vmovsd 632(%rbx), %xmm1 vmulsd .LCPI0_11(%rip), %xmm1, %xmm1 vdivsd %xmm0, %xmm1, %xmm1 vmulsd %xmm1, %xmm3, %xmm0 vsubsd %xmm0, %xmm6, %xmm0 vmulsd %xmm1, %xmm15, %xmm1 vsubsd %xmm1, %xmm5, %xmm1 vmulsd %xmm11, %xmm1, %xmm1 vmulsd %xmm11, %xmm0, %xmm0 vsubsd 1032(%rbx), %xmm0, %xmm0 vmovsd %xmm0, 696(%rbx) vmovsd 1176(%rbx), %xmm0 vaddsd %xmm1, %xmm0, %xmm0 vmovsd %xmm0, 712(%rbx) vmovsd 640(%rbx), %xmm0 vminsd %xmm9, %xmm0, %xmm0 vmovd %xmm13, %rax vmovsd .LCPI0_2(%rip), %xmm1 vxorpd %xmm1, %xmm0, %xmm0 movq 1768(%rbx), %r8 movq 1760(%rbx), %rdi ja .LBB0_299 vxorpd %xmm1, %xmm1, %xmm1 jmp .LBB0_301 .align 16, 0x90 .LBB0_299: vxorpd %xmm1, %xmm12, %xmm1 .LBB0_301: vucomisd %xmm1, %xmm1 vxorpd %xmm15, %xmm15, %xmm15 jp .LBB0_303 vmaxsd %xmm1, %xmm0, %xmm0 .LBB0_303: vmovd %xmm0, %rcx andq %r14, %rcx andq %r14, %rax vmovd %rax, %xmm0 vucomisd %xmm0, %xmm0 vmovd %rcx, %xmm8 movl 1584(%rbx), %esi jp .LBB0_305 vmaxsd %xmm0, %xmm8, %xmm8 .LBB0_305: movl 72(%r13,%rdx), %eax leal 12(%rsi,%rax), %ecx movslq %ecx, %rcx movq %rcx, 1248(%rbx) addl %esi, %eax movslq %eax, %rax vmovsd 1792(%rbx,%rax,8), %xmm2 vmovsd 1792(%rbx,%rcx,8), %xmm4 vmovsd %xmm4, 1592(%rbx) vsubsd %xmm2, %xmm4, %xmm0 vaddsd %xmm0, %xmm0, %xmm1 movq 1680(%rbx), %rax vmovsd 1792(%rbx,%rax,8), %xmm3 vsubsd %xmm4, %xmm3, %xmm0 vaddsd %xmm0, %xmm0, %xmm0 vmulsd %xmm0, %xmm1, %xmm4 vucomisd %xmm4, %xmm15 jae .LBB0_311 vsubsd %xmm2, %xmm3, %xmm2 vmulsd %xmm14, %xmm2, %xmm2 vmovd %xmm2, %rax andq %r14, %rax vmovd %xmm1, %rcx vmovd %rax, %xmm3 andq %r14, %rcx vmovd %rcx, %xmm5 vmovd %xmm0, %rax andq %r14, %rax vmovd %rax, %xmm4 vucomisd %xmm5, %xmm4 jbe .LBB0_308 vucomisd %xmm5, %xmm3 vmovapd %xmm1, %xmm15 ja .LBB0_311 .align 16, 0x90 .LBB0_308: vucomisd %xmm4, %xmm3 ja .LBB0_310 vmovapd %xmm2, %xmm0 .LBB0_310: vmovapd %xmm0, %xmm15 .LBB0_311: movl 72(%r13,%rdx), %eax leal 144(%rsi,%rax), %ecx movslq %ecx, %rcx vmovsd 1792(%rbx,%rcx,8), %xmm2 leal 156(%rsi,%rax), %eax movslq %eax, %rax movq %rax, 1072(%rbx) vmovsd 1792(%rbx,%rax,8), %xmm1 vmovsd %xmm1, 1288(%rbx) vsubsd %xmm2, %xmm1, %xmm0 vaddsd %xmm0, %xmm0, %xmm0 movq 1672(%rbx), %rax vmovsd 1792(%rbx,%rax,8), %xmm3 vsubsd %xmm1, %xmm3, %xmm1 vaddsd %xmm1, %xmm1, %xmm1 vmulsd %xmm1, %xmm0, %xmm4 vxorpd %xmm7, %xmm7, %xmm7 vucomisd %xmm4, %xmm7 vxorpd %xmm5, %xmm5, %xmm5 jae .LBB0_317 vsubsd %xmm2, %xmm3, %xmm2 vmulsd %xmm14, %xmm2, %xmm2 vmovd %xmm2, %rax andq %r14, %rax vmovd %xmm0, %rcx vmovd %rax, %xmm3 andq %r14, %rcx vmovd %rcx, %xmm5 vmovd %xmm1, %rax andq %r14, %rax vmovd %rax, %xmm4 vucomisd %xmm5, %xmm4 jbe .LBB0_314 vucomisd %xmm5, %xmm3 vmovapd %xmm0, %xmm5 ja .LBB0_317 .align 16, 0x90 .LBB0_314: vucomisd %xmm4, %xmm3 ja .LBB0_316 vmovapd %xmm2, %xmm1 .LBB0_316: vmovapd %xmm1, %xmm5 .LBB0_317: vmovsd %xmm5, 1272(%rbx) movl 72(%r13,%rdx), %eax leal 288(%rsi,%rax), %ecx movslq %ecx, %rcx vmovsd 1792(%rbx,%rcx,8), %xmm2 leal 300(%rsi,%rax), %eax movslq %eax, %rax movq %rax, 1056(%rbx) vmovsd 1792(%rbx,%rax,8), %xmm4 vmovsd %xmm4, 1264(%rbx) vsubsd %xmm2, %xmm4, %xmm0 vaddsd %xmm0, %xmm0, %xmm1 movq 1664(%rbx), %rax vmovsd 1792(%rbx,%rax,8), %xmm3 vsubsd %xmm4, %xmm3, %xmm0 vaddsd %xmm0, %xmm0, %xmm0 vmulsd %xmm0, %xmm1, %xmm4 vucomisd %xmm4, %xmm7 jae .LBB0_323 vsubsd %xmm2, %xmm3, %xmm2 vmulsd %xmm14, %xmm2, %xmm2 vmovd %xmm2, %rax andq %r14, %rax vmovd %xmm1, %rcx vmovd %rax, %xmm3 andq %r14, %rcx vmovd %rcx, %xmm5 vmovd %xmm0, %rax andq %r14, %rax vmovd %rax, %xmm4 vucomisd %xmm5, %xmm4 jbe .LBB0_320 vucomisd %xmm5, %xmm3 vmovapd %xmm1, %xmm7 ja .LBB0_323 .align 16, 0x90 .LBB0_320: vucomisd %xmm4, %xmm3 ja .LBB0_322 vmovapd %xmm2, %xmm0 .LBB0_322: vmovapd %xmm0, %xmm7 .LBB0_323: vmovsd %xmm7, 1280(%rbx) movl 72(%r13,%rdx), %eax leal 432(%rsi,%rax), %ecx movslq %ecx, %rcx vmovsd 1792(%rbx,%rcx,8), %xmm2 leal 444(%rsi,%rax), %eax movslq %eax, %rax movq %rax, 1048(%rbx) vmovsd 1792(%rbx,%rax,8), %xmm3 vmovsd %xmm3, 1256(%rbx) vsubsd %xmm2, %xmm3, %xmm0 vaddsd %xmm0, %xmm0, %xmm0 movq 1656(%rbx), %rax vmovsd 1792(%rbx,%rax,8), %xmm1 vsubsd %xmm3, %xmm1, %xmm3 vaddsd %xmm3, %xmm3, %xmm3 vmulsd %xmm3, %xmm0, %xmm4 vxorpd %xmm6, %xmm6, %xmm6 vucomisd %xmm4, %xmm6 vxorpd %xmm7, %xmm7, %xmm7 jae .LBB0_329 vsubsd %xmm2, %xmm1, %xmm1 vmulsd %xmm14, %xmm1, %xmm2 vmovd %xmm2, %rax andq %r14, %rax vmovd %xmm0, %rcx vmovd %rax, %xmm4 andq %r14, %rcx vmovd %rcx, %xmm1 vmovd %xmm3, %rax andq %r14, %rax vmovd %rax, %xmm5 vucomisd %xmm1, %xmm5 jbe .LBB0_326 vucomisd %xmm1, %xmm4 vmovapd %xmm0, %xmm7 ja .LBB0_329 .align 16, 0x90 .LBB0_326: vucomisd %xmm5, %xmm4 ja .LBB0_328 vmovapd %xmm2, %xmm3 .LBB0_328: vmovapd %xmm3, %xmm7 .LBB0_329: vmovsd %xmm7, 1176(%rbx) vmovsd %xmm8, 672(%rbx) movl 72(%r13,%rdx), %eax leal 576(%rsi,%rax), %ecx movslq %ecx, %rcx vmovsd 1792(%rbx,%rcx,8), %xmm3 leal 588(%rsi,%rax), %eax movslq %eax, %rax movq %rax, 1040(%rbx) vmovsd 1792(%rbx,%rax,8), %xmm4 vmovsd %xmm4, 1168(%rbx) vsubsd %xmm3, %xmm4, %xmm0 vaddsd %xmm0, %xmm0, %xmm2 movq 1648(%rbx), %rax vmovsd 1792(%rbx,%rax,8), %xmm1 vsubsd %xmm4, %xmm1, %xmm0 vaddsd %xmm0, %xmm0, %xmm0 vmulsd %xmm0, %xmm2, %xmm4 vucomisd %xmm4, %xmm6 jae .LBB0_335 vsubsd %xmm3, %xmm1, %xmm1 vmulsd %xmm14, %xmm1, %xmm3 vmovd %xmm3, %rax andq %r14, %rax vmovd %xmm2, %rcx vmovd %rax, %xmm4 andq %r14, %rcx vmovd %rcx, %xmm1 vmovd %xmm0, %rax andq %r14, %rax vmovd %rax, %xmm5 vucomisd %xmm1, %xmm5 jbe .LBB0_332 vucomisd %xmm1, %xmm4 vmovapd %xmm2, %xmm6 ja .LBB0_335 .align 16, 0x90 .LBB0_332: vucomisd %xmm5, %xmm4 ja .LBB0_334 vmovapd %xmm3, %xmm0 .LBB0_334: vmovapd %xmm0, %xmm6 .LBB0_335: vmovsd %xmm6, 1160(%rbx) movl 72(%r13,%rdx), %eax leal 720(%rsi,%rax), %ecx movslq %ecx, %rcx vmovsd 1792(%rbx,%rcx,8), %xmm2 leal 732(%rsi,%rax), %eax movslq %eax, %rax movq %rax, 1032(%rbx) vmovsd 1792(%rbx,%rax,8), %xmm3 vmovsd %xmm3, 1136(%rbx) vsubsd %xmm2, %xmm3, %xmm0 vaddsd %xmm0, %xmm0, %xmm0 movq 1640(%rbx), %rax vmovsd 1792(%rbx,%rax,8), %xmm1 vsubsd %xmm3, %xmm1, %xmm3 vaddsd %xmm3, %xmm3, %xmm5 vmulsd %xmm5, %xmm0, %xmm4 vxorpd %xmm3, %xmm3, %xmm3 vucomisd %xmm4, %xmm3 vxorpd %xmm10, %xmm10, %xmm10 jae .LBB0_341 vsubsd %xmm2, %xmm1, %xmm1 vmulsd %xmm14, %xmm1, %xmm2 vmovd %xmm2, %rax andq %r14, %rax vmovd %xmm0, %rcx vmovd %rax, %xmm6 andq %r14, %rcx vmovd %rcx, %xmm1 vmovd %xmm5, %rax andq %r14, %rax vmovd %rax, %xmm7 vucomisd %xmm1, %xmm7 jbe .LBB0_338 vucomisd %xmm1, %xmm6 vmovapd %xmm0, %xmm10 ja .LBB0_341 .align 16, 0x90 .LBB0_338: vucomisd %xmm7, %xmm6 ja .LBB0_340 vmovapd %xmm2, %xmm5 .LBB0_340: vmovapd %xmm5, %xmm10 .LBB0_341: movl 72(%r13,%rdx), %eax leal 864(%rsi,%rax), %ecx movslq %ecx, %rcx vmovsd 1792(%rbx,%rcx,8), %xmm5 leal 876(%rsi,%rax), %eax movslq %eax, %rax movq %rax, 1024(%rbx) vmovsd 1792(%rbx,%rax,8), %xmm11 vsubsd %xmm5, %xmm11, %xmm0 vaddsd %xmm0, %xmm0, %xmm2 movq 1632(%rbx), %rax vmovsd 1792(%rbx,%rax,8), %xmm1 vsubsd %xmm11, %xmm1, %xmm0 vaddsd %xmm0, %xmm0, %xmm0 vmulsd %xmm0, %xmm2, %xmm4 vucomisd %xmm4, %xmm3 jae .LBB0_347 vsubsd %xmm5, %xmm1, %xmm1 vmulsd %xmm14, %xmm1, %xmm5 vmovd %xmm5, %rax andq %r14, %rax vmovd %xmm2, %rcx vmovd %rax, %xmm6 andq %r14, %rcx vmovd %rcx, %xmm1 vmovd %xmm0, %rax andq %r14, %rax vmovd %rax, %xmm7 vucomisd %xmm1, %xmm7 jbe .LBB0_344 vucomisd %xmm1, %xmm6 vmovapd %xmm2, %xmm3 ja .LBB0_347 .align 16, 0x90 .LBB0_344: vucomisd %xmm7, %xmm6 ja .LBB0_346 vmovapd %xmm5, %xmm0 .LBB0_346: vmovapd %xmm0, %xmm3 .LBB0_347: vmovapd %xmm14, %xmm7 movl 72(%r13,%rdx), %eax leal 1008(%rsi,%rax), %ecx movslq %ecx, %rcx vmovsd 1792(%rbx,%rcx,8), %xmm5 leal 1020(%rsi,%rax), %eax movslq %eax, %rax movq %rax, 1016(%rbx) vmovsd 1792(%rbx,%rax,8), %xmm12 vsubsd %xmm5, %xmm12, %xmm0 vaddsd %xmm0, %xmm0, %xmm2 movq 1624(%rbx), %rax vmovsd 1792(%rbx,%rax,8), %xmm1 vsubsd %xmm12, %xmm1, %xmm0 vaddsd %xmm0, %xmm0, %xmm0 vmulsd %xmm0, %xmm2, %xmm4 vxorpd %xmm8, %xmm8, %xmm8 vucomisd %xmm4, %xmm8 vxorpd %xmm14, %xmm14, %xmm14 jae .LBB0_353 vsubsd %xmm5, %xmm1, %xmm1 vmulsd %xmm7, %xmm1, %xmm5 vmovd %xmm5, %rax andq %r14, %rax vmovd %xmm2, %rcx vmovd %rax, %xmm6 andq %r14, %rcx vmovd %rcx, %xmm4 vmovd %xmm0, %rax andq %r14, %rax vmovd %rax, %xmm1 vucomisd %xmm4, %xmm1 jbe .LBB0_350 vucomisd %xmm4, %xmm6 vmovapd %xmm2, %xmm14 ja .LBB0_353 .align 16, 0x90 .LBB0_350: vucomisd %xmm1, %xmm6 ja .LBB0_352 vmovapd %xmm5, %xmm0 .LBB0_352: vmovapd %xmm0, %xmm14 .LBB0_353: movl 72(%r13,%rdx), %eax leal 1152(%rsi,%rax), %ecx movslq %ecx, %rcx vmovsd 1792(%rbx,%rcx,8), %xmm5 leal 1164(%rsi,%rax), %eax movslq %eax, %rax movq %rax, 1008(%rbx) vmovsd 1792(%rbx,%rax,8), %xmm9 vsubsd %xmm5, %xmm9, %xmm0 vaddsd %xmm0, %xmm0, %xmm2 movq 1616(%rbx), %rax vmovsd 1792(%rbx,%rax,8), %xmm1 vsubsd %xmm9, %xmm1, %xmm0 vaddsd %xmm0, %xmm0, %xmm0 vmulsd %xmm0, %xmm2, %xmm4 vucomisd %xmm4, %xmm8 jae .LBB0_359 vsubsd %xmm5, %xmm1, %xmm1 vmulsd %xmm7, %xmm1, %xmm5 vmovd %xmm5, %rax andq %r14, %rax vmovd %xmm2, %rcx vmovd %rax, %xmm6 andq %r14, %rcx vmovd %rcx, %xmm4 vmovd %xmm0, %rax andq %r14, %rax vmovd %rax, %xmm1 vucomisd %xmm4, %xmm1 jbe .LBB0_356 vucomisd %xmm4, %xmm6 vmovapd %xmm2, %xmm8 ja .LBB0_359 .align 16, 0x90 .LBB0_356: vucomisd %xmm1, %xmm6 ja .LBB0_358 vmovapd %xmm5, %xmm0 .LBB0_358: vmovapd %xmm0, %xmm8 .LBB0_359: vmulsd %xmm7, %xmm15, %xmm0 vmovsd 1592(%rbx), %xmm1 vaddsd %xmm0, %xmm1, %xmm15 vmovsd 1272(%rbx), %xmm0 vmulsd %xmm7, %xmm0, %xmm0 vmovsd 1288(%rbx), %xmm1 vaddsd %xmm0, %xmm1, %xmm13 vmovsd 1280(%rbx), %xmm0 vmulsd %xmm7, %xmm0, %xmm0 vmovsd 1264(%rbx), %xmm1 vaddsd %xmm0, %xmm1, %xmm0 vmovsd 1176(%rbx), %xmm1 vmulsd %xmm7, %xmm1, %xmm1 vmovsd 1256(%rbx), %xmm4 vaddsd %xmm1, %xmm4, %xmm1 vmovsd 1160(%rbx), %xmm2 vmulsd %xmm7, %xmm2, %xmm4 vmovsd 1168(%rbx), %xmm5 vaddsd %xmm4, %xmm5, %xmm5 vmulsd %xmm7, %xmm10, %xmm4 vmovsd 1136(%rbx), %xmm2 vaddsd %xmm4, %xmm2, %xmm10 vmulsd %xmm7, %xmm3, %xmm3 vaddsd %xmm3, %xmm11, %xmm11 vmulsd %xmm7, %xmm14, %xmm3 vmovapd %xmm7, %xmm2 vaddsd %xmm3, %xmm12, %xmm12 vxorps %xmm4, %xmm4, %xmm4 vmulsd %xmm4, %xmm0, %xmm3 vmulsd %xmm3, %xmm5, %xmm7 vmulsd %xmm3, %xmm1, %xmm3 vaddsd %xmm7, %xmm3, %xmm7 vmulsd %xmm4, %xmm1, %xmm3 vmulsd %xmm3, %xmm5, %xmm3 vaddsd %xmm3, %xmm7, %xmm3 vaddsd %xmm3, %xmm3, %xmm7 vmulsd %xmm1, %xmm1, %xmm3 vmulsd %xmm0, %xmm0, %xmm4 vmovsd .LCPI0_0(%rip), %xmm6 vaddsd %xmm6, %xmm4, %xmm4 vaddsd %xmm3, %xmm4, %xmm3 vmulsd %xmm5, %xmm5, %xmm4 vaddsd %xmm4, %xmm3, %xmm3 vaddsd %xmm7, %xmm3, %xmm7 vmulsd %xmm2, %xmm8, %xmm3 vmovsd .LCPI0_1(%rip), %xmm4 vmaxsd %xmm13, %xmm4, %xmm14 vmovsd %xmm14, 208(%rbx) vmaxsd %xmm15, %xmm4, %xmm2 vmovsd %xmm2, 1592(%rbx) vaddsd %xmm3, %xmm9, %xmm2 vmovsd %xmm2, 1264(%rbx) vmovq %xmm7, %xmm2 vsqrtpd %xmm2, %xmm2 vmovsd 1720(%rbx), %xmm3 vdivsd %xmm3, %xmm2, %xmm15 vmovsd %xmm15, 624(%rbx) vmulsd .LCPI0_3(%rip), %xmm2, %xmm2 vmulsd %xmm3, %xmm2, %xmm2 vsubsd %xmm2, %xmm5, %xmm4 vmovsd %xmm4, 1272(%rbx) vsubsd %xmm2, %xmm0, %xmm3 vmovsd %xmm3, 1176(%rbx) vsubsd %xmm2, %xmm1, %xmm0 vmovsd %xmm0, 1288(%rbx) vxorps %xmm6, %xmm6, %xmm6 vmulsd %xmm6, %xmm0, %xmm8 vmovaps %xmm0, %xmm2 vmovsd %xmm8, 592(%rbx) vmulsd %xmm6, %xmm15, %xmm0 vaddsd %xmm3, %xmm0, %xmm1 vaddsd %xmm8, %xmm1, %xmm1 vmulsd %xmm6, %xmm4, %xmm7 vmovsd %xmm7, 584(%rbx) vaddsd %xmm7, %xmm1, %xmm5 vmovsd %xmm5, 1160(%rbx) vmulsd %xmm6, %xmm3, %xmm1 vmovsd %xmm1, 1168(%rbx) vmovaps %xmm3, %xmm6 vaddsd %xmm1, %xmm0, %xmm0 vaddsd %xmm2, %xmm0, %xmm1 vmovaps %xmm2, %xmm3 vaddsd %xmm7, %xmm1, %xmm1 vmovsd %xmm1, 1280(%rbx) vmulsd %xmm1, %xmm11, %xmm1 vmulsd %xmm5, %xmm10, %xmm2 vmovaps %xmm10, %xmm13 vaddsd %xmm1, %xmm2, %xmm1 vaddsd %xmm8, %xmm0, %xmm0 vaddsd %xmm4, %xmm0, %xmm0 vmovsd %xmm0, 1136(%rbx) vmulsd %xmm0, %xmm12, %xmm0 vaddsd %xmm0, %xmm1, %xmm9 vmovsd %xmm9, 616(%rbx) movabsq $-4616189618054758400, %rax movq %rax, 1384(%r13,%rdx) vxorps %xmm0, %xmm0, %xmm0 vmovups %xmm0, 16(%rdi) vmovups %xmm0, (%rdi) movabsq $4607182418800017408, %r15 movq %r15, 1424(%r13,%rdx) vmovups %xmm0, 16(%r8) vmovups %xmm0, (%r8) movq %r15, 1464(%r13,%rdx) movq 1776(%rbx), %rcx vmovups %xmm0, 16(%rcx) vmovups %xmm0, (%rcx) movq %r15, 1504(%r13,%rdx) movq %rax, 1256(%r13,%rdx) movabsq $-9223372036854775808, %rax movq %rax, 1264(%r13,%rdx) movq %rax, 1272(%r13,%rdx) movq %rax, 1280(%r13,%rdx) movq %rax, 1288(%r13,%rdx) movq %r15, 1296(%r13,%rdx) movq %rax, 1304(%r13,%rdx) movq %rax, 1312(%r13,%rdx) movq %rax, 1320(%r13,%rdx) movq %rax, 1328(%r13,%rdx) movq %r15, 1336(%r13,%rdx) movq %rax, 1344(%r13,%rdx) movq %rax, 1352(%r13,%rdx) movq %rax, 1360(%r13,%rdx) movq %rax, 1368(%r13,%rdx) movq %r15, 1376(%r13,%rdx) vmulsd %xmm3, %xmm9, %xmm0 vmovsd %xmm0, 576(%rbx) vaddsd %xmm0, %xmm11, %xmm0 vmulsd %xmm4, %xmm9, %xmm1 vmovsd %xmm1, 568(%rbx) vaddsd %xmm1, %xmm12, %xmm1 vdivsd %xmm15, %xmm1, %xmm12 vmovsd %xmm12, 560(%rbx) vdivsd %xmm15, %xmm0, %xmm11 vmovsd %xmm11, 1256(%rbx) vmulsd %xmm6, %xmm9, %xmm0 vmovaps %xmm6, %xmm10 vmovsd %xmm0, 544(%rbx) vaddsd %xmm0, %xmm13, %xmm0 vdivsd %xmm15, %xmm0, %xmm13 vmovsd %xmm13, 536(%rbx) vxorps %xmm6, %xmm6, %xmm6 vmulsd %xmm6, %xmm9, %xmm0 vmulsd %xmm6, %xmm13, %xmm1 vaddsd %xmm1, %xmm0, %xmm2 vsubsd %xmm9, %xmm1, %xmm3 vaddsd %xmm13, %xmm0, %xmm1 vmulsd %xmm6, %xmm11, %xmm0 vaddsd %xmm0, %xmm1, %xmm1 vaddsd %xmm0, %xmm3, %xmm3 vaddsd %xmm0, %xmm2, %xmm0 vaddsd %xmm11, %xmm2, %xmm2 vmulsd (%rcx), %xmm12, %xmm4 vaddsd %xmm4, %xmm2, %xmm5 vmovsd %xmm5, 448(%rbx) vmulsd %xmm6, %xmm12, %xmm2 vaddsd %xmm2, %xmm3, %xmm4 vmovsd %xmm4, 512(%rbx) vaddsd %xmm2, %xmm1, %xmm3 vmovsd %xmm3, 464(%rbx) vmovsd 1592(%rbx), %xmm1 vaddsd %xmm14, %xmm1, %xmm1 vmulsd .LCPI0_5(%rip), %xmm14, %xmm6 vmovsd %xmm6, 528(%rbx) vaddsd %xmm1, %xmm6, %xmm1 vmovsd 1168(%rbx), %xmm2 vsubsd %xmm15, %xmm2, %xmm2 vaddsd %xmm8, %xmm2, %xmm2 vaddsd %xmm7, %xmm2, %xmm14 vmulsd %xmm3, %xmm13, %xmm2 vmovsd %xmm2, 992(%rbx) vmulsd %xmm4, %xmm9, %xmm3 vmovsd %xmm3, 976(%rbx) vaddsd %xmm2, %xmm3, %xmm3 vmulsd %xmm5, %xmm11, %xmm2 vmovsd %xmm2, 1000(%rbx) vaddsd %xmm2, %xmm3, %xmm3 vaddsd %xmm12, %xmm0, %xmm0 vmovsd %xmm0, 1128(%rbx) vmulsd %xmm0, %xmm12, %xmm0 vmovsd %xmm0, 984(%rbx) vaddsd %xmm0, %xmm3, %xmm3 vmovsd %xmm3, 520(%rbx) vmovsd .LCPI0_4(%rip), %xmm0 vmaxsd %xmm3, %xmm0, %xmm0 vmovaps %xmm0, 944(%rbx) vaddsd %xmm1, %xmm0, %xmm4 vmulsd .LCPI0_6(%rip), %xmm0, %xmm0 vaddsd %xmm0, %xmm6, %xmm0 vmovsd 1288(%rbx), %xmm1 vmulsd %xmm4, %xmm1, %xmm1 vmulsd %xmm4, %xmm10, %xmm7 vmulsd %xmm4, %xmm15, %xmm3 vmovsd 1272(%rbx), %xmm2 vmulsd %xmm4, %xmm2, %xmm5 vmovsd 1136(%rbx), %xmm8 vmulsd %xmm5, %xmm8, %xmm10 vmovsd 1280(%rbx), %xmm2 vmulsd %xmm5, %xmm2, %xmm6 vmovsd %xmm6, 656(%rbx) vmovsd 1160(%rbx), %xmm6 vmulsd %xmm5, %xmm6, %xmm4 vmovsd %xmm4, 640(%rbx) vmulsd %xmm5, %xmm14, %xmm4 vmovsd %xmm4, 664(%rbx) vmulsd %xmm3, %xmm14, %xmm5 vaddsd %xmm5, %xmm0, %xmm5 vmovsd %xmm5, 920(%rbx) vaddsd %xmm10, %xmm0, %xmm4 vmovsd %xmm4, 968(%rbx) vmulsd %xmm7, %xmm6, %xmm4 vaddsd %xmm4, %xmm0, %xmm4 vmovsd %xmm4, 928(%rbx) vmulsd %xmm1, %xmm2, %xmm4 vaddsd %xmm4, %xmm0, %xmm4 vmovsd %xmm4, 936(%rbx) vmulsd .LCPI0_24, %xmm0, %xmm0 vmovaps %xmm8, %xmm4 vmulsd %xmm1, %xmm4, %xmm10 vmulsd %xmm1, %xmm6, %xmm5 vmovsd %xmm5, 632(%rbx) vmulsd %xmm1, %xmm14, %xmm1 vmulsd %xmm3, %xmm6, %xmm5 vmulsd %xmm3, %xmm2, %xmm8 vmulsd %xmm3, %xmm4, %xmm3 vaddsd %xmm5, %xmm0, %xmm6 vaddsd 664(%rbx), %xmm0, %xmm5 vmovsd %xmm5, 664(%rbx) vaddsd 640(%rbx), %xmm0, %xmm5 vmovsd %xmm5, 640(%rbx) vaddsd 656(%rbx), %xmm0, %xmm5 vmovsd %xmm5, 408(%rbx) vaddsd %xmm10, %xmm0, %xmm5 vmovsd %xmm5, 392(%rbx) vmulsd %xmm7, %xmm14, %xmm5 vaddsd %xmm5, %xmm0, %xmm10 vaddsd %xmm3, %xmm0, %xmm3 vaddsd %xmm8, %xmm0, %xmm8 vmulsd %xmm7, %xmm4, %xmm5 vmulsd %xmm7, %xmm2, %xmm7 vaddsd %xmm7, %xmm0, %xmm2 vmovsd %xmm2, 496(%rbx) vaddsd %xmm5, %xmm0, %xmm2 vmovsd %xmm2, 416(%rbx) vaddsd %xmm1, %xmm0, %xmm1 vmovsd %xmm1, 400(%rbx) vaddsd 632(%rbx), %xmm0, %xmm0 vmovsd 920(%rbx), %xmm1 vsubsd 976(%rbx), %xmm1, %xmm1 vmovsd %xmm1, 424(%rbx) vmovsd 464(%rbx), %xmm7 vmulsd %xmm7, %xmm9, %xmm1 vsubsd %xmm1, %xmm6, %xmm1 vmovsd %xmm1, 432(%rbx) vmovsd 448(%rbx), %xmm2 vmulsd %xmm2, %xmm9, %xmm1 vsubsd %xmm1, %xmm8, %xmm1 vmovsd %xmm1, 440(%rbx) vmovsd 1128(%rbx), %xmm4 vmulsd %xmm4, %xmm9, %xmm1 vsubsd %xmm1, %xmm3, %xmm1 vmovsd %xmm1, 488(%rbx) vmovsd 928(%rbx), %xmm1 vsubsd 992(%rbx), %xmm1, %xmm1 vmovsd %xmm1, 656(%rbx) vmovsd 512(%rbx), %xmm5 vmulsd %xmm5, %xmm13, %xmm1 vsubsd %xmm1, %xmm10, %xmm1 vmovsd %xmm1, 632(%rbx) vmulsd %xmm4, %xmm11, %xmm1 vmovsd 392(%rbx), %xmm3 vsubsd %xmm1, %xmm3, %xmm1 vmovsd %xmm1, 920(%rbx) vmovsd 968(%rbx), %xmm1 vsubsd 984(%rbx), %xmm1, %xmm1 vmovsd %xmm1, 984(%rbx) vmulsd %xmm2, %xmm12, %xmm1 vmovaps %xmm2, %xmm6 vmovsd 408(%rbx), %xmm2 vsubsd %xmm1, %xmm2, %xmm1 vmovsd %xmm1, 968(%rbx) vmovaps %xmm7, %xmm2 vmulsd %xmm2, %xmm12, %xmm1 vmovsd 640(%rbx), %xmm3 vsubsd %xmm1, %xmm3, %xmm1 vmovsd %xmm1, 928(%rbx) vmulsd %xmm5, %xmm12, %xmm1 vmovsd 664(%rbx), %xmm3 vsubsd %xmm1, %xmm3, %xmm1 vmovsd %xmm1, 640(%rbx) vmovsd 936(%rbx), %xmm1 vsubsd 1000(%rbx), %xmm1, %xmm1 vmovsd %xmm1, 992(%rbx) vmulsd %xmm2, %xmm11, %xmm3 vmovaps %xmm2, %xmm8 vsubsd %xmm3, %xmm0, %xmm0 vmovsd %xmm0, 976(%rbx) vmulsd %xmm5, %xmm11, %xmm0 vmovsd 400(%rbx), %xmm1 vsubsd %xmm0, %xmm1, %xmm0 vmovsd %xmm0, 936(%rbx) vmulsd %xmm4, %xmm13, %xmm0 vmovsd 416(%rbx), %xmm1 vsubsd %xmm0, %xmm1, %xmm0 vmovsd %xmm0, 664(%rbx) vmulsd %xmm6, %xmm13, %xmm0 vmovsd 496(%rbx), %xmm1 vsubsd %xmm0, %xmm1, %xmm0 vmovsd %xmm0, 1000(%rbx) vmovq 944(%rbx), %xmm0 vsqrtpd %xmm0, %xmm1 vmovapd %xmm1, 496(%rbx) vmovsd 1264(%rbx), %xmm2 vmulsd %xmm2, %xmm9, %xmm0 vdivsd %xmm1, %xmm0, %xmm7 vmulsd %xmm7, %xmm14, %xmm0 vmovsd 424(%rbx), %xmm3 vaddsd %xmm0, %xmm3, %xmm0 vmulsd %xmm2, %xmm5, %xmm3 vdivsd %xmm1, %xmm3, %xmm3 vmovsd %xmm3, 512(%rbx) vmulsd %xmm3, %xmm15, %xmm3 vaddsd %xmm3, %xmm0, %xmm0 vmovsd %xmm0, 1512(%r13,%rdx) vmovsd 1160(%rbx), %xmm10 vmulsd %xmm7, %xmm10, %xmm0 vmovsd 432(%rbx), %xmm3 vaddsd %xmm0, %xmm3, %xmm0 vmulsd %xmm2, %xmm8, %xmm3 vdivsd %xmm1, %xmm3, %xmm8 vmulsd %xmm8, %xmm15, %xmm3 vaddsd %xmm3, %xmm0, %xmm0 vmovsd %xmm0, 1520(%r13,%rdx) vmovsd 1280(%rbx), %xmm5 vmulsd %xmm7, %xmm5, %xmm0 vmovsd 440(%rbx), %xmm3 vaddsd %xmm0, %xmm3, %xmm0 vmulsd %xmm2, %xmm6, %xmm3 vdivsd %xmm1, %xmm3, %xmm3 vmovsd %xmm3, 944(%rbx) vmulsd %xmm3, %xmm15, %xmm4 vaddsd %xmm4, %xmm0, %xmm0 vmovsd %xmm0, 1528(%r13,%rdx) vmovsd 1136(%rbx), %xmm11 vmulsd %xmm7, %xmm11, %xmm0 vmovsd 488(%rbx), %xmm3 vaddsd %xmm0, %xmm3, %xmm0 vmovsd 1128(%rbx), %xmm3 vmulsd %xmm2, %xmm3, %xmm4 vdivsd %xmm1, %xmm4, %xmm9 vmulsd %xmm9, %xmm15, %xmm6 vaddsd %xmm6, %xmm0, %xmm0 vmovsd %xmm0, 1536(%r13,%rdx) vmulsd %xmm2, %xmm13, %xmm0 vdivsd %xmm1, %xmm0, %xmm7 vmulsd %xmm7, %xmm14, %xmm0 vmovsd 632(%rbx), %xmm3 vaddsd %xmm0, %xmm3, %xmm0 vmovsd 1176(%rbx), %xmm3 vmovsd 512(%rbx), %xmm13 vmulsd %xmm13, %xmm3, %xmm6 vaddsd %xmm6, %xmm0, %xmm0 vmulsd %xmm7, %xmm10, %xmm6 vmovaps %xmm10, %xmm15 vmovsd 656(%rbx), %xmm4 vaddsd %xmm6, %xmm4, %xmm4 vmovsd %xmm4, 656(%rbx) vmovsd %xmm0, 1544(%r13,%rdx) vmovsd 1256(%rbx), %xmm0 vmulsd %xmm2, %xmm0, %xmm0 vdivsd %xmm1, %xmm0, %xmm0 vmovaps %xmm11, %xmm10 vmulsd %xmm0, %xmm10, %xmm6 vmovsd 920(%rbx), %xmm4 vaddsd %xmm6, %xmm4, %xmm4 vmovsd %xmm4, 1128(%rbx) vmulsd %xmm2, %xmm12, %xmm6 vdivsd %xmm1, %xmm6, %xmm6 vmulsd %xmm6, %xmm14, %xmm1 vmovsd 640(%rbx), %xmm2 vaddsd %xmm1, %xmm2, %xmm1 vmovsd %xmm1, 920(%rbx) vmovaps %xmm15, %xmm2 vmulsd %xmm6, %xmm2, %xmm1 vmovsd 928(%rbx), %xmm4 vaddsd %xmm1, %xmm4, %xmm1 vmovsd %xmm1, 928(%rbx) vmulsd %xmm6, %xmm5, %xmm1 vmovaps %xmm5, %xmm15 vmovsd 968(%rbx), %xmm5 vaddsd %xmm1, %xmm5, %xmm11 vmulsd %xmm6, %xmm10, %xmm1 vmovaps %xmm10, %xmm5 vmovsd 984(%rbx), %xmm6 vaddsd %xmm1, %xmm6, %xmm10 vmulsd %xmm8, %xmm3, %xmm6 vmovaps %xmm3, %xmm12 vmovsd 656(%rbx), %xmm1 vaddsd %xmm6, %xmm1, %xmm6 vmulsd %xmm7, %xmm5, %xmm1 vmovsd 664(%rbx), %xmm3 vaddsd %xmm1, %xmm3, %xmm1 vmovsd %xmm1, 968(%rbx) vmulsd %xmm0, %xmm14, %xmm1 vmovsd 936(%rbx), %xmm3 vaddsd %xmm1, %xmm3, %xmm3 vmulsd %xmm0, %xmm2, %xmm1 vmovsd 976(%rbx), %xmm2 vaddsd %xmm1, %xmm2, %xmm2 vmulsd %xmm0, %xmm15, %xmm0 vmovsd 992(%rbx), %xmm1 vaddsd %xmm0, %xmm1, %xmm5 vmovsd %xmm6, 1552(%r13,%rdx) vmovsd 1272(%rbx), %xmm1 vmulsd %xmm9, %xmm1, %xmm0 vaddsd %xmm0, %xmm10, %xmm0 vmovsd %xmm0, 992(%rbx) vmovsd 944(%rbx), %xmm4 vmulsd %xmm4, %xmm1, %xmm0 vaddsd %xmm0, %xmm11, %xmm0 vmovsd %xmm0, 984(%rbx) vmulsd %xmm8, %xmm1, %xmm0 vmovsd 928(%rbx), %xmm6 vaddsd %xmm0, %xmm6, %xmm14 vmovaps %xmm13, %xmm10 vmulsd %xmm10, %xmm1, %xmm0 vmovsd 920(%rbx), %xmm1 vaddsd %xmm0, %xmm1, %xmm11 vmovsd 1288(%rbx), %xmm0 vmulsd %xmm9, %xmm0, %xmm6 vmovsd 1128(%rbx), %xmm1 vaddsd %xmm6, %xmm1, %xmm1 vmovsd %xmm1, 1160(%rbx) vmulsd %xmm4, %xmm0, %xmm6 vmovaps %xmm4, %xmm13 vaddsd %xmm6, %xmm5, %xmm6 vmovsd %xmm6, 1136(%rbx) vmulsd %xmm8, %xmm0, %xmm5 vaddsd %xmm5, %xmm2, %xmm5 vmovsd %xmm5, 1128(%rbx) vmulsd %xmm10, %xmm0, %xmm2 vaddsd %xmm2, %xmm3, %xmm0 vmovsd %xmm0, 512(%rbx) vmulsd %xmm9, %xmm12, %xmm2 vmovsd 968(%rbx), %xmm3 vaddsd %xmm2, %xmm3, %xmm2 vmulsd %xmm7, %xmm15, %xmm4 vmovsd 1000(%rbx), %xmm3 vaddsd %xmm4, %xmm3, %xmm4 vmulsd %xmm13, %xmm12, %xmm3 vaddsd %xmm3, %xmm4, %xmm3 vmovsd %xmm3, 1560(%r13,%rdx) vmovsd %xmm2, 1568(%r13,%rdx) vmovsd %xmm0, 1576(%r13,%rdx) vmovsd %xmm5, 1584(%r13,%rdx) vmovsd %xmm6, 1592(%r13,%rdx) vmovsd %xmm1, 1600(%r13,%rdx) vmovsd %xmm11, 1608(%r13,%rdx) vmovsd %xmm14, 1616(%r13,%rdx) vmovsd 984(%rbx), %xmm0 vmovsd %xmm0, 1624(%r13,%rdx) vmovsd 992(%rbx), %xmm0 vmovsd %xmm0, 1632(%r13,%rdx) vmovaps 1728(%rbx), %xmm1 vmulsd 1536(%r13,%rdx), %xmm1, %xmm0 vmovsd %xmm0, 656(%rbx) vmulsd 1528(%r13,%rdx), %xmm1, %xmm0 vmovsd %xmm0, 664(%rbx) vmulsd 1520(%r13,%rdx), %xmm1, %xmm0 vmovsd %xmm0, 640(%rbx) vmulsd 1512(%r13,%rdx), %xmm1, %xmm0 vmovsd %xmm0, 632(%rbx) vmovsd 1592(%rbx), %xmm0 vmovsd .LCPI0_8(%rip), %xmm1 movq %rdx, %r12 callq __ocl_svml_e9_pow1 vmovsd 208(%rbx), %xmm1 vmulsd %xmm0, %xmm1, %xmm0 vmovaps %xmm1, %xmm12 callq __ocl_svml_e9_log1 vmovsd %xmm0, 328(%rbx) vmovsd 1264(%rbx), %xmm0 vmovsd .LCPI0_10(%rip), %xmm1 callq __ocl_svml_e9_pow1 vmovsd .LCPI0_6(%rip), %xmm7 movq %r12, %rdx vmovsd %xmm0, 336(%rbx) movq 1696(%rbx), %rax vxorps %xmm0, %xmm0, %xmm0 vmovups %xmm0, 16(%rax) vmovups %xmm0, (%rax) movq %r15, 1240(%r13,%rdx) vxorps %xmm1, %xmm1, %xmm1 vmulsd 1264(%r13,%rdx), %xmm1, %xmm13 vmovsd 1256(%r13,%rdx), %xmm11 vmovsd 1272(%r13,%rdx), %xmm15 vmulsd 1328(%r13,%rdx), %xmm1, %xmm0 vmovsd %xmm0, 408(%rbx) vmovsd 1320(%r13,%rdx), %xmm0 vmovsd %xmm0, 384(%rbx) vmovsd 1336(%r13,%rdx), %xmm0 vmovsd %xmm0, 392(%rbx) vmulsd 1296(%r13,%rdx), %xmm1, %xmm0 vmovsd %xmm0, 376(%rbx) vmovsd 1288(%r13,%rdx), %xmm0 vmovsd %xmm0, 360(%rbx) vmovsd 1304(%r13,%rdx), %xmm0 vmovsd %xmm0, 352(%rbx) vmulsd 1312(%r13,%rdx), %xmm1, %xmm0 vmovsd %xmm0, 368(%rbx) vmulsd 1280(%r13,%rdx), %xmm1, %xmm0 vmovsd %xmm0, 344(%rbx) vmulsd 1344(%r13,%rdx), %xmm1, %xmm0 vmovsd %xmm0, 400(%rbx) vmulsd 1360(%r13,%rdx), %xmm1, %xmm0 vmovsd %xmm0, 440(%rbx) vmovsd 1352(%r13,%rdx), %xmm0 vmovsd %xmm0, 424(%rbx) vmovsd 1368(%r13,%rdx), %xmm0 vmovsd %xmm0, 416(%rbx) vmulsd 1376(%r13,%rdx), %xmm1, %xmm0 vxorpd %xmm5, %xmm5, %xmm5 vmovsd %xmm0, 432(%rbx) movl 72(%r13,%rdx), %eax movl 1584(%rbx), %esi leal 36(%rsi,%rax), %eax movslq %eax, %rax movq %rax, 1000(%rbx) vmovsd 1792(%rbx,%rax,8), %xmm2 movq 1248(%rbx), %rax vmovsd 1792(%rbx,%rax,8), %xmm3 movq 1680(%rbx), %rax vmovsd 1792(%rbx,%rax,8), %xmm1 vmovsd %xmm1, 488(%rbx) vsubsd %xmm1, %xmm2, %xmm0 vsubsd %xmm3, %xmm1, %xmm1 vaddsd %xmm1, %xmm1, %xmm1 vaddsd %xmm0, %xmm0, %xmm0 vmulsd %xmm0, %xmm1, %xmm4 vucomisd %xmm4, %xmm5 vxorpd %xmm6, %xmm6, %xmm6 vxorpd %xmm5, %xmm5, %xmm5 jae .LBB0_365 vsubsd %xmm3, %xmm2, %xmm2 vmulsd %xmm7, %xmm2, %xmm2 vmovd %xmm2, %rax andq %r14, %rax vmovd %xmm1, %rcx vmovd %rax, %xmm3 andq %r14, %rcx vmovd %rcx, %xmm5 vmovd %xmm0, %rax andq %r14, %rax vmovd %rax, %xmm4 vucomisd %xmm5, %xmm4 jbe .LBB0_362 vucomisd %xmm5, %xmm3 vmovapd %xmm1, %xmm5 ja .LBB0_365 .align 16, 0x90 .LBB0_362: vucomisd %xmm4, %xmm3 ja .LBB0_364 vmovapd %xmm2, %xmm0 .LBB0_364: vmovapd %xmm0, %xmm5 .LBB0_365: vmovsd %xmm5, 464(%rbx) movl 72(%r13,%rdx), %eax leal 180(%rsi,%rax), %eax movq 1072(%rbx), %rcx vmovsd 1792(%rbx,%rcx,8), %xmm2 movq 1672(%rbx), %rcx vmovsd 1792(%rbx,%rcx,8), %xmm4 vmovsd %xmm4, 448(%rbx) vsubsd %xmm2, %xmm4, %xmm0 vaddsd %xmm0, %xmm0, %xmm1 movslq %eax, %rax movq %rax, 992(%rbx) vmovsd 1792(%rbx,%rax,8), %xmm3 vsubsd %xmm4, %xmm3, %xmm0 vaddsd %xmm0, %xmm0, %xmm0 vmulsd %xmm0, %xmm1, %xmm4 vucomisd %xmm4, %xmm6 vxorpd %xmm5, %xmm5, %xmm5 vmovsd 672(%rbx), %xmm10 jae .LBB0_371 vsubsd %xmm2, %xmm3, %xmm2 vmulsd %xmm7, %xmm2, %xmm2 vmovd %xmm2, %rax andq %r14, %rax vmovd %xmm1, %rcx vmovd %rax, %xmm3 andq %r14, %rcx vmovd %rcx, %xmm5 vmovd %xmm0, %rax andq %r14, %rax vmovd %rax, %xmm4 vucomisd %xmm5, %xmm4 jbe .LBB0_368 vucomisd %xmm5, %xmm3 vmovapd %xmm1, %xmm5 ja .LBB0_371 .align 16, 0x90 .LBB0_368: vucomisd %xmm4, %xmm3 ja .LBB0_370 vmovapd %xmm2, %xmm0 .LBB0_370: vmovapd %xmm0, %xmm5 .LBB0_371: vmovsd %xmm5, 320(%rbx) movl 72(%r13,%rdx), %eax leal 324(%rsi,%rax), %eax movq 1056(%rbx), %rcx vmovsd 1792(%rbx,%rcx,8), %xmm2 movq 1664(%rbx), %rcx vmovsd 1792(%rbx,%rcx,8), %xmm4 vmovsd %xmm4, 312(%rbx) vsubsd %xmm2, %xmm4, %xmm0 vaddsd %xmm0, %xmm0, %xmm1 movslq %eax, %rax movq %rax, 984(%rbx) vmovsd 1792(%rbx,%rax,8), %xmm3 vsubsd %xmm4, %xmm3, %xmm0 vaddsd %xmm0, %xmm0, %xmm0 vmulsd %xmm0, %xmm1, %xmm4 vxorpd %xmm6, %xmm6, %xmm6 vucomisd %xmm4, %xmm6 vxorpd %xmm5, %xmm5, %xmm5 movq 1768(%rbx), %r8 movq 1760(%rbx), %rdi jae .LBB0_377 vsubsd %xmm2, %xmm3, %xmm2 vmulsd %xmm7, %xmm2, %xmm2 vmovd %xmm2, %rax andq %r14, %rax vmovd %xmm1, %rcx vmovd %rax, %xmm3 andq %r14, %rcx vmovd %rcx, %xmm5 vmovd %xmm0, %rax andq %r14, %rax vmovd %rax, %xmm4 vucomisd %xmm5, %xmm4 jbe .LBB0_374 vucomisd %xmm5, %xmm3 vmovapd %xmm1, %xmm5 ja .LBB0_377 .align 16, 0x90 .LBB0_374: vucomisd %xmm4, %xmm3 ja .LBB0_376 vmovapd %xmm2, %xmm0 .LBB0_376: vmovapd %xmm0, %xmm5 .LBB0_377: vmovsd %xmm5, 296(%rbx) movl 72(%r13,%rdx), %eax leal 468(%rsi,%rax), %eax movq 1048(%rbx), %rcx vmovsd 1792(%rbx,%rcx,8), %xmm2 movq 1656(%rbx), %rcx vmovsd 1792(%rbx,%rcx,8), %xmm4 vmovsd %xmm4, 288(%rbx) vsubsd %xmm2, %xmm4, %xmm0 vaddsd %xmm0, %xmm0, %xmm1 movslq %eax, %rax movq %rax, 976(%rbx) vmovsd 1792(%rbx,%rax,8), %xmm3 vsubsd %xmm4, %xmm3, %xmm0 vaddsd %xmm0, %xmm0, %xmm0 vmulsd %xmm0, %xmm1, %xmm4 vucomisd %xmm4, %xmm6 jae .LBB0_383 vsubsd %xmm2, %xmm3, %xmm2 vmulsd %xmm7, %xmm2, %xmm2 vmovd %xmm2, %rax andq %r14, %rax vmovd %xmm1, %rcx vmovd %rax, %xmm3 andq %r14, %rcx vmovd %rcx, %xmm5 vmovd %xmm0, %rax andq %r14, %rax vmovd %rax, %xmm4 vucomisd %xmm5, %xmm4 jbe .LBB0_380 vucomisd %xmm5, %xmm3 vmovapd %xmm1, %xmm6 ja .LBB0_383 .align 16, 0x90 .LBB0_380: vucomisd %xmm4, %xmm3 ja .LBB0_382 vmovapd %xmm2, %xmm0 .LBB0_382: vmovapd %xmm0, %xmm6 .LBB0_383: vmovsd %xmm6, 304(%rbx) movl 72(%r13,%rdx), %eax leal 612(%rsi,%rax), %eax movq 1040(%rbx), %rcx vmovsd 1792(%rbx,%rcx,8), %xmm2 movq 1648(%rbx), %rcx vmovsd 1792(%rbx,%rcx,8), %xmm4 vmovsd %xmm4, 280(%rbx) vsubsd %xmm2, %xmm4, %xmm0 vaddsd %xmm0, %xmm0, %xmm1 movslq %eax, %rax movq %rax, 968(%rbx) vmovsd 1792(%rbx,%rax,8), %xmm3 vsubsd %xmm4, %xmm3, %xmm0 vaddsd %xmm0, %xmm0, %xmm0 vmulsd %xmm0, %xmm1, %xmm4 vxorpd %xmm6, %xmm6, %xmm6 vucomisd %xmm4, %xmm6 vxorpd %xmm5, %xmm5, %xmm5 jae .LBB0_389 vsubsd %xmm2, %xmm3, %xmm2 vmulsd %xmm7, %xmm2, %xmm2 vmovd %xmm2, %rax andq %r14, %rax vmovd %xmm1, %rcx vmovd %rax, %xmm3 andq %r14, %rcx vmovd %rcx, %xmm5 vmovd %xmm0, %rax andq %r14, %rax vmovd %rax, %xmm4 vucomisd %xmm5, %xmm4 jbe .LBB0_386 vucomisd %xmm5, %xmm3 vmovapd %xmm1, %xmm5 ja .LBB0_389 .align 16, 0x90 .LBB0_386: vucomisd %xmm4, %xmm3 ja .LBB0_388 vmovapd %xmm2, %xmm0 .LBB0_388: vmovapd %xmm0, %xmm5 .LBB0_389: vmovsd %xmm5, 264(%rbx) movl 72(%r13,%rdx), %eax leal 756(%rsi,%rax), %eax movq 1032(%rbx), %rcx vmovsd 1792(%rbx,%rcx,8), %xmm2 movq 1640(%rbx), %rcx vmovsd 1792(%rbx,%rcx,8), %xmm4 vmovsd %xmm4, 256(%rbx) vsubsd %xmm2, %xmm4, %xmm0 vaddsd %xmm0, %xmm0, %xmm1 movslq %eax, %rax movq %rax, 944(%rbx) vmovsd 1792(%rbx,%rax,8), %xmm3 vsubsd %xmm4, %xmm3, %xmm0 vaddsd %xmm0, %xmm0, %xmm0 vmulsd %xmm0, %xmm1, %xmm4 vucomisd %xmm4, %xmm6 jae .LBB0_395 vsubsd %xmm2, %xmm3, %xmm2 vmulsd %xmm7, %xmm2, %xmm2 vmovd %xmm2, %rax andq %r14, %rax vmovd %xmm1, %rcx vmovd %rax, %xmm3 andq %r14, %rcx vmovd %rcx, %xmm5 vmovd %xmm0, %rax andq %r14, %rax vmovd %rax, %xmm4 vucomisd %xmm5, %xmm4 jbe .LBB0_392 vucomisd %xmm5, %xmm3 vmovapd %xmm1, %xmm6 ja .LBB0_395 .align 16, 0x90 .LBB0_392: vucomisd %xmm4, %xmm3 ja .LBB0_394 vmovapd %xmm2, %xmm0 .LBB0_394: vmovapd %xmm0, %xmm6 .LBB0_395: vmovsd %xmm6, 272(%rbx) movl 72(%r13,%rdx), %eax leal 900(%rsi,%rax), %eax movq 1024(%rbx), %rcx vmovsd 1792(%rbx,%rcx,8), %xmm2 movq 1632(%rbx), %rcx vmovsd 1792(%rbx,%rcx,8), %xmm4 vmovsd %xmm4, 248(%rbx) vsubsd %xmm2, %xmm4, %xmm0 vaddsd %xmm0, %xmm0, %xmm1 movslq %eax, %rax movq %rax, 936(%rbx) vmovsd 1792(%rbx,%rax,8), %xmm3 vsubsd %xmm4, %xmm3, %xmm0 vaddsd %xmm0, %xmm0, %xmm0 vmulsd %xmm0, %xmm1, %xmm4 vxorpd %xmm6, %xmm6, %xmm6 vucomisd %xmm4, %xmm6 vxorpd %xmm5, %xmm5, %xmm5 jae .LBB0_401 vsubsd %xmm2, %xmm3, %xmm2 vmulsd %xmm7, %xmm2, %xmm2 vmovd %xmm2, %rax andq %r14, %rax vmovd %xmm1, %rcx vmovd %rax, %xmm3 andq %r14, %rcx vmovd %rcx, %xmm5 vmovd %xmm0, %rax andq %r14, %rax vmovd %rax, %xmm4 vucomisd %xmm5, %xmm4 jbe .LBB0_398 vucomisd %xmm5, %xmm3 vmovapd %xmm1, %xmm5 ja .LBB0_401 .align 16, 0x90 .LBB0_398: vucomisd %xmm4, %xmm3 ja .LBB0_400 vmovapd %xmm2, %xmm0 .LBB0_400: vmovapd %xmm0, %xmm5 .LBB0_401: vmovsd %xmm5, 232(%rbx) movl 72(%r13,%rdx), %eax leal 1044(%rsi,%rax), %eax movq 1016(%rbx), %rcx vmovsd 1792(%rbx,%rcx,8), %xmm2 movq 1624(%rbx), %rcx vmovsd 1792(%rbx,%rcx,8), %xmm4 vmovsd %xmm4, 224(%rbx) vsubsd %xmm2, %xmm4, %xmm0 vaddsd %xmm0, %xmm0, %xmm1 movslq %eax, %rax movq %rax, 928(%rbx) vmovsd 1792(%rbx,%rax,8), %xmm3 vsubsd %xmm4, %xmm3, %xmm0 vaddsd %xmm0, %xmm0, %xmm0 vmulsd %xmm0, %xmm1, %xmm4 vucomisd %xmm4, %xmm6 jae .LBB0_407 vsubsd %xmm2, %xmm3, %xmm2 vmulsd .LCPI0_6(%rip), %xmm2, %xmm2 vmovd %xmm2, %rax andq %r14, %rax vmovd %xmm1, %rcx vmovd %rax, %xmm3 andq %r14, %rcx vmovd %rcx, %xmm5 vmovd %xmm0, %rax andq %r14, %rax vmovd %rax, %xmm4 vucomisd %xmm5, %xmm4 jbe .LBB0_404 vucomisd %xmm5, %xmm3 vmovapd %xmm1, %xmm6 ja .LBB0_407 .align 16, 0x90 .LBB0_404: vucomisd %xmm4, %xmm3 ja .LBB0_406 vmovapd %xmm2, %xmm0 .LBB0_406: vmovapd %xmm0, %xmm6 .LBB0_407: vmovsd %xmm6, 240(%rbx) movl 72(%r13,%rdx), %eax leal 1188(%rsi,%rax), %eax movq 1008(%rbx), %rcx vmovsd 1792(%rbx,%rcx,8), %xmm2 movq 1616(%rbx), %rcx vmovsd 1792(%rbx,%rcx,8), %xmm4 vmovsd %xmm4, 216(%rbx) vsubsd %xmm2, %xmm4, %xmm0 vaddsd %xmm0, %xmm0, %xmm1 movslq %eax, %rax movq %rax, 920(%rbx) vmovsd 1792(%rbx,%rax,8), %xmm3 vsubsd %xmm4, %xmm3, %xmm0 vaddsd %xmm0, %xmm0, %xmm0 vmulsd %xmm0, %xmm1, %xmm4 vxorpd %xmm5, %xmm5, %xmm5 vucomisd %xmm4, %xmm5 vxorpd %xmm5, %xmm5, %xmm5 jae .LBB0_413 vsubsd %xmm2, %xmm3, %xmm2 vmulsd .LCPI0_6(%rip), %xmm2, %xmm2 vmovd %xmm2, %rax andq %r14, %rax vmovd %xmm1, %rcx vmovd %rax, %xmm3 andq %r14, %rcx vmovd %rcx, %xmm5 vmovd %xmm0, %rax andq %r14, %rax vmovd %rax, %xmm4 vucomisd %xmm5, %xmm4 jbe .LBB0_410 vucomisd %xmm5, %xmm3 vmovapd %xmm1, %xmm5 ja .LBB0_413 .align 16, 0x90 .LBB0_410: vucomisd %xmm4, %xmm3 ja .LBB0_412 vmovapd %xmm2, %xmm0 .LBB0_412: vmovapd %xmm0, %xmm5 .LBB0_413: vmovsd %xmm5, 200(%rbx) vmulsd 904(%rbx), %xmm10, %xmm8 vmulsd 792(%rbx), %xmm10, %xmm9 vmulsd 704(%rbx), %xmm10, %xmm2 vmulsd 720(%rbx), %xmm10, %xmm3 vmulsd 728(%rbx), %xmm10, %xmm5 vmulsd 736(%rbx), %xmm10, %xmm6 vmulsd 1112(%rbx), %xmm10, %xmm7 vmulsd 912(%rbx), %xmm10, %xmm0 vmulsd 696(%rbx), %xmm10, %xmm4 vmovsd 1080(%rbx), %xmm1 vsubsd %xmm0, %xmm1, %xmm0 vmovsd %xmm0, 736(%rbx) vmovsd 1120(%rbx), %xmm0 vsubsd %xmm7, %xmm0, %xmm0 vmovsd %xmm0, 1080(%rbx) vmovsd 744(%rbx), %xmm0 vsubsd %xmm6, %xmm0, %xmm0 vmovsd %xmm0, 792(%rbx) vmovsd 752(%rbx), %xmm0 vsubsd %xmm5, %xmm0, %xmm0 vmovsd %xmm0, 1112(%rbx) vmovsd 776(%rbx), %xmm0 vsubsd %xmm3, %xmm0, %xmm0 vmovsd %xmm0, 1120(%rbx) vmovsd 784(%rbx), %xmm0 vsubsd %xmm2, %xmm0, %xmm0 vmovsd %xmm0, 784(%rbx) vmovsd 800(%rbx), %xmm0 vsubsd %xmm9, %xmm0, %xmm0 vmovsd %xmm0, 800(%rbx) vmovsd 1088(%rbx), %xmm0 vsubsd %xmm8, %xmm0, %xmm0 vmovsd %xmm0, 1088(%rbx) vmovsd 712(%rbx), %xmm0 vsubsd %xmm4, %xmm0, %xmm0 vmovsd %xmm0, 776(%rbx) vxorps %xmm14, %xmm14, %xmm14 vmulsd %xmm14, %xmm11, %xmm0 vaddsd %xmm13, %xmm0, %xmm1 vaddsd %xmm13, %xmm11, %xmm8 vmovaps %xmm15, %xmm0 vaddsd %xmm0, %xmm1, %xmm9 vmovsd .LCPI0_19(%rip), %xmm1 vmulsd %xmm1, %xmm12, %xmm1 vmovsd .LCPI0_20(%rip), %xmm2 vmulsd %xmm2, %xmm12, %xmm3 vmovsd 1592(%rbx), %xmm7 vaddsd %xmm3, %xmm7, %xmm2 vdivsd %xmm2, %xmm1, %xmm1 vmovsd 624(%rbx), %xmm15 vaddsd 1168(%rbx), %xmm15, %xmm2 vaddsd 592(%rbx), %xmm2, %xmm2 vaddsd 584(%rbx), %xmm2, %xmm2 vmovsd %xmm2, 752(%rbx) vmovsd 1256(%rbx), %xmm11 vmulsd 1176(%rbx), %xmm11, %xmm2 vmovsd 1288(%rbx), %xmm12 vmovsd 536(%rbx), %xmm6 vmulsd %xmm12, %xmm6, %xmm4 vsubsd %xmm2, %xmm4, %xmm2 vmovsd %xmm2, 1176(%rbx) vmulsd 1272(%rbx), %xmm11, %xmm2 vmovsd 560(%rbx), %xmm5 vmulsd %xmm12, %xmm5, %xmm4 vsubsd %xmm2, %xmm4, %xmm2 vmovsd %xmm2, 1272(%rbx) vmulsd %xmm15, %xmm6, %xmm2 vsubsd 544(%rbx), %xmm2, %xmm2 vmovsd %xmm2, 1168(%rbx) vmulsd %xmm15, %xmm11, %xmm2 vsubsd 576(%rbx), %xmm2, %xmm2 vmovsd %xmm2, 912(%rbx) vmulsd %xmm15, %xmm5, %xmm2 vsubsd 568(%rbx), %xmm2, %xmm2 vmovsd %xmm2, 904(%rbx) vmovsd 520(%rbx), %xmm4 vmovaps %xmm7, %xmm5 vaddsd %xmm4, %xmm5, %xmm2 vaddsd %xmm3, %xmm2, %xmm2 vdivsd %xmm2, %xmm4, %xmm3 vmulsd %xmm1, %xmm3, %xmm2 vaddsd %xmm1, %xmm3, %xmm1 vmovsd 528(%rbx), %xmm3 vdivsd %xmm5, %xmm3, %xmm7 vmovsd 1264(%rbx), %xmm3 vdivsd %xmm7, %xmm3, %xmm4 vmulsd 616(%rbx), %xmm4, %xmm3 vmulsd %xmm11, %xmm4, %xmm4 vmovaps 496(%rbx), %xmm6 vdivsd %xmm6, %xmm4, %xmm4 vdivsd %xmm6, %xmm3, %xmm6 vsubsd %xmm2, %xmm1, %xmm1 vmovsd %xmm1, 728(%rbx) vmovsd .LCPI0_5(%rip), %xmm2 vdivsd %xmm2, %xmm5, %xmm2 vmulsd 328(%rbx), %xmm2, %xmm2 vmulsd %xmm14, %xmm0, %xmm3 vaddsd %xmm3, %xmm8, %xmm0 vmovsd %xmm0, 704(%rbx) vmovsd 408(%rbx), %xmm1 vmovsd 384(%rbx), %xmm13 vaddsd %xmm1, %xmm13, %xmm0 vmovsd 392(%rbx), %xmm8 vmulsd %xmm14, %xmm8, %xmm3 vaddsd %xmm3, %xmm0, %xmm0 vmovsd %xmm0, 712(%rbx) vaddsd %xmm7, %xmm7, %xmm0 vmovsd 336(%rbx), %xmm3 vmulsd .LCPI0_11(%rip), %xmm3, %xmm7 vdivsd %xmm0, %xmm7, %xmm0 vmovsd %xmm0, 744(%rbx) vmulsd %xmm15, %xmm2, %xmm0 vaddsd %xmm6, %xmm0, %xmm0 vmovsd %xmm0, 1264(%rbx) vmulsd %xmm12, %xmm2, %xmm0 vaddsd %xmm4, %xmm0, %xmm0 vmovsd %xmm0, 720(%rbx) vmovsd 360(%rbx), %xmm4 vmulsd %xmm14, %xmm4, %xmm0 vmovsd 376(%rbx), %xmm7 vaddsd %xmm7, %xmm0, %xmm0 vmovsd 352(%rbx), %xmm6 vaddsd %xmm6, %xmm0, %xmm0 vmovsd 368(%rbx), %xmm3 vaddsd %xmm3, %xmm0, %xmm0 vmulsd %xmm14, %xmm0, %xmm2 vmovsd 344(%rbx), %xmm10 vaddsd %xmm10, %xmm9, %xmm0 vmulsd %xmm14, %xmm0, %xmm5 vaddsd %xmm2, %xmm0, %xmm0 vmovsd %xmm0, 696(%rbx) vaddsd %xmm2, %xmm5, %xmm9 vmovsd 704(%rbx), %xmm0 vaddsd %xmm10, %xmm0, %xmm2 vaddsd %xmm7, %xmm4, %xmm0 vmulsd %xmm14, %xmm6, %xmm4 vaddsd %xmm4, %xmm0, %xmm0 vaddsd %xmm3, %xmm0, %xmm4 vmulsd %xmm14, %xmm13, %xmm0 vaddsd %xmm1, %xmm0, %xmm0 vaddsd %xmm8, %xmm0, %xmm5 vmulsd %xmm14, %xmm4, %xmm0 vaddsd %xmm0, %xmm2, %xmm8 vmovsd 400(%rbx), %xmm1 vaddsd %xmm1, %xmm5, %xmm0 vaddsd %xmm0, %xmm9, %xmm2 vmulsd %xmm14, %xmm0, %xmm0 vmovsd 696(%rbx), %xmm3 vaddsd %xmm0, %xmm3, %xmm4 vmovsd 712(%rbx), %xmm0 vaddsd %xmm1, %xmm0, %xmm3 vmovsd 424(%rbx), %xmm1 vmulsd %xmm14, %xmm1, %xmm0 vmovsd 440(%rbx), %xmm5 vaddsd %xmm5, %xmm0, %xmm0 vmovsd 416(%rbx), %xmm6 vaddsd %xmm6, %xmm0, %xmm0 vmovsd 432(%rbx), %xmm7 vaddsd %xmm7, %xmm0, %xmm0 vmulsd %xmm14, %xmm0, %xmm0 vaddsd %xmm0, %xmm4, %xmm9 vaddsd %xmm0, %xmm2, %xmm4 vmulsd %xmm14, %xmm3, %xmm0 vaddsd %xmm0, %xmm8, %xmm2 vaddsd %xmm5, %xmm1, %xmm0 vmulsd %xmm14, %xmm6, %xmm3 vaddsd %xmm3, %xmm0, %xmm0 vaddsd %xmm7, %xmm0, %xmm0 vmulsd %xmm14, %xmm0, %xmm0 vaddsd %xmm0, %xmm2, %xmm5 vmovsd 1280(%rbx), %xmm0 vmovsd 752(%rbx), %xmm1 vmulsd %xmm0, %xmm1, %xmm3 vmulsd %xmm0, %xmm0, %xmm2 vmulsd %xmm1, %xmm1, %xmm7 vaddsd %xmm7, %xmm5, %xmm0 vmovsd 728(%rbx), %xmm1 vmulsd %xmm0, %xmm1, %xmm5 vaddsd %xmm4, %xmm2, %xmm0 vmulsd %xmm0, %xmm1, %xmm0 vaddsd %xmm3, %xmm9, %xmm4 vmulsd %xmm4, %xmm1, %xmm9 vsubsd %xmm0, %xmm2, %xmm4 vsubsd %xmm5, %xmm7, %xmm1 vmovaps 1728(%rbx), %xmm5 vmovsd 1592(%rbx), %xmm0 vmulsd %xmm5, %xmm0, %xmm0 vmulsd %xmm12, %xmm0, %xmm2 vmovsd %xmm2, 560(%rbx) vmulsd %xmm15, %xmm0, %xmm0 vmovsd %xmm0, 568(%rbx) vmulsd %xmm12, %xmm11, %xmm7 vmovsd 744(%rbx), %xmm2 vmulsd %xmm2, %xmm15, %xmm0 vmulsd %xmm2, %xmm12, %xmm2 vmovsd 720(%rbx), %xmm6 vsubsd %xmm2, %xmm6, %xmm8 vmovsd 1264(%rbx), %xmm2 vsubsd %xmm0, %xmm2, %xmm2 vmovsd .LCPI0_21(%rip), %xmm0 vmulsd %xmm0, %xmm1, %xmm0 vmulsd %xmm4, %xmm0, %xmm4 vsubsd %xmm9, %xmm3, %xmm0 vsubsd %xmm7, %xmm7, %xmm3 vmovsd 904(%rbx), %xmm6 vmulsd %xmm5, %xmm6, %xmm6 vmovsd %xmm6, 744(%rbx) vmovsd 912(%rbx), %xmm6 vmulsd %xmm5, %xmm6, %xmm6 vmovsd %xmm6, 752(%rbx) vmovsd 1168(%rbx), %xmm6 vmulsd %xmm5, %xmm6, %xmm6 vmovsd %xmm6, 576(%rbx) vmovsd 1272(%rbx), %xmm6 vmulsd %xmm5, %xmm6, %xmm6 vmovsd %xmm6, 584(%rbx) vmovsd 1176(%rbx), %xmm6 vmulsd %xmm5, %xmm6, %xmm6 vmovsd %xmm6, 672(%rbx) vmulsd %xmm5, %xmm3, %xmm3 vmovsd %xmm3, 696(%rbx) vmovsd 1160(%rbx), %xmm3 vmulsd %xmm5, %xmm3, %xmm3 vmovsd %xmm3, 728(%rbx) vmovsd 1136(%rbx), %xmm3 vmulsd %xmm5, %xmm3, %xmm3 vmovsd %xmm3, 720(%rbx) vmovsd 1128(%rbx), %xmm3 vmulsd %xmm5, %xmm3, %xmm3 vmovsd %xmm3, 712(%rbx) vmovsd 512(%rbx), %xmm3 vmulsd %xmm5, %xmm3, %xmm3 vmovsd %xmm3, 704(%rbx) vmulsd %xmm5, %xmm2, %xmm3 vmovsd %xmm3, 624(%rbx) vmulsd %xmm5, %xmm8, %xmm2 vmovsd %xmm2, 616(%rbx) vaddsd %xmm0, %xmm0, %xmm2 vmulsd %xmm2, %xmm2, %xmm3 vaddsd %xmm4, %xmm3, %xmm3 vaddsd %xmm1, %xmm1, %xmm1 vmovsd .LCPI0_22(%rip), %xmm4 vmulsd %xmm4, %xmm0, %xmm0 vmovq %xmm3, %xmm3 vsqrtpd %xmm3, %xmm3 vsubsd %xmm2, %xmm3, %xmm2 vmovsd .LCPI0_2(%rip), %xmm4 vxorpd %xmm4, %xmm2, %xmm2 vdivsd %xmm1, %xmm2, %xmm2 vsubsd %xmm3, %xmm0, %xmm0 vxorpd %xmm4, %xmm0, %xmm0 vdivsd %xmm1, %xmm0, %xmm0 vminsd %xmm2, %xmm0, %xmm1 vmovsd %xmm1, 592(%rbx) vmaxsd %xmm0, %xmm2, %xmm0 vmovsd %xmm0, 544(%rbx) vmovsd .LCPI0_23(%rip), %xmm3 vmovsd 464(%rbx), %xmm0 vmulsd %xmm3, %xmm0, %xmm0 vmovsd 488(%rbx), %xmm1 vaddsd %xmm0, %xmm1, %xmm11 vmovsd 320(%rbx), %xmm0 vmulsd %xmm3, %xmm0, %xmm0 vmovsd 448(%rbx), %xmm1 vaddsd %xmm0, %xmm1, %xmm12 vmovsd 296(%rbx), %xmm0 vmulsd %xmm3, %xmm0, %xmm0 vmovsd 312(%rbx), %xmm1 vaddsd %xmm0, %xmm1, %xmm0 vmovsd 304(%rbx), %xmm1 vmulsd %xmm3, %xmm1, %xmm1 vmovsd 288(%rbx), %xmm2 vaddsd %xmm1, %xmm2, %xmm1 vmovsd 264(%rbx), %xmm2 vmulsd %xmm3, %xmm2, %xmm2 vmovsd 280(%rbx), %xmm4 vaddsd %xmm2, %xmm4, %xmm7 vmovsd 272(%rbx), %xmm2 vmulsd %xmm3, %xmm2, %xmm2 vmovsd 256(%rbx), %xmm4 vaddsd %xmm2, %xmm4, %xmm15 vmovsd 232(%rbx), %xmm2 vmulsd %xmm3, %xmm2, %xmm2 vmovsd 248(%rbx), %xmm4 vaddsd %xmm2, %xmm4, %xmm14 vmovsd 240(%rbx), %xmm2 vmulsd %xmm3, %xmm2, %xmm2 vmovsd 224(%rbx), %xmm4 vaddsd %xmm2, %xmm4, %xmm13 vxorps %xmm8, %xmm8, %xmm8 vmulsd %xmm8, %xmm0, %xmm2 vmulsd %xmm2, %xmm7, %xmm4 vmulsd %xmm2, %xmm1, %xmm2 vaddsd %xmm4, %xmm2, %xmm2 vmulsd %xmm8, %xmm1, %xmm4 vmulsd %xmm4, %xmm7, %xmm4 vaddsd %xmm4, %xmm2, %xmm2 vaddsd %xmm2, %xmm2, %xmm2 vmulsd %xmm1, %xmm1, %xmm4 vmulsd %xmm0, %xmm0, %xmm5 vmovsd .LCPI0_0(%rip), %xmm6 vaddsd %xmm6, %xmm5, %xmm5 vaddsd %xmm4, %xmm5, %xmm4 vmulsd %xmm7, %xmm7, %xmm5 vaddsd %xmm5, %xmm4, %xmm4 vaddsd %xmm2, %xmm4, %xmm2 vmovsd 200(%rbx), %xmm4 vmulsd %xmm3, %xmm4, %xmm4 vmovsd .LCPI0_1(%rip), %xmm5 vmaxsd %xmm12, %xmm5, %xmm3 vmovsd %xmm3, 1160(%rbx) vmaxsd %xmm11, %xmm5, %xmm3 vmovsd %xmm3, 1280(%rbx) vmovq %xmm2, %xmm2 vmovsd 216(%rbx), %xmm3 vaddsd %xmm4, %xmm3, %xmm3 vmovsd %xmm3, 1288(%rbx) vsqrtpd %xmm2, %xmm2 vmovsd 1720(%rbx), %xmm3 vdivsd %xmm3, %xmm2, %xmm4 vmovsd %xmm4, 1592(%rbx) vmulsd .LCPI0_3(%rip), %xmm2, %xmm2 vmulsd %xmm3, %xmm2, %xmm2 vsubsd %xmm2, %xmm7, %xmm7 vmovsd %xmm7, 1264(%rbx) vsubsd %xmm2, %xmm0, %xmm5 vmovsd %xmm5, 1272(%rbx) vsubsd %xmm2, %xmm1, %xmm0 vmovsd %xmm0, 912(%rbx) vmulsd %xmm8, %xmm0, %xmm3 vmovsd %xmm3, 440(%rbx) vmovaps %xmm0, %xmm10 vmulsd %xmm8, %xmm4, %xmm6 vaddsd %xmm5, %xmm6, %xmm1 vaddsd %xmm3, %xmm1, %xmm1 vmulsd %xmm8, %xmm7, %xmm2 vmovsd %xmm2, 1176(%rbx) vaddsd %xmm2, %xmm1, %xmm0 vmovsd %xmm0, 1136(%rbx) vmulsd %xmm8, %xmm5, %xmm1 vmovsd %xmm1, 1168(%rbx) vmovaps %xmm5, %xmm9 vaddsd %xmm1, %xmm6, %xmm5 vaddsd %xmm10, %xmm5, %xmm1 vmovaps %xmm10, %xmm8 vaddsd %xmm2, %xmm1, %xmm1 vmovsd %xmm1, 1256(%rbx) vmulsd %xmm1, %xmm14, %xmm1 vmovaps %xmm15, %xmm6 vmulsd %xmm0, %xmm6, %xmm2 vaddsd %xmm1, %xmm2, %xmm1 vaddsd %xmm3, %xmm5, %xmm0 vmovaps %xmm3, %xmm12 vaddsd %xmm7, %xmm0, %xmm0 vmovsd %xmm0, 424(%rbx) vmulsd %xmm0, %xmm13, %xmm0 vaddsd %xmm0, %xmm1, %xmm10 vmovsd %xmm10, 536(%rbx) movabsq $-4616189618054758400, %rax movq %rax, 1384(%r13,%rdx) vxorps %xmm0, %xmm0, %xmm0 vmovups %xmm0, 16(%rdi) vmovups %xmm0, (%rdi) movabsq $4607182418800017408, %r15 movq %r15, 1424(%r13,%rdx) vmovups %xmm0, 16(%r8) vmovups %xmm0, (%r8) movq %r15, 1464(%r13,%rdx) movq 1776(%rbx), %rcx vmovups %xmm0, 16(%rcx) vmovups %xmm0, (%rcx) movq %r15, 1504(%r13,%rdx) movq %rax, 1256(%r13,%rdx) movabsq $-9223372036854775808, %rax movq %rax, 1264(%r13,%rdx) movq %rax, 1272(%r13,%rdx) movq %rax, 1280(%r13,%rdx) movq %rax, 1288(%r13,%rdx) movq %r15, 1296(%r13,%rdx) movq %rax, 1304(%r13,%rdx) movq %rax, 1312(%r13,%rdx) movq %rax, 1320(%r13,%rdx) movq %rax, 1328(%r13,%rdx) movq %r15, 1336(%r13,%rdx) movq %rax, 1344(%r13,%rdx) movq %rax, 1352(%r13,%rdx) movq %rax, 1360(%r13,%rdx) movq %rax, 1368(%r13,%rdx) movq %r15, 1376(%r13,%rdx) vmulsd %xmm8, %xmm10, %xmm0 vmovaps %xmm8, %xmm11 vmovsd %xmm0, 528(%rbx) vaddsd %xmm0, %xmm14, %xmm0 vmulsd %xmm7, %xmm10, %xmm1 vmovsd %xmm1, 520(%rbx) vaddsd %xmm1, %xmm13, %xmm1 vdivsd %xmm4, %xmm1, %xmm13 vmovsd %xmm13, 496(%rbx) vdivsd %xmm4, %xmm0, %xmm14 vmovsd %xmm14, 904(%rbx) vmulsd %xmm9, %xmm10, %xmm0 vmovsd %xmm0, 512(%rbx) vaddsd %xmm0, %xmm6, %xmm0 vdivsd %xmm4, %xmm0, %xmm8 vmovaps %xmm4, %xmm7 vmovsd %xmm8, 488(%rbx) vxorps %xmm4, %xmm4, %xmm4 vmulsd %xmm4, %xmm10, %xmm0 vmulsd %xmm4, %xmm8, %xmm1 vaddsd %xmm1, %xmm0, %xmm2 vsubsd %xmm10, %xmm1, %xmm3 vaddsd %xmm8, %xmm0, %xmm1 vmulsd %xmm4, %xmm14, %xmm0 vxorps %xmm5, %xmm5, %xmm5 vaddsd %xmm0, %xmm1, %xmm1 vaddsd %xmm0, %xmm3, %xmm3 vaddsd %xmm0, %xmm2, %xmm15 vaddsd %xmm14, %xmm2, %xmm2 vmulsd (%rcx), %xmm13, %xmm4 vaddsd %xmm4, %xmm2, %xmm0 vmovsd %xmm0, 296(%rbx) vmulsd %xmm5, %xmm13, %xmm2 vaddsd %xmm2, %xmm3, %xmm5 vmovsd %xmm5, 320(%rbx) vaddsd %xmm2, %xmm1, %xmm3 vmovsd %xmm3, 304(%rbx) vmovsd 1160(%rbx), %xmm2 vmovsd 1280(%rbx), %xmm1 vaddsd %xmm2, %xmm1, %xmm1 vmulsd .LCPI0_5(%rip), %xmm2, %xmm4 vmovsd %xmm4, 464(%rbx) vaddsd %xmm1, %xmm4, %xmm1 vmovsd 1168(%rbx), %xmm2 vsubsd %xmm7, %xmm2, %xmm2 vmovaps %xmm7, %xmm6 vaddsd %xmm12, %xmm2, %xmm2 vaddsd 1176(%rbx), %xmm2, %xmm12 vmovsd %xmm12, 280(%rbx) vmulsd %xmm3, %xmm8, %xmm2 vmovsd %xmm2, 416(%rbx) vmulsd %xmm5, %xmm10, %xmm3 vmovsd %xmm3, 400(%rbx) vaddsd %xmm2, %xmm3, %xmm3 vmulsd %xmm0, %xmm14, %xmm2 vmovsd %xmm2, 432(%rbx) vaddsd %xmm2, %xmm3, %xmm3 vaddsd %xmm13, %xmm15, %xmm0 vmovsd %xmm0, 1128(%rbx) vmulsd %xmm0, %xmm13, %xmm0 vmovsd %xmm0, 408(%rbx) vaddsd %xmm0, %xmm3, %xmm2 vmovsd %xmm2, 392(%rbx) vmovsd .LCPI0_4(%rip), %xmm0 vmaxsd %xmm2, %xmm0, %xmm0 vmovaps %xmm0, 448(%rbx) vaddsd %xmm1, %xmm0, %xmm1 vmulsd .LCPI0_6(%rip), %xmm0, %xmm0 vaddsd %xmm0, %xmm4, %xmm7 vmulsd %xmm1, %xmm11, %xmm3 vmulsd %xmm1, %xmm9, %xmm11 vmulsd %xmm1, %xmm6, %xmm0 vmovsd 1264(%rbx), %xmm2 vmulsd %xmm1, %xmm2, %xmm4 vmovsd 424(%rbx), %xmm5 vmulsd %xmm4, %xmm5, %xmm9 vmovsd 1256(%rbx), %xmm6 vmulsd %xmm4, %xmm6, %xmm2 vmovsd %xmm2, 344(%rbx) vmovsd 1136(%rbx), %xmm2 vmulsd %xmm4, %xmm2, %xmm1 vmovsd %xmm1, 336(%rbx) vmulsd %xmm4, %xmm12, %xmm1 vmovsd %xmm1, 352(%rbx) vmulsd %xmm0, %xmm12, %xmm4 vmovaps %xmm12, %xmm15 vaddsd %xmm4, %xmm7, %xmm4 vmovsd %xmm4, 360(%rbx) vaddsd %xmm9, %xmm7, %xmm1 vmovsd %xmm1, 384(%rbx) vmulsd %xmm11, %xmm2, %xmm1 vaddsd %xmm1, %xmm7, %xmm1 vmovsd %xmm1, 368(%rbx) vmovaps %xmm6, %xmm4 vmulsd %xmm3, %xmm4, %xmm1 vaddsd %xmm1, %xmm7, %xmm1 vmovsd %xmm1, 376(%rbx) vmulsd .LCPI0_24, %xmm7, %xmm7 vmulsd %xmm3, %xmm5, %xmm12 vmovaps %xmm5, %xmm9 vmulsd %xmm3, %xmm2, %xmm6 vmovaps %xmm15, %xmm5 vmulsd %xmm3, %xmm5, %xmm1 vmovsd %xmm1, 328(%rbx) vmulsd %xmm0, %xmm2, %xmm1 vmulsd %xmm0, %xmm4, %xmm3 vmovaps %xmm4, %xmm2 vmulsd %xmm0, %xmm9, %xmm15 vaddsd %xmm1, %xmm7, %xmm0 vaddsd 352(%rbx), %xmm7, %xmm1 vmovsd %xmm1, 352(%rbx) vaddsd 336(%rbx), %xmm7, %xmm1 vmovsd %xmm1, 336(%rbx) vaddsd 344(%rbx), %xmm7, %xmm1 vmovsd %xmm1, 240(%rbx) vaddsd %xmm12, %xmm7, %xmm1 vmovsd %xmm1, 232(%rbx) vmulsd %xmm11, %xmm5, %xmm1 vaddsd %xmm1, %xmm7, %xmm12 vaddsd %xmm15, %xmm7, %xmm1 vaddsd %xmm3, %xmm7, %xmm5 vmulsd %xmm11, %xmm9, %xmm4 vmulsd %xmm11, %xmm2, %xmm3 vaddsd %xmm3, %xmm7, %xmm2 vmovsd %xmm2, 256(%rbx) vaddsd %xmm4, %xmm7, %xmm2 vmovsd %xmm2, 248(%rbx) vaddsd 328(%rbx), %xmm7, %xmm11 vaddsd %xmm6, %xmm7, %xmm4 vmovsd 360(%rbx), %xmm2 vsubsd 400(%rbx), %xmm2, %xmm2 vmovsd %xmm2, 264(%rbx) vmovsd 304(%rbx), %xmm6 vmulsd %xmm6, %xmm10, %xmm3 vsubsd %xmm3, %xmm0, %xmm0 vmovsd %xmm0, 272(%rbx) vmovsd 296(%rbx), %xmm2 vmulsd %xmm2, %xmm10, %xmm0 vsubsd %xmm0, %xmm5, %xmm0 vmovsd %xmm0, 288(%rbx) vmovsd 1128(%rbx), %xmm3 vmulsd %xmm3, %xmm10, %xmm0 vsubsd %xmm0, %xmm1, %xmm0 vmovsd %xmm0, 312(%rbx) vmovsd 368(%rbx), %xmm0 vsubsd 416(%rbx), %xmm0, %xmm0 vmovsd %xmm0, 344(%rbx) vmovsd 320(%rbx), %xmm5 vmulsd %xmm5, %xmm8, %xmm0 vsubsd %xmm0, %xmm12, %xmm0 vmovsd %xmm0, 328(%rbx) vmulsd %xmm3, %xmm14, %xmm0 vmovsd 232(%rbx), %xmm1 vsubsd %xmm0, %xmm1, %xmm0 vmovsd %xmm0, 360(%rbx) vmovsd 384(%rbx), %xmm0 vsubsd 408(%rbx), %xmm0, %xmm0 vmovsd %xmm0, 416(%rbx) vmulsd %xmm2, %xmm13, %xmm0 vmovaps %xmm2, %xmm12 vmovsd 240(%rbx), %xmm1 vsubsd %xmm0, %xmm1, %xmm0 vmovsd %xmm0, 384(%rbx) vmovaps %xmm6, %xmm1 vmulsd %xmm1, %xmm13, %xmm0 vmovsd 336(%rbx), %xmm2 vsubsd %xmm0, %xmm2, %xmm0 vmovsd %xmm0, 368(%rbx) vmovaps %xmm5, %xmm2 vmulsd %xmm2, %xmm13, %xmm0 vmovsd 352(%rbx), %xmm5 vsubsd %xmm0, %xmm5, %xmm0 vmovsd %xmm0, 336(%rbx) vmovsd 376(%rbx), %xmm0 vsubsd 432(%rbx), %xmm0, %xmm0 vmovsd %xmm0, 432(%rbx) vmulsd %xmm1, %xmm14, %xmm0 vmovaps %xmm1, %xmm15 vsubsd %xmm0, %xmm4, %xmm0 vmovsd %xmm0, 408(%rbx) vmulsd %xmm2, %xmm14, %xmm0 vmovaps %xmm2, %xmm1 vsubsd %xmm0, %xmm11, %xmm0 vmovsd %xmm0, 376(%rbx) vmulsd %xmm3, %xmm8, %xmm0 vmovsd 248(%rbx), %xmm2 vsubsd %xmm0, %xmm2, %xmm0 vmovsd %xmm0, 352(%rbx) vmulsd %xmm12, %xmm8, %xmm0 vmovsd 256(%rbx), %xmm2 vsubsd %xmm0, %xmm2, %xmm0 vmovsd %xmm0, 400(%rbx) vmovq 448(%rbx), %xmm0 vsqrtpd %xmm0, %xmm2 vmovapd %xmm2, 448(%rbx) vmovsd 1288(%rbx), %xmm3 vmulsd %xmm3, %xmm10, %xmm0 vdivsd %xmm2, %xmm0, %xmm7 vmovsd 280(%rbx), %xmm6 vmulsd %xmm7, %xmm6, %xmm0 vmovsd 264(%rbx), %xmm4 vaddsd %xmm0, %xmm4, %xmm0 vmulsd %xmm3, %xmm1, %xmm1 vdivsd %xmm2, %xmm1, %xmm1 vmovsd %xmm1, 320(%rbx) vmovsd 1592(%rbx), %xmm5 vmulsd %xmm1, %xmm5, %xmm1 vaddsd %xmm1, %xmm0, %xmm0 vmovsd %xmm0, 1512(%r13,%rdx) vmovsd 1136(%rbx), %xmm4 vmulsd %xmm7, %xmm4, %xmm0 vmovsd 272(%rbx), %xmm1 vaddsd %xmm0, %xmm1, %xmm0 vmulsd %xmm3, %xmm15, %xmm1 vdivsd %xmm2, %xmm1, %xmm11 vmulsd %xmm11, %xmm5, %xmm1 vaddsd %xmm1, %xmm0, %xmm0 vmovsd %xmm0, 1520(%r13,%rdx) vmovsd 1256(%rbx), %xmm10 vmulsd %xmm7, %xmm10, %xmm0 vmovsd 288(%rbx), %xmm1 vaddsd %xmm0, %xmm1, %xmm0 vmulsd %xmm3, %xmm12, %xmm1 vdivsd %xmm2, %xmm1, %xmm15 vmulsd %xmm15, %xmm5, %xmm1 vaddsd %xmm1, %xmm0, %xmm0 vmovsd %xmm0, 1528(%r13,%rdx) vmulsd %xmm7, %xmm9, %xmm0 vmovsd 312(%rbx), %xmm1 vaddsd %xmm0, %xmm1, %xmm0 vmovsd 1128(%rbx), %xmm1 vmulsd %xmm3, %xmm1, %xmm1 vdivsd %xmm2, %xmm1, %xmm12 vmulsd %xmm12, %xmm5, %xmm1 vaddsd %xmm1, %xmm0, %xmm0 vmovsd %xmm0, 1536(%r13,%rdx) vmulsd %xmm3, %xmm8, %xmm0 vdivsd %xmm2, %xmm0, %xmm14 vmulsd %xmm14, %xmm6, %xmm0 vmovaps %xmm6, %xmm8 vmovsd 328(%rbx), %xmm1 vaddsd %xmm0, %xmm1, %xmm0 vmovsd 1272(%rbx), %xmm5 vmovsd 320(%rbx), %xmm7 vmulsd %xmm7, %xmm5, %xmm1 vaddsd %xmm1, %xmm0, %xmm0 vmulsd %xmm14, %xmm4, %xmm1 vmovsd 344(%rbx), %xmm6 vaddsd %xmm1, %xmm6, %xmm1 vmovsd %xmm1, 344(%rbx) vmovsd %xmm0, 1544(%r13,%rdx) vmovsd 904(%rbx), %xmm0 vmulsd %xmm3, %xmm0, %xmm0 vdivsd %xmm2, %xmm0, %xmm0 vmulsd %xmm0, %xmm9, %xmm1 vmovsd 360(%rbx), %xmm6 vaddsd %xmm1, %xmm6, %xmm1 vmovsd %xmm1, 1128(%rbx) vmulsd %xmm3, %xmm13, %xmm1 vdivsd %xmm2, %xmm1, %xmm1 vmulsd %xmm1, %xmm8, %xmm6 vmovsd 336(%rbx), %xmm2 vaddsd %xmm6, %xmm2, %xmm2 vmovsd %xmm2, 360(%rbx) vmulsd %xmm1, %xmm4, %xmm6 vmovsd 368(%rbx), %xmm2 vaddsd %xmm6, %xmm2, %xmm2 vmovsd %xmm2, 368(%rbx) vmovaps %xmm10, %xmm3 vmulsd %xmm1, %xmm3, %xmm6 vmovsd 384(%rbx), %xmm2 vaddsd %xmm6, %xmm2, %xmm2 vmulsd %xmm1, %xmm9, %xmm1 vmovsd 416(%rbx), %xmm6 vaddsd %xmm1, %xmm6, %xmm13 vmulsd %xmm11, %xmm5, %xmm6 vmovsd 344(%rbx), %xmm1 vaddsd %xmm6, %xmm1, %xmm6 vmulsd %xmm14, %xmm9, %xmm1 vmovsd 352(%rbx), %xmm5 vaddsd %xmm1, %xmm5, %xmm1 vmovsd %xmm1, 384(%rbx) vmulsd %xmm0, %xmm8, %xmm1 vmovsd 376(%rbx), %xmm5 vaddsd %xmm1, %xmm5, %xmm8 vmulsd %xmm0, %xmm4, %xmm1 vmovsd 408(%rbx), %xmm4 vaddsd %xmm1, %xmm4, %xmm5 vmulsd %xmm0, %xmm3, %xmm0 vmovaps %xmm3, %xmm4 vmovsd 432(%rbx), %xmm1 vaddsd %xmm0, %xmm1, %xmm10 vmovsd %xmm6, 1552(%r13,%rdx) vmovsd 1264(%rbx), %xmm1 vmulsd %xmm12, %xmm1, %xmm0 vaddsd %xmm0, %xmm13, %xmm9 vmulsd %xmm15, %xmm1, %xmm0 vaddsd %xmm0, %xmm2, %xmm0 vmovsd %xmm0, 1136(%rbx) vmulsd %xmm11, %xmm1, %xmm0 vmovsd 368(%rbx), %xmm2 vaddsd %xmm0, %xmm2, %xmm0 vmovsd %xmm0, 376(%rbx) vmovaps %xmm7, %xmm2 vmulsd %xmm2, %xmm1, %xmm0 vmovsd 360(%rbx), %xmm1 vaddsd %xmm0, %xmm1, %xmm13 vmovsd 912(%rbx), %xmm3 vmulsd %xmm12, %xmm3, %xmm1 vmovsd 1128(%rbx), %xmm0 vaddsd %xmm1, %xmm0, %xmm6 vmovsd %xmm6, 432(%rbx) vmulsd %xmm15, %xmm3, %xmm1 vaddsd %xmm1, %xmm10, %xmm0 vmovsd %xmm0, 424(%rbx) vmulsd %xmm11, %xmm3, %xmm1 vaddsd %xmm1, %xmm5, %xmm5 vmovsd %xmm5, 416(%rbx) vmulsd %xmm2, %xmm3, %xmm1 vaddsd %xmm1, %xmm8, %xmm2 vmovsd %xmm2, 408(%rbx) vmovsd 1272(%rbx), %xmm3 vmulsd %xmm12, %xmm3, %xmm1 vmovsd 384(%rbx), %xmm7 vaddsd %xmm1, %xmm7, %xmm10 vmulsd %xmm14, %xmm4, %xmm1 vmovsd 400(%rbx), %xmm4 vaddsd %xmm1, %xmm4, %xmm4 vmulsd %xmm15, %xmm3, %xmm1 vaddsd %xmm1, %xmm4, %xmm1 vmovsd %xmm1, 1560(%r13,%rdx) vmovsd %xmm10, 1568(%r13,%rdx) vmovsd %xmm2, 1576(%r13,%rdx) vmovsd %xmm5, 1584(%r13,%rdx) vmovsd %xmm0, 1592(%r13,%rdx) vmovsd %xmm6, 1600(%r13,%rdx) vmovsd %xmm13, 1608(%r13,%rdx) vmovsd 376(%rbx), %xmm0 vmovsd %xmm0, 1616(%r13,%rdx) vmovsd 1136(%rbx), %xmm0 vmovsd %xmm0, 1624(%r13,%rdx) vmovsd %xmm9, 1632(%r13,%rdx) vmovaps 1728(%rbx), %xmm0 vmulsd 1536(%r13,%rdx), %xmm0, %xmm1 vmovsd %xmm1, 400(%rbx) vmulsd 1528(%r13,%rdx), %xmm0, %xmm1 vmovsd %xmm1, 384(%rbx) vmulsd 1520(%r13,%rdx), %xmm0, %xmm1 vmovsd %xmm1, 376(%rbx) vmulsd 1512(%r13,%rdx), %xmm0, %xmm0 vmovsd %xmm0, 368(%rbx) vmovsd 1280(%rbx), %xmm8 vmovaps %xmm8, %xmm0 vmovsd .LCPI0_8(%rip), %xmm1 movq %rdx, %r12 callq __ocl_svml_e9_pow1 vmovsd 1160(%rbx), %xmm9 vmulsd %xmm0, %xmm9, %xmm0 callq __ocl_svml_e9_log1 vmovsd %xmm0, 352(%rbx) vmovsd 1288(%rbx), %xmm0 vmovsd .LCPI0_10(%rip), %xmm1 callq __ocl_svml_e9_pow1 movq %r12, %rdx vmovsd %xmm0, 360(%rbx) movq 1696(%rbx), %rax vxorps %xmm0, %xmm0, %xmm0 vmovups %xmm0, 16(%rax) vmovups %xmm0, (%rax) movq %r15, 1240(%r13,%rdx) vxorps %xmm0, %xmm0, %xmm0 vmulsd 1264(%r13,%rdx), %xmm0, %xmm1 vmovsd 1256(%r13,%rdx), %xmm2 vmovsd 1272(%r13,%rdx), %xmm7 vmulsd %xmm0, %xmm2, %xmm3 vaddsd %xmm1, %xmm3, %xmm4 vaddsd %xmm1, %xmm2, %xmm3 vaddsd %xmm7, %xmm4, %xmm1 vmovsd %xmm1, 1136(%rbx) vmovaps %xmm9, %xmm2 vmulsd .LCPI0_19(%rip), %xmm2, %xmm1 vmulsd .LCPI0_20(%rip), %xmm2, %xmm2 vmovaps %xmm8, %xmm5 vaddsd %xmm2, %xmm5, %xmm4 vdivsd %xmm4, %xmm1, %xmm1 vmovsd 1592(%rbx), %xmm4 vaddsd 1168(%rbx), %xmm4, %xmm4 vaddsd 440(%rbx), %xmm4, %xmm4 vaddsd 1176(%rbx), %xmm4, %xmm8 vmovsd 392(%rbx), %xmm6 vaddsd %xmm6, %xmm5, %xmm4 vaddsd %xmm2, %xmm4, %xmm2 vdivsd %xmm2, %xmm6, %xmm2 vmulsd %xmm1, %xmm2, %xmm4 vaddsd %xmm1, %xmm2, %xmm1 vsubsd %xmm4, %xmm1, %xmm10 vmulsd 1360(%r13,%rdx), %xmm0, %xmm1 vmovsd 1352(%r13,%rdx), %xmm2 vmulsd %xmm0, %xmm2, %xmm4 vaddsd %xmm1, %xmm2, %xmm11 vaddsd %xmm1, %xmm4, %xmm2 vmulsd 1296(%r13,%rdx), %xmm0, %xmm14 vmovsd 1288(%r13,%rdx), %xmm15 vaddsd %xmm14, %xmm15, %xmm1 vmovsd 1304(%r13,%rdx), %xmm6 vmulsd %xmm0, %xmm6, %xmm4 vaddsd %xmm4, %xmm1, %xmm1 vmulsd %xmm0, %xmm7, %xmm4 vaddsd %xmm4, %xmm3, %xmm4 vmulsd 1280(%r13,%rdx), %xmm0, %xmm3 vaddsd %xmm3, %xmm4, %xmm4 vmulsd 1312(%r13,%rdx), %xmm0, %xmm9 vaddsd %xmm9, %xmm1, %xmm1 vmulsd %xmm0, %xmm1, %xmm1 vaddsd %xmm1, %xmm4, %xmm12 vmovsd 1368(%r13,%rdx), %xmm1 vaddsd %xmm1, %xmm2, %xmm13 vmulsd %xmm0, %xmm1, %xmm1 vaddsd %xmm1, %xmm11, %xmm11 vmulsd 1328(%r13,%rdx), %xmm0, %xmm4 vmovsd 1320(%r13,%rdx), %xmm1 vaddsd %xmm4, %xmm1, %xmm2 vmulsd %xmm0, %xmm1, %xmm1 vaddsd %xmm4, %xmm1, %xmm1 vmovsd 1336(%r13,%rdx), %xmm5 vaddsd %xmm5, %xmm1, %xmm4 vmulsd %xmm0, %xmm5, %xmm1 vaddsd %xmm1, %xmm2, %xmm1 vmulsd 1344(%r13,%rdx), %xmm0, %xmm2 vaddsd %xmm2, %xmm1, %xmm1 vmulsd %xmm0, %xmm1, %xmm1 vaddsd %xmm1, %xmm12, %xmm12 vmulsd 1376(%r13,%rdx), %xmm0, %xmm1 vaddsd %xmm1, %xmm11, %xmm11 vaddsd %xmm1, %xmm13, %xmm1 vaddsd %xmm2, %xmm4, %xmm2 vmovsd 1136(%rbx), %xmm4 vaddsd %xmm3, %xmm4, %xmm3 vmulsd %xmm0, %xmm15, %xmm4 vxorps %xmm7, %xmm7, %xmm7 vmovsd .LCPI0_2(%rip), %xmm0 vmovapd %xmm0, %xmm13 vaddsd %xmm14, %xmm4, %xmm4 vaddsd %xmm6, %xmm4, %xmm4 vaddsd %xmm9, %xmm4, %xmm4 vmulsd %xmm7, %xmm4, %xmm5 vmulsd %xmm7, %xmm3, %xmm4 vaddsd %xmm5, %xmm4, %xmm4 vaddsd %xmm2, %xmm4, %xmm6 vmulsd %xmm7, %xmm1, %xmm4 vaddsd %xmm4, %xmm6, %xmm6 vmovsd 1256(%rbx), %xmm0 vmulsd %xmm0, %xmm0, %xmm1 vaddsd %xmm6, %xmm1, %xmm6 vmulsd %xmm6, %xmm10, %xmm6 vsubsd %xmm6, %xmm1, %xmm9 vmulsd %xmm7, %xmm11, %xmm1 vaddsd %xmm1, %xmm12, %xmm1 vxorps %xmm11, %xmm11, %xmm11 vmulsd %xmm0, %xmm8, %xmm6 vmulsd %xmm8, %xmm8, %xmm7 vaddsd %xmm7, %xmm1, %xmm1 vmulsd %xmm1, %xmm10, %xmm1 vsubsd %xmm1, %xmm7, %xmm1 vaddsd %xmm5, %xmm3, %xmm5 vmulsd .LCPI0_21(%rip), %xmm1, %xmm3 vmulsd %xmm9, %xmm3, %xmm3 vmulsd %xmm11, %xmm2, %xmm2 vaddsd %xmm2, %xmm5, %xmm2 vaddsd %xmm4, %xmm2, %xmm2 vaddsd %xmm6, %xmm2, %xmm2 vmulsd %xmm2, %xmm10, %xmm2 vsubsd %xmm2, %xmm6, %xmm4 vaddsd %xmm4, %xmm4, %xmm2 vmulsd %xmm2, %xmm2, %xmm5 vaddsd %xmm3, %xmm5, %xmm3 vmovq %xmm3, %xmm3 vsqrtpd %xmm3, %xmm3 vmulsd .LCPI0_22(%rip), %xmm4, %xmm4 vsubsd %xmm2, %xmm3, %xmm2 vsubsd %xmm3, %xmm4, %xmm3 vaddsd %xmm1, %xmm1, %xmm1 vxorpd %xmm13, %xmm3, %xmm3 vdivsd %xmm1, %xmm3, %xmm0 vmovsd %xmm0, 1256(%rbx) vxorpd %xmm13, %xmm2, %xmm2 vdivsd %xmm1, %xmm2, %xmm9 vmovsd 544(%rbx), %xmm1 vmaxsd %xmm11, %xmm1, %xmm1 vucomisd %xmm1, %xmm1 vmaxsd %xmm0, %xmm9, %xmm3 jp .LBB0_415 vmaxsd %xmm1, %xmm3, %xmm3 .LBB0_415: vmovsd .LCPI0_6(%rip), %xmm14 vmovsd 776(%rbx), %xmm1 vmulsd %xmm14, %xmm1, %xmm1 vmovsd %xmm1, 1176(%rbx) vmovsd 736(%rbx), %xmm1 vmulsd %xmm14, %xmm1, %xmm1 vmovsd %xmm1, 1168(%rbx) vmovsd 1088(%rbx), %xmm1 vmulsd %xmm14, %xmm1, %xmm1 vmovsd %xmm1, 1160(%rbx) vmovsd 800(%rbx), %xmm1 vmulsd %xmm14, %xmm1, %xmm1 vmovsd %xmm1, 1136(%rbx) vmovsd 784(%rbx), %xmm1 vmulsd %xmm14, %xmm1, %xmm1 vmovsd %xmm1, 1128(%rbx) vmovsd 1120(%rbx), %xmm1 vmulsd %xmm14, %xmm1, %xmm1 vmovsd %xmm1, 1120(%rbx) vmovsd 1112(%rbx), %xmm1 vmulsd %xmm14, %xmm1, %xmm1 vmovsd %xmm1, 1112(%rbx) vmovsd 792(%rbx), %xmm1 vmulsd %xmm14, %xmm1, %xmm1 vmovsd %xmm1, 1088(%rbx) vmovsd 1080(%rbx), %xmm1 vmulsd %xmm14, %xmm1, %xmm1 vmovsd %xmm1, 1080(%rbx) vmovsd .LCPI0_3(%rip), %xmm1 vmovsd 592(%rbx), %xmm15 vucomisd %xmm15, %xmm1 vmovsd 1280(%rbx), %xmm0 vmovsd 464(%rbx), %xmm1 vdivsd %xmm0, %xmm1, %xmm4 vdivsd .LCPI0_5(%rip), %xmm0, %xmm10 vmovaps 1728(%rbx), %xmm11 vmulsd %xmm11, %xmm0, %xmm1 vmovsd 912(%rbx), %xmm8 vmulsd %xmm8, %xmm1, %xmm2 vmovsd 560(%rbx), %xmm5 vaddsd %xmm2, %xmm5, %xmm2 vmovsd %xmm2, 800(%rbx) vmovsd 1592(%rbx), %xmm13 vmulsd %xmm13, %xmm1, %xmm1 vsubsd 568(%rbx), %xmm1, %xmm1 vmovsd %xmm1, 792(%rbx) vmovsd 904(%rbx), %xmm12 vmulsd 1264(%rbx), %xmm12, %xmm1 vmovsd 496(%rbx), %xmm0 vmulsd %xmm8, %xmm0, %xmm2 vsubsd %xmm1, %xmm2, %xmm7 vmulsd 1272(%rbx), %xmm12, %xmm1 vmovsd 488(%rbx), %xmm5 vmulsd %xmm8, %xmm5, %xmm2 vsubsd %xmm1, %xmm2, %xmm6 vmulsd %xmm13, %xmm0, %xmm1 vsubsd 520(%rbx), %xmm1, %xmm1 vmulsd %xmm13, %xmm12, %xmm2 vsubsd 528(%rbx), %xmm2, %xmm2 vmulsd %xmm13, %xmm5, %xmm5 vsubsd 512(%rbx), %xmm5, %xmm5 vmulsd %xmm11, %xmm5, %xmm5 vsubsd 576(%rbx), %xmm5, %xmm5 vmovsd %xmm5, 736(%rbx) vmulsd %xmm11, %xmm7, %xmm5 vmovsd 584(%rbx), %xmm7 vaddsd %xmm5, %xmm7, %xmm5 vmovsd %xmm5, 776(%rbx) vmulsd %xmm11, %xmm2, %xmm2 vsubsd 752(%rbx), %xmm2, %xmm2 vmovsd %xmm2, 752(%rbx) vmulsd %xmm11, %xmm1, %xmm1 vsubsd 744(%rbx), %xmm1, %xmm1 vmovsd %xmm1, 744(%rbx) vmulsd %xmm11, %xmm6, %xmm1 vmovsd 672(%rbx), %xmm2 vaddsd %xmm1, %xmm2, %xmm1 vmovsd %xmm1, 784(%rbx) vmovsd 1288(%rbx), %xmm0 vdivsd %xmm4, %xmm0, %xmm2 vmulsd 536(%rbx), %xmm2, %xmm1 vmulsd %xmm12, %xmm2, %xmm2 vmulsd %xmm8, %xmm12, %xmm5 vsubsd %xmm5, %xmm5, %xmm5 vmulsd %xmm11, %xmm5, %xmm5 vmovsd 696(%rbx), %xmm6 vaddsd %xmm5, %xmm6, %xmm5 vmovsd %xmm5, 904(%rbx) vmovaps 448(%rbx), %xmm0 vdivsd %xmm0, %xmm2, %xmm6 vdivsd %xmm0, %xmm1, %xmm1 vmovsd 432(%rbx), %xmm0 vmulsd %xmm11, %xmm0, %xmm2 vmovsd 728(%rbx), %xmm5 vaddsd %xmm2, %xmm5, %xmm2 vmovsd %xmm2, 728(%rbx) vmovsd 424(%rbx), %xmm0 vmulsd %xmm11, %xmm0, %xmm2 vmovsd 720(%rbx), %xmm5 vaddsd %xmm2, %xmm5, %xmm2 vmovsd %xmm2, 720(%rbx) vmovsd 416(%rbx), %xmm0 vmulsd %xmm11, %xmm0, %xmm2 vmovsd 712(%rbx), %xmm5 vaddsd %xmm2, %xmm5, %xmm2 vmovsd %xmm2, 712(%rbx) vmovsd 408(%rbx), %xmm0 vmulsd %xmm11, %xmm0, %xmm2 vmovsd 704(%rbx), %xmm5 vaddsd %xmm2, %xmm5, %xmm2 vmovsd %xmm2, 704(%rbx) vmulsd 352(%rbx), %xmm10, %xmm2 vmulsd %xmm13, %xmm2, %xmm5 vaddsd %xmm1, %xmm5, %xmm5 vmulsd %xmm8, %xmm2, %xmm1 vaddsd %xmm6, %xmm1, %xmm1 vmovsd 368(%rbx), %xmm0 vsubsd 632(%rbx), %xmm0, %xmm2 vmovsd %xmm2, 696(%rbx) vmovsd 376(%rbx), %xmm0 vsubsd 640(%rbx), %xmm0, %xmm2 vmovsd %xmm2, 672(%rbx) vmovsd 384(%rbx), %xmm0 vsubsd 664(%rbx), %xmm0, %xmm2 vmovsd %xmm2, 664(%rbx) vmovsd 400(%rbx), %xmm0 vsubsd 656(%rbx), %xmm0, %xmm2 vmovsd %xmm2, 656(%rbx) vaddsd %xmm4, %xmm4, %xmm2 vmovsd 360(%rbx), %xmm0 vmulsd .LCPI0_11(%rip), %xmm0, %xmm0 vdivsd %xmm2, %xmm0, %xmm2 vmulsd %xmm2, %xmm8, %xmm0 vsubsd %xmm0, %xmm1, %xmm0 vmulsd %xmm2, %xmm13, %xmm1 vsubsd %xmm1, %xmm5, %xmm1 vmulsd %xmm11, %xmm1, %xmm1 vmulsd %xmm11, %xmm0, %xmm0 vmovsd 616(%rbx), %xmm2 vaddsd %xmm0, %xmm2, %xmm0 vmovsd %xmm0, 912(%rbx) vsubsd 624(%rbx), %xmm1, %xmm0 vmovsd %xmm0, 640(%rbx) vmovsd 1256(%rbx), %xmm0 vminsd %xmm9, %xmm0, %xmm0 vmovd %xmm3, %rax vmovsd .LCPI0_2(%rip), %xmm1 vxorpd %xmm1, %xmm0, %xmm0 movq 1768(%rbx), %rsi movq 1760(%rbx), %rdi ja .LBB0_416 vxorpd %xmm1, %xmm1, %xmm1 jmp .LBB0_418 .align 16, 0x90 .LBB0_416: vxorpd %xmm1, %xmm15, %xmm1 .LBB0_418: vucomisd %xmm1, %xmm1 jp .LBB0_420 vmaxsd %xmm1, %xmm0, %xmm0 .LBB0_420: vxorpd %xmm12, %xmm12, %xmm12 vmovd %xmm0, %rcx andq %r14, %rcx andq %r14, %rax vmovd %rax, %xmm0 vucomisd %xmm0, %xmm0 vmovd %rcx, %xmm8 jp .LBB0_422 vmaxsd %xmm0, %xmm8, %xmm8 .LBB0_422: movq 1680(%rbx), %rax vmovsd 1792(%rbx,%rax,8), %xmm1 vmovsd %xmm1, 1592(%rbx) movq 1000(%rbx), %rax vmovsd 1792(%rbx,%rax,8), %xmm2 vsubsd %xmm1, %xmm2, %xmm0 vaddsd %xmm0, %xmm0, %xmm0 movq 1248(%rbx), %rax vmovsd 1792(%rbx,%rax,8), %xmm3 vsubsd %xmm3, %xmm1, %xmm1 vaddsd %xmm1, %xmm1, %xmm1 vmulsd %xmm0, %xmm1, %xmm4 vucomisd %xmm4, %xmm12 jae .LBB0_428 vsubsd %xmm3, %xmm2, %xmm2 vmulsd %xmm14, %xmm2, %xmm2 vmovd %xmm2, %rax andq %r14, %rax vmovd %xmm1, %rcx vmovd %rax, %xmm3 andq %r14, %rcx vmovd %rcx, %xmm5 vmovd %xmm0, %rax andq %r14, %rax vmovd %rax, %xmm4 vucomisd %xmm5, %xmm4 jbe .LBB0_425 vucomisd %xmm5, %xmm3 vmovapd %xmm1, %xmm12 ja .LBB0_428 .align 16, 0x90 .LBB0_425: vucomisd %xmm4, %xmm3 ja .LBB0_427 vmovapd %xmm2, %xmm0 .LBB0_427: vmovapd %xmm0, %xmm12 .LBB0_428: movq 1672(%rbx), %rax vmovsd 1792(%rbx,%rax,8), %xmm1 vmovsd %xmm1, 1288(%rbx) movq 992(%rbx), %rax vmovsd 1792(%rbx,%rax,8), %xmm2 vsubsd %xmm1, %xmm2, %xmm0 vaddsd %xmm0, %xmm0, %xmm0 movq 1072(%rbx), %rax vmovsd 1792(%rbx,%rax,8), %xmm3 vsubsd %xmm3, %xmm1, %xmm1 vaddsd %xmm1, %xmm1, %xmm1 vmulsd %xmm0, %xmm1, %xmm4 vxorpd %xmm7, %xmm7, %xmm7 vucomisd %xmm4, %xmm7 vxorpd %xmm5, %xmm5, %xmm5 jae .LBB0_434 vsubsd %xmm3, %xmm2, %xmm2 vmulsd %xmm14, %xmm2, %xmm2 vmovd %xmm2, %rax andq %r14, %rax vmovd %xmm1, %rcx vmovd %rax, %xmm3 andq %r14, %rcx vmovd %rcx, %xmm5 vmovd %xmm0, %rax andq %r14, %rax vmovd %rax, %xmm4 vucomisd %xmm5, %xmm4 jbe .LBB0_431 vucomisd %xmm5, %xmm3 vmovapd %xmm1, %xmm5 ja .LBB0_434 .align 16, 0x90 .LBB0_431: vucomisd %xmm4, %xmm3 ja .LBB0_433 vmovapd %xmm2, %xmm0 .LBB0_433: vmovapd %xmm0, %xmm5 .LBB0_434: vmovsd %xmm5, 1272(%rbx) movq 1664(%rbx), %rax vmovsd 1792(%rbx,%rax,8), %xmm2 vmovsd %xmm2, 1264(%rbx) movq 984(%rbx), %rax vmovsd 1792(%rbx,%rax,8), %xmm1 vsubsd %xmm2, %xmm1, %xmm0 vaddsd %xmm0, %xmm0, %xmm0 movq 1056(%rbx), %rax vmovsd 1792(%rbx,%rax,8), %xmm3 vsubsd %xmm3, %xmm2, %xmm2 vaddsd %xmm2, %xmm2, %xmm2 vmulsd %xmm0, %xmm2, %xmm4 vucomisd %xmm4, %xmm7 jae .LBB0_440 vsubsd %xmm3, %xmm1, %xmm1 vmulsd %xmm14, %xmm1, %xmm3 vmovd %xmm3, %rax andq %r14, %rax vmovd %xmm2, %rcx vmovd %rax, %xmm4 andq %r14, %rcx vmovd %rcx, %xmm5 vmovd %xmm0, %rax andq %r14, %rax vmovd %rax, %xmm1 vucomisd %xmm5, %xmm1 jbe .LBB0_437 vucomisd %xmm5, %xmm4 vmovapd %xmm2, %xmm7 ja .LBB0_440 .align 16, 0x90 .LBB0_437: vucomisd %xmm1, %xmm4 ja .LBB0_439 vmovapd %xmm3, %xmm0 .LBB0_439: vmovapd %xmm0, %xmm7 .LBB0_440: movq 1656(%rbx), %rax vmovsd 1792(%rbx,%rax,8), %xmm2 vmovsd %xmm2, 1256(%rbx) movq 976(%rbx), %rax vmovsd 1792(%rbx,%rax,8), %xmm1 vsubsd %xmm2, %xmm1, %xmm0 vaddsd %xmm0, %xmm0, %xmm0 movq 1048(%rbx), %rax vmovsd 1792(%rbx,%rax,8), %xmm3 vsubsd %xmm3, %xmm2, %xmm2 vaddsd %xmm2, %xmm2, %xmm2 vmulsd %xmm0, %xmm2, %xmm4 vxorpd %xmm6, %xmm6, %xmm6 vucomisd %xmm4, %xmm6 vxorpd %xmm5, %xmm5, %xmm5 jae .LBB0_446 vsubsd %xmm3, %xmm1, %xmm1 vmulsd %xmm14, %xmm1, %xmm3 vmovd %xmm3, %rax andq %r14, %rax vmovd %xmm2, %rcx vmovd %rax, %xmm4 andq %r14, %rcx vmovd %rcx, %xmm5 vmovd %xmm0, %rax andq %r14, %rax vmovd %rax, %xmm1 vucomisd %xmm5, %xmm1 jbe .LBB0_443 vucomisd %xmm5, %xmm4 vmovapd %xmm2, %xmm5 ja .LBB0_446 .align 16, 0x90 .LBB0_443: vucomisd %xmm1, %xmm4 ja .LBB0_445 vmovapd %xmm3, %xmm0 .LBB0_445: vmovapd %xmm0, %xmm5 .LBB0_446: vmovsd %xmm5, 1248(%rbx) vmovsd %xmm7, 1280(%rbx) movq 1648(%rbx), %rax vmovsd 1792(%rbx,%rax,8), %xmm2 vmovsd %xmm2, 1072(%rbx) movq 968(%rbx), %rax vmovsd 1792(%rbx,%rax,8), %xmm1 vsubsd %xmm2, %xmm1, %xmm0 vaddsd %xmm0, %xmm0, %xmm0 movq 1040(%rbx), %rax vmovsd 1792(%rbx,%rax,8), %xmm3 vsubsd %xmm3, %xmm2, %xmm2 vaddsd %xmm2, %xmm2, %xmm2 vmulsd %xmm0, %xmm2, %xmm4 vucomisd %xmm4, %xmm6 jae .LBB0_452 vsubsd %xmm3, %xmm1, %xmm1 vmulsd %xmm14, %xmm1, %xmm3 vmovd %xmm3, %rax andq %r14, %rax vmovd %xmm2, %rcx vmovd %rax, %xmm4 andq %r14, %rcx vmovd %rcx, %xmm5 vmovd %xmm0, %rax andq %r14, %rax vmovd %rax, %xmm1 vucomisd %xmm5, %xmm1 jbe .LBB0_449 vucomisd %xmm5, %xmm4 vmovapd %xmm2, %xmm6 ja .LBB0_452 .align 16, 0x90 .LBB0_449: vucomisd %xmm1, %xmm4 ja .LBB0_451 vmovapd %xmm3, %xmm0 .LBB0_451: vmovapd %xmm0, %xmm6 .LBB0_452: vmovsd %xmm6, 1048(%rbx) vmovsd %xmm8, 1040(%rbx) movq 1640(%rbx), %rax vmovsd 1792(%rbx,%rax,8), %xmm2 vmovsd %xmm2, 1056(%rbx) movq 944(%rbx), %rax vmovsd 1792(%rbx,%rax,8), %xmm1 vsubsd %xmm2, %xmm1, %xmm0 vaddsd %xmm0, %xmm0, %xmm0 movq 1032(%rbx), %rax vmovsd 1792(%rbx,%rax,8), %xmm4 vsubsd %xmm4, %xmm2, %xmm2 vaddsd %xmm2, %xmm2, %xmm2 vmulsd %xmm0, %xmm2, %xmm5 vxorpd %xmm3, %xmm3, %xmm3 vucomisd %xmm5, %xmm3 vxorpd %xmm10, %xmm10, %xmm10 jae .LBB0_458 vsubsd %xmm4, %xmm1, %xmm1 vmulsd %xmm14, %xmm1, %xmm4 vmovd %xmm4, %rax andq %r14, %rax vmovd %xmm2, %rcx vmovd %rax, %xmm5 andq %r14, %rcx vmovd %rcx, %xmm6 vmovd %xmm0, %rax andq %r14, %rax vmovd %rax, %xmm1 vucomisd %xmm6, %xmm1 jbe .LBB0_455 vucomisd %xmm6, %xmm5 vmovapd %xmm2, %xmm10 ja .LBB0_458 .align 16, 0x90 .LBB0_455: vucomisd %xmm1, %xmm5 ja .LBB0_457 vmovapd %xmm4, %xmm0 .LBB0_457: vmovapd %xmm0, %xmm10 .LBB0_458: movq 1632(%rbx), %rax vmovsd 1792(%rbx,%rax,8), %xmm13 movq 936(%rbx), %rax vmovsd 1792(%rbx,%rax,8), %xmm1 vsubsd %xmm13, %xmm1, %xmm0 vaddsd %xmm0, %xmm0, %xmm0 movq 1024(%rbx), %rax vmovsd 1792(%rbx,%rax,8), %xmm4 vsubsd %xmm4, %xmm13, %xmm2 vaddsd %xmm2, %xmm2, %xmm2 vmulsd %xmm0, %xmm2, %xmm5 vucomisd %xmm5, %xmm3 jae .LBB0_464 vsubsd %xmm4, %xmm1, %xmm1 vmulsd %xmm14, %xmm1, %xmm4 vmovd %xmm4, %rax andq %r14, %rax vmovd %xmm2, %rcx vmovd %rax, %xmm5 andq %r14, %rcx vmovd %rcx, %xmm3 vmovd %xmm0, %rax andq %r14, %rax vmovd %rax, %xmm1 vucomisd %xmm3, %xmm1 jbe .LBB0_461 vucomisd %xmm3, %xmm5 vmovapd %xmm2, %xmm3 ja .LBB0_464 .align 16, 0x90 .LBB0_461: vucomisd %xmm1, %xmm5 ja .LBB0_463 vmovapd %xmm4, %xmm0 .LBB0_463: vmovapd %xmm0, %xmm3 .LBB0_464: movq 1624(%rbx), %rax vmovsd 1792(%rbx,%rax,8), %xmm15 movq 928(%rbx), %rax vmovsd 1792(%rbx,%rax,8), %xmm1 vsubsd %xmm15, %xmm1, %xmm0 vaddsd %xmm0, %xmm0, %xmm2 movq 1016(%rbx), %rax vmovsd 1792(%rbx,%rax,8), %xmm5 vsubsd %xmm5, %xmm15, %xmm0 vaddsd %xmm0, %xmm0, %xmm4 vmulsd %xmm2, %xmm4, %xmm6 vxorpd %xmm0, %xmm0, %xmm0 vucomisd %xmm6, %xmm0 vxorpd %xmm9, %xmm9, %xmm9 jae .LBB0_470 vsubsd %xmm5, %xmm1, %xmm1 vmulsd %xmm14, %xmm1, %xmm5 vmovd %xmm5, %rax andq %r14, %rax vmovd %xmm4, %rcx vmovd %rax, %xmm1 andq %r14, %rcx vmovd %rcx, %xmm7 vmovd %xmm2, %rax andq %r14, %rax vmovd %rax, %xmm6 vucomisd %xmm7, %xmm6 jbe .LBB0_467 vucomisd %xmm7, %xmm1 vmovapd %xmm4, %xmm9 ja .LBB0_470 .align 16, 0x90 .LBB0_467: vucomisd %xmm6, %xmm1 ja .LBB0_469 vmovapd %xmm5, %xmm2 .LBB0_469: vmovapd %xmm2, %xmm9 .LBB0_470: movq 1616(%rbx), %rax vmovsd 1792(%rbx,%rax,8), %xmm8 movq 920(%rbx), %rax vmovsd 1792(%rbx,%rax,8), %xmm1 vsubsd %xmm8, %xmm1, %xmm2 vaddsd %xmm2, %xmm2, %xmm2 movq 1008(%rbx), %rax vmovsd 1792(%rbx,%rax,8), %xmm5 vsubsd %xmm5, %xmm8, %xmm4 vaddsd %xmm4, %xmm4, %xmm4 vmulsd %xmm2, %xmm4, %xmm6 vucomisd %xmm6, %xmm0 vmovsd 1280(%rbx), %xmm7 jae .LBB0_476 vsubsd %xmm5, %xmm1, %xmm0 vmulsd %xmm14, %xmm0, %xmm5 vmovd %xmm5, %rax andq %r14, %rax vmovd %xmm4, %rcx vmovd %rax, %xmm1 andq %r14, %rcx vmovd %rcx, %xmm0 vmovd %xmm2, %rax andq %r14, %rax vmovd %rax, %xmm6 vucomisd %xmm0, %xmm6 jbe .LBB0_473 vucomisd %xmm0, %xmm1 vmovapd %xmm4, %xmm0 ja .LBB0_476 .align 16, 0x90 .LBB0_473: vucomisd %xmm6, %xmm1 ja .LBB0_475 vmovapd %xmm5, %xmm2 .LBB0_475: vmovapd %xmm2, %xmm0 .LBB0_476: vmulsd %xmm14, %xmm12, %xmm1 vmovsd 1592(%rbx), %xmm2 vaddsd %xmm1, %xmm2, %xmm11 vmovsd 1272(%rbx), %xmm1 vmulsd %xmm14, %xmm1, %xmm1 vmovsd 1288(%rbx), %xmm2 vaddsd %xmm1, %xmm2, %xmm14 vmulsd .LCPI0_6(%rip), %xmm7, %xmm1 vmovsd 1264(%rbx), %xmm2 vaddsd %xmm1, %xmm2, %xmm1 vmovsd 1248(%rbx), %xmm2 vmulsd .LCPI0_6(%rip), %xmm2, %xmm2 vmovsd 1256(%rbx), %xmm4 vaddsd %xmm2, %xmm4, %xmm6 vmovsd 1048(%rbx), %xmm2 vmulsd .LCPI0_6(%rip), %xmm2, %xmm2 vmovsd 1072(%rbx), %xmm4 vaddsd %xmm2, %xmm4, %xmm2 vmulsd .LCPI0_6(%rip), %xmm10, %xmm7 vmovsd 1056(%rbx), %xmm4 vaddsd %xmm7, %xmm4, %xmm10 vmulsd .LCPI0_6(%rip), %xmm3, %xmm3 vaddsd %xmm3, %xmm13, %xmm12 vmulsd .LCPI0_6(%rip), %xmm9, %xmm3 vaddsd %xmm3, %xmm15, %xmm15 vxorps %xmm4, %xmm4, %xmm4 vmulsd %xmm4, %xmm1, %xmm3 vmulsd %xmm3, %xmm2, %xmm7 vmulsd %xmm3, %xmm6, %xmm3 vaddsd %xmm7, %xmm3, %xmm3 vmulsd %xmm4, %xmm6, %xmm7 vmulsd %xmm7, %xmm2, %xmm7 vaddsd %xmm7, %xmm3, %xmm3 vaddsd %xmm3, %xmm3, %xmm3 vmulsd %xmm6, %xmm6, %xmm7 vmulsd %xmm1, %xmm1, %xmm5 vmovsd .LCPI0_0(%rip), %xmm4 vaddsd %xmm4, %xmm5, %xmm5 vaddsd %xmm7, %xmm5, %xmm7 vmulsd %xmm2, %xmm2, %xmm5 vaddsd %xmm5, %xmm7, %xmm5 vaddsd %xmm3, %xmm5, %xmm3 vmulsd .LCPI0_6(%rip), %xmm0, %xmm0 vmovsd .LCPI0_1(%rip), %xmm4 vmaxsd %xmm14, %xmm4, %xmm5 vmovsd %xmm5, 1248(%rbx) vmaxsd %xmm11, %xmm4, %xmm4 vmovsd %xmm4, 1592(%rbx) vaddsd %xmm0, %xmm8, %xmm0 vmovsd %xmm0, 1264(%rbx) vmovq %xmm3, %xmm0 vsqrtpd %xmm0, %xmm0 vmovsd 1720(%rbx), %xmm3 vdivsd %xmm3, %xmm0, %xmm13 vmovsd %xmm13, 1032(%rbx) vmulsd .LCPI0_3(%rip), %xmm0, %xmm0 vmulsd %xmm3, %xmm0, %xmm0 vsubsd %xmm0, %xmm2, %xmm4 vmovsd %xmm4, 1256(%rbx) vsubsd %xmm0, %xmm1, %xmm2 vmovsd %xmm2, 1072(%rbx) vsubsd %xmm0, %xmm6, %xmm0 vmovsd %xmm0, 1288(%rbx) vxorps %xmm1, %xmm1, %xmm1 vmulsd %xmm1, %xmm0, %xmm11 vmovaps %xmm0, %xmm3 vmovsd %xmm11, 616(%rbx) vmulsd %xmm1, %xmm13, %xmm0 vxorps %xmm6, %xmm6, %xmm6 vaddsd %xmm2, %xmm0, %xmm1 vaddsd %xmm11, %xmm1, %xmm1 vmulsd %xmm6, %xmm4, %xmm7 vmovsd %xmm7, 592(%rbx) vaddsd %xmm7, %xmm1, %xmm5 vmovsd %xmm5, 1056(%rbx) vmulsd %xmm6, %xmm2, %xmm8 vmovaps %xmm2, %xmm6 vmovsd %xmm8, 584(%rbx) vaddsd %xmm8, %xmm0, %xmm0 vaddsd %xmm3, %xmm0, %xmm1 vaddsd %xmm7, %xmm1, %xmm1 vmovsd %xmm1, 1280(%rbx) vmulsd %xmm1, %xmm12, %xmm1 vmovaps %xmm12, %xmm9 vmulsd %xmm5, %xmm10, %xmm2 vmovaps %xmm10, %xmm14 vaddsd %xmm1, %xmm2, %xmm1 vaddsd %xmm11, %xmm0, %xmm0 vaddsd %xmm4, %xmm0, %xmm0 vmovsd %xmm0, 1048(%rbx) vmulsd %xmm0, %xmm15, %xmm0 vaddsd %xmm0, %xmm1, %xmm12 vmovsd %xmm12, 1024(%rbx) movabsq $-4616189618054758400, %rax movq %rax, 1384(%r13,%rdx) vxorps %xmm0, %xmm0, %xmm0 vmovups %xmm0, 16(%rdi) vmovups %xmm0, (%rdi) movabsq $4607182418800017408, %r15 movq %r15, 1424(%r13,%rdx) vmovups %xmm0, 16(%rsi) vmovups %xmm0, (%rsi) movq %r15, 1464(%r13,%rdx) movq 1776(%rbx), %rcx vmovups %xmm0, 16(%rcx) vmovups %xmm0, (%rcx) movq %r15, 1504(%r13,%rdx) movq %rax, 1256(%r13,%rdx) movabsq $-9223372036854775808, %rax movq %rax, 1264(%r13,%rdx) movq %rax, 1272(%r13,%rdx) movq %rax, 1280(%r13,%rdx) movq %rax, 1288(%r13,%rdx) movq %r15, 1296(%r13,%rdx) movq %rax, 1304(%r13,%rdx) movq %rax, 1312(%r13,%rdx) movq %rax, 1320(%r13,%rdx) movq %rax, 1328(%r13,%rdx) movq %r15, 1336(%r13,%rdx) movq %rax, 1344(%r13,%rdx) movq %rax, 1352(%r13,%rdx) movq %rax, 1360(%r13,%rdx) movq %rax, 1368(%r13,%rdx) movq %r15, 1376(%r13,%rdx) vmulsd %xmm3, %xmm12, %xmm0 vmovsd %xmm0, 576(%rbx) vaddsd %xmm0, %xmm9, %xmm0 vmulsd %xmm4, %xmm12, %xmm1 vmovsd %xmm1, 568(%rbx) vaddsd %xmm1, %xmm15, %xmm1 vdivsd %xmm13, %xmm1, %xmm9 vmovsd %xmm9, 560(%rbx) vdivsd %xmm13, %xmm0, %xmm4 vmovsd %xmm4, 1272(%rbx) vmulsd %xmm6, %xmm12, %xmm0 vmovaps %xmm6, %xmm10 vmovsd %xmm0, 544(%rbx) vaddsd %xmm0, %xmm14, %xmm0 vdivsd %xmm13, %xmm0, %xmm14 vmovsd %xmm14, 536(%rbx) vxorps %xmm1, %xmm1, %xmm1 vmulsd %xmm1, %xmm12, %xmm0 vmulsd %xmm1, %xmm14, %xmm1 vxorps %xmm6, %xmm6, %xmm6 vaddsd %xmm1, %xmm0, %xmm2 vsubsd %xmm12, %xmm1, %xmm3 vaddsd %xmm14, %xmm0, %xmm1 vmulsd %xmm6, %xmm4, %xmm0 vaddsd %xmm0, %xmm1, %xmm1 vaddsd %xmm0, %xmm3, %xmm3 vaddsd %xmm0, %xmm2, %xmm0 vmovsd %xmm0, 632(%rbx) vaddsd %xmm4, %xmm2, %xmm2 vmovaps %xmm4, %xmm5 vmulsd (%rcx), %xmm9, %xmm4 vaddsd %xmm4, %xmm2, %xmm0 vmovsd %xmm0, 376(%rbx) vmulsd %xmm6, %xmm9, %xmm2 vaddsd %xmm2, %xmm3, %xmm4 vmovsd %xmm4, 400(%rbx) vaddsd %xmm2, %xmm1, %xmm3 vmovsd %xmm3, 384(%rbx) vmovsd 1248(%rbx), %xmm15 vmovsd 1592(%rbx), %xmm1 vaddsd %xmm15, %xmm1, %xmm1 vmulsd .LCPI0_5(%rip), %xmm15, %xmm6 vmovsd %xmm6, 528(%rbx) vaddsd %xmm1, %xmm6, %xmm1 vsubsd %xmm13, %xmm8, %xmm2 vaddsd %xmm11, %xmm2, %xmm2 vaddsd %xmm7, %xmm2, %xmm8 vmovsd %xmm8, 352(%rbx) vmulsd %xmm3, %xmm14, %xmm2 vmovsd %xmm2, 1008(%rbx) vmulsd %xmm4, %xmm12, %xmm3 vmovsd %xmm3, 624(%rbx) vaddsd %xmm2, %xmm3, %xmm3 vmulsd %xmm0, %xmm5, %xmm2 vmovsd %xmm2, 1016(%rbx) vaddsd %xmm2, %xmm3, %xmm3 vmovsd 632(%rbx), %xmm0 vaddsd %xmm9, %xmm0, %xmm0 vmovsd %xmm0, 368(%rbx) vmulsd %xmm0, %xmm9, %xmm0 vmovsd %xmm0, 632(%rbx) vaddsd %xmm0, %xmm3, %xmm3 vmovsd %xmm3, 520(%rbx) vmovsd .LCPI0_4(%rip), %xmm0 vmaxsd %xmm3, %xmm0, %xmm0 vmovaps %xmm0, 496(%rbx) vaddsd %xmm1, %xmm0, %xmm4 vmulsd .LCPI0_6(%rip), %xmm0, %xmm0 vaddsd %xmm0, %xmm6, %xmm0 vmovsd 1288(%rbx), %xmm1 vmulsd %xmm4, %xmm1, %xmm1 vmulsd %xmm4, %xmm10, %xmm11 vmulsd %xmm4, %xmm13, %xmm3 vmovsd 1256(%rbx), %xmm2 vmulsd %xmm4, %xmm2, %xmm5 vmovsd 1048(%rbx), %xmm7 vmulsd %xmm5, %xmm7, %xmm10 vmovsd 1280(%rbx), %xmm2 vmulsd %xmm5, %xmm2, %xmm6 vmovsd %xmm6, 424(%rbx) vmovsd 1056(%rbx), %xmm6 vmulsd %xmm5, %xmm6, %xmm4 vmovsd %xmm4, 448(%rbx) vmulsd %xmm5, %xmm8, %xmm15 vmulsd %xmm3, %xmm8, %xmm5 vaddsd %xmm5, %xmm0, %xmm5 vmovsd %xmm5, 440(%rbx) vaddsd %xmm10, %xmm0, %xmm4 vmovsd %xmm4, 512(%rbx) vmulsd %xmm11, %xmm6, %xmm4 vaddsd %xmm4, %xmm0, %xmm4 vmovsd %xmm4, 464(%rbx) vmulsd %xmm1, %xmm2, %xmm4 vaddsd %xmm4, %xmm0, %xmm4 vmovsd %xmm4, 488(%rbx) vmulsd .LCPI0_24, %xmm0, %xmm0 vmulsd %xmm1, %xmm7, %xmm10 vmulsd %xmm1, %xmm6, %xmm4 vmovsd %xmm4, 408(%rbx) vmulsd %xmm1, %xmm8, %xmm1 vmovsd %xmm1, 392(%rbx) vmulsd %xmm3, %xmm6, %xmm5 vmulsd %xmm3, %xmm2, %xmm4 vmovaps %xmm2, %xmm6 vmovaps %xmm7, %xmm2 vmulsd %xmm3, %xmm2, %xmm1 vaddsd %xmm5, %xmm0, %xmm3 vaddsd %xmm15, %xmm0, %xmm5 vmovsd %xmm5, 432(%rbx) vaddsd 448(%rbx), %xmm0, %xmm5 vmovsd %xmm5, 448(%rbx) vaddsd 424(%rbx), %xmm0, %xmm5 vmovsd %xmm5, 416(%rbx) vaddsd %xmm10, %xmm0, %xmm5 vmovsd %xmm5, 320(%rbx) vmulsd %xmm11, %xmm8, %xmm5 vaddsd %xmm5, %xmm0, %xmm10 vaddsd %xmm1, %xmm0, %xmm1 vaddsd %xmm4, %xmm0, %xmm15 vmulsd %xmm11, %xmm2, %xmm5 vmulsd %xmm11, %xmm6, %xmm7 vaddsd %xmm7, %xmm0, %xmm2 vmovsd %xmm2, 336(%rbx) vaddsd %xmm5, %xmm0, %xmm2 vmovsd %xmm2, 328(%rbx) vaddsd 392(%rbx), %xmm0, %xmm11 vaddsd 408(%rbx), %xmm0, %xmm6 vmovsd 440(%rbx), %xmm0 vsubsd 624(%rbx), %xmm0, %xmm8 vmovsd 384(%rbx), %xmm7 vmulsd %xmm7, %xmm12, %xmm5 vsubsd %xmm5, %xmm3, %xmm0 vmovsd %xmm0, 344(%rbx) vmovsd 376(%rbx), %xmm4 vmulsd %xmm4, %xmm12, %xmm3 vsubsd %xmm3, %xmm15, %xmm0 vmovsd %xmm0, 360(%rbx) vmovsd 368(%rbx), %xmm5 vmulsd %xmm5, %xmm12, %xmm3 vsubsd %xmm3, %xmm1, %xmm0 vmovsd %xmm0, 392(%rbx) vmovsd 464(%rbx), %xmm0 vsubsd 1008(%rbx), %xmm0, %xmm0 vmovsd %xmm0, 424(%rbx) vmovsd 400(%rbx), %xmm0 vmulsd %xmm0, %xmm14, %xmm1 vsubsd %xmm1, %xmm10, %xmm1 vmovsd %xmm1, 408(%rbx) vmovsd 1272(%rbx), %xmm2 vmulsd %xmm5, %xmm2, %xmm1 vmovaps %xmm5, %xmm10 vmovsd 320(%rbx), %xmm3 vsubsd %xmm1, %xmm3, %xmm1 vmovsd %xmm1, 440(%rbx) vmovsd 512(%rbx), %xmm1 vsubsd 632(%rbx), %xmm1, %xmm1 vmovsd %xmm1, 632(%rbx) vmulsd %xmm4, %xmm9, %xmm1 vmovsd 416(%rbx), %xmm3 vsubsd %xmm1, %xmm3, %xmm1 vmovsd %xmm1, 512(%rbx) vmovaps %xmm7, %xmm3 vmulsd %xmm3, %xmm9, %xmm1 vmovsd 448(%rbx), %xmm5 vsubsd %xmm1, %xmm5, %xmm1 vmovsd %xmm1, 448(%rbx) vmovaps %xmm0, %xmm5 vmulsd %xmm5, %xmm9, %xmm1 vmovsd 432(%rbx), %xmm0 vsubsd %xmm1, %xmm0, %xmm0 vmovsd %xmm0, 416(%rbx) vmovsd 488(%rbx), %xmm0 vsubsd 1016(%rbx), %xmm0, %xmm1 vmovsd %xmm1, 1008(%rbx) vmulsd %xmm3, %xmm2, %xmm1 vsubsd %xmm1, %xmm6, %xmm0 vmovsd %xmm0, 624(%rbx) vmulsd %xmm5, %xmm2, %xmm1 vsubsd %xmm1, %xmm11, %xmm0 vmovsd %xmm0, 488(%rbx) vmulsd %xmm10, %xmm14, %xmm1 vmovsd 328(%rbx), %xmm0 vsubsd %xmm1, %xmm0, %xmm0 vmovsd %xmm0, 432(%rbx) vmulsd %xmm4, %xmm14, %xmm1 vmovsd 336(%rbx), %xmm0 vsubsd %xmm1, %xmm0, %xmm1 vmovsd %xmm1, 1016(%rbx) vmovq 496(%rbx), %xmm1 vsqrtpd %xmm1, %xmm6 vmovapd %xmm6, 464(%rbx) vmovsd 1264(%rbx), %xmm2 vmulsd %xmm2, %xmm12, %xmm1 vdivsd %xmm6, %xmm1, %xmm7 vmovsd 352(%rbx), %xmm11 vmulsd %xmm7, %xmm11, %xmm1 vaddsd %xmm1, %xmm8, %xmm0 vmulsd %xmm2, %xmm5, %xmm1 vdivsd %xmm6, %xmm1, %xmm5 vmovsd %xmm5, 336(%rbx) vmulsd %xmm5, %xmm13, %xmm1 vmovaps %xmm5, %xmm12 vaddsd %xmm1, %xmm0, %xmm0 vmovsd %xmm0, 1512(%r13,%rdx) vmovsd 1056(%rbx), %xmm5 vmulsd %xmm7, %xmm5, %xmm0 vmovsd 344(%rbx), %xmm1 vaddsd %xmm0, %xmm1, %xmm0 vmulsd %xmm2, %xmm3, %xmm1 vdivsd %xmm6, %xmm1, %xmm8 vmulsd %xmm8, %xmm13, %xmm1 vaddsd %xmm1, %xmm0, %xmm0 vmovsd %xmm0, 1520(%r13,%rdx) vmovsd 1280(%rbx), %xmm15 vmulsd %xmm7, %xmm15, %xmm0 vmovsd 360(%rbx), %xmm1 vaddsd %xmm0, %xmm1, %xmm0 vmulsd %xmm2, %xmm4, %xmm1 vdivsd %xmm6, %xmm1, %xmm1 vmovsd %xmm1, 400(%rbx) vmulsd %xmm1, %xmm13, %xmm1 vaddsd %xmm1, %xmm0, %xmm0 vmovsd %xmm0, 1528(%r13,%rdx) vmovsd 1048(%rbx), %xmm4 vmulsd %xmm7, %xmm4, %xmm0 vmovsd 392(%rbx), %xmm1 vaddsd %xmm0, %xmm1, %xmm0 vmulsd %xmm2, %xmm10, %xmm1 vdivsd %xmm6, %xmm1, %xmm10 vmulsd %xmm10, %xmm13, %xmm1 vaddsd %xmm1, %xmm0, %xmm0 vmovsd %xmm0, 1536(%r13,%rdx) vmulsd %xmm2, %xmm14, %xmm0 vdivsd %xmm6, %xmm0, %xmm13 vmulsd %xmm13, %xmm11, %xmm0 vmovsd 408(%rbx), %xmm1 vaddsd %xmm0, %xmm1, %xmm0 vmovsd 1072(%rbx), %xmm7 vmulsd %xmm12, %xmm7, %xmm1 vaddsd %xmm1, %xmm0, %xmm0 vmulsd %xmm13, %xmm5, %xmm1 vmovsd 424(%rbx), %xmm3 vaddsd %xmm1, %xmm3, %xmm1 vmovsd %xmm1, 424(%rbx) vmovsd %xmm0, 1544(%r13,%rdx) vmovsd 1272(%rbx), %xmm0 vmulsd %xmm2, %xmm0, %xmm0 vdivsd %xmm6, %xmm0, %xmm0 vmulsd %xmm0, %xmm4, %xmm1 vmovsd 440(%rbx), %xmm3 vaddsd %xmm1, %xmm3, %xmm1 vmovsd %xmm1, 496(%rbx) vmulsd %xmm2, %xmm9, %xmm1 vdivsd %xmm6, %xmm1, %xmm1 vmulsd %xmm1, %xmm11, %xmm6 vmovsd 416(%rbx), %xmm2 vaddsd %xmm6, %xmm2, %xmm2 vmovsd %xmm2, 440(%rbx) vmulsd %xmm1, %xmm5, %xmm6 vmovsd 448(%rbx), %xmm2 vaddsd %xmm6, %xmm2, %xmm2 vmovsd %xmm2, 448(%rbx) vmulsd %xmm1, %xmm15, %xmm6 vmovaps %xmm15, %xmm3 vmovsd 512(%rbx), %xmm2 vaddsd %xmm6, %xmm2, %xmm14 vmulsd %xmm1, %xmm4, %xmm1 vmovsd 632(%rbx), %xmm2 vaddsd %xmm1, %xmm2, %xmm2 vmulsd %xmm8, %xmm7, %xmm6 vmovaps %xmm7, %xmm12 vmovsd 424(%rbx), %xmm1 vaddsd %xmm6, %xmm1, %xmm6 vmulsd %xmm13, %xmm4, %xmm1 vmovsd 432(%rbx), %xmm4 vaddsd %xmm1, %xmm4, %xmm1 vmovsd %xmm1, 632(%rbx) vmulsd %xmm0, %xmm11, %xmm1 vmovsd 488(%rbx), %xmm4 vaddsd %xmm1, %xmm4, %xmm11 vmulsd %xmm0, %xmm5, %xmm1 vmovsd 624(%rbx), %xmm4 vaddsd %xmm1, %xmm4, %xmm4 vmulsd %xmm0, %xmm3, %xmm0 vmovsd 1008(%rbx), %xmm1 vaddsd %xmm0, %xmm1, %xmm9 vmovsd %xmm6, 1552(%r13,%rdx) vmovsd 1256(%rbx), %xmm1 vmulsd %xmm10, %xmm1, %xmm0 vaddsd %xmm0, %xmm2, %xmm0 vmovsd %xmm0, 1056(%rbx) vmovsd 400(%rbx), %xmm5 vmulsd %xmm5, %xmm1, %xmm0 vaddsd %xmm0, %xmm14, %xmm0 vmovsd %xmm0, 1008(%rbx) vmulsd %xmm8, %xmm1, %xmm0 vmovsd 448(%rbx), %xmm2 vaddsd %xmm0, %xmm2, %xmm15 vmovsd 336(%rbx), %xmm2 vmulsd %xmm2, %xmm1, %xmm0 vmovsd 440(%rbx), %xmm1 vaddsd %xmm0, %xmm1, %xmm14 vmovsd 1288(%rbx), %xmm0 vmulsd %xmm10, %xmm0, %xmm6 vmovsd 496(%rbx), %xmm1 vaddsd %xmm6, %xmm1, %xmm1 vmovsd %xmm1, 1048(%rbx) vmulsd %xmm5, %xmm0, %xmm6 vmovaps %xmm5, %xmm7 vaddsd %xmm6, %xmm9, %xmm6 vmovsd %xmm6, 512(%rbx) vmulsd %xmm8, %xmm0, %xmm5 vaddsd %xmm5, %xmm4, %xmm5 vmovsd %xmm5, 496(%rbx) vmulsd %xmm2, %xmm0, %xmm2 vaddsd %xmm2, %xmm11, %xmm0 vmovsd %xmm0, 488(%rbx) vmulsd %xmm10, %xmm12, %xmm2 vmovsd 632(%rbx), %xmm4 vaddsd %xmm2, %xmm4, %xmm2 vmulsd %xmm13, %xmm3, %xmm4 vmovsd 1016(%rbx), %xmm3 vaddsd %xmm4, %xmm3, %xmm4 vmulsd %xmm7, %xmm12, %xmm3 vaddsd %xmm3, %xmm4, %xmm3 vmovsd %xmm3, 1560(%r13,%rdx) vmovsd %xmm2, 1568(%r13,%rdx) vmovsd %xmm0, 1576(%r13,%rdx) vmovsd %xmm5, 1584(%r13,%rdx) vmovsd %xmm6, 1592(%r13,%rdx) vmovsd %xmm1, 1600(%r13,%rdx) vmovsd %xmm14, 1608(%r13,%rdx) vmovsd .LCPI0_6(%rip), %xmm14 vmovsd %xmm15, 1616(%r13,%rdx) vmovsd 1008(%rbx), %xmm0 vmovsd %xmm0, 1624(%r13,%rdx) vmovsd 1056(%rbx), %xmm0 vmovsd %xmm0, 1632(%r13,%rdx) vmovaps 1728(%rbx), %xmm1 vmulsd 1536(%r13,%rdx), %xmm1, %xmm0 vmovsd %xmm0, 1016(%rbx) vmulsd 1528(%r13,%rdx), %xmm1, %xmm0 vmovsd %xmm0, 1008(%rbx) vmulsd 1520(%r13,%rdx), %xmm1, %xmm0 vmovsd %xmm0, 632(%rbx) vmulsd 1512(%r13,%rdx), %xmm1, %xmm0 vmovsd %xmm0, 624(%rbx) vmovsd 1592(%rbx), %xmm0 vmovsd .LCPI0_8(%rip), %xmm1 movq %rdx, %r12 callq __ocl_svml_e9_pow1 vmovsd 1248(%rbx), %xmm1 vmulsd %xmm0, %xmm1, %xmm0 callq __ocl_svml_e9_log1 vmovsd %xmm0, 328(%rbx) vmovsd 1264(%rbx), %xmm0 vmovsd .LCPI0_10(%rip), %xmm1 callq __ocl_svml_e9_pow1 movq %r12, %rdx vmovsd %xmm0, 336(%rbx) movq 1696(%rbx), %rax vxorps %xmm0, %xmm0, %xmm0 vmovups %xmm0, 16(%rax) vmovups %xmm0, (%rax) movq %r15, 1240(%r13,%rdx) vxorps %xmm1, %xmm1, %xmm1 vmulsd 1264(%r13,%rdx), %xmm1, %xmm12 vmovsd 1256(%r13,%rdx), %xmm13 vmovsd 1272(%r13,%rdx), %xmm0 vmovsd %xmm0, 304(%rbx) vmulsd 1328(%r13,%rdx), %xmm1, %xmm0 vmovsd %xmm0, 408(%rbx) vmovsd 1320(%r13,%rdx), %xmm0 vmovsd %xmm0, 384(%rbx) vmovsd 1336(%r13,%rdx), %xmm0 vmovsd %xmm0, 392(%rbx) vmulsd 1296(%r13,%rdx), %xmm1, %xmm0 vmovsd %xmm0, 376(%rbx) vmovsd 1288(%r13,%rdx), %xmm0 vmovsd %xmm0, 360(%rbx) vmovsd 1304(%r13,%rdx), %xmm0 vmovsd %xmm0, 352(%rbx) vmulsd 1312(%r13,%rdx), %xmm1, %xmm0 vmovsd %xmm0, 368(%rbx) vmulsd 1280(%r13,%rdx), %xmm1, %xmm0 vmovsd %xmm0, 344(%rbx) vmulsd 1344(%r13,%rdx), %xmm1, %xmm0 vmovsd %xmm0, 400(%rbx) vmulsd 1360(%r13,%rdx), %xmm1, %xmm0 vmovsd %xmm0, 440(%rbx) vmovsd 1352(%r13,%rdx), %xmm0 vmovsd %xmm0, 424(%rbx) vmovsd 1368(%r13,%rdx), %xmm0 vmovsd %xmm0, 416(%rbx) vmulsd 1376(%r13,%rdx), %xmm1, %xmm0 vxorpd %xmm5, %xmm5, %xmm5 vmovsd %xmm0, 432(%rbx) movl 72(%r13,%rdx), %eax movl 1584(%rbx), %esi leal 48(%rsi,%rax), %eax movslq %eax, %rax vmovsd 1792(%rbx,%rax,8), %xmm2 movq 1680(%rbx), %rax vmovsd 1792(%rbx,%rax,8), %xmm3 movq 1000(%rbx), %rax vmovsd 1792(%rbx,%rax,8), %xmm1 vmovsd %xmm1, 1000(%rbx) vsubsd %xmm1, %xmm2, %xmm0 vsubsd %xmm3, %xmm1, %xmm1 vaddsd %xmm1, %xmm1, %xmm1 vaddsd %xmm0, %xmm0, %xmm0 vmulsd %xmm0, %xmm1, %xmm4 vucomisd %xmm4, %xmm5 vxorpd %xmm6, %xmm6, %xmm6 vxorpd %xmm5, %xmm5, %xmm5 jae .LBB0_482 vsubsd %xmm3, %xmm2, %xmm2 vmulsd %xmm14, %xmm2, %xmm2 vmovd %xmm2, %rax andq %r14, %rax vmovd %xmm1, %rcx vmovd %rax, %xmm3 andq %r14, %rcx vmovd %rcx, %xmm5 vmovd %xmm0, %rax andq %r14, %rax vmovd %rax, %xmm4 vucomisd %xmm5, %xmm4 jbe .LBB0_479 vucomisd %xmm5, %xmm3 vmovapd %xmm1, %xmm5 ja .LBB0_482 .align 16, 0x90 .LBB0_479: vucomisd %xmm4, %xmm3 ja .LBB0_481 vmovapd %xmm2, %xmm0 .LBB0_481: vmovapd %xmm0, %xmm5 .LBB0_482: vmovsd %xmm5, 448(%rbx) movl 72(%r13,%rdx), %eax leal 192(%rsi,%rax), %eax movq 1672(%rbx), %rcx vmovsd 1792(%rbx,%rcx,8), %xmm2 movq 992(%rbx), %rcx vmovsd 1792(%rbx,%rcx,8), %xmm4 vmovsd %xmm4, 992(%rbx) vsubsd %xmm2, %xmm4, %xmm0 vaddsd %xmm0, %xmm0, %xmm1 movslq %eax, %rax vmovsd 1792(%rbx,%rax,8), %xmm3 vsubsd %xmm4, %xmm3, %xmm0 vaddsd %xmm0, %xmm0, %xmm0 vmulsd %xmm0, %xmm1, %xmm4 vucomisd %xmm4, %xmm6 vxorpd %xmm5, %xmm5, %xmm5 vmovsd 1040(%rbx), %xmm7 jae .LBB0_488 vsubsd %xmm2, %xmm3, %xmm2 vmulsd %xmm14, %xmm2, %xmm2 vmovd %xmm2, %rax andq %r14, %rax vmovd %xmm1, %rcx vmovd %rax, %xmm3 andq %r14, %rcx vmovd %rcx, %xmm5 vmovd %xmm0, %rax andq %r14, %rax vmovd %rax, %xmm4 vucomisd %xmm5, %xmm4 jbe .LBB0_485 vucomisd %xmm5, %xmm3 vmovapd %xmm1, %xmm5 ja .LBB0_488 .align 16, 0x90 .LBB0_485: vucomisd %xmm4, %xmm3 ja .LBB0_487 vmovapd %xmm2, %xmm0 .LBB0_487: vmovapd %xmm0, %xmm5 .LBB0_488: vmovsd %xmm5, 320(%rbx) movl 72(%r13,%rdx), %eax leal 336(%rsi,%rax), %eax movq 1664(%rbx), %rcx vmovsd 1792(%rbx,%rcx,8), %xmm2 movq 984(%rbx), %rcx vmovsd 1792(%rbx,%rcx,8), %xmm4 vmovsd %xmm4, 312(%rbx) vsubsd %xmm2, %xmm4, %xmm0 vaddsd %xmm0, %xmm0, %xmm1 movslq %eax, %rax vmovsd 1792(%rbx,%rax,8), %xmm3 vsubsd %xmm4, %xmm3, %xmm0 vaddsd %xmm0, %xmm0, %xmm0 vmulsd %xmm0, %xmm1, %xmm4 vxorpd %xmm6, %xmm6, %xmm6 vucomisd %xmm4, %xmm6 vxorpd %xmm5, %xmm5, %xmm5 movq 1768(%rbx), %r8 movq 1760(%rbx), %rdi jae .LBB0_494 vsubsd %xmm2, %xmm3, %xmm2 vmulsd %xmm14, %xmm2, %xmm2 vmovd %xmm2, %rax andq %r14, %rax vmovd %xmm1, %rcx vmovd %rax, %xmm3 andq %r14, %rcx vmovd %rcx, %xmm5 vmovd %xmm0, %rax andq %r14, %rax vmovd %rax, %xmm4 vucomisd %xmm5, %xmm4 jbe .LBB0_491 vucomisd %xmm5, %xmm3 vmovapd %xmm1, %xmm5 ja .LBB0_494 .align 16, 0x90 .LBB0_491: vucomisd %xmm4, %xmm3 ja .LBB0_493 vmovapd %xmm2, %xmm0 .LBB0_493: vmovapd %xmm0, %xmm5 .LBB0_494: vmovsd %xmm5, 288(%rbx) movl 72(%r13,%rdx), %eax leal 480(%rsi,%rax), %eax movq 1656(%rbx), %rcx vmovsd 1792(%rbx,%rcx,8), %xmm2 movq 976(%rbx), %rcx vmovsd 1792(%rbx,%rcx,8), %xmm4 vmovsd %xmm4, 280(%rbx) vsubsd %xmm2, %xmm4, %xmm0 vaddsd %xmm0, %xmm0, %xmm1 movslq %eax, %rax vmovsd 1792(%rbx,%rax,8), %xmm3 vsubsd %xmm4, %xmm3, %xmm0 vaddsd %xmm0, %xmm0, %xmm0 vmulsd %xmm0, %xmm1, %xmm4 vucomisd %xmm4, %xmm6 jae .LBB0_500 vsubsd %xmm2, %xmm3, %xmm2 vmulsd %xmm14, %xmm2, %xmm2 vmovd %xmm2, %rax andq %r14, %rax vmovd %xmm1, %rcx vmovd %rax, %xmm3 andq %r14, %rcx vmovd %rcx, %xmm5 vmovd %xmm0, %rax andq %r14, %rax vmovd %rax, %xmm4 vucomisd %xmm5, %xmm4 jbe .LBB0_497 vucomisd %xmm5, %xmm3 vmovapd %xmm1, %xmm6 ja .LBB0_500 .align 16, 0x90 .LBB0_497: vucomisd %xmm4, %xmm3 ja .LBB0_499 vmovapd %xmm2, %xmm0 .LBB0_499: vmovapd %xmm0, %xmm6 .LBB0_500: vmovsd %xmm6, 296(%rbx) movl 72(%r13,%rdx), %eax leal 624(%rsi,%rax), %eax movq 1648(%rbx), %rcx vmovsd 1792(%rbx,%rcx,8), %xmm2 movq 968(%rbx), %rcx vmovsd 1792(%rbx,%rcx,8), %xmm4 vmovsd %xmm4, 272(%rbx) vsubsd %xmm2, %xmm4, %xmm0 vaddsd %xmm0, %xmm0, %xmm1 movslq %eax, %rax vmovsd 1792(%rbx,%rax,8), %xmm3 vsubsd %xmm4, %xmm3, %xmm0 vaddsd %xmm0, %xmm0, %xmm0 vmulsd %xmm0, %xmm1, %xmm4 vxorpd %xmm6, %xmm6, %xmm6 vucomisd %xmm4, %xmm6 vxorpd %xmm5, %xmm5, %xmm5 jae .LBB0_506 vsubsd %xmm2, %xmm3, %xmm2 vmulsd %xmm14, %xmm2, %xmm2 vmovd %xmm2, %rax andq %r14, %rax vmovd %xmm1, %rcx vmovd %rax, %xmm3 andq %r14, %rcx vmovd %rcx, %xmm5 vmovd %xmm0, %rax andq %r14, %rax vmovd %rax, %xmm4 vucomisd %xmm5, %xmm4 jbe .LBB0_503 vucomisd %xmm5, %xmm3 vmovapd %xmm1, %xmm5 ja .LBB0_506 .align 16, 0x90 .LBB0_503: vucomisd %xmm4, %xmm3 ja .LBB0_505 vmovapd %xmm2, %xmm0 .LBB0_505: vmovapd %xmm0, %xmm5 .LBB0_506: vmovsd %xmm5, 256(%rbx) movl 72(%r13,%rdx), %eax leal 768(%rsi,%rax), %eax movq 1640(%rbx), %rcx vmovsd 1792(%rbx,%rcx,8), %xmm2 movq 944(%rbx), %rcx vmovsd 1792(%rbx,%rcx,8), %xmm4 vmovsd %xmm4, 248(%rbx) vsubsd %xmm2, %xmm4, %xmm0 vaddsd %xmm0, %xmm0, %xmm1 movslq %eax, %rax vmovsd 1792(%rbx,%rax,8), %xmm3 vsubsd %xmm4, %xmm3, %xmm0 vaddsd %xmm0, %xmm0, %xmm0 vmulsd %xmm0, %xmm1, %xmm4 vucomisd %xmm4, %xmm6 jae .LBB0_512 vsubsd %xmm2, %xmm3, %xmm2 vmulsd %xmm14, %xmm2, %xmm2 vmovd %xmm2, %rax andq %r14, %rax vmovd %xmm1, %rcx vmovd %rax, %xmm3 andq %r14, %rcx vmovd %rcx, %xmm5 vmovd %xmm0, %rax andq %r14, %rax vmovd %rax, %xmm4 vucomisd %xmm5, %xmm4 jbe .LBB0_509 vucomisd %xmm5, %xmm3 vmovapd %xmm1, %xmm6 ja .LBB0_512 .align 16, 0x90 .LBB0_509: vucomisd %xmm4, %xmm3 ja .LBB0_511 vmovapd %xmm2, %xmm0 .LBB0_511: vmovapd %xmm0, %xmm6 .LBB0_512: vmovsd %xmm6, 264(%rbx) movl 72(%r13,%rdx), %eax leal 912(%rsi,%rax), %eax movq 1632(%rbx), %rcx vmovsd 1792(%rbx,%rcx,8), %xmm2 movq 936(%rbx), %rcx vmovsd 1792(%rbx,%rcx,8), %xmm4 vmovsd %xmm4, 240(%rbx) vsubsd %xmm2, %xmm4, %xmm0 vaddsd %xmm0, %xmm0, %xmm1 movslq %eax, %rax vmovsd 1792(%rbx,%rax,8), %xmm3 vsubsd %xmm4, %xmm3, %xmm0 vaddsd %xmm0, %xmm0, %xmm0 vmulsd %xmm0, %xmm1, %xmm4 vxorpd %xmm6, %xmm6, %xmm6 vucomisd %xmm4, %xmm6 vxorpd %xmm5, %xmm5, %xmm5 jae .LBB0_518 vsubsd %xmm2, %xmm3, %xmm2 vmulsd %xmm14, %xmm2, %xmm2 vmovd %xmm2, %rax andq %r14, %rax vmovd %xmm1, %rcx vmovd %rax, %xmm3 andq %r14, %rcx vmovd %rcx, %xmm5 vmovd %xmm0, %rax andq %r14, %rax vmovd %rax, %xmm4 vucomisd %xmm5, %xmm4 jbe .LBB0_515 vucomisd %xmm5, %xmm3 vmovapd %xmm1, %xmm5 ja .LBB0_518 .align 16, 0x90 .LBB0_515: vucomisd %xmm4, %xmm3 ja .LBB0_517 vmovapd %xmm2, %xmm0 .LBB0_517: vmovapd %xmm0, %xmm5 .LBB0_518: vmovsd %xmm5, 224(%rbx) movl 72(%r13,%rdx), %eax leal 1056(%rsi,%rax), %eax movq 1624(%rbx), %rcx vmovsd 1792(%rbx,%rcx,8), %xmm2 movq 928(%rbx), %rcx vmovsd 1792(%rbx,%rcx,8), %xmm4 vmovsd %xmm4, 216(%rbx) vsubsd %xmm2, %xmm4, %xmm0 vaddsd %xmm0, %xmm0, %xmm1 movslq %eax, %rax vmovsd 1792(%rbx,%rax,8), %xmm3 vsubsd %xmm4, %xmm3, %xmm0 vaddsd %xmm0, %xmm0, %xmm0 vmulsd %xmm0, %xmm1, %xmm4 vucomisd %xmm4, %xmm6 jae .LBB0_524 vsubsd %xmm2, %xmm3, %xmm2 vmulsd %xmm14, %xmm2, %xmm2 vmovd %xmm2, %rax andq %r14, %rax vmovd %xmm1, %rcx vmovd %rax, %xmm3 andq %r14, %rcx vmovd %rcx, %xmm5 vmovd %xmm0, %rax andq %r14, %rax vmovd %rax, %xmm4 vucomisd %xmm5, %xmm4 jbe .LBB0_521 vucomisd %xmm5, %xmm3 vmovapd %xmm1, %xmm6 ja .LBB0_524 .align 16, 0x90 .LBB0_521: vucomisd %xmm4, %xmm3 ja .LBB0_523 vmovapd %xmm2, %xmm0 .LBB0_523: vmovapd %xmm0, %xmm6 .LBB0_524: vmovsd %xmm6, 232(%rbx) movl 72(%r13,%rdx), %eax leal 1200(%rsi,%rax), %eax movq 1616(%rbx), %rcx vmovsd 1792(%rbx,%rcx,8), %xmm2 movq 920(%rbx), %rcx vmovsd 1792(%rbx,%rcx,8), %xmm4 vmovsd %xmm4, 1616(%rbx) vsubsd %xmm2, %xmm4, %xmm0 vaddsd %xmm0, %xmm0, %xmm1 movslq %eax, %rax vmovsd 1792(%rbx,%rax,8), %xmm3 vsubsd %xmm4, %xmm3, %xmm0 vaddsd %xmm0, %xmm0, %xmm0 vmulsd %xmm0, %xmm1, %xmm4 vxorpd %xmm5, %xmm5, %xmm5 vucomisd %xmm4, %xmm5 vxorpd %xmm5, %xmm5, %xmm5 jae .LBB0_530 vsubsd %xmm2, %xmm3, %xmm2 vmulsd %xmm14, %xmm2, %xmm2 vmovd %xmm2, %rax andq %r14, %rax vmovd %xmm1, %rcx vmovd %rax, %xmm3 andq %r14, %rcx vmovd %rcx, %xmm5 vmovd %xmm0, %rax andq %r14, %rax vmovd %rax, %xmm4 vucomisd %xmm5, %xmm4 jbe .LBB0_527 vucomisd %xmm5, %xmm3 vmovapd %xmm1, %xmm5 ja .LBB0_530 .align 16, 0x90 .LBB0_527: vucomisd %xmm4, %xmm3 ja .LBB0_529 vmovapd %xmm2, %xmm0 .LBB0_529: vmovapd %xmm0, %xmm5 .LBB0_530: vmovsd %xmm5, 1584(%rbx) vmulsd 736(%rbx), %xmm7, %xmm9 vmulsd 656(%rbx), %xmm7, %xmm8 vmulsd 664(%rbx), %xmm7, %xmm4 vmulsd 672(%rbx), %xmm7, %xmm5 vmulsd 696(%rbx), %xmm7, %xmm3 vmulsd 792(%rbx), %xmm7, %xmm1 vmulsd 640(%rbx), %xmm7, %xmm0 vmulsd 744(%rbx), %xmm7, %xmm6 vmulsd 752(%rbx), %xmm7, %xmm7 vmovsd 776(%rbx), %xmm2 vsubsd %xmm6, %xmm2, %xmm6 vmovsd 912(%rbx), %xmm2 vsubsd %xmm0, %xmm2, %xmm0 vmovsd 800(%rbx), %xmm2 vsubsd %xmm1, %xmm2, %xmm10 vmovsd 704(%rbx), %xmm1 vsubsd %xmm3, %xmm1, %xmm11 vmovsd 712(%rbx), %xmm1 vsubsd %xmm5, %xmm1, %xmm5 vmovsd 720(%rbx), %xmm1 vsubsd %xmm4, %xmm1, %xmm4 vmovsd 728(%rbx), %xmm1 vsubsd %xmm8, %xmm1, %xmm2 vmovsd 784(%rbx), %xmm1 vsubsd %xmm9, %xmm1, %xmm1 vmovsd 904(%rbx), %xmm3 vsubsd %xmm7, %xmm3, %xmm7 vmulsd %xmm14, %xmm0, %xmm0 vmovsd %xmm0, 1680(%rbx) vmulsd %xmm14, %xmm6, %xmm0 vmovsd %xmm0, 1672(%rbx) vmulsd %xmm14, %xmm7, %xmm0 vmovsd %xmm0, 1664(%rbx) vmulsd %xmm14, %xmm1, %xmm0 vmovsd %xmm0, 1656(%rbx) vmulsd %xmm14, %xmm2, %xmm0 vmovsd %xmm0, 1648(%rbx) vmulsd %xmm14, %xmm4, %xmm0 vmovsd %xmm0, 1640(%rbx) vmulsd %xmm14, %xmm5, %xmm0 vmovsd %xmm0, 1632(%rbx) vmulsd %xmm14, %xmm11, %xmm0 vmovsd %xmm0, 1624(%rbx) vmulsd %xmm14, %xmm10, %xmm0 vmovsd %xmm0, 1056(%rbx) vxorps %xmm15, %xmm15, %xmm15 vmulsd %xmm15, %xmm13, %xmm0 vaddsd %xmm12, %xmm0, %xmm1 vaddsd %xmm12, %xmm13, %xmm9 vmovsd 304(%rbx), %xmm7 vaddsd %xmm7, %xmm1, %xmm14 vmovsd .LCPI0_19(%rip), %xmm1 vmovsd 1248(%rbx), %xmm12 vmulsd %xmm1, %xmm12, %xmm1 vmovsd .LCPI0_20(%rip), %xmm2 vmulsd %xmm2, %xmm12, %xmm2 vmovsd 1592(%rbx), %xmm0 vaddsd %xmm2, %xmm0, %xmm3 vdivsd %xmm3, %xmm1, %xmm1 vmovsd 1032(%rbx), %xmm12 vaddsd 584(%rbx), %xmm12, %xmm3 vaddsd 616(%rbx), %xmm3, %xmm3 vaddsd 592(%rbx), %xmm3, %xmm3 vmovsd %xmm3, 976(%rbx) vmovsd 1272(%rbx), %xmm13 vmulsd 1072(%rbx), %xmm13, %xmm3 vmovsd 1288(%rbx), %xmm8 vmovsd 536(%rbx), %xmm6 vmulsd %xmm8, %xmm6, %xmm4 vsubsd %xmm3, %xmm4, %xmm3 vmovsd %xmm3, 1248(%rbx) vmulsd 1256(%rbx), %xmm13, %xmm3 vmovsd 560(%rbx), %xmm5 vmulsd %xmm8, %xmm5, %xmm4 vsubsd %xmm3, %xmm4, %xmm3 vmovsd %xmm3, 1256(%rbx) vmulsd %xmm12, %xmm6, %xmm3 vsubsd 544(%rbx), %xmm3, %xmm3 vmovsd %xmm3, 1072(%rbx) vmulsd %xmm12, %xmm13, %xmm3 vsubsd 576(%rbx), %xmm3, %xmm3 vmovsd %xmm3, 1040(%rbx) vmulsd %xmm12, %xmm5, %xmm3 vsubsd 568(%rbx), %xmm3, %xmm3 vmovsd %xmm3, 984(%rbx) vmovsd 520(%rbx), %xmm4 vaddsd %xmm4, %xmm0, %xmm3 vaddsd %xmm2, %xmm3, %xmm2 vdivsd %xmm2, %xmm4, %xmm2 vmulsd %xmm1, %xmm2, %xmm4 vaddsd %xmm1, %xmm2, %xmm1 vmovsd 528(%rbx), %xmm2 vdivsd %xmm0, %xmm2, %xmm2 vmovsd 1264(%rbx), %xmm3 vdivsd %xmm2, %xmm3, %xmm5 vmulsd 1024(%rbx), %xmm5, %xmm3 vmulsd %xmm13, %xmm5, %xmm5 vmovaps 464(%rbx), %xmm6 vdivsd %xmm6, %xmm5, %xmm11 vdivsd %xmm6, %xmm3, %xmm3 vsubsd %xmm4, %xmm1, %xmm1 vmovsd %xmm1, 968(%rbx) vmovsd .LCPI0_5(%rip), %xmm4 vdivsd %xmm4, %xmm0, %xmm4 vmulsd 328(%rbx), %xmm4, %xmm4 vmulsd %xmm15, %xmm7, %xmm5 vaddsd %xmm5, %xmm9, %xmm0 vmovsd %xmm0, 928(%rbx) vmovsd 408(%rbx), %xmm6 vmovsd 384(%rbx), %xmm10 vaddsd %xmm6, %xmm10, %xmm0 vmovsd 392(%rbx), %xmm1 vmulsd %xmm15, %xmm1, %xmm5 vaddsd %xmm5, %xmm0, %xmm0 vmovsd %xmm0, 936(%rbx) vaddsd %xmm2, %xmm2, %xmm0 vmovsd .LCPI0_11(%rip), %xmm2 vmovaps %xmm2, %xmm5 vmovsd 336(%rbx), %xmm2 vmulsd %xmm5, %xmm2, %xmm2 vdivsd %xmm0, %xmm2, %xmm0 vmovsd %xmm0, 1024(%rbx) vmulsd %xmm12, %xmm4, %xmm0 vaddsd %xmm3, %xmm0, %xmm0 vmovsd %xmm0, 1264(%rbx) vmulsd %xmm8, %xmm4, %xmm0 vaddsd %xmm11, %xmm0, %xmm0 vmovsd %xmm0, 944(%rbx) vmovsd 360(%rbx), %xmm4 vmulsd %xmm15, %xmm4, %xmm0 vmovsd 376(%rbx), %xmm5 vaddsd %xmm5, %xmm0, %xmm0 vmovsd 352(%rbx), %xmm11 vaddsd %xmm11, %xmm0, %xmm0 vmovsd 368(%rbx), %xmm7 vaddsd %xmm7, %xmm0, %xmm0 vmulsd %xmm15, %xmm0, %xmm0 vmovsd 344(%rbx), %xmm9 vaddsd %xmm9, %xmm14, %xmm2 vmulsd %xmm15, %xmm2, %xmm3 vaddsd %xmm0, %xmm2, %xmm2 vmovsd %xmm2, 920(%rbx) vaddsd %xmm0, %xmm3, %xmm14 vmovsd 928(%rbx), %xmm0 vaddsd %xmm9, %xmm0, %xmm3 vaddsd %xmm5, %xmm4, %xmm0 vmulsd %xmm15, %xmm11, %xmm2 vaddsd %xmm2, %xmm0, %xmm0 vaddsd %xmm7, %xmm0, %xmm0 vmulsd %xmm15, %xmm10, %xmm2 vaddsd %xmm6, %xmm2, %xmm2 vaddsd %xmm1, %xmm2, %xmm6 vmulsd %xmm15, %xmm0, %xmm0 vaddsd %xmm0, %xmm3, %xmm4 vmovsd 400(%rbx), %xmm1 vaddsd %xmm1, %xmm6, %xmm0 vaddsd %xmm0, %xmm14, %xmm3 vmulsd %xmm15, %xmm0, %xmm0 vmovsd 920(%rbx), %xmm2 vaddsd %xmm0, %xmm2, %xmm7 vmovsd 936(%rbx), %xmm0 vaddsd %xmm1, %xmm0, %xmm5 vmovsd 424(%rbx), %xmm1 vmulsd %xmm15, %xmm1, %xmm0 vmovsd 440(%rbx), %xmm2 vaddsd %xmm2, %xmm0, %xmm0 vmovsd 416(%rbx), %xmm11 vaddsd %xmm11, %xmm0, %xmm0 vmovsd 432(%rbx), %xmm6 vaddsd %xmm6, %xmm0, %xmm0 vmulsd %xmm15, %xmm0, %xmm0 vaddsd %xmm0, %xmm7, %xmm7 vaddsd %xmm0, %xmm3, %xmm3 vmulsd %xmm15, %xmm5, %xmm0 vaddsd %xmm0, %xmm4, %xmm4 vaddsd %xmm2, %xmm1, %xmm0 vmulsd %xmm15, %xmm11, %xmm2 vaddsd %xmm2, %xmm0, %xmm0 vaddsd %xmm6, %xmm0, %xmm0 vmulsd %xmm15, %xmm0, %xmm0 vaddsd %xmm0, %xmm4, %xmm0 vmovsd 1280(%rbx), %xmm2 vmovsd 976(%rbx), %xmm1 vmulsd %xmm2, %xmm1, %xmm5 vmulsd %xmm2, %xmm2, %xmm4 vmulsd %xmm1, %xmm1, %xmm6 vaddsd %xmm6, %xmm0, %xmm0 vmovsd 968(%rbx), %xmm1 vmulsd %xmm0, %xmm1, %xmm0 vaddsd %xmm3, %xmm4, %xmm2 vmulsd %xmm2, %xmm1, %xmm2 vaddsd %xmm5, %xmm7, %xmm3 vmulsd %xmm3, %xmm1, %xmm3 vsubsd %xmm2, %xmm4, %xmm4 vsubsd %xmm0, %xmm6, %xmm1 vmovaps 1728(%rbx), %xmm15 vmovsd 1592(%rbx), %xmm0 vmulsd %xmm15, %xmm0, %xmm0 vmulsd %xmm8, %xmm0, %xmm2 vmovsd %xmm2, 744(%rbx) vmulsd %xmm12, %xmm0, %xmm0 vmovsd %xmm0, 752(%rbx) vmulsd %xmm8, %xmm13, %xmm7 vmovsd 1024(%rbx), %xmm0 vmulsd %xmm0, %xmm12, %xmm2 vmulsd %xmm0, %xmm8, %xmm0 vmovsd 944(%rbx), %xmm6 vsubsd %xmm0, %xmm6, %xmm0 vmovsd 1264(%rbx), %xmm6 vsubsd %xmm2, %xmm6, %xmm6 vmulsd .LCPI0_21(%rip), %xmm1, %xmm2 vmulsd %xmm4, %xmm2, %xmm2 vsubsd %xmm3, %xmm5, %xmm3 vsubsd %xmm7, %xmm7, %xmm4 vmovsd 984(%rbx), %xmm5 vmulsd %xmm15, %xmm5, %xmm5 vmovsd %xmm5, 800(%rbx) vmovsd 1040(%rbx), %xmm5 vmulsd %xmm15, %xmm5, %xmm5 vmovsd %xmm5, 792(%rbx) vmovsd 1072(%rbx), %xmm5 vmulsd %xmm15, %xmm5, %xmm5 vmovsd %xmm5, 784(%rbx) vmovsd 1256(%rbx), %xmm5 vmulsd %xmm15, %xmm5, %xmm5 vmovsd %xmm5, 776(%rbx) vmovsd 1248(%rbx), %xmm5 vmulsd %xmm15, %xmm5, %xmm5 vmovsd %xmm5, 912(%rbx) vmulsd %xmm15, %xmm4, %xmm4 vmovsd %xmm4, 904(%rbx) vmovsd 1048(%rbx), %xmm4 vmulsd %xmm15, %xmm4, %xmm4 vmovsd %xmm4, 920(%rbx) vmovsd 512(%rbx), %xmm4 vmulsd %xmm15, %xmm4, %xmm4 vmovsd %xmm4, 928(%rbx) vmovsd 496(%rbx), %xmm4 vmulsd %xmm15, %xmm4, %xmm4 vmovsd %xmm4, 936(%rbx) vmovsd 488(%rbx), %xmm4 vmulsd %xmm15, %xmm4, %xmm4 vmovsd %xmm4, 944(%rbx) vmulsd %xmm15, %xmm6, %xmm4 vmovsd %xmm4, 984(%rbx) vmulsd %xmm15, %xmm0, %xmm0 vmovsd %xmm0, 976(%rbx) vaddsd %xmm3, %xmm3, %xmm4 vmulsd %xmm4, %xmm4, %xmm0 vaddsd %xmm2, %xmm0, %xmm5 vmulsd .LCPI0_22(%rip), %xmm3, %xmm2 vaddsd %xmm1, %xmm1, %xmm0 vmovq %xmm5, %xmm1 vsqrtpd %xmm1, %xmm1 vsubsd %xmm4, %xmm1, %xmm3 vmovsd .LCPI0_2(%rip), %xmm4 vxorpd %xmm4, %xmm3, %xmm3 vdivsd %xmm0, %xmm3, %xmm3 vsubsd %xmm1, %xmm2, %xmm1 vxorpd %xmm4, %xmm1, %xmm1 vdivsd %xmm0, %xmm1, %xmm0 vminsd %xmm3, %xmm0, %xmm1 vmovsd %xmm1, 1280(%rbx) vmaxsd %xmm0, %xmm3, %xmm0 vmovsd %xmm0, 968(%rbx) vmovsd .LCPI0_23(%rip), %xmm7 vmovsd 448(%rbx), %xmm0 vmulsd %xmm7, %xmm0, %xmm0 vmovsd 1000(%rbx), %xmm1 vaddsd %xmm0, %xmm1, %xmm13 vmovsd 320(%rbx), %xmm0 vmulsd %xmm7, %xmm0, %xmm0 vmovsd 992(%rbx), %xmm1 vaddsd %xmm0, %xmm1, %xmm8 vmovsd 288(%rbx), %xmm0 vmulsd %xmm7, %xmm0, %xmm0 vmovsd 312(%rbx), %xmm1 vaddsd %xmm0, %xmm1, %xmm0 vmovsd 296(%rbx), %xmm1 vmulsd %xmm7, %xmm1, %xmm1 vmovsd 280(%rbx), %xmm2 vaddsd %xmm1, %xmm2, %xmm1 vmovsd 256(%rbx), %xmm2 vmulsd %xmm7, %xmm2, %xmm2 vmovsd 272(%rbx), %xmm3 vaddsd %xmm2, %xmm3, %xmm6 vmovsd 264(%rbx), %xmm2 vmulsd %xmm7, %xmm2, %xmm2 vmovsd 248(%rbx), %xmm3 vaddsd %xmm2, %xmm3, %xmm14 vmovsd 224(%rbx), %xmm2 vmulsd %xmm7, %xmm2, %xmm2 vmovsd 240(%rbx), %xmm3 vaddsd %xmm2, %xmm3, %xmm12 vmovsd 232(%rbx), %xmm2 vmulsd %xmm7, %xmm2, %xmm2 vmovsd 216(%rbx), %xmm3 vaddsd %xmm2, %xmm3, %xmm2 vmovsd %xmm2, 1048(%rbx) vxorpd %xmm4, %xmm4, %xmm4 vmulsd %xmm4, %xmm0, %xmm2 vmulsd %xmm2, %xmm6, %xmm3 vmulsd %xmm2, %xmm1, %xmm2 vaddsd %xmm3, %xmm2, %xmm2 vmulsd %xmm4, %xmm1, %xmm3 vmulsd %xmm3, %xmm6, %xmm3 vaddsd %xmm3, %xmm2, %xmm2 vaddsd %xmm2, %xmm2, %xmm2 vmulsd %xmm1, %xmm1, %xmm3 vmulsd %xmm0, %xmm0, %xmm4 vmovsd .LCPI0_0(%rip), %xmm5 vaddsd %xmm5, %xmm4, %xmm4 vaddsd %xmm3, %xmm4, %xmm3 vmulsd %xmm6, %xmm6, %xmm4 vaddsd %xmm4, %xmm3, %xmm3 vaddsd %xmm2, %xmm3, %xmm2 vmovsd 1584(%rbx), %xmm3 vmulsd %xmm7, %xmm3, %xmm3 vmovsd .LCPI0_1(%rip), %xmm4 vmaxsd %xmm8, %xmm4, %xmm7 vmovsd %xmm7, 720(%rbx) vmaxsd %xmm13, %xmm4, %xmm4 vmovsd %xmm4, 1272(%rbx) vmovq %xmm2, %xmm2 vmovsd 1616(%rbx), %xmm4 vaddsd %xmm3, %xmm4, %xmm3 vmovsd %xmm3, 1584(%rbx) vsqrtpd %xmm2, %xmm2 vmovsd 1720(%rbx), %xmm4 vdivsd %xmm4, %xmm2, %xmm5 vmovsd %xmm5, 1616(%rbx) vmovsd .LCPI0_3(%rip), %xmm3 vmulsd %xmm3, %xmm2, %xmm2 vmulsd %xmm4, %xmm2, %xmm2 vsubsd %xmm2, %xmm6, %xmm4 vmovsd %xmm4, 1288(%rbx) vsubsd %xmm2, %xmm0, %xmm6 vmovsd %xmm6, 1040(%rbx) vsubsd %xmm2, %xmm1, %xmm2 vmovsd %xmm2, 1072(%rbx) vxorps %xmm8, %xmm8, %xmm8 vmulsd %xmm8, %xmm2, %xmm3 vmovsd %xmm3, 1248(%rbx) vmulsd %xmm8, %xmm5, %xmm11 vaddsd %xmm6, %xmm11, %xmm1 vaddsd %xmm3, %xmm1, %xmm1 vmovaps %xmm3, %xmm9 vmulsd %xmm8, %xmm4, %xmm3 vmovsd %xmm3, 1264(%rbx) vaddsd %xmm3, %xmm1, %xmm0 vmovsd %xmm0, 1032(%rbx) vmulsd %xmm8, %xmm6, %xmm1 vmovsd %xmm1, 1256(%rbx) vmovaps %xmm6, %xmm10 vaddsd %xmm1, %xmm11, %xmm6 vaddsd %xmm2, %xmm6, %xmm1 vmovaps %xmm2, %xmm8 vaddsd %xmm3, %xmm1, %xmm1 vmovsd %xmm1, 1592(%rbx) vmulsd %xmm1, %xmm12, %xmm1 vmovaps %xmm14, %xmm13 vmulsd %xmm0, %xmm13, %xmm2 vaddsd %xmm1, %xmm2, %xmm1 vaddsd %xmm9, %xmm6, %xmm0 vaddsd %xmm4, %xmm0, %xmm0 vmovsd %xmm0, 1024(%rbx) vmovsd 1048(%rbx), %xmm3 vmulsd %xmm0, %xmm3, %xmm0 vaddsd %xmm0, %xmm1, %xmm6 vmovsd %xmm6, 712(%rbx) movabsq $-4616189618054758400, %rax movq %rax, 1384(%r13,%rdx) vxorps %xmm0, %xmm0, %xmm0 vmovups %xmm0, 16(%rdi) vmovups %xmm0, (%rdi) movabsq $4607182418800017408, %r15 movq %r15, 1424(%r13,%rdx) vmovups %xmm0, 16(%r8) vmovups %xmm0, (%r8) movq %r15, 1464(%r13,%rdx) movq 1776(%rbx), %rcx vmovups %xmm0, 16(%rcx) vmovups %xmm0, (%rcx) movq %r15, 1504(%r13,%rdx) movq %rax, 1256(%r13,%rdx) movabsq $-9223372036854775808, %rax movq %rax, 1264(%r13,%rdx) movq %rax, 1272(%r13,%rdx) movq %rax, 1280(%r13,%rdx) movq %rax, 1288(%r13,%rdx) movq %r15, 1296(%r13,%rdx) movq %rax, 1304(%r13,%rdx) movq %rax, 1312(%r13,%rdx) movq %rax, 1320(%r13,%rdx) movq %rax, 1328(%r13,%rdx) movq %r15, 1336(%r13,%rdx) movq %rax, 1344(%r13,%rdx) movq %rax, 1352(%r13,%rdx) movq %rax, 1360(%r13,%rdx) movq %rax, 1368(%r13,%rdx) movq %r15, 1376(%r13,%rdx) vmulsd %xmm8, %xmm6, %xmm0 vmovsd %xmm0, 1000(%rbx) vaddsd %xmm0, %xmm12, %xmm0 vmulsd %xmm4, %xmm6, %xmm1 vmovsd %xmm1, 992(%rbx) vaddsd %xmm1, %xmm3, %xmm1 vdivsd %xmm5, %xmm1, %xmm12 vmovsd %xmm12, 1768(%rbx) vdivsd %xmm5, %xmm0, %xmm8 vmovsd %xmm8, 1048(%rbx) vmulsd %xmm10, %xmm6, %xmm0 vmovaps %xmm10, %xmm11 vmovsd %xmm0, 736(%rbx) vaddsd %xmm0, %xmm13, %xmm0 vdivsd %xmm5, %xmm0, %xmm4 vmovsd %xmm4, 1760(%rbx) vmovaps %xmm5, %xmm13 vxorps %xmm5, %xmm5, %xmm5 vmulsd %xmm5, %xmm6, %xmm0 vmulsd %xmm5, %xmm4, %xmm1 vaddsd %xmm1, %xmm0, %xmm2 vsubsd %xmm6, %xmm1, %xmm3 vaddsd %xmm4, %xmm0, %xmm1 vmovaps %xmm4, %xmm14 vmulsd %xmm5, %xmm8, %xmm0 vaddsd %xmm0, %xmm1, %xmm1 vaddsd %xmm0, %xmm3, %xmm3 vaddsd %xmm0, %xmm2, %xmm9 vaddsd %xmm8, %xmm2, %xmm2 vmulsd (%rcx), %xmm12, %xmm4 vaddsd %xmm4, %xmm2, %xmm0 vmovsd %xmm0, 520(%rbx) vmulsd %xmm5, %xmm12, %xmm2 vaddsd %xmm2, %xmm3, %xmm10 vaddsd %xmm2, %xmm1, %xmm3 vmovsd %xmm3, 528(%rbx) vmovsd 1272(%rbx), %xmm1 vaddsd %xmm7, %xmm1, %xmm1 vmulsd .LCPI0_5(%rip), %xmm7, %xmm2 vmovsd %xmm2, 728(%rbx) vaddsd %xmm1, %xmm2, %xmm1 vmovaps %xmm2, %xmm4 vmovaps %xmm13, %xmm5 vmovsd 1256(%rbx), %xmm2 vsubsd %xmm5, %xmm2, %xmm2 vaddsd 1248(%rbx), %xmm2, %xmm2 vaddsd 1264(%rbx), %xmm2, %xmm13 vmulsd %xmm3, %xmm14, %xmm2 vmovsd %xmm2, 696(%rbx) vmulsd %xmm10, %xmm6, %xmm3 vmovsd %xmm3, 664(%rbx) vaddsd %xmm2, %xmm3, %xmm3 vmulsd %xmm0, %xmm8, %xmm2 vmovsd %xmm2, 704(%rbx) vaddsd %xmm2, %xmm3, %xmm3 vaddsd %xmm12, %xmm9, %xmm0 vmovsd %xmm0, 512(%rbx) vmulsd %xmm0, %xmm12, %xmm0 vmovsd %xmm0, 672(%rbx) vaddsd %xmm0, %xmm3, %xmm2 vmovsd %xmm2, 1776(%rbx) vmovsd .LCPI0_4(%rip), %xmm0 vmaxsd %xmm2, %xmm0, %xmm0 vmovaps %xmm0, 640(%rbx) vaddsd %xmm1, %xmm0, %xmm3 vmulsd .LCPI0_6(%rip), %xmm0, %xmm0 vaddsd %xmm0, %xmm4, %xmm1 vmovsd 1072(%rbx), %xmm0 vmulsd %xmm3, %xmm0, %xmm0 vmulsd %xmm3, %xmm11, %xmm9 vmulsd %xmm3, %xmm5, %xmm7 vmovsd 1288(%rbx), %xmm2 vmulsd %xmm3, %xmm2, %xmm4 vmovsd 1024(%rbx), %xmm5 vmulsd %xmm4, %xmm5, %xmm14 vmovsd 1592(%rbx), %xmm11 vmulsd %xmm4, %xmm11, %xmm2 vmovsd %xmm2, 568(%rbx) vmovsd 1032(%rbx), %xmm2 vmulsd %xmm4, %xmm2, %xmm3 vmovsd %xmm3, 560(%rbx) vmulsd %xmm4, %xmm13, %xmm3 vmovsd %xmm3, 576(%rbx) vmulsd %xmm7, %xmm13, %xmm4 vaddsd %xmm4, %xmm1, %xmm4 vmovsd %xmm4, 584(%rbx) vaddsd %xmm14, %xmm1, %xmm3 vmovsd %xmm3, 656(%rbx) vmulsd %xmm9, %xmm2, %xmm3 vaddsd %xmm3, %xmm1, %xmm3 vmovsd %xmm3, 592(%rbx) vmovaps %xmm11, %xmm4 vmulsd %xmm0, %xmm4, %xmm3 vaddsd %xmm3, %xmm1, %xmm3 vmovsd %xmm3, 616(%rbx) vmulsd .LCPI0_24, %xmm1, %xmm14 vmulsd %xmm0, %xmm5, %xmm1 vmulsd %xmm0, %xmm2, %xmm3 vmovsd %xmm3, 544(%rbx) vmulsd %xmm0, %xmm13, %xmm0 vmovsd %xmm0, 536(%rbx) vmulsd %xmm7, %xmm2, %xmm0 vmulsd %xmm7, %xmm4, %xmm3 vmovaps %xmm4, %xmm2 vmulsd %xmm7, %xmm5, %xmm11 vaddsd %xmm0, %xmm14, %xmm7 vaddsd 576(%rbx), %xmm14, %xmm0 vmovsd %xmm0, 576(%rbx) vaddsd 560(%rbx), %xmm14, %xmm0 vmovsd %xmm0, 560(%rbx) vaddsd 568(%rbx), %xmm14, %xmm0 vmovsd %xmm0, 432(%rbx) vaddsd %xmm1, %xmm14, %xmm0 vmovsd %xmm0, 416(%rbx) vmulsd %xmm9, %xmm13, %xmm0 vaddsd %xmm0, %xmm14, %xmm0 vmovsd %xmm0, 408(%rbx) vaddsd %xmm11, %xmm14, %xmm1 vaddsd %xmm3, %xmm14, %xmm3 vmulsd %xmm9, %xmm5, %xmm4 vmulsd %xmm9, %xmm2, %xmm0 vaddsd %xmm0, %xmm14, %xmm0 vmovsd %xmm0, 448(%rbx) vaddsd %xmm4, %xmm14, %xmm0 vmovsd %xmm0, 440(%rbx) vaddsd 536(%rbx), %xmm14, %xmm0 vmovsd %xmm0, 424(%rbx) vaddsd 544(%rbx), %xmm14, %xmm11 vmovsd 584(%rbx), %xmm0 vsubsd 664(%rbx), %xmm0, %xmm0 vmovsd %xmm0, 464(%rbx) vmovsd 528(%rbx), %xmm4 vmulsd %xmm4, %xmm6, %xmm0 vsubsd %xmm0, %xmm7, %xmm0 vmovsd %xmm0, 488(%rbx) vmovsd 520(%rbx), %xmm5 vmulsd %xmm5, %xmm6, %xmm0 vsubsd %xmm0, %xmm3, %xmm0 vmovsd %xmm0, 496(%rbx) vmovsd 512(%rbx), %xmm3 vmulsd %xmm3, %xmm6, %xmm0 vmovaps %xmm6, %xmm2 vsubsd %xmm0, %xmm1, %xmm0 vmovsd %xmm0, 536(%rbx) vmovsd 592(%rbx), %xmm0 vsubsd 696(%rbx), %xmm0, %xmm0 vmovsd %xmm0, 568(%rbx) vmovsd 1760(%rbx), %xmm6 vmulsd %xmm10, %xmm6, %xmm0 vmovsd 408(%rbx), %xmm1 vsubsd %xmm0, %xmm1, %xmm0 vmovsd %xmm0, 544(%rbx) vmulsd %xmm3, %xmm8, %xmm0 vmovaps %xmm3, %xmm14 vmovsd 416(%rbx), %xmm1 vsubsd %xmm0, %xmm1, %xmm0 vmovsd %xmm0, 584(%rbx) vmovsd 656(%rbx), %xmm0 vsubsd 672(%rbx), %xmm0, %xmm0 vmovsd %xmm0, 672(%rbx) vmulsd %xmm5, %xmm12, %xmm0 vmovsd 432(%rbx), %xmm1 vsubsd %xmm0, %xmm1, %xmm0 vmovsd %xmm0, 656(%rbx) vmovaps %xmm4, %xmm1 vmulsd %xmm1, %xmm12, %xmm0 vmovsd 560(%rbx), %xmm3 vsubsd %xmm0, %xmm3, %xmm0 vmovsd %xmm0, 592(%rbx) vmulsd %xmm10, %xmm12, %xmm0 vmovsd 576(%rbx), %xmm3 vsubsd %xmm0, %xmm3, %xmm0 vmovsd %xmm0, 560(%rbx) vmovsd 616(%rbx), %xmm0 vsubsd 704(%rbx), %xmm0, %xmm0 vmovsd %xmm0, 696(%rbx) vmulsd %xmm1, %xmm8, %xmm0 vmovaps %xmm1, %xmm9 vsubsd %xmm0, %xmm11, %xmm0 vmovsd %xmm0, 664(%rbx) vmulsd %xmm10, %xmm8, %xmm0 vmovsd 424(%rbx), %xmm1 vsubsd %xmm0, %xmm1, %xmm0 vmovsd %xmm0, 616(%rbx) vmovaps %xmm6, %xmm8 vmulsd %xmm14, %xmm8, %xmm0 vmovsd 440(%rbx), %xmm1 vsubsd %xmm0, %xmm1, %xmm0 vmovsd %xmm0, 576(%rbx) vmulsd %xmm5, %xmm8, %xmm0 vmovaps %xmm8, %xmm11 vmovsd 448(%rbx), %xmm1 vsubsd %xmm0, %xmm1, %xmm0 vmovsd %xmm0, 704(%rbx) vmovq 640(%rbx), %xmm0 vsqrtpd %xmm0, %xmm12 vmovsd 1584(%rbx), %xmm6 vmulsd %xmm6, %xmm2, %xmm0 vdivsd %xmm12, %xmm0, %xmm7 vmulsd %xmm7, %xmm13, %xmm0 vmovsd 464(%rbx), %xmm1 vaddsd %xmm0, %xmm1, %xmm0 vmulsd %xmm6, %xmm10, %xmm1 vdivsd %xmm12, %xmm1, %xmm1 vmovsd %xmm1, 464(%rbx) vmovsd 1616(%rbx), %xmm3 vmulsd %xmm1, %xmm3, %xmm1 vaddsd %xmm1, %xmm0, %xmm0 vmovsd %xmm0, 1512(%r13,%rdx) vmovsd 1032(%rbx), %xmm4 vmulsd %xmm7, %xmm4, %xmm0 vmovsd 488(%rbx), %xmm1 vaddsd %xmm0, %xmm1, %xmm0 vmulsd %xmm6, %xmm9, %xmm1 vdivsd %xmm12, %xmm1, %xmm8 vmulsd %xmm8, %xmm3, %xmm1 vaddsd %xmm1, %xmm0, %xmm0 vmovsd %xmm0, 1520(%r13,%rdx) vmovsd 1592(%rbx), %xmm2 vmulsd %xmm7, %xmm2, %xmm0 vmovsd 496(%rbx), %xmm1 vaddsd %xmm0, %xmm1, %xmm0 vmulsd %xmm6, %xmm5, %xmm1 vdivsd %xmm12, %xmm1, %xmm10 vmulsd %xmm10, %xmm3, %xmm1 vaddsd %xmm1, %xmm0, %xmm0 vmovsd %xmm0, 1528(%r13,%rdx) vmovsd 1024(%rbx), %xmm5 vmulsd %xmm7, %xmm5, %xmm0 vmovsd 536(%rbx), %xmm1 vaddsd %xmm0, %xmm1, %xmm0 vmulsd %xmm6, %xmm14, %xmm1 vdivsd %xmm12, %xmm1, %xmm14 vmulsd %xmm14, %xmm3, %xmm1 vaddsd %xmm1, %xmm0, %xmm0 vmovsd %xmm0, 1536(%r13,%rdx) vmulsd %xmm6, %xmm11, %xmm0 vdivsd %xmm12, %xmm0, %xmm9 vmulsd %xmm9, %xmm13, %xmm0 vmovsd 544(%rbx), %xmm1 vaddsd %xmm0, %xmm1, %xmm0 vmovsd 1040(%rbx), %xmm3 vmovsd 464(%rbx), %xmm11 vmulsd %xmm11, %xmm3, %xmm1 vaddsd %xmm1, %xmm0, %xmm0 vmulsd %xmm9, %xmm4, %xmm1 vmovsd 568(%rbx), %xmm7 vaddsd %xmm1, %xmm7, %xmm1 vmovsd %xmm1, 544(%rbx) vmovsd %xmm0, 1544(%r13,%rdx) vmovsd 1048(%rbx), %xmm0 vmulsd %xmm6, %xmm0, %xmm0 vdivsd %xmm12, %xmm0, %xmm0 vmulsd %xmm0, %xmm5, %xmm1 vmovsd 584(%rbx), %xmm7 vaddsd %xmm1, %xmm7, %xmm1 vmovsd %xmm1, 640(%rbx) vmovsd 1768(%rbx), %xmm1 vmulsd %xmm6, %xmm1, %xmm1 vdivsd %xmm12, %xmm1, %xmm1 vmulsd %xmm1, %xmm13, %xmm6 vmovsd 560(%rbx), %xmm7 vaddsd %xmm6, %xmm7, %xmm6 vmovsd %xmm6, 584(%rbx) vmulsd %xmm1, %xmm4, %xmm6 vmovsd 592(%rbx), %xmm7 vaddsd %xmm6, %xmm7, %xmm6 vmovsd %xmm6, 568(%rbx) vmulsd %xmm1, %xmm2, %xmm6 vmovsd 656(%rbx), %xmm7 vaddsd %xmm6, %xmm7, %xmm6 vmovsd %xmm6, 656(%rbx) vmulsd %xmm1, %xmm5, %xmm1 vmovsd 672(%rbx), %xmm6 vaddsd %xmm1, %xmm6, %xmm7 vmulsd %xmm8, %xmm3, %xmm6 vmovsd 544(%rbx), %xmm1 vaddsd %xmm6, %xmm1, %xmm6 vmulsd %xmm9, %xmm5, %xmm1 vmovsd 576(%rbx), %xmm3 vaddsd %xmm1, %xmm3, %xmm1 vmovsd %xmm1, 592(%rbx) vmulsd %xmm0, %xmm13, %xmm1 vmovsd 616(%rbx), %xmm3 vaddsd %xmm1, %xmm3, %xmm3 vmulsd %xmm0, %xmm4, %xmm1 vmovsd 664(%rbx), %xmm4 vaddsd %xmm1, %xmm4, %xmm13 vmulsd %xmm0, %xmm2, %xmm0 vmovsd 696(%rbx), %xmm1 vaddsd %xmm0, %xmm1, %xmm0 vmovsd %xmm6, 1552(%r13,%rdx) vmovsd 1288(%rbx), %xmm4 vmulsd %xmm14, %xmm4, %xmm1 vaddsd %xmm1, %xmm7, %xmm1 vmovsd %xmm1, 696(%rbx) vmulsd %xmm10, %xmm4, %xmm1 vmovsd 656(%rbx), %xmm5 vaddsd %xmm1, %xmm5, %xmm1 vmovsd %xmm1, 672(%rbx) vmulsd %xmm8, %xmm4, %xmm1 vmovsd 568(%rbx), %xmm5 vaddsd %xmm1, %xmm5, %xmm1 vmovsd %xmm1, 664(%rbx) vmulsd %xmm11, %xmm4, %xmm1 vmovaps %xmm11, %xmm7 vmovsd 584(%rbx), %xmm4 vaddsd %xmm1, %xmm4, %xmm1 vmovsd %xmm1, 584(%rbx) vmovsd 1072(%rbx), %xmm1 vmulsd %xmm14, %xmm1, %xmm6 vmovsd 640(%rbx), %xmm4 vaddsd %xmm6, %xmm4, %xmm5 vmovsd %xmm5, 616(%rbx) vmulsd %xmm10, %xmm1, %xmm6 vaddsd %xmm6, %xmm0, %xmm6 vmovsd %xmm6, 656(%rbx) vmulsd %xmm8, %xmm1, %xmm0 vaddsd %xmm0, %xmm13, %xmm4 vmovsd %xmm4, 1024(%rbx) vmulsd %xmm7, %xmm1, %xmm0 vmovaps %xmm1, %xmm11 vaddsd %xmm0, %xmm3, %xmm7 vmovsd %xmm7, 1032(%rbx) vmovsd 1040(%rbx), %xmm1 vmulsd %xmm14, %xmm1, %xmm0 vmovsd 592(%rbx), %xmm3 vaddsd %xmm0, %xmm3, %xmm0 vmulsd %xmm9, %xmm2, %xmm2 vmovsd 704(%rbx), %xmm3 vaddsd %xmm2, %xmm3, %xmm2 vmulsd %xmm10, %xmm1, %xmm3 vmovaps %xmm1, %xmm10 vaddsd %xmm3, %xmm2, %xmm2 vmovsd %xmm2, 1560(%r13,%rdx) vmovsd %xmm0, 1568(%r13,%rdx) vmovsd %xmm7, 1576(%r13,%rdx) vmovsd %xmm4, 1584(%r13,%rdx) vmovsd %xmm6, 1592(%r13,%rdx) vmovsd %xmm5, 1600(%r13,%rdx) vmovsd 584(%rbx), %xmm0 vmovsd %xmm0, 1608(%r13,%rdx) vmovsd 664(%rbx), %xmm0 vmovsd %xmm0, 1616(%r13,%rdx) vmovsd 672(%rbx), %xmm0 vmovsd %xmm0, 1624(%r13,%rdx) vmovsd 696(%rbx), %xmm0 vmovsd %xmm0, 1632(%r13,%rdx) vmulsd 1536(%r13,%rdx), %xmm15, %xmm0 vmovsd %xmm0, 696(%rbx) vmulsd 1528(%r13,%rdx), %xmm15, %xmm0 vmovsd %xmm0, 672(%rbx) vmulsd 1520(%r13,%rdx), %xmm15, %xmm0 vmovsd %xmm0, 664(%rbx) vmulsd 1512(%r13,%rdx), %xmm15, %xmm0 vmovsd %xmm0, 640(%rbx) vmovsd 1272(%rbx), %xmm8 vmovaps %xmm8, %xmm0 vmovsd .LCPI0_8(%rip), %xmm1 movq %rdx, %r12 callq __ocl_svml_e9_pow1 vmovsd 720(%rbx), %xmm9 vmulsd %xmm0, %xmm9, %xmm0 callq __ocl_svml_e9_log1 vmovsd %xmm0, 576(%rbx) vmovsd 1584(%rbx), %xmm0 vmovsd .LCPI0_10(%rip), %xmm1 callq __ocl_svml_e9_pow1 movq %r12, %rsi vmovsd %xmm0, 568(%rbx) movq 1696(%rbx), %rax vxorps %xmm1, %xmm1, %xmm1 vmovups %xmm1, 16(%rax) vmovups %xmm1, (%rax) movq %r15, 1240(%r13,%rsi) vxorps %xmm3, %xmm3, %xmm3 vmulsd 1264(%r13,%rsi), %xmm3, %xmm1 vmovsd 1256(%r13,%rsi), %xmm2 vmovsd 1272(%r13,%rsi), %xmm4 vmovsd %xmm4, 584(%rbx) vmulsd %xmm3, %xmm2, %xmm3 vaddsd %xmm1, %xmm3, %xmm3 vaddsd %xmm1, %xmm2, %xmm0 vmovsd %xmm0, 592(%rbx) vaddsd %xmm4, %xmm3, %xmm0 vmovsd %xmm0, 704(%rbx) vmovaps %xmm9, %xmm2 vmulsd .LCPI0_19(%rip), %xmm2, %xmm1 vmulsd .LCPI0_20(%rip), %xmm2, %xmm3 vmovaps %xmm8, %xmm4 vaddsd %xmm3, %xmm4, %xmm2 vdivsd %xmm2, %xmm1, %xmm0 vmovsd .LCPI0_3(%rip), %xmm1 vucomisd 1280(%rbx), %xmm1 vmulsd %xmm15, %xmm4, %xmm1 vmulsd %xmm11, %xmm1, %xmm2 vmovsd 744(%rbx), %xmm4 vaddsd %xmm2, %xmm4, %xmm2 vmovsd %xmm2, 1696(%rbx) vmovsd 1616(%rbx), %xmm5 vaddsd 1256(%rbx), %xmm5, %xmm2 vaddsd 1248(%rbx), %xmm2, %xmm2 vaddsd 1264(%rbx), %xmm2, %xmm2 vmovsd %xmm2, 744(%rbx) vmulsd %xmm5, %xmm1, %xmm1 vsubsd 752(%rbx), %xmm1, %xmm1 vmovsd %xmm1, 1264(%rbx) vmovsd 1768(%rbx), %xmm2 vmulsd %xmm5, %xmm2, %xmm1 vsubsd 992(%rbx), %xmm1, %xmm14 vmovsd 1048(%rbx), %xmm6 vmulsd %xmm5, %xmm6, %xmm1 vsubsd 1000(%rbx), %xmm1, %xmm9 vmovsd 1760(%rbx), %xmm4 vmulsd %xmm5, %xmm4, %xmm1 vsubsd 736(%rbx), %xmm1, %xmm7 vmulsd 1288(%rbx), %xmm6, %xmm1 vmulsd %xmm11, %xmm2, %xmm2 vsubsd %xmm1, %xmm2, %xmm1 vmulsd %xmm10, %xmm6, %xmm2 vmovaps %xmm6, %xmm10 vmulsd %xmm11, %xmm4, %xmm6 vsubsd %xmm2, %xmm6, %xmm2 vmovaps %xmm8, %xmm5 vmovsd 728(%rbx), %xmm6 vdivsd %xmm5, %xmm6, %xmm6 vdivsd .LCPI0_5(%rip), %xmm5, %xmm8 vmovsd 1776(%rbx), %xmm13 vaddsd %xmm13, %xmm5, %xmm5 vaddsd %xmm3, %xmm5, %xmm3 vmulsd %xmm15, %xmm1, %xmm1 vmovsd 776(%rbx), %xmm5 vaddsd %xmm1, %xmm5, %xmm1 vmovsd %xmm1, 1768(%rbx) vmulsd %xmm15, %xmm7, %xmm1 vsubsd 784(%rbx), %xmm1, %xmm1 vmovsd %xmm1, 1760(%rbx) vmulsd %xmm15, %xmm9, %xmm1 vsubsd 792(%rbx), %xmm1, %xmm1 vmovsd %xmm1, 1288(%rbx) vmulsd %xmm15, %xmm14, %xmm1 vsubsd 800(%rbx), %xmm1, %xmm1 vmovsd %xmm1, 1272(%rbx) vmovsd 1584(%rbx), %xmm1 vdivsd %xmm6, %xmm1, %xmm1 vmulsd 712(%rbx), %xmm1, %xmm4 vmulsd %xmm10, %xmm1, %xmm5 vmulsd %xmm11, %xmm10, %xmm1 vsubsd %xmm1, %xmm1, %xmm1 vmulsd %xmm15, %xmm1, %xmm1 vmovsd 904(%rbx), %xmm7 vaddsd %xmm1, %xmm7, %xmm1 vmovsd %xmm1, 1256(%rbx) vmulsd %xmm15, %xmm2, %xmm1 vmovsd 912(%rbx), %xmm2 vaddsd %xmm1, %xmm2, %xmm1 vmovsd %xmm1, 1584(%rbx) vdivsd %xmm3, %xmm13, %xmm1 vmulsd %xmm0, %xmm1, %xmm2 vaddsd %xmm0, %xmm1, %xmm7 vdivsd %xmm12, %xmm5, %xmm3 vdivsd %xmm12, %xmm4, %xmm1 vsubsd %xmm2, %xmm7, %xmm9 vmovsd 616(%rbx), %xmm0 vmulsd %xmm15, %xmm0, %xmm2 vmovsd 920(%rbx), %xmm4 vaddsd %xmm2, %xmm4, %xmm2 vmovsd %xmm2, 1776(%rbx) vmovsd 656(%rbx), %xmm0 vmulsd %xmm15, %xmm0, %xmm2 vmovsd 928(%rbx), %xmm4 vaddsd %xmm2, %xmm4, %xmm2 vmovsd %xmm2, 1248(%rbx) vmovsd 1024(%rbx), %xmm0 vmulsd %xmm15, %xmm0, %xmm2 vmovsd 936(%rbx), %xmm4 vaddsd %xmm2, %xmm4, %xmm2 vmovsd %xmm2, 1048(%rbx) vmovsd 1032(%rbx), %xmm0 vmulsd %xmm15, %xmm0, %xmm2 vmovsd 944(%rbx), %xmm4 vaddsd %xmm2, %xmm4, %xmm2 vmovsd %xmm2, 1040(%rbx) vmulsd 576(%rbx), %xmm8, %xmm2 vmovsd 640(%rbx), %xmm0 vsubsd 624(%rbx), %xmm0, %xmm4 vmovsd %xmm4, 1032(%rbx) vmovsd 664(%rbx), %xmm0 vsubsd 632(%rbx), %xmm0, %xmm4 vmovsd %xmm4, 1024(%rbx) vmovsd 672(%rbx), %xmm0 vsubsd 1008(%rbx), %xmm0, %xmm0 vmovsd %xmm0, 1008(%rbx) vaddsd %xmm6, %xmm6, %xmm4 vmovsd 568(%rbx), %xmm0 vmulsd .LCPI0_11(%rip), %xmm0, %xmm0 vdivsd %xmm4, %xmm0, %xmm8 vmulsd 1616(%rbx), %xmm2, %xmm0 vaddsd %xmm1, %xmm0, %xmm0 vmovsd %xmm0, 1000(%rbx) vmulsd %xmm11, %xmm2, %xmm0 vmovaps %xmm11, %xmm12 vaddsd %xmm3, %xmm0, %xmm10 vmovsd 696(%rbx), %xmm0 vsubsd 1016(%rbx), %xmm0, %xmm0 vmovsd %xmm0, 1016(%rbx) vxorps %xmm15, %xmm15, %xmm15 vmulsd 1296(%r13,%rsi), %xmm15, %xmm2 vmovsd 1288(%r13,%rsi), %xmm1 vaddsd %xmm2, %xmm1, %xmm0 vmovsd 1304(%r13,%rsi), %xmm6 vmulsd %xmm15, %xmm6, %xmm3 vaddsd %xmm3, %xmm0, %xmm0 vmovsd 584(%rbx), %xmm3 vmulsd %xmm15, %xmm3, %xmm3 vmovsd 592(%rbx), %xmm4 vaddsd %xmm3, %xmm4, %xmm4 vmulsd 1280(%r13,%rsi), %xmm15, %xmm3 vaddsd %xmm3, %xmm4, %xmm4 vmulsd 1312(%r13,%rsi), %xmm15, %xmm5 vaddsd %xmm5, %xmm0, %xmm0 vmulsd %xmm15, %xmm0, %xmm0 vaddsd %xmm0, %xmm4, %xmm11 vmulsd 1328(%r13,%rsi), %xmm15, %xmm0 vmovsd 1320(%r13,%rsi), %xmm4 vmulsd %xmm15, %xmm4, %xmm7 vaddsd %xmm0, %xmm4, %xmm14 vaddsd %xmm0, %xmm7, %xmm4 vmulsd %xmm15, %xmm1, %xmm0 vaddsd %xmm2, %xmm0, %xmm0 vaddsd %xmm6, %xmm0, %xmm0 vmovsd 1336(%r13,%rsi), %xmm1 vaddsd %xmm1, %xmm4, %xmm2 vmulsd %xmm15, %xmm1, %xmm1 vaddsd %xmm1, %xmm14, %xmm1 vmulsd 1344(%r13,%rsi), %xmm15, %xmm4 vaddsd %xmm4, %xmm1, %xmm1 vmulsd %xmm15, %xmm1, %xmm1 vaddsd %xmm1, %xmm11, %xmm1 vaddsd %xmm4, %xmm2, %xmm14 vmovsd 704(%rbx), %xmm2 vaddsd %xmm3, %xmm2, %xmm3 vaddsd %xmm5, %xmm0, %xmm2 vmulsd 1360(%r13,%rsi), %xmm15, %xmm0 vmovsd 1352(%r13,%rsi), %xmm5 vaddsd %xmm0, %xmm5, %xmm6 vmovsd 1368(%r13,%rsi), %xmm7 vmulsd %xmm15, %xmm7, %xmm4 vaddsd %xmm4, %xmm6, %xmm6 vmulsd %xmm15, %xmm5, %xmm4 vaddsd %xmm0, %xmm4, %xmm0 vaddsd %xmm7, %xmm0, %xmm0 vmulsd 1376(%r13,%rsi), %xmm15, %xmm7 vaddsd %xmm7, %xmm0, %xmm5 vaddsd %xmm7, %xmm6, %xmm0 vmulsd %xmm15, %xmm0, %xmm0 vaddsd %xmm0, %xmm1, %xmm0 vmulsd %xmm15, %xmm2, %xmm2 vmulsd %xmm15, %xmm3, %xmm1 vaddsd %xmm2, %xmm1, %xmm1 vaddsd %xmm14, %xmm1, %xmm1 vmulsd %xmm15, %xmm5, %xmm6 vxorps %xmm11, %xmm11, %xmm11 vaddsd %xmm6, %xmm1, %xmm5 vmovsd 1592(%rbx), %xmm7 vmulsd %xmm7, %xmm7, %xmm1 vaddsd %xmm5, %xmm1, %xmm4 vmulsd %xmm4, %xmm9, %xmm4 vsubsd %xmm4, %xmm1, %xmm1 vmovsd 744(%rbx), %xmm4 vmulsd %xmm7, %xmm4, %xmm7 vmulsd %xmm4, %xmm4, %xmm5 vaddsd %xmm5, %xmm0, %xmm0 vmulsd %xmm0, %xmm9, %xmm0 vsubsd %xmm0, %xmm5, %xmm5 vaddsd %xmm2, %xmm3, %xmm0 vmovsd 968(%rbx), %xmm2 vmaxsd %xmm11, %xmm2, %xmm11 vxorps %xmm3, %xmm3, %xmm3 ja .LBB0_531 vxorpd %xmm13, %xmm13, %xmm13 vmovsd .LCPI0_2(%rip), %xmm2 jmp .LBB0_533 .align 16, 0x90 .LBB0_531: vmovsd .LCPI0_2(%rip), %xmm2 vmovsd 1280(%rbx), %xmm4 vxorpd %xmm2, %xmm4, %xmm13 .LBB0_533: vmulsd %xmm3, %xmm14, %xmm4 vmulsd .LCPI0_21(%rip), %xmm5, %xmm3 vmulsd %xmm1, %xmm3, %xmm3 vaddsd %xmm4, %xmm0, %xmm0 vaddsd %xmm6, %xmm0, %xmm0 vaddsd %xmm7, %xmm0, %xmm0 vmulsd %xmm0, %xmm9, %xmm0 vsubsd %xmm0, %xmm7, %xmm4 vaddsd %xmm4, %xmm4, %xmm1 vmulsd %xmm1, %xmm1, %xmm0 vaddsd %xmm3, %xmm0, %xmm3 vmulsd %xmm8, %xmm12, %xmm0 vsubsd %xmm0, %xmm10, %xmm9 vmovsd 1616(%rbx), %xmm0 vmulsd %xmm8, %xmm0, %xmm6 vmovsd 1000(%rbx), %xmm0 vsubsd %xmm6, %xmm0, %xmm0 vmovq %xmm3, %xmm3 vsqrtpd %xmm3, %xmm3 vmulsd .LCPI0_22(%rip), %xmm4, %xmm4 vsubsd %xmm1, %xmm3, %xmm1 vsubsd %xmm3, %xmm4, %xmm4 vaddsd %xmm5, %xmm5, %xmm3 vxorpd %xmm2, %xmm4, %xmm4 vdivsd %xmm3, %xmm4, %xmm5 vxorpd %xmm2, %xmm1, %xmm1 vdivsd %xmm3, %xmm1, %xmm7 vucomisd %xmm11, %xmm11 vmaxsd %xmm5, %xmm7, %xmm4 vmovapd %xmm2, %xmm6 jp .LBB0_535 vmaxsd %xmm11, %xmm4, %xmm4 .LBB0_535: vmovsd .LCPI0_0(%rip), %xmm14 vmovaps 1728(%rbx), %xmm12 vmulsd %xmm12, %xmm0, %xmm1 vmulsd %xmm12, %xmm9, %xmm0 vminsd %xmm7, %xmm5, %xmm3 vmovd %xmm4, %rax vxorpd %xmm6, %xmm3, %xmm4 vucomisd %xmm13, %xmm13 jp .LBB0_537 vmaxsd %xmm13, %xmm4, %xmm4 .LBB0_537: vmovsd 976(%rbx), %xmm2 vaddsd %xmm0, %xmm2, %xmm8 vsubsd 984(%rbx), %xmm1, %xmm3 vmovd %xmm4, %rcx andq %r14, %rcx andq %r14, %rax vmovd %rax, %xmm0 vucomisd %xmm0, %xmm0 vmovd %rcx, %xmm1 jp .LBB0_539 vmaxsd %xmm0, %xmm1, %xmm1 .LBB0_539: vmulsd 1016(%rbx), %xmm1, %xmm13 vmulsd 1008(%rbx), %xmm1, %xmm15 vmulsd 1024(%rbx), %xmm1, %xmm7 vmulsd 1032(%rbx), %xmm1, %xmm4 vmulsd 1264(%rbx), %xmm1, %xmm5 vmulsd %xmm3, %xmm1, %xmm3 vmulsd 1272(%rbx), %xmm1, %xmm2 vmulsd 1288(%rbx), %xmm1, %xmm0 vmulsd 1760(%rbx), %xmm1, %xmm1 vmovsd 1256(%rbx), %xmm6 vsubsd %xmm0, %xmm6, %xmm11 vmovsd 1768(%rbx), %xmm0 vsubsd %xmm2, %xmm0, %xmm9 vsubsd %xmm3, %xmm8, %xmm3 vmovsd 1696(%rbx), %xmm0 vsubsd %xmm5, %xmm0, %xmm10 vmovsd 1040(%rbx), %xmm0 vsubsd %xmm4, %xmm0, %xmm12 vmovsd 1048(%rbx), %xmm0 vsubsd %xmm7, %xmm0, %xmm7 vmovsd 1248(%rbx), %xmm0 vsubsd %xmm15, %xmm0, %xmm6 vmovsd 1776(%rbx), %xmm0 vsubsd %xmm13, %xmm0, %xmm2 vmovsd 1584(%rbx), %xmm0 vsubsd %xmm1, %xmm0, %xmm1 imull $12, 48(%r13,%rsi), %eax addl 32(%r13,%rsi), %eax shlq $32, %rax movabsq $5059471474688, %rcx addq %rcx, %rax sarq $32, %rax vmovsd 1792(%rbx,%rax,8), %xmm0 movq (%r13,%rsi), %rax movq 16(%r13,%rsi), %rcx imull $68, %ecx, %ecx addl %eax, %ecx shlq $32, %rcx leaq (%rcx,%rcx,8), %rax movl 8(%r13,%rsi), %r8d movl 24(%r13,%rsi), %r12d imull $68, %r12d, %edi addl %r8d, %edi leal 1854(%rdi,%rdi,8), %r11d movabsq $5368709120000, %rcx leaq (%rax,%rcx), %rdx movabsq $5407363825664, %rcx leaq (%rax,%rcx), %r14 movabsq $7997229105152, %rcx leaq (%rax,%rcx), %r9 leal 1251(%rdi,%rdi,8), %r10d leal 1242(%rdi,%rdi,8), %edi movl 64(%r13,%rsi), %eax leal 8(%rax,%rax,8), %ecx sarq $32, %r9 sarq $32, %r14 sarq $32, %rdx testb $1, 60(%r13,%rsi) movslq %ecx, %r15 vmovsd .LCPI0_6(%rip), %xmm4 vmulsd %xmm4, %xmm3, %xmm3 vmovsd %xmm3, 1760(%rbx) vmulsd %xmm4, %xmm9, %xmm3 vmovsd %xmm3, 1696(%rbx) vmulsd %xmm4, %xmm11, %xmm3 vmovsd %xmm3, 1616(%rbx) vmulsd %xmm4, %xmm1, %xmm1 vmovsd %xmm1, 1592(%rbx) vmulsd %xmm4, %xmm2, %xmm1 vmovsd %xmm1, 1584(%rbx) vmulsd %xmm4, %xmm6, %xmm1 vmovsd %xmm1, 1288(%rbx) vmulsd %xmm4, %xmm7, %xmm1 vmovsd %xmm1, 1280(%rbx) vmulsd %xmm4, %xmm12, %xmm15 vmulsd %xmm4, %xmm10, %xmm2 jne .LBB0_548 cmpl $63, %r8d vmovsd .LCPI0_17(%rip), %xmm3 vmovsd 1216(%rbx), %xmm8 vmovsd 1208(%rbx), %xmm7 vmovsd 1200(%rbx), %xmm4 vmovsd 1184(%rbx), %xmm5 vmovsd 1088(%rbx), %xmm6 vmovsd 1056(%rbx), %xmm1 movslq %edi, %rsi jne .LBB0_631 movq 1344(%rbx), %rcx vmovsd %xmm5, (%rcx,%rsi,8) movq 1328(%rbx), %rax vmovsd %xmm1, (%rax,%rsi,8) movslq %r10d, %rdi vmovsd 1080(%rbx), %xmm5 vmovsd %xmm5, (%rcx,%rdi,8) movslq %r11d, %r8 cmpl $63, %r12d vmovsd 1304(%rbx), %xmm10 vmovsd 1296(%rbx), %xmm13 jne .LBB0_543 vmovsd %xmm2, (%rax,%r8,8) .LBB0_543: vucomisd %xmm0, %xmm3 movq 1320(%rbx), %r11 vmovsd .LCPI0_1(%rip), %xmm12 vmovsd 1576(%rbx), %xmm11 vmovsd 1624(%rbx), %xmm5 jbe .LBB0_546 movq $0, (%r11,%r15,8) movq $0, (%rcx,%rdx,8) movq $0, (%rax,%rdx,8) movq $0, (%rcx,%r14,8) cmpl $63, %r12d jne .LBB0_685 movq $0, (%rax,%r9,8) .LBB0_546: vmovsd 1608(%rbx), %xmm2 vmovsd %xmm2, 8(%rcx,%rsi,8) vmovsd %xmm5, 8(%rax,%rsi,8) vmovsd %xmm6, 8(%rcx,%rdi,8) cmpl $63, %r12d jne .LBB0_686 vmovsd %xmm15, 8(%rax,%r8,8) jmp .LBB0_686 .align 16, 0x90 .LBB0_548: movq %r14, 1768(%rbx) movq %r15, 1776(%rbx) leal (%rax,%rax,8), %eax vmovsd 88(%rsi,%r13), %xmm3 movslq %eax, %rsi movq 1320(%rbx), %rax vmovsd %xmm3, (%rax,%rsi,8) movslq %edi, %r15 movq 1344(%rbx), %rcx vmovsd 1184(%rbx), %xmm3 vmovsd %xmm3, (%rcx,%r15,8) movq 1328(%rbx), %rax vmovsd 1056(%rbx), %xmm1 vmovsd %xmm1, (%rax,%r15,8) movslq %r10d, %r14 cmpl $63, %r8d vmovsd .LCPI0_17(%rip), %xmm3 vmovsd 1208(%rbx), %xmm6 vmovsd 1200(%rbx), %xmm4 vmovsd 1088(%rbx), %xmm5 jne .LBB0_550 vmovsd 1080(%rbx), %xmm7 vmovsd %xmm7, (%rcx,%r14,8) .LBB0_550: movslq %r11d, %r10 cmpl $63, %r12d movq 1328(%rbx), %rax jne .LBB0_552 vmovsd %xmm2, (%rax,%r10,8) .LBB0_552: vucomisd %xmm0, %xmm3 movq 1320(%rbx), %r11 jbe .LBB0_557 movq 1776(%rbx), %rdi movq $0, (%r11,%rdi,8) movq $0, (%rcx,%rdx,8) movq $0, (%rax,%rdx,8) cmpl $63, %r8d jne .LBB0_555 movq 1768(%rbx), %rdi movq $0, (%rcx,%rdi,8) .LBB0_555: cmpl $63, %r12d jne .LBB0_557 movq $0, (%rax,%r9,8) .LBB0_557: vmovsd 816(%rbx), %xmm2 vmovsd %xmm2, 8(%r11,%rsi,8) vmovsd 1608(%rbx), %xmm2 vmovsd %xmm2, 8(%rcx,%r15,8) vmovsd 1624(%rbx), %xmm2 vmovsd %xmm2, 8(%rax,%r15,8) cmpl $63, %r8d jne .LBB0_559 vmovsd %xmm5, 8(%rcx,%r14,8) .LBB0_559: cmpl $63, %r12d vmovsd 1632(%rbx), %xmm2 jne .LBB0_561 vmovsd %xmm15, 8(%rax,%r10,8) .LBB0_561: vucomisd %xmm0, %xmm3 jbe .LBB0_566 movq 1776(%rbx), %rdi movq $0, (%r11,%rdi,8) movq $0, (%rcx,%rdx,8) movq $0, (%rax,%rdx,8) cmpl $63, %r8d jne .LBB0_564 movq 1768(%rbx), %rdi movq $0, (%rcx,%rdi,8) .LBB0_564: cmpl $63, %r12d jne .LBB0_566 movq $0, (%rax,%r9,8) .LBB0_566: vmovsd 824(%rbx), %xmm1 vmovsd %xmm1, 16(%r11,%rsi,8) vmovsd %xmm4, 16(%rcx,%r15,8) vmovsd %xmm2, 16(%rax,%r15,8) cmpl $63, %r8d vmovsd 1296(%rbx), %xmm5 jne .LBB0_568 vmovsd 1112(%rbx), %xmm1 vmovsd %xmm1, 16(%rcx,%r14,8) .LBB0_568: cmpl $63, %r12d vmovsd 1576(%rbx), %xmm8 vmovsd 1304(%rbx), %xmm4 jne .LBB0_570 vmovsd 1280(%rbx), %xmm1 vmovsd %xmm1, 16(%rax,%r10,8) .LBB0_570: vucomisd %xmm0, %xmm3 vmovsd 1648(%rbx), %xmm7 jbe .LBB0_575 movq 1776(%rbx), %rdi movq $0, (%r11,%rdi,8) movq $0, (%rcx,%rdx,8) movq $0, (%rax,%rdx,8) cmpl $63, %r8d jne .LBB0_573 movq 1768(%rbx), %rdi movq $0, (%rcx,%rdi,8) .LBB0_573: cmpl $63, %r12d jne .LBB0_575 movq $0, (%rax,%r9,8) .LBB0_575: vmovsd 832(%rbx), %xmm1 vmovsd %xmm1, 24(%r11,%rsi,8) vmovsd %xmm6, 24(%rcx,%r15,8) vmovsd 1640(%rbx), %xmm1 vmovsd %xmm1, 24(%rax,%r15,8) cmpl $63, %r8d vmovsd .LCPI0_1(%rip), %xmm12 vmovsd 1656(%rbx), %xmm2 jne .LBB0_577 vmovsd 1120(%rbx), %xmm1 vmovsd %xmm1, 24(%rcx,%r14,8) .LBB0_577: cmpl $63, %r12d jne .LBB0_579 vmovsd 1288(%rbx), %xmm1 vmovsd %xmm1, 24(%rax,%r10,8) .LBB0_579: vucomisd %xmm0, %xmm3 jbe .LBB0_584 movq 1776(%rbx), %rdi movq $0, (%r11,%rdi,8) movq $0, (%rcx,%rdx,8) movq $0, (%rax,%rdx,8) cmpl $63, %r8d jne .LBB0_582 movq 1768(%rbx), %rdi movq $0, (%rcx,%rdi,8) .LBB0_582: cmpl $63, %r12d jne .LBB0_584 movq $0, (%rax,%r9,8) .LBB0_584: vmovsd 840(%rbx), %xmm1 vmovsd %xmm1, 32(%r11,%rsi,8) vmovsd 1600(%rbx), %xmm1 vmovsd %xmm1, 32(%rcx,%r15,8) vmovsd %xmm7, 32(%rax,%r15,8) cmpl $63, %r8d vmovsd 1664(%rbx), %xmm7 jne .LBB0_586 vmovsd 1128(%rbx), %xmm1 vmovsd %xmm1, 32(%rcx,%r14,8) .LBB0_586: cmpl $63, %r12d vmovsd 1216(%rbx), %xmm6 jne .LBB0_588 vmovsd 1584(%rbx), %xmm1 vmovsd %xmm1, 32(%rax,%r10,8) .LBB0_588: vucomisd %xmm0, %xmm3 jbe .LBB0_593 movq 1776(%rbx), %rdi movq $0, (%r11,%rdi,8) movq $0, (%rcx,%rdx,8) movq $0, (%rax,%rdx,8) cmpl $63, %r8d jne .LBB0_591 movq 1768(%rbx), %rdi movq $0, (%rcx,%rdi,8) .LBB0_591: cmpl $63, %r12d jne .LBB0_593 movq $0, (%rax,%r9,8) .LBB0_593: movq 1336(%rbx), %rdi vmovsd 128(%rdi,%r13), %xmm1 vmovsd %xmm1, 40(%r11,%rsi,8) vmovsd %xmm6, 40(%rcx,%r15,8) vmovsd %xmm2, 40(%rax,%r15,8) cmpl $63, %r8d jne .LBB0_595 vmovsd 1136(%rbx), %xmm1 vmovsd %xmm1, 40(%rcx,%r14,8) .LBB0_595: cmpl $63, %r12d vmovsd 1680(%rbx), %xmm6 jne .LBB0_597 vmovsd 1592(%rbx), %xmm1 vmovsd %xmm1, 40(%rax,%r10,8) .LBB0_597: vucomisd %xmm0, %xmm3 jbe .LBB0_602 movq 1776(%rbx), %rdi movq $0, (%r11,%rdi,8) movq $0, (%rcx,%rdx,8) movq $0, (%rax,%rdx,8) cmpl $63, %r8d jne .LBB0_600 movq 1768(%rbx), %rdi movq $0, (%rcx,%rdi,8) .LBB0_600: cmpl $63, %r12d jne .LBB0_602 movq $0, (%rax,%r9,8) .LBB0_602: movq 1336(%rbx), %rdi vmovsd 136(%rdi,%r13), %xmm1 vmovsd %xmm1, 48(%r11,%rsi,8) vmovsd %xmm5, 48(%rcx,%r15,8) vmovsd %xmm7, 48(%rax,%r15,8) cmpl $63, %r8d jne .LBB0_604 vmovsd 1160(%rbx), %xmm1 vmovsd %xmm1, 48(%rcx,%r14,8) .LBB0_604: cmpl $63, %r12d jne .LBB0_606 vmovsd 1616(%rbx), %xmm1 vmovsd %xmm1, 48(%rax,%r10,8) .LBB0_606: vucomisd %xmm0, %xmm3 jbe .LBB0_611 movq 1776(%rbx), %rdi movq $0, (%r11,%rdi,8) movq $0, (%rcx,%rdx,8) movq $0, (%rax,%rdx,8) cmpl $63, %r8d jne .LBB0_609 movq 1768(%rbx), %rdi movq $0, (%rcx,%rdi,8) .LBB0_609: cmpl $63, %r12d jne .LBB0_611 movq $0, (%rax,%r9,8) .LBB0_611: movq 1336(%rbx), %rdi vmovsd 144(%rdi,%r13), %xmm1 vmovsd %xmm1, 56(%r11,%rsi,8) vmovsd %xmm4, 56(%rcx,%r15,8) vmovsd 1672(%rbx), %xmm1 vmovsd %xmm1, 56(%rax,%r15,8) cmpl $63, %r8d jne .LBB0_613 vmovsd 1168(%rbx), %xmm1 vmovsd %xmm1, 56(%rcx,%r14,8) .LBB0_613: cmpl $63, %r12d jne .LBB0_615 vmovsd 1696(%rbx), %xmm1 vmovsd %xmm1, 56(%rax,%r10,8) .LBB0_615: vucomisd %xmm0, %xmm3 jbe .LBB0_620 movq 1776(%rbx), %rdi movq $0, (%r11,%rdi,8) movq $0, (%rcx,%rdx,8) movq $0, (%rax,%rdx,8) cmpl $63, %r8d jne .LBB0_618 movq 1768(%rbx), %rdi movq $0, (%rcx,%rdi,8) .LBB0_618: cmpl $63, %r12d jne .LBB0_620 movq $0, (%rax,%r9,8) .LBB0_620: vmovsd 808(%rbx), %xmm1 vmovsd %xmm1, 64(%r11,%rsi,8) vmovsd %xmm8, 64(%rcx,%r15,8) vmovsd %xmm6, 64(%rax,%r15,8) cmpl $63, %r8d jne .LBB0_622 vmovsd 1176(%rbx), %xmm1 vmovsd %xmm1, 64(%rcx,%r14,8) .LBB0_622: cmpl $63, %r12d movq 1776(%rbx), %rsi movq 1768(%rbx), %rdi jne .LBB0_624 vmovsd 1760(%rbx), %xmm1 vmovsd %xmm1, 64(%rax,%r10,8) .LBB0_624: vucomisd %xmm0, %xmm3 jbe .LBB0_629 movq $0, (%r11,%rsi,8) movq $0, (%rcx,%rdx,8) movq $0, (%rax,%rdx,8) cmpl $63, %r8d jne .LBB0_627 movq $0, (%rcx,%rdi,8) jmp .LBB0_627 .align 16, 0x90 .LBB0_631: movq 1344(%rbx), %rax vmovsd %xmm5, (%rax,%rsi,8) movq 1328(%rbx), %rax vmovsd %xmm1, (%rax,%rsi,8) movslq %r11d, %rdi cmpl $63, %r12d vmovsd 1304(%rbx), %xmm10 vmovsd 1296(%rbx), %xmm9 jne .LBB0_633 vmovsd %xmm2, (%rax,%rdi,8) .LBB0_633: vucomisd %xmm0, %xmm3 movq 1320(%rbx), %r11 vmovsd .LCPI0_1(%rip), %xmm12 vmovsd 1576(%rbx), %xmm13 jbe .LBB0_639 movq $0, (%r11,%r15,8) movq 1344(%rbx), %rcx movq $0, (%rcx,%rdx,8) movq $0, (%rax,%rdx,8) cmpl $63, %r12d vmovsd 1640(%rbx), %xmm6 vmovsd 1632(%rbx), %xmm2 jne .LBB0_635 movq $0, (%rax,%r9,8) vmovsd 1608(%rbx), %xmm11 vmovsd %xmm11, 8(%rcx,%rsi,8) vmovsd 1624(%rbx), %xmm5 vmovsd %xmm5, 8(%rax,%rsi,8) jmp .LBB0_640 .LBB0_639: movq 1344(%rbx), %rcx vmovsd 1608(%rbx), %xmm2 vmovsd %xmm2, 8(%rcx,%rsi,8) vmovsd 1624(%rbx), %xmm2 vmovsd %xmm2, 8(%rax,%rsi,8) cmpl $63, %r12d vmovsd 1640(%rbx), %xmm6 vmovsd 1632(%rbx), %xmm2 jne .LBB0_644 .LBB0_640: vmovsd %xmm15, 8(%rax,%rdi,8) jmp .LBB0_641 .LBB0_685: vmovsd 1608(%rbx), %xmm1 vmovsd %xmm1, 8(%rcx,%rsi,8) vmovsd %xmm5, 8(%rax,%rsi,8) vmovsd %xmm6, 8(%rcx,%rdi,8) .LBB0_686: vucomisd %xmm0, %xmm3 vmovsd 1120(%rbx), %xmm2 vmovsd 1112(%rbx), %xmm1 jbe .LBB0_689 movq $0, (%r11,%r15,8) movq $0, (%rcx,%rdx,8) movq $0, (%rax,%rdx,8) movq $0, (%rcx,%r14,8) cmpl $63, %r12d jne .LBB0_691 movq $0, (%rax,%r9,8) .LBB0_689: vmovsd %xmm4, 16(%rcx,%rsi,8) vmovsd 1632(%rbx), %xmm4 vmovsd %xmm4, 16(%rax,%rsi,8) vmovsd %xmm1, 16(%rcx,%rdi,8) cmpl $63, %r12d jne .LBB0_692 vmovsd 1280(%rbx), %xmm1 vmovsd %xmm1, 16(%rax,%r8,8) jmp .LBB0_692 .LBB0_635: vmovsd 1608(%rbx), %xmm1 vmovsd %xmm1, 8(%rcx,%rsi,8) vmovsd 1624(%rbx), %xmm1 vmovsd %xmm1, 8(%rax,%rsi,8) .LBB0_641: vucomisd %xmm0, %xmm3 jbe .LBB0_645 movq $0, (%r11,%r15,8) movq $0, (%rcx,%rdx,8) movq $0, (%rax,%rdx,8) cmpl $63, %r12d jne .LBB0_644 movq $0, (%rax,%r9,8) vmovsd %xmm4, 16(%rcx,%rsi,8) vmovsd %xmm2, 16(%rax,%rsi,8) vmovsd 1600(%rbx), %xmm1 vmovsd 1672(%rbx), %xmm2 jmp .LBB0_646 .LBB0_644: vmovsd %xmm4, 16(%rcx,%rsi,8) vmovsd %xmm2, 16(%rax,%rsi,8) vmovsd 1600(%rbx), %xmm1 vmovsd 1672(%rbx), %xmm2 jmp .LBB0_647 .LBB0_645: vmovsd %xmm4, 16(%rcx,%rsi,8) vmovsd %xmm2, 16(%rax,%rsi,8) cmpl $63, %r12d vmovsd 1600(%rbx), %xmm1 vmovsd 1672(%rbx), %xmm2 jne .LBB0_650 .LBB0_646: vmovsd 1280(%rbx), %xmm4 vmovsd %xmm4, 16(%rax,%rdi,8) .LBB0_647: vucomisd %xmm0, %xmm3 jbe .LBB0_651 movq $0, (%r11,%r15,8) movq $0, (%rcx,%rdx,8) movq $0, (%rax,%rdx,8) cmpl $63, %r12d jne .LBB0_650 movq $0, (%rax,%r9,8) vmovsd %xmm7, 24(%rcx,%rsi,8) vmovsd %xmm6, 24(%rax,%rsi,8) vmovsd 1664(%rbx), %xmm4 vmovsd 1656(%rbx), %xmm7 vmovsd 1648(%rbx), %xmm6 jmp .LBB0_652 .LBB0_651: vmovsd %xmm7, 24(%rcx,%rsi,8) vmovsd %xmm6, 24(%rax,%rsi,8) cmpl $63, %r12d vmovsd 1664(%rbx), %xmm4 vmovsd 1656(%rbx), %xmm7 vmovsd 1648(%rbx), %xmm6 jne .LBB0_656 .LBB0_652: vmovsd 1288(%rbx), %xmm5 vmovsd %xmm5, 24(%rax,%rdi,8) jmp .LBB0_653 .LBB0_650: vmovsd %xmm7, 24(%rcx,%rsi,8) vmovsd %xmm6, 24(%rax,%rsi,8) vmovsd 1664(%rbx), %xmm4 vmovsd 1656(%rbx), %xmm7 vmovsd 1648(%rbx), %xmm6 .LBB0_653: vucomisd %xmm0, %xmm3 jbe .LBB0_657 movq $0, (%r11,%r15,8) movq $0, (%rcx,%rdx,8) movq $0, (%rax,%rdx,8) cmpl $63, %r12d jne .LBB0_656 movq $0, (%rax,%r9,8) vmovsd %xmm1, 32(%rcx,%rsi,8) vmovsd %xmm6, 32(%rax,%rsi,8) jmp .LBB0_658 .LBB0_656: vmovsd %xmm1, 32(%rcx,%rsi,8) vmovsd %xmm6, 32(%rax,%rsi,8) jmp .LBB0_659 .LBB0_657: vmovsd %xmm1, 32(%rcx,%rsi,8) vmovsd %xmm6, 32(%rax,%rsi,8) cmpl $63, %r12d jne .LBB0_662 .LBB0_658: vmovsd 1584(%rbx), %xmm1 vmovsd %xmm1, 32(%rax,%rdi,8) .LBB0_659: vucomisd %xmm0, %xmm3 jbe .LBB0_663 movq $0, (%r11,%r15,8) movq $0, (%rcx,%rdx,8) movq $0, (%rax,%rdx,8) cmpl $63, %r12d jne .LBB0_662 movq $0, (%rax,%r9,8) vmovsd %xmm8, 40(%rcx,%rsi,8) vmovsd %xmm7, 40(%rax,%rsi,8) jmp .LBB0_664 .LBB0_663: vmovsd %xmm8, 40(%rcx,%rsi,8) vmovsd %xmm7, 40(%rax,%rsi,8) cmpl $63, %r12d jne .LBB0_668 .LBB0_664: vmovsd 1592(%rbx), %xmm1 vmovsd %xmm1, 40(%rax,%rdi,8) jmp .LBB0_665 .LBB0_662: vmovsd %xmm8, 40(%rcx,%rsi,8) vmovsd %xmm7, 40(%rax,%rsi,8) .LBB0_665: vucomisd %xmm0, %xmm3 jbe .LBB0_669 movq $0, (%r11,%r15,8) movq $0, (%rcx,%rdx,8) movq $0, (%rax,%rdx,8) cmpl $63, %r12d jne .LBB0_668 movq $0, (%rax,%r9,8) vmovsd %xmm9, 48(%rcx,%rsi,8) vmovsd %xmm4, 48(%rax,%rsi,8) jmp .LBB0_670 .LBB0_669: vmovsd %xmm9, 48(%rcx,%rsi,8) vmovsd %xmm4, 48(%rax,%rsi,8) cmpl $63, %r12d jne .LBB0_674 .LBB0_670: vmovsd 1616(%rbx), %xmm1 vmovsd %xmm1, 48(%rax,%rdi,8) jmp .LBB0_671 .LBB0_668: vmovsd %xmm9, 48(%rcx,%rsi,8) vmovsd %xmm4, 48(%rax,%rsi,8) .LBB0_671: vucomisd %xmm0, %xmm3 jbe .LBB0_675 movq $0, (%r11,%r15,8) movq $0, (%rcx,%rdx,8) movq $0, (%rax,%rdx,8) cmpl $63, %r12d jne .LBB0_674 movq $0, (%rax,%r9,8) vmovsd %xmm10, 56(%rcx,%rsi,8) vmovsd %xmm2, 56(%rax,%rsi,8) jmp .LBB0_676 .LBB0_675: vmovsd %xmm10, 56(%rcx,%rsi,8) vmovsd %xmm2, 56(%rax,%rsi,8) cmpl $63, %r12d jne .LBB0_680 .LBB0_676: vmovsd 1696(%rbx), %xmm1 vmovsd %xmm1, 56(%rax,%rdi,8) jmp .LBB0_677 .LBB0_674: vmovsd %xmm10, 56(%rcx,%rsi,8) vmovsd %xmm2, 56(%rax,%rsi,8) .LBB0_677: vucomisd %xmm0, %xmm3 jbe .LBB0_681 movq $0, (%r11,%r15,8) movq $0, (%rcx,%rdx,8) movq $0, (%rax,%rdx,8) cmpl $63, %r12d jne .LBB0_680 movq $0, (%rax,%r9,8) vmovsd %xmm13, 64(%rcx,%rsi,8) vmovsd 1680(%rbx), %xmm1 vmovsd %xmm1, 64(%rax,%rsi,8) jmp .LBB0_682 .LBB0_681: vmovsd %xmm13, 64(%rcx,%rsi,8) vmovsd 1680(%rbx), %xmm1 vmovsd %xmm1, 64(%rax,%rsi,8) cmpl $63, %r12d jne .LBB0_629 .LBB0_682: vmovsd 1760(%rbx), %xmm1 vmovsd %xmm1, 64(%rax,%rdi,8) jmp .LBB0_683 .LBB0_680: vmovsd %xmm13, 64(%rcx,%rsi,8) vmovsd 1680(%rbx), %xmm1 vmovsd %xmm1, 64(%rax,%rsi,8) .LBB0_683: vucomisd %xmm0, %xmm3 jbe .LBB0_629 movq $0, (%r11,%r15,8) movq $0, (%rcx,%rdx,8) movq $0, (%rax,%rdx,8) jmp .LBB0_627 .LBB0_691: vmovsd %xmm4, 16(%rcx,%rsi,8) vmovsd 1632(%rbx), %xmm4 vmovsd %xmm4, 16(%rax,%rsi,8) vmovsd %xmm1, 16(%rcx,%rdi,8) .LBB0_692: vucomisd %xmm0, %xmm3 vmovsd 1600(%rbx), %xmm1 vmovsd 1128(%rbx), %xmm4 vmovsd 1680(%rbx), %xmm9 vmovsd 1656(%rbx), %xmm5 vmovsd 1648(%rbx), %xmm6 jbe .LBB0_695 movq $0, (%r11,%r15,8) movq $0, (%rcx,%rdx,8) movq $0, (%rax,%rdx,8) movq $0, (%rcx,%r14,8) cmpl $63, %r12d jne .LBB0_697 movq $0, (%rax,%r9,8) .LBB0_695: vmovsd %xmm7, 24(%rcx,%rsi,8) vmovsd 1640(%rbx), %xmm7 vmovsd %xmm7, 24(%rax,%rsi,8) vmovsd %xmm2, 24(%rcx,%rdi,8) cmpl $63, %r12d jne .LBB0_698 vmovsd 1288(%rbx), %xmm2 vmovsd %xmm2, 24(%rax,%r8,8) jmp .LBB0_698 .LBB0_697: vmovsd %xmm7, 24(%rcx,%rsi,8) vmovsd 1640(%rbx), %xmm7 vmovsd %xmm7, 24(%rax,%rsi,8) vmovsd %xmm2, 24(%rcx,%rdi,8) .LBB0_698: vucomisd %xmm0, %xmm3 vmovsd 1136(%rbx), %xmm2 vmovsd 1664(%rbx), %xmm7 jbe .LBB0_701 movq $0, (%r11,%r15,8) movq $0, (%rcx,%rdx,8) movq $0, (%rax,%rdx,8) movq $0, (%rcx,%r14,8) cmpl $63, %r12d jne .LBB0_703 movq $0, (%rax,%r9,8) .LBB0_701: vmovsd %xmm1, 32(%rcx,%rsi,8) vmovsd %xmm6, 32(%rax,%rsi,8) vmovsd %xmm4, 32(%rcx,%rdi,8) cmpl $63, %r12d jne .LBB0_704 vmovsd 1584(%rbx), %xmm1 vmovsd %xmm1, 32(%rax,%r8,8) jmp .LBB0_704 .LBB0_703: vmovsd %xmm1, 32(%rcx,%rsi,8) vmovsd %xmm6, 32(%rax,%rsi,8) vmovsd %xmm4, 32(%rcx,%rdi,8) .LBB0_704: vucomisd %xmm0, %xmm3 vmovsd 1160(%rbx), %xmm1 vmovsd 1672(%rbx), %xmm4 jbe .LBB0_707 movq $0, (%r11,%r15,8) movq $0, (%rcx,%rdx,8) movq $0, (%rax,%rdx,8) movq $0, (%rcx,%r14,8) cmpl $63, %r12d jne .LBB0_709 movq $0, (%rax,%r9,8) .LBB0_707: vmovsd %xmm8, 40(%rcx,%rsi,8) vmovsd %xmm5, 40(%rax,%rsi,8) vmovsd %xmm2, 40(%rcx,%rdi,8) cmpl $63, %r12d jne .LBB0_710 vmovsd 1592(%rbx), %xmm2 vmovsd %xmm2, 40(%rax,%r8,8) jmp .LBB0_710 .LBB0_709: vmovsd %xmm8, 40(%rcx,%rsi,8) vmovsd %xmm5, 40(%rax,%rsi,8) vmovsd %xmm2, 40(%rcx,%rdi,8) .LBB0_710: vucomisd %xmm0, %xmm3 vmovsd 1168(%rbx), %xmm2 jbe .LBB0_713 movq $0, (%r11,%r15,8) movq $0, (%rcx,%rdx,8) movq $0, (%rax,%rdx,8) movq $0, (%rcx,%r14,8) cmpl $63, %r12d jne .LBB0_715 movq $0, (%rax,%r9,8) .LBB0_713: vmovsd %xmm13, 48(%rcx,%rsi,8) vmovsd %xmm7, 48(%rax,%rsi,8) vmovsd %xmm1, 48(%rcx,%rdi,8) cmpl $63, %r12d jne .LBB0_716 vmovsd 1616(%rbx), %xmm1 vmovsd %xmm1, 48(%rax,%r8,8) jmp .LBB0_716 .LBB0_715: vmovsd %xmm13, 48(%rcx,%rsi,8) vmovsd %xmm7, 48(%rax,%rsi,8) vmovsd %xmm1, 48(%rcx,%rdi,8) .LBB0_716: vucomisd %xmm0, %xmm3 vmovsd 1176(%rbx), %xmm1 jbe .LBB0_719 movq $0, (%r11,%r15,8) movq $0, (%rcx,%rdx,8) movq $0, (%rax,%rdx,8) movq $0, (%rcx,%r14,8) cmpl $63, %r12d jne .LBB0_721 movq $0, (%rax,%r9,8) .LBB0_719: vmovsd %xmm10, 56(%rcx,%rsi,8) vmovsd %xmm4, 56(%rax,%rsi,8) vmovsd %xmm2, 56(%rcx,%rdi,8) cmpl $63, %r12d jne .LBB0_722 vmovsd 1696(%rbx), %xmm2 vmovsd %xmm2, 56(%rax,%r8,8) jmp .LBB0_722 .LBB0_721: vmovsd %xmm10, 56(%rcx,%rsi,8) vmovsd %xmm4, 56(%rax,%rsi,8) vmovsd %xmm2, 56(%rcx,%rdi,8) .LBB0_722: vucomisd %xmm0, %xmm3 jbe .LBB0_725 movq $0, (%r11,%r15,8) movq $0, (%rcx,%rdx,8) movq $0, (%rax,%rdx,8) movq $0, (%rcx,%r14,8) cmpl $63, %r12d jne .LBB0_727 movq $0, (%rax,%r9,8) .LBB0_725: vmovsd %xmm11, 64(%rcx,%rsi,8) vmovsd %xmm9, 64(%rax,%rsi,8) vmovsd %xmm1, 64(%rcx,%rdi,8) cmpl $63, %r12d jne .LBB0_728 vmovsd 1760(%rbx), %xmm1 vmovsd %xmm1, 64(%rax,%r8,8) jmp .LBB0_728 .LBB0_727: vmovsd %xmm11, 64(%rcx,%rsi,8) vmovsd %xmm9, 64(%rax,%rsi,8) vmovsd %xmm1, 64(%rcx,%rdi,8) .LBB0_728: vucomisd %xmm0, %xmm3 jbe .LBB0_629 movq $0, (%r11,%r15,8) movq $0, (%rcx,%rdx,8) movq $0, (%rax,%rdx,8) movq $0, (%rcx,%r14,8) .LBB0_627: cmpl $63, %r12d jne .LBB0_629 movq $0, (%rax,%r9,8) .LBB0_629: movq 864(%rbx), %rdx incq %rdx cmpq 1240(%rbx), %rdx jae .LBB0_637 movq %r11, 1320(%rbx) movq %rcx, 1344(%rbx) movq %rax, 1328(%rbx) vmovsd 1720(%rbx), %xmm13 movq 1336(%rbx), %rcx jmp .LBB0_638 .align 16, 0x90 .LBB0_637: movq %r11, 1320(%rbx) movq %rcx, 1344(%rbx) movq %rax, 1328(%rbx) movq 848(%rbx), %rax incq %rax movq %rax, 848(%rbx) cmpq 1232(%rbx), %rax movl $0, %edx vmovsd 1720(%rbx), %xmm13 movq 1336(%rbx), %rcx jb .LBB0_638 leaq -40(%rbp), %rsp popq %rbx popq %r12 popq %r13 popq %r14 popq %r15 popq %rbp ret .Ltmp11: .size ComputeResidual, .Ltmp11-ComputeResidual .cfi_endproc .section .rodata.cst16,"aM",@progbits,16 .align 16 .LCPI1_0: .quad 6 .quad 7 .LCPI1_1: .quad 4 .quad 5 .LCPI1_2: .quad 2 .quad 3 .LCPI1_3: .long 2147483648 .long 2147483648 .long 2147483648 .long 2147483648 .LCPI1_4: .long 2147483712 .long 2147483712 .long 2147483712 .long 2147483712 .LCPI1_5: .byte 0 .byte 1 .byte 4 .byte 5 .byte 8 .byte 9 .byte 12 .byte 13 .byte 128 .byte 128 .byte 128 .byte 128 .byte 128 .byte 128 .byte 128 .byte 128 .LCPI1_7: .long 2 .long 2 .long 2 .long 2 .LCPI1_8: .long 9 .long 9 .long 9 .long 9 .LCPI1_9: .quad 1 .quad 1 .LCPI1_10: .quad 2 .quad 2 .LCPI1_11: .quad 3 .quad 3 .LCPI1_12: .quad 4 .quad 4 .LCPI1_13: .quad 5 .quad 5 .LCPI1_14: .quad 6 .quad 6 .LCPI1_15: .quad 7 .quad 7 .LCPI1_16: .quad 8 .quad 8 .LCPI1_17: .short 1 .short 1 .short 1 .short 1 .short 1 .short 1 .short 1 .short 1 .LCPI1_20: .byte 128 .byte 128 .byte 128 .byte 128 .byte 128 .byte 128 .byte 128 .byte 128 .byte 0 .byte 128 .byte 4 .byte 128 .byte 8 .byte 128 .byte 12 .byte 128 .LCPI1_21: .byte 0 .byte 128 .byte 4 .byte 128 .byte 8 .byte 128 .byte 12 .byte 128 .byte 128 .byte 128 .byte 128 .byte 128 .byte 128 .byte 128 .byte 128 .byte 128 .LCPI1_33: .long 7 .long 7 .long 7 .long 7 .LCPI1_34: .long 1 .long 1 .long 1 .long 1 .LCPI1_35: .long 64 .long 64 .long 64 .long 64 .LCPI1_36: .long 63 .long 63 .long 63 .long 63 .LCPI1_37: .long 2147483655 .long 2147483655 .long 2147483655 .long 2147483655 .LCPI1_38: .long 12 .long 12 .long 12 .long 12 .LCPI1_40: .long 4294967294 .long 4294967294 .long 4294967294 .long 4294967294 .LCPI1_41: .long 4294967278 .long 4294967278 .long 4294967278 .long 4294967278 .LCPI1_42: .long 4294967287 .long 4294967287 .long 4294967287 .long 4294967287 .LCPI1_43: .long 10 .long 10 .long 10 .long 10 .LCPI1_44: .long 11 .long 11 .long 11 .long 11 .LCPI1_45: .long 62 .long 62 .long 62 .long 62 .LCPI1_46: .quad 51539607552 .quad 51539607552 .LCPI1_47: .quad 4329327034368 .quad 4329327034368 .LCPI1_48: .quad 3092376453120 .quad 3092376453120 .LCPI1_49: .quad 3710851743744 .quad 3710851743744 .LCPI1_50: .quad 4947802324992 .quad 4947802324992 .LCPI1_51: .quad 618475290624 .quad 618475290624 .LCPI1_52: .quad 1236950581248 .quad 1236950581248 .LCPI1_53: .quad 1855425871872 .quad 1855425871872 .LCPI1_54: .quad 2473901162496 .quad 2473901162496 .LCPI1_58: .quad 12 .quad 12 .LCPI1_59: .quad 96 .quad 96 .LCPI1_60: .quad 48 .quad 48 .LCPI1_61: .quad 24 .quad 24 .LCPI1_62: .quad 72 .quad 72 .LCPI1_63: .quad 84 .quad 84 .LCPI1_64: .quad 36 .quad 36 .LCPI1_65: .quad 60 .quad 60 .LCPI1_76: .long 3 .long 3 .long 3 .long 3 .LCPI1_78: .long 4 .long 4 .long 4 .long 4 .LCPI1_79: .quad 38654705664 .quad 38654705664 .LCPI1_80: .quad 7997229105152 .quad 7997229105152 .LCPI1_81: .quad 5407363825664 .quad 5407363825664 .LCPI1_82: .quad 5368709120000 .quad 5368709120000 .LCPI1_83: .long 1242 .long 1242 .long 1242 .long 1242 .LCPI1_84: .long 1251 .long 1251 .long 1251 .long 1251 .LCPI1_85: .long 1854 .long 1854 .long 1854 .long 1854 .LCPI1_86: .long 8 .long 8 .long 8 .long 8 .LCPI1_89: .zero 16 .section .rodata,"a",@progbits .align 32 .LCPI1_6: .long 1 .long 1 .long 1 .long 1 .long 1 .long 1 .long 1 .long 1 .LCPI1_19: .quad 4382569440205035030 .quad 4382569440205035030 .quad 4382569440205035030 .quad 4382569440205035030 .LCPI1_22: .quad -4616189618054758400 .quad -4616189618054758400 .quad -4616189618054758400 .quad -4616189618054758400 .LCPI1_23: .quad 4607182418800017408 .quad 4607182418800017408 .quad 4607182418800017408 .quad 4607182418800017408 .LCPI1_24: .quad 4611686018427387904 .quad 4611686018427387904 .quad 4611686018427387904 .quad 4611686018427387904 .LCPI1_25: .quad -9223372036854775808 .quad -9223372036854775808 .quad -9223372036854775808 .quad -9223372036854775808 .LCPI1_26: .quad 4307583784117748259 .quad 4307583784117748259 .quad 4307583784117748259 .quad 4307583784117748259 .LCPI1_27: .quad 4599676419421066580 .quad 4599676419421066580 .quad 4599676419421066580 .quad 4599676419421066580 .LCPI1_28: .quad 4602678819172646912 .quad 4602678819172646912 .quad 4602678819172646912 .quad 4602678819172646912 .LCPI1_29: .quad 4609434218613702656 .quad 4609434218613702656 .quad 4609434218613702656 .quad 4609434218613702656 .LCPI1_30: .quad -4614688418178968235 .quad -4614688418178968235 .quad -4614688418178968235 .quad -4614688418178968235 .LCPI1_31: .quad -4610935418489492822 .quad -4610935418489492822 .quad -4610935418489492822 .quad -4610935418489492822 .LCPI1_32: .quad 4607215944355556140 .quad 4607215944355556140 .quad 4607215944355556140 .quad 4607215944355556140 .LCPI1_39: .long 2 .long 2 .long 2 .long 2 .long 2 .long 2 .long 2 .long 2 .LCPI1_55: .quad 4412443251819771522 .quad 4412443251819771522 .quad 4412443251819771522 .quad 4412443251819771522 .LCPI1_56: .quad 9223372036854775807 .quad 9223372036854775807 .quad 9223372036854775807 .quad 9223372036854775807 .LCPI1_57: .quad 4606822130829827768 .quad 4606822130829827768 .quad 4606822130829827768 .quad 4606822130829827768 .LCPI1_66: .quad 4580160821035794432 .quad 4580160821035794432 .quad 4580160821035794432 .quad 4580160821035794432 .LCPI1_69: .quad -4691351453243840271 .quad -4691351453243840271 .quad -4691351453243840271 .quad -4691351453243840271 .LCPI1_70: .quad 4532020583610935537 .quad 4532020583610935537 .quad 4532020583610935537 .quad 4532020583610935537 .LCPI1_71: .quad 4596373779694328218 .quad 4596373779694328218 .quad 4596373779694328218 .quad 4596373779694328218 .LCPI1_73: .quad 4601678019255453466 .quad 4601678019255453466 .quad 4601678019255453466 .quad 4601678019255453466 .LCPI1_74: .quad 4608683618675807573 .quad 4608683618675807573 .quad 4608683618675807573 .quad 4608683618675807573 .LCPI1_75: .quad 4616189618054758400 .quad 4616189618054758400 .quad 4616189618054758400 .quad 4616189618054758400 .LCPI1_77: .quad -4620693217682128896 .quad -4620693217682128896 .quad -4620693217682128896 .quad -4620693217682128896 .LCPI1_88: .zero 32 .section .rodata.cst8,"aM",@progbits,8 .align 8 .LCPI1_18: .quad 4607182418800017408 .LCPI1_67: .quad 4602678819172646912 .LCPI1_68: .quad 4580160821035794432 .LCPI1_72: .quad -4620693217682128896 .LCPI1_87: .quad 0 .text .globl __Vectorized_.ComputeResidual .align 16, 0x90 .type __Vectorized_.ComputeResidual,@function __Vectorized_.ComputeResidual: .cfi_startproc pushq %rbp .Ltmp15: .cfi_def_cfa_offset 16 .Ltmp16: .cfi_offset %rbp, -16 movq %rsp, %rbp .Ltmp17: .cfi_def_cfa_register %rbp pushq %r15 pushq %r14 pushq %r13 pushq %r12 pushq %rbx andq $-128, %rsp subq $43520, %rsp movq %rsp, %rbx .Ltmp18: .cfi_offset %rbx, -56 .Ltmp19: .cfi_offset %r12, -48 .Ltmp20: .cfi_offset %r13, -40 .Ltmp21: .cfi_offset %r14, -32 .Ltmp22: .cfi_offset %r15, -24 movq 112(%rdi), %rdx movq 104(%rdi), %rcx movq %rcx, %rax imulq %rdx, %rax imulq 120(%rdi), %rax imulq $1624, %rax, %rax imulq (%rsi), %rcx addq 56(%rdi), %rcx movq %rcx, 32160(%rbx) imulq 8(%rsi), %rdx addq $15, %rax andq $-16, %rax movq 32(%rdi), %rcx movq %rcx, 12472(%rbx) movq 24(%rdi), %rcx movq %rcx, 32632(%rbx) movq 16(%rdi), %rcx movq %rcx, 22456(%rbx) movq (%rdi), %rcx movq %rcx, 32992(%rbx) movq 8(%rdi), %rcx movq %rcx, 23584(%rbx) movq %rsp, %rcx subq %rax, %rcx xorl %r13d, %r13d andq $-128, %rcx movq %rcx, 32792(%rbx) addq 64(%rdi), %rdx movq %rdx, 32192(%rbx) vxorps %xmm0, %xmm0, %xmm0 movq %rcx, %rsp leaq 232(%rcx), %rax movq %rax, 32128(%rbx) leaq 320(%rcx), %rax movq %rax, 32096(%rbx) leaq 316(%rcx), %rax movq %rax, 32064(%rbx) leaq 312(%rcx), %rax movq %rax, 32032(%rbx) leaq 308(%rcx), %rax movq %rax, 32000(%rbx) leaq 304(%rcx), %rax movq %rax, 31968(%rbx) leaq 300(%rcx), %rax movq %rax, 31936(%rbx) movq 104(%rdi), %rax movq %rax, 12088(%rbx) movq 112(%rdi), %rax movq %rax, 12080(%rbx) vmovups %xmm0, 43440(%rbx) leaq 296(%rcx), %rax movq %rax, 31904(%rbx) leaq 292(%rcx), %rax movq %rax, 31872(%rbx) leaq 288(%rcx), %rax movq %rax, 31840(%rbx) leaq 104(%rcx), %rax movq %rax, 31808(%rbx) leaq 112(%rcx), %rax movq %rax, 31776(%rbx) leaq 224(%rcx), %rax movq %rax, 31744(%rbx) leaq 96(%rcx), %rax movq %rax, 31712(%rbx) leaq 192(%rcx), %rax movq %rax, 31680(%rbx) leaq 256(%rcx), %rax movq %rax, 31648(%rbx) leaq 64(%rcx), %rax movq %rax, 31616(%rbx) movq %rcx, %rax subq $-128, %rax movq %rax, 31584(%rbx) leaq 448(%rcx), %rax movq %rax, 31552(%rbx) leaq 352(%rcx), %rax movq %rax, 31520(%rbx) leaq 384(%rcx), %rax movq %rax, 31488(%rbx) leaq 416(%rcx), %rax movq %rax, 31456(%rbx) leaq 504(%rcx), %rax movq %rax, 31424(%rbx) leaq 500(%rcx), %rax movq %rax, 31392(%rbx) leaq 496(%rcx), %rax movq %rax, 31360(%rbx) leaq 492(%rcx), %rax movq %rax, 31328(%rbx) leaq 488(%rcx), %rax movq %rax, 31296(%rbx) leaq 484(%rcx), %rax movq %rax, 31264(%rbx) leaq 480(%rcx), %rax movq %rax, 31232(%rbx) movq %rcx, %rdx movq 43440(%rbx), %r12 vpcmpeqd %xmm1, %xmm1, %xmm1 movl $1, %eax vinsertf128 $1, %xmm1, %ymm1, %ymm0 vmovaps %ymm0, 31200(%rbx) vmovd %rax, %xmm0 vpslldq $8, %xmm0, %xmm0 vmovdqa %xmm0, 31168(%rbx) vmovaps .LCPI1_6(%rip), %ymm15 vinsertf128 $1, %xmm1, %ymm1, %ymm0 vmovaps %ymm0, 31136(%rbx) xorl %eax, %eax movq %rax, 32928(%rbx) jmp .LBB1_1 .align 16, 0x90 .LBB1_9841: movq %r11, %rdx addq $12992, %r13 .LBB1_1: movq 32160(%rbx), %rax leaq (%r12,%rax), %rax vmovd %rax, %xmm0 vmovlhps %xmm0, %xmm0, %xmm0 movq 32192(%rbx), %rax movq 32928(%rbx), %rcx leaq (%rcx,%rax), %rsi vmovd %rsi, %xmm1 vmovlhps %xmm1, %xmm1, %xmm1 vinsertf128 $1, %xmm1, %ymm1, %ymm7 vmovdqa .LCPI1_0(%rip), %xmm5 vpaddq %xmm5, %xmm0, %xmm9 vmovdqa .LCPI1_1(%rip), %xmm12 vpaddq %xmm12, %xmm0, %xmm10 vinsertf128 $1, %xmm9, %ymm10, %ymm13 vorps %ymm13, %ymm7, %ymm1 vextractf128 $1, %ymm1, %xmm4 vpshufd $8, %xmm4, %xmm4 vpshufd $8, %xmm1, %xmm1 vmovlhps %xmm4, %xmm1, %xmm1 vmovdqa .LCPI1_2(%rip), %xmm14 vpaddq %xmm14, %xmm0, %xmm4 vmovdqa 31168(%rbx), %xmm3 vpaddq %xmm3, %xmm0, %xmm11 vinsertf128 $1, %xmm4, %ymm11, %ymm6 vorps %ymm6, %ymm7, %ymm0 vextractf128 $1, %ymm0, %xmm7 vpshufd $8, %xmm7, %xmm7 vpshufd $8, %xmm0, %xmm0 vmovlhps %xmm7, %xmm0, %xmm0 vmovaps .LCPI1_3(%rip), %xmm2 vxorps %xmm2, %xmm0, %xmm7 vxorps %xmm2, %xmm1, %xmm0 vmovdqa .LCPI1_4(%rip), %xmm1 vpcmpgtd %xmm0, %xmm1, %xmm0 vpcmpgtd %xmm7, %xmm1, %xmm1 vinsertf128 $1, %xmm0, %ymm1, %ymm8 vmovdqa .LCPI1_5(%rip), %xmm7 vpshufb %xmm7, %xmm0, %xmm0 vpshufb %xmm7, %xmm1, %xmm1 vmovlhps %xmm0, %xmm1, %xmm0 vxorps %ymm15, %ymm8, %ymm1 vpslld $31, %xmm1, %xmm7 vpsrad $31, %xmm7, %xmm7 vextractf128 $1, %ymm1, %xmm1 vpslld $31, %xmm1, %xmm1 vpsrad $31, %xmm1, %xmm1 vinsertf128 $1, %xmm1, %ymm7, %ymm7 vpextrb $12, %xmm0, %r8d vpextrb $14, %xmm0, %r10d vpextrb $4, %xmm0, %r15d vpextrb $6, %xmm0, %ecx vpextrb $8, %xmm0, %eax vpextrb $10, %xmm0, %edi vpextrb $0, %xmm0, %r14d vpextrb $2, %xmm0, %r11d andl $1, %r11d andl $1, %r14d andl $1, %edi andl $1, %eax andl $1, %ecx andl $1, %r15d andl $1, %r10d andl $1, %r8d vmovdqa 31200(%rbx), %ymm0 vptest %ymm0, %ymm7 sbbl %r9d, %r9d andl $1, %r9d vptest %ymm0, %ymm7 vmovaps %ymm13, 32(%rdx,%r13) vmovaps %ymm6, (%rdx,%r13) vpshufd $8, %xmm9, %xmm0 vpshufd $8, %xmm10, %xmm1 vmovlhps %xmm0, %xmm1, %xmm0 vpshufd $8, %xmm4, %xmm1 vpshufd $8, %xmm11, %xmm2 vmovlhps %xmm1, %xmm2, %xmm1 vinsertf128 $1, %xmm0, %ymm1, %ymm0 movq 31616(%rbx), %rdx vmovaps %ymm0, (%rdx,%r13) movq 31712(%rbx), %rdx movq %rsi, (%rdx,%r13) movq 31808(%rbx), %rdx movl %esi, (%rdx,%r13) movq 31776(%rbx), %rdx movq %r12, (%rdx,%r13) vmovd %r12, %xmm0 vmovlhps %xmm0, %xmm0, %xmm2 vpaddq %xmm14, %xmm2, %xmm0 vpaddq %xmm3, %xmm2, %xmm1 vinsertf128 $1, %xmm0, %ymm1, %ymm3 vpaddq %xmm5, %xmm2, %xmm4 vpaddq %xmm12, %xmm2, %xmm2 vinsertf128 $1, %xmm4, %ymm2, %ymm5 movq 31584(%rbx), %rdx vmovapd %ymm5, 32(%rdx,%r13) vmovaps %ymm3, (%rdx,%r13) vpshufd $8, %xmm4, %xmm3 vpshufd $8, %xmm2, %xmm2 vmovlhps %xmm3, %xmm2, %xmm2 vpshufd $8, %xmm0, %xmm0 vpshufd $8, %xmm1, %xmm1 vmovlhps %xmm0, %xmm1, %xmm0 vinsertf128 $1, %xmm2, %ymm0, %ymm0 movq 31680(%rbx), %rdx vmovaps %ymm0, (%rdx,%r13) movq 31744(%rbx), %rdx movq %r12, %rsi movq 32928(%rbx), %r12 movq %r12, (%rdx,%r13) movq 32128(%rbx), %rdx movl %r12d, (%rdx,%r13) vandps %ymm15, %ymm8, %ymm0 movq 31648(%rbx), %rdx vmovaps %ymm0, (%rdx,%r13) movq 31840(%rbx), %rdx movl %r14d, (%rdx,%r13) movq 31872(%rbx), %rdx movl %r11d, (%rdx,%r13) movq 31904(%rbx), %rdx movl %r15d, (%rdx,%r13) movq 31936(%rbx), %rdx movl %ecx, (%rdx,%r13) movq 31968(%rbx), %rcx movl %eax, (%rcx,%r13) movq 32000(%rbx), %rax movl %edi, (%rax,%r13) movq 32032(%rbx), %rax movl %r8d, (%rax,%r13) movq 32064(%rbx), %rax movl %r10d, (%rax,%r13) movq 32096(%rbx), %rax movl %r9d, (%rax,%r13) jb .LBB1_2 movq %rsi, 32864(%rbx) movq 32792(%rbx), %r8 vmovdqa 64(%r8,%r13), %ymm1 vmovaps 256(%r8,%r13), %ymm3 movl 104(%r8,%r13), %eax shll $6, %eax vmovd %eax, %xmm0 vpshufd $0, %xmm0, %xmm2 vpaddd %xmm1, %xmm2, %xmm0 vandps %ymm15, %ymm3, %ymm4 vmovaps 192(%r8,%r13), %ymm3 vextractf128 $1, %ymm1, %xmm5 vmovdqa .LCPI1_8(%rip), %xmm7 vpmulld %xmm7, %xmm0, %xmm1 vpaddd %xmm5, %xmm2, %xmm6 vxorps %xmm8, %xmm8, %xmm8 vpcmpeqd %xmm8, %xmm4, %xmm10 vextractf128 $1, %ymm3, %xmm11 vextractf128 $1, %ymm4, %xmm4 vpcmpeqd %xmm8, %xmm4, %xmm9 vmovdqa .LCPI1_7(%rip), %xmm5 vpaddd %xmm5, %xmm3, %xmm8 vpmulld %xmm7, %xmm6, %xmm4 vpaddd %xmm5, %xmm11, %xmm5 vmovhlps %xmm1, %xmm1, %xmm7 vpmovsxdq %xmm1, %xmm3 vinsertf128 $1, %xmm6, %ymm0, %ymm0 vmovaps %ymm0, 32832(%rbx) vpcmpeqd %xmm6, %xmm6, %xmm6 vpxor %xmm6, %xmm10, %xmm0 movq 224(%r8,%r13), %r8 vpmovsxdq %xmm7, %xmm1 vinsertf128 $1, %xmm5, %ymm8, %ymm12 vinsertf128 $1, %xmm2, %ymm2, %ymm2 vmovaps %ymm2, 32800(%rbx) vpxor %xmm6, %xmm9, %xmm2 vpextrq $1, %xmm3, %r12 vmovd %xmm3, %rdi vpmovsxdq %xmm4, %xmm5 vpextrq $1, %xmm5, %r11 vmovd %xmm5, %r14 vmovhlps %xmm4, %xmm4, %xmm4 vpmovsxdq %xmm4, %xmm4 shlq $32, %r8 movabsq $8589934592, %rax addq %rax, %r8 sarq $32, %r8 vinsertf128 $1, %xmm4, %ymm5, %ymm11 vinsertf128 $1, %xmm1, %ymm3, %ymm10 vpextrq $1, %xmm4, %r15 vmovd %xmm4, %r9 vpextrq $1, %xmm1, %rcx vmovd %xmm1, %rsi vinsertf128 $1, %xmm2, %ymm0, %ymm0 vmovdqa 31136(%rbx), %ymm1 vptest %ymm1, %ymm0 jb .LBB1_4 vmovapd %ymm10, %ymm13 vpxor %xmm8, %xmm8, %xmm8 movq 32792(%rbx), %rax testb $1, 288(%rax,%r13) movq %rax, %rdx vpxor %xmm1, %xmm1, %xmm1 je .LBB1_7 movq 32992(%rbx), %rax vmovsd (%rax,%rdi,8), %xmm1 .LBB1_7: testb $1, 292(%rdx,%r13) je .LBB1_9 movq 32992(%rbx), %rax vmovsd (%rax,%r12,8), %xmm8 .LBB1_9: vpxor %xmm9, %xmm9, %xmm9 testb $1, 296(%rdx,%r13) vxorpd %xmm10, %xmm10, %xmm10 je .LBB1_11 movq 32992(%rbx), %rax vmovsd (%rax,%rsi,8), %xmm10 .LBB1_11: testb $1, 300(%rdx,%r13) je .LBB1_13 movq 32992(%rbx), %rax vmovsd (%rax,%rcx,8), %xmm9 .LBB1_13: vxorpd %xmm4, %xmm4, %xmm4 testb $1, 304(%rdx,%r13) vxorpd %xmm5, %xmm5, %xmm5 je .LBB1_15 movq 32992(%rbx), %rax vmovsd (%rax,%r14,8), %xmm5 .LBB1_15: testb $1, 308(%rdx,%r13) vmovdqa %ymm11, %ymm14 je .LBB1_17 movq 32992(%rbx), %rax vmovsd (%rax,%r11,8), %xmm4 .LBB1_17: vpxor %xmm6, %xmm6, %xmm6 movq %rdx, %r11 testb $1, 312(%r11,%r13) vxorps %xmm7, %xmm7, %xmm7 movq 32992(%rbx), %rcx je .LBB1_19 vmovsd (%rcx,%r9,8), %xmm7 .LBB1_19: testb $1, 316(%r11,%r13) je .LBB1_21 vmovsd (%rcx,%r15,8), %xmm6 .LBB1_21: vandps 256(%r11,%r13), %ymm15, %ymm2 vpxor %xmm0, %xmm0, %xmm0 vpcmpeqd %xmm0, %xmm2, %xmm3 vextractf128 $1, %ymm2, %xmm2 vunpcklpd %xmm8, %xmm1, %xmm1 vpcmpeqd %xmm0, %xmm2, %xmm2 vpcmpeqd %xmm11, %xmm11, %xmm11 vpxor %xmm11, %xmm3, %xmm3 vmovhlps %xmm3, %xmm3, %xmm0 vpmovsxdq %xmm3, %xmm8 vpxor %xmm11, %xmm2, %xmm3 vunpcklpd %xmm9, %xmm10, %xmm2 vinsertf128 $1, %xmm2, %ymm1, %ymm2 vunpcklpd %xmm4, %xmm5, %xmm1 vmovhlps %xmm3, %xmm3, %xmm4 vpmovsxdq %xmm3, %xmm3 vpmovsxdq %xmm0, %xmm5 vunpcklpd %xmm6, %xmm7, %xmm0 vpxor %xmm11, %xmm11, %xmm11 vinsertf128 $1, %xmm5, %ymm8, %ymm6 vmovd %xmm12, %r10d vpmovsxdq %xmm4, %xmm4 imull $12, %r8d, %eax addl %r10d, %eax movslq %eax, %rax vmaskmovpd %ymm2, %ymm6, 33024(%rbx,%rax,8) vmovapd %ymm13, %ymm8 vextractf128 $1, %ymm8, %xmm7 vinsertf128 $1, %xmm0, %ymm1, %ymm0 vinsertf128 $1, %xmm4, %ymm3, %ymm9 vmovdqa .LCPI1_9(%rip), %xmm5 vpaddq %xmm5, %xmm7, %xmm2 vpaddq %xmm5, %xmm8, %xmm3 vmaskmovpd %ymm0, %ymm9, 33056(%rbx,%rax,8) testb $1, 288(%r11,%r13) vxorpd %xmm1, %xmm1, %xmm1 je .LBB1_23 vinsertf128 $1, %xmm2, %ymm3, %ymm0 vmovd %xmm0, %rax vmovsd (%rcx,%rax,8), %xmm1 .LBB1_23: testb $1, 292(%r11,%r13) je .LBB1_25 vpextrq $1, %xmm3, %rax vmovsd (%rcx,%rax,8), %xmm11 .LBB1_25: vpxor %xmm3, %xmm3, %xmm3 testb $1, 296(%r11,%r13) vpxor %xmm4, %xmm4, %xmm4 vmovapd %ymm6, %ymm13 je .LBB1_27 vmovd %xmm2, %rax vmovsd (%rcx,%rax,8), %xmm4 .LBB1_27: vmovdqa %xmm7, %xmm0 vmovapd %ymm12, 32896(%rbx) testb $1, 300(%r11,%r13) je .LBB1_29 vpextrq $1, %xmm2, %rax vmovsd (%rcx,%rax,8), %xmm3 .LBB1_29: vpaddq %xmm5, %xmm14, %xmm2 vpxor %xmm5, %xmm5, %xmm5 testb $1, 304(%r11,%r13) vxorpd %xmm7, %xmm7, %xmm7 vmovdqa %xmm0, %xmm10 je .LBB1_31 vmovd %xmm2, %rax vmovsd (%rcx,%rax,8), %xmm7 .LBB1_31: vextractf128 $1, %ymm14, %xmm12 testb $1, 308(%r11,%r13) je .LBB1_33 vpextrq $1, %xmm2, %rax vmovsd (%rcx,%rax,8), %xmm5 .LBB1_33: vpaddq .LCPI1_9(%rip), %xmm12, %xmm0 vxorpd %xmm2, %xmm2, %xmm2 testb $1, 312(%r11,%r13) vxorpd %xmm6, %xmm6, %xmm6 je .LBB1_35 vmovd %xmm0, %rax vmovsd (%rcx,%rax,8), %xmm6 .LBB1_35: testb $1, 316(%r11,%r13) je .LBB1_37 vpextrq $1, %xmm0, %rax vmovsd (%rcx,%rax,8), %xmm2 .LBB1_37: imull $12, %r8d, %eax leal 144(%rax,%r10), %eax vunpcklpd %xmm5, %xmm7, %xmm0 vunpcklpd %xmm3, %xmm4, %xmm3 vunpcklpd %xmm11, %xmm1, %xmm1 vinsertf128 $1, %xmm3, %ymm1, %ymm1 vunpcklpd %xmm2, %xmm6, %xmm2 movslq %eax, %rax vmaskmovpd %ymm1, %ymm13, 33024(%rbx,%rax,8) vinsertf128 $1, %xmm2, %ymm0, %ymm0 vmovdqa .LCPI1_10(%rip), %xmm1 vpaddq %xmm1, %xmm10, %xmm5 vpaddq %xmm1, %xmm8, %xmm2 vxorpd %xmm11, %xmm11, %xmm11 vmaskmovpd %ymm0, %ymm9, 33056(%rbx,%rax,8) testb $1, 288(%r11,%r13) vpxor %xmm1, %xmm1, %xmm1 je .LBB1_39 vinsertf128 $1, %xmm5, %ymm2, %ymm0 vmovd %xmm0, %rax vmovsd (%rcx,%rax,8), %xmm1 .LBB1_39: testb $1, 292(%r11,%r13) je .LBB1_41 vpextrq $1, %xmm2, %rax vmovsd (%rcx,%rax,8), %xmm11 .LBB1_41: vxorpd %xmm3, %xmm3, %xmm3 testb $1, 296(%r11,%r13) vxorpd %xmm4, %xmm4, %xmm4 je .LBB1_43 vmovd %xmm5, %rax vmovsd (%rcx,%rax,8), %xmm4 .LBB1_43: testb $1, 300(%r11,%r13) je .LBB1_45 vpextrq $1, %xmm5, %rax vmovsd (%rcx,%rax,8), %xmm3 .LBB1_45: vpaddq .LCPI1_10(%rip), %xmm14, %xmm2 vxorpd %xmm5, %xmm5, %xmm5 testb $1, 304(%r11,%r13) vxorpd %xmm7, %xmm7, %xmm7 je .LBB1_47 vmovd %xmm2, %rax vmovsd (%rcx,%rax,8), %xmm7 .LBB1_47: testb $1, 308(%r11,%r13) je .LBB1_49 vpextrq $1, %xmm2, %rax vmovsd (%rcx,%rax,8), %xmm5 .LBB1_49: vpaddq .LCPI1_10(%rip), %xmm12, %xmm0 vxorpd %xmm2, %xmm2, %xmm2 testb $1, 312(%r11,%r13) vxorpd %xmm6, %xmm6, %xmm6 je .LBB1_51 vmovd %xmm0, %rax vmovsd (%rcx,%rax,8), %xmm6 .LBB1_51: testb $1, 316(%r11,%r13) je .LBB1_53 vpextrq $1, %xmm0, %rax vmovsd (%rcx,%rax,8), %xmm2 .LBB1_53: imull $12, %r8d, %eax leal 288(%rax,%r10), %eax vunpcklpd %xmm5, %xmm7, %xmm0 vunpcklpd %xmm3, %xmm4, %xmm3 vunpcklpd %xmm11, %xmm1, %xmm1 vinsertf128 $1, %xmm3, %ymm1, %ymm1 vunpcklpd %xmm2, %xmm6, %xmm2 movslq %eax, %rax vmaskmovpd %ymm1, %ymm13, 33024(%rbx,%rax,8) vinsertf128 $1, %xmm2, %ymm0, %ymm0 vmovdqa .LCPI1_11(%rip), %xmm6 vpaddq %xmm6, %xmm10, %xmm5 vpaddq %xmm6, %xmm8, %xmm2 vxorpd %xmm11, %xmm11, %xmm11 vmaskmovpd %ymm0, %ymm9, 33056(%rbx,%rax,8) testb $1, 288(%r11,%r13) vxorpd %xmm1, %xmm1, %xmm1 je .LBB1_55 vinsertf128 $1, %xmm5, %ymm2, %ymm0 vmovd %xmm0, %rax vmovsd (%rcx,%rax,8), %xmm1 .LBB1_55: testb $1, 292(%r11,%r13) je .LBB1_57 vpextrq $1, %xmm2, %rax vmovsd (%rcx,%rax,8), %xmm11 .LBB1_57: vxorpd %xmm3, %xmm3, %xmm3 testb $1, 296(%r11,%r13) vxorpd %xmm4, %xmm4, %xmm4 je .LBB1_59 vmovd %xmm5, %rax vmovsd (%rcx,%rax,8), %xmm4 .LBB1_59: testb $1, 300(%r11,%r13) je .LBB1_61 vpextrq $1, %xmm5, %rax vmovsd (%rcx,%rax,8), %xmm3 .LBB1_61: vpaddq %xmm6, %xmm14, %xmm2 vxorpd %xmm5, %xmm5, %xmm5 testb $1, 304(%r11,%r13) vxorpd %xmm7, %xmm7, %xmm7 je .LBB1_63 vmovd %xmm2, %rax vmovsd (%rcx,%rax,8), %xmm7 .LBB1_63: testb $1, 308(%r11,%r13) je .LBB1_65 vpextrq $1, %xmm2, %rax vmovsd (%rcx,%rax,8), %xmm5 .LBB1_65: vpaddq .LCPI1_11(%rip), %xmm12, %xmm0 vxorpd %xmm2, %xmm2, %xmm2 testb $1, 312(%r11,%r13) vpxor %xmm6, %xmm6, %xmm6 je .LBB1_67 vmovd %xmm0, %rax vmovsd (%rcx,%rax,8), %xmm6 .LBB1_67: testb $1, 316(%r11,%r13) je .LBB1_69 vpextrq $1, %xmm0, %rax vmovsd (%rcx,%rax,8), %xmm2 .LBB1_69: imull $12, %r8d, %eax leal 432(%rax,%r10), %eax vunpcklpd %xmm5, %xmm7, %xmm0 vunpcklpd %xmm3, %xmm4, %xmm3 vunpcklpd %xmm11, %xmm1, %xmm1 vinsertf128 $1, %xmm3, %ymm1, %ymm1 vunpcklpd %xmm2, %xmm6, %xmm2 movslq %eax, %rax vmaskmovpd %ymm1, %ymm13, 33024(%rbx,%rax,8) vinsertf128 $1, %xmm2, %ymm0, %ymm0 vmovdqa .LCPI1_12(%rip), %xmm1 vpaddq %xmm1, %xmm10, %xmm5 vpaddq %xmm1, %xmm8, %xmm2 vxorpd %xmm11, %xmm11, %xmm11 vmaskmovpd %ymm0, %ymm9, 33056(%rbx,%rax,8) testb $1, 288(%r11,%r13) vpxor %xmm1, %xmm1, %xmm1 je .LBB1_71 vinsertf128 $1, %xmm5, %ymm2, %ymm0 vmovd %xmm0, %rax vmovsd (%rcx,%rax,8), %xmm1 .LBB1_71: testb $1, 292(%r11,%r13) je .LBB1_73 vpextrq $1, %xmm2, %rax vmovsd (%rcx,%rax,8), %xmm11 .LBB1_73: vmovdqa %xmm10, %xmm15 vxorpd %xmm3, %xmm3, %xmm3 testb $1, 296(%r11,%r13) vxorpd %xmm4, %xmm4, %xmm4 je .LBB1_75 vmovd %xmm5, %rax vmovsd (%rcx,%rax,8), %xmm4 .LBB1_75: vmovdqa %xmm12, %xmm10 testb $1, 300(%r11,%r13) je .LBB1_77 vpextrq $1, %xmm5, %rax vmovsd (%rcx,%rax,8), %xmm3 .LBB1_77: vpaddq .LCPI1_12(%rip), %xmm14, %xmm2 vxorpd %xmm5, %xmm5, %xmm5 testb $1, 304(%r11,%r13) vxorpd %xmm7, %xmm7, %xmm7 je .LBB1_79 vmovd %xmm2, %rax vmovsd (%rcx,%rax,8), %xmm7 .LBB1_79: vmovapd %ymm9, %ymm12 testb $1, 308(%r11,%r13) je .LBB1_81 vpextrq $1, %xmm2, %rax vmovsd (%rcx,%rax,8), %xmm5 .LBB1_81: vmovapd %ymm13, %ymm9 vpaddq .LCPI1_12(%rip), %xmm10, %xmm0 vxorpd %xmm2, %xmm2, %xmm2 testb $1, 312(%r11,%r13) vxorpd %xmm6, %xmm6, %xmm6 je .LBB1_83 vmovd %xmm0, %rax vmovsd (%rcx,%rax,8), %xmm6 .LBB1_83: vmovdqa %ymm14, 32960(%rbx) vmovdqa .LCPI1_17(%rip), %xmm13 testb $1, 316(%r11,%r13) je .LBB1_85 vpextrq $1, %xmm0, %rax vmovsd (%rcx,%rax,8), %xmm2 .LBB1_85: imull $12, %r8d, %eax leal 576(%rax,%r10), %eax vunpcklpd %xmm5, %xmm7, %xmm0 vunpcklpd %xmm3, %xmm4, %xmm3 vunpcklpd %xmm11, %xmm1, %xmm1 vinsertf128 $1, %xmm3, %ymm1, %ymm1 vunpcklpd %xmm2, %xmm6, %xmm2 movslq %eax, %rax vmaskmovpd %ymm1, %ymm9, 33024(%rbx,%rax,8) vinsertf128 $1, %xmm2, %ymm0, %ymm0 vmovdqa .LCPI1_13(%rip), %xmm6 vpaddq %xmm6, %xmm15, %xmm5 vpaddq %xmm6, %xmm8, %xmm2 vxorpd %xmm11, %xmm11, %xmm11 vmaskmovpd %ymm0, %ymm12, 33056(%rbx,%rax,8) testb $1, 288(%r11,%r13) vxorpd %xmm1, %xmm1, %xmm1 vmovdqa %xmm13, %xmm14 je .LBB1_87 vinsertf128 $1, %xmm5, %ymm2, %ymm0 vmovd %xmm0, %rax vmovsd (%rcx,%rax,8), %xmm1 .LBB1_87: testb $1, 292(%r11,%r13) je .LBB1_89 vpextrq $1, %xmm2, %rax vmovsd (%rcx,%rax,8), %xmm11 .LBB1_89: vxorpd %xmm3, %xmm3, %xmm3 testb $1, 296(%r11,%r13) vxorpd %xmm4, %xmm4, %xmm4 vmovapd %ymm9, %ymm13 je .LBB1_91 vmovd %xmm5, %rax vmovsd (%rcx,%rax,8), %xmm4 .LBB1_91: testb $1, 300(%r11,%r13) vmovapd %ymm12, %ymm9 je .LBB1_93 vpextrq $1, %xmm5, %rax vmovsd (%rcx,%rax,8), %xmm3 .LBB1_93: vmovdqa 32960(%rbx), %ymm0 vpaddq %xmm6, %xmm0, %xmm2 vxorpd %xmm5, %xmm5, %xmm5 testb $1, 304(%r11,%r13) vxorpd %xmm7, %xmm7, %xmm7 vmovdqa %xmm10, %xmm12 je .LBB1_95 vmovd %xmm2, %rax vmovsd (%rcx,%rax,8), %xmm7 .LBB1_95: testb $1, 308(%r11,%r13) vmovdqa %xmm15, %xmm10 je .LBB1_97 vpextrq $1, %xmm2, %rax vmovsd (%rcx,%rax,8), %xmm5 .LBB1_97: vpaddq .LCPI1_13(%rip), %xmm12, %xmm0 vxorpd %xmm2, %xmm2, %xmm2 testb $1, 312(%r11,%r13) vpxor %xmm6, %xmm6, %xmm6 je .LBB1_99 vmovd %xmm0, %rax vmovsd (%rcx,%rax,8), %xmm6 .LBB1_99: testb $1, 316(%r11,%r13) je .LBB1_101 vpextrq $1, %xmm0, %rax vmovsd (%rcx,%rax,8), %xmm2 .LBB1_101: imull $12, %r8d, %eax leal 720(%rax,%r10), %eax vunpcklpd %xmm5, %xmm7, %xmm0 vunpcklpd %xmm3, %xmm4, %xmm3 vunpcklpd %xmm11, %xmm1, %xmm1 vinsertf128 $1, %xmm3, %ymm1, %ymm1 vunpcklpd %xmm2, %xmm6, %xmm2 movslq %eax, %rax vmaskmovpd %ymm1, %ymm13, 33024(%rbx,%rax,8) vinsertf128 $1, %xmm2, %ymm0, %ymm0 vmovdqa .LCPI1_14(%rip), %xmm6 vpaddq %xmm6, %xmm10, %xmm5 vpaddq %xmm6, %xmm8, %xmm2 vxorpd %xmm11, %xmm11, %xmm11 vmaskmovpd %ymm0, %ymm9, 33056(%rbx,%rax,8) testb $1, 288(%r11,%r13) vxorpd %xmm1, %xmm1, %xmm1 je .LBB1_103 vinsertf128 $1, %xmm5, %ymm2, %ymm0 vmovd %xmm0, %rax vmovsd (%rcx,%rax,8), %xmm1 .LBB1_103: testb $1, 292(%r11,%r13) je .LBB1_105 vpextrq $1, %xmm2, %rax vmovsd (%rcx,%rax,8), %xmm11 .LBB1_105: vxorpd %xmm3, %xmm3, %xmm3 testb $1, 296(%r11,%r13) vxorpd %xmm4, %xmm4, %xmm4 je .LBB1_107 vmovd %xmm5, %rax vmovsd (%rcx,%rax,8), %xmm4 .LBB1_107: testb $1, 300(%r11,%r13) je .LBB1_109 vpextrq $1, %xmm5, %rax vmovsd (%rcx,%rax,8), %xmm3 .LBB1_109: vmovdqa 32960(%rbx), %ymm0 vpaddq %xmm6, %xmm0, %xmm2 vxorpd %xmm5, %xmm5, %xmm5 testb $1, 304(%r11,%r13) vxorpd %xmm7, %xmm7, %xmm7 je .LBB1_111 vmovd %xmm2, %rax vmovsd (%rcx,%rax,8), %xmm7 .LBB1_111: testb $1, 308(%r11,%r13) je .LBB1_113 vpextrq $1, %xmm2, %rax vmovsd (%rcx,%rax,8), %xmm5 .LBB1_113: vpaddq %xmm6, %xmm12, %xmm0 vxorpd %xmm2, %xmm2, %xmm2 testb $1, 312(%r11,%r13) vpxor %xmm6, %xmm6, %xmm6 je .LBB1_115 vmovd %xmm0, %rax vmovsd (%rcx,%rax,8), %xmm6 .LBB1_115: testb $1, 316(%r11,%r13) je .LBB1_117 vpextrq $1, %xmm0, %rax vmovsd (%rcx,%rax,8), %xmm2 .LBB1_117: imull $12, %r8d, %eax leal 864(%rax,%r10), %eax vunpcklpd %xmm5, %xmm7, %xmm0 vunpcklpd %xmm3, %xmm4, %xmm3 vunpcklpd %xmm11, %xmm1, %xmm1 vinsertf128 $1, %xmm3, %ymm1, %ymm1 vunpcklpd %xmm2, %xmm6, %xmm2 movslq %eax, %rax vmaskmovpd %ymm1, %ymm13, 33024(%rbx,%rax,8) vinsertf128 $1, %xmm2, %ymm0, %ymm0 vmovdqa .LCPI1_15(%rip), %xmm1 vpaddq %xmm1, %xmm10, %xmm5 vpaddq %xmm1, %xmm8, %xmm2 vxorpd %xmm11, %xmm11, %xmm11 vmaskmovpd %ymm0, %ymm9, 33056(%rbx,%rax,8) testb $1, 288(%r11,%r13) vpxor %xmm1, %xmm1, %xmm1 je .LBB1_119 vinsertf128 $1, %xmm5, %ymm2, %ymm0 vmovd %xmm0, %rax vmovsd (%rcx,%rax,8), %xmm1 .LBB1_119: testb $1, 292(%r11,%r13) je .LBB1_121 vpextrq $1, %xmm2, %rax vmovsd (%rcx,%rax,8), %xmm11 .LBB1_121: vxorpd %xmm3, %xmm3, %xmm3 testb $1, 296(%r11,%r13) vxorpd %xmm4, %xmm4, %xmm4 je .LBB1_123 vmovd %xmm5, %rax vmovsd (%rcx,%rax,8), %xmm4 .LBB1_123: testb $1, 300(%r11,%r13) je .LBB1_125 vpextrq $1, %xmm5, %rax vmovsd (%rcx,%rax,8), %xmm3 .LBB1_125: vmovdqa 32960(%rbx), %ymm0 vpaddq .LCPI1_15(%rip), %xmm0, %xmm2 vxorpd %xmm5, %xmm5, %xmm5 testb $1, 304(%r11,%r13) vxorpd %xmm7, %xmm7, %xmm7 je .LBB1_127 vmovd %xmm2, %rax vmovsd (%rcx,%rax,8), %xmm7 .LBB1_127: testb $1, 308(%r11,%r13) je .LBB1_129 vpextrq $1, %xmm2, %rax vmovsd (%rcx,%rax,8), %xmm5 .LBB1_129: vpaddq .LCPI1_15(%rip), %xmm12, %xmm0 vxorpd %xmm2, %xmm2, %xmm2 testb $1, 312(%r11,%r13) vxorpd %xmm6, %xmm6, %xmm6 je .LBB1_131 vmovd %xmm0, %rax vmovsd (%rcx,%rax,8), %xmm6 .LBB1_131: testb $1, 316(%r11,%r13) je .LBB1_133 vpextrq $1, %xmm0, %rax vmovsd (%rcx,%rax,8), %xmm2 .LBB1_133: imull $12, %r8d, %eax leal 1008(%rax,%r10), %eax vunpcklpd %xmm5, %xmm7, %xmm0 vunpcklpd %xmm3, %xmm4, %xmm3 vunpcklpd %xmm11, %xmm1, %xmm1 vinsertf128 $1, %xmm3, %ymm1, %ymm1 vunpcklpd %xmm2, %xmm6, %xmm2 movslq %eax, %rax vmaskmovpd %ymm1, %ymm13, 33024(%rbx,%rax,8) vinsertf128 $1, %xmm2, %ymm0, %ymm0 vmovdqa .LCPI1_16(%rip), %xmm1 vpaddq %xmm1, %xmm10, %xmm5 vpaddq %xmm1, %xmm8, %xmm2 vpxor %xmm10, %xmm10, %xmm10 vmaskmovpd %ymm0, %ymm9, 33056(%rbx,%rax,8) testb $1, 288(%r11,%r13) vpxor %xmm1, %xmm1, %xmm1 je .LBB1_135 vinsertf128 $1, %xmm5, %ymm2, %ymm0 vmovd %xmm0, %rax vmovsd (%rcx,%rax,8), %xmm1 .LBB1_135: testb $1, 292(%r11,%r13) je .LBB1_137 vpextrq $1, %xmm2, %rax vmovsd (%rcx,%rax,8), %xmm10 .LBB1_137: vxorpd %xmm3, %xmm3, %xmm3 testb $1, 296(%r11,%r13) vxorpd %xmm4, %xmm4, %xmm4 je .LBB1_139 vmovd %xmm5, %rax vmovsd (%rcx,%rax,8), %xmm4 .LBB1_139: testb $1, 300(%r11,%r13) je .LBB1_141 vpextrq $1, %xmm5, %rax vmovsd (%rcx,%rax,8), %xmm3 .LBB1_141: vmovdqa 32960(%rbx), %ymm0 vpaddq .LCPI1_16(%rip), %xmm0, %xmm2 vxorpd %xmm5, %xmm5, %xmm5 testb $1, 304(%r11,%r13) vxorpd %xmm6, %xmm6, %xmm6 je .LBB1_143 vmovd %xmm2, %rax vmovsd (%rcx,%rax,8), %xmm6 .LBB1_143: testb $1, 308(%r11,%r13) je .LBB1_145 vpextrq $1, %xmm2, %rax vmovsd (%rcx,%rax,8), %xmm5 .LBB1_145: vpaddq .LCPI1_16(%rip), %xmm12, %xmm0 vxorpd %xmm2, %xmm2, %xmm2 testb $1, 312(%r11,%r13) vxorpd %xmm7, %xmm7, %xmm7 je .LBB1_147 vmovd %xmm0, %rax vmovsd (%rcx,%rax,8), %xmm7 .LBB1_147: testb $1, 316(%r11,%r13) movq 32864(%rbx), %r12 je .LBB1_149 vpextrq $1, %xmm0, %rax vmovsd (%rcx,%rax,8), %xmm2 .LBB1_149: vunpcklpd %xmm3, %xmm4, %xmm0 vunpcklpd %xmm10, %xmm1, %xmm1 imull $12, %r8d, %eax vinsertf128 $1, %xmm0, %ymm1, %ymm0 leal 1152(%rax,%r10), %eax movslq %eax, %rax vmaskmovpd %ymm0, %ymm13, 33024(%rbx,%rax,8) vunpcklpd %xmm2, %xmm7, %xmm0 vunpcklpd %xmm5, %xmm6, %xmm1 vinsertf128 $1, %xmm0, %ymm1, %ymm0 vmaskmovpd %ymm0, %ymm9, 33056(%rbx,%rax,8) vmovaps .LCPI1_6(%rip), %ymm15 vmovaps 32896(%rbx), %ymm1 jmp .LBB1_150 .align 16, 0x90 .LBB1_2: movq 32792(%rbx), %r8 vmovaps 64(%r8,%r13), %ymm1 vextractf128 $1, %ymm1, %xmm2 movl 104(%r8,%r13), %eax shll $6, %eax vmovd %eax, %xmm0 vpshufd $0, %xmm0, %xmm0 vpaddd %xmm2, %xmm0, %xmm2 vpaddd %xmm1, %xmm0, %xmm3 vmovaps 192(%r8,%r13), %ymm1 vextractf128 $1, %ymm1, %xmm4 vinsertf128 $1, %xmm2, %ymm3, %ymm2 vmovaps %ymm2, 32832(%rbx) vmovdqa .LCPI1_7(%rip), %xmm3 vpaddd %xmm3, %xmm4, %xmm2 vpaddd %xmm3, %xmm1, %xmm1 vinsertf128 $1, %xmm2, %ymm1, %ymm1 vinsertf128 $1, %xmm0, %ymm0, %ymm0 vmovapd %ymm0, 32800(%rbx) movq %r8, %r11 vmovdqa .LCPI1_17(%rip), %xmm14 movq %rsi, %r12 jmp .LBB1_150 .align 16, 0x90 .LBB1_4: movq 32992(%rbx), %r10 vmovsd (%r10,%r14,8), %xmm0 vmovsd (%r10,%r9,8), %xmm1 vmovsd (%r10,%rdi,8), %xmm3 vmovsd (%r10,%rsi,8), %xmm2 vmovhpd (%r10,%r11,8), %xmm0, %xmm0 vmovhpd (%r10,%r15,8), %xmm1, %xmm1 vmovhpd (%r10,%r12,8), %xmm3, %xmm3 vmovhpd (%r10,%rcx,8), %xmm2, %xmm2 imull $12, %r8d, %r14d vmovd %xmm12, %ecx leal (%rcx,%r14), %eax movslq %eax, %rax vmovupd %xmm2, 33040(%rbx,%rax,8) vmovupd %xmm3, 33024(%rbx,%rax,8) vmovupd %xmm1, 33072(%rbx,%rax,8) vmovupd %xmm0, 33056(%rbx,%rax,8) vextractf128 $1, %ymm11, %xmm15 vmovdqa .LCPI1_9(%rip), %xmm6 vpaddq %xmm6, %xmm15, %xmm0 vpaddq %xmm6, %xmm11, %xmm4 vmovd %xmm4, %rax vmovsd (%r10,%rax,8), %xmm1 vmovd %xmm0, %rax vmovsd (%r10,%rax,8), %xmm3 vextractf128 $1, %ymm10, %xmm5 vpaddq %xmm6, %xmm5, %xmm2 vpextrq $1, %xmm0, %rax vpextrq $1, %xmm4, %rdx vpaddq %xmm6, %xmm10, %xmm0 vpextrq $1, %xmm0, %rsi vmovd %xmm0, %rdi vmovsd (%r10,%rdi,8), %xmm0 vmovhpd (%r10,%rsi,8), %xmm0, %xmm0 vmovhpd (%r10,%rdx,8), %xmm1, %xmm1 vmovhpd (%r10,%rax,8), %xmm3, %xmm3 vpextrq $1, %xmm2, %rax vmovd %xmm2, %rdx vmovsd (%r10,%rdx,8), %xmm2 vmovhpd (%r10,%rax,8), %xmm2, %xmm2 leal 144(%rcx,%r14), %eax movslq %eax, %rdi vmovdqa .LCPI1_10(%rip), %xmm6 vpaddq %xmm6, %xmm11, %xmm4 vmovupd %xmm2, 33040(%rbx,%rdi,8) vpaddq %xmm6, %xmm15, %xmm7 vmovupd %xmm3, 33072(%rbx,%rdi,8) vpaddq %xmm6, %xmm10, %xmm2 vpaddq %xmm6, %xmm5, %xmm6 vmovupd %xmm1, 33056(%rbx,%rdi,8) vmovq %xmm2, 32320(%rbx) vpextrq $1, %xmm7, %r9 vmovd %xmm7, %rax vpextrq $1, %xmm4, %r11 vmovdqa .LCPI1_11(%rip), %xmm1 vpaddq %xmm1, %xmm11, %xmm3 vpextrq $1, %xmm2, %rdx movq %rdx, 32288(%rbx) vpaddq %xmm1, %xmm15, %xmm2 vmovd %xmm4, %rsi vpaddq %xmm1, %xmm10, %xmm7 vmovapd %ymm12, 32896(%rbx) vpaddq %xmm1, %xmm5, %xmm14 vmovupd %xmm0, 33024(%rbx,%rdi,8) vmovdqa .LCPI1_12(%rip), %xmm1 vpaddq %xmm1, %xmm15, %xmm13 vpaddq %xmm1, %xmm10, %xmm0 vpaddq %xmm1, %xmm11, %xmm12 vpaddq %xmm1, %xmm5, %xmm8 vmovdqa .LCPI1_13(%rip), %xmm1 vpaddq %xmm1, %xmm10, %xmm9 vpaddq %xmm1, %xmm11, %xmm4 vmovdqa %xmm4, 32384(%rbx) vpaddq %xmm1, %xmm15, %xmm4 vmovdqa %xmm4, 32352(%rbx) vpaddq %xmm1, %xmm5, %xmm1 vmovdqa %xmm1, 32416(%rbx) vmovdqa .LCPI1_14(%rip), %xmm1 vpaddq %xmm1, %xmm15, %xmm4 vmovdqa %xmm4, 32480(%rbx) vpaddq %xmm1, %xmm11, %xmm4 vmovdqa %xmm4, 32448(%rbx) vpaddq %xmm1, %xmm10, %xmm4 vmovdqa %xmm4, 32544(%rbx) vpaddq %xmm1, %xmm5, %xmm1 vmovdqa %xmm1, 32512(%rbx) vmovdqa .LCPI1_15(%rip), %xmm1 vpaddq %xmm1, %xmm10, %xmm4 vmovdqa %xmm4, 32672(%rbx) vpaddq %xmm1, %xmm11, %xmm4 vmovdqa %xmm4, 32640(%rbx) vpaddq %xmm1, %xmm15, %xmm4 vmovdqa %xmm4, 32576(%rbx) vpaddq %xmm1, %xmm5, %xmm1 vmovdqa %xmm1, 32704(%rbx) vmovdqa .LCPI1_16(%rip), %xmm1 vpaddq %xmm1, %xmm10, %xmm4 vmovdqa %xmm4, 32960(%rbx) vpaddq %xmm1, %xmm5, %xmm4 vmovdqa %xmm4, 32736(%rbx) vpaddq %xmm1, %xmm11, %xmm11 vpaddq %xmm1, %xmm15, %xmm10 vmovaps .LCPI1_6(%rip), %ymm15 leal 288(%rcx,%r14), %edx movslq %edx, %r12 vpextrq $1, %xmm6, %rdi vmovd %xmm6, %r8 vmovsd (%r10,%rsi,8), %xmm5 vmovhpd (%r10,%r11,8), %xmm5, %xmm6 vpextrq $1, %xmm7, %rdx movq %rdx, 32256(%rbx) vmovd %xmm7, %r15 vmovsd (%r10,%rax,8), %xmm5 vmovhpd (%r10,%r9,8), %xmm5, %xmm7 vpextrq $1, %xmm2, %r11 movq 32320(%rbx), %rax vmovsd (%r10,%rax,8), %xmm5 vmovd %xmm2, %rax movq 32288(%rbx), %rdx vmovhpd (%r10,%rdx,8), %xmm5, %xmm2 vpextrq $1, %xmm3, %rsi vmovsd (%r10,%r8,8), %xmm5 vmovd %xmm3, %rdx vmovhpd (%r10,%rdi,8), %xmm5, %xmm3 vmovupd %xmm3, 33040(%rbx,%r12,8) vmovupd %xmm2, 33024(%rbx,%r12,8) vmovupd %xmm7, 33072(%rbx,%r12,8) vmovupd %xmm6, 33056(%rbx,%r12,8) leal 432(%rcx,%r14), %edi movslq %edi, %rdi vpextrq $1, %xmm14, %r9 vmovd %xmm14, %r8 vmovdqa .LCPI1_17(%rip), %xmm14 vmovsd (%r10,%rdx,8), %xmm2 vmovhpd (%r10,%rsi,8), %xmm2, %xmm2 vpextrq $1, %xmm0, %rdx movq %rdx, 32320(%rbx) vmovq %xmm0, 32224(%rbx) vmovsd (%r10,%rax,8), %xmm0 vmovhpd (%r10,%r11,8), %xmm0, %xmm0 vpextrq $1, %xmm13, %r12 vmovd %xmm13, %r11 vmovsd (%r10,%r15,8), %xmm3 movq 32256(%rbx), %rax vmovhpd (%r10,%rax,8), %xmm3, %xmm3 vpextrq $1, %xmm12, %rax vmovd %xmm12, %rdx vmovsd (%r10,%r8,8), %xmm4 vmovhpd (%r10,%r9,8), %xmm4, %xmm4 vmovupd %xmm4, 33040(%rbx,%rdi,8) vmovupd %xmm3, 33024(%rbx,%rdi,8) vmovupd %xmm0, 33072(%rbx,%rdi,8) vmovupd %xmm2, 33056(%rbx,%rdi,8) leal 576(%rcx,%r14), %esi movslq %esi, %rsi vpextrq $1, %xmm8, %rdi vmovd %xmm8, %r8 vmovsd (%r10,%rdx,8), %xmm0 vmovhpd (%r10,%rax,8), %xmm0, %xmm0 vpextrq $1, %xmm9, %rax movq %rax, 32288(%rbx) vmovd %xmm9, %r9 vmovsd (%r10,%r11,8), %xmm2 vmovhpd (%r10,%r12,8), %xmm2, %xmm2 vmovdqa 32352(%rbx), %xmm1 vpextrq $1, %xmm1, %r11 vmovd %xmm1, %r15 movq 32224(%rbx), %rax vmovsd (%r10,%rax,8), %xmm3 movq 32320(%rbx), %rax vmovhpd (%r10,%rax,8), %xmm3, %xmm3 vmovdqa 32384(%rbx), %xmm1 vpextrq $1, %xmm1, %rax vmovd %xmm1, %rdx vmovsd (%r10,%r8,8), %xmm4 vmovhpd (%r10,%rdi,8), %xmm4, %xmm4 vmovupd %xmm4, 33040(%rbx,%rsi,8) vmovupd %xmm3, 33024(%rbx,%rsi,8) vmovupd %xmm2, 33072(%rbx,%rsi,8) vmovupd %xmm0, 33056(%rbx,%rsi,8) leal 720(%rcx,%r14), %esi movslq %esi, %rsi vmovdqa 32416(%rbx), %xmm0 vpextrq $1, %xmm0, %r12 vmovd %xmm0, %rdi vmovsd (%r10,%rdx,8), %xmm0 vmovhpd (%r10,%rax,8), %xmm0, %xmm0 vmovdqa 32448(%rbx), %xmm1 vpextrq $1, %xmm1, %rax movq %rax, 32416(%rbx) vmovd %xmm1, %r8 vmovsd (%r10,%r15,8), %xmm1 vmovhpd (%r10,%r11,8), %xmm1, %xmm1 vmovdqa 32480(%rbx), %xmm2 vpextrq $1, %xmm2, %r11 vmovd %xmm2, %r15 vmovsd (%r10,%r9,8), %xmm2 movq 32288(%rbx), %rax vmovhpd (%r10,%rax,8), %xmm2, %xmm2 vmovsd (%r10,%rdi,8), %xmm3 vmovhpd (%r10,%r12,8), %xmm3, %xmm3 vmovupd %xmm3, 33040(%rbx,%rsi,8) vmovupd %xmm2, 33024(%rbx,%rsi,8) vmovupd %xmm1, 33072(%rbx,%rsi,8) leal 1152(%rcx,%r14), %eax leal 1008(%rcx,%r14), %edx leal 864(%rcx,%r14), %ecx movslq %ecx, %rdi vmovdqa 32512(%rbx), %xmm1 vpextrq $1, %xmm1, %rcx movq %rcx, 32480(%rbx) vmovd %xmm1, %r12 movslq %edx, %rcx movslq %eax, %rax vmovupd %xmm0, 33056(%rbx,%rsi,8) vmovdqa 32544(%rbx), %xmm0 vpextrq $1, %xmm0, %r9 vmovsd (%r10,%r15,8), %xmm1 vmovd %xmm0, %rsi vmovsd (%r10,%r8,8), %xmm0 vmovdqa 32576(%rbx), %xmm2 vpextrq $1, %xmm2, %rdx movq %rdx, 32544(%rbx) movq 32416(%rbx), %rdx vmovhpd (%r10,%rdx,8), %xmm0, %xmm0 vmovapd 32640(%rbx), %xmm4 vmovd %xmm4, %r14 vmovhpd (%r10,%r11,8), %xmm1, %xmm1 vmovd %xmm2, %r8 vmovsd (%r10,%rsi,8), %xmm2 vmovapd 32672(%rbx), %xmm3 vmovd %xmm3, %rsi vmovhpd (%r10,%r9,8), %xmm2, %xmm2 vpextrq $1, %xmm3, %r11 vmovsd (%r10,%r12,8), %xmm3 vpextrq $1, %xmm4, %r12 movq 32480(%rbx), %rdx vmovhpd (%r10,%rdx,8), %xmm3, %xmm3 vmovupd %xmm3, 33040(%rbx,%rdi,8) vmovupd %xmm2, 33024(%rbx,%rdi,8) vmovupd %xmm1, 33072(%rbx,%rdi,8) vmovdqa 32704(%rbx), %xmm1 vpextrq $1, %xmm1, %r15 vmovupd %xmm0, 33056(%rbx,%rdi,8) vmovd %xmm1, %rdi vmovsd (%r10,%r8,8), %xmm1 vmovdqa 32736(%rbx), %xmm0 vpextrq $1, %xmm0, %rdx movq %rdx, 32704(%rbx) vmovsd (%r10,%rsi,8), %xmm2 vmovd %xmm0, %r8 vmovsd (%r10,%r14,8), %xmm0 vmovdqa 32960(%rbx), %xmm3 vpextrq $1, %xmm3, %r14 vmovhpd (%r10,%r12,8), %xmm0, %xmm0 vmovd %xmm3, %r12 movq 32544(%rbx), %rdx vmovhpd (%r10,%rdx,8), %xmm1, %xmm1 vpextrq $1, %xmm10, %r9 vmovhpd (%r10,%r11,8), %xmm2, %xmm2 vpextrq $1, %xmm11, %rsi vmovsd (%r10,%rdi,8), %xmm3 vmovd %xmm11, %rdx vmovhpd (%r10,%r15,8), %xmm3, %xmm3 vmovupd %xmm3, 33040(%rbx,%rcx,8) vmovupd %xmm2, 33024(%rbx,%rcx,8) vmovupd %xmm1, 33072(%rbx,%rcx,8) vmovd %xmm10, %rdi vmovupd %xmm0, 33056(%rbx,%rcx,8) vmovsd (%r10,%rdi,8), %xmm1 vmovsd (%r10,%rdx,8), %xmm0 vmovhpd (%r10,%rsi,8), %xmm0, %xmm0 vmovhpd (%r10,%r9,8), %xmm1, %xmm1 vmovsd (%r10,%r12,8), %xmm2 vmovhpd (%r10,%r14,8), %xmm2, %xmm2 vmovsd (%r10,%r8,8), %xmm3 movq 32704(%rbx), %rcx vmovhpd (%r10,%rcx,8), %xmm3, %xmm3 vmovupd %xmm3, 33040(%rbx,%rax,8) vmovupd %xmm2, 33024(%rbx,%rax,8) vmovupd %xmm1, 33072(%rbx,%rax,8) vmovaps 32896(%rbx), %ymm1 vmovupd %xmm0, 33056(%rbx,%rax,8) movq 32792(%rbx), %r11 movq 32864(%rbx), %r12 .LBB1_150: movq 31456(%rbx), %rax vmovaps %ymm1, (%rax,%r13) movq 31488(%rbx), %rax vmovaps 32800(%rbx), %ymm0 vmovaps %ymm0, (%rax,%r13) movq 31520(%rbx), %rax vmovaps 32832(%rbx), %ymm0 vmovaps %ymm0, (%rax,%r13) vandps 256(%r11,%r13), %ymm15, %ymm0 vextractf128 $1, %ymm0, %xmm1 addq $8, %r12 vpxor %xmm3, %xmm3, %xmm3 vpcmpeqd %xmm3, %xmm1, %xmm1 vpcmpeqd %xmm4, %xmm4, %xmm4 vpxor %xmm4, %xmm1, %xmm1 vmovdqa .LCPI1_5(%rip), %xmm2 vpshufb %xmm2, %xmm1, %xmm1 vpcmpeqd %xmm3, %xmm0, %xmm0 vpxor %xmm4, %xmm0, %xmm0 vpshufb %xmm2, %xmm0, %xmm0 vmovlhps %xmm1, %xmm0, %xmm0 vpsllw $15, %xmm0, %xmm0 vpsraw $15, %xmm0, %xmm0 vpand %xmm14, %xmm0, %xmm0 vpextrb $10, %xmm0, %r10d vpextrb $12, %xmm0, %r9d vpextrb $14, %xmm0, %r8d vpextrb $0, %xmm0, %ecx vpextrb $2, %xmm0, %r14d vpextrb $4, %xmm0, %edi andl $1, %edi andl $1, %r14d andl $1, %ecx andl $1, %r8d andl $1, %r9d andl $1, %r10d vpextrb $8, %xmm0, %esi andl $1, %esi vpextrb $6, %xmm0, %edx andl $1, %edx cmpq 12088(%rbx), %r12 vpunpckhwd %xmm0, %xmm0, %xmm1 vpmovzxwd %xmm0, %xmm0 vinsertf128 $1, %xmm1, %ymm0, %ymm0 vandps %ymm15, %ymm0, %ymm0 movq 31552(%rbx), %rax vmovaps %ymm0, (%rax,%r13) movq 31232(%rbx), %rax movl %ecx, (%rax,%r13) movq 31264(%rbx), %rax movl %r14d, (%rax,%r13) movq 31296(%rbx), %rax movl %edi, (%rax,%r13) movq 31328(%rbx), %rax movl %edx, (%rax,%r13) movq 31360(%rbx), %rax movl %esi, (%rax,%r13) movq 31392(%rbx), %rax movl %r10d, (%rax,%r13) movq 31424(%rbx), %rax movl %r9d, (%rax,%r13) movl %r8d, 508(%r11,%r13) jb .LBB1_9841 movq 32928(%rbx), %rax incq %rax movq %rax, 32928(%rbx) cmpq 12080(%rbx), %rax movl $0, %r12d jb .LBB1_9841 vmovsd .LCPI1_18(%rip), %xmm0 vsqrtpd %xmm0, %xmm0 vmovapd %xmm0, 20032(%rbx) xorl %eax, %eax movq %rax, 23552(%rbx) vxorpd %xmm0, %xmm0, %xmm0 vmovupd %xmm0, 43440(%rbx) movq 43440(%rbx), %rax vpcmpeqd %xmm11, %xmm11, %xmm11 vinsertf128 $1, %xmm11, %ymm11, %ymm0 vmovaps %ymm0, 20000(%rbx) movabsq $8589934592, %rdx vinsertf128 $1, %xmm11, %ymm11, %ymm0 vmovaps %ymm0, 19968(%rbx) vinsertf128 $1, %xmm11, %ymm11, %ymm0 vmovaps %ymm0, 31584(%rbx) vinsertf128 $1, %xmm11, %ymm11, %ymm0 vmovaps %ymm0, 31552(%rbx) vinsertf128 $1, %xmm11, %ymm11, %ymm0 vmovaps %ymm0, 31520(%rbx) vinsertf128 $1, %xmm11, %ymm11, %ymm0 vmovaps %ymm0, 31488(%rbx) vinsertf128 $1, %xmm11, %ymm11, %ymm0 vmovaps %ymm0, 31456(%rbx) vinsertf128 $1, %xmm11, %ymm11, %ymm0 vmovaps %ymm0, 31424(%rbx) vinsertf128 $1, %xmm11, %ymm11, %ymm0 vmovaps %ymm0, 31392(%rbx) vinsertf128 $1, %xmm11, %ymm11, %ymm0 vmovaps %ymm0, 31360(%rbx) xorl %r13d, %r13d jmp .LBB1_153 .align 16, 0x90 .LBB1_9842: addq $12992, %r13 movabsq $8589934592, %rdx .LBB1_153: movq %r13, 32960(%rbx) movq %rax, 23520(%rbx) vandps 448(%r13,%r11), %ymm15, %ymm1 vextractf128 $1, %ymm1, %xmm0 vpxor %xmm7, %xmm7, %xmm7 vpcmpeqd %xmm7, %xmm0, %xmm0 vpxor %xmm11, %xmm0, %xmm8 vpcmpeqd %xmm7, %xmm1, %xmm0 vpxor %xmm11, %xmm0, %xmm0 vinsertf128 $1, %xmm8, %ymm0, %ymm0 vxorps %ymm15, %ymm0, %ymm2 vpslld $31, %xmm2, %xmm0 vpsrad $31, %xmm0, %xmm3 vextractf128 $1, %ymm2, %xmm0 vpslld $31, %xmm0, %xmm0 vpsrad $31, %xmm0, %xmm0 vinsertf128 $1, %xmm0, %ymm3, %ymm0 vmovdqa 20000(%rbx), %ymm2 vptest %ymm2, %ymm0 jb .LBB1_154 vmovaps 352(%r11,%r13), %ymm4 vextractf128 $1, %ymm4, %xmm2 movq 224(%r13,%r11), %r10 shlq $32, %r10 vmovdqa .LCPI1_8(%rip), %xmm5 vpmulld %xmm5, %xmm2, %xmm0 vmovhlps %xmm0, %xmm0, %xmm3 vpmovsxdq %xmm0, %xmm2 vpmulld %xmm5, %xmm4, %xmm5 movl 416(%r11,%r13), %r9d addq %rdx, %r10 vmovd %r10, %xmm6 sarq $32, %r10 imull $12, %r10d, %eax addl %r9d, %eax vpmovsxdq %xmm5, %xmm4 vpmovsxdq %xmm3, %xmm3 vmovhlps %xmm5, %xmm5, %xmm0 vpcmpeqd %xmm7, %xmm1, %xmm1 vpxor %xmm11, %xmm1, %xmm7 vmovlhps %xmm6, %xmm6, %xmm5 vpmovsxdq %xmm0, %xmm1 movslq %eax, %rdx vinsertf128 $1, %xmm3, %ymm2, %ymm9 vinsertf128 $1, %xmm1, %ymm4, %ymm15 vinsertf128 $1, %xmm8, %ymm7, %ymm0 leaq 352(%r11,%r13), %rax movq %rax, 32384(%rbx) vpextrq $1, %xmm2, %r12 vmovd %xmm2, %r8 vpextrq $1, %xmm4, %rcx vinsertf128 $1, %xmm5, %ymm5, %ymm2 vmovaps %ymm2, 23488(%rbx) vmovd %xmm4, %rdi vmovd %xmm3, %rsi vpextrq $1, %xmm1, %r14 vmovd %xmm1, %r15 leaq 33024(%rbx,%rdx,8), %rdx vpextrq $1, %xmm3, %rax vmovdqa 19968(%rbx), %ymm1 vptest %ymm1, %ymm0 vpxor %xmm10, %xmm10, %xmm10 jb .LBB1_156 vextractf128 $1, %ymm0, %xmm2 vpmovsxdq %xmm2, %xmm1 vmovhlps %xmm2, %xmm2, %xmm2 vpmovsxdq %xmm2, %xmm2 vinsertf128 $1, %xmm2, %ymm1, %ymm12 vpmovsxdq %xmm0, %xmm1 vmaskmovpd 32(%rdx), %ymm12, %ymm2 vmovapd %ymm2, 32448(%rbx) vmovhlps %xmm0, %xmm0, %xmm0 vpmovsxdq %xmm0, %xmm0 vinsertf128 $1, %xmm0, %ymm1, %ymm13 vmaskmovpd (%rdx), %ymm13, %ymm0 vmovapd %ymm0, 32096(%rbx) vxorpd %xmm0, %xmm0, %xmm0 testb $1, 480(%r13,%r11) vpxor %xmm1, %xmm1, %xmm1 movq 23584(%rbx), %rdx je .LBB1_159 vmovsd (%rdx,%rdi,8), %xmm1 .LBB1_159: vmovdqa %xmm1, 30592(%rbx) testb $1, 484(%r13,%r11) vmovdqa .LCPI1_9(%rip), %xmm4 vmovdqa .LCPI1_10(%rip), %xmm5 je .LBB1_161 vmovsd (%rdx,%rcx,8), %xmm0 .LBB1_161: movq %r12, %rdi vmovapd %xmm0, 30624(%rbx) vxorpd %xmm0, %xmm0, %xmm0 testb $1, 488(%r13,%r11) vpxor %xmm1, %xmm1, %xmm1 movq %r8, %rcx je .LBB1_163 vmovsd (%rdx,%r15,8), %xmm1 .LBB1_163: vmovdqa %xmm1, 29952(%rbx) testb $1, 492(%r13,%r11) vmovaps %ymm15, %ymm11 je .LBB1_165 vmovsd (%rdx,%r14,8), %xmm0 .LBB1_165: vmovapd %xmm0, 30560(%rbx) vxorpd %xmm0, %xmm0, %xmm0 testb $1, 496(%r13,%r11) vpxor %xmm1, %xmm1, %xmm1 je .LBB1_167 vmovsd (%rdx,%rcx,8), %xmm1 .LBB1_167: vmovdqa %xmm1, 29920(%rbx) testb $1, 500(%r13,%r11) je .LBB1_169 vmovsd (%rdx,%rdi,8), %xmm0 .LBB1_169: vmovapd %xmm0, 30528(%rbx) vxorpd %xmm0, %xmm0, %xmm0 testb $1, 504(%r13,%r11) vpxor %xmm1, %xmm1, %xmm1 je .LBB1_171 vmovsd (%rdx,%rsi,8), %xmm1 .LBB1_171: vmovdqa %xmm1, 29888(%rbx) testb $1, 508(%r13,%r11) je .LBB1_173 vmovsd (%rdx,%rax,8), %xmm0 .LBB1_173: vmovapd %xmm0, 30496(%rbx) imull $12, %r10d, %eax leal 144(%rax,%r9), %eax vextractf128 $1, %ymm11, %xmm8 vpaddq %xmm4, %xmm8, %xmm0 movslq %eax, %rax vpaddq %xmm4, %xmm11, %xmm1 vxorps %xmm6, %xmm6, %xmm6 vmaskmovpd 33056(%rbx,%rax,8), %ymm12, %ymm2 vmovapd %ymm2, 32032(%rbx) vmaskmovpd 33024(%rbx,%rax,8), %ymm13, %ymm2 vmovapd %ymm2, 32064(%rbx) testb $1, 480(%r11,%r13) vxorpd %xmm2, %xmm2, %xmm2 je .LBB1_175 vinsertf128 $1, %xmm0, %ymm1, %ymm2 vmovd %xmm2, %rax vmovsd (%rdx,%rax,8), %xmm2 .LBB1_175: vmovapd %xmm2, 30432(%rbx) testb $1, 484(%r11,%r13) je .LBB1_177 vpextrq $1, %xmm1, %rax vmovsd (%rdx,%rax,8), %xmm6 .LBB1_177: vmovaps %xmm6, 30464(%rbx) vpxor %xmm1, %xmm1, %xmm1 testb $1, 488(%r11,%r13) vxorpd %xmm2, %xmm2, %xmm2 je .LBB1_179 vmovd %xmm0, %rax vmovsd (%rdx,%rax,8), %xmm2 .LBB1_179: vmovapd %xmm2, 29824(%rbx) testb $1, 492(%r11,%r13) je .LBB1_181 vpextrq $1, %xmm0, %rax vmovsd (%rdx,%rax,8), %xmm1 .LBB1_181: vmovdqa %xmm1, 29856(%rbx) vpaddq %xmm4, %xmm9, %xmm0 vpxor %xmm1, %xmm1, %xmm1 testb $1, 496(%r11,%r13) vxorpd %xmm2, %xmm2, %xmm2 je .LBB1_183 vmovd %xmm0, %rax vmovsd (%rdx,%rax,8), %xmm2 .LBB1_183: vmovapd %xmm2, 29760(%rbx) vextractf128 $1, %ymm9, %xmm14 testb $1, 500(%r11,%r13) je .LBB1_185 vpextrq $1, %xmm0, %rax vmovsd (%rdx,%rax,8), %xmm1 .LBB1_185: vmovdqa %xmm1, 29792(%rbx) vpaddq %xmm4, %xmm14, %xmm0 vpxor %xmm1, %xmm1, %xmm1 testb $1, 504(%r11,%r13) vpxor %xmm4, %xmm4, %xmm4 je .LBB1_187 vmovd %xmm0, %rax vmovsd (%rdx,%rax,8), %xmm4 .LBB1_187: vmovdqa %xmm4, 29696(%rbx) testb $1, 508(%r11,%r13) je .LBB1_189 vpextrq $1, %xmm0, %rax vmovsd (%rdx,%rax,8), %xmm1 .LBB1_189: vmovdqa %xmm1, 29728(%rbx) imull $12, %r10d, %eax leal 288(%rax,%r9), %eax vpaddq %xmm5, %xmm8, %xmm4 movslq %eax, %rax vmovdqa %xmm5, %xmm0 vpaddq %xmm0, %xmm11, %xmm5 vmovdqa %xmm0, %xmm6 vpxor %xmm0, %xmm0, %xmm0 vmaskmovpd 33056(%rbx,%rax,8), %ymm12, %ymm1 vmovapd %ymm1, 31200(%rbx) vmaskmovpd 33024(%rbx,%rax,8), %ymm13, %ymm1 vmovapd %ymm1, 31168(%rbx) testb $1, 480(%r11,%r13) vxorpd %xmm1, %xmm1, %xmm1 je .LBB1_191 vinsertf128 $1, %xmm4, %ymm5, %ymm1 vmovd %xmm1, %rax vmovsd (%rdx,%rax,8), %xmm1 .LBB1_191: testb $1, 484(%r11,%r13) je .LBB1_193 vpextrq $1, %xmm5, %rax vmovsd (%rdx,%rax,8), %xmm0 .LBB1_193: vxorpd %xmm2, %xmm2, %xmm2 testb $1, 488(%r11,%r13) vxorpd %xmm3, %xmm3, %xmm3 je .LBB1_195 vmovd %xmm4, %rax vmovsd (%rdx,%rax,8), %xmm3 .LBB1_195: vmovapd %xmm3, 31872(%rbx) testb $1, 492(%r11,%r13) je .LBB1_197 vpextrq $1, %xmm4, %rax vmovsd (%rdx,%rax,8), %xmm2 .LBB1_197: vmovapd %xmm2, 32704(%rbx) vpaddq %xmm6, %xmm9, %xmm7 vxorpd %xmm4, %xmm4, %xmm4 testb $1, 496(%r11,%r13) vpxor %xmm5, %xmm5, %xmm5 je .LBB1_199 vmovd %xmm7, %rax vmovsd (%rdx,%rax,8), %xmm5 .LBB1_199: testb $1, 500(%r11,%r13) je .LBB1_201 vpextrq $1, %xmm7, %rax vmovsd (%rdx,%rax,8), %xmm4 .LBB1_201: vpaddq .LCPI1_10(%rip), %xmm14, %xmm7 vpxor %xmm6, %xmm6, %xmm6 testb $1, 504(%r11,%r13) vxorpd %xmm2, %xmm2, %xmm2 je .LBB1_203 vmovd %xmm7, %rax vmovsd (%rdx,%rax,8), %xmm2 .LBB1_203: vmovapd %xmm2, 32736(%rbx) testb $1, 508(%r11,%r13) je .LBB1_205 vpextrq $1, %xmm7, %rax vmovsd (%rdx,%rax,8), %xmm6 .LBB1_205: vmovdqa %xmm6, 32864(%rbx) imull $12, %r10d, %eax leal 432(%rax,%r9), %eax vunpcklpd %xmm4, %xmm5, %xmm4 vmovapd %ymm4, 32800(%rbx) vunpcklpd %xmm0, %xmm1, %xmm0 vmovapd %ymm0, 32832(%rbx) vmovdqa .LCPI1_11(%rip), %xmm6 vpaddq %xmm6, %xmm11, %xmm5 movslq %eax, %rax vpaddq %xmm6, %xmm8, %xmm4 vxorpd %xmm0, %xmm0, %xmm0 vmaskmovpd 33056(%rbx,%rax,8), %ymm12, %ymm1 vmovapd %ymm1, 31264(%rbx) vmaskmovpd 33024(%rbx,%rax,8), %ymm13, %ymm1 vmovapd %ymm1, 31712(%rbx) testb $1, 480(%r11,%r13) vxorpd %xmm1, %xmm1, %xmm1 je .LBB1_207 vinsertf128 $1, %xmm4, %ymm5, %ymm1 vmovd %xmm1, %rax vmovsd (%rdx,%rax,8), %xmm1 .LBB1_207: testb $1, 484(%r11,%r13) je .LBB1_209 vpextrq $1, %xmm5, %rax vmovsd (%rdx,%rax,8), %xmm0 .LBB1_209: vxorpd %xmm2, %xmm2, %xmm2 testb $1, 488(%r11,%r13) vpxor %xmm5, %xmm5, %xmm5 je .LBB1_211 vmovd %xmm4, %rax vmovsd (%rdx,%rax,8), %xmm5 .LBB1_211: vmovdqa %xmm5, 32576(%rbx) testb $1, 492(%r11,%r13) je .LBB1_213 vpextrq $1, %xmm4, %rax vmovsd (%rdx,%rax,8), %xmm2 .LBB1_213: vmovapd %xmm2, 32672(%rbx) vpaddq %xmm6, %xmm9, %xmm7 vxorpd %xmm4, %xmm4, %xmm4 testb $1, 496(%r11,%r13) vpxor %xmm5, %xmm5, %xmm5 je .LBB1_215 vmovd %xmm7, %rax vmovsd (%rdx,%rax,8), %xmm5 .LBB1_215: testb $1, 500(%r11,%r13) je .LBB1_217 vpextrq $1, %xmm7, %rax vmovsd (%rdx,%rax,8), %xmm4 .LBB1_217: vpaddq .LCPI1_11(%rip), %xmm14, %xmm7 vxorpd %xmm2, %xmm2, %xmm2 testb $1, 504(%r11,%r13) vpxor %xmm6, %xmm6, %xmm6 je .LBB1_219 vmovd %xmm7, %rax vmovsd (%rdx,%rax,8), %xmm6 .LBB1_219: vmovdqa %xmm6, 32416(%rbx) testb $1, 508(%r11,%r13) je .LBB1_221 vpextrq $1, %xmm7, %rax vmovsd (%rdx,%rax,8), %xmm2 .LBB1_221: vmovapd %xmm2, 32544(%rbx) imull $12, %r10d, %eax leal 576(%rax,%r9), %eax vunpcklpd %xmm4, %xmm5, %xmm2 vmovapd %ymm2, 32480(%rbx) vunpcklpd %xmm0, %xmm1, %xmm0 vmovapd %ymm0, 32512(%rbx) vmovdqa .LCPI1_12(%rip), %xmm0 vpaddq %xmm0, %xmm11, %xmm5 movslq %eax, %rax vpaddq %xmm0, %xmm8, %xmm4 vmovdqa %xmm0, %xmm6 vpxor %xmm0, %xmm0, %xmm0 vmaskmovpd 33056(%rbx,%rax,8), %ymm12, %ymm1 vmovapd %ymm1, 31936(%rbx) vmaskmovpd 33024(%rbx,%rax,8), %ymm13, %ymm1 vmovapd %ymm1, 31136(%rbx) testb $1, 480(%r11,%r13) vxorpd %xmm1, %xmm1, %xmm1 je .LBB1_223 vinsertf128 $1, %xmm4, %ymm5, %ymm1 vmovd %xmm1, %rax vmovsd (%rdx,%rax,8), %xmm1 .LBB1_223: testb $1, 484(%r11,%r13) je .LBB1_225 vpextrq $1, %xmm5, %rax vmovsd (%rdx,%rax,8), %xmm0 .LBB1_225: vxorpd %xmm2, %xmm2, %xmm2 testb $1, 488(%r11,%r13) vpxor %xmm5, %xmm5, %xmm5 je .LBB1_227 vmovd %xmm4, %rax vmovsd (%rdx,%rax,8), %xmm5 .LBB1_227: vmovdqa %xmm5, 32320(%rbx) testb $1, 492(%r11,%r13) je .LBB1_229 vpextrq $1, %xmm4, %rax vmovsd (%rdx,%rax,8), %xmm2 .LBB1_229: vmovapd %xmm2, 32352(%rbx) vpaddq %xmm6, %xmm9, %xmm7 vxorpd %xmm4, %xmm4, %xmm4 testb $1, 496(%r11,%r13) vpxor %xmm5, %xmm5, %xmm5 je .LBB1_231 vmovd %xmm7, %rax vmovsd (%rdx,%rax,8), %xmm5 .LBB1_231: testb $1, 500(%r11,%r13) je .LBB1_233 vpextrq $1, %xmm7, %rax vmovsd (%rdx,%rax,8), %xmm4 .LBB1_233: vpaddq .LCPI1_12(%rip), %xmm14, %xmm7 vxorpd %xmm2, %xmm2, %xmm2 testb $1, 504(%r11,%r13) vpxor %xmm6, %xmm6, %xmm6 je .LBB1_235 vmovd %xmm7, %rax vmovsd (%rdx,%rax,8), %xmm6 .LBB1_235: vmovdqa %xmm6, 32192(%rbx) testb $1, 508(%r11,%r13) je .LBB1_237 vpextrq $1, %xmm7, %rax vmovsd (%rdx,%rax,8), %xmm2 .LBB1_237: vmovapd %xmm2, 32288(%rbx) imull $12, %r10d, %eax leal 720(%rax,%r9), %eax vunpcklpd %xmm4, %xmm5, %xmm2 vmovapd %ymm2, 32224(%rbx) vunpcklpd %xmm0, %xmm1, %xmm0 vmovapd %ymm0, 32256(%rbx) vmovdqa .LCPI1_13(%rip), %xmm6 vpaddq %xmm6, %xmm11, %xmm5 movslq %eax, %rax vpaddq %xmm6, %xmm8, %xmm4 vxorpd %xmm0, %xmm0, %xmm0 vmaskmovpd 33056(%rbx,%rax,8), %ymm12, %ymm1 vmovapd %ymm1, 29632(%rbx) vmaskmovpd 33024(%rbx,%rax,8), %ymm13, %ymm1 vmovapd %ymm1, 29664(%rbx) testb $1, 480(%r11,%r13) vxorpd %xmm1, %xmm1, %xmm1 je .LBB1_239 vinsertf128 $1, %xmm4, %ymm5, %ymm1 vmovd %xmm1, %rax vmovsd (%rdx,%rax,8), %xmm1 .LBB1_239: testb $1, 484(%r11,%r13) je .LBB1_241 vpextrq $1, %xmm5, %rax vmovsd (%rdx,%rax,8), %xmm0 .LBB1_241: vxorpd %xmm2, %xmm2, %xmm2 testb $1, 488(%r11,%r13) vpxor %xmm5, %xmm5, %xmm5 je .LBB1_243 vmovd %xmm4, %rax vmovsd (%rdx,%rax,8), %xmm5 .LBB1_243: vmovdqa %xmm5, 32128(%rbx) testb $1, 492(%r11,%r13) je .LBB1_245 vpextrq $1, %xmm4, %rax vmovsd (%rdx,%rax,8), %xmm2 .LBB1_245: vmovapd %xmm2, 32160(%rbx) vpaddq %xmm6, %xmm9, %xmm7 vxorpd %xmm4, %xmm4, %xmm4 testb $1, 496(%r11,%r13) vpxor %xmm5, %xmm5, %xmm5 je .LBB1_247 vmovd %xmm7, %rax vmovsd (%rdx,%rax,8), %xmm5 .LBB1_247: testb $1, 500(%r11,%r13) vmovdqa .LCPI1_14(%rip), %xmm6 je .LBB1_249 vpextrq $1, %xmm7, %rax vmovsd (%rdx,%rax,8), %xmm4 .LBB1_249: vpaddq .LCPI1_13(%rip), %xmm14, %xmm7 vxorpd %xmm2, %xmm2, %xmm2 testb $1, 504(%r11,%r13) vxorpd %xmm3, %xmm3, %xmm3 vmovapd %xmm3, 32896(%rbx) je .LBB1_251 vmovd %xmm7, %rax vmovsd (%rdx,%rax,8), %xmm15 vmovaps %xmm15, 32896(%rbx) .LBB1_251: testb $1, 508(%r11,%r13) je .LBB1_253 vpextrq $1, %xmm7, %rax vmovsd (%rdx,%rax,8), %xmm2 .LBB1_253: vmovapd %xmm2, 32000(%rbx) imull $12, %r10d, %eax leal 864(%rax,%r9), %eax vunpcklpd %xmm4, %xmm5, %xmm2 vmovapd %ymm2, 31904(%rbx) vunpcklpd %xmm0, %xmm1, %xmm0 vmovapd %ymm0, 31968(%rbx) vpaddq %xmm6, %xmm11, %xmm5 movslq %eax, %rax vpaddq %xmm6, %xmm8, %xmm1 vxorpd %xmm4, %xmm4, %xmm4 vmaskmovpd 33056(%rbx,%rax,8), %ymm12, %ymm0 vmovapd %ymm0, 30400(%rbx) vmaskmovpd 33024(%rbx,%rax,8), %ymm13, %ymm0 vmovapd %ymm0, 29600(%rbx) testb $1, 480(%r11,%r13) vxorpd %xmm0, %xmm0, %xmm0 je .LBB1_255 vinsertf128 $1, %xmm1, %ymm5, %ymm0 vmovd %xmm0, %rax vmovsd (%rdx,%rax,8), %xmm0 .LBB1_255: testb $1, 484(%r11,%r13) je .LBB1_257 vpextrq $1, %xmm5, %rax vmovsd (%rdx,%rax,8), %xmm4 .LBB1_257: vxorpd %xmm2, %xmm2, %xmm2 testb $1, 488(%r11,%r13) vxorpd %xmm3, %xmm3, %xmm3 je .LBB1_259 vmovd %xmm1, %rax vmovsd (%rdx,%rax,8), %xmm3 .LBB1_259: vmovapd %xmm3, 31808(%rbx) testb $1, 492(%r11,%r13) je .LBB1_261 vpextrq $1, %xmm1, %rax vmovsd (%rdx,%rax,8), %xmm2 .LBB1_261: vmovapd %xmm2, 31840(%rbx) vpaddq %xmm6, %xmm9, %xmm7 vxorpd %xmm1, %xmm1, %xmm1 testb $1, 496(%r11,%r13) vpxor %xmm5, %xmm5, %xmm5 je .LBB1_263 vmovd %xmm7, %rax vmovsd (%rdx,%rax,8), %xmm5 .LBB1_263: testb $1, 500(%r11,%r13) je .LBB1_265 vpextrq $1, %xmm7, %rax vmovsd (%rdx,%rax,8), %xmm1 .LBB1_265: vpaddq %xmm6, %xmm14, %xmm7 vxorpd %xmm2, %xmm2, %xmm2 testb $1, 504(%r11,%r13) vxorpd %xmm3, %xmm3, %xmm3 je .LBB1_267 vmovd %xmm7, %rax vmovsd (%rdx,%rax,8), %xmm3 .LBB1_267: vmovapd %xmm3, 31648(%rbx) testb $1, 508(%r11,%r13) je .LBB1_269 vpextrq $1, %xmm7, %rax vmovsd (%rdx,%rax,8), %xmm2 .LBB1_269: vmovapd %xmm2, 31776(%rbx) imull $12, %r10d, %eax leal 1008(%rax,%r9), %eax vunpcklpd %xmm1, %xmm5, %xmm1 vmovapd %ymm1, 31680(%rbx) vunpcklpd %xmm4, %xmm0, %xmm0 vmovapd %ymm0, 31744(%rbx) vmovdqa .LCPI1_15(%rip), %xmm2 vpaddq %xmm2, %xmm11, %xmm1 movslq %eax, %rax vpaddq %xmm2, %xmm8, %xmm5 vxorpd %xmm7, %xmm7, %xmm7 vmaskmovpd 33056(%rbx,%rax,8), %ymm12, %ymm0 vmovapd %ymm0, 30336(%rbx) vmaskmovpd 33024(%rbx,%rax,8), %ymm13, %ymm0 vmovapd %ymm0, 30368(%rbx) testb $1, 480(%r11,%r13) vxorpd %xmm0, %xmm0, %xmm0 je .LBB1_271 vinsertf128 $1, %xmm5, %ymm1, %ymm0 vmovd %xmm0, %rax vmovsd (%rdx,%rax,8), %xmm0 .LBB1_271: testb $1, 484(%r11,%r13) je .LBB1_273 vpextrq $1, %xmm1, %rax vmovsd (%rdx,%rax,8), %xmm7 .LBB1_273: vpxor %xmm1, %xmm1, %xmm1 testb $1, 488(%r11,%r13) vxorpd %xmm3, %xmm3, %xmm3 je .LBB1_275 vmovd %xmm5, %rax vmovsd (%rdx,%rax,8), %xmm3 .LBB1_275: vmovapd %xmm3, 31328(%rbx) testb $1, 492(%r11,%r13) je .LBB1_277 vpextrq $1, %xmm5, %rax vmovsd (%rdx,%rax,8), %xmm1 .LBB1_277: vmovdqa %xmm1, 31616(%rbx) vpaddq %xmm2, %xmm9, %xmm4 vpxor %xmm1, %xmm1, %xmm1 testb $1, 496(%r11,%r13) vxorpd %xmm5, %xmm5, %xmm5 je .LBB1_279 vmovd %xmm4, %rax vmovsd (%rdx,%rax,8), %xmm5 .LBB1_279: testb $1, 500(%r11,%r13) je .LBB1_281 vpextrq $1, %xmm4, %rax vmovsd (%rdx,%rax,8), %xmm1 .LBB1_281: vpaddq %xmm2, %xmm14, %xmm4 vpxor %xmm2, %xmm2, %xmm2 testb $1, 504(%r11,%r13) vxorpd %xmm3, %xmm3, %xmm3 je .LBB1_283 vmovd %xmm4, %rax vmovsd (%rdx,%rax,8), %xmm3 .LBB1_283: vmovapd %xmm3, 31072(%rbx) testb $1, 508(%r11,%r13) je .LBB1_285 vpextrq $1, %xmm4, %rax vmovsd (%rdx,%rax,8), %xmm2 .LBB1_285: vmovdqa %xmm2, 31296(%rbx) vmovdqa %ymm9, %ymm2 imull $12, %r10d, %eax leal 1152(%rax,%r9), %eax vunpcklpd %xmm1, %xmm5, %xmm1 vmovapd %ymm1, 31104(%rbx) vunpcklpd %xmm7, %xmm0, %xmm0 vmovapd %ymm0, 31232(%rbx) vmovdqa .LCPI1_16(%rip), %xmm0 vpaddq %xmm0, %xmm11, %xmm6 movslq %eax, %rax vpaddq %xmm0, %xmm8, %xmm1 vpxor %xmm0, %xmm0, %xmm0 vmaskmovpd 33056(%rbx,%rax,8), %ymm12, %ymm4 vmaskmovpd 33024(%rbx,%rax,8), %ymm13, %ymm3 vmovapd %ymm3, 32928(%rbx) testb $1, 480(%r11,%r13) vxorpd %xmm5, %xmm5, %xmm5 je .LBB1_287 vinsertf128 $1, %xmm1, %ymm6, %ymm3 vmovd %xmm3, %rax vmovsd (%rdx,%rax,8), %xmm5 .LBB1_287: testb $1, 484(%r11,%r13) je .LBB1_289 vpextrq $1, %xmm6, %rax vmovsd (%rdx,%rax,8), %xmm0 .LBB1_289: vxorps %xmm9, %xmm9, %xmm9 testb $1, 488(%r11,%r13) vxorps %xmm11, %xmm11, %xmm11 je .LBB1_291 vmovd %xmm1, %rax vmovsd (%rdx,%rax,8), %xmm11 .LBB1_291: vmovapd %ymm13, 31008(%rbx) vmovapd %ymm12, 31040(%rbx) testb $1, 492(%r11,%r13) je .LBB1_293 vpextrq $1, %xmm1, %rax vmovsd (%rdx,%rax,8), %xmm9 .LBB1_293: vpaddq .LCPI1_16(%rip), %xmm2, %xmm3 vxorpd %xmm1, %xmm1, %xmm1 testb $1, 496(%r11,%r13) vpxor %xmm6, %xmm6, %xmm6 je .LBB1_295 vmovd %xmm3, %rax vmovsd (%rdx,%rax,8), %xmm6 .LBB1_295: testb $1, 500(%r11,%r13) je .LBB1_297 vpextrq $1, %xmm3, %rax vmovsd (%rdx,%rax,8), %xmm1 .LBB1_297: vpaddq .LCPI1_16(%rip), %xmm14, %xmm3 vpxor %xmm2, %xmm2, %xmm2 testb $1, 504(%r11,%r13) vxorpd %xmm13, %xmm13, %xmm13 je .LBB1_299 vmovd %xmm3, %rax vmovsd (%rdx,%rax,8), %xmm13 .LBB1_299: testb $1, 508(%r11,%r13) je .LBB1_301 vpextrq $1, %xmm3, %rax vmovsd (%rdx,%rax,8), %xmm2 .LBB1_301: vunpcklpd %xmm1, %xmm6, %xmm1 vmovapd %ymm1, 30976(%rbx) vunpcklpd %xmm0, %xmm5, %xmm0 vmovapd %ymm0, 30944(%rbx) testb $1, 480(%r11,%r13) movabsq $-4616189618054758400, %rcx je .LBB1_303 movq %rcx, 10944(%r11,%r13) .LBB1_303: testb $1, 484(%r11,%r13) movabsq $4607182418800017408, %rdx je .LBB1_305 movq %rcx, 11072(%r11,%r13) .LBB1_305: testb $1, 488(%r11,%r13) je .LBB1_307 movq %rcx, 11200(%r11,%r13) .LBB1_307: testb $1, 492(%r11,%r13) je .LBB1_309 movq %rcx, 11328(%r11,%r13) .LBB1_309: testb $1, 496(%r11,%r13) je .LBB1_311 movq %rcx, 11456(%r11,%r13) .LBB1_311: testb $1, 500(%r11,%r13) je .LBB1_313 movq %rcx, 11584(%r11,%r13) .LBB1_313: testb $1, 504(%r11,%r13) je .LBB1_315 movq %rcx, 11712(%r11,%r13) .LBB1_315: testb $1, 508(%r11,%r13) je .LBB1_317 movq %rcx, 11840(%r11,%r13) .LBB1_317: testb $1, 480(%r11,%r13) je .LBB1_319 leaq 10952(%r11,%r13), %rax vmovdqu %xmm10, 16(%rax) vmovdqu %xmm10, (%rax) .LBB1_319: testb $1, 484(%r11,%r13) je .LBB1_321 leaq 11080(%r11,%r13), %rax vmovdqu %xmm10, 16(%rax) vmovdqu %xmm10, (%rax) .LBB1_321: testb $1, 488(%r11,%r13) je .LBB1_323 leaq 11208(%r11,%r13), %rax vmovdqu %xmm10, 16(%rax) vmovdqu %xmm10, (%rax) .LBB1_323: testb $1, 492(%r11,%r13) je .LBB1_325 leaq 11336(%r11,%r13), %rax vmovdqu %xmm10, 16(%rax) vmovdqu %xmm10, (%rax) .LBB1_325: testb $1, 496(%r11,%r13) je .LBB1_327 leaq 11464(%r11,%r13), %rax vmovdqu %xmm10, 16(%rax) vmovdqu %xmm10, (%rax) .LBB1_327: testb $1, 500(%r11,%r13) je .LBB1_329 leaq 11592(%r11,%r13), %rax vmovdqu %xmm10, 16(%rax) vmovdqu %xmm10, (%rax) .LBB1_329: testb $1, 504(%r11,%r13) je .LBB1_331 leaq 11720(%r11,%r13), %rax vmovdqu %xmm10, 16(%rax) vmovdqu %xmm10, (%rax) .LBB1_331: testb $1, 508(%r11,%r13) je .LBB1_333 leaq 11848(%r11,%r13), %rax vmovdqu %xmm10, 16(%rax) vmovdqu %xmm10, (%rax) .LBB1_333: testb $1, 480(%r11,%r13) je .LBB1_335 movq %rdx, 10984(%r11,%r13) .LBB1_335: testb $1, 484(%r11,%r13) je .LBB1_337 movq %rdx, 11112(%r11,%r13) .LBB1_337: testb $1, 488(%r11,%r13) je .LBB1_339 movq %rdx, 11240(%r11,%r13) .LBB1_339: testb $1, 492(%r11,%r13) je .LBB1_341 movq %rdx, 11368(%r11,%r13) .LBB1_341: testb $1, 496(%r11,%r13) je .LBB1_343 movq %rdx, 11496(%r11,%r13) .LBB1_343: testb $1, 500(%r11,%r13) je .LBB1_345 movq %rdx, 11624(%r11,%r13) .LBB1_345: testb $1, 504(%r11,%r13) je .LBB1_347 movq %rdx, 11752(%r11,%r13) .LBB1_347: testb $1, 508(%r11,%r13) je .LBB1_349 movq %rdx, 11880(%r11,%r13) .LBB1_349: testb $1, 480(%r11,%r13) je .LBB1_351 leaq 10992(%r11,%r13), %rax vmovdqa %xmm10, 16(%rax) vmovdqa %xmm10, (%rax) .LBB1_351: testb $1, 484(%r11,%r13) je .LBB1_353 leaq 11120(%r11,%r13), %rax vmovdqa %xmm10, 16(%rax) vmovdqa %xmm10, (%rax) .LBB1_353: testb $1, 488(%r11,%r13) je .LBB1_355 leaq 11248(%r11,%r13), %rax vmovdqa %xmm10, 16(%rax) vmovdqa %xmm10, (%rax) .LBB1_355: testb $1, 492(%r11,%r13) je .LBB1_357 leaq 11376(%r11,%r13), %rax vmovdqa %xmm10, 16(%rax) vmovdqa %xmm10, (%rax) .LBB1_357: testb $1, 496(%r11,%r13) je .LBB1_359 leaq 11504(%r11,%r13), %rax vmovdqa %xmm10, 16(%rax) vmovdqa %xmm10, (%rax) .LBB1_359: testb $1, 500(%r11,%r13) je .LBB1_361 leaq 11632(%r11,%r13), %rax vmovdqa %xmm10, 16(%rax) vmovdqa %xmm10, (%rax) .LBB1_361: testb $1, 504(%r11,%r13) je .LBB1_363 leaq 11760(%r11,%r13), %rax vmovdqa %xmm10, 16(%rax) vmovdqa %xmm10, (%rax) .LBB1_363: testb $1, 508(%r11,%r13) je .LBB1_365 leaq 11888(%r11,%r13), %rax vmovdqa %xmm10, 16(%rax) vmovdqa %xmm10, (%rax) .LBB1_365: testb $1, 480(%r11,%r13) je .LBB1_367 movq %rdx, 11024(%r11,%r13) .LBB1_367: testb $1, 484(%r11,%r13) je .LBB1_369 movq %rdx, 11152(%r11,%r13) .LBB1_369: testb $1, 488(%r11,%r13) je .LBB1_371 movq %rdx, 11280(%r11,%r13) .LBB1_371: testb $1, 492(%r11,%r13) je .LBB1_373 movq %rdx, 11408(%r11,%r13) .LBB1_373: testb $1, 496(%r11,%r13) je .LBB1_375 movq %rdx, 11536(%r11,%r13) .LBB1_375: testb $1, 500(%r11,%r13) je .LBB1_377 movq %rdx, 11664(%r11,%r13) .LBB1_377: testb $1, 504(%r11,%r13) je .LBB1_379 movq %rdx, 11792(%r11,%r13) .LBB1_379: testb $1, 508(%r11,%r13) je .LBB1_381 movq %rdx, 11920(%r11,%r13) .LBB1_381: testb $1, 480(%r11,%r13) je .LBB1_383 leaq 11032(%r11,%r13), %rax vmovdqu %xmm10, 16(%rax) vmovdqu %xmm10, (%rax) .LBB1_383: testb $1, 484(%r11,%r13) je .LBB1_385 leaq 11160(%r11,%r13), %rax vmovdqu %xmm10, 16(%rax) vmovdqu %xmm10, (%rax) .LBB1_385: testb $1, 488(%r11,%r13) je .LBB1_387 leaq 11288(%r11,%r13), %rax vmovdqu %xmm10, 16(%rax) vmovdqu %xmm10, (%rax) .LBB1_387: testb $1, 492(%r11,%r13) je .LBB1_389 leaq 11416(%r11,%r13), %rax vmovdqu %xmm10, 16(%rax) vmovdqu %xmm10, (%rax) .LBB1_389: testb $1, 496(%r11,%r13) je .LBB1_391 leaq 11544(%r11,%r13), %rax vmovdqu %xmm10, 16(%rax) vmovdqu %xmm10, (%rax) .LBB1_391: testb $1, 500(%r11,%r13) je .LBB1_393 leaq 11672(%r11,%r13), %rax vmovdqu %xmm10, 16(%rax) vmovdqu %xmm10, (%rax) .LBB1_393: testb $1, 504(%r11,%r13) je .LBB1_395 leaq 11800(%r11,%r13), %rax vmovdqu %xmm10, 16(%rax) vmovdqu %xmm10, (%rax) .LBB1_395: testb $1, 508(%r11,%r13) je .LBB1_397 leaq 11928(%r11,%r13), %rax vmovdqu %xmm10, 16(%rax) vmovdqu %xmm10, (%rax) .LBB1_397: testb $1, 480(%r11,%r13) je .LBB1_399 movq %rdx, 11064(%r11,%r13) .LBB1_399: testb $1, 484(%r11,%r13) je .LBB1_401 movq %rdx, 11192(%r11,%r13) .LBB1_401: testb $1, 488(%r11,%r13) movabsq $-9223372036854775808, %rax je .LBB1_403 movq %rdx, 11320(%r11,%r13) .LBB1_403: testb $1, 492(%r11,%r13) je .LBB1_405 movq %rdx, 11448(%r11,%r13) .LBB1_405: testb $1, 496(%r11,%r13) je .LBB1_407 movq %rdx, 11576(%r11,%r13) .LBB1_407: testb $1, 500(%r11,%r13) je .LBB1_409 movq %rdx, 11704(%r11,%r13) .LBB1_409: testb $1, 504(%r11,%r13) je .LBB1_411 movq %rdx, 11832(%r11,%r13) .LBB1_411: testb $1, 508(%r11,%r13) je .LBB1_413 movq %rdx, 11960(%r11,%r13) .LBB1_413: testb $1, 480(%r11,%r13) je .LBB1_415 movq %rcx, 9920(%r11,%r13) .LBB1_415: testb $1, 484(%r11,%r13) je .LBB1_417 movq %rcx, 10048(%r11,%r13) .LBB1_417: testb $1, 488(%r11,%r13) je .LBB1_419 movq %rcx, 10176(%r11,%r13) .LBB1_419: testb $1, 492(%r11,%r13) je .LBB1_421 movq %rcx, 10304(%r11,%r13) .LBB1_421: testb $1, 496(%r11,%r13) je .LBB1_423 movq %rcx, 10432(%r11,%r13) .LBB1_423: testb $1, 500(%r11,%r13) je .LBB1_425 movq %rcx, 10560(%r11,%r13) .LBB1_425: testb $1, 504(%r11,%r13) je .LBB1_427 movq %rcx, 10688(%r11,%r13) .LBB1_427: testb $1, 508(%r11,%r13) je .LBB1_429 movq %rcx, 10816(%r11,%r13) .LBB1_429: testb $1, 480(%r11,%r13) je .LBB1_431 movq %rax, 9928(%r11,%r13) .LBB1_431: testb $1, 484(%r11,%r13) je .LBB1_433 movq %rax, 10056(%r11,%r13) .LBB1_433: testb $1, 488(%r11,%r13) je .LBB1_435 movq %rax, 10184(%r11,%r13) .LBB1_435: testb $1, 492(%r11,%r13) je .LBB1_437 movq %rax, 10312(%r11,%r13) .LBB1_437: testb $1, 496(%r11,%r13) je .LBB1_439 movq %rax, 10440(%r11,%r13) .LBB1_439: testb $1, 500(%r11,%r13) je .LBB1_441 movq %rax, 10568(%r11,%r13) .LBB1_441: testb $1, 504(%r11,%r13) je .LBB1_443 movq %rax, 10696(%r11,%r13) .LBB1_443: testb $1, 508(%r11,%r13) je .LBB1_445 movq %rax, 10824(%r11,%r13) .LBB1_445: testb $1, 480(%r11,%r13) je .LBB1_447 movq %rax, 9936(%r11,%r13) .LBB1_447: testb $1, 484(%r11,%r13) je .LBB1_449 movq %rax, 10064(%r11,%r13) .LBB1_449: testb $1, 488(%r11,%r13) je .LBB1_451 movq %rax, 10192(%r11,%r13) .LBB1_451: testb $1, 492(%r11,%r13) je .LBB1_453 movq %rax, 10320(%r11,%r13) .LBB1_453: testb $1, 496(%r11,%r13) je .LBB1_455 movq %rax, 10448(%r11,%r13) .LBB1_455: testb $1, 500(%r11,%r13) vmovapd 32864(%rbx), %xmm0 vmovapd 32416(%rbx), %xmm3 je .LBB1_457 movq %rax, 10576(%r11,%r13) .LBB1_457: vmovapd %ymm4, 32640(%rbx) testb $1, 504(%r11,%r13) je .LBB1_459 movq %rax, 10704(%r11,%r13) .LBB1_459: vmovapd 32736(%rbx), %xmm1 vunpcklpd %xmm0, %xmm1, %xmm0 vmovapd 31872(%rbx), %xmm1 vunpcklpd 32704(%rbx), %xmm1, %xmm5 vunpcklpd 32544(%rbx), %xmm3, %xmm6 vmovapd 32576(%rbx), %xmm1 vunpcklpd 32672(%rbx), %xmm1, %xmm1 vmovapd 32192(%rbx), %xmm3 vunpcklpd 32288(%rbx), %xmm3, %xmm12 vmovapd 32320(%rbx), %xmm3 vunpcklpd 32352(%rbx), %xmm3, %xmm10 vmovapd 32896(%rbx), %xmm3 vunpcklpd 32000(%rbx), %xmm3, %xmm14 vmovapd 32128(%rbx), %xmm3 vunpcklpd 32160(%rbx), %xmm3, %xmm15 vmovapd 31648(%rbx), %xmm3 vunpcklpd 31776(%rbx), %xmm3, %xmm4 vmovapd 31808(%rbx), %xmm3 vunpcklpd 31840(%rbx), %xmm3, %xmm8 vmovapd 31072(%rbx), %xmm3 vunpcklpd 31296(%rbx), %xmm3, %xmm3 vmovapd 31328(%rbx), %xmm7 vunpcklpd 31616(%rbx), %xmm7, %xmm7 vunpcklpd %xmm2, %xmm13, %xmm2 vunpcklpd %xmm9, %xmm11, %xmm9 testb $1, 508(%r11,%r13) je .LBB1_461 movq %rax, 10832(%r11,%r13) .LBB1_461: vmovapd 32800(%rbx), %ymm11 vinsertf128 $1, %xmm0, %ymm11, %ymm0 vmovapd %ymm0, 30240(%rbx) vmovapd 32832(%rbx), %ymm0 vinsertf128 $1, %xmm5, %ymm0, %ymm0 vmovapd %ymm0, 29536(%rbx) vmovapd 32480(%rbx), %ymm0 vinsertf128 $1, %xmm6, %ymm0, %ymm0 vmovapd %ymm0, 30272(%rbx) vmovapd 32512(%rbx), %ymm0 vinsertf128 $1, %xmm1, %ymm0, %ymm0 vmovapd %ymm0, 29568(%rbx) vmovapd 32224(%rbx), %ymm0 vinsertf128 $1, %xmm12, %ymm0, %ymm0 vmovapd %ymm0, 30304(%rbx) vmovapd 32256(%rbx), %ymm0 vinsertf128 $1, %xmm10, %ymm0, %ymm0 vmovapd %ymm0, 30208(%rbx) vmovapd 31904(%rbx), %ymm0 vinsertf128 $1, %xmm14, %ymm0, %ymm0 vmovapd %ymm0, 31904(%rbx) vmovapd 31968(%rbx), %ymm0 vinsertf128 $1, %xmm15, %ymm0, %ymm0 vmovapd %ymm0, 31872(%rbx) vmovapd 31680(%rbx), %ymm0 vinsertf128 $1, %xmm4, %ymm0, %ymm10 vmovapd 31744(%rbx), %ymm1 vinsertf128 $1, %xmm8, %ymm1, %ymm1 vmovapd 31104(%rbx), %ymm4 vinsertf128 $1, %xmm3, %ymm4, %ymm4 vmovapd 31232(%rbx), %ymm3 vinsertf128 $1, %xmm7, %ymm3, %ymm3 vmovapd %ymm3, 31776(%rbx) vmovapd 30976(%rbx), %ymm0 vinsertf128 $1, %xmm2, %ymm0, %ymm0 vmovapd %ymm0, 31232(%rbx) vmovapd 30944(%rbx), %ymm0 vinsertf128 $1, %xmm9, %ymm0, %ymm2 movb 496(%r11,%r13), %r14b movb %r14b, %cl andb $1, %cl jne .LBB1_462 vmovapd %ymm2, 31744(%rbx) vmovapd %ymm4, 32128(%rbx) vxorpd %xmm2, %xmm2, %xmm2 jmp .LBB1_464 .align 16, 0x90 .LBB1_154: movq 224(%r13,%r11), %rax shlq $32, %rax addq %rdx, %rax vmovd %rax, %xmm0 vmovlhps %xmm0, %xmm0, %xmm0 vinsertf128 $1, %xmm0, %ymm0, %ymm10 leaq 352(%r11,%r13), %rax movq %rax, 32384(%rbx) vmovaps %ymm1, 32896(%rbx) vmovaps %ymm1, 32832(%rbx) vmovaps %ymm1, 32800(%rbx) vmovaps %ymm2, 32864(%rbx) vmovaps %ymm2, 32928(%rbx) jmp .LBB1_1984 .align 16, 0x90 .LBB1_156: movq %rcx, 32928(%rbx) imull $12, %r10d, %ecx movq %rax, 32896(%rbx) leal 144(%rcx,%r9), %eax vmovupd 32(%rdx), %xmm0 vmovupd (%rdx), %xmm1 movq %rsi, 32864(%rbx) movslq %eax, %rsi vinsertf128 $1, 48(%rdx), %ymm0, %ymm14 vmovapd .LCPI1_19(%rip), %ymm11 vcmpltpd %ymm11, %ymm14, %ymm2 vmovupd 16(%rdx), %xmm5 vextractf128 $1, %ymm2, %xmm4 vmovupd 33024(%rbx,%rsi,8), %xmm7 vinsertf128 $1, %xmm5, %ymm1, %ymm10 vcmpltpd %ymm11, %ymm10, %ymm5 vextractf128 $1, %ymm5, %xmm0 vpshufd $8, %xmm0, %xmm6 vpshufd $8, %xmm5, %xmm0 vmovlhps %xmm6, %xmm0, %xmm5 vmovupd 33056(%rbx,%rsi,8), %xmm6 vpshufd $8, %xmm4, %xmm4 vpshufd $8, %xmm2, %xmm0 vmovlhps %xmm4, %xmm0, %xmm0 vmovdqa .LCPI1_20(%rip), %xmm1 vpshufb %xmm1, %xmm0, %xmm4 vmovdqa %xmm1, %xmm3 vinsertf128 $1, 33072(%rbx,%rsi,8), %ymm6, %ymm12 vinsertf128 $1, 33040(%rbx,%rsi,8), %ymm7, %ymm13 vmovdqa .LCPI1_21(%rip), %xmm0 vmovdqa %xmm0, %xmm1 vpshufb %xmm1, %xmm5, %xmm0 vmovdqa %xmm1, %xmm2 vpor %xmm4, %xmm0, %xmm4 vmovdqa .LCPI1_12(%rip), %xmm1 vpaddq %xmm1, %xmm15, %xmm0 movq %r15, 32800(%rbx) vmovd %xmm0, %r15 vpextrq $1, %xmm0, %rax movq %rax, 32640(%rbx) vextractf128 $1, %ymm15, %xmm5 vpaddq %xmm1, %xmm5, %xmm0 movq %rdi, 32832(%rbx) movq %r12, 32448(%rbx) movq %r11, %r12 vmovd %xmm0, %r11 vpextrq $1, %xmm0, %rax movq %rax, 32544(%rbx) vcmpltpd %ymm11, %ymm13, %ymm6 vextractf128 $1, %ymm6, %xmm0 vpshufd $8, %xmm0, %xmm7 vpshufd $8, %xmm6, %xmm0 vmovlhps %xmm7, %xmm0, %xmm7 vcmpltpd %ymm11, %ymm12, %ymm6 vextractf128 $1, %ymm6, %xmm0 vpshufd $8, %xmm0, %xmm0 vpshufd $8, %xmm6, %xmm6 vmovlhps %xmm0, %xmm6, %xmm0 vpshufb %xmm3, %xmm0, %xmm0 vpshufb %xmm2, %xmm7, %xmm6 vpor %xmm0, %xmm6, %xmm0 vpsllw $15, %xmm0, %xmm0 vpsraw $15, %xmm0, %xmm6 vpunpckhbw %xmm0, %xmm6, %xmm0 vpslld $31, %xmm0, %xmm0 vpmovsxdq %xmm0, %xmm7 vmovhlps %xmm0, %xmm0, %xmm0 vpmovsxdq %xmm0, %xmm0 vinsertf128 $1, %xmm0, %ymm7, %ymm7 vpunpcklbw %xmm0, %xmm6, %xmm0 vpslld $31, %xmm0, %xmm0 vpmovsxdq %xmm0, %xmm6 vmovhlps %xmm0, %xmm0, %xmm0 vpmovsxdq %xmm0, %xmm0 vinsertf128 $1, %xmm0, %ymm6, %ymm8 vpsllw $15, %xmm4, %xmm0 vpsraw $15, %xmm0, %xmm6 vpunpckhbw %xmm0, %xmm6, %xmm0 vpslld $31, %xmm0, %xmm0 vpmovsxdq %xmm0, %xmm4 vmovhlps %xmm0, %xmm0, %xmm0 vpmovsxdq %xmm0, %xmm0 vinsertf128 $1, %xmm0, %ymm4, %ymm4 vpunpcklbw %xmm0, %xmm6, %xmm0 vpslld $31, %xmm0, %xmm0 vpmovsxdq %xmm0, %xmm6 vmovhlps %xmm0, %xmm0, %xmm0 vpmovsxdq %xmm0, %xmm0 vinsertf128 $1, %xmm0, %ymm6, %ymm0 vblendvpd %ymm8, %ymm11, %ymm13, %ymm2 vmovapd %ymm2, 31072(%rbx) vblendvpd %ymm0, %ymm11, %ymm10, %ymm0 vmovapd %ymm0, 32096(%rbx) vblendvpd %ymm7, %ymm11, %ymm12, %ymm0 vmovapd %ymm0, 31680(%rbx) vblendvpd %ymm4, %ymm11, %ymm14, %ymm0 vmovapd %ymm0, 31104(%rbx) vextractf128 $1, %ymm9, %xmm0 vpaddq %xmm1, %xmm0, %xmm3 vxorpd %xmm10, %xmm10, %xmm10 vpaddq %xmm1, %xmm9, %xmm14 vmovdqa .LCPI1_16(%rip), %xmm1 vpaddq %xmm1, %xmm0, %xmm2 vpaddq %xmm1, %xmm15, %xmm11 vpaddq %xmm1, %xmm9, %xmm12 vpaddq %xmm1, %xmm5, %xmm1 vmovdqa %xmm1, 31744(%rbx) vmovdqa .LCPI1_11(%rip), %xmm1 vpaddq %xmm1, %xmm5, %xmm8 vpaddq %xmm1, %xmm0, %xmm4 vmovdqa %xmm4, 31776(%rbx) vpaddq %xmm1, %xmm15, %xmm4 vmovdqa %xmm4, 32000(%rbx) vpaddq %xmm1, %xmm9, %xmm1 vmovdqa %xmm1, 31840(%rbx) vmovdqa .LCPI1_10(%rip), %xmm1 vpaddq %xmm1, %xmm0, %xmm4 vmovdqa %xmm4, 31648(%rbx) vpaddq %xmm1, %xmm15, %xmm4 vmovdqa %xmm4, 32032(%rbx) vpaddq %xmm1, %xmm5, %xmm4 vmovdqa %xmm4, 31904(%rbx) vpaddq %xmm1, %xmm9, %xmm1 vmovdqa %xmm1, 32064(%rbx) vmovdqa .LCPI1_14(%rip), %xmm1 vpaddq %xmm1, %xmm0, %xmm4 vmovdqa %xmm4, 32288(%rbx) vpaddq %xmm1, %xmm9, %xmm4 vmovdqa %xmm4, 32224(%rbx) vpaddq %xmm1, %xmm15, %xmm4 vmovdqa %xmm4, 32480(%rbx) vpaddq %xmm1, %xmm5, %xmm1 vmovdqa %xmm1, 32352(%rbx) vmovdqa .LCPI1_13(%rip), %xmm1 vpaddq %xmm1, %xmm5, %xmm4 vmovdqa %xmm4, 32320(%rbx) vpaddq %xmm1, %xmm15, %xmm4 vmovdqa %xmm4, 32256(%rbx) vpaddq %xmm1, %xmm9, %xmm4 vmovdqa %xmm4, 32416(%rbx) vpaddq %xmm1, %xmm0, %xmm1 vmovdqa %xmm1, 32512(%rbx) vmovdqa .LCPI1_15(%rip), %xmm1 vpaddq %xmm1, %xmm0, %xmm13 vpaddq %xmm1, %xmm9, %xmm4 vmovdqa %xmm4, 31808(%rbx) vpaddq %xmm1, %xmm5, %xmm4 vmovdqa %xmm4, 32128(%rbx) vpaddq %xmm1, %xmm15, %xmm1 vmovdqa %xmm1, 32576(%rbx) vmovdqa .LCPI1_9(%rip), %xmm1 vpaddq %xmm1, %xmm5, %xmm4 vmovdqa %xmm4, 32704(%rbx) vpaddq %xmm1, %xmm15, %xmm4 vmovdqa %xmm4, 32672(%rbx) vpaddq %xmm1, %xmm0, %xmm15 vpaddq %xmm1, %xmm9, %xmm0 vmovdqa %xmm0, 32736(%rbx) leal 576(%rcx,%r9), %eax movslq %eax, %rdx vmovups 33024(%rbx,%rdx,8), %xmm0 vinsertf128 $1, 33040(%rbx,%rdx,8), %ymm0, %ymm0 vmovaps %ymm0, 31936(%rbx) leal 288(%rcx,%r9), %eax movslq %eax, %rax vmovups 33024(%rbx,%rax,8), %xmm0 vinsertf128 $1, 33040(%rbx,%rax,8), %ymm0, %ymm0 vmovaps %ymm0, 31712(%rbx) vmovups 33056(%rbx,%rax,8), %xmm0 vinsertf128 $1, 33072(%rbx,%rax,8), %ymm0, %ymm0 vmovaps %ymm0, 31040(%rbx) leal 432(%rcx,%r9), %eax movslq %eax, %rax vmovups 33024(%rbx,%rax,8), %xmm0 vinsertf128 $1, 33040(%rbx,%rax,8), %ymm0, %ymm0 vmovaps %ymm0, 31136(%rbx) vmovups 33056(%rbx,%rax,8), %xmm0 vinsertf128 $1, 33072(%rbx,%rax,8), %ymm0, %ymm0 vmovaps %ymm0, 30368(%rbx) vmovups 33056(%rbx,%rdx,8), %xmm0 vinsertf128 $1, 33072(%rbx,%rdx,8), %ymm0, %ymm0 vmovaps %ymm0, 31968(%rbx) leal 720(%rcx,%r9), %eax movslq %eax, %rsi vmovups 33056(%rbx,%rsi,8), %xmm0 vinsertf128 $1, 33072(%rbx,%rsi,8), %ymm0, %ymm0 vmovaps %ymm0, 30112(%rbx) leal 864(%rcx,%r9), %eax movslq %eax, %rdi vmovups 33056(%rbx,%rdi,8), %xmm0 vinsertf128 $1, 33072(%rbx,%rdi,8), %ymm0, %ymm0 vmovaps %ymm0, 30400(%rbx) leal 1008(%rcx,%r9), %eax movslq %eax, %rax vmovups 33056(%rbx,%rax,8), %xmm0 vinsertf128 $1, 33072(%rbx,%rax,8), %ymm0, %ymm0 vmovaps %ymm0, 30656(%rbx) vmovups 33024(%rbx,%rsi,8), %xmm0 vmovd %xmm2, %rdx movq %r13, 32960(%rbx) vpextrq $1, %xmm2, %r13 vinsertf128 $1, 33040(%rbx,%rsi,8), %ymm0, %ymm0 vmovaps %ymm0, 30304(%rbx) vmovups 33024(%rbx,%rdi,8), %xmm0 vinsertf128 $1, 33040(%rbx,%rdi,8), %ymm0, %ymm0 vmovaps %ymm0, 30144(%rbx) vmovups 33024(%rbx,%rax,8), %xmm0 vinsertf128 $1, 33040(%rbx,%rax,8), %ymm0, %ymm0 vmovaps %ymm0, 30176(%rbx) vmovd %xmm8, %rsi vpextrq $1, %xmm8, %r10 movq %r8, 32192(%rbx) movq 23584(%rbx), %r8 vmovsd (%r8,%rdx,8), %xmm6 vmovd %xmm12, %rdx vmovsd (%r8,%r11,8), %xmm8 vmovd %xmm11, %rax vmovsd (%r8,%rax,8), %xmm4 vmovd %xmm14, %rax vmovsd (%r8,%rdx,8), %xmm2 movq %r14, 32160(%rbx) vpextrq $1, %xmm14, %r14 vmovsd (%r8,%r15,8), %xmm0 vmovd %xmm3, %rdx vmovsd (%r8,%rdx,8), %xmm7 vpextrq $1, %xmm3, %r15 vmovsd (%r8,%rax,8), %xmm1 vpextrq $1, %xmm12, %rdi vmovsd (%r8,%rsi,8), %xmm3 vpextrq $1, %xmm11, %rax leal 1152(%rcx,%r9), %ecx movl %ecx, 31872(%rbx) vmovdqa 31744(%rbx), %xmm5 vpextrq $1, %xmm5, %rcx vmovd %xmm5, %rdx vmovsd (%r8,%rdx,8), %xmm5 vmovhpd (%r8,%rcx,8), %xmm5, %xmm5 vmovapd %xmm5, 30080(%rbx) vmovapd 31648(%rbx), %xmm5 vmovd %xmm5, %rsi vmovhpd (%r8,%rax,8), %xmm4, %xmm4 vmovapd %ymm4, 30048(%rbx) vpextrq $1, %xmm5, %rax movq %rax, 31744(%rbx) vmovhpd (%r8,%r13,8), %xmm6, %xmm4 vmovapd %xmm4, 30016(%rbx) vmovapd 31776(%rbx), %xmm4 vmovd %xmm4, %r11 vmovhpd (%r8,%rdi,8), %xmm2, %xmm2 vmovapd %ymm2, 29984(%rbx) vpextrq $1, %xmm4, %r9 movq 32544(%rbx), %rax vmovhpd (%r8,%rax,8), %xmm8, %xmm2 vmovapd %xmm2, 30240(%rbx) vmovd %xmm13, %r13 movq 32640(%rbx), %rax vmovhpd (%r8,%rax,8), %xmm0, %xmm0 vmovapd %ymm0, 29632(%rbx) vpextrq $1, %xmm13, %rax movq %rax, 32544(%rbx) vmovhpd (%r8,%r15,8), %xmm7, %xmm0 vmovapd %xmm0, 29600(%rbx) vmovapd 31840(%rbx), %xmm2 vmovd %xmm2, %rdi vmovhpd (%r8,%r14,8), %xmm1, %xmm0 vmovapd %ymm0, 29536(%rbx) vpextrq $1, %xmm2, %r14 vmovhpd (%r8,%r10,8), %xmm3, %xmm0 vmovapd %xmm0, 29664(%rbx) vmovapd 32000(%rbx), %xmm1 vmovd %xmm1, %rcx vmovsd (%r8,%rcx,8), %xmm0 vmovapd 31904(%rbx), %xmm2 vmovd %xmm2, %rcx vmovsd (%r8,%rcx,8), %xmm9 vpextrq $1, %xmm2, %rdx vpextrq $1, %xmm1, %rcx vmovapd 32032(%rbx), %xmm1 vmovd %xmm1, %rax vmovsd (%r8,%rax,8), %xmm7 vmovsd (%r8,%rdi,8), %xmm6 vmovsd (%r8,%rsi,8), %xmm5 vmovapd 32064(%rbx), %xmm2 vmovd %xmm2, %rax vmovsd (%r8,%rax,8), %xmm4 vmovdqa 31808(%rbx), %xmm3 vpextrq $1, %xmm3, %r10 vmovsd (%r8,%r13,8), %xmm12 vmovd %xmm3, %rax vmovsd (%r8,%rax,8), %xmm11 vpextrq $1, %xmm1, %rdi vmovsd (%r8,%r11,8), %xmm1 vpextrq $1, %xmm2, %rax vmovhpd (%r8,%rcx,8), %xmm0, %xmm0 vmovapd %ymm0, 29504(%rbx) vmovapd 32128(%rbx), %xmm0 vmovd %xmm0, %rcx vmovsd (%r8,%rcx,8), %xmm8 vpextrq $1, %xmm0, %r15 vmovhpd (%r8,%rdx,8), %xmm9, %xmm0 vmovapd %xmm0, 29472(%rbx) vmovapd 32224(%rbx), %xmm2 vmovd %xmm2, %rsi vmovhpd (%r8,%rdi,8), %xmm7, %xmm0 vmovapd %ymm0, 29440(%rbx) vpextrq $1, %xmm2, %rcx movq %rcx, 32640(%rbx) vmovhpd (%r8,%r9,8), %xmm1, %xmm0 vmovapd %xmm0, 29568(%rbx) vmovapd 32288(%rbx), %xmm1 vmovd %xmm1, %rcx vmovhpd (%r8,%r14,8), %xmm6, %xmm0 vmovapd %ymm0, 29408(%rbx) vpextrq $1, %xmm1, %r14 movq 31744(%rbx), %rdx vmovhpd (%r8,%rdx,8), %xmm5, %xmm0 vmovapd %xmm0, 29376(%rbx) vmovapd 32256(%rbx), %xmm1 vmovd %xmm1, %rdi vmovhpd (%r8,%rax,8), %xmm4, %xmm0 vmovapd %ymm0, 29344(%rbx) vpextrq $1, %xmm1, %r11 movq 32544(%rbx), %rax vmovhpd (%r8,%rax,8), %xmm12, %xmm0 vmovapd %xmm0, 29312(%rbx) vmovapd 32320(%rbx), %xmm3 vmovd %xmm3, %rax vmovhpd (%r8,%r10,8), %xmm11, %xmm0 vmovapd %ymm0, 29280(%rbx) vmovapd 32352(%rbx), %xmm1 vmovd %xmm1, %rdx vmovsd (%r8,%rdx,8), %xmm4 vpextrq $1, %xmm3, %r13 vmovsd (%r8,%rax,8), %xmm3 vmovapd 32480(%rbx), %xmm0 vmovd %xmm0, %rdx vmovsd (%r8,%rcx,8), %xmm2 vmovapd 32416(%rbx), %xmm5 vmovd %xmm5, %rax vmovsd (%r8,%rax,8), %xmm9 vpextrq $1, %xmm0, %rax vmovsd (%r8,%rdx,8), %xmm0 vpextrq $1, %xmm1, %rcx vmovsd (%r8,%rdi,8), %xmm7 vpextrq $1, %xmm5, %r9 vmovsd (%r8,%rsi,8), %xmm5 vmovapd 32512(%rbx), %xmm1 vmovd %xmm1, %rdx vmovsd (%r8,%rdx,8), %xmm6 vpextrq $1, %xmm1, %rsi vmovhpd (%r8,%r15,8), %xmm8, %xmm1 vmovapd %xmm1, 29248(%rbx) vmovdqa 32576(%rbx), %xmm1 vpextrq $1, %xmm1, %rdx vmovd %xmm1, %rdi vmovsd (%r8,%rdi,8), %xmm1 vmovhpd (%r8,%rdx,8), %xmm1, %xmm1 vmovapd %ymm1, 29216(%rbx) vmovhpd (%r8,%rcx,8), %xmm4, %xmm1 vmovapd %xmm1, 29184(%rbx) vmovhpd (%r8,%rax,8), %xmm0, %xmm0 vmovapd %ymm0, 29152(%rbx) vmovapd 32672(%rbx), %xmm1 vmovd %xmm1, %r10 vmovhpd (%r8,%r13,8), %xmm3, %xmm0 vmovapd %xmm0, 29120(%rbx) movq 32960(%rbx), %r13 vpextrq $1, %xmm1, %r15 vmovhpd (%r8,%r11,8), %xmm7, %xmm0 vmovapd %ymm0, 29088(%rbx) vmovapd 32704(%rbx), %xmm1 vmovd %xmm1, %r11 vmovhpd (%r8,%r14,8), %xmm2, %xmm0 vmovapd %xmm0, 29056(%rbx) vpextrq $1, %xmm1, %r14 movq 32640(%rbx), %rax vmovhpd (%r8,%rax,8), %xmm5, %xmm0 vmovapd %ymm0, 29024(%rbx) vmovhpd (%r8,%rsi,8), %xmm6, %xmm0 vmovapd %xmm0, 28992(%rbx) vmovhpd (%r8,%r9,8), %xmm9, %xmm0 vmovapd %ymm0, 28960(%rbx) movq 32896(%rbx), %rax vmovsd (%r8,%rax,8), %xmm0 vmovaps %xmm0, 30496(%rbx) movq 32864(%rbx), %rax vmovsd (%r8,%rax,8), %xmm0 vmovaps %xmm0, 29888(%rbx) movq 32448(%rbx), %rax vmovsd (%r8,%rax,8), %xmm0 vmovaps %xmm0, 30528(%rbx) movslq 31872(%rbx), %rcx movq 32192(%rbx), %rax vmovsd (%r8,%rax,8), %xmm0 vmovaps %xmm0, 29920(%rbx) vmovapd 32736(%rbx), %xmm1 vmovd %xmm1, %r9 movq 32160(%rbx), %rax vmovsd (%r8,%rax,8), %xmm0 vmovaps %xmm0, 30560(%rbx) vpextrq $1, %xmm1, %rdx movq 32800(%rbx), %rax vmovsd (%r8,%rax,8), %xmm0 vmovaps %xmm0, 29952(%rbx) vpextrq $1, %xmm15, %rdi movq 32928(%rbx), %rax vmovsd (%r8,%rax,8), %xmm0 vmovaps %xmm0, 30624(%rbx) vmovd %xmm15, %rax movq 32832(%rbx), %rsi vmovsd (%r8,%rsi,8), %xmm0 vmovaps %xmm0, 30592(%rbx) vmovsd (%r8,%r14,8), %xmm0 vmovaps %xmm0, 29856(%rbx) vmovsd (%r8,%r11,8), %xmm0 vmovaps %xmm0, 29824(%rbx) vmovsd (%r8,%r15,8), %xmm0 vmovaps %xmm0, 30464(%rbx) vmovsd (%r8,%r10,8), %xmm0 vmovaps %xmm0, 30432(%rbx) vmovsd (%r8,%rdi,8), %xmm0 vmovaps %xmm0, 29728(%rbx) vmovsd (%r8,%rax,8), %xmm0 vmovaps %xmm0, 29696(%rbx) vmovsd (%r8,%rdx,8), %xmm0 vmovaps %xmm0, 29792(%rbx) vmovsd (%r8,%r9,8), %xmm0 vmovaps %xmm0, 29760(%rbx) vmovups 33072(%rbx,%rcx,8), %xmm0 vmovaps %xmm0, 30976(%rbx) vmovups 33056(%rbx,%rcx,8), %xmm0 vmovaps %ymm0, 30944(%rbx) vmovups 33040(%rbx,%rcx,8), %xmm0 vmovaps %xmm0, 30848(%rbx) vmovups 33024(%rbx,%rcx,8), %xmm0 vmovaps %ymm0, 30816(%rbx) movabsq $-4616189618054758400, %rax movq %rax, 10944(%r13,%r12) movq %rax, 11072(%r13,%r12) movq %rax, 11200(%r13,%r12) movq %rax, 11328(%r13,%r12) movq %rax, 11456(%r13,%r12) movq %rax, 11584(%r13,%r12) movq %rax, 11712(%r13,%r12) movq %rax, 11840(%r13,%r12) vmovupd %xmm10, 10968(%r13,%r12) vmovupd %xmm10, 10952(%r13,%r12) vmovupd %xmm10, 11096(%r13,%r12) vmovupd %xmm10, 11080(%r13,%r12) vmovupd %xmm10, 11224(%r13,%r12) vmovupd %xmm10, 11208(%r13,%r12) vmovupd %xmm10, 11352(%r13,%r12) vmovupd %xmm10, 11336(%r13,%r12) vmovupd %xmm10, 11480(%r13,%r12) vmovupd %xmm10, 11464(%r13,%r12) vmovupd %xmm10, 11608(%r13,%r12) vmovupd %xmm10, 11592(%r13,%r12) vmovupd %xmm10, 11736(%r13,%r12) vmovupd %xmm10, 11720(%r13,%r12) vmovupd %xmm10, 11864(%r13,%r12) vmovupd %xmm10, 11848(%r13,%r12) movabsq $4607182418800017408, %rcx movq %rcx, 10984(%r13,%r12) movq %rcx, 11112(%r13,%r12) movq %rcx, 11240(%r13,%r12) movq %rcx, 11368(%r13,%r12) movq %rcx, 11496(%r13,%r12) movq %rcx, 11624(%r13,%r12) movq %rcx, 11752(%r13,%r12) movq %rcx, 11880(%r13,%r12) vmovapd %xmm10, 11008(%r13,%r12) vmovapd %xmm10, 10992(%r13,%r12) vmovapd %xmm10, 11136(%r13,%r12) vmovapd %xmm10, 11120(%r13,%r12) vmovapd %xmm10, 11264(%r13,%r12) vmovapd %xmm10, 11248(%r13,%r12) vmovapd %xmm10, 11392(%r13,%r12) vmovapd %xmm10, 11376(%r13,%r12) vmovapd %xmm10, 11520(%r13,%r12) vmovapd %xmm10, 11504(%r13,%r12) vmovapd %xmm10, 11648(%r13,%r12) vmovapd %xmm10, 11632(%r13,%r12) vmovapd %xmm10, 11776(%r13,%r12) vmovapd %xmm10, 11760(%r13,%r12) vmovapd %xmm10, 11904(%r13,%r12) vmovapd %xmm10, 11888(%r13,%r12) movq %rcx, 11024(%r13,%r12) movq %rcx, 11152(%r13,%r12) movq %rcx, 11280(%r13,%r12) movq %rcx, 11408(%r13,%r12) movq %rcx, 11536(%r13,%r12) movq %rcx, 11664(%r13,%r12) movq %rcx, 11792(%r13,%r12) movq %rcx, 11920(%r13,%r12) vmovupd %xmm10, 11048(%r13,%r12) vmovupd %xmm10, 11032(%r13,%r12) vmovupd %xmm10, 11176(%r13,%r12) vmovupd %xmm10, 11160(%r13,%r12) vmovupd %xmm10, 11304(%r13,%r12) vmovupd %xmm10, 11288(%r13,%r12) vmovupd %xmm10, 11432(%r13,%r12) vmovupd %xmm10, 11416(%r13,%r12) vmovupd %xmm10, 11560(%r13,%r12) vmovupd %xmm10, 11544(%r13,%r12) vmovupd %xmm10, 11688(%r13,%r12) vmovupd %xmm10, 11672(%r13,%r12) vmovupd %xmm10, 11816(%r13,%r12) vmovupd %xmm10, 11800(%r13,%r12) vmovupd %xmm10, 11944(%r13,%r12) vmovupd %xmm10, 11928(%r13,%r12) movq %rcx, 11064(%r13,%r12) movq %rcx, 11192(%r13,%r12) movq %rcx, 11320(%r13,%r12) movq %rcx, 11448(%r13,%r12) movq %rcx, 11576(%r13,%r12) movq %rcx, 11704(%r13,%r12) movq %rcx, 11832(%r13,%r12) movq %rcx, 11960(%r13,%r12) movq %rax, 9920(%r13,%r12) movq %rax, 10048(%r13,%r12) movq %rax, 10176(%r13,%r12) movq %rax, 10304(%r13,%r12) movq %rax, 10432(%r13,%r12) movq %rax, 10560(%r13,%r12) movq %rax, 10688(%r13,%r12) movq %rax, 10816(%r13,%r12) movabsq $-9223372036854775808, %rax movq %rax, 9928(%r13,%r12) movq %rax, 10056(%r13,%r12) movq %rax, 10184(%r13,%r12) movq %rax, 10312(%r13,%r12) movq %rax, 10440(%r13,%r12) movq %rax, 10568(%r13,%r12) movq %rax, 10696(%r13,%r12) movq %rax, 10824(%r13,%r12) movq %rax, 9936(%r13,%r12) movq %rax, 10064(%r13,%r12) movq %rax, 10192(%r13,%r12) movq %rax, 10320(%r13,%r12) movq %rax, 10448(%r13,%r12) movq %rax, 10576(%r13,%r12) movq %rax, 10704(%r13,%r12) movq %rax, 10832(%r13,%r12) vmovsd 10952(%r13,%r12), %xmm1 vmovsd 10960(%r13,%r12), %xmm0 vmovsd 11280(%r13,%r12), %xmm2 vmovhpd 11408(%r13,%r12), %xmm2, %xmm2 vmovsd 11024(%r13,%r12), %xmm3 vmovhpd 11152(%r13,%r12), %xmm3, %xmm3 vinsertf128 $1, %xmm2, %ymm3, %ymm5 vmovapd %ymm5, 32672(%rbx) vmovsd 11256(%r13,%r12), %xmm2 vmovhpd 11384(%r13,%r12), %xmm2, %xmm2 vmovsd 11000(%r13,%r12), %xmm3 vmovhpd 11128(%r13,%r12), %xmm3, %xmm3 vinsertf128 $1, %xmm2, %ymm3, %ymm4 vmovapd %ymm4, 32320(%rbx) vmovsd 11208(%r13,%r12), %xmm2 vmovhpd 11336(%r13,%r12), %xmm2, %xmm2 vmovhpd 11080(%r13,%r12), %xmm1, %xmm1 vinsertf128 $1, %xmm2, %ymm1, %ymm3 vmovapd %ymm3, 32448(%rbx) vmovsd 11288(%r13,%r12), %xmm1 vmovhpd 11416(%r13,%r12), %xmm1, %xmm1 vmovsd 11032(%r13,%r12), %xmm2 vmovhpd 11160(%r13,%r12), %xmm2, %xmm2 vinsertf128 $1, %xmm1, %ymm2, %ymm7 vmovapd %ymm7, 32928(%rbx) vmovsd 11240(%r13,%r12), %xmm1 vmovhpd 11368(%r13,%r12), %xmm1, %xmm1 vmovsd 10984(%r13,%r12), %xmm2 vmovhpd 11112(%r13,%r12), %xmm2, %xmm2 vinsertf128 $1, %xmm1, %ymm2, %ymm2 vmovapd %ymm2, 32128(%rbx) vmovsd 11216(%r13,%r12), %xmm1 vmovhpd 11344(%r13,%r12), %xmm1, %xmm1 vmovhpd 11088(%r13,%r12), %xmm0, %xmm0 vinsertf128 $1, %xmm1, %ymm0, %ymm1 vmovapd %ymm1, 32576(%rbx) vmulpd %ymm2, %ymm1, %ymm0 vmovapd %ymm2, %ymm9 vmovapd %ymm1, %ymm6 vmulpd %ymm7, %ymm0, %ymm0 vmovapd %ymm7, %ymm8 vmulpd %ymm4, %ymm3, %ymm1 vmovapd %ymm1, 32896(%rbx) vmovapd %ymm4, %ymm7 vmovapd %ymm3, %ymm4 vmulpd %ymm5, %ymm1, %ymm1 vaddpd %ymm0, %ymm1, %ymm0 vmovsd 11272(%r13,%r12), %xmm1 vmovhpd 11400(%r13,%r12), %xmm1, %xmm1 vmovsd 11016(%r13,%r12), %xmm2 vmovhpd 11144(%r13,%r12), %xmm2, %xmm2 vinsertf128 $1, %xmm1, %ymm2, %ymm3 vmovapd %ymm3, 32736(%rbx) vmovsd 11248(%r13,%r12), %xmm1 vmovhpd 11376(%r13,%r12), %xmm1, %xmm1 vmovsd 10992(%r13,%r12), %xmm2 vmovhpd 11120(%r13,%r12), %xmm2, %xmm2 vinsertf128 $1, %xmm1, %ymm2, %ymm10 vmovapd %ymm10, 32864(%rbx) vmovsd 11224(%r13,%r12), %xmm1 vmovhpd 11352(%r13,%r12), %xmm1, %xmm1 vmovsd 10968(%r13,%r12), %xmm2 vmovhpd 11096(%r13,%r12), %xmm2, %xmm2 vinsertf128 $1, %xmm1, %ymm2, %ymm2 vmovapd %ymm2, 32640(%rbx) vmulpd %ymm10, %ymm2, %ymm1 vmovapd %ymm2, %ymm11 vmovapd %ymm1, 32416(%rbx) vmulpd %ymm3, %ymm1, %ymm1 vaddpd %ymm1, %ymm0, %ymm0 vmulpd %ymm10, %ymm4, %ymm1 vmulpd %ymm1, %ymm8, %ymm1 vsubpd %ymm1, %ymm0, %ymm0 vmulpd %ymm6, %ymm7, %ymm1 vmovapd %ymm1, 32832(%rbx) vmulpd %ymm3, %ymm1, %ymm1 vsubpd %ymm1, %ymm0, %ymm0 vmovsd 11792(%r13,%r12), %xmm1 vmovhpd 11920(%r13,%r12), %xmm1, %xmm1 vmovsd 11536(%r13,%r12), %xmm2 vmovhpd 11664(%r13,%r12), %xmm2, %xmm2 vinsertf128 $1, %xmm1, %ymm2, %ymm10 vmovapd %ymm10, 31296(%rbx) vmovsd 11768(%r13,%r12), %xmm1 vmovhpd 11896(%r13,%r12), %xmm1, %xmm1 vmovsd 11512(%r13,%r12), %xmm2 vmovhpd 11640(%r13,%r12), %xmm2, %xmm2 vinsertf128 $1, %xmm1, %ymm2, %ymm4 vmovapd %ymm4, 32160(%rbx) vmovsd 11720(%r13,%r12), %xmm1 vmovhpd 11848(%r13,%r12), %xmm1, %xmm1 vmovsd 11464(%r13,%r12), %xmm2 vmovhpd 11592(%r13,%r12), %xmm2, %xmm2 vinsertf128 $1, %xmm1, %ymm2, %ymm3 vmovapd %ymm3, 32256(%rbx) vmovsd 11800(%r13,%r12), %xmm1 vmovhpd 11928(%r13,%r12), %xmm1, %xmm1 vmovsd 11544(%r13,%r12), %xmm2 vmovhpd 11672(%r13,%r12), %xmm2, %xmm2 vinsertf128 $1, %xmm1, %ymm2, %ymm7 vmovapd %ymm7, 31744(%rbx) vmovsd 11752(%r13,%r12), %xmm1 vmovhpd 11880(%r13,%r12), %xmm1, %xmm1 vmovsd 11496(%r13,%r12), %xmm2 vmovhpd 11624(%r13,%r12), %xmm2, %xmm2 vinsertf128 $1, %xmm1, %ymm2, %ymm14 vmovapd %ymm14, 32000(%rbx) vmovsd 11728(%r13,%r12), %xmm1 vmovhpd 11856(%r13,%r12), %xmm1, %xmm1 vmovsd 11472(%r13,%r12), %xmm2 vmovhpd 11600(%r13,%r12), %xmm2, %xmm2 vinsertf128 $1, %xmm1, %ymm2, %ymm8 vmovapd %ymm8, 31616(%rbx) vmulpd %ymm11, %ymm9, %ymm1 vmovapd %ymm1, 32288(%rbx) vmulpd %ymm1, %ymm5, %ymm1 vmovapd %ymm5, %ymm11 vsubpd %ymm1, %ymm0, %ymm2 vmulpd %ymm14, %ymm8, %ymm0 vmovapd %ymm14, %ymm15 vmovapd %ymm8, %ymm9 vmulpd %ymm7, %ymm0, %ymm0 vmovapd %ymm7, %ymm8 vmulpd %ymm4, %ymm3, %ymm1 vmovapd %ymm1, 32064(%rbx) vmovapd %ymm4, %ymm7 vmovapd %ymm3, %ymm5 vmulpd %ymm10, %ymm1, %ymm1 vmovapd %ymm10, %ymm14 vaddpd %ymm0, %ymm1, %ymm3 vmovsd 11784(%r13,%r12), %xmm0 vmovhpd 11912(%r13,%r12), %xmm0, %xmm0 vmovsd 11528(%r13,%r12), %xmm1 vmovhpd 11656(%r13,%r12), %xmm1, %xmm1 vinsertf128 $1, %xmm0, %ymm1, %ymm4 vmovapd %ymm4, 32352(%rbx) vmovsd 11760(%r13,%r12), %xmm0 vmovhpd 11888(%r13,%r12), %xmm0, %xmm0 vmovsd 11504(%r13,%r12), %xmm1 vmovhpd 11632(%r13,%r12), %xmm1, %xmm1 vinsertf128 $1, %xmm0, %ymm1, %ymm12 vmovapd %ymm12, 31904(%rbx) vmovsd 11736(%r13,%r12), %xmm0 vmovhpd 11864(%r13,%r12), %xmm0, %xmm0 vmovsd 11480(%r13,%r12), %xmm1 vmovhpd 11608(%r13,%r12), %xmm1, %xmm1 vinsertf128 $1, %xmm0, %ymm1, %ymm1 vmovapd %ymm1, 31872(%rbx) vmulpd %ymm12, %ymm1, %ymm0 vmovapd %ymm1, %ymm10 vmovapd %ymm0, 32224(%rbx) vmulpd %ymm4, %ymm0, %ymm0 vaddpd %ymm0, %ymm3, %ymm1 vmovapd .LCPI1_22(%rip), %ymm0 vmovapd %ymm0, %ymm3 vmulpd %ymm3, %ymm2, %ymm0 vmovlpd %xmm0, 9944(%r13,%r12) vmovhpd %xmm0, 10072(%r13,%r12) vmulpd %ymm12, %ymm5, %ymm2 vmulpd %ymm2, %ymm8, %ymm2 vmovapd %ymm8, %ymm5 vsubpd %ymm2, %ymm1, %ymm1 vmulpd %ymm9, %ymm7, %ymm2 vmovapd %ymm2, 32800(%rbx) vmovapd %ymm9, %ymm12 vmulpd %ymm4, %ymm2, %ymm2 vsubpd %ymm2, %ymm1, %ymm1 vextractf128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 10200(%r13,%r12) vmovhpd %xmm0, 10328(%r13,%r12) vmulpd %ymm10, %ymm15, %ymm0 vmovapd %ymm0, 32192(%rbx) vmulpd %ymm0, %ymm14, %ymm0 vmovapd %ymm14, %ymm13 vsubpd %ymm0, %ymm1, %ymm0 vmulpd %ymm3, %ymm0, %ymm0 vmovlpd %xmm0, 10456(%r13,%r12) vmovhpd %xmm0, 10584(%r13,%r12) vextractf128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 10712(%r13,%r12) vmovhpd %xmm0, 10840(%r13,%r12) movq %rax, 9952(%r13,%r12) movq %rax, 10080(%r13,%r12) movq %rax, 10208(%r13,%r12) movq %rax, 10336(%r13,%r12) movq %rax, 10464(%r13,%r12) movq %rax, 10592(%r13,%r12) movq %rax, 10720(%r13,%r12) movq %rax, 10848(%r13,%r12) vmovsd 10944(%r13,%r12), %xmm1 vmovsd 11008(%r13,%r12), %xmm3 vmovsd 11320(%r13,%r12), %xmm0 vmovhpd 11448(%r13,%r12), %xmm0, %xmm0 vmovsd 11064(%r13,%r12), %xmm2 vmovhpd 11192(%r13,%r12), %xmm2, %xmm2 vinsertf128 $1, %xmm0, %ymm2, %ymm2 vmovapd %ymm2, 32512(%rbx) vmovsd 11200(%r13,%r12), %xmm0 vmovhpd 11328(%r13,%r12), %xmm0, %xmm0 vmovhpd 11072(%r13,%r12), %xmm1, %xmm1 vinsertf128 $1, %xmm0, %ymm1, %ymm7 vmovapd %ymm7, 32704(%rbx) vmovsd 11296(%r13,%r12), %xmm0 vmovhpd 11424(%r13,%r12), %xmm0, %xmm0 vmovsd 11040(%r13,%r12), %xmm1 vmovhpd 11168(%r13,%r12), %xmm1, %xmm1 vinsertf128 $1, %xmm0, %ymm1, %ymm15 vmulpd 32928(%rbx), %ymm6, %ymm0 vmulpd %ymm15, %ymm0, %ymm0 vmulpd %ymm11, %ymm7, %ymm1 vmulpd %ymm2, %ymm1, %ymm1 vaddpd %ymm0, %ymm1, %ymm4 vmovsd 11832(%r13,%r12), %xmm0 vmovhpd 11960(%r13,%r12), %xmm0, %xmm0 vmovsd 11576(%r13,%r12), %xmm1 vmovhpd 11704(%r13,%r12), %xmm1, %xmm1 vinsertf128 $1, %xmm0, %ymm1, %ymm9 vmovapd %ymm9, 31232(%rbx) vmovsd 11712(%r13,%r12), %xmm0 vmovhpd 11840(%r13,%r12), %xmm0, %xmm0 vmovsd 11456(%r13,%r12), %xmm1 vmovhpd 11584(%r13,%r12), %xmm1, %xmm1 vinsertf128 $1, %xmm0, %ymm1, %ymm10 vmovapd %ymm10, 32032(%rbx) vmovsd 11808(%r13,%r12), %xmm0 vmovhpd 11936(%r13,%r12), %xmm0, %xmm0 vmovsd 11552(%r13,%r12), %xmm1 vmovhpd 11680(%r13,%r12), %xmm1, %xmm1 vinsertf128 $1, %xmm0, %ymm1, %ymm8 vmovapd %ymm8, 32480(%rbx) vmovsd 11312(%r13,%r12), %xmm0 vmovhpd 11440(%r13,%r12), %xmm0, %xmm0 vmovsd 11056(%r13,%r12), %xmm1 vmovhpd 11184(%r13,%r12), %xmm1, %xmm1 vinsertf128 $1, %xmm0, %ymm1, %ymm6 vmovapd %ymm6, 31328(%rbx) vmovsd 11264(%r13,%r12), %xmm0 vmovhpd 11392(%r13,%r12), %xmm0, %xmm0 vmovhpd 11136(%r13,%r12), %xmm3, %xmm1 vinsertf128 $1, %xmm0, %ymm1, %ymm1 vmovapd %ymm1, 31840(%rbx) vmovapd 32640(%rbx), %ymm11 vmulpd %ymm1, %ymm11, %ymm0 vmovapd %ymm1, %ymm2 vmulpd %ymm6, %ymm0, %ymm0 vmovapd %ymm6, %ymm14 vaddpd %ymm0, %ymm4, %ymm3 vmulpd %ymm5, %ymm12, %ymm0 vmulpd %ymm8, %ymm0, %ymm0 vmulpd %ymm13, %ymm10, %ymm1 vmulpd %ymm9, %ymm1, %ymm1 vaddpd %ymm0, %ymm1, %ymm1 vmovsd 11824(%r13,%r12), %xmm0 vmovhpd 11952(%r13,%r12), %xmm0, %xmm0 vmovsd 11568(%r13,%r12), %xmm4 vmovhpd 11696(%r13,%r12), %xmm4, %xmm4 vinsertf128 $1, %xmm0, %ymm4, %ymm9 vmovapd %ymm9, 31776(%rbx) vmovsd 11776(%r13,%r12), %xmm0 vmovhpd 11904(%r13,%r12), %xmm0, %xmm0 vmovsd 11520(%r13,%r12), %xmm6 vmovhpd 11648(%r13,%r12), %xmm6, %xmm6 vinsertf128 $1, %xmm0, %ymm6, %ymm13 vmovapd %ymm13, 32544(%rbx) vmovapd 31872(%rbx), %ymm4 vmulpd %ymm13, %ymm4, %ymm0 vmulpd %ymm9, %ymm0, %ymm0 vaddpd %ymm0, %ymm1, %ymm0 vmovapd %ymm10, %ymm6 vmovapd %ymm5, %ymm8 vmulpd %ymm8, %ymm6, %ymm1 vmulpd %ymm9, %ymm1, %ymm1 vsubpd %ymm1, %ymm0, %ymm1 vmovapd 32928(%rbx), %ymm5 vmulpd %ymm5, %ymm7, %ymm0 vmulpd %ymm14, %ymm0, %ymm0 vsubpd %ymm0, %ymm3, %ymm0 vmovapd 32576(%rbx), %ymm3 vmulpd %ymm2, %ymm3, %ymm3 vmovapd 32512(%rbx), %ymm9 vmulpd %ymm3, %ymm9, %ymm3 vsubpd %ymm3, %ymm0, %ymm0 vmovapd 32672(%rbx), %ymm3 vmulpd %ymm11, %ymm3, %ymm3 vmulpd %ymm3, %ymm15, %ymm3 vsubpd %ymm3, %ymm0, %ymm10 vmulpd %ymm13, %ymm12, %ymm0 vmovapd 31232(%rbx), %ymm11 vmulpd %ymm0, %ymm11, %ymm0 vsubpd %ymm0, %ymm1, %ymm1 vmulpd 31904(%rbx), %ymm6, %ymm3 vmovapd %ymm3, 31808(%rbx) vmovapd 32800(%rbx), %ymm0 vmulpd %ymm13, %ymm0, %ymm0 vmulpd %ymm8, %ymm3, %ymm3 vaddpd %ymm0, %ymm3, %ymm0 vmovapd %ymm0, 31264(%rbx) vmulpd 32864(%rbx), %ymm7, %ymm3 vmovapd %ymm3, 31648(%rbx) vmovapd 32832(%rbx), %ymm0 vmulpd %ymm2, %ymm0, %ymm0 vmulpd %ymm5, %ymm3, %ymm3 vaddpd %ymm0, %ymm3, %ymm12 vmovapd 32896(%rbx), %ymm0 vmulpd %ymm15, %ymm0, %ymm0 vmulpd 32128(%rbx), %ymm7, %ymm3 vmulpd %ymm9, %ymm3, %ymm3 vaddpd %ymm0, %ymm3, %ymm0 vmovapd %ymm0, 31904(%rbx) vmovapd 32064(%rbx), %ymm0 vmovapd 32480(%rbx), %ymm2 vmulpd %ymm2, %ymm0, %ymm0 vmulpd 32000(%rbx), %ymm6, %ymm3 vmovapd %ymm6, %ymm5 vmulpd %ymm11, %ymm3, %ymm3 vmovapd %ymm11, %ymm8 vaddpd %ymm0, %ymm3, %ymm0 vmovapd %ymm0, 32128(%rbx) vmovapd .LCPI1_22(%rip), %ymm3 vmulpd %ymm3, %ymm10, %ymm0 vmovlpd %xmm0, 9960(%r13,%r12) vmovhpd %xmm0, 10088(%r13,%r12) vextractf128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 10216(%r13,%r12) vmovhpd %xmm0, 10344(%r13,%r12) vmovapd 31296(%rbx), %ymm14 vmulpd %ymm4, %ymm14, %ymm0 vmulpd %ymm0, %ymm2, %ymm0 vsubpd %ymm0, %ymm1, %ymm0 vmulpd %ymm3, %ymm0, %ymm0 vmovlpd %xmm0, 10472(%r13,%r12) vmovhpd %xmm0, 10600(%r13,%r12) vextractf128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 10728(%r13,%r12) vmovhpd %xmm0, 10856(%r13,%r12) vmovsd 10976(%r13,%r12), %xmm0 vmovsd 11232(%r13,%r12), %xmm1 vmovhpd 11360(%r13,%r12), %xmm1, %xmm1 vmovhpd 11104(%r13,%r12), %xmm0, %xmm0 vinsertf128 $1, %xmm1, %ymm0, %ymm2 vmovapd %ymm2, 32896(%rbx) vmovsd 11744(%r13,%r12), %xmm0 vmovhpd 11872(%r13,%r12), %xmm0, %xmm0 vmovsd 11488(%r13,%r12), %xmm1 vmovhpd 11616(%r13,%r12), %xmm1, %xmm1 vinsertf128 $1, %xmm0, %ymm1, %ymm6 vmovapd %ymm6, 32864(%rbx) vmulpd 32320(%rbx), %ymm7, %ymm3 vmovapd %ymm3, 32320(%rbx) vmovapd 32576(%rbx), %ymm0 vmulpd %ymm2, %ymm0, %ymm1 vmovapd 31328(%rbx), %ymm10 vmulpd %ymm10, %ymm3, %ymm0 vmovapd %ymm3, %ymm13 vmulpd %ymm9, %ymm1, %ymm3 vaddpd %ymm3, %ymm0, %ymm7 vmulpd 32640(%rbx), %ymm2, %ymm3 vmovapd 32672(%rbx), %ymm11 vmulpd %ymm11, %ymm3, %ymm0 vmovapd %ymm3, %ymm2 vaddpd %ymm0, %ymm12, %ymm0 vmulpd %ymm4, %ymm6, %ymm3 vmovapd %ymm3, 32576(%rbx) vmulpd %ymm14, %ymm3, %ymm3 vmovapd 31264(%rbx), %ymm4 vaddpd %ymm3, %ymm4, %ymm3 vmulpd 32160(%rbx), %ymm5, %ymm4 vmovapd %ymm4, 32640(%rbx) vmovapd 31616(%rbx), %ymm5 vmulpd %ymm6, %ymm5, %ymm5 vmovapd 31776(%rbx), %ymm12 vmulpd %ymm12, %ymm4, %ymm6 vmovapd %ymm8, %ymm9 vmulpd %ymm9, %ymm5, %ymm8 vaddpd %ymm8, %ymm6, %ymm6 vmulpd %ymm14, %ymm4, %ymm8 vsubpd %ymm8, %ymm3, %ymm3 vmulpd %ymm11, %ymm13, %ymm8 vsubpd %ymm8, %ymm0, %ymm0 vmovapd 32832(%rbx), %ymm4 vmulpd %ymm15, %ymm4, %ymm8 vmulpd 32288(%rbx), %ymm15, %ymm4 vmovapd %ymm4, 32832(%rbx) vmovapd 32416(%rbx), %ymm11 vmulpd %ymm15, %ymm11, %ymm15 vaddpd %ymm15, %ymm7, %ymm7 vmovapd 32512(%rbx), %ymm13 vmulpd 31648(%rbx), %ymm13, %ymm14 vsubpd %ymm14, %ymm7, %ymm7 vsubpd %ymm8, %ymm7, %ymm8 vmovapd 31744(%rbx), %ymm4 vmulpd %ymm5, %ymm4, %ymm7 vmovapd 32928(%rbx), %ymm4 vmulpd %ymm1, %ymm4, %ymm5 vmulpd %ymm2, %ymm10, %ymm1 vmovapd %ymm2, %ymm14 vsubpd %ymm1, %ymm8, %ymm1 vsubpd %ymm5, %ymm0, %ymm5 vsubpd %ymm7, %ymm3, %ymm0 vmovapd 32800(%rbx), %ymm3 vmovapd 32480(%rbx), %ymm2 vmulpd %ymm2, %ymm3, %ymm3 vmulpd 32192(%rbx), %ymm2, %ymm4 vmovapd %ymm4, 32928(%rbx) vmovapd 32224(%rbx), %ymm8 vmulpd %ymm2, %ymm8, %ymm2 vaddpd %ymm2, %ymm6, %ymm2 vmovapd %ymm9, %ymm15 vmulpd 31808(%rbx), %ymm15, %ymm6 vsubpd %ymm6, %ymm2, %ymm2 vsubpd %ymm3, %ymm2, %ymm2 vmovapd 32576(%rbx), %ymm10 vmulpd %ymm10, %ymm12, %ymm3 vsubpd %ymm3, %ymm2, %ymm2 vmovapd 32544(%rbx), %ymm3 vmulpd %ymm8, %ymm3, %ymm3 vsubpd %ymm3, %ymm0, %ymm4 vmovapd 31840(%rbx), %ymm7 vmulpd %ymm11, %ymm7, %ymm0 vsubpd %ymm0, %ymm5, %ymm0 vmovapd 32896(%rbx), %ymm8 vmovapd 32448(%rbx), %ymm3 vmulpd %ymm8, %ymm3, %ymm3 vmulpd %ymm3, %ymm13, %ymm13 vmovapd 32256(%rbx), %ymm3 vmulpd 32864(%rbx), %ymm3, %ymm3 vmulpd %ymm3, %ymm15, %ymm3 vmovapd .LCPI1_22(%rip), %ymm5 vmulpd %ymm5, %ymm1, %ymm6 vmovlpd %xmm6, 9968(%r13,%r12) vmovhpd %xmm6, 10096(%r13,%r12) vextractf128 $1, %ymm6, %xmm1 vmovlpd %xmm1, 10224(%r13,%r12) vmovhpd %xmm1, 10352(%r13,%r12) vmulpd %ymm5, %ymm0, %ymm11 vmovapd %ymm11, 32192(%rbx) vmulpd %ymm5, %ymm4, %ymm0 vmovapd %ymm0, 32256(%rbx) vmulpd %ymm5, %ymm2, %ymm12 vmovapd %ymm5, %ymm15 vmovlpd %xmm12, 10480(%r13,%r12) vextractf128 $1, %ymm0, %xmm2 vmovapd %xmm2, 32224(%rbx) vextractf128 $1, %ymm11, %xmm4 vmovapd %xmm4, 32288(%rbx) vmovhpd %xmm12, 10608(%r13,%r12) vextractf128 $1, %ymm12, %xmm5 vmovlpd %xmm5, 10736(%r13,%r12) vmovhpd %xmm5, 10864(%r13,%r12) vmovlpd %xmm11, 9976(%r13,%r12) vmovhpd %xmm11, 10104(%r13,%r12) vmovlpd %xmm4, 10232(%r13,%r12) vmovhpd %xmm4, 10360(%r13,%r12) vmovlpd %xmm0, 10488(%r13,%r12) vmovhpd %xmm0, 10616(%r13,%r12) vmovlpd %xmm2, 10744(%r13,%r12) vmovhpd %xmm2, 10872(%r13,%r12) movq %rax, 9984(%r13,%r12) movq %rax, 10112(%r13,%r12) movq %rax, 10240(%r13,%r12) movq %rax, 10368(%r13,%r12) movq %rax, 10496(%r13,%r12) movq %rax, 10624(%r13,%r12) movq %rax, 10752(%r13,%r12) movq %rax, 10880(%r13,%r12) vmovlpd %xmm6, 9992(%r13,%r12) vmovhpd %xmm6, 10120(%r13,%r12) vmovlpd %xmm1, 10248(%r13,%r12) vmovhpd %xmm1, 10376(%r13,%r12) vmovlpd %xmm12, 10504(%r13,%r12) vmovhpd %xmm12, 10632(%r13,%r12) vmovlpd %xmm5, 10760(%r13,%r12) vmovhpd %xmm5, 10888(%r13,%r12) vmovsd 11048(%r13,%r12), %xmm0 vmovsd 11304(%r13,%r12), %xmm1 vmovhpd 11432(%r13,%r12), %xmm1, %xmm1 vmovhpd 11176(%r13,%r12), %xmm0, %xmm0 vinsertf128 $1, %xmm1, %ymm0, %ymm1 vmovapd %ymm1, 32512(%rbx) vmulpd %ymm1, %ymm14, %ymm0 vmovapd 31904(%rbx), %ymm2 vaddpd %ymm0, %ymm2, %ymm0 vmovapd 32320(%rbx), %ymm2 vmulpd %ymm1, %ymm2, %ymm1 vsubpd %ymm1, %ymm0, %ymm0 vsubpd %ymm13, %ymm0, %ymm0 vmovsd 11816(%r13,%r12), %xmm1 vmovhpd 11944(%r13,%r12), %xmm1, %xmm1 vmovsd 11560(%r13,%r12), %xmm2 vmovhpd 11688(%r13,%r12), %xmm2, %xmm2 vinsertf128 $1, %xmm1, %ymm2, %ymm2 vmovapd %ymm2, 32064(%rbx) vmulpd %ymm2, %ymm10, %ymm1 vmovapd 32128(%rbx), %ymm4 vaddpd %ymm1, %ymm4, %ymm1 vsubpd 32832(%rbx), %ymm0, %ymm0 vmulpd %ymm15, %ymm0, %ymm0 vmovlpd %xmm0, 10000(%r13,%r12) vmovhpd %xmm0, 10128(%r13,%r12) vmovapd 32640(%rbx), %ymm4 vmulpd %ymm2, %ymm4, %ymm2 vsubpd %ymm2, %ymm1, %ymm1 vsubpd %ymm3, %ymm1, %ymm1 vextractf128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 10256(%r13,%r12) vmovhpd %xmm0, 10384(%r13,%r12) vsubpd 32928(%rbx), %ymm1, %ymm0 vmulpd %ymm15, %ymm0, %ymm0 vmovlpd %xmm0, 10512(%r13,%r12) vmovhpd %xmm0, 10640(%r13,%r12) vextractf128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 10768(%r13,%r12) vmovhpd %xmm0, 10896(%r13,%r12) vmovsd 10952(%r13,%r12), %xmm0 vmovsd 10968(%r13,%r12), %xmm1 vmovsd 11288(%r13,%r12), %xmm2 vmovhpd 11416(%r13,%r12), %xmm2, %xmm2 vmovsd 11032(%r13,%r12), %xmm3 vmovhpd 11160(%r13,%r12), %xmm3, %xmm3 vinsertf128 $1, %xmm2, %ymm3, %ymm4 vmovapd %ymm4, 32800(%rbx) vmovsd 11208(%r13,%r12), %xmm2 vmovhpd 11336(%r13,%r12), %xmm2, %xmm2 vmovhpd 11080(%r13,%r12), %xmm0, %xmm0 vinsertf128 $1, %xmm2, %ymm0, %ymm3 vmovapd %ymm3, 32480(%rbx) vmovsd 11256(%r13,%r12), %xmm0 vmovhpd 11384(%r13,%r12), %xmm0, %xmm0 vmovsd 11000(%r13,%r12), %xmm2 vmovhpd 11128(%r13,%r12), %xmm2, %xmm2 vinsertf128 $1, %xmm0, %ymm2, %ymm2 vmovapd %ymm2, 32928(%rbx) vmovapd 32704(%rbx), %ymm0 vmulpd %ymm2, %ymm0, %ymm0 vmulpd 32736(%rbx), %ymm0, %ymm0 vmulpd %ymm8, %ymm3, %ymm2 vmovapd %ymm2, 32576(%rbx) vmulpd %ymm4, %ymm2, %ymm2 vaddpd %ymm2, %ymm0, %ymm3 vmovsd 11800(%r13,%r12), %xmm0 vmovhpd 11928(%r13,%r12), %xmm0, %xmm0 vmovsd 11544(%r13,%r12), %xmm2 vmovhpd 11672(%r13,%r12), %xmm2, %xmm2 vinsertf128 $1, %xmm0, %ymm2, %ymm15 vmovapd %ymm15, 32832(%rbx) vmovsd 11720(%r13,%r12), %xmm0 vmovhpd 11848(%r13,%r12), %xmm0, %xmm0 vmovsd 11464(%r13,%r12), %xmm2 vmovhpd 11592(%r13,%r12), %xmm2, %xmm2 vinsertf128 $1, %xmm0, %ymm2, %ymm5 vmovapd %ymm5, 32448(%rbx) vmovsd 11768(%r13,%r12), %xmm0 vmovhpd 11896(%r13,%r12), %xmm0, %xmm0 vmovsd 11512(%r13,%r12), %xmm2 vmovhpd 11640(%r13,%r12), %xmm2, %xmm2 vinsertf128 $1, %xmm0, %ymm2, %ymm8 vmovapd %ymm8, 32416(%rbx) vmovsd 11240(%r13,%r12), %xmm0 vmovhpd 11368(%r13,%r12), %xmm0, %xmm0 vmovsd 10984(%r13,%r12), %xmm2 vmovhpd 11112(%r13,%r12), %xmm2, %xmm2 vinsertf128 $1, %xmm0, %ymm2, %ymm2 vmovapd %ymm2, 32640(%rbx) vmovsd 11224(%r13,%r12), %xmm0 vmovhpd 11352(%r13,%r12), %xmm0, %xmm0 vmovhpd 11096(%r13,%r12), %xmm1, %xmm1 vinsertf128 $1, %xmm0, %ymm1, %ymm1 vmovapd %ymm1, 32160(%rbx) vmulpd %ymm2, %ymm1, %ymm0 vmovapd %ymm2, %ymm12 vmovapd %ymm1, %ymm6 vmovapd %ymm7, %ymm4 vmulpd %ymm4, %ymm0, %ymm0 vaddpd %ymm0, %ymm3, %ymm0 vmovapd 32032(%rbx), %ymm11 vmulpd %ymm8, %ymm11, %ymm1 vmovapd %ymm8, %ymm10 vmovapd 32352(%rbx), %ymm14 vmulpd %ymm14, %ymm1, %ymm1 vmovapd 32864(%rbx), %ymm13 vmulpd %ymm13, %ymm5, %ymm2 vmovapd %ymm2, 32672(%rbx) vmulpd %ymm15, %ymm2, %ymm2 vaddpd %ymm2, %ymm1, %ymm3 vmovsd 11752(%r13,%r12), %xmm1 vmovhpd 11880(%r13,%r12), %xmm1, %xmm1 vmovsd 11496(%r13,%r12), %xmm2 vmovhpd 11624(%r13,%r12), %xmm2, %xmm2 vinsertf128 $1, %xmm1, %ymm2, %ymm8 vmovapd %ymm8, 32320(%rbx) vmovsd 11736(%r13,%r12), %xmm1 vmovhpd 11864(%r13,%r12), %xmm1, %xmm1 vmovsd 11480(%r13,%r12), %xmm2 vmovhpd 11608(%r13,%r12), %xmm2, %xmm2 vinsertf128 $1, %xmm1, %ymm2, %ymm2 vmovapd %ymm2, 32128(%rbx) vmulpd %ymm8, %ymm2, %ymm1 vmovapd %ymm2, %ymm9 vmovapd 32544(%rbx), %ymm7 vmulpd %ymm7, %ymm1, %ymm1 vaddpd %ymm1, %ymm3, %ymm1 vmovapd 32704(%rbx), %ymm2 vmulpd %ymm12, %ymm2, %ymm2 vmovapd 32800(%rbx), %ymm3 vmulpd %ymm2, %ymm3, %ymm2 vsubpd %ymm2, %ymm0, %ymm0 vmovapd 32928(%rbx), %ymm2 vmulpd 32480(%rbx), %ymm2, %ymm2 vmulpd %ymm4, %ymm2, %ymm2 vsubpd %ymm2, %ymm0, %ymm0 vmovapd 32896(%rbx), %ymm2 vmulpd %ymm6, %ymm2, %ymm2 vmovapd 32736(%rbx), %ymm3 vmulpd %ymm2, %ymm3, %ymm2 vsubpd %ymm2, %ymm0, %ymm0 vmulpd %ymm8, %ymm11, %ymm2 vmulpd %ymm2, %ymm15, %ymm2 vsubpd %ymm2, %ymm1, %ymm1 vmulpd %ymm5, %ymm10, %ymm2 vmulpd %ymm7, %ymm2, %ymm2 vsubpd %ymm2, %ymm1, %ymm1 vmulpd %ymm9, %ymm13, %ymm2 vmulpd %ymm2, %ymm14, %ymm2 vsubpd %ymm2, %ymm1, %ymm1 vmovapd .LCPI1_22(%rip), %ymm2 vmulpd %ymm2, %ymm0, %ymm3 vmovlpd %xmm3, 10008(%r13,%r12) vmovhpd %xmm3, 10136(%r13,%r12) vextractf128 $1, %ymm3, %xmm10 vmovlpd %xmm10, 10264(%r13,%r12) vmovhpd %xmm10, 10392(%r13,%r12) vmulpd %ymm2, %ymm1, %ymm8 vmovlpd %xmm8, 10520(%r13,%r12) vmovhpd %xmm8, 10648(%r13,%r12) vextractf128 $1, %ymm8, %xmm0 vmovlpd %xmm0, 10776(%r13,%r12) vmovhpd %xmm0, 10904(%r13,%r12) vmovsd 10840(%r13,%r12), %xmm12 vmovsd 10712(%r13,%r12), %xmm13 vmovsd 10584(%r13,%r12), %xmm2 vmovsd 10456(%r13,%r12), %xmm4 vmovsd 10328(%r13,%r12), %xmm7 vmovsd 10200(%r13,%r12), %xmm5 vmovsd 9944(%r13,%r12), %xmm6 vmovsd 10072(%r13,%r12), %xmm1 vmovsd %xmm6, 10016(%r13,%r12) vmovsd %xmm1, 10144(%r13,%r12) vmovsd %xmm5, 10272(%r13,%r12) vmovsd %xmm7, 10400(%r13,%r12) vunpcklpd %xmm7, %xmm5, %xmm7 vunpcklpd %xmm1, %xmm6, %xmm11 vmovsd %xmm4, 10528(%r13,%r12) vmovsd %xmm2, 10656(%r13,%r12) vmovsd %xmm13, 10784(%r13,%r12) vmovsd %xmm12, 10912(%r13,%r12) vunpcklpd %xmm12, %xmm13, %xmm1 vunpcklpd %xmm2, %xmm4, %xmm2 vmovapd 32192(%rbx), %ymm4 vmovlpd %xmm4, 10024(%r13,%r12) vmovhpd %xmm4, 10152(%r13,%r12) vinsertf128 $1, %xmm1, %ymm2, %ymm1 vmovapd %ymm1, 32704(%rbx) vinsertf128 $1, %xmm7, %ymm11, %ymm1 vmovapd %ymm1, 32544(%rbx) vmovapd 32288(%rbx), %xmm1 vmovlpd %xmm1, 10280(%r13,%r12) vmovhpd %xmm1, 10408(%r13,%r12) vmovapd 32256(%rbx), %ymm1 vmovlpd %xmm1, 10536(%r13,%r12) vmovhpd %xmm1, 10664(%r13,%r12) vmovapd 32224(%rbx), %xmm1 vmovlpd %xmm1, 10792(%r13,%r12) vmovhpd %xmm1, 10920(%r13,%r12) vmovlpd %xmm3, 10032(%r13,%r12) vmovhpd %xmm3, 10160(%r13,%r12) vmovlpd %xmm10, 10288(%r13,%r12) vmovhpd %xmm10, 10416(%r13,%r12) vmovlpd %xmm8, 10544(%r13,%r12) vmovhpd %xmm8, 10672(%r13,%r12) vmovlpd %xmm0, 10800(%r13,%r12) vmovhpd %xmm0, 10928(%r13,%r12) vmovsd 10944(%r13,%r12), %xmm0 vmovsd 10960(%r13,%r12), %xmm2 vmovsd 11280(%r13,%r12), %xmm1 vmovhpd 11408(%r13,%r12), %xmm1, %xmm1 vmovsd 11024(%r13,%r12), %xmm3 vmovhpd 11152(%r13,%r12), %xmm3, %xmm3 vinsertf128 $1, %xmm1, %ymm3, %ymm6 vmovapd %ymm6, 31168(%rbx) vmovsd 11200(%r13,%r12), %xmm1 vmovhpd 11328(%r13,%r12), %xmm1, %xmm1 vmovhpd 11072(%r13,%r12), %xmm0, %xmm0 vinsertf128 $1, %xmm1, %ymm0, %ymm3 vmovapd %ymm3, 31904(%rbx) vmovsd 11264(%r13,%r12), %xmm0 vmovhpd 11392(%r13,%r12), %xmm0, %xmm0 vmovsd 11008(%r13,%r12), %xmm1 vmovhpd 11136(%r13,%r12), %xmm1, %xmm1 vinsertf128 $1, %xmm0, %ymm1, %ymm4 vmovapd %ymm4, 32352(%rbx) vmovsd 11248(%r13,%r12), %xmm0 vmovhpd 11376(%r13,%r12), %xmm0, %xmm0 vmovsd 10992(%r13,%r12), %xmm1 vmovhpd 11120(%r13,%r12), %xmm1, %xmm1 vinsertf128 $1, %xmm0, %ymm1, %ymm1 vmovapd %ymm1, 31808(%rbx) vmovapd 32480(%rbx), %ymm0 vmulpd %ymm1, %ymm0, %ymm0 vmovapd %ymm1, %ymm5 vmulpd %ymm4, %ymm0, %ymm0 vmulpd 32640(%rbx), %ymm3, %ymm1 vmovapd %ymm3, %ymm4 vmulpd %ymm6, %ymm1, %ymm1 vmovapd %ymm6, %ymm15 vaddpd %ymm0, %ymm1, %ymm0 vmovsd 11272(%r13,%r12), %xmm1 vmovhpd 11400(%r13,%r12), %xmm1, %xmm1 vmovsd 11016(%r13,%r12), %xmm3 vmovhpd 11144(%r13,%r12), %xmm3, %xmm3 vinsertf128 $1, %xmm1, %ymm3, %ymm3 vmovapd %ymm3, 32256(%rbx) vmovsd 11216(%r13,%r12), %xmm1 vmovhpd 11344(%r13,%r12), %xmm1, %xmm1 vmovhpd 11088(%r13,%r12), %xmm2, %xmm2 vinsertf128 $1, %xmm1, %ymm2, %ymm1 vmovapd %ymm1, 32192(%rbx) vmulpd 32896(%rbx), %ymm1, %ymm1 vmulpd %ymm3, %ymm1, %ymm1 vaddpd %ymm1, %ymm0, %ymm0 vmovsd 11760(%r13,%r12), %xmm1 vmovhpd 11888(%r13,%r12), %xmm1, %xmm1 vmovsd 11504(%r13,%r12), %xmm2 vmovhpd 11632(%r13,%r12), %xmm2, %xmm2 vinsertf128 $1, %xmm1, %ymm2, %ymm13 vmovapd %ymm13, 32224(%rbx) vmulpd %ymm5, %ymm4, %ymm1 vmovapd %ymm5, %ymm6 vmulpd %ymm3, %ymm1, %ymm1 vsubpd %ymm1, %ymm0, %ymm0 vmovsd 11792(%r13,%r12), %xmm1 vmovhpd 11920(%r13,%r12), %xmm1, %xmm1 vmovsd 11536(%r13,%r12), %xmm2 vmovhpd 11664(%r13,%r12), %xmm2, %xmm2 vinsertf128 $1, %xmm1, %ymm2, %ymm1 vmovapd %ymm1, 32736(%rbx) vmovapd %ymm1, %ymm4 vmovsd 11712(%r13,%r12), %xmm1 vmovhpd 11840(%r13,%r12), %xmm1, %xmm1 vmovsd 11456(%r13,%r12), %xmm2 vmovhpd 11584(%r13,%r12), %xmm2, %xmm2 vinsertf128 $1, %xmm1, %ymm2, %ymm5 vmovapd %ymm5, 31872(%rbx) vmovsd 11776(%r13,%r12), %xmm1 vmovhpd 11904(%r13,%r12), %xmm1, %xmm1 vmovsd 11520(%r13,%r12), %xmm2 vmovhpd 11648(%r13,%r12), %xmm2, %xmm2 vinsertf128 $1, %xmm1, %ymm2, %ymm12 vmovapd %ymm12, 32288(%rbx) vmovapd 31040(%rbx), %ymm2 vmulpd 32416(%rbx), %ymm2, %ymm1 vmovapd 31968(%rbx), %ymm9 vmulpd %ymm1, %ymm9, %ymm1 vmulpd %ymm13, %ymm2, %ymm2 vmovapd 30368(%rbx), %ymm11 vmulpd %ymm2, %ymm11, %ymm2 vaddpd %ymm1, %ymm2, %ymm1 vmovapd %ymm1, 32896(%rbx) vmovapd 31712(%rbx), %ymm2 vmulpd 32928(%rbx), %ymm2, %ymm1 vmovapd 31936(%rbx), %ymm8 vmulpd %ymm1, %ymm8, %ymm1 vmulpd %ymm6, %ymm2, %ymm3 vmovapd 31136(%rbx), %ymm10 vmulpd %ymm3, %ymm10, %ymm3 vaddpd %ymm1, %ymm3, %ymm1 vmovapd %ymm1, 32000(%rbx) vmulpd 32576(%rbx), %ymm15, %ymm1 vmovapd %ymm15, %ymm2 vsubpd %ymm1, %ymm0, %ymm6 vmovapd 32448(%rbx), %ymm0 vmulpd %ymm13, %ymm0, %ymm0 vmovapd %ymm13, %ymm3 vmulpd %ymm12, %ymm0, %ymm0 vmovapd 32320(%rbx), %ymm12 vmulpd %ymm12, %ymm5, %ymm1 vmovapd %ymm5, %ymm13 vmulpd %ymm4, %ymm1, %ymm1 vaddpd %ymm0, %ymm1, %ymm4 vmovsd 11784(%r13,%r12), %xmm0 vmovhpd 11912(%r13,%r12), %xmm0, %xmm0 vmovsd 11528(%r13,%r12), %xmm1 vmovhpd 11656(%r13,%r12), %xmm1, %xmm1 vinsertf128 $1, %xmm0, %ymm1, %ymm7 vmovapd %ymm7, 32032(%rbx) vmovsd 11728(%r13,%r12), %xmm1 vmovhpd 11856(%r13,%r12), %xmm1, %xmm1 vmovsd 11472(%r13,%r12), %xmm5 vmovhpd 11600(%r13,%r12), %xmm5, %xmm5 vinsertf128 $1, %xmm1, %ymm5, %ymm1 vmovapd %ymm1, 31840(%rbx) vmovapd 32640(%rbx), %ymm15 vmulpd 32192(%rbx), %ymm15, %ymm0 vmovapd 32352(%rbx), %ymm5 vmulpd %ymm0, %ymm5, %ymm0 vsubpd %ymm0, %ymm6, %ymm6 vmulpd 32800(%rbx), %ymm10, %ymm0 vmovapd %ymm10, %ymm14 vmulpd %ymm0, %ymm8, %ymm0 vmovapd 32000(%rbx), %ymm5 vaddpd %ymm0, %ymm5, %ymm0 vmovapd %ymm0, 32576(%rbx) vmovapd %ymm11, %ymm5 vmulpd 32832(%rbx), %ymm5, %ymm0 vmulpd %ymm0, %ymm9, %ymm0 vmovapd 32896(%rbx), %ymm8 vaddpd %ymm0, %ymm8, %ymm0 vmovapd %ymm0, 32000(%rbx) vmulpd 32864(%rbx), %ymm1, %ymm0 vmovapd %ymm1, %ymm10 vmovapd %ymm7, %ymm11 vmulpd %ymm11, %ymm0, %ymm0 vaddpd %ymm0, %ymm4, %ymm9 vmovapd 31040(%rbx), %ymm1 vmovapd %ymm12, %ymm7 vmulpd %ymm1, %ymm7, %ymm0 vmulpd %ymm0, %ymm1, %ymm0 vmovapd .LCPI1_23(%rip), %ymm12 vaddpd %ymm12, %ymm0, %ymm1 vmovapd 32736(%rbx), %ymm8 vmulpd %ymm5, %ymm8, %ymm0 vmulpd %ymm0, %ymm5, %ymm0 vaddpd %ymm0, %ymm1, %ymm0 vmovapd %ymm0, 32896(%rbx) vmovapd 31712(%rbx), %ymm1 vmulpd %ymm1, %ymm15, %ymm0 vmulpd %ymm0, %ymm1, %ymm0 vaddpd %ymm12, %ymm0, %ymm1 vmovapd %ymm14, %ymm4 vmulpd %ymm4, %ymm2, %ymm0 vmulpd %ymm0, %ymm4, %ymm0 vaddpd %ymm0, %ymm1, %ymm4 vmovapd .LCPI1_22(%rip), %ymm14 vmulpd %ymm14, %ymm6, %ymm1 vmovlpd %xmm1, 10040(%r13,%r12) vmovhpd %xmm1, 10168(%r13,%r12) vmulpd %ymm3, %ymm13, %ymm0 vmulpd %ymm11, %ymm0, %ymm0 vsubpd %ymm0, %ymm9, %ymm5 vmulpd 32672(%rbx), %ymm8, %ymm0 vsubpd %ymm0, %ymm5, %ymm9 vmovapd .LCPI1_24(%rip), %ymm0 vmovapd 32000(%rbx), %ymm2 vmulpd %ymm0, %ymm2, %ymm6 vmovapd 32576(%rbx), %ymm2 vmulpd %ymm0, %ymm2, %ymm2 vextractf128 $1, %ymm1, %xmm1 vmovlpd %xmm1, 10296(%r13,%r12) vmovhpd %xmm1, 10424(%r13,%r12) vmulpd %ymm10, %ymm7, %ymm0 vmovapd 32288(%rbx), %ymm1 vmulpd %ymm0, %ymm1, %ymm0 vsubpd %ymm0, %ymm9, %ymm0 vmulpd %ymm14, %ymm0, %ymm1 vmovlpd %xmm1, 10552(%r13,%r12) vmovhpd %xmm1, 10680(%r13,%r12) vextractf128 $1, %ymm1, %xmm1 vmovlpd %xmm1, 10808(%r13,%r12) vmovhpd %xmm1, 10936(%r13,%r12) vmovsd 11832(%r13,%r12), %xmm1 vmovhpd 11960(%r13,%r12), %xmm1, %xmm1 vmovsd 11576(%r13,%r12), %xmm3 vmovhpd 11704(%r13,%r12), %xmm3, %xmm3 vinsertf128 $1, %xmm1, %ymm3, %ymm0 vmovapd %ymm0, 31776(%rbx) vmovsd 9920(%r13,%r12), %xmm1 vmovsd 9928(%r13,%r12), %xmm3 vmovapd 31968(%rbx), %ymm5 vmulpd %ymm5, %ymm0, %ymm0 vmulpd %ymm0, %ymm5, %ymm0 vmovapd 32896(%rbx), %ymm5 vaddpd %ymm0, %ymm5, %ymm8 vmovsd 10176(%r13,%r12), %xmm5 vmovhpd 10304(%r13,%r12), %xmm5, %xmm5 vmovhpd 10048(%r13,%r12), %xmm1, %xmm1 vinsertf128 $1, %xmm5, %ymm1, %ymm9 vmovsd 10688(%r13,%r12), %xmm1 vmovhpd 10816(%r13,%r12), %xmm1, %xmm1 vmovsd 10432(%r13,%r12), %xmm5 vmovhpd 10560(%r13,%r12), %xmm5, %xmm5 vinsertf128 $1, %xmm1, %ymm5, %ymm1 vmovsd 11320(%r13,%r12), %xmm5 vmovhpd 11448(%r13,%r12), %xmm5, %xmm5 vmovsd 11064(%r13,%r12), %xmm0 vmovhpd 11192(%r13,%r12), %xmm0, %xmm0 vinsertf128 $1, %xmm5, %ymm0, %ymm0 vmovapd %ymm0, 31744(%rbx) vmovapd 31936(%rbx), %ymm5 vmulpd %ymm5, %ymm0, %ymm0 vmulpd %ymm0, %ymm5, %ymm0 vaddpd %ymm0, %ymm4, %ymm11 vmovapd .LCPI1_25(%rip), %ymm0 vxorpd %ymm0, %ymm1, %ymm4 vxorpd %ymm0, %ymm9, %ymm9 vaddpd %ymm6, %ymm8, %ymm14 vmovsd 10696(%r13,%r12), %xmm0 vmovhpd 10824(%r13,%r12), %xmm0, %xmm1 vmovsd 10440(%r13,%r12), %xmm0 vmovhpd 10568(%r13,%r12), %xmm0, %xmm0 vinsertf128 $1, %xmm1, %ymm0, %ymm0 vmovapd %ymm0, 32896(%rbx) vmovsd 10704(%r13,%r12), %xmm0 vmovhpd 10832(%r13,%r12), %xmm0, %xmm1 vmovsd 10448(%r13,%r12), %xmm0 vmovhpd 10576(%r13,%r12), %xmm0, %xmm0 vinsertf128 $1, %xmm1, %ymm0, %ymm0 vmovapd %ymm0, 32864(%rbx) vmovsd 11744(%r13,%r12), %xmm0 vmovhpd 11872(%r13,%r12), %xmm0, %xmm1 vmovsd 11488(%r13,%r12), %xmm0 vmovhpd 11616(%r13,%r12), %xmm0, %xmm0 vinsertf128 $1, %xmm1, %ymm0, %ymm6 vmovapd %ymm6, 30208(%rbx) vaddpd %ymm2, %ymm11, %ymm1 vmovsd 11232(%r13,%r12), %xmm0 vmovhpd 11360(%r13,%r12), %xmm0, %xmm2 vmovsd 10976(%r13,%r12), %xmm0 vmovhpd 11104(%r13,%r12), %xmm0, %xmm0 vinsertf128 $1, %xmm2, %ymm0, %ymm7 vmovapd %ymm7, 30272(%rbx) vsqrtpd %ymm9, %ymm2 vsqrtpd %ymm4, %ymm0 vdivpd %ymm0, %ymm12, %ymm10 vmovapd %ymm10, 28320(%rbx) vdivpd %ymm2, %ymm12, %ymm13 vmovapd %ymm13, 28448(%rbx) vmovsd 10184(%r13,%r12), %xmm0 vmovhpd 10312(%r13,%r12), %xmm0, %xmm2 vmovhpd 10056(%r13,%r12), %xmm3, %xmm0 vinsertf128 $1, %xmm2, %ymm0, %ymm9 vmovsd 11808(%r13,%r12), %xmm0 vmovhpd 11936(%r13,%r12), %xmm0, %xmm2 vmovsd 11552(%r13,%r12), %xmm0 vmovhpd 11680(%r13,%r12), %xmm0, %xmm0 vinsertf128 $1, %xmm2, %ymm0, %ymm0 vmovapd %ymm0, 30752(%rbx) vmovsd 11296(%r13,%r12), %xmm0 vmovhpd 11424(%r13,%r12), %xmm0, %xmm2 vmovsd 11040(%r13,%r12), %xmm0 vmovhpd 11168(%r13,%r12), %xmm0, %xmm0 vinsertf128 $1, %xmm2, %ymm0, %ymm0 vmovapd %ymm0, 31200(%rbx) vmovsd 10192(%r13,%r12), %xmm0 vmovhpd 10320(%r13,%r12), %xmm0, %xmm2 vmovsd 9936(%r13,%r12), %xmm0 vmovhpd 10064(%r13,%r12), %xmm0, %xmm0 vinsertf128 $1, %xmm2, %ymm0, %ymm4 vmovsd 11312(%r13,%r12), %xmm0 vmovhpd 11440(%r13,%r12), %xmm0, %xmm2 vmovsd 11056(%r13,%r12), %xmm0 vmovhpd 11184(%r13,%r12), %xmm0, %xmm0 vinsertf128 $1, %xmm2, %ymm0, %ymm0 vmovapd %ymm0, 31232(%rbx) vmovsd 11824(%r13,%r12), %xmm0 vmovhpd 11952(%r13,%r12), %xmm0, %xmm2 vmovsd 11568(%r13,%r12), %xmm0 vmovhpd 11696(%r13,%r12), %xmm0, %xmm0 vinsertf128 $1, %xmm2, %ymm0, %ymm0 vmovapd %ymm0, 31648(%rbx) vmovsd 11816(%r13,%r12), %xmm0 vmovhpd 11944(%r13,%r12), %xmm0, %xmm2 vmovsd 11560(%r13,%r12), %xmm0 vmovhpd 11688(%r13,%r12), %xmm0, %xmm0 vinsertf128 $1, %xmm2, %ymm0, %ymm0 vmovapd %ymm0, 30336(%rbx) vmovsd 11304(%r13,%r12), %xmm0 vmovhpd 11432(%r13,%r12), %xmm0, %xmm5 vmovsd 11048(%r13,%r12), %xmm0 vmovhpd 11176(%r13,%r12), %xmm0, %xmm0 vinsertf128 $1, %xmm5, %ymm0, %ymm0 vmovapd %ymm0, 31008(%rbx) vmovsd 11792(%r13,%r12), %xmm0 vmovhpd 11920(%r13,%r12), %xmm0, %xmm5 vmovsd 11536(%r13,%r12), %xmm0 vmovhpd 11664(%r13,%r12), %xmm0, %xmm0 vinsertf128 $1, %xmm5, %ymm0, %ymm0 vmovapd %ymm0, 30784(%rbx) vmovsd 11280(%r13,%r12), %xmm0 vmovhpd 11408(%r13,%r12), %xmm0, %xmm5 vmovsd 11024(%r13,%r12), %xmm0 vmovhpd 11152(%r13,%r12), %xmm0, %xmm0 vinsertf128 $1, %xmm5, %ymm0, %ymm0 vmovapd %ymm0, 30912(%rbx) vmovsd 11800(%r13,%r12), %xmm0 vmovhpd 11928(%r13,%r12), %xmm0, %xmm5 vmovsd 11544(%r13,%r12), %xmm0 vmovhpd 11672(%r13,%r12), %xmm0, %xmm0 vinsertf128 $1, %xmm5, %ymm0, %ymm0 vmovapd %ymm0, 30720(%rbx) vmovsd 11288(%r13,%r12), %xmm0 vmovhpd 11416(%r13,%r12), %xmm0, %xmm5 vmovsd 11032(%r13,%r12), %xmm0 vmovhpd 11160(%r13,%r12), %xmm0, %xmm0 vinsertf128 $1, %xmm5, %ymm0, %ymm0 vmovapd %ymm0, 30880(%rbx) vsqrtpd %ymm14, %ymm15 vmovapd %ymm15, 28928(%rbx) vmovapd 32896(%rbx), %ymm0 vmulpd %ymm15, %ymm0, %ymm0 vmovapd %ymm10, %ymm5 vmulpd %ymm5, %ymm0, %ymm0 vmovapd 31040(%rbx), %ymm3 vsubpd %ymm0, %ymm3, %ymm10 vmovapd %ymm10, 32000(%rbx) vdivpd %ymm5, %ymm15, %ymm3 vmovapd %ymm3, 32896(%rbx) vmovapd %ymm5, %ymm14 vmulpd %ymm3, %ymm6, %ymm0 vmovapd %ymm3, %ymm12 vmovapd 32320(%rbx), %ymm2 vmulpd %ymm10, %ymm2, %ymm5 vmovapd %ymm10, %ymm6 vaddpd %ymm5, %ymm0, %ymm5 vmovapd 32864(%rbx), %ymm0 vmulpd %ymm15, %ymm0, %ymm0 vmulpd %ymm14, %ymm0, %ymm0 vmovapd 30368(%rbx), %ymm3 vsubpd %ymm0, %ymm3, %ymm2 vmovapd %ymm2, 30688(%rbx) vmovapd 32224(%rbx), %ymm0 vmulpd %ymm2, %ymm0, %ymm0 vmovapd %ymm2, %ymm11 vaddpd %ymm0, %ymm5, %ymm2 vsqrtpd %ymm1, %ymm5 vmovapd %ymm5, 28416(%rbx) vmulpd %ymm5, %ymm9, %ymm0 vmulpd %ymm13, %ymm0, %ymm0 vmovapd 31712(%rbx), %ymm1 vsubpd %ymm0, %ymm1, %ymm3 vmovapd %ymm3, 31264(%rbx) vdivpd %ymm13, %ymm5, %ymm1 vmovapd %ymm1, 32576(%rbx) vmovapd %ymm5, %ymm10 vmovapd %ymm13, %ymm5 vmulpd %ymm1, %ymm7, %ymm0 vmovapd %ymm1, %ymm7 vmovapd 32640(%rbx), %ymm1 vmulpd %ymm3, %ymm1, %ymm1 vmovapd %ymm3, %ymm9 vaddpd %ymm1, %ymm0, %ymm8 vmovapd 32704(%rbx), %ymm0 vmulpd %ymm15, %ymm0, %ymm0 vmulpd %ymm14, %ymm0, %ymm0 vmovapd 31968(%rbx), %ymm1 vsubpd %ymm0, %ymm1, %ymm3 vmovapd %ymm3, 31328(%rbx) vmovapd 32416(%rbx), %ymm0 vmulpd %ymm3, %ymm0, %ymm0 vaddpd %ymm0, %ymm2, %ymm0 vmovapd %ymm0, 32672(%rbx) vmovapd %ymm0, %ymm2 vmovapd 32288(%rbx), %ymm0 vmulpd %ymm12, %ymm0, %ymm0 vmovapd 32032(%rbx), %ymm1 vmulpd %ymm6, %ymm1, %ymm1 vaddpd %ymm1, %ymm0, %ymm0 vmovapd 32736(%rbx), %ymm1 vmulpd %ymm11, %ymm1, %ymm1 vaddpd %ymm1, %ymm0, %ymm0 vmovapd 32832(%rbx), %ymm1 vmulpd %ymm3, %ymm1, %ymm1 vaddpd %ymm1, %ymm0, %ymm0 vmovapd %ymm0, 32704(%rbx) vmovapd 30400(%rbx), %ymm1 vmulpd %ymm0, %ymm1, %ymm0 vmovapd 30112(%rbx), %ymm13 vmulpd %ymm2, %ymm13, %ymm1 vaddpd %ymm0, %ymm1, %ymm0 vmovapd %ymm0, 32864(%rbx) vmovapd %ymm10, %ymm14 vmulpd %ymm14, %ymm4, %ymm0 vmovapd %ymm5, %ymm10 vmulpd %ymm10, %ymm0, %ymm0 vmovapd 31136(%rbx), %ymm5 vsubpd %ymm0, %ymm5, %ymm2 vmovapd %ymm2, 31296(%rbx) vmovapd 31808(%rbx), %ymm0 vmulpd %ymm2, %ymm0, %ymm0 vmovapd %ymm2, %ymm4 vaddpd %ymm0, %ymm8, %ymm0 vmovapd %ymm0, 28896(%rbx) vmovapd 32512(%rbx), %ymm0 vmulpd %ymm9, %ymm0, %ymm0 vmovapd 31200(%rbx), %ymm1 vmulpd %ymm7, %ymm1, %ymm5 vaddpd %ymm0, %ymm5, %ymm8 vmovapd 32064(%rbx), %ymm0 vmulpd %ymm6, %ymm0, %ymm0 vmovapd %ymm6, %ymm15 vmovapd 30752(%rbx), %ymm1 vmulpd %ymm12, %ymm1, %ymm5 vaddpd %ymm0, %ymm5, %ymm0 vmovapd %ymm11, %ymm6 vmovapd 31648(%rbx), %ymm2 vmulpd %ymm6, %ymm2, %ymm5 vaddpd %ymm5, %ymm0, %ymm0 vmovapd 31776(%rbx), %ymm2 vmulpd %ymm3, %ymm2, %ymm5 vaddpd %ymm5, %ymm0, %ymm2 vmovapd %ymm2, 32512(%rbx) vmovapd 30656(%rbx), %ymm0 vmulpd %ymm2, %ymm0, %ymm0 vmovapd 32864(%rbx), %ymm2 vaddpd %ymm0, %ymm2, %ymm12 vmovapd %ymm12, 32832(%rbx) vmovapd 31232(%rbx), %ymm0 vmulpd %ymm4, %ymm0, %ymm0 vaddpd %ymm0, %ymm8, %ymm0 vmovapd %ymm0, 32736(%rbx) vmovapd 32544(%rbx), %ymm0 vmulpd %ymm14, %ymm0, %ymm0 vmulpd %ymm10, %ymm0, %ymm0 vmovapd 31936(%rbx), %ymm5 vsubpd %ymm0, %ymm5, %ymm3 vmovapd %ymm3, 31616(%rbx) vmovapd 32928(%rbx), %ymm0 vmulpd %ymm3, %ymm0, %ymm0 vmovapd 28896(%rbx), %ymm2 vaddpd %ymm0, %ymm2, %ymm0 vmovapd %ymm0, 32864(%rbx) vmovapd %ymm0, %ymm8 vmovapd 32352(%rbx), %ymm0 vmulpd %ymm7, %ymm0, %ymm0 vmovapd 32256(%rbx), %ymm2 vmulpd %ymm9, %ymm2, %ymm5 vmovapd %ymm9, %ymm11 vaddpd %ymm5, %ymm0, %ymm0 vmovapd 31168(%rbx), %ymm2 vmulpd %ymm4, %ymm2, %ymm5 vaddpd %ymm5, %ymm0, %ymm0 vmovapd 32800(%rbx), %ymm2 vmulpd %ymm3, %ymm2, %ymm5 vaddpd %ymm5, %ymm0, %ymm0 vmovapd %ymm0, 32800(%rbx) vmovapd 30144(%rbx), %ymm10 vmulpd %ymm0, %ymm10, %ymm0 vmovapd 30304(%rbx), %ymm14 vmulpd %ymm8, %ymm14, %ymm5 vaddpd %ymm0, %ymm5, %ymm8 vmovapd 31744(%rbx), %ymm0 vmulpd %ymm3, %ymm0, %ymm0 vmovapd 32736(%rbx), %ymm2 vaddpd %ymm0, %ymm2, %ymm2 vmovapd %ymm2, 32544(%rbx) vmovapd %ymm12, %ymm5 vmulpd %ymm5, %ymm1, %ymm1 vmulpd %ymm15, %ymm5, %ymm0 vaddpd %ymm0, %ymm13, %ymm0 vmovapd %ymm0, 27648(%rbx) vmovapd 32896(%rbx), %ymm4 vdivpd %ymm4, %ymm0, %ymm3 vmovapd %ymm3, 32064(%rbx) vmovapd 30336(%rbx), %ymm0 vmulpd %ymm3, %ymm0, %ymm0 vaddpd %ymm0, %ymm1, %ymm7 vmovapd 30176(%rbx), %ymm12 vmulpd %ymm2, %ymm12, %ymm0 vaddpd %ymm0, %ymm8, %ymm8 vmovapd %ymm8, 32736(%rbx) vmovapd 30208(%rbx), %ymm0 vmulpd %ymm5, %ymm0, %ymm0 vmovapd 32320(%rbx), %ymm1 vmulpd %ymm3, %ymm1, %ymm1 vaddpd %ymm1, %ymm0, %ymm2 vmovapd 32288(%rbx), %ymm0 vmulpd %ymm5, %ymm0, %ymm0 vmovapd 32032(%rbx), %ymm1 vmulpd %ymm3, %ymm1, %ymm1 vaddpd %ymm1, %ymm0, %ymm0 vmovapd %ymm0, 32320(%rbx) vmovapd 31872(%rbx), %ymm0 vmulpd %ymm5, %ymm0, %ymm0 vmovapd %ymm5, %ymm9 vmovapd 32448(%rbx), %ymm5 vmulpd %ymm3, %ymm5, %ymm5 vaddpd %ymm5, %ymm0, %ymm1 vmulpd %ymm6, %ymm9, %ymm0 vmovapd %ymm9, %ymm13 vmovapd 30400(%rbx), %ymm3 vaddpd %ymm0, %ymm3, %ymm0 vmovapd %ymm0, 27584(%rbx) vdivpd %ymm4, %ymm0, %ymm3 vmovapd %ymm3, 32032(%rbx) vmovapd %ymm4, %ymm5 vmovapd 31648(%rbx), %ymm0 vmulpd %ymm3, %ymm0, %ymm0 vaddpd %ymm0, %ymm7, %ymm0 vmovapd %ymm8, %ymm15 vmulpd %ymm11, %ymm15, %ymm4 vaddpd %ymm4, %ymm14, %ymm7 vmovapd %ymm7, 27616(%rbx) vmovapd 31904(%rbx), %ymm4 vmulpd %ymm15, %ymm4, %ymm4 vmovapd 32576(%rbx), %ymm14 vdivpd %ymm14, %ymm7, %ymm11 vmovapd %ymm11, 31648(%rbx) vmovapd 32480(%rbx), %ymm7 vmulpd %ymm11, %ymm7, %ymm7 vaddpd %ymm7, %ymm4, %ymm4 vmovapd 30272(%rbx), %ymm6 vmulpd %ymm15, %ymm6, %ymm7 vmovapd 32640(%rbx), %ymm6 vmulpd %ymm11, %ymm6, %ymm8 vaddpd %ymm8, %ymm7, %ymm7 vmovapd 32224(%rbx), %ymm6 vmulpd %ymm3, %ymm6, %ymm8 vaddpd %ymm8, %ymm2, %ymm9 vmovapd 31200(%rbx), %ymm2 vmulpd %ymm15, %ymm2, %ymm2 vmovapd 31008(%rbx), %ymm6 vmulpd %ymm11, %ymm6, %ymm6 vaddpd %ymm6, %ymm2, %ymm2 vmovapd %ymm2, 32640(%rbx) vmovapd 32352(%rbx), %ymm6 vmulpd %ymm15, %ymm6, %ymm6 vmovapd 32256(%rbx), %ymm8 vmulpd %ymm11, %ymm8, %ymm8 vaddpd %ymm8, %ymm6, %ymm6 vmovapd 31840(%rbx), %ymm8 vmulpd %ymm3, %ymm8, %ymm8 vaddpd %ymm8, %ymm1, %ymm2 vmovapd 30784(%rbx), %ymm8 vmulpd %ymm3, %ymm8, %ymm8 vmovapd 32320(%rbx), %ymm1 vaddpd %ymm8, %ymm1, %ymm8 vmulpd 31328(%rbx), %ymm13, %ymm1 vmovapd 30656(%rbx), %ymm3 vaddpd %ymm1, %ymm3, %ymm1 vmovapd %ymm1, 27520(%rbx) vdivpd %ymm5, %ymm1, %ymm3 vmovapd %ymm3, 31200(%rbx) vmovapd 32416(%rbx), %ymm1 vmulpd %ymm3, %ymm1, %ymm1 vaddpd %ymm1, %ymm9, %ymm1 vmovapd %ymm1, 32224(%rbx) vmovapd %ymm1, %ymm11 vmulpd 31296(%rbx), %ymm15, %ymm1 vmovapd %ymm15, %ymm5 vaddpd %ymm1, %ymm10, %ymm1 vmovapd %ymm1, 27552(%rbx) vmovapd %ymm14, %ymm13 vdivpd %ymm13, %ymm1, %ymm9 vmovapd %ymm9, 30752(%rbx) vmovapd 31808(%rbx), %ymm1 vmulpd %ymm9, %ymm1, %ymm1 vaddpd %ymm1, %ymm7, %ymm14 vmovapd 32192(%rbx), %ymm7 vmulpd %ymm9, %ymm7, %ymm7 vaddpd %ymm7, %ymm4, %ymm1 vmovapd 31776(%rbx), %ymm7 vmulpd %ymm3, %ymm7, %ymm7 vaddpd %ymm7, %ymm0, %ymm0 vmovapd %ymm0, 32288(%rbx) vmovapd %ymm0, %ymm15 vmovapd 30720(%rbx), %ymm0 vmulpd %ymm3, %ymm0, %ymm0 vaddpd %ymm0, %ymm8, %ymm0 vmovapd %ymm0, 32320(%rbx) vmovapd %ymm0, %ymm4 vmovapd 32128(%rbx), %ymm0 vmulpd %ymm3, %ymm0, %ymm0 vmovapd %ymm3, %ymm10 vaddpd %ymm0, %ymm2, %ymm8 vmovapd %ymm8, 31008(%rbx) vmovapd 30912(%rbx), %ymm0 vmulpd %ymm9, %ymm0, %ymm0 vaddpd %ymm0, %ymm6, %ymm0 vmovapd 31232(%rbx), %ymm3 vmulpd %ymm9, %ymm3, %ymm3 vmovapd 32640(%rbx), %ymm2 vaddpd %ymm3, %ymm2, %ymm2 vmulpd 31616(%rbx), %ymm5, %ymm3 vaddpd %ymm3, %ymm12, %ymm3 vmovapd %ymm3, 27488(%rbx) vdivpd %ymm13, %ymm3, %ymm5 vmovapd %ymm5, 30784(%rbx) vmovapd 31744(%rbx), %ymm3 vmulpd %ymm5, %ymm3, %ymm3 vaddpd %ymm3, %ymm2, %ymm2 vmovapd %ymm2, 32256(%rbx) vmovapd %ymm2, %ymm12 vmovapd 30880(%rbx), %ymm2 vmulpd %ymm5, %ymm2, %ymm2 vaddpd %ymm2, %ymm0, %ymm0 vmovapd %ymm0, 32416(%rbx) vmovapd %ymm0, %ymm6 vmovapd 32160(%rbx), %ymm0 vmulpd %ymm5, %ymm0, %ymm0 vaddpd %ymm0, %ymm1, %ymm7 vmovapd %ymm7, 31168(%rbx) vmovapd 32928(%rbx), %ymm0 vmulpd %ymm5, %ymm0, %ymm0 vaddpd %ymm0, %ymm14, %ymm0 vmovapd %ymm0, 32352(%rbx) vmovapd %ymm0, %ymm14 vmovapd 32064(%rbx), %ymm0 vmulpd %ymm11, %ymm0, %ymm0 vmovapd %ymm0, 28736(%rbx) vmovapd 32832(%rbx), %ymm1 vmulpd %ymm8, %ymm1, %ymm1 vmovapd %ymm1, 31808(%rbx) vaddpd %ymm0, %ymm1, %ymm1 vmovapd 32032(%rbx), %ymm0 vmulpd %ymm4, %ymm0, %ymm2 vmovapd %ymm2, 28896(%rbx) vaddpd %ymm2, %ymm1, %ymm1 vmulpd %ymm15, %ymm10, %ymm0 vmovapd %ymm0, 30272(%rbx) vaddpd %ymm0, %ymm1, %ymm2 vmovapd .LCPI1_26(%rip), %ymm8 vcmpltpd %ymm8, %ymm2, %ymm1 vextractf128 $1, %ymm1, %xmm3 vpshufd $8, %xmm3, %xmm3 vpshufd $8, %xmm1, %xmm1 vmovlhps %xmm3, %xmm1, %xmm1 vpshufb .LCPI1_20(%rip), %xmm1, %xmm0 vmovapd 31648(%rbx), %ymm1 vmulpd %ymm14, %ymm1, %ymm3 vmovapd %ymm3, 30336(%rbx) vmovapd 32736(%rbx), %ymm15 vmulpd %ymm7, %ymm15, %ymm1 vaddpd %ymm3, %ymm1, %ymm3 vmulpd %ymm6, %ymm9, %ymm4 vmovapd %ymm4, 28864(%rbx) vaddpd %ymm4, %ymm3, %ymm3 vmulpd %ymm12, %ymm5, %ymm4 vmovapd %ymm4, 28800(%rbx) vaddpd %ymm4, %ymm3, %ymm3 vcmpltpd %ymm8, %ymm3, %ymm6 vextractf128 $1, %ymm6, %xmm7 vpshufd $8, %xmm7, %xmm7 vpshufd $8, %xmm6, %xmm6 vmovlhps %xmm7, %xmm6, %xmm6 vpshufb .LCPI1_21(%rip), %xmm6, %xmm6 vpor %xmm0, %xmm6, %xmm5 vpsllw $15, %xmm5, %xmm5 vpsraw $15, %xmm5, %xmm6 vpunpckhbw %xmm0, %xmm6, %xmm5 vpslld $31, %xmm5, %xmm7 vpmovsxdq %xmm7, %xmm5 vmovhlps %xmm7, %xmm7, %xmm7 vpmovsxdq %xmm7, %xmm7 vinsertf128 $1, %xmm7, %ymm5, %ymm5 vpunpcklbw %xmm0, %xmm6, %xmm6 vpslld $31, %xmm6, %xmm7 vpmovsxdq %xmm7, %xmm6 vmovhlps %xmm7, %xmm7, %xmm7 vpmovsxdq %xmm7, %xmm7 vinsertf128 $1, %xmm7, %ymm6, %ymm6 vblendvpd %ymm6, %ymm8, %ymm3, %ymm3 vmovapd %ymm3, 30912(%rbx) vmovapd %ymm3, %ymm11 vblendvpd %ymm5, %ymm8, %ymm2, %ymm8 vmovapd %ymm8, 30880(%rbx) vmovapd 30816(%rbx), %ymm2 vinsertf128 $1, 30848(%rbx), %ymm2, %ymm2 vmovapd %ymm2, 32928(%rbx) vmovapd %ymm2, %ymm4 vmovapd 30944(%rbx), %ymm2 vinsertf128 $1, 30976(%rbx), %ymm2, %ymm2 vmovapd %ymm2, 32640(%rbx) vmovapd %ymm2, %ymm14 vmovapd 31872(%rbx), %ymm2 vmovapd 32896(%rbx), %ymm0 vmulpd %ymm0, %ymm2, %ymm2 vmovapd 32448(%rbx), %ymm3 vmulpd 32000(%rbx), %ymm3, %ymm3 vaddpd %ymm3, %ymm2, %ymm2 vmovapd 31840(%rbx), %ymm3 vmulpd 30688(%rbx), %ymm3, %ymm3 vaddpd %ymm3, %ymm2, %ymm2 vmovapd 31904(%rbx), %ymm3 vmulpd %ymm13, %ymm3, %ymm3 vmovapd 32480(%rbx), %ymm5 vmulpd 31264(%rbx), %ymm5, %ymm5 vaddpd %ymm5, %ymm3, %ymm3 vmovapd 32192(%rbx), %ymm5 vmulpd 31296(%rbx), %ymm5, %ymm5 vaddpd %ymm5, %ymm3, %ymm3 vmovapd 32160(%rbx), %ymm5 vmulpd 31616(%rbx), %ymm5, %ymm5 vaddpd %ymm5, %ymm3, %ymm3 vmovapd %ymm3, 32480(%rbx) vmovapd %ymm3, %ymm10 vmovapd 32128(%rbx), %ymm3 vmulpd 31328(%rbx), %ymm3, %ymm3 vaddpd %ymm3, %ymm2, %ymm9 vmovapd %ymm9, 32448(%rbx) vmovapd 31072(%rbx), %ymm6 vmovapd 32096(%rbx), %ymm2 vaddpd %ymm6, %ymm2, %ymm2 vmovapd .LCPI1_27(%rip), %ymm3 vmovapd %ymm3, %ymm5 vmulpd %ymm5, %ymm6, %ymm6 vmovapd %ymm6, 30944(%rbx) vaddpd %ymm2, %ymm6, %ymm2 vmovapd .LCPI1_28(%rip), %ymm3 vmovapd %ymm3, %ymm7 vmulpd %ymm7, %ymm11, %ymm3 vaddpd %ymm3, %ymm6, %ymm6 vmovapd %ymm6, 30816(%rbx) vaddpd %ymm2, %ymm11, %ymm2 vmovapd %ymm2, 30848(%rbx) vmulpd %ymm2, %ymm13, %ymm2 vmulpd %ymm2, %ymm10, %ymm3 vaddpd %ymm3, %ymm6, %ymm3 vmovapd %ymm6, %ymm13 vsubpd %ymm1, %ymm3, %ymm3 vmovapd 31680(%rbx), %ymm1 vmulpd %ymm5, %ymm1, %ymm6 vmovapd %ymm6, 30976(%rbx) vmovapd 31104(%rbx), %ymm5 vaddpd %ymm1, %ymm5, %ymm1 vaddpd %ymm1, %ymm6, %ymm1 vmulpd %ymm7, %ymm8, %ymm5 vaddpd %ymm5, %ymm6, %ymm6 vmovapd %ymm6, 31232(%rbx) vaddpd %ymm1, %ymm8, %ymm1 vmovapd %ymm1, 31744(%rbx) vmulpd %ymm1, %ymm0, %ymm1 vmulpd %ymm1, %ymm9, %ymm5 vaddpd %ymm5, %ymm6, %ymm5 vsubpd 31808(%rbx), %ymm5, %ymm0 vmovapd 32832(%rbx), %ymm12 vmulpd %ymm14, %ymm12, %ymm5 vsqrtpd %ymm8, %ymm8 vmovapd %ymm8, 30208(%rbx) vdivpd %ymm8, %ymm5, %ymm5 vmovapd %ymm5, 32160(%rbx) vmulpd %ymm5, %ymm9, %ymm5 vaddpd %ymm5, %ymm0, %ymm0 vmovapd %ymm0, 32128(%rbx) vmulpd %ymm4, %ymm15, %ymm0 vsqrtpd %ymm11, %ymm6 vmovapd %ymm6, 30720(%rbx) vdivpd %ymm6, %ymm0, %ymm7 vmovapd %ymm7, 32192(%rbx) vmovapd %ymm6, %ymm5 vmulpd %ymm7, %ymm10, %ymm0 vaddpd %ymm0, %ymm3, %ymm3 vmovapd 32864(%rbx), %ymm10 vmulpd %ymm2, %ymm10, %ymm0 vxorpd %ymm6, %ymm6, %ymm6 vmulpd %ymm6, %ymm13, %ymm11 vxorpd %ymm13, %ymm13, %ymm13 vaddpd %ymm0, %ymm11, %ymm0 vmovapd 32352(%rbx), %ymm9 vmulpd %ymm9, %ymm15, %ymm6 vsubpd %ymm6, %ymm0, %ymm0 vmulpd %ymm7, %ymm10, %ymm6 vaddpd %ymm6, %ymm0, %ymm0 vmovapd %ymm0, 31776(%rbx) vmovapd 31168(%rbx), %ymm0 vmulpd %ymm4, %ymm0, %ymm6 vmovapd %ymm4, %ymm0 vmovapd %ymm5, %ymm7 vdivpd %ymm7, %ymm6, %ymm6 vmovapd %ymm6, 31904(%rbx) vmovapd 32576(%rbx), %ymm4 vmulpd %ymm6, %ymm4, %ymm6 vaddpd %ymm6, %ymm3, %ymm3 vmovapd %ymm3, 31808(%rbx) vmovapd 31008(%rbx), %ymm3 vmulpd %ymm14, %ymm3, %ymm3 vdivpd %ymm8, %ymm3, %ymm3 vmovapd %ymm3, 31872(%rbx) vmovapd 32896(%rbx), %ymm6 vmulpd %ymm3, %ymm6, %ymm3 vmovapd 32128(%rbx), %ymm5 vaddpd %ymm3, %ymm5, %ymm5 vmovapd 32672(%rbx), %ymm14 vmulpd %ymm1, %ymm14, %ymm3 vmovapd 31232(%rbx), %ymm6 vmulpd %ymm13, %ymm6, %ymm6 vmovapd %ymm6, 32128(%rbx) vaddpd %ymm3, %ymm6, %ymm3 vmovapd 32224(%rbx), %ymm8 vmulpd %ymm8, %ymm12, %ymm6 vsubpd %ymm6, %ymm3, %ymm3 vmovapd %ymm3, 31840(%rbx) vmovapd 32800(%rbx), %ymm3 vmulpd %ymm2, %ymm3, %ymm6 vaddpd %ymm6, %ymm11, %ymm6 vmovapd 32416(%rbx), %ymm13 vmulpd %ymm13, %ymm15, %ymm10 vsubpd %ymm10, %ymm6, %ymm10 vmovapd %ymm5, 12000(%r13,%r12) vmovaps 31808(%rbx), %ymm5 vmovaps %ymm5, 11968(%r13,%r12) vmulpd %ymm0, %ymm9, %ymm5 vdivpd %ymm7, %ymm5, %ymm0 vmovapd %ymm0, 31808(%rbx) vmulpd %ymm0, %ymm4, %ymm5 vmovapd 31776(%rbx), %ymm0 vaddpd %ymm5, %ymm0, %ymm0 vmovapd %ymm0, 28832(%rbx) vmovapd 32544(%rbx), %ymm12 vmulpd %ymm2, %ymm12, %ymm0 vaddpd %ymm0, %ymm11, %ymm0 vmulpd 32256(%rbx), %ymm15, %ymm2 vsubpd %ymm2, %ymm0, %ymm0 vmovapd %ymm0, 31776(%rbx) vmovapd 32512(%rbx), %ymm0 vmulpd %ymm1, %ymm0, %ymm2 vmovapd 32128(%rbx), %ymm5 vaddpd %ymm2, %ymm5, %ymm2 vmovapd 32832(%rbx), %ymm4 vmulpd 32288(%rbx), %ymm4, %ymm7 vsubpd %ymm7, %ymm2, %ymm0 vmovapd %ymm0, 28768(%rbx) vmovapd 32192(%rbx), %ymm15 vmulpd %ymm15, %ymm3, %ymm7 vaddpd %ymm7, %ymm10, %ymm2 vmovapd 32704(%rbx), %ymm0 vmulpd %ymm1, %ymm0, %ymm1 vaddpd %ymm1, %ymm5, %ymm1 vmovapd 32320(%rbx), %ymm10 vmulpd %ymm10, %ymm4, %ymm7 vsubpd %ymm7, %ymm1, %ymm1 vmovapd 32160(%rbx), %ymm9 vmulpd %ymm9, %ymm14, %ymm7 vmovapd 31840(%rbx), %ymm3 vaddpd %ymm7, %ymm3, %ymm3 vmovapd 32640(%rbx), %ymm6 vmulpd %ymm6, %ymm8, %ymm7 vmovapd 30208(%rbx), %ymm5 vdivpd %ymm5, %ymm7, %ymm4 vmovapd %ymm4, 31840(%rbx) vmovapd 32896(%rbx), %ymm8 vmulpd %ymm4, %ymm8, %ymm7 vaddpd %ymm7, %ymm3, %ymm3 vmovapd %ymm3, 12064(%r13,%r12) vmovaps 28832(%rbx), %ymm3 vmovaps %ymm3, 12032(%r13,%r12) vmovapd %ymm9, %ymm4 vmulpd %ymm4, %ymm0, %ymm3 vaddpd %ymm3, %ymm1, %ymm3 vmovapd 32928(%rbx), %ymm9 vmulpd %ymm9, %ymm13, %ymm1 vmovapd 30720(%rbx), %ymm14 vdivpd %ymm14, %ymm1, %ymm0 vmovapd %ymm0, 28832(%rbx) vmovapd 32576(%rbx), %ymm7 vmulpd %ymm0, %ymm7, %ymm1 vaddpd %ymm1, %ymm2, %ymm0 vmovapd %ymm0, 28704(%rbx) vmovapd 32512(%rbx), %ymm13 vmulpd %ymm4, %ymm13, %ymm1 vmovapd 28768(%rbx), %ymm0 vaddpd %ymm1, %ymm0, %ymm0 vmovapd %ymm0, 28640(%rbx) vmulpd %ymm15, %ymm12, %ymm2 vmovapd 31776(%rbx), %ymm0 vaddpd %ymm2, %ymm0, %ymm2 vmovapd %ymm6, %ymm15 vmulpd %ymm15, %ymm10, %ymm0 vdivpd %ymm5, %ymm0, %ymm0 vmovapd %ymm5, %ymm1 vmovapd %ymm0, 28768(%rbx) vmovapd %ymm8, %ymm10 vmulpd %ymm0, %ymm10, %ymm0 vaddpd %ymm0, %ymm3, %ymm5 vmovapd 32000(%rbx), %ymm0 vmulpd 31744(%rbx), %ymm0, %ymm4 vmovapd %ymm4, 31776(%rbx) vmovapd 32448(%rbx), %ymm8 vmulpd %ymm4, %ymm8, %ymm0 vmovapd %ymm4, %ymm12 vmovapd 32128(%rbx), %ymm3 vaddpd %ymm0, %ymm3, %ymm0 vmovapd 32064(%rbx), %ymm4 vmulpd 31008(%rbx), %ymm4, %ymm6 vsubpd %ymm6, %ymm0, %ymm0 vmovapd %ymm5, 12128(%r13,%r12) vmovaps 28704(%rbx), %ymm3 vmovaps %ymm3, 12096(%r13,%r12) vmovapd 32256(%rbx), %ymm3 vmulpd %ymm9, %ymm3, %ymm3 vdivpd %ymm14, %ymm3, %ymm3 vmovapd %ymm3, 28704(%rbx) vmulpd %ymm3, %ymm7, %ymm3 vaddpd %ymm3, %ymm2, %ymm2 vmovapd %ymm2, 28544(%rbx) vmovapd %ymm15, %ymm3 vmovapd 32288(%rbx), %ymm2 vmulpd %ymm3, %ymm2, %ymm2 vmovapd %ymm1, %ymm6 vdivpd %ymm6, %ymm2, %ymm2 vmovapd %ymm2, 28672(%rbx) vmulpd %ymm2, %ymm10, %ymm2 vmovapd 28640(%rbx), %ymm1 vaddpd %ymm2, %ymm1, %ymm1 vmovapd %ymm1, 28384(%rbx) vmovapd 31264(%rbx), %ymm1 vmovapd 30848(%rbx), %ymm5 vmulpd %ymm5, %ymm1, %ymm1 vmovapd 32864(%rbx), %ymm2 vmulpd %ymm1, %ymm2, %ymm2 vmovapd 30816(%rbx), %ymm15 vaddpd %ymm2, %ymm15, %ymm2 vsubpd 30336(%rbx), %ymm2, %ymm2 vmovapd %ymm2, 28608(%rbx) vmulpd %ymm3, %ymm4, %ymm2 vdivpd %ymm6, %ymm2, %ymm2 vmovapd %ymm2, 30336(%rbx) vmulpd %ymm2, %ymm8, %ymm2 vaddpd %ymm2, %ymm0, %ymm0 vmovapd %ymm0, 28512(%rbx) vmovapd 32480(%rbx), %ymm10 vmulpd %ymm1, %ymm10, %ymm0 vaddpd %ymm0, %ymm11, %ymm0 vmovapd 31648(%rbx), %ymm2 vmulpd 31168(%rbx), %ymm2, %ymm2 vsubpd %ymm2, %ymm0, %ymm0 vmovapd %ymm0, 28480(%rbx) vmovapd 32672(%rbx), %ymm0 vmulpd %ymm12, %ymm0, %ymm0 vmovapd 31232(%rbx), %ymm3 vaddpd %ymm0, %ymm3, %ymm0 vsubpd 28736(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 28576(%rbx) vmovapd 30688(%rbx), %ymm0 vmovapd 31744(%rbx), %ymm2 vmulpd %ymm2, %ymm0, %ymm4 vmovapd %ymm4, 28288(%rbx) vmovapd 31328(%rbx), %ymm0 vmulpd %ymm2, %ymm0, %ymm7 vmulpd %ymm7, %ymm13, %ymm0 vaddpd %ymm0, %ymm3, %ymm0 vmovapd %ymm0, 28736(%rbx) vmovapd 32704(%rbx), %ymm8 vmulpd %ymm4, %ymm8, %ymm2 vaddpd %ymm2, %ymm3, %ymm0 vmovapd %ymm0, 28640(%rbx) vmovapd 31296(%rbx), %ymm2 vmovapd %ymm5, %ymm0 vmulpd %ymm0, %ymm2, %ymm5 vmovapd 31616(%rbx), %ymm2 vmulpd %ymm0, %ymm2, %ymm2 vmovapd 32544(%rbx), %ymm6 vmulpd %ymm2, %ymm6, %ymm3 vmovapd %ymm15, %ymm0 vaddpd %ymm3, %ymm0, %ymm3 vmovapd %ymm3, 31744(%rbx) vmovapd 32800(%rbx), %ymm9 vmulpd %ymm5, %ymm9, %ymm3 vaddpd %ymm3, %ymm0, %ymm0 vmovapd %ymm0, 30848(%rbx) vmulpd %ymm1, %ymm9, %ymm12 vmulpd %ymm1, %ymm6, %ymm1 vmovapd %ymm10, %ymm0 vmulpd %ymm5, %ymm0, %ymm3 vmulpd %ymm5, %ymm6, %ymm13 vmovapd 32864(%rbx), %ymm10 vmulpd %ymm5, %ymm10, %ymm15 vmulpd %ymm2, %ymm0, %ymm14 vmovapd %ymm0, %ymm4 vmulpd %ymm2, %ymm9, %ymm6 vmulpd %ymm2, %ymm10, %ymm2 vmovapd %ymm10, %ymm9 vaddpd %ymm2, %ymm11, %ymm5 vaddpd %ymm6, %ymm11, %ymm6 vaddpd %ymm14, %ymm11, %ymm14 vaddpd %ymm15, %ymm11, %ymm15 vaddpd %ymm1, %ymm11, %ymm0 vmovapd %ymm0, 28352(%rbx) vaddpd %ymm13, %ymm11, %ymm2 vaddpd %ymm12, %ymm11, %ymm0 vmovapd %ymm0, 28128(%rbx) vaddpd %ymm3, %ymm11, %ymm0 vmovapd %ymm0, 28224(%rbx) vmovaps 28384(%rbx), %ymm0 vmovaps %ymm0, 12192(%r13,%r12) vmovaps 28544(%rbx), %ymm0 vmovaps %ymm0, 12160(%r13,%r12) vmovapd 31744(%rbx), %ymm0 vsubpd 28800(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 31744(%rbx) vmovapd 28736(%rbx), %ymm0 vsubpd 30272(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 31232(%rbx) vmovapd 30784(%rbx), %ymm11 vmulpd 32416(%rbx), %ymm11, %ymm0 vsubpd %ymm0, %ymm6, %ymm0 vmovapd %ymm0, 28736(%rbx) vmulpd %ymm7, %ymm8, %ymm0 vmovapd 32128(%rbx), %ymm8 vaddpd %ymm0, %ymm8, %ymm0 vmovapd 31200(%rbx), %ymm10 vmulpd 32320(%rbx), %ymm10, %ymm3 vsubpd %ymm3, %ymm0, %ymm0 vmovapd %ymm0, 28544(%rbx) vmovapd 32352(%rbx), %ymm12 vmulpd %ymm12, %ymm11, %ymm0 vmovapd %ymm11, %ymm3 vsubpd %ymm0, %ymm5, %ymm0 vmovapd %ymm0, 30816(%rbx) vmovapd 31648(%rbx), %ymm6 vmulpd 32928(%rbx), %ymm6, %ymm0 vdivpd 30720(%rbx), %ymm0, %ymm1 vmovapd %ymm1, 30272(%rbx) vmulpd %ymm1, %ymm4, %ymm0 vmovapd 28480(%rbx), %ymm4 vaddpd %ymm0, %ymm4, %ymm0 vmovapd %ymm0, 28096(%rbx) vmovapd 32000(%rbx), %ymm0 vmulpd 31872(%rbx), %ymm0, %ymm0 vmovapd 28512(%rbx), %ymm4 vaddpd %ymm0, %ymm4, %ymm0 vmovapd %ymm0, 28032(%rbx) vmulpd %ymm1, %ymm9, %ymm0 vmovapd 28608(%rbx), %ymm1 vaddpd %ymm0, %ymm1, %ymm0 vmovapd %ymm0, 28480(%rbx) vmovapd 30752(%rbx), %ymm11 vmulpd %ymm12, %ymm11, %ymm0 vsubpd %ymm0, %ymm15, %ymm0 vmovapd %ymm0, 28800(%rbx) vmovapd 32672(%rbx), %ymm9 vmulpd %ymm7, %ymm9, %ymm0 vaddpd %ymm0, %ymm8, %ymm0 vmovapd %ymm8, %ymm1 vmovapd 32224(%rbx), %ymm15 vmulpd %ymm15, %ymm10, %ymm5 vsubpd %ymm5, %ymm0, %ymm0 vmovapd %ymm0, 28608(%rbx) vmovapd 31168(%rbx), %ymm12 vmulpd %ymm12, %ymm3, %ymm0 vsubpd %ymm0, %ymm14, %ymm0 vmovapd %ymm0, 28512(%rbx) vmovapd 32448(%rbx), %ymm8 vmulpd %ymm7, %ymm8, %ymm0 vaddpd %ymm0, %ymm1, %ymm0 vmovapd 31008(%rbx), %ymm14 vmulpd %ymm14, %ymm10, %ymm5 vsubpd %ymm5, %ymm0, %ymm0 vmovapd %ymm0, 28256(%rbx) vmovapd 32256(%rbx), %ymm7 vmulpd %ymm7, %ymm11, %ymm0 vsubpd %ymm0, %ymm2, %ymm0 vmovapd %ymm0, 28160(%rbx) vmulpd 30336(%rbx), %ymm9, %ymm0 vmovapd %ymm9, %ymm13 vmovapd 28576(%rbx), %ymm2 vaddpd %ymm0, %ymm2, %ymm0 vmovapd %ymm0, 28064(%rbx) vmovapd %ymm6, %ymm2 vmulpd %ymm7, %ymm2, %ymm0 vmovapd 28352(%rbx), %ymm4 vsubpd %ymm0, %ymm4, %ymm0 vmovapd %ymm0, 28576(%rbx) vmovapd 32512(%rbx), %ymm4 vmovapd 28288(%rbx), %ymm6 vmulpd %ymm6, %ymm4, %ymm0 vmovapd %ymm1, %ymm5 vaddpd %ymm0, %ymm5, %ymm0 vmovapd 32288(%rbx), %ymm7 vmovapd 32032(%rbx), %ymm9 vmulpd %ymm7, %ymm9, %ymm1 vsubpd %ymm1, %ymm0, %ymm0 vmovapd %ymm0, 28384(%rbx) vmovapd 30848(%rbx), %ymm0 vsubpd 28864(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 28352(%rbx) vmovapd 28640(%rbx), %ymm0 vsubpd 28896(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 28192(%rbx) vmulpd 32416(%rbx), %ymm2, %ymm0 vmovapd 28128(%rbx), %ymm1 vsubpd %ymm0, %ymm1, %ymm0 vmovapd %ymm0, 28896(%rbx) vmulpd %ymm6, %ymm13, %ymm0 vaddpd %ymm0, %ymm5, %ymm0 vmulpd %ymm15, %ymm9, %ymm2 vsubpd %ymm2, %ymm0, %ymm0 vmovapd %ymm0, 28640(%rbx) vmulpd %ymm12, %ymm11, %ymm0 vmovapd 28224(%rbx), %ymm1 vsubpd %ymm0, %ymm1, %ymm0 vmovapd %ymm0, 28224(%rbx) vmulpd %ymm6, %ymm8, %ymm0 vaddpd %ymm0, %ymm5, %ymm0 vmulpd %ymm14, %ymm9, %ymm2 vsubpd %ymm2, %ymm0, %ymm0 vmovapd %ymm0, 28128(%rbx) vmovapd %ymm4, %ymm12 vmulpd 31776(%rbx), %ymm12, %ymm0 vaddpd %ymm0, %ymm5, %ymm0 vmovapd 32064(%rbx), %ymm2 vmulpd %ymm7, %ymm2, %ymm2 vsubpd %ymm2, %ymm0, %ymm0 vmovapd %ymm0, 28288(%rbx) vmovaps 28032(%rbx), %ymm0 vmovaps %ymm0, 12256(%r13,%r12) vmovapd 31264(%rbx), %ymm1 vmulpd 31904(%rbx), %ymm1, %ymm0 vmovapd 28096(%rbx), %ymm2 vaddpd %ymm0, %ymm2, %ymm0 vmovapd %ymm0, 28096(%rbx) vmovapd 32928(%rbx), %ymm4 vmulpd %ymm4, %ymm3, %ymm0 vmovapd 30720(%rbx), %ymm3 vdivpd %ymm3, %ymm0, %ymm2 vmovapd %ymm2, 30848(%rbx) vmovapd 32864(%rbx), %ymm13 vmulpd %ymm2, %ymm13, %ymm0 vmovapd 30816(%rbx), %ymm5 vaddpd %ymm0, %ymm5, %ymm0 vmovapd %ymm0, 28864(%rbx) vmovapd 32640(%rbx), %ymm14 vmulpd %ymm14, %ymm10, %ymm0 vmovapd 30208(%rbx), %ymm15 vdivpd %ymm15, %ymm0, %ymm7 vmovapd %ymm7, 30816(%rbx) vmovapd 32704(%rbx), %ymm8 vmulpd %ymm7, %ymm8, %ymm0 vmovapd 28544(%rbx), %ymm5 vaddpd %ymm0, %ymm5, %ymm0 vmovapd %ymm0, 28544(%rbx) vmovapd 32800(%rbx), %ymm0 vmulpd %ymm2, %ymm0, %ymm0 vmovapd 28736(%rbx), %ymm5 vaddpd %ymm0, %ymm5, %ymm0 vmovapd %ymm0, 28736(%rbx) vmulpd %ymm7, %ymm12, %ymm0 vmovapd 31232(%rbx), %ymm5 vaddpd %ymm0, %ymm5, %ymm0 vmovapd %ymm0, 31232(%rbx) vmovapd 32544(%rbx), %ymm6 vmulpd %ymm2, %ymm6, %ymm0 vmovapd 31744(%rbx), %ymm5 vaddpd %ymm0, %ymm5, %ymm0 vmovapd %ymm0, 31744(%rbx) vmulpd 31808(%rbx), %ymm1, %ymm0 vmovapd 28480(%rbx), %ymm1 vaddpd %ymm0, %ymm1, %ymm0 vmovapd %ymm0, 28032(%rbx) vmovapd 32000(%rbx), %ymm0 vmulpd 31840(%rbx), %ymm0, %ymm0 vmovapd 28064(%rbx), %ymm1 vaddpd %ymm0, %ymm1, %ymm0 vmovapd %ymm0, 28064(%rbx) vmulpd %ymm4, %ymm11, %ymm0 vdivpd %ymm3, %ymm0, %ymm4 vmovapd %ymm4, 27456(%rbx) vmulpd %ymm4, %ymm6, %ymm0 vmovapd %ymm6, %ymm10 vmovapd 28160(%rbx), %ymm1 vaddpd %ymm0, %ymm1, %ymm0 vmovapd %ymm0, 28480(%rbx) vmovapd 32448(%rbx), %ymm9 vmulpd %ymm7, %ymm9, %ymm0 vmovapd 28256(%rbx), %ymm1 vaddpd %ymm0, %ymm1, %ymm0 vmovapd %ymm0, 28256(%rbx) vmovapd 32480(%rbx), %ymm5 vmulpd %ymm2, %ymm5, %ymm0 vmovapd 28512(%rbx), %ymm1 vaddpd %ymm0, %ymm1, %ymm0 vmovapd %ymm0, 28160(%rbx) vmovapd 32672(%rbx), %ymm6 vmulpd %ymm7, %ymm6, %ymm3 vmovapd 28608(%rbx), %ymm0 vaddpd %ymm3, %ymm0, %ymm0 vmulpd %ymm4, %ymm13, %ymm3 vmovapd 28800(%rbx), %ymm1 vaddpd %ymm3, %ymm1, %ymm1 vmovapd %ymm1, 28800(%rbx) vmovapd 32032(%rbx), %ymm1 vmulpd %ymm14, %ymm1, %ymm3 vdivpd %ymm15, %ymm3, %ymm2 vmovapd %ymm2, 27424(%rbx) vmovapd %ymm8, %ymm7 vmulpd %ymm2, %ymm7, %ymm3 vmovapd 28192(%rbx), %ymm1 vaddpd %ymm3, %ymm1, %ymm1 vmovapd %ymm1, 28512(%rbx) vmovapd 32800(%rbx), %ymm11 vmulpd %ymm4, %ymm11, %ymm1 vmovapd 28352(%rbx), %ymm3 vaddpd %ymm1, %ymm3, %ymm1 vmovapd %ymm1, 28352(%rbx) vmulpd %ymm2, %ymm12, %ymm3 vmovapd 28384(%rbx), %ymm1 vaddpd %ymm3, %ymm1, %ymm15 vmovapd 30272(%rbx), %ymm1 vmulpd %ymm1, %ymm10, %ymm3 vmovapd 28576(%rbx), %ymm8 vaddpd %ymm3, %ymm8, %ymm3 vmovapd %ymm3, 28608(%rbx) vmulpd %ymm2, %ymm9, %ymm3 vmovapd 28128(%rbx), %ymm8 vaddpd %ymm3, %ymm8, %ymm3 vmovapd %ymm3, 28576(%rbx) vmulpd %ymm4, %ymm5, %ymm3 vmovapd 28224(%rbx), %ymm4 vaddpd %ymm3, %ymm4, %ymm3 vmovapd %ymm3, 28224(%rbx) vmulpd %ymm2, %ymm6, %ymm4 vmovapd 28640(%rbx), %ymm2 vaddpd %ymm4, %ymm2, %ymm2 vmovapd %ymm2, 28192(%rbx) vmulpd 31776(%rbx), %ymm7, %ymm13 vmovapd 32128(%rbx), %ymm2 vaddpd %ymm13, %ymm2, %ymm2 vmovapd %ymm2, 28640(%rbx) vmovaps 28096(%rbx), %ymm2 vmovaps %ymm2, 12224(%r13,%r12) vmulpd %ymm1, %ymm11, %ymm6 vmovapd 28896(%rbx), %ymm1 vaddpd %ymm6, %ymm1, %ymm1 vmovapd %ymm1, 28384(%rbx) vmovapd 30336(%rbx), %ymm1 vmulpd %ymm1, %ymm12, %ymm6 vmovapd 28288(%rbx), %ymm2 vaddpd %ymm6, %ymm2, %ymm2 vmovapd %ymm2, 28288(%rbx) vmovaps 28064(%rbx), %ymm2 vmovaps %ymm2, 12320(%r13,%r12) vmovaps 28032(%rbx), %ymm2 vmovaps %ymm2, 12288(%r13,%r12) vmovapd 31616(%rbx), %ymm8 vmovapd 28704(%rbx), %ymm10 vmulpd %ymm10, %ymm8, %ymm2 vmovapd 31744(%rbx), %ymm3 vaddpd %ymm2, %ymm3, %ymm2 vmovapd %ymm2, 32128(%rbx) vmovapd 31328(%rbx), %ymm12 vmovapd 28672(%rbx), %ymm4 vmulpd %ymm4, %ymm12, %ymm2 vmovapd 31232(%rbx), %ymm3 vaddpd %ymm2, %ymm3, %ymm2 vmovapd %ymm2, 31776(%rbx) vmovapd 28832(%rbx), %ymm3 vmulpd %ymm3, %ymm8, %ymm2 vmovapd 28736(%rbx), %ymm5 vaddpd %ymm2, %ymm5, %ymm2 vmovapd %ymm2, 31744(%rbx) vmovapd 28768(%rbx), %ymm6 vmulpd %ymm6, %ymm12, %ymm2 vmovapd 28544(%rbx), %ymm5 vaddpd %ymm2, %ymm5, %ymm2 vmovapd %ymm2, 31232(%rbx) vmovapd 31808(%rbx), %ymm14 vmulpd %ymm14, %ymm8, %ymm2 vmovapd 28864(%rbx), %ymm5 vaddpd %ymm2, %ymm5, %ymm2 vmovapd %ymm2, 28896(%rbx) vmovapd 31840(%rbx), %ymm9 vmulpd %ymm9, %ymm12, %ymm7 vaddpd %ymm7, %ymm0, %ymm0 vmovapd %ymm0, 28864(%rbx) vmovapd 31904(%rbx), %ymm11 vmulpd %ymm11, %ymm8, %ymm5 vmovapd 28160(%rbx), %ymm0 vaddpd %ymm5, %ymm0, %ymm0 vmovapd %ymm0, 28736(%rbx) vmovapd 31872(%rbx), %ymm13 vmulpd %ymm13, %ymm12, %ymm0 vmovapd 28256(%rbx), %ymm2 vaddpd %ymm0, %ymm2, %ymm0 vmovapd %ymm0, 28544(%rbx) vmovapd 31296(%rbx), %ymm8 vmulpd %ymm10, %ymm8, %ymm5 vmovapd %ymm10, %ymm12 vmovapd 28480(%rbx), %ymm0 vaddpd %ymm5, %ymm0, %ymm0 vmovapd %ymm0, 28480(%rbx) vmovapd 30688(%rbx), %ymm2 vmulpd %ymm4, %ymm2, %ymm7 vaddpd %ymm7, %ymm15, %ymm0 vmovapd %ymm0, 28256(%rbx) vmulpd %ymm3, %ymm8, %ymm10 vmovapd 28352(%rbx), %ymm0 vaddpd %ymm10, %ymm0, %ymm0 vmovapd %ymm0, 28352(%rbx) vmulpd %ymm6, %ymm2, %ymm10 vmovapd %ymm6, %ymm5 vmovapd 28512(%rbx), %ymm0 vaddpd %ymm10, %ymm0, %ymm10 vmulpd %ymm14, %ymm8, %ymm14 vmovapd 28800(%rbx), %ymm0 vaddpd %ymm14, %ymm0, %ymm14 vmulpd %ymm9, %ymm2, %ymm15 vmovapd 28192(%rbx), %ymm0 vaddpd %ymm15, %ymm0, %ymm7 vmulpd %ymm11, %ymm8, %ymm15 vmovapd 28224(%rbx), %ymm0 vaddpd %ymm15, %ymm0, %ymm0 vmulpd %ymm13, %ymm2, %ymm15 vmovapd 28576(%rbx), %ymm2 vaddpd %ymm15, %ymm2, %ymm11 vmovapd 31264(%rbx), %ymm8 vmulpd %ymm12, %ymm8, %ymm15 vmovapd 28608(%rbx), %ymm2 vaddpd %ymm15, %ymm2, %ymm15 vmovapd 32000(%rbx), %ymm9 vmulpd %ymm4, %ymm9, %ymm2 vmovapd 28288(%rbx), %ymm4 vaddpd %ymm2, %ymm4, %ymm6 vmulpd %ymm3, %ymm8, %ymm2 vmovapd 28384(%rbx), %ymm3 vaddpd %ymm2, %ymm3, %ymm13 vmovapd 32064(%rbx), %ymm2 vmulpd 32320(%rbx), %ymm2, %ymm2 vmovapd 28640(%rbx), %ymm3 vsubpd %ymm2, %ymm3, %ymm8 vmovapd 32704(%rbx), %ymm2 vmulpd %ymm1, %ymm2, %ymm2 vaddpd %ymm2, %ymm8, %ymm8 vmulpd %ymm5, %ymm9, %ymm2 vaddpd %ymm2, %ymm8, %ymm2 vmovapd %ymm2, 12384(%r13,%r12) vmovapd %ymm13, 12352(%r13,%r12) vmovapd %ymm6, 12448(%r13,%r12) vmovapd %ymm15, 12416(%r13,%r12) vmovapd %ymm11, 12512(%r13,%r12) vmovapd %ymm0, 12480(%r13,%r12) vmovapd %ymm7, 12576(%r13,%r12) vmovapd %ymm14, 12544(%r13,%r12) vmovapd %ymm10, 12640(%r13,%r12) vmovaps 28352(%rbx), %ymm0 vmovaps %ymm0, 12608(%r13,%r12) vmovaps 28256(%rbx), %ymm0 vmovaps %ymm0, 12704(%r13,%r12) vmovaps 28480(%rbx), %ymm0 vmovaps %ymm0, 12672(%r13,%r12) vmovaps 28544(%rbx), %ymm0 vmovaps %ymm0, 12768(%r13,%r12) vmovaps 28736(%rbx), %ymm0 vmovaps %ymm0, 12736(%r13,%r12) vmovaps 28864(%rbx), %ymm0 vmovaps %ymm0, 12832(%r13,%r12) vmovaps 28896(%rbx), %ymm0 vmovaps %ymm0, 12800(%r13,%r12) vmovaps 31232(%rbx), %ymm0 vmovaps %ymm0, 12896(%r13,%r12) vmovaps 31744(%rbx), %ymm0 vmovaps %ymm0, 12864(%r13,%r12) vmovaps 31776(%rbx), %ymm0 vmovaps %ymm0, 12960(%r13,%r12) vmovaps 32128(%rbx), %ymm0 vmovaps %ymm0, 12928(%r13,%r12) vmovsd 9928(%r13,%r12), %xmm0 vmovaps %xmm0, 32128(%rbx) vmovsd 9936(%r13,%r12), %xmm0 vmovaps %xmm0, 31904(%rbx) vmovsd 10952(%r13,%r12), %xmm0 vmovaps %xmm0, 31744(%rbx) vmovsd 11464(%r13,%r12), %xmm0 vmovaps %xmm0, 28768(%rbx) vmovsd 10944(%r13,%r12), %xmm0 vmovaps %xmm0, 31808(%rbx) vmovsd 11784(%r13,%r12), %xmm0 vmovaps %xmm0, 28896(%rbx) vmovsd 11720(%r13,%r12), %xmm2 vmovsd 11824(%r13,%r12), %xmm0 vmovaps %xmm0, 28736(%rbx) vmovsd 11528(%r13,%r12), %xmm0 vmovaps %xmm0, 28672(%rbx) vmovsd 10976(%r13,%r12), %xmm0 vmovaps %xmm0, 28640(%rbx) vmovsd 11208(%r13,%r12), %xmm0 vmovaps %xmm0, 28512(%rbx) vmovsd 11816(%r13,%r12), %xmm0 vmovaps %xmm0, 28864(%rbx) vmovsd 11552(%r13,%r12), %xmm0 vmovaps %xmm0, 28704(%rbx) vmovsd 11736(%r13,%r12), %xmm0 vmovaps %xmm0, 28608(%rbx) vmovsd 11200(%r13,%r12), %xmm0 vmovaps %xmm0, 28352(%rbx) vmovsd 11568(%r13,%r12), %xmm0 vmovaps %xmm0, 27904(%rbx) vmovsd 11232(%r13,%r12), %xmm0 vmovaps %xmm0, 28128(%rbx) vmovsd 11712(%r13,%r12), %xmm0 vmovaps %xmm0, 28832(%rbx) vmovsd 11040(%r13,%r12), %xmm0 vmovaps %xmm0, 28576(%rbx) vmovsd 11056(%r13,%r12), %xmm0 vmovaps %xmm0, 28480(%rbx) vmovsd 11312(%r13,%r12), %xmm0 vmovaps %xmm0, 28384(%rbx) vmovsd 11048(%r13,%r12), %xmm0 vmovaps %xmm0, 28160(%rbx) vmovsd 11728(%r13,%r12), %xmm0 vmovaps %xmm0, 27712(%rbx) vmovsd 11560(%r13,%r12), %xmm0 vmovaps %xmm0, 27744(%rbx) vmovsd 11216(%r13,%r12), %xmm0 vmovaps %xmm0, 27360(%rbx) vmovsd 11016(%r13,%r12), %xmm0 vmovaps %xmm0, 27968(%rbx) vmovsd 11768(%r13,%r12), %xmm0 vmovaps %xmm0, 31872(%rbx) vmovsd 11496(%r13,%r12), %xmm0 vmovaps %xmm0, 31840(%rbx) vmovsd 11800(%r13,%r12), %xmm0 vmovaps %xmm0, 31776(%rbx) vmovsd 11064(%r13,%r12), %xmm0 vmovaps %xmm0, 31232(%rbx) vmovsd 11320(%r13,%r12), %xmm0 vmovaps %xmm0, 28800(%rbx) vmovsd 11576(%r13,%r12), %xmm0 vmovaps %xmm0, 28544(%rbx) vmovsd 11832(%r13,%r12), %xmm0 vmovaps %xmm0, 28000(%rbx) vmovsd 11032(%r13,%r12), %xmm0 vmovaps %xmm0, 26688(%rbx) vmovsd 10712(%r13,%r12), %xmm0 vmovaps %xmm0, 26752(%rbx) vmovsd 10184(%r13,%r12), %xmm0 vmovaps %xmm0, 26816(%rbx) vmovsd 10448(%r13,%r12), %xmm0 vmovaps %xmm0, 26848(%rbx) vmovsd 10704(%r13,%r12), %xmm0 vmovaps %xmm0, 26880(%rbx) vmovsd 10440(%r13,%r12), %xmm0 vmovaps %xmm0, 26912(%rbx) vmovsd 10696(%r13,%r12), %xmm0 vmovaps %xmm0, 26944(%rbx) vmovsd 10192(%r13,%r12), %xmm0 vmovaps %xmm0, 27008(%rbx) vmovsd 9944(%r13,%r12), %xmm0 vmovaps %xmm0, 27040(%rbx) vmovsd 10200(%r13,%r12), %xmm0 vmovaps %xmm0, 27072(%rbx) vmovsd 11520(%r13,%r12), %xmm0 vmovaps %xmm0, 27232(%rbx) vmovsd 11744(%r13,%r12), %xmm0 vmovaps %xmm0, 27264(%rbx) vmovsd 11456(%r13,%r12), %xmm0 vmovaps %xmm0, 27296(%rbx) vmovsd 11296(%r13,%r12), %xmm0 vmovaps %xmm0, 27328(%rbx) vmovsd 10960(%r13,%r12), %xmm0 vmovaps %xmm0, 27200(%rbx) vmovsd 11304(%r13,%r12), %xmm5 vmovsd 11472(%r13,%r12), %xmm13 vmovsd 11808(%r13,%r12), %xmm12 vmovsd 10968(%r13,%r12), %xmm0 vmovsd 11224(%r13,%r12), %xmm14 vmovsd 11480(%r13,%r12), %xmm1 vmovsd 11272(%r13,%r12), %xmm3 vmovaps %xmm3, 27136(%rbx) vmovsd 11008(%r13,%r12), %xmm3 vmovsd 11264(%r13,%r12), %xmm6 vmovsd 11776(%r13,%r12), %xmm15 vmovsd 11488(%r13,%r12), %xmm7 vmovsd 11288(%r13,%r12), %xmm4 vmovaps %xmm4, 26656(%rbx) vmovsd 10456(%r13,%r12), %xmm4 vmovaps %xmm4, 26720(%rbx) vmovsd 10992(%r13,%r12), %xmm4 vmovaps %xmm4, 26464(%rbx) vmovsd 11248(%r13,%r12), %xmm4 vmovaps %xmm4, 26432(%rbx) vmovsd 11536(%r13,%r12), %xmm4 vmovaps %xmm4, 26400(%rbx) vmovsd 11792(%r13,%r12), %xmm4 vmovaps %xmm4, 26336(%rbx) vmovsd 10984(%r13,%r12), %xmm4 vmovaps %xmm4, 26272(%rbx) vmovsd 11240(%r13,%r12), %xmm4 vmovaps %xmm4, 26176(%rbx) vmovsd 11024(%r13,%r12), %xmm4 vmovaps %xmm4, 26112(%rbx) vmovsd 11280(%r13,%r12), %xmm4 vmovaps %xmm4, 26144(%rbx) vmovsd 11000(%r13,%r12), %xmm4 vmovsd 11256(%r13,%r12), %xmm10 vmovsd 11512(%r13,%r12), %xmm9 vmovsd 11752(%r13,%r12), %xmm11 vmovsd 11544(%r13,%r12), %xmm8 vmovhpd 11848(%r13,%r12), %xmm2, %xmm2 vmovapd %xmm2, 28288(%rbx) vmovapd 28768(%rbx), %xmm2 vmovhpd 11592(%r13,%r12), %xmm2, %xmm2 vmovapd %ymm2, 28256(%rbx) vmovapd 28512(%rbx), %xmm2 vmovhpd 11336(%r13,%r12), %xmm2, %xmm2 vmovapd %xmm2, 28224(%rbx) vmovapd 31744(%rbx), %xmm2 vmovhpd 11080(%r13,%r12), %xmm2, %xmm2 vmovapd %ymm2, 28192(%rbx) vmovapd 28128(%rbx), %xmm2 vmovhpd 11360(%r13,%r12), %xmm2, %xmm2 vmovapd %xmm2, 28128(%rbx) vmovapd 28640(%rbx), %xmm2 vmovhpd 11104(%r13,%r12), %xmm2, %xmm2 vmovapd %ymm2, 28096(%rbx) vmovapd 28896(%rbx), %xmm2 vmovhpd 11912(%r13,%r12), %xmm2, %xmm2 vmovapd %xmm2, 28064(%rbx) vmovapd 28672(%rbx), %xmm2 vmovhpd 11656(%r13,%r12), %xmm2, %xmm2 vmovapd %ymm2, 28032(%rbx) vmovapd 28736(%rbx), %xmm2 vmovhpd 11952(%r13,%r12), %xmm2, %xmm2 vmovapd %xmm2, 27936(%rbx) vmovapd 27904(%rbx), %xmm2 vmovhpd 11696(%r13,%r12), %xmm2, %xmm2 vmovapd %ymm2, 27904(%rbx) vmovapd 28352(%rbx), %xmm2 vmovhpd 11328(%r13,%r12), %xmm2, %xmm2 vmovapd %xmm2, 28512(%rbx) vmovapd 31808(%rbx), %xmm2 vmovhpd 11072(%r13,%r12), %xmm2, %xmm2 vmovapd %ymm2, 27872(%rbx) vmovapd 28608(%rbx), %xmm2 vmovhpd 11864(%r13,%r12), %xmm2, %xmm2 vmovapd %xmm2, 28608(%rbx) vmovhpd 11608(%r13,%r12), %xmm1, %xmm1 vmovapd %ymm1, 27840(%rbx) vmovhpd 11352(%r13,%r12), %xmm14, %xmm1 vmovapd %xmm1, 28768(%rbx) vmovhpd 11096(%r13,%r12), %xmm0, %xmm0 vmovapd %ymm0, 27808(%rbx) vmovhpd 11936(%r13,%r12), %xmm12, %xmm0 vmovapd %xmm0, 28896(%rbx) vmovapd 28704(%rbx), %xmm0 vmovhpd 11680(%r13,%r12), %xmm0, %xmm0 vmovapd %ymm0, 27776(%rbx) vmovapd 28864(%rbx), %xmm0 vmovhpd 11944(%r13,%r12), %xmm0, %xmm0 vmovapd %xmm0, 28864(%rbx) vmovapd 27744(%rbx), %xmm0 vmovhpd 11688(%r13,%r12), %xmm0, %xmm0 vmovapd %ymm0, 27744(%rbx) vmovapd 27712(%rbx), %xmm0 vmovhpd 11856(%r13,%r12), %xmm0, %xmm0 vmovapd %xmm0, 28640(%rbx) vmovhpd 11600(%r13,%r12), %xmm13, %xmm0 vmovapd %ymm0, 27712(%rbx) vmovhpd 11432(%r13,%r12), %xmm5, %xmm0 vmovapd %xmm0, 28352(%rbx) vmovapd 28160(%rbx), %xmm0 vmovhpd 11176(%r13,%r12), %xmm0, %xmm0 vmovapd %ymm0, 27680(%rbx) vmovapd 28384(%rbx), %xmm0 vmovhpd 11440(%r13,%r12), %xmm0, %xmm0 vmovapd %xmm0, 28672(%rbx) vmovapd 28480(%rbx), %xmm0 vmovhpd 11184(%r13,%r12), %xmm0, %xmm0 vmovapd %ymm0, 27392(%rbx) vmovapd 27360(%rbx), %xmm0 vmovhpd 11344(%r13,%r12), %xmm0, %xmm0 vmovapd %xmm0, 28704(%rbx) vmovapd 27200(%rbx), %xmm0 vmovhpd 11088(%r13,%r12), %xmm0, %xmm0 vmovapd %ymm0, 27360(%rbx) vmovapd 27328(%rbx), %xmm0 vmovhpd 11424(%r13,%r12), %xmm0, %xmm0 vmovapd %xmm0, 28384(%rbx) vmovapd 28576(%rbx), %xmm0 vmovhpd 11168(%r13,%r12), %xmm0, %xmm0 vmovapd %ymm0, 27328(%rbx) vmovapd 28832(%rbx), %xmm0 vmovhpd 11840(%r13,%r12), %xmm0, %xmm0 vmovapd %xmm0, 28576(%rbx) vmovapd 27296(%rbx), %xmm0 vmovhpd 11584(%r13,%r12), %xmm0, %xmm0 vmovapd %ymm0, 27296(%rbx) vmovapd 27264(%rbx), %xmm0 vmovhpd 11872(%r13,%r12), %xmm0, %xmm0 vmovapd %xmm0, 28480(%rbx) vmovhpd 11616(%r13,%r12), %xmm7, %xmm0 vmovapd %ymm0, 27264(%rbx) vmovhpd 11904(%r13,%r12), %xmm15, %xmm0 vmovapd %xmm0, 28160(%rbx) vmovapd 27232(%rbx), %xmm0 vmovhpd 11648(%r13,%r12), %xmm0, %xmm0 vmovapd %ymm0, 27232(%rbx) vmovhpd 11392(%r13,%r12), %xmm6, %xmm0 vmovapd %xmm0, 27200(%rbx) vmovhpd 11136(%r13,%r12), %xmm3, %xmm0 vmovapd %ymm0, 27168(%rbx) vmovapd 27136(%rbx), %xmm0 vmovhpd 11400(%r13,%r12), %xmm0, %xmm0 vmovapd %xmm0, 27136(%rbx) vmovapd 27968(%rbx), %xmm0 vmovhpd 11144(%r13,%r12), %xmm0, %xmm0 vmovapd %ymm0, 27104(%rbx) vmovapd 27072(%rbx), %xmm0 vmovhpd 10328(%r13,%r12), %xmm0, %xmm0 vmovapd %xmm0, 27072(%rbx) vmovapd 27040(%rbx), %xmm0 vmovhpd 10072(%r13,%r12), %xmm0, %xmm0 vmovapd %ymm0, 27040(%rbx) vmovapd 27008(%rbx), %xmm0 vmovhpd 10320(%r13,%r12), %xmm0, %xmm0 vmovapd %xmm0, 27008(%rbx) vmovapd 31904(%rbx), %xmm0 vmovhpd 10064(%r13,%r12), %xmm0, %xmm0 vmovapd %ymm0, 26976(%rbx) vmovapd 26944(%rbx), %xmm0 vmovhpd 10824(%r13,%r12), %xmm0, %xmm0 vmovapd %xmm0, 26944(%rbx) vmovapd 26912(%rbx), %xmm0 vmovhpd 10568(%r13,%r12), %xmm0, %xmm0 vmovapd %ymm0, 26912(%rbx) vmovapd 26880(%rbx), %xmm0 vmovhpd 10832(%r13,%r12), %xmm0, %xmm0 vmovapd %xmm0, 26880(%rbx) vmovapd 26848(%rbx), %xmm0 vmovhpd 10576(%r13,%r12), %xmm0, %xmm0 vmovapd %ymm0, 26848(%rbx) vmovapd 26816(%rbx), %xmm0 vmovhpd 10312(%r13,%r12), %xmm0, %xmm0 vmovapd %xmm0, 26816(%rbx) vmovapd 32128(%rbx), %xmm0 vmovhpd 10056(%r13,%r12), %xmm0, %xmm0 vmovapd %ymm0, 26784(%rbx) vmovapd 26752(%rbx), %xmm0 vmovhpd 10840(%r13,%r12), %xmm0, %xmm0 vmovapd %xmm0, 26752(%rbx) vmovapd 26720(%rbx), %xmm0 vmovhpd 10584(%r13,%r12), %xmm0, %xmm0 vmovapd %ymm0, 26720(%rbx) vmovapd 26656(%rbx), %xmm0 vmovhpd 11416(%r13,%r12), %xmm0, %xmm0 vmovapd %xmm0, 26656(%rbx) vmovapd 26688(%rbx), %xmm0 vmovhpd 11160(%r13,%r12), %xmm0, %xmm0 vmovapd %ymm0, 26688(%rbx) vmovapd 28000(%rbx), %xmm0 vmovhpd 11960(%r13,%r12), %xmm0, %xmm0 vmovapd %xmm0, 26624(%rbx) vmovapd 28544(%rbx), %xmm0 vmovhpd 11704(%r13,%r12), %xmm0, %xmm0 vmovapd %ymm0, 26592(%rbx) vmovapd 28800(%rbx), %xmm0 vmovhpd 11448(%r13,%r12), %xmm0, %xmm0 vmovapd %xmm0, 28800(%rbx) vmovapd 31232(%rbx), %xmm0 vmovhpd 11192(%r13,%r12), %xmm0, %xmm0 vmovapd %ymm0, 26560(%rbx) vmovapd 31776(%rbx), %xmm0 vmovhpd 11928(%r13,%r12), %xmm0, %xmm0 vmovapd %xmm0, 28544(%rbx) vmovhpd 11672(%r13,%r12), %xmm8, %xmm0 vmovapd %ymm0, 26528(%rbx) vmovhpd 11880(%r13,%r12), %xmm11, %xmm0 vmovapd %xmm0, 28736(%rbx) vmovapd 31840(%rbx), %xmm0 vmovhpd 11624(%r13,%r12), %xmm0, %xmm0 vmovapd %ymm0, 26496(%rbx) vmovapd 31872(%rbx), %xmm0 vmovhpd 11896(%r13,%r12), %xmm0, %xmm0 vmovapd %xmm0, 26368(%rbx) vmovhpd 11640(%r13,%r12), %xmm9, %xmm0 vmovapd %ymm0, 26304(%rbx) vmovhpd 11384(%r13,%r12), %xmm10, %xmm0 vmovapd %xmm0, 26240(%rbx) vmovhpd 11128(%r13,%r12), %xmm4, %xmm0 vmovapd %ymm0, 26208(%rbx) vmovapd 26144(%rbx), %xmm0 vmovhpd 11408(%r13,%r12), %xmm0, %xmm0 vmovapd %xmm0, 26144(%rbx) vmovapd 26112(%rbx), %xmm0 vmovhpd 11152(%r13,%r12), %xmm0, %xmm0 vmovapd %ymm0, 26112(%rbx) vmovapd 26176(%rbx), %xmm0 vmovhpd 11368(%r13,%r12), %xmm0, %xmm0 vmovapd %xmm0, 26176(%rbx) vmovapd 26272(%rbx), %xmm0 vmovhpd 11112(%r13,%r12), %xmm0, %xmm0 vmovapd %ymm0, 26272(%rbx) vmovapd 26336(%rbx), %xmm0 vmovhpd 11920(%r13,%r12), %xmm0, %xmm0 vmovapd %xmm0, 28832(%rbx) vmovapd 26400(%rbx), %xmm0 vmovhpd 11664(%r13,%r12), %xmm0, %xmm0 vmovapd %ymm0, 26400(%rbx) vmovapd 26432(%rbx), %xmm0 vmovhpd 11376(%r13,%r12), %xmm0, %xmm14 vmovapd 26464(%rbx), %xmm0 vmovhpd 11120(%r13,%r12), %xmm0, %xmm12 vmovsd 11760(%r13,%r12), %xmm0 vmovhpd 11888(%r13,%r12), %xmm0, %xmm11 vmovsd 11504(%r13,%r12), %xmm0 vmovhpd 11632(%r13,%r12), %xmm0, %xmm9 vmovaps 30912(%rbx), %ymm0 vmovaps .LCPI1_29(%rip), %ymm8 vmovaps %ymm8, %ymm1 callq __ocl_svml_e9_pow4 vmovaps %ymm0, 28000(%rbx) vmovaps 30880(%rbx), %ymm0 vmovaps %ymm8, %ymm1 callq __ocl_svml_e9_pow4 vmovaps %ymm0, 27968(%rbx) vmovapd 28960(%rbx), %ymm1 vinsertf128 $1, 28992(%rbx), %ymm1, %ymm0 vmovapd %ymm0, 31904(%rbx) vmovapd %ymm0, %ymm7 vmovapd 29024(%rbx), %ymm1 vinsertf128 $1, 29056(%rbx), %ymm1, %ymm1 vmovapd %ymm1, 31840(%rbx) vmovapd %ymm1, %ymm2 vmovapd 29088(%rbx), %ymm1 vinsertf128 $1, 29120(%rbx), %ymm1, %ymm0 vmovapd %ymm0, 31872(%rbx) vmovapd %ymm0, %ymm3 vmovapd 29152(%rbx), %ymm1 vinsertf128 $1, 29184(%rbx), %ymm1, %ymm0 vmovapd %ymm0, 31808(%rbx) vmovapd 29216(%rbx), %ymm1 vinsertf128 $1, 29248(%rbx), %ymm1, %ymm1 vmovapd %ymm1, 31776(%rbx) vmovapd %ymm1, %ymm5 vmovapd 29280(%rbx), %ymm1 vinsertf128 $1, 29312(%rbx), %ymm1, %ymm1 vmovapd %ymm1, 32128(%rbx) vmovapd %ymm1, %ymm6 vmovapd 29344(%rbx), %ymm1 vinsertf128 $1, 29376(%rbx), %ymm1, %ymm10 vmovapd %ymm10, 29376(%rbx) vmovapd 29408(%rbx), %ymm1 vinsertf128 $1, 29568(%rbx), %ymm1, %ymm1 vmovapd %ymm1, 29568(%rbx) vmovapd %ymm1, %ymm13 vmovapd 29440(%rbx), %ymm1 vinsertf128 $1, 29472(%rbx), %ymm1, %ymm15 vmovapd %ymm15, 29472(%rbx) vmovapd 29504(%rbx), %ymm1 vinsertf128 $1, 29664(%rbx), %ymm1, %ymm8 vmovapd %ymm8, 29664(%rbx) vmovaps 29536(%rbx), %ymm1 vinsertf128 $1, 29600(%rbx), %ymm1, %ymm1 vmovaps %ymm1, 29600(%rbx) vmovaps 29632(%rbx), %ymm1 vinsertf128 $1, 30240(%rbx), %ymm1, %ymm1 vmovaps %ymm1, 30240(%rbx) vmovaps 29984(%rbx), %ymm1 vinsertf128 $1, 30016(%rbx), %ymm1, %ymm1 vmovaps %ymm1, 31232(%rbx) vmovaps 30048(%rbx), %ymm1 vinsertf128 $1, 30080(%rbx), %ymm1, %ymm1 vmovaps %ymm1, 31744(%rbx) vmulpd 32800(%rbx), %ymm0, %ymm1 vmulpd 32864(%rbx), %ymm3, %ymm4 vaddpd %ymm1, %ymm4, %ymm1 vmulpd 32704(%rbx), %ymm2, %ymm4 vmulpd 32672(%rbx), %ymm7, %ymm2 vaddpd %ymm4, %ymm2, %ymm4 vmulpd 32512(%rbx), %ymm6, %ymm2 vaddpd %ymm2, %ymm4, %ymm0 vmovapd %ymm0, 29536(%rbx) vmulpd 32544(%rbx), %ymm5, %ymm2 vaddpd %ymm2, %ymm1, %ymm0 vmovapd %ymm0, 29504(%rbx) vinsertf128 $1, %xmm11, %ymm9, %ymm3 vmovapd %ymm3, 29056(%rbx) vinsertf128 $1, %xmm14, %ymm12, %ymm2 vmovapd %ymm2, 30048(%rbx) vmovapd 31712(%rbx), %ymm11 vmulpd %ymm2, %ymm11, %ymm1 vmulpd %ymm1, %ymm8, %ymm1 vmulpd %ymm2, %ymm15, %ymm2 vmovapd 31136(%rbx), %ymm5 vmulpd %ymm2, %ymm5, %ymm2 vaddpd %ymm1, %ymm2, %ymm1 vmovapd 31040(%rbx), %ymm14 vmulpd %ymm3, %ymm14, %ymm2 vmulpd %ymm2, %ymm13, %ymm9 vmovapd %ymm10, %ymm8 vmulpd %ymm3, %ymm8, %ymm2 vmovapd 30368(%rbx), %ymm4 vmulpd %ymm2, %ymm4, %ymm2 vaddpd %ymm9, %ymm2, %ymm9 vmovapd 26400(%rbx), %ymm0 vinsertf128 $1, 28832(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 28832(%rbx) vmovapd 26272(%rbx), %ymm2 vinsertf128 $1, 26176(%rbx), %ymm2, %ymm7 vmovapd %ymm7, 29632(%rbx) vmovapd 26112(%rbx), %ymm2 vinsertf128 $1, 26144(%rbx), %ymm2, %ymm12 vmovapd %ymm12, 30080(%rbx) vmovapd 26208(%rbx), %ymm2 vinsertf128 $1, 26240(%rbx), %ymm2, %ymm10 vmovapd %ymm10, 29312(%rbx) vmovapd 26304(%rbx), %ymm2 vinsertf128 $1, 26368(%rbx), %ymm2, %ymm6 vmovapd %ymm6, 28992(%rbx) vmulpd %ymm6, %ymm8, %ymm2 vmovapd 31968(%rbx), %ymm3 vmulpd %ymm2, %ymm3, %ymm2 vaddpd %ymm2, %ymm9, %ymm9 vmulpd %ymm10, %ymm15, %ymm2 vmovapd 31936(%rbx), %ymm13 vmulpd %ymm2, %ymm13, %ymm2 vaddpd %ymm2, %ymm1, %ymm1 vmovapd %ymm1, 30016(%rbx) vmovapd 26496(%rbx), %ymm1 vinsertf128 $1, 28736(%rbx), %ymm1, %ymm3 vmovapd %ymm3, 28736(%rbx) vmulpd %ymm5, %ymm12, %ymm1 vmovapd 29664(%rbx), %ymm5 vmulpd %ymm5, %ymm1, %ymm1 vmulpd %ymm11, %ymm7, %ymm2 vmovapd %ymm11, %ymm12 vmulpd %ymm15, %ymm2, %ymm2 vaddpd %ymm1, %ymm2, %ymm1 vmovapd %ymm1, 29984(%rbx) vmovapd %ymm14, %ymm11 vmulpd %ymm6, %ymm11, %ymm2 vmovapd 29600(%rbx), %ymm15 vmulpd %ymm2, %ymm15, %ymm2 vaddpd %ymm9, %ymm2, %ymm1 vmovapd %ymm1, 29440(%rbx) vmulpd %ymm4, %ymm0, %ymm2 vmovapd 29568(%rbx), %ymm1 vmulpd %ymm1, %ymm2, %ymm9 vmulpd %ymm11, %ymm3, %ymm2 vmulpd %ymm8, %ymm2, %ymm2 vaddpd %ymm9, %ymm2, %ymm9 vmulpd %ymm10, %ymm12, %ymm2 vmovapd 30240(%rbx), %ymm14 vmulpd %ymm2, %ymm14, %ymm2 vaddpd 30016(%rbx), %ymm2, %ymm10 vmovapd 26528(%rbx), %ymm0 vinsertf128 $1, 28544(%rbx), %ymm0, %ymm3 vmovapd %ymm3, 28544(%rbx) vmovapd 26560(%rbx), %ymm0 vinsertf128 $1, 28800(%rbx), %ymm0, %ymm6 vmovapd %ymm6, 28800(%rbx) vmovapd 26592(%rbx), %ymm0 vinsertf128 $1, 26624(%rbx), %ymm0, %ymm7 vmovapd %ymm7, 30016(%rbx) vmovapd 26688(%rbx), %ymm0 vinsertf128 $1, 26656(%rbx), %ymm0, %ymm11 vmovapd %ymm11, 29024(%rbx) vmulpd %ymm11, %ymm5, %ymm2 vmovapd %ymm11, %ymm0 vmulpd %ymm2, %ymm13, %ymm2 vmovapd %ymm13, %ymm12 vaddpd %ymm10, %ymm2, %ymm13 vmulpd %ymm3, %ymm1, %ymm2 vmovapd 31968(%rbx), %ymm11 vmulpd %ymm2, %ymm11, %ymm10 vmulpd %ymm11, %ymm7, %ymm2 vmulpd %ymm15, %ymm2, %ymm2 vmovapd %ymm15, %ymm11 vaddpd %ymm2, %ymm9, %ymm9 vaddpd 29440(%rbx), %ymm10, %ymm8 vmovapd 26720(%rbx), %ymm1 vinsertf128 $1, 26752(%rbx), %ymm1, %ymm7 vmulpd %ymm12, %ymm6, %ymm2 vmulpd %ymm14, %ymm2, %ymm2 vmovapd %ymm14, %ymm5 vmovapd 29984(%rbx), %ymm1 vaddpd %ymm2, %ymm1, %ymm1 vmovaps 26784(%rbx), %ymm2 vinsertf128 $1, 26816(%rbx), %ymm2, %ymm2 vmovaps %ymm2, 31712(%rbx) vmovapd 26848(%rbx), %ymm2 vinsertf128 $1, 26880(%rbx), %ymm2, %ymm12 vmovapd 26912(%rbx), %ymm2 vinsertf128 $1, 26944(%rbx), %ymm2, %ymm10 vmovaps 26976(%rbx), %ymm2 vinsertf128 $1, 27008(%rbx), %ymm2, %ymm2 vmovaps %ymm2, 29440(%rbx) vmovapd 27040(%rbx), %ymm2 vinsertf128 $1, 27072(%rbx), %ymm2, %ymm14 vmovaps 27104(%rbx), %ymm2 vinsertf128 $1, 27136(%rbx), %ymm2, %ymm2 vmovaps %ymm2, 29152(%rbx) vmovaps 27168(%rbx), %ymm2 vinsertf128 $1, 27200(%rbx), %ymm2, %ymm2 vmovaps %ymm2, 29184(%rbx) vmovaps 27232(%rbx), %ymm2 vinsertf128 $1, 28160(%rbx), %ymm2, %ymm2 vmovaps %ymm2, 28160(%rbx) vmovaps 27264(%rbx), %ymm2 vinsertf128 $1, 28480(%rbx), %ymm2, %ymm2 vmovaps %ymm2, 28480(%rbx) vmovaps 27296(%rbx), %ymm2 vinsertf128 $1, 28576(%rbx), %ymm2, %ymm2 vmovaps %ymm2, 28576(%rbx) vmovaps 27328(%rbx), %ymm2 vinsertf128 $1, 28384(%rbx), %ymm2, %ymm2 vmovaps %ymm2, 28384(%rbx) vmovaps 27360(%rbx), %ymm2 vinsertf128 $1, 28704(%rbx), %ymm2, %ymm2 vmovaps %ymm2, 28704(%rbx) vmovaps 27392(%rbx), %ymm2 vinsertf128 $1, 28672(%rbx), %ymm2, %ymm2 vmovaps %ymm2, 28672(%rbx) vmovaps 27680(%rbx), %ymm2 vinsertf128 $1, 28352(%rbx), %ymm2, %ymm2 vmovaps %ymm2, 28352(%rbx) vmovaps 27712(%rbx), %ymm2 vinsertf128 $1, 28640(%rbx), %ymm2, %ymm2 vmovaps %ymm2, 28640(%rbx) vmovaps 27744(%rbx), %ymm2 vinsertf128 $1, 28864(%rbx), %ymm2, %ymm2 vmovaps %ymm2, 28864(%rbx) vmovaps 27776(%rbx), %ymm2 vinsertf128 $1, 28896(%rbx), %ymm2, %ymm2 vmovaps %ymm2, 28896(%rbx) vmovaps 27808(%rbx), %ymm2 vinsertf128 $1, 28768(%rbx), %ymm2, %ymm2 vmovaps %ymm2, 28768(%rbx) vmovaps 27840(%rbx), %ymm2 vinsertf128 $1, 28608(%rbx), %ymm2, %ymm2 vmovaps %ymm2, 28608(%rbx) vmovapd 31136(%rbx), %ymm2 vmulpd %ymm0, %ymm2, %ymm2 vmulpd %ymm2, %ymm5, %ymm2 vaddpd %ymm13, %ymm2, %ymm15 vmovsd 10944(%r13,%r12), %xmm0 vmovaps %xmm0, 31040(%rbx) vmovsd 10952(%r13,%r12), %xmm0 vmovaps %xmm0, 31136(%rbx) vmovaps 27872(%rbx), %ymm0 vinsertf128 $1, 28512(%rbx), %ymm0, %ymm0 vmovaps %ymm0, 28512(%rbx) vmovaps 27904(%rbx), %ymm0 vinsertf128 $1, 27936(%rbx), %ymm0, %ymm0 vmovaps %ymm0, 28960(%rbx) vmulpd %ymm3, %ymm4, %ymm2 vmovapd %ymm11, %ymm0 vmulpd %ymm2, %ymm0, %ymm2 vaddpd %ymm8, %ymm2, %ymm2 vaddpd %ymm2, %ymm9, %ymm2 vdivpd 28928(%rbx), %ymm2, %ymm9 vmulpd %ymm9, %ymm7, %ymm2 vmovapd 28320(%rbx), %ymm5 vmulpd %ymm5, %ymm2, %ymm2 vsubpd %ymm2, %ymm0, %ymm0 vmovapd %ymm0, 27872(%rbx) vmovsd 11216(%r13,%r12), %xmm3 vmovhpd 11344(%r13,%r12), %xmm3, %xmm3 vmovsd 10960(%r13,%r12), %xmm4 vmovhpd 11088(%r13,%r12), %xmm4, %xmm4 vinsertf128 $1, %xmm3, %ymm4, %ymm2 vmovapd %ymm2, 29600(%rbx) vmovsd 11312(%r13,%r12), %xmm3 vmovhpd 11440(%r13,%r12), %xmm3, %xmm3 vmovsd 11056(%r13,%r12), %xmm4 vmovhpd 11184(%r13,%r12), %xmm4, %xmm4 vinsertf128 $1, %xmm3, %ymm4, %ymm2 vmovapd %ymm2, 29280(%rbx) vmovsd 11824(%r13,%r12), %xmm3 vmovhpd 11952(%r13,%r12), %xmm3, %xmm3 vmovsd 11568(%r13,%r12), %xmm4 vmovhpd 11696(%r13,%r12), %xmm4, %xmm4 vinsertf128 $1, %xmm3, %ymm4, %ymm2 vmovapd %ymm2, 29344(%rbx) vmovsd 11736(%r13,%r12), %xmm3 vmovhpd 11864(%r13,%r12), %xmm3, %xmm3 vmovsd 11480(%r13,%r12), %xmm4 vmovhpd 11608(%r13,%r12), %xmm4, %xmm4 vinsertf128 $1, %xmm3, %ymm4, %ymm2 vmovapd %ymm2, 29984(%rbx) vmovsd 11288(%r13,%r12), %xmm3 vmovhpd 11416(%r13,%r12), %xmm3, %xmm3 vmovsd 11032(%r13,%r12), %xmm4 vmovhpd 11160(%r13,%r12), %xmm4, %xmm4 vinsertf128 $1, %xmm3, %ymm4, %ymm2 vmovapd %ymm2, 29248(%rbx) vmovsd 11224(%r13,%r12), %xmm3 vmovhpd 11352(%r13,%r12), %xmm3, %xmm3 vmovsd 10968(%r13,%r12), %xmm4 vmovhpd 11096(%r13,%r12), %xmm4, %xmm4 vinsertf128 $1, %xmm3, %ymm4, %ymm2 vmovapd %ymm2, 29216(%rbx) vmovsd 11256(%r13,%r12), %xmm3 vmovhpd 11384(%r13,%r12), %xmm3, %xmm3 vmovsd 11000(%r13,%r12), %xmm4 vmovhpd 11128(%r13,%r12), %xmm4, %xmm4 vinsertf128 $1, %xmm3, %ymm4, %ymm2 vmovapd %ymm2, 29120(%rbx) vmovsd 11768(%r13,%r12), %xmm3 vmovhpd 11896(%r13,%r12), %xmm3, %xmm3 vmovsd 11512(%r13,%r12), %xmm4 vmovhpd 11640(%r13,%r12), %xmm4, %xmm4 vinsertf128 $1, %xmm3, %ymm4, %ymm0 vmovapd %ymm0, 29088(%rbx) vmovsd 11800(%r13,%r12), %xmm3 vmovhpd 11928(%r13,%r12), %xmm3, %xmm3 vmovsd 11544(%r13,%r12), %xmm4 vmovhpd 11672(%r13,%r12), %xmm4, %xmm4 vinsertf128 $1, %xmm3, %ymm4, %ymm0 vmovapd %ymm0, 28928(%rbx) vmovapd 32640(%rbx), %ymm2 vmovapd .LCPI1_28(%rip), %ymm4 vmulpd %ymm4, %ymm2, %ymm13 vmovapd 32064(%rbx), %ymm2 vmulpd %ymm13, %ymm2, %ymm3 vmovapd 31200(%rbx), %ymm2 vmulpd %ymm13, %ymm2, %ymm8 vmovapd 32032(%rbx), %ymm2 vmulpd %ymm13, %ymm2, %ymm11 vmovapd 32832(%rbx), %ymm2 vmulpd %ymm13, %ymm2, %ymm2 vmovapd 27968(%rbx), %ymm6 vdivpd %ymm6, %ymm2, %ymm0 vmovapd %ymm0, 27264(%rbx) vdivpd %ymm6, %ymm11, %ymm0 vmovapd %ymm0, 27328(%rbx) vdivpd %ymm6, %ymm8, %ymm0 vmovapd %ymm0, 27392(%rbx) vdivpd %ymm6, %ymm3, %ymm0 vmovapd %ymm0, 27232(%rbx) vmovapd 32928(%rbx), %ymm0 vmulpd %ymm4, %ymm0, %ymm8 vmovapd 30784(%rbx), %ymm0 vmulpd %ymm8, %ymm0, %ymm0 vmovapd 30752(%rbx), %ymm2 vmulpd %ymm8, %ymm2, %ymm3 vmovapd 32736(%rbx), %ymm2 vmulpd %ymm8, %ymm2, %ymm11 vmovapd 31648(%rbx), %ymm2 vmulpd %ymm8, %ymm2, %ymm2 vmovapd 28000(%rbx), %ymm4 vdivpd %ymm4, %ymm2, %ymm2 vmovapd %ymm2, 27200(%rbx) vdivpd %ymm4, %ymm11, %ymm2 vmovapd %ymm2, 27168(%rbx) vdivpd %ymm4, %ymm3, %ymm2 vmovapd %ymm2, 27296(%rbx) vdivpd %ymm4, %ymm0, %ymm0 vmovapd %ymm0, 27360(%rbx) vaddpd %ymm15, %ymm1, %ymm0 vdivpd 28416(%rbx), %ymm0, %ymm0 vmovaps 28032(%rbx), %ymm1 vinsertf128 $1, 28064(%rbx), %ymm1, %ymm1 vmovaps %ymm1, 27840(%rbx) vmovaps 28096(%rbx), %ymm1 vinsertf128 $1, 28128(%rbx), %ymm1, %ymm1 vmovaps %ymm1, 27808(%rbx) vmovaps 28192(%rbx), %ymm1 vinsertf128 $1, 28224(%rbx), %ymm1, %ymm1 vmovaps %ymm1, 30368(%rbx) vmovaps 28256(%rbx), %ymm1 vinsertf128 $1, 28288(%rbx), %ymm1, %ymm1 vmovaps %ymm1, 28000(%rbx) vmulpd %ymm9, %ymm10, %ymm1 vmovapd %ymm5, %ymm2 vmulpd %ymm2, %ymm1, %ymm1 vmovapd 29376(%rbx), %ymm3 vsubpd %ymm1, %ymm3, %ymm1 vmovapd %ymm1, 31968(%rbx) vmulpd %ymm9, %ymm12, %ymm1 vmulpd %ymm2, %ymm1, %ymm10 vdivpd %ymm2, %ymm9, %ymm6 vmovapd %ymm6, 31936(%rbx) vmovapd 31712(%rbx), %ymm1 vmulpd %ymm0, %ymm1, %ymm1 vmovapd 28448(%rbx), %ymm3 vmulpd %ymm3, %ymm1, %ymm1 vmovapd 29472(%rbx), %ymm2 vsubpd %ymm1, %ymm2, %ymm12 vmovapd %ymm12, 27680(%rbx) vmulpd %ymm0, %ymm14, %ymm1 vmovapd 29440(%rbx), %ymm2 vmulpd %ymm0, %ymm2, %ymm2 vmulpd %ymm3, %ymm2, %ymm7 vmulpd %ymm3, %ymm1, %ymm1 vdivpd %ymm3, %ymm0, %ymm8 vmovapd %ymm8, 31712(%rbx) vmovsd 11264(%r13,%r12), %xmm0 vmovhpd 11392(%r13,%r12), %xmm0, %xmm0 vmovsd 11008(%r13,%r12), %xmm3 vmovhpd 11136(%r13,%r12), %xmm3, %xmm3 vinsertf128 $1, %xmm0, %ymm3, %ymm15 vmovapd %ymm15, 27104(%rbx) vmovsd 11784(%r13,%r12), %xmm0 vmovhpd 11912(%r13,%r12), %xmm0, %xmm0 vmovsd 11528(%r13,%r12), %xmm3 vmovhpd 11656(%r13,%r12), %xmm3, %xmm3 vinsertf128 $1, %xmm0, %ymm3, %ymm5 vmovapd %ymm5, 27072(%rbx) vmovsd 11776(%r13,%r12), %xmm0 vmovhpd 11904(%r13,%r12), %xmm0, %xmm0 vmovsd 11520(%r13,%r12), %xmm3 vmovhpd 11648(%r13,%r12), %xmm3, %xmm3 vinsertf128 $1, %xmm0, %ymm3, %ymm13 vmovapd %ymm13, 27136(%rbx) vmovsd 11232(%r13,%r12), %xmm0 vmovhpd 11360(%r13,%r12), %xmm0, %xmm0 vmovsd 10976(%r13,%r12), %xmm3 vmovhpd 11104(%r13,%r12), %xmm3, %xmm3 vinsertf128 $1, %xmm0, %ymm3, %ymm0 vmovapd %ymm0, 28416(%rbx) vmovsd 11744(%r13,%r12), %xmm0 vmovhpd 11872(%r13,%r12), %xmm0, %xmm0 vmovsd 11488(%r13,%r12), %xmm3 vmovhpd 11616(%r13,%r12), %xmm3, %xmm3 vinsertf128 $1, %xmm0, %ymm3, %ymm0 vmovapd %ymm0, 28256(%rbx) vmovsd 11272(%r13,%r12), %xmm0 vmovhpd 11400(%r13,%r12), %xmm0, %xmm0 vmovsd 11016(%r13,%r12), %xmm3 vmovhpd 11144(%r13,%r12), %xmm3, %xmm3 vinsertf128 $1, %xmm0, %ymm3, %ymm0 vmovapd %ymm0, 28128(%rbx) vmovsd 11200(%r13,%r12), %xmm0 vmovhpd 11328(%r13,%r12), %xmm0, %xmm0 vmovapd 31040(%rbx), %xmm2 vmovhpd 11072(%r13,%r12), %xmm2, %xmm3 vinsertf128 $1, %xmm0, %ymm3, %ymm0 vmovapd %ymm0, 28448(%rbx) vmovsd 11712(%r13,%r12), %xmm0 vmovhpd 11840(%r13,%r12), %xmm0, %xmm0 vmovsd 11456(%r13,%r12), %xmm3 vmovhpd 11584(%r13,%r12), %xmm3, %xmm3 vinsertf128 $1, %xmm0, %ymm3, %ymm0 vmovapd %ymm0, 28320(%rbx) vmovapd 29568(%rbx), %ymm0 vsubpd %ymm10, %ymm0, %ymm0 vmovapd %ymm0, 27776(%rbx) vmovapd 29664(%rbx), %ymm0 vsubpd %ymm7, %ymm0, %ymm0 vmovapd %ymm0, 27744(%rbx) vmovsd 11208(%r13,%r12), %xmm0 vmovhpd 11336(%r13,%r12), %xmm0, %xmm0 vmovapd 31136(%rbx), %xmm2 vmovhpd 11080(%r13,%r12), %xmm2, %xmm2 vinsertf128 $1, %xmm0, %ymm2, %ymm0 vmovapd %ymm0, 27936(%rbx) vmovsd 11720(%r13,%r12), %xmm0 vmovhpd 11848(%r13,%r12), %xmm0, %xmm0 vmovsd 11464(%r13,%r12), %xmm2 vmovhpd 11592(%r13,%r12), %xmm2, %xmm2 vinsertf128 $1, %xmm0, %ymm2, %ymm7 vmovapd %ymm7, 27008(%rbx) vmovsd 11240(%r13,%r12), %xmm0 vmovhpd 11368(%r13,%r12), %xmm0, %xmm0 vmovsd 10984(%r13,%r12), %xmm2 vmovhpd 11112(%r13,%r12), %xmm2, %xmm2 vinsertf128 $1, %xmm0, %ymm2, %ymm4 vmovapd %ymm4, 26976(%rbx) vmovsd 11752(%r13,%r12), %xmm0 vmovhpd 11880(%r13,%r12), %xmm0, %xmm0 vmovsd 11496(%r13,%r12), %xmm2 vmovhpd 11624(%r13,%r12), %xmm2, %xmm2 vinsertf128 $1, %xmm0, %ymm2, %ymm11 vmovapd %ymm11, 26944(%rbx) vmovsd 11808(%r13,%r12), %xmm0 vmovhpd 11936(%r13,%r12), %xmm0, %xmm0 vmovsd 11552(%r13,%r12), %xmm2 vmovhpd 11680(%r13,%r12), %xmm2, %xmm2 vinsertf128 $1, %xmm0, %ymm2, %ymm0 vmovapd %ymm0, 28288(%rbx) vmovsd 11816(%r13,%r12), %xmm0 vmovhpd 11944(%r13,%r12), %xmm0, %xmm0 vmovsd 11560(%r13,%r12), %xmm2 vmovhpd 11688(%r13,%r12), %xmm2, %xmm2 vinsertf128 $1, %xmm0, %ymm2, %ymm0 vmovapd %ymm0, 28192(%rbx) vmovsd 11296(%r13,%r12), %xmm0 vmovhpd 11424(%r13,%r12), %xmm0, %xmm0 vmovsd 11040(%r13,%r12), %xmm2 vmovhpd 11168(%r13,%r12), %xmm2, %xmm2 vinsertf128 $1, %xmm0, %ymm2, %ymm0 vmovapd %ymm0, 28224(%rbx) vmovsd 11304(%r13,%r12), %xmm0 vmovhpd 11432(%r13,%r12), %xmm0, %xmm0 vmovsd 11048(%r13,%r12), %xmm2 vmovhpd 11176(%r13,%r12), %xmm2, %xmm2 vinsertf128 $1, %xmm0, %ymm2, %ymm0 vmovapd %ymm0, 28096(%rbx) vmovapd 30240(%rbx), %ymm0 vsubpd %ymm1, %ymm0, %ymm0 vmovapd %ymm0, 27712(%rbx) vmovsd 11280(%r13,%r12), %xmm0 vmovhpd 11408(%r13,%r12), %xmm0, %xmm0 vmovsd 11024(%r13,%r12), %xmm1 vmovhpd 11152(%r13,%r12), %xmm1, %xmm1 vinsertf128 $1, %xmm0, %ymm1, %ymm0 vmovapd %ymm0, 28064(%rbx) vmovsd 11760(%r13,%r12), %xmm0 vmovhpd 11888(%r13,%r12), %xmm0, %xmm0 vmovsd 11504(%r13,%r12), %xmm1 vmovhpd 11632(%r13,%r12), %xmm1, %xmm1 vinsertf128 $1, %xmm0, %ymm1, %ymm0 vmovapd %ymm0, 28032(%rbx) vmovsd 11248(%r13,%r12), %xmm0 vmovhpd 11376(%r13,%r12), %xmm0, %xmm0 vmovsd 10992(%r13,%r12), %xmm1 vmovhpd 11120(%r13,%r12), %xmm1, %xmm1 vinsertf128 $1, %xmm0, %ymm1, %ymm0 vmovapd %ymm0, 27968(%rbx) vmovsd 11728(%r13,%r12), %xmm0 vmovhpd 11856(%r13,%r12), %xmm0, %xmm0 vmovsd 11472(%r13,%r12), %xmm1 vmovhpd 11600(%r13,%r12), %xmm1, %xmm1 vinsertf128 $1, %xmm0, %ymm1, %ymm9 vmovapd %ymm9, 27040(%rbx) vmovsd 11792(%r13,%r12), %xmm0 vmovhpd 11920(%r13,%r12), %xmm0, %xmm0 vmovsd 11536(%r13,%r12), %xmm1 vmovhpd 11664(%r13,%r12), %xmm1, %xmm1 vinsertf128 $1, %xmm0, %ymm1, %ymm0 vmovapd %ymm0, 27904(%rbx) vmovapd 29184(%rbx), %ymm0 vmulpd %ymm8, %ymm0, %ymm0 vmovapd 29152(%rbx), %ymm1 vmulpd %ymm12, %ymm1, %ymm1 vaddpd %ymm1, %ymm0, %ymm10 vmovapd 28480(%rbx), %ymm0 vmulpd %ymm6, %ymm0, %ymm0 vmovapd 28736(%rbx), %ymm1 vmovapd 31968(%rbx), %ymm3 vmulpd %ymm3, %ymm1, %ymm1 vaddpd %ymm1, %ymm0, %ymm2 vmovapd 27808(%rbx), %ymm0 vmulpd %ymm8, %ymm0, %ymm0 vmovapd 29632(%rbx), %ymm1 vmulpd %ymm12, %ymm1, %ymm1 vaddpd %ymm1, %ymm0, %ymm12 vmovapd 28160(%rbx), %ymm0 vmulpd %ymm6, %ymm0, %ymm0 vmovapd 27840(%rbx), %ymm1 vmulpd %ymm3, %ymm1, %ymm1 vaddpd %ymm1, %ymm0, %ymm0 vmovapd %ymm0, 31040(%rbx) vmovapd 32160(%rbx), %ymm8 vmulpd %ymm8, %ymm13, %ymm0 vxorpd %ymm6, %ymm6, %ymm6 vaddpd %ymm6, %ymm0, %ymm0 vmovapd 30336(%rbx), %ymm13 vmulpd %ymm13, %ymm5, %ymm1 vaddpd %ymm1, %ymm0, %ymm0 vmovapd %ymm0, 31136(%rbx) vmovapd 32192(%rbx), %ymm5 vmulpd %ymm5, %ymm15, %ymm0 vaddpd %ymm6, %ymm0, %ymm0 vmovapd 30272(%rbx), %ymm15 vmovapd 28128(%rbx), %ymm1 vmulpd %ymm15, %ymm1, %ymm3 vaddpd %ymm3, %ymm0, %ymm0 vmovapd %ymm0, 30240(%rbx) vmovapd 28256(%rbx), %ymm0 vmulpd %ymm8, %ymm0, %ymm0 vaddpd %ymm6, %ymm0, %ymm0 vmulpd %ymm13, %ymm11, %ymm3 vaddpd %ymm3, %ymm0, %ymm0 vmovapd %ymm0, 29664(%rbx) vmovapd 28416(%rbx), %ymm0 vmulpd %ymm5, %ymm0, %ymm0 vaddpd %ymm6, %ymm0, %ymm0 vmulpd %ymm15, %ymm4, %ymm3 vaddpd %ymm3, %ymm0, %ymm4 vmovapd 28320(%rbx), %ymm0 vmulpd %ymm8, %ymm0, %ymm0 vaddpd %ymm6, %ymm0, %ymm0 vmulpd %ymm13, %ymm7, %ymm3 vmovapd %ymm13, %ymm1 vaddpd %ymm3, %ymm0, %ymm14 vmovapd 28448(%rbx), %ymm0 vmulpd %ymm5, %ymm0, %ymm0 vaddpd %ymm6, %ymm0, %ymm0 vxorpd %ymm7, %ymm7, %ymm7 vmovapd 27936(%rbx), %ymm3 vmulpd %ymm15, %ymm3, %ymm3 vaddpd %ymm3, %ymm0, %ymm0 vmovapd 30048(%rbx), %ymm3 vmovapd 27744(%rbx), %ymm11 vmulpd %ymm11, %ymm3, %ymm3 vaddpd %ymm3, %ymm12, %ymm6 vmovapd 29056(%rbx), %ymm3 vmovapd 27776(%rbx), %ymm12 vmulpd %ymm12, %ymm3, %ymm3 vaddpd %ymm3, %ymm2, %ymm13 vmovapd 30080(%rbx), %ymm2 vmulpd %ymm11, %ymm2, %ymm2 vaddpd %ymm2, %ymm10, %ymm11 vmovapd 28096(%rbx), %ymm2 vmulpd %ymm15, %ymm2, %ymm2 vmovapd 28224(%rbx), %ymm3 vmulpd %ymm5, %ymm3, %ymm3 vaddpd %ymm7, %ymm3, %ymm3 vaddpd %ymm2, %ymm3, %ymm2 vmovapd %ymm2, 29440(%rbx) vmovapd 28192(%rbx), %ymm3 vmulpd %ymm1, %ymm3, %ymm3 vmovapd 28288(%rbx), %ymm1 vmulpd %ymm8, %ymm1, %ymm10 vaddpd %ymm7, %ymm10, %ymm10 vaddpd %ymm3, %ymm10, %ymm3 vmovapd 28832(%rbx), %ymm1 vmulpd %ymm12, %ymm1, %ymm10 vmovapd 31040(%rbx), %ymm1 vaddpd %ymm10, %ymm1, %ymm1 vmovapd %ymm1, 29568(%rbx) vmovapd 28992(%rbx), %ymm1 vmovapd 27872(%rbx), %ymm10 vmulpd %ymm10, %ymm1, %ymm7 vaddpd %ymm7, %ymm13, %ymm13 vmovapd %ymm13, 31040(%rbx) vmovapd 29312(%rbx), %ymm1 vmovapd 27712(%rbx), %ymm2 vmulpd %ymm2, %ymm1, %ymm7 vaddpd %ymm7, %ymm6, %ymm8 vmovapd %ymm8, 30272(%rbx) vmovapd 27456(%rbx), %ymm1 vmovapd 29600(%rbx), %ymm5 vmulpd %ymm1, %ymm5, %ymm6 vaddpd %ymm6, %ymm0, %ymm0 vmovapd %ymm0, 30336(%rbx) vmovapd 27424(%rbx), %ymm5 vmulpd %ymm5, %ymm9, %ymm0 vaddpd %ymm0, %ymm14, %ymm0 vmovapd %ymm0, 29472(%rbx) vmovapd 27968(%rbx), %ymm0 vmulpd %ymm1, %ymm0, %ymm0 vaddpd %ymm0, %ymm4, %ymm0 vmovapd %ymm0, 26880(%rbx) vmovapd 28032(%rbx), %ymm0 vmulpd %ymm5, %ymm0, %ymm0 vmovapd 29664(%rbx), %ymm4 vaddpd %ymm0, %ymm4, %ymm0 vmovapd %ymm0, 26848(%rbx) vmovapd 28064(%rbx), %ymm0 vmulpd %ymm1, %ymm0, %ymm0 vmovapd %ymm1, %ymm15 vmovapd 30240(%rbx), %ymm1 vaddpd %ymm0, %ymm1, %ymm0 vmovapd 27904(%rbx), %ymm1 vmulpd %ymm5, %ymm1, %ymm4 vmovapd %ymm5, %ymm7 vmovapd 31136(%rbx), %ymm1 vaddpd %ymm4, %ymm1, %ymm6 vmovapd 29024(%rbx), %ymm1 vmulpd %ymm2, %ymm1, %ymm1 vmovapd %ymm2, %ymm9 vaddpd %ymm1, %ymm11, %ymm5 vmovapd %ymm5, 30240(%rbx) vmovapd 28576(%rbx), %ymm1 vmovapd 31936(%rbx), %ymm14 vmulpd %ymm14, %ymm1, %ymm1 vmovapd 28000(%rbx), %ymm4 vmulpd 31968(%rbx), %ymm4, %ymm4 vaddpd %ymm4, %ymm1, %ymm1 vmovapd %ymm1, 26912(%rbx) vmovapd 28512(%rbx), %ymm4 vmovapd 31712(%rbx), %ymm12 vmulpd %ymm12, %ymm4, %ymm4 vmovapd 30368(%rbx), %ymm11 vmovapd 27680(%rbx), %ymm1 vmulpd %ymm1, %ymm11, %ymm11 vaddpd %ymm11, %ymm4, %ymm4 vmovapd 29344(%rbx), %ymm11 vmulpd %ymm7, %ymm11, %ymm11 vaddpd %ymm11, %ymm3, %ymm3 vmovapd %ymm3, 29376(%rbx) vmovapd 29280(%rbx), %ymm3 vmulpd %ymm15, %ymm3, %ymm3 vmovapd 29440(%rbx), %ymm2 vaddpd %ymm3, %ymm2, %ymm2 vmovapd %ymm2, 29408(%rbx) vmovapd 30304(%rbx), %ymm2 vmulpd %ymm8, %ymm2, %ymm2 vmovapd 29504(%rbx), %ymm3 vaddpd %ymm2, %ymm3, %ymm2 vmovapd 30112(%rbx), %ymm3 vmulpd %ymm13, %ymm3, %ymm3 vmovapd 29536(%rbx), %ymm7 vaddpd %ymm3, %ymm7, %ymm3 vmovapd %ymm3, 29664(%rbx) vmovapd 28544(%rbx), %ymm3 vmulpd %ymm10, %ymm3, %ymm3 vmovapd 29568(%rbx), %ymm7 vaddpd %ymm3, %ymm7, %ymm15 vmovapd %ymm15, 30304(%rbx) vmovapd 30816(%rbx), %ymm8 vmovapd 28928(%rbx), %ymm3 vmulpd %ymm8, %ymm3, %ymm3 vaddpd %ymm3, %ymm6, %ymm3 vmovapd %ymm3, 30112(%rbx) vmovapd 30848(%rbx), %ymm6 vmovapd 29248(%rbx), %ymm3 vmulpd %ymm6, %ymm3, %ymm3 vaddpd %ymm3, %ymm0, %ymm0 vmovapd %ymm0, 29536(%rbx) vmovapd 29088(%rbx), %ymm0 vmulpd %ymm8, %ymm0, %ymm0 vmovapd 26848(%rbx), %ymm3 vaddpd %ymm0, %ymm3, %ymm0 vmovapd %ymm0, 29568(%rbx) vmovapd 29120(%rbx), %ymm0 vmulpd %ymm6, %ymm0, %ymm0 vmovapd 26880(%rbx), %ymm3 vaddpd %ymm0, %ymm3, %ymm0 vmovapd %ymm0, 29504(%rbx) vmovapd 29984(%rbx), %ymm0 vmulpd %ymm8, %ymm0, %ymm0 vmovapd 29472(%rbx), %ymm3 vaddpd %ymm0, %ymm3, %ymm0 vmovapd %ymm0, 29472(%rbx) vmovapd 29216(%rbx), %ymm0 vmulpd %ymm6, %ymm0, %ymm0 vmovapd 30336(%rbx), %ymm3 vaddpd %ymm0, %ymm3, %ymm0 vmovapd %ymm0, 29440(%rbx) vmovapd 30144(%rbx), %ymm0 vmulpd %ymm5, %ymm0, %ymm0 vaddpd %ymm0, %ymm2, %ymm0 vmovapd 28384(%rbx), %ymm2 vmovapd %ymm12, %ymm6 vmulpd %ymm6, %ymm2, %ymm2 vmovapd 28352(%rbx), %ymm3 vmulpd %ymm1, %ymm3, %ymm3 vaddpd %ymm3, %ymm2, %ymm2 vmovapd 28672(%rbx), %ymm3 vmovapd 27744(%rbx), %ymm1 vmulpd %ymm1, %ymm3, %ymm3 vaddpd %ymm3, %ymm2, %ymm2 vmovapd 28800(%rbx), %ymm3 vmulpd %ymm9, %ymm3, %ymm3 vaddpd %ymm3, %ymm2, %ymm3 vmovapd %ymm3, 30336(%rbx) vmovapd 30176(%rbx), %ymm2 vmulpd %ymm3, %ymm2, %ymm2 vaddpd %ymm2, %ymm0, %ymm7 vmovapd %ymm7, 31136(%rbx) vmovapd 28704(%rbx), %ymm0 vmulpd %ymm1, %ymm0, %ymm0 vmovapd %ymm1, %ymm9 vaddpd %ymm0, %ymm4, %ymm0 vmovapd %ymm0, 27456(%rbx) vmovapd 28640(%rbx), %ymm0 vmovapd 27776(%rbx), %ymm11 vmulpd %ymm11, %ymm0, %ymm0 vmovapd 26912(%rbx), %ymm1 vaddpd %ymm0, %ymm1, %ymm10 vmovapd %ymm14, %ymm2 vmulpd 27520(%rbx), %ymm2, %ymm0 vmulpd 27584(%rbx), %ymm2, %ymm1 vmulpd 27648(%rbx), %ymm2, %ymm3 vmovapd %ymm2, %ymm5 vmovapd 32896(%rbx), %ymm4 vmulpd %ymm4, %ymm4, %ymm2 vdivpd %ymm2, %ymm3, %ymm13 vdivpd %ymm2, %ymm1, %ymm1 vmovapd %ymm1, 27648(%rbx) vdivpd %ymm2, %ymm0, %ymm0 vmovapd %ymm0, 30176(%rbx) vmovapd %ymm6, %ymm1 vmulpd 27488(%rbx), %ymm1, %ymm0 vmulpd 27616(%rbx), %ymm1, %ymm2 vmulpd 27552(%rbx), %ymm1, %ymm6 vmovapd 32576(%rbx), %ymm8 vmulpd %ymm8, %ymm8, %ymm3 vdivpd %ymm3, %ymm6, %ymm1 vmovapd %ymm1, 27584(%rbx) vdivpd %ymm3, %ymm2, %ymm1 vmovapd %ymm1, 27616(%rbx) vdivpd %ymm3, %ymm0, %ymm0 vmovapd %ymm0, 30144(%rbx) vmovapd 30400(%rbx), %ymm0 vmulpd %ymm15, %ymm0, %ymm0 vmovapd 29664(%rbx), %ymm1 vaddpd %ymm0, %ymm1, %ymm0 vmovapd 28896(%rbx), %ymm2 vmulpd %ymm5, %ymm2, %ymm2 vmovapd 28864(%rbx), %ymm3 vmovapd 31968(%rbx), %ymm1 vmulpd %ymm1, %ymm3, %ymm3 vaddpd %ymm3, %ymm2, %ymm2 vmovapd 28960(%rbx), %ymm3 vmulpd %ymm11, %ymm3, %ymm3 vmovapd %ymm11, %ymm12 vaddpd %ymm3, %ymm2, %ymm2 vmovapd 30016(%rbx), %ymm3 vmovapd 27872(%rbx), %ymm11 vmulpd %ymm11, %ymm3, %ymm3 vaddpd %ymm3, %ymm2, %ymm3 vmovapd %ymm3, 30400(%rbx) vmovapd 30656(%rbx), %ymm2 vmulpd %ymm3, %ymm2, %ymm2 vaddpd %ymm2, %ymm0, %ymm15 vmovapd %ymm15, 29664(%rbx) vmovapd 32832(%rbx), %ymm6 vmulpd %ymm1, %ymm6, %ymm0 vmovapd 31904(%rbx), %ymm2 vaddpd %ymm0, %ymm2, %ymm0 vmulpd 32000(%rbx), %ymm15, %ymm2 vaddpd %ymm0, %ymm2, %ymm3 vmovapd 32736(%rbx), %ymm5 vmulpd %ymm9, %ymm5, %ymm0 vmovapd 31808(%rbx), %ymm2 vaddpd %ymm0, %ymm2, %ymm0 vmovapd 31296(%rbx), %ymm2 vmulpd %ymm7, %ymm2, %ymm2 vaddpd %ymm2, %ymm0, %ymm0 vmulpd 27680(%rbx), %ymm5, %ymm2 vmovapd %ymm5, %ymm9 vmovapd 31872(%rbx), %ymm5 vaddpd %ymm2, %ymm5, %ymm2 vmulpd 31264(%rbx), %ymm7, %ymm5 vmovapd %ymm7, %ymm1 vaddpd %ymm2, %ymm5, %ymm2 vmulpd %ymm12, %ymm6, %ymm5 vmovapd %ymm6, %ymm12 vmovapd 31840(%rbx), %ymm6 vaddpd %ymm5, %ymm6, %ymm5 vmovapd 30688(%rbx), %ymm6 vmulpd %ymm15, %ymm6, %ymm6 vaddpd %ymm6, %ymm5, %ymm6 vmovapd 28608(%rbx), %ymm5 vmulpd %ymm11, %ymm5, %ymm5 vmovapd %ymm11, %ymm7 vaddpd %ymm5, %ymm10, %ymm5 vmovapd %ymm5, 31264(%rbx) vmovapd 28768(%rbx), %ymm5 vmovapd 27712(%rbx), %ymm14 vmulpd %ymm14, %ymm5, %ymm5 vmovapd 27456(%rbx), %ymm10 vaddpd %ymm5, %ymm10, %ymm5 vmovapd %ymm5, 30656(%rbx) vdivpd %ymm4, %ymm3, %ymm3 vsubpd %ymm13, %ymm3, %ymm5 vmovapd 28480(%rbx), %ymm3 vmulpd %ymm15, %ymm3, %ymm3 vmovapd 28736(%rbx), %ymm10 vmulpd %ymm5, %ymm10, %ymm10 vaddpd %ymm10, %ymm3, %ymm3 vmovapd %ymm3, 32000(%rbx) vmovapd 28160(%rbx), %ymm10 vmulpd %ymm15, %ymm10, %ymm10 vmovapd 27840(%rbx), %ymm11 vmulpd %ymm5, %ymm11, %ymm11 vaddpd %ymm11, %ymm10, %ymm3 vmovapd %ymm3, 31968(%rbx) vmovapd %ymm8, %ymm13 vdivpd %ymm13, %ymm0, %ymm0 vsubpd 27584(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 28480(%rbx) vmulpd %ymm7, %ymm12, %ymm11 vmovapd 32128(%rbx), %ymm8 vaddpd %ymm11, %ymm8, %ymm11 vmovapd 31328(%rbx), %ymm8 vmulpd %ymm15, %ymm8, %ymm12 vaddpd %ymm12, %ymm11, %ymm10 vmulpd %ymm14, %ymm9, %ymm8 vmovapd 31776(%rbx), %ymm12 vaddpd %ymm8, %ymm12, %ymm8 vmovapd 31616(%rbx), %ymm12 vmulpd %ymm1, %ymm12, %ymm12 vaddpd %ymm12, %ymm8, %ymm12 vdivpd %ymm4, %ymm6, %ymm6 vsubpd 27648(%rbx), %ymm6, %ymm3 vmovapd %ymm3, 28736(%rbx) vdivpd %ymm13, %ymm2, %ymm2 vmovapd %ymm13, %ymm14 vsubpd 27616(%rbx), %ymm2, %ymm6 vmovapd 28576(%rbx), %ymm2 vmulpd %ymm15, %ymm2, %ymm2 vmovapd 28000(%rbx), %ymm8 vmulpd %ymm5, %ymm8, %ymm8 vaddpd %ymm8, %ymm2, %ymm2 vmovapd 28384(%rbx), %ymm7 vmulpd %ymm1, %ymm7, %ymm8 vmovapd 28352(%rbx), %ymm7 vmulpd %ymm6, %ymm7, %ymm9 vaddpd %ymm9, %ymm8, %ymm13 vmovapd 28832(%rbx), %ymm8 vmulpd %ymm3, %ymm8, %ymm8 vmovapd 31968(%rbx), %ymm1 vaddpd %ymm8, %ymm1, %ymm8 vmovapd 29056(%rbx), %ymm9 vmulpd %ymm3, %ymm9, %ymm9 vmovapd %ymm3, %ymm1 vmovapd 32000(%rbx), %ymm3 vaddpd %ymm9, %ymm3, %ymm9 vdivpd %ymm14, %ymm12, %ymm3 vsubpd 30144(%rbx), %ymm3, %ymm3 vdivpd %ymm4, %ymm10, %ymm7 vsubpd 30176(%rbx), %ymm7, %ymm4 vmovapd 28672(%rbx), %ymm7 vmulpd %ymm0, %ymm7, %ymm7 vaddpd %ymm7, %ymm13, %ymm7 vmovapd 28640(%rbx), %ymm10 vmulpd %ymm1, %ymm10, %ymm10 vaddpd %ymm10, %ymm2, %ymm2 vmovapd 28512(%rbx), %ymm10 vmulpd 31136(%rbx), %ymm10, %ymm10 vmovapd 30368(%rbx), %ymm11 vmulpd %ymm6, %ymm11, %ymm11 vaddpd %ymm11, %ymm10, %ymm10 vmovapd 28704(%rbx), %ymm11 vmulpd %ymm0, %ymm11, %ymm11 vaddpd %ymm11, %ymm10, %ymm0 vmovapd %ymm0, 30688(%rbx) vmovapd 28608(%rbx), %ymm10 vmulpd %ymm4, %ymm10, %ymm10 vaddpd %ymm10, %ymm2, %ymm0 vmovapd %ymm0, 30368(%rbx) vmovapd 28992(%rbx), %ymm2 vmulpd %ymm4, %ymm2, %ymm10 vaddpd %ymm10, %ymm9, %ymm0 vmovapd %ymm0, 31968(%rbx) vmovapd 28544(%rbx), %ymm9 vmulpd %ymm4, %ymm9, %ymm9 vaddpd %ymm9, %ymm8, %ymm0 vmovapd %ymm0, 32000(%rbx) vmovapd 28800(%rbx), %ymm8 vmulpd %ymm3, %ymm8, %ymm8 vaddpd %ymm8, %ymm7, %ymm7 vmovapd %ymm7, 31616(%rbx) vmovapd 31232(%rbx), %ymm10 vmovapd 32832(%rbx), %ymm2 vmulpd %ymm2, %ymm10, %ymm7 vmovapd 30208(%rbx), %ymm11 vdivpd %ymm11, %ymm7, %ymm8 vmovapd 32064(%rbx), %ymm12 vmulpd %ymm12, %ymm10, %ymm7 vdivpd %ymm11, %ymm7, %ymm9 vmulpd 31200(%rbx), %ymm10, %ymm7 vdivpd %ymm11, %ymm7, %ymm0 vmovapd %ymm0, 31328(%rbx) vmulpd 32032(%rbx), %ymm10, %ymm10 vdivpd %ymm11, %ymm10, %ymm0 vmovapd %ymm0, 31296(%rbx) vmovapd 32640(%rbx), %ymm7 vdivpd %ymm11, %ymm7, %ymm14 vmulpd %ymm5, %ymm14, %ymm10 vaddpd %ymm10, %ymm9, %ymm7 vmovapd %ymm7, 30144(%rbx) vmulpd %ymm15, %ymm14, %ymm9 vaddpd %ymm9, %ymm8, %ymm0 vmovapd %ymm0, 29056(%rbx) vmovapd 31744(%rbx), %ymm10 vmovapd 32736(%rbx), %ymm0 vmulpd %ymm0, %ymm10, %ymm8 vmovapd 30720(%rbx), %ymm7 vdivpd %ymm7, %ymm8, %ymm8 vmovapd 31648(%rbx), %ymm13 vmulpd %ymm13, %ymm10, %ymm9 vdivpd %ymm7, %ymm9, %ymm11 vmulpd 30784(%rbx), %ymm10, %ymm9 vdivpd %ymm7, %ymm9, %ymm1 vmovapd %ymm1, 28800(%rbx) vmulpd 30752(%rbx), %ymm10, %ymm9 vdivpd %ymm7, %ymm9, %ymm1 vmovapd %ymm1, 28704(%rbx) vmovapd 32928(%rbx), %ymm9 vdivpd %ymm7, %ymm9, %ymm9 vmulpd %ymm6, %ymm9, %ymm7 vaddpd %ymm7, %ymm11, %ymm7 vmovapd %ymm7, 28992(%rbx) vmovapd 31136(%rbx), %ymm1 vmulpd %ymm1, %ymm9, %ymm7 vaddpd %ymm7, %ymm8, %ymm7 vmovapd %ymm7, 28832(%rbx) vmulpd 31008(%rbx), %ymm15, %ymm7 vmovapd %ymm7, 30176(%rbx) vmulpd 31968(%rbx), %ymm12, %ymm8 vmulpd 30368(%rbx), %ymm2, %ymm2 vmovapd %ymm2, 30720(%rbx) vaddpd %ymm7, %ymm2, %ymm2 vaddpd %ymm8, %ymm2, %ymm2 vmovapd 28768(%rbx), %ymm7 vmulpd %ymm3, %ymm7, %ymm7 vmovapd 30688(%rbx), %ymm8 vaddpd %ymm7, %ymm8, %ymm8 vmovapd 27808(%rbx), %ymm7 vmulpd %ymm1, %ymm7, %ymm12 vmovapd 29632(%rbx), %ymm7 vmulpd %ymm6, %ymm7, %ymm7 vaddpd %ymm7, %ymm12, %ymm12 vmovapd 30048(%rbx), %ymm7 vmovapd 28480(%rbx), %ymm10 vmulpd %ymm10, %ymm7, %ymm7 vaddpd %ymm7, %ymm12, %ymm12 vmovapd 29312(%rbx), %ymm7 vmulpd %ymm3, %ymm7, %ymm7 vaddpd %ymm7, %ymm12, %ymm7 vmovapd %ymm7, 30208(%rbx) vmulpd 31168(%rbx), %ymm1, %ymm11 vmovapd %ymm11, 30368(%rbx) vmulpd %ymm7, %ymm13, %ymm12 vmulpd %ymm8, %ymm0, %ymm7 vmovapd %ymm7, 30688(%rbx) vaddpd %ymm11, %ymm7, %ymm7 vaddpd %ymm12, %ymm7, %ymm8 vmovapd 28864(%rbx), %ymm7 vmulpd %ymm5, %ymm7, %ymm12 vmulpd 32224(%rbx), %ymm5, %ymm5 vaddpd %ymm5, %ymm2, %ymm5 vmovapd 28896(%rbx), %ymm2 vmulpd %ymm15, %ymm2, %ymm2 vaddpd %ymm12, %ymm2, %ymm2 vmovapd %ymm10, %ymm0 vmulpd %ymm0, %ymm9, %ymm7 vmovapd 28704(%rbx), %ymm10 vaddpd %ymm7, %ymm10, %ymm12 vmovapd 28736(%rbx), %ymm11 vmulpd %ymm11, %ymm14, %ymm7 vmovapd 31296(%rbx), %ymm10 vaddpd %ymm7, %ymm10, %ymm13 vmulpd %ymm4, %ymm14, %ymm7 vmovapd 31328(%rbx), %ymm10 vaddpd %ymm7, %ymm10, %ymm7 vmovapd %ymm7, 31328(%rbx) vmulpd %ymm3, %ymm9, %ymm7 vmovapd 28800(%rbx), %ymm9 vaddpd %ymm7, %ymm9, %ymm7 vmovapd %ymm7, 31296(%rbx) vmovapd 32032(%rbx), %ymm9 vmulpd 32000(%rbx), %ymm9, %ymm9 vaddpd %ymm9, %ymm5, %ymm9 vmovapd 29152(%rbx), %ymm5 vmulpd %ymm6, %ymm5, %ymm10 vmulpd 32352(%rbx), %ymm6, %ymm5 vaddpd %ymm5, %ymm8, %ymm5 vmovapd 29184(%rbx), %ymm6 vmulpd %ymm1, %ymm6, %ymm6 vaddpd %ymm10, %ymm6, %ymm6 vmovapd 30080(%rbx), %ymm8 vmulpd %ymm0, %ymm8, %ymm8 vaddpd %ymm8, %ymm6, %ymm6 vmovapd 29024(%rbx), %ymm8 vmulpd %ymm3, %ymm8, %ymm8 vaddpd %ymm8, %ymm6, %ymm6 vmovapd %ymm6, 31648(%rbx) vmovapd 30752(%rbx), %ymm1 vmulpd %ymm6, %ymm1, %ymm6 vaddpd %ymm6, %ymm5, %ymm5 vmovapd 28960(%rbx), %ymm6 vmovapd %ymm11, %ymm1 vmulpd %ymm1, %ymm6, %ymm6 vaddpd %ymm6, %ymm2, %ymm2 vmulpd 32416(%rbx), %ymm0, %ymm0 vaddpd %ymm0, %ymm5, %ymm0 vmulpd 32320(%rbx), %ymm1, %ymm1 vaddpd %ymm1, %ymm9, %ymm1 vmovapd 30016(%rbx), %ymm5 vmulpd %ymm4, %ymm5, %ymm5 vaddpd %ymm5, %ymm2, %ymm5 vmovapd %ymm5, 31168(%rbx) vmovapd 31200(%rbx), %ymm2 vmulpd %ymm5, %ymm2, %ymm2 vaddpd %ymm2, %ymm1, %ymm1 vmulpd 32288(%rbx), %ymm4, %ymm2 vaddpd %ymm2, %ymm1, %ymm6 vmovapd %ymm6, 30016(%rbx) vmovapd 30784(%rbx), %ymm1 vmulpd 31616(%rbx), %ymm1, %ymm1 vaddpd %ymm1, %ymm0, %ymm0 vmulpd 32256(%rbx), %ymm3, %ymm1 vaddpd %ymm1, %ymm0, %ymm7 vmovapd %ymm7, 30048(%rbx) vmulpd 27168(%rbx), %ymm7, %ymm0 vmovapd 28832(%rbx), %ymm1 vsubpd %ymm0, %ymm1, %ymm14 vmovapd %ymm14, 32064(%rbx) vmulpd 27200(%rbx), %ymm7, %ymm0 vmovapd 28992(%rbx), %ymm1 vsubpd %ymm0, %ymm1, %ymm3 vmulpd 27264(%rbx), %ymm6, %ymm0 vmovapd 29056(%rbx), %ymm1 vsubpd %ymm0, %ymm1, %ymm15 vmovapd %ymm15, 32032(%rbx) vmulpd 27232(%rbx), %ymm6, %ymm0 vmovapd 30144(%rbx), %ymm1 vsubpd %ymm0, %ymm1, %ymm9 vmovapd 26944(%rbx), %ymm0 vmulpd %ymm9, %ymm0, %ymm0 vmovapd 28256(%rbx), %ymm1 vmulpd %ymm15, %ymm1, %ymm1 vxorpd %ymm5, %ymm5, %ymm5 vaddpd %ymm5, %ymm1, %ymm1 vaddpd %ymm0, %ymm1, %ymm0 vmovapd %ymm0, 31200(%rbx) vmovapd 26976(%rbx), %ymm0 vmulpd %ymm3, %ymm0, %ymm1 vmovapd 28416(%rbx), %ymm0 vmulpd %ymm14, %ymm0, %ymm2 vaddpd %ymm5, %ymm2, %ymm2 vaddpd %ymm1, %ymm2, %ymm0 vmovapd %ymm0, 31008(%rbx) vmovapd 27008(%rbx), %ymm0 vmulpd %ymm9, %ymm0, %ymm1 vmovapd 28320(%rbx), %ymm0 vmulpd %ymm15, %ymm0, %ymm4 vaddpd %ymm5, %ymm4, %ymm4 vaddpd %ymm1, %ymm4, %ymm0 vmovapd 27936(%rbx), %ymm1 vmulpd %ymm3, %ymm1, %ymm1 vmovapd 28448(%rbx), %ymm4 vmulpd %ymm14, %ymm4, %ymm4 vaddpd %ymm5, %ymm4, %ymm4 vxorpd %ymm2, %ymm2, %ymm2 vaddpd %ymm1, %ymm4, %ymm8 vmulpd 27328(%rbx), %ymm6, %ymm1 vsubpd %ymm1, %ymm13, %ymm4 vmulpd 27296(%rbx), %ymm7, %ymm1 vsubpd %ymm1, %ymm12, %ymm11 vmovapd 27072(%rbx), %ymm1 vmulpd %ymm9, %ymm1, %ymm1 vmovapd 28192(%rbx), %ymm5 vmulpd %ymm9, %ymm5, %ymm5 vmovapd 27136(%rbx), %ymm9 vmulpd %ymm15, %ymm9, %ymm9 vaddpd %ymm2, %ymm9, %ymm9 vaddpd %ymm1, %ymm9, %ymm9 vmovapd 28128(%rbx), %ymm1 vmulpd %ymm3, %ymm1, %ymm1 vmovapd 27104(%rbx), %ymm10 vmulpd %ymm14, %ymm10, %ymm10 vaddpd %ymm2, %ymm10, %ymm10 vaddpd %ymm1, %ymm10, %ymm12 vmovapd 28288(%rbx), %ymm1 vmulpd %ymm15, %ymm1, %ymm1 vaddpd %ymm2, %ymm1, %ymm1 vaddpd %ymm5, %ymm1, %ymm10 vmovapd 28096(%rbx), %ymm1 vmulpd %ymm3, %ymm1, %ymm13 vmovapd 28224(%rbx), %ymm1 vmulpd %ymm14, %ymm1, %ymm1 vaddpd %ymm2, %ymm1, %ymm14 vmovapd 28064(%rbx), %ymm1 vmulpd %ymm11, %ymm1, %ymm5 vmovapd 27968(%rbx), %ymm1 vmulpd %ymm11, %ymm1, %ymm15 vmovapd 29600(%rbx), %ymm1 vmulpd %ymm11, %ymm1, %ymm1 vmovapd 29280(%rbx), %ymm3 vmulpd %ymm11, %ymm3, %ymm11 vaddpd %ymm1, %ymm8, %ymm1 vmovapd %ymm1, 30080(%rbx) vmovapd 27040(%rbx), %ymm1 vmulpd %ymm4, %ymm1, %ymm1 vaddpd %ymm1, %ymm0, %ymm3 vmovapd 31008(%rbx), %ymm0 vaddpd %ymm15, %ymm0, %ymm2 vmovapd 28032(%rbx), %ymm0 vmulpd %ymm4, %ymm0, %ymm1 vmovapd 31200(%rbx), %ymm0 vaddpd %ymm1, %ymm0, %ymm0 vaddpd %ymm5, %ymm12, %ymm8 vmovapd 27904(%rbx), %ymm1 vmulpd %ymm4, %ymm1, %ymm1 vaddpd %ymm1, %ymm9, %ymm5 vaddpd %ymm13, %ymm14, %ymm9 vmulpd 27360(%rbx), %ymm7, %ymm1 vmovapd 31296(%rbx), %ymm7 vsubpd %ymm1, %ymm7, %ymm12 vmovapd %ymm12, 29632(%rbx) vmulpd 27392(%rbx), %ymm6, %ymm1 vmovapd 31328(%rbx), %ymm6 vsubpd %ymm1, %ymm6, %ymm6 vmovapd %ymm6, 29280(%rbx) vmovapd 29344(%rbx), %ymm1 vmulpd %ymm4, %ymm1, %ymm1 vaddpd %ymm1, %ymm10, %ymm1 vmovapd %ymm1, 29600(%rbx) vaddpd %ymm11, %ymm9, %ymm1 vmovapd %ymm1, 29312(%rbx) vmovapd 28928(%rbx), %ymm1 vmulpd %ymm6, %ymm1, %ymm1 vaddpd %ymm1, %ymm5, %ymm1 vmovapd %ymm1, 31328(%rbx) vmovapd 30464(%rbx), %xmm5 vmovapd 29248(%rbx), %ymm1 vmulpd %ymm12, %ymm1, %ymm1 vaddpd %ymm1, %ymm8, %ymm1 vmovapd %ymm1, 30752(%rbx) vmovapd 30432(%rbx), %xmm7 vmovapd 29088(%rbx), %ymm1 vmulpd %ymm6, %ymm1, %ymm1 vaddpd %ymm1, %ymm0, %ymm0 vmovapd %ymm0, 31296(%rbx) vmovapd 30496(%rbx), %xmm1 vmovapd 29120(%rbx), %ymm0 vmulpd %ymm12, %ymm0, %ymm0 vaddpd %ymm0, %ymm2, %ymm0 vmovapd %ymm0, 30144(%rbx) vmovapd 30592(%rbx), %xmm2 vmovapd 29984(%rbx), %ymm0 vmulpd %ymm6, %ymm0, %ymm0 vaddpd %ymm0, %ymm3, %ymm0 vmovapd %ymm0, 30784(%rbx) vmovapd 30560(%rbx), %xmm6 vmovapd 29216(%rbx), %ymm0 vmulpd %ymm12, %ymm0, %ymm0 vmovapd 30080(%rbx), %ymm3 vaddpd %ymm0, %ymm3, %ymm0 vmovapd %ymm0, 30080(%rbx) vmovapd 30624(%rbx), %xmm0 vmovapd 30528(%rbx), %xmm4 vmovsd 11960(%r13,%r12), %xmm10 vmovsd 11832(%r13,%r12), %xmm11 vmovsd 11704(%r13,%r12), %xmm3 vmovsd 11576(%r13,%r12), %xmm14 vmovsd 11448(%r13,%r12), %xmm9 vmovsd 11320(%r13,%r12), %xmm12 vmovsd 11192(%r13,%r12), %xmm13 vmovsd 11064(%r13,%r12), %xmm15 jmp .LBB1_1983 .LBB1_462: vmovapd %ymm2, 31744(%rbx) vmovapd %ymm4, 32128(%rbx) vmovsd 11536(%r11,%r13), %xmm2 .LBB1_464: vmovapd %xmm2, 32800(%rbx) vmovsd 11152(%r11,%r13), %xmm0 movb 484(%r11,%r13), %r10b jne .LBB1_465 vxorpd %xmm2, %xmm2, %xmm2 jmp .LBB1_467 .LBB1_465: vmovsd 11544(%r11,%r13), %xmm2 .LBB1_467: vmovapd %xmm2, 32704(%rbx) movb %r10b, %cl andb $1, %cl jne .LBB1_469 vxorps %xmm0, %xmm0, %xmm0 .LBB1_469: vmovaps %xmm0, 31328(%rbx) vmovsd 11672(%r11,%r13), %xmm3 movb 500(%r11,%r13), %r9b movb 492(%r11,%r13), %dl movb %dl, %cl andb $1, %cl jne .LBB1_470 vxorpd %xmm2, %xmm2, %xmm2 jmp .LBB1_472 .LBB1_470: vmovsd 11376(%r11,%r13), %xmm2 .LBB1_472: vmovapd %xmm2, 32736(%rbx) movb %r9b, %cl andb $1, %cl jne .LBB1_474 vxorps %xmm3, %xmm3, %xmm3 .LBB1_474: vmovaps %xmm3, 32672(%rbx) movq %r11, %rax movb 508(%rax,%r13), %r11b movb %r11b, %cl andb $1, %cl jne .LBB1_475 vxorps %xmm0, %xmm0, %xmm0 jmp .LBB1_477 .LBB1_475: vmovsd 11880(%rax,%r13), %xmm0 .LBB1_477: vmovaps %xmm0, 32480(%rbx) movb 488(%rax,%r13), %r8b movb %r8b, %cl andb $1, %cl jne .LBB1_478 vxorpd %xmm2, %xmm2, %xmm2 jmp .LBB1_480 .LBB1_478: vmovsd 11256(%rax,%r13), %xmm2 .LBB1_480: vmovapd %xmm2, 32512(%rbx) vmovsd 11216(%rax,%r13), %xmm3 jne .LBB1_481 vxorpd %xmm2, %xmm2, %xmm2 jmp .LBB1_483 .LBB1_481: vmovsd 11248(%rax,%r13), %xmm2 .LBB1_483: vmovapd %xmm2, 32576(%rbx) jne .LBB1_485 vxorps %xmm3, %xmm3, %xmm3 .LBB1_485: vmovaps %xmm3, 32544(%rbx) jne .LBB1_486 vxorps %xmm0, %xmm0, %xmm0 jmp .LBB1_488 .LBB1_486: vmovsd 11280(%rax,%r13), %xmm0 .LBB1_488: vmovaps %xmm0, 30880(%rbx) movb %r9b, %cl andb $1, %cl jne .LBB1_489 vxorps %xmm0, %xmm0, %xmm0 jmp .LBB1_491 .LBB1_489: vmovsd 11624(%rax,%r13), %xmm0 .LBB1_491: vmovaps %xmm0, 30720(%rbx) movb %r14b, %cl andb $1, %cl jne .LBB1_492 vxorps %xmm0, %xmm0, %xmm0 jmp .LBB1_494 .LBB1_492: vmovsd 11472(%rax,%r13), %xmm0 .LBB1_494: vmovaps %xmm0, 32000(%rbx) jne .LBB1_495 vxorps %xmm0, %xmm0, %xmm0 jmp .LBB1_497 .LBB1_495: vmovsd 11496(%rax,%r13), %xmm0 .LBB1_497: vmovaps %xmm0, 30048(%rbx) movb %r9b, %cl andb $1, %cl jne .LBB1_498 vxorpd %xmm2, %xmm2, %xmm2 jmp .LBB1_500 .LBB1_498: vmovsd 11664(%rax,%r13), %xmm2 .LBB1_500: vmovapd %xmm2, 32416(%rbx) movb %r11b, %cl andb $1, %cl vmovsd 11896(%rax,%r13), %xmm4 vmovsd 11920(%rax,%r13), %xmm3 jne .LBB1_501 vxorpd %xmm2, %xmm2, %xmm2 jmp .LBB1_503 .LBB1_501: vmovsd 11912(%rax,%r13), %xmm2 .LBB1_503: vmovapd %xmm2, 32320(%rbx) jne .LBB1_505 vxorps %xmm3, %xmm3, %xmm3 .LBB1_505: vmovaps %xmm3, 32352(%rbx) jne .LBB1_507 vxorps %xmm4, %xmm4, %xmm4 .LBB1_507: vmovaps %xmm4, 32288(%rbx) jne .LBB1_508 vxorps %xmm0, %xmm0, %xmm0 jmp .LBB1_510 .LBB1_508: vmovsd 11856(%rax,%r13), %xmm0 .LBB1_510: vmovaps %xmm0, 30144(%rbx) jne .LBB1_511 vxorpd %xmm2, %xmm2, %xmm2 movq %rax, %rsi jmp .LBB1_513 .LBB1_511: movq %rax, %rsi vmovsd 11928(%rsi,%r13), %xmm2 .LBB1_513: vmovapd %xmm2, 30656(%rbx) movb 504(%rsi,%r13), %al movb %al, %cl andb $1, %cl jne .LBB1_514 vxorpd %xmm2, %xmm2, %xmm2 jmp .LBB1_516 .LBB1_514: vmovsd 11736(%rsi,%r13), %xmm2 .LBB1_516: vmovapd %xmm2, 32256(%rbx) jne .LBB1_517 vxorpd %xmm2, %xmm2, %xmm2 movq %rsi, %rcx jmp .LBB1_519 .LBB1_517: movq %rsi, %rcx vmovsd 11784(%rcx,%r13), %xmm2 .LBB1_519: vmovapd %xmm2, 32224(%rbx) andb $1, %r11b vmovsd 11864(%rcx,%r13), %xmm2 jne .LBB1_520 movq %rcx, %rsi vxorps %xmm3, %xmm3, %xmm3 jmp .LBB1_522 .LBB1_520: vmovsd 11888(%rcx,%r13), %xmm3 movq %rcx, %rsi .LBB1_522: vmovaps %xmm3, 32160(%rbx) jne .LBB1_524 vxorps %xmm2, %xmm2, %xmm2 .LBB1_524: vmovaps %xmm2, 32192(%rbx) movb %dl, %cl andb $1, %cl jne .LBB1_525 vxorps %xmm2, %xmm2, %xmm2 jmp .LBB1_527 .LBB1_525: vmovsd 11400(%rsi,%r13), %xmm2 .LBB1_527: vmovaps %xmm2, 31968(%rbx) movb %r8b, %cl andb $1, %cl jne .LBB1_528 vxorps %xmm2, %xmm2, %xmm2 jmp .LBB1_530 .LBB1_528: vmovsd 11272(%rsi,%r13), %xmm2 .LBB1_530: vmovaps %xmm2, 31680(%rbx) movb %r14b, %cl andb $1, %cl jne .LBB1_531 vxorps %xmm2, %xmm2, %xmm2 jmp .LBB1_533 .LBB1_531: vmovsd 11504(%rsi,%r13), %xmm2 .LBB1_533: vmovaps %xmm2, 31648(%rbx) movb %dl, %cl andb $1, %cl jne .LBB1_534 vxorps %xmm0, %xmm0, %xmm0 jmp .LBB1_536 .LBB1_534: vmovsd 11416(%rsi,%r13), %xmm0 .LBB1_536: vmovaps %xmm0, 30016(%rbx) movb %al, %cl andb $1, %cl jne .LBB1_537 vxorps %xmm2, %xmm2, %xmm2 jmp .LBB1_539 .LBB1_537: vmovsd 11768(%rsi,%r13), %xmm2 .LBB1_539: vmovaps %xmm2, 31616(%rbx) movb %dl, %cl andb $1, %cl jne .LBB1_540 vxorps %xmm2, %xmm2, %xmm2 jmp .LBB1_542 .LBB1_540: vmovsd 11384(%rsi,%r13), %xmm2 .LBB1_542: vmovaps %xmm2, 31296(%rbx) movb %al, %cl andb $1, %cl jne .LBB1_543 vxorps %xmm2, %xmm2, %xmm2 jmp .LBB1_545 .LBB1_543: vmovsd 11792(%rsi,%r13), %xmm2 .LBB1_545: vmovaps %xmm2, 31072(%rbx) movb %r10b, %cl andb $1, %cl jne .LBB1_546 vxorps %xmm2, %xmm2, %xmm2 jmp .LBB1_548 .LBB1_546: vmovsd 11144(%rsi,%r13), %xmm2 .LBB1_548: vmovaps %xmm2, 31104(%rbx) vmovsd 11160(%rsi,%r13), %xmm3 jne .LBB1_549 movq %rsi, %rcx vxorps %xmm2, %xmm2, %xmm2 jmp .LBB1_551 .LBB1_549: vmovsd 11096(%rsi,%r13), %xmm2 movq %rsi, %rcx .LBB1_551: vmovaps %xmm2, 30976(%rbx) jne .LBB1_553 vxorps %xmm3, %xmm3, %xmm3 .LBB1_553: vmovaps %xmm3, 30912(%rbx) andb $1, %al jne .LBB1_554 vxorps %xmm0, %xmm0, %xmm0 jmp .LBB1_556 .LBB1_554: vmovsd 11800(%rcx,%r13), %xmm0 .LBB1_556: vmovaps %xmm0, 29984(%rbx) vmovsd 11752(%rcx,%r13), %xmm0 jne .LBB1_557 movq %rcx, %rsi vxorps %xmm2, %xmm2, %xmm2 jmp .LBB1_559 .LBB1_557: vmovsd 11760(%rcx,%r13), %xmm2 movq %rcx, %rsi .LBB1_559: vmovaps %xmm2, 30944(%rbx) jne .LBB1_561 vxorps %xmm0, %xmm0, %xmm0 .LBB1_561: vmovaps %xmm0, 29504(%rbx) jne .LBB1_562 vxorps %xmm0, %xmm0, %xmm0 jmp .LBB1_564 .LBB1_562: vmovsd 11728(%rsi,%r13), %xmm0 .LBB1_564: vmovaps %xmm0, 29440(%rbx) movb %r14b, %cl andb $1, %cl jne .LBB1_565 vxorps %xmm2, %xmm2, %xmm2 jmp .LBB1_567 .LBB1_565: vmovsd 11480(%rsi,%r13), %xmm2 .LBB1_567: vmovaps %xmm2, 30848(%rbx) andb $1, %r9b vmovsd 11608(%rsi,%r13), %xmm2 vmovaps %xmm2, 32896(%rbx) vmovsd 11656(%rsi,%r13), %xmm2 vmovsd 11600(%rsi,%r13), %xmm0 vmovsd 11640(%rsi,%r13), %xmm4 jne .LBB1_568 movq %rsi, %rcx vxorps %xmm3, %xmm3, %xmm3 jmp .LBB1_570 .LBB1_568: vmovsd 11632(%rsi,%r13), %xmm3 movq %rsi, %rcx .LBB1_570: vmovaps %xmm3, 30784(%rbx) jne .LBB1_572 vxorps %xmm4, %xmm4, %xmm4 .LBB1_572: vmovaps %xmm4, 30688(%rbx) jne .LBB1_574 vxorps %xmm0, %xmm0, %xmm0 .LBB1_574: vmovaps %xmm0, 29408(%rbx) jne .LBB1_576 vxorps %xmm2, %xmm2, %xmm2 .LBB1_576: jne .LBB1_578 vxorps %xmm3, %xmm3, %xmm3 vmovaps %xmm3, 32896(%rbx) .LBB1_578: vmovaps %xmm2, 30816(%rbx) andb $1, %dl vmovsd 11408(%rcx,%r13), %xmm0 jne .LBB1_579 vxorps %xmm2, %xmm2, %xmm2 jmp .LBB1_581 .LBB1_579: vmovsd 11352(%rcx,%r13), %xmm2 .LBB1_581: vmovaps %xmm2, 30752(%rbx) vmovsd 11368(%rcx,%r13), %xmm2 jne .LBB1_583 vxorps %xmm0, %xmm0, %xmm0 .LBB1_583: vmovaps %xmm0, 29376(%rbx) jne .LBB1_585 vxorps %xmm2, %xmm2, %xmm2 .LBB1_585: vmovaps %xmm2, 29152(%rbx) jne .LBB1_586 vxorps %xmm2, %xmm2, %xmm2 jmp .LBB1_588 .LBB1_586: vmovsd 11344(%rcx,%r13), %xmm2 .LBB1_588: vmovaps %xmm2, 30112(%rbx) andb $1, %r8b vmovsd 11240(%rcx,%r13), %xmm9 vmovsd 11224(%rcx,%r13), %xmm2 jne .LBB1_589 vxorpd %xmm5, %xmm5, %xmm5 jmp .LBB1_591 .LBB1_589: vmovsd 11288(%rcx,%r13), %xmm5 .LBB1_591: vmovapd %xmm5, %xmm12 jne .LBB1_593 vxorps %xmm2, %xmm2, %xmm2 .LBB1_593: vmovaps %xmm2, 30176(%rbx) jne .LBB1_595 vxorpd %xmm9, %xmm9, %xmm9 .LBB1_595: vmovapd %xmm9, %xmm0 andb $1, %r10b jne .LBB1_596 vxorps %xmm2, %xmm2, %xmm2 jmp .LBB1_598 .LBB1_596: vmovsd 11120(%rcx,%r13), %xmm2 .LBB1_598: vmovaps %xmm2, 30080(%rbx) vmovsd 11112(%rcx,%r13), %xmm8 vmovsd 11088(%rcx,%r13), %xmm2 jne .LBB1_599 vxorpd %xmm14, %xmm14, %xmm14 jmp .LBB1_601 .LBB1_599: vmovsd 11128(%rcx,%r13), %xmm14 .LBB1_601: jne .LBB1_603 vxorps %xmm2, %xmm2, %xmm2 .LBB1_603: vmovaps %xmm2, 29280(%rbx) jne .LBB1_605 vxorpd %xmm8, %xmm8, %xmm8 .LBB1_605: andb $1, %r14b vmovsd 11592(%rcx,%r13), %xmm4 vmovsd 11080(%rcx,%r13), %xmm5 vmovsd 11336(%rcx,%r13), %xmm13 vmovsd 11208(%rcx,%r13), %xmm2 movl 480(%rcx,%r13), %edi vmovsd 11512(%rcx,%r13), %xmm6 jne .LBB1_606 vxorps %xmm3, %xmm3, %xmm3 jmp .LBB1_608 .LBB1_606: vmovsd 11528(%rcx,%r13), %xmm3 .LBB1_608: vmovaps %xmm3, 29472(%rbx) vmovapd %ymm1, 31808(%rbx) jne .LBB1_610 vxorps %xmm6, %xmm6, %xmm6 .LBB1_610: vmovaps %xmm6, 29312(%rbx) movl %edi, %esi andl $1, %esi testb %r8b, %r8b vmovsd 11848(%rcx,%r13), %xmm1 vmovapd %xmm1, 32864(%rbx) vmovsd 11720(%rcx,%r13), %xmm9 vmovsd 11464(%rcx,%r13), %xmm3 jne .LBB1_612 vxorpd %xmm2, %xmm2, %xmm2 .LBB1_612: testb %dl, %dl jne .LBB1_614 vxorpd %xmm13, %xmm13, %xmm13 .LBB1_614: testb %r10b, %r10b jne .LBB1_616 vxorpd %xmm5, %xmm5, %xmm5 .LBB1_616: testb %r9b, %r9b jne .LBB1_618 vxorps %xmm4, %xmm4, %xmm4 .LBB1_618: testb %r14b, %r14b jne .LBB1_620 vxorpd %xmm3, %xmm3, %xmm3 .LBB1_620: vmovaps %xmm4, 29344(%rbx) testb %al, %al jne .LBB1_622 vxorpd %xmm9, %xmm9, %xmm9 .LBB1_622: vmovapd %xmm3, 29248(%rbx) testb %r11b, %r11b movabsq $-9223372036854775808, %rax jne .LBB1_624 vxorpd %xmm3, %xmm3, %xmm3 vmovapd %xmm3, 32864(%rbx) .LBB1_624: vmovapd %ymm10, 31840(%rbx) testb %sil, %sil jne .LBB1_625 vxorpd %xmm1, %xmm1, %xmm1 jmp .LBB1_627 .LBB1_625: vmovsd 11032(%rcx,%r13), %xmm1 .LBB1_627: jne .LBB1_628 vxorpd %xmm11, %xmm11, %xmm11 jmp .LBB1_630 .LBB1_628: vmovsd 10960(%rcx,%r13), %xmm11 .LBB1_630: jne .LBB1_631 vxorpd %xmm3, %xmm3, %xmm3 jmp .LBB1_633 .LBB1_631: vmovsd 11024(%rcx,%r13), %xmm3 .LBB1_633: jne .LBB1_634 vxorpd %xmm15, %xmm15, %xmm15 jmp .LBB1_636 .LBB1_634: vmovsd 10952(%rcx,%r13), %xmm15 .LBB1_636: jne .LBB1_637 vxorpd %xmm7, %xmm7, %xmm7 jmp .LBB1_639 .LBB1_637: vmovsd 10984(%rcx,%r13), %xmm7 .LBB1_639: jne .LBB1_640 vxorpd %xmm10, %xmm10, %xmm10 jmp .LBB1_642 .LBB1_640: vmovsd 11000(%rcx,%r13), %xmm10 .LBB1_642: jne .LBB1_643 vxorps %xmm6, %xmm6, %xmm6 jmp .LBB1_645 .LBB1_643: vmovsd 11016(%rcx,%r13), %xmm6 .LBB1_645: vmovaps %xmm6, 29216(%rbx) jne .LBB1_646 vxorps %xmm6, %xmm6, %xmm6 jmp .LBB1_648 .LBB1_646: vmovsd 10992(%rcx,%r13), %xmm6 .LBB1_648: vmovaps %xmm6, 29184(%rbx) jne .LBB1_649 vxorps %xmm6, %xmm6, %xmm6 jmp .LBB1_651 .LBB1_649: vmovsd 10968(%rcx,%r13), %xmm6 .LBB1_651: vmovaps %xmm6, 32832(%rbx) andl $1, %edi vmovapd 30048(%rbx), %xmm6 vunpcklpd 30720(%rbx), %xmm6, %xmm4 vmovapd %ymm4, 29120(%rbx) vunpcklpd 29152(%rbx), %xmm0, %xmm4 vunpcklpd 30016(%rbx), %xmm12, %xmm0 vmovapd %xmm0, 30720(%rbx) vunpcklpd %xmm13, %xmm2, %xmm0 vmovapd %xmm0, 30048(%rbx) vmovapd 30880(%rbx), %xmm2 vunpcklpd 29376(%rbx), %xmm2, %xmm0 vmovapd %xmm0, 30880(%rbx) vmovapd 29984(%rbx), %xmm0 vunpcklpd 30656(%rbx), %xmm0, %xmm0 vmovapd %xmm0, 30656(%rbx) vunpcklpd %xmm14, %xmm10, %xmm10 vmovapd 29440(%rbx), %xmm0 vunpcklpd 30144(%rbx), %xmm0, %xmm14 vmovapd 32000(%rbx), %xmm0 vunpcklpd 29408(%rbx), %xmm0, %xmm6 vmovapd 29504(%rbx), %xmm0 vunpcklpd 32480(%rbx), %xmm0, %xmm0 vunpcklpd %xmm8, %xmm7, %xmm8 vunpcklpd %xmm5, %xmm15, %xmm2 vmovapd %ymm2, 30144(%rbx) vunpcklpd 31328(%rbx), %xmm3, %xmm13 vmovapd 32704(%rbx), %xmm2 vunpcklpd 32672(%rbx), %xmm2, %xmm3 vmovapd 32512(%rbx), %xmm2 vunpcklpd 31296(%rbx), %xmm2, %xmm7 vmovapd 32800(%rbx), %xmm2 vunpcklpd 32416(%rbx), %xmm2, %xmm2 vmovapd %ymm2, 32704(%rbx) vunpcklpd 29280(%rbx), %xmm11, %xmm2 vmovapd %ymm2, 30016(%rbx) vunpcklpd 30912(%rbx), %xmm1, %xmm12 vunpcklpd 32864(%rbx), %xmm9, %xmm1 vmovapd %xmm1, 32000(%rbx) vmovapd 29248(%rbx), %xmm1 vunpcklpd 29344(%rbx), %xmm1, %xmm1 vmovapd %ymm1, 31296(%rbx) vmovapd 31616(%rbx), %xmm1 vunpcklpd 32288(%rbx), %xmm1, %xmm1 vmovapd %xmm1, 32288(%rbx) vmovapd 29312(%rbx), %xmm1 vunpcklpd 30688(%rbx), %xmm1, %xmm15 vmovapd 31072(%rbx), %xmm1 vunpcklpd 32352(%rbx), %xmm1, %xmm2 vmovapd 32544(%rbx), %xmm1 vunpcklpd 30112(%rbx), %xmm1, %xmm1 vinsertf128 $1, %xmm4, %ymm8, %ymm4 vmovapd %ymm4, 32512(%rbx) vmovapd 29120(%rbx), %ymm5 vinsertf128 $1, %xmm0, %ymm5, %ymm0 vmovapd %ymm0, 32480(%rbx) vmovapd %ymm0, %ymm11 vinsertf128 $1, %xmm14, %ymm6, %ymm0 vmovapd %ymm0, 32672(%rbx) vmovapd %ymm0, %ymm9 vinsertf128 $1, %xmm7, %ymm10, %ymm0 vmovapd %ymm0, 32800(%rbx) vmovapd %ymm0, %ymm7 vinsertf128 $1, 30656(%rbx), %ymm3, %ymm10 vmovapd %ymm10, 32352(%rbx) vinsertf128 $1, 30880(%rbx), %ymm13, %ymm0 vmovapd %ymm0, 32864(%rbx) vmovapd %ymm0, %ymm5 vmovapd 30144(%rbx), %ymm0 vinsertf128 $1, 30048(%rbx), %ymm0, %ymm13 vmovapd %ymm13, 31328(%rbx) vinsertf128 $1, 30720(%rbx), %ymm12, %ymm14 vmovapd %ymm14, 32416(%rbx) vmovapd 30016(%rbx), %ymm0 vinsertf128 $1, %xmm1, %ymm0, %ymm6 vmovapd %ymm6, 30880(%rbx) vmovapd 32704(%rbx), %ymm0 vinsertf128 $1, %xmm2, %ymm0, %ymm12 vmovapd %ymm12, 32704(%rbx) vinsertf128 $1, 32288(%rbx), %ymm15, %ymm3 vmovapd %ymm3, 31616(%rbx) vmovapd 31296(%rbx), %ymm0 vinsertf128 $1, 32000(%rbx), %ymm0, %ymm15 vmovapd %ymm15, 31296(%rbx) vmovapd 29216(%rbx), %xmm0 vunpcklpd 31104(%rbx), %xmm0, %xmm0 vmovapd %ymm0, 32544(%rbx) vmovapd 30848(%rbx), %xmm0 vunpcklpd 32896(%rbx), %xmm0, %xmm0 vmovapd %ymm0, 32288(%rbx) vmovapd 31648(%rbx), %xmm0 vunpcklpd 30784(%rbx), %xmm0, %xmm0 vmovapd %ymm0, 32000(%rbx) vmovapd 29472(%rbx), %xmm0 vunpcklpd 30816(%rbx), %xmm0, %xmm8 vmovapd 32576(%rbx), %xmm0 vunpcklpd 32736(%rbx), %xmm0, %xmm0 vmovapd %xmm0, 32896(%rbx) vmovapd 29184(%rbx), %xmm0 vunpcklpd 30080(%rbx), %xmm0, %xmm0 vmovapd %ymm0, 31648(%rbx) vmovapd 31680(%rbx), %xmm0 vunpcklpd 31968(%rbx), %xmm0, %xmm0 vmovapd %xmm0, 31968(%rbx) vmovapd 32256(%rbx), %xmm0 vunpcklpd 32192(%rbx), %xmm0, %xmm0 vmovapd %xmm0, 32256(%rbx) vmovapd 30944(%rbx), %xmm0 vunpcklpd 32160(%rbx), %xmm0, %xmm0 vmovapd 32224(%rbx), %xmm1 vunpcklpd 32320(%rbx), %xmm1, %xmm1 vmulpd %ymm11, %ymm9, %ymm2 vmulpd %ymm10, %ymm2, %ymm2 vmulpd %ymm3, %ymm15, %ymm9 vmovapd %ymm9, 31072(%rbx) vmulpd %ymm12, %ymm9, %ymm9 vaddpd %ymm2, %ymm9, %ymm2 vmovapd %ymm2, 32736(%rbx) vmulpd %ymm4, %ymm6, %ymm9 vmulpd %ymm14, %ymm9, %ymm9 vmulpd %ymm7, %ymm13, %ymm12 vmovapd %ymm7, %ymm4 vmovapd %ymm12, 31104(%rbx) vmulpd %ymm5, %ymm12, %ymm12 vaddpd %ymm9, %ymm12, %ymm9 vinsertf128 $1, %xmm1, %ymm8, %ymm8 vmovapd %ymm8, 32576(%rbx) vmovapd 32000(%rbx), %ymm1 vinsertf128 $1, %xmm0, %ymm1, %ymm2 vmovapd %ymm2, 30848(%rbx) vmovapd 32288(%rbx), %ymm0 vinsertf128 $1, 32256(%rbx), %ymm0, %ymm12 vmovapd %ymm12, 32000(%rbx) vmovapd 32544(%rbx), %ymm0 vinsertf128 $1, 31968(%rbx), %ymm0, %ymm5 vmovapd %ymm5, 32544(%rbx) vmovapd 31648(%rbx), %ymm0 vinsertf128 $1, 32896(%rbx), %ymm0, %ymm11 vmovapd %ymm11, 30816(%rbx) vmovapd 30176(%rbx), %xmm0 vunpcklpd 30752(%rbx), %xmm0, %xmm0 vmovapd 32832(%rbx), %xmm1 vunpcklpd 30976(%rbx), %xmm1, %xmm1 vinsertf128 $1, %xmm0, %ymm1, %ymm7 vmovapd %ymm7, 31968(%rbx) vmulpd %ymm11, %ymm7, %ymm0 vmovapd %ymm0, 30912(%rbx) vmulpd %ymm5, %ymm0, %ymm0 vaddpd %ymm0, %ymm9, %ymm0 vmulpd %ymm2, %ymm12, %ymm1 vmovapd %ymm1, 32320(%rbx) vmulpd %ymm8, %ymm1, %ymm1 vmovapd 32736(%rbx), %ymm9 vaddpd %ymm1, %ymm9, %ymm1 vmulpd %ymm2, %ymm15, %ymm2 vmulpd %ymm2, %ymm10, %ymm2 vsubpd %ymm2, %ymm1, %ymm1 vmulpd 32672(%rbx), %ymm3, %ymm2 vmovapd %ymm2, 32256(%rbx) vmulpd %ymm8, %ymm2, %ymm2 vmulpd %ymm11, %ymm13, %ymm3 vmulpd %ymm3, %ymm14, %ymm3 vsubpd %ymm3, %ymm0, %ymm0 vmulpd %ymm6, %ymm4, %ymm3 vmovapd %ymm3, 32288(%rbx) vmulpd %ymm5, %ymm3, %ymm3 vsubpd %ymm3, %ymm0, %ymm0 vmovapd 32512(%rbx), %ymm3 vmulpd %ymm7, %ymm3, %ymm3 vmovapd %ymm3, 30944(%rbx) vmovapd 32864(%rbx), %ymm4 vmulpd %ymm3, %ymm4, %ymm3 vsubpd %ymm3, %ymm0, %ymm0 vmovapd 32480(%rbx), %ymm3 vmulpd %ymm12, %ymm3, %ymm3 vmulpd .LCPI1_22(%rip), %ymm0, %ymm0 je .LBB1_653 vmovlpd %xmm0, 9944(%rcx,%r13) .LBB1_653: vsubpd %ymm2, %ymm1, %ymm1 vmovapd 32704(%rbx), %ymm2 vmulpd %ymm3, %ymm2, %ymm2 vmovapd %ymm3, 30976(%rbx) testb $1, 484(%rcx,%r13) je .LBB1_655 vunpckhpd %xmm0, %xmm0, %xmm3 vmovsd %xmm3, 10072(%rcx,%r13) .LBB1_655: vsubpd %ymm2, %ymm1, %ymm2 vextractf128 $1, %ymm0, %xmm1 testb $1, 488(%rcx,%r13) je .LBB1_657 vmovsd %xmm1, 10200(%rcx,%r13) .LBB1_657: vmulpd .LCPI1_22(%rip), %ymm2, %ymm0 testb $1, 492(%rcx,%r13) je .LBB1_659 vunpckhpd %xmm1, %xmm1, %xmm1 vmovsd %xmm1, 10328(%rcx,%r13) .LBB1_659: testb $1, 496(%rcx,%r13) je .LBB1_661 vmovsd %xmm0, 10456(%rcx,%r13) .LBB1_661: testb $1, 500(%rcx,%r13) je .LBB1_663 vunpckhpd %xmm0, %xmm0, %xmm1 vmovsd %xmm1, 10584(%rcx,%r13) .LBB1_663: vextractf128 $1, %ymm0, %xmm0 testb $1, 504(%rcx,%r13) je .LBB1_665 vmovsd %xmm0, 10712(%rcx,%r13) .LBB1_665: testb $1, 508(%rcx,%r13) je .LBB1_667 vunpckhpd %xmm0, %xmm0, %xmm0 vmovsd %xmm0, 10840(%rcx,%r13) .LBB1_667: testb $1, 480(%rcx,%r13) je .LBB1_669 movq %rax, 9952(%r13,%rcx) .LBB1_669: testb $1, 484(%rcx,%r13) je .LBB1_671 movq %rax, 10080(%rcx,%r13) .LBB1_671: testb $1, 488(%rcx,%r13) je .LBB1_673 movq %rax, 10208(%rcx,%r13) .LBB1_673: testb $1, 492(%rcx,%r13) je .LBB1_675 movq %rax, 10336(%rcx,%r13) .LBB1_675: testb $1, 496(%rcx,%r13) je .LBB1_677 movq %rax, 10464(%rcx,%r13) .LBB1_677: testb $1, 500(%rcx,%r13) je .LBB1_679 movq %rax, 10592(%rcx,%r13) .LBB1_679: testb $1, 504(%rcx,%r13) je .LBB1_681 movq %rax, 10720(%rcx,%r13) .LBB1_681: testb $1, 508(%rcx,%r13) je .LBB1_683 movq %rax, 10848(%rcx,%r13) .LBB1_683: vmovsd 11440(%rcx,%r13), %xmm1 movb 492(%rcx,%r13), %r10b movb %r10b, %al andb $1, %al jne .LBB1_684 vxorpd %xmm0, %xmm0, %xmm0 jmp .LBB1_686 .LBB1_684: vmovsd 11392(%rcx,%r13), %xmm0 .LBB1_686: vmovapd %xmm0, 32160(%rbx) jne .LBB1_688 vxorps %xmm1, %xmm1, %xmm1 .LBB1_688: vmovaps %xmm1, 31648(%rbx) vmovsd 11824(%rcx,%r13), %xmm0 movb 504(%rcx,%r13), %r9b vmovsd 11952(%rcx,%r13), %xmm1 movb 508(%rcx,%r13), %r8b movb 488(%rcx,%r13), %r11b movb %r11b, %al andb $1, %al jne .LBB1_689 vxorpd %xmm2, %xmm2, %xmm2 jmp .LBB1_691 .LBB1_689: vmovsd 11312(%rcx,%r13), %xmm2 .LBB1_691: vmovapd %xmm2, 30720(%rbx) movb %r8b, %al andb $1, %al jne .LBB1_693 vxorps %xmm1, %xmm1, %xmm1 .LBB1_693: vmovaps %xmm1, 30752(%rbx) movb %r9b, %al andb $1, %al jne .LBB1_695 vxorpd %xmm0, %xmm0, %xmm0 .LBB1_695: vmovapd %xmm0, 30784(%rbx) vmovsd 11680(%rcx,%r13), %xmm10 movb 500(%rcx,%r13), %r14b movb %r14b, %al andb $1, %al jne .LBB1_696 movq %rcx, %rax vxorpd %xmm0, %xmm0, %xmm0 jmp .LBB1_698 .LBB1_696: vmovsd 11696(%rcx,%r13), %xmm0 movq %rcx, %rax .LBB1_698: vmovapd %xmm0, 30688(%rbx) jne .LBB1_700 vxorpd %xmm10, %xmm10, %xmm10 .LBB1_700: jne .LBB1_701 vxorpd %xmm13, %xmm13, %xmm13 movq %rax, %rcx jmp .LBB1_703 .LBB1_701: movq %rax, %rcx vmovsd 11704(%rcx,%r13), %xmm13 .LBB1_703: vmovsd 11576(%rcx,%r13), %xmm5 movb 496(%rcx,%r13), %al movb %al, %dl andb $1, %dl jne .LBB1_704 vxorpd %xmm0, %xmm0, %xmm0 jmp .LBB1_706 .LBB1_704: vmovsd 11552(%rcx,%r13), %xmm0 .LBB1_706: vmovapd %xmm0, 32896(%rbx) jne .LBB1_708 vxorpd %xmm5, %xmm5, %xmm5 .LBB1_708: andb $1, %r10b vmovsd 11448(%rcx,%r13), %xmm1 jne .LBB1_709 vxorpd %xmm0, %xmm0, %xmm0 jmp .LBB1_711 .LBB1_709: vmovsd 11424(%rcx,%r13), %xmm0 .LBB1_711: vmovapd %xmm0, 32736(%rbx) jne .LBB1_713 vxorps %xmm1, %xmm1, %xmm1 .LBB1_713: vmovaps %xmm1, 32224(%rbx) andb $1, %r14b jne .LBB1_714 vxorpd %xmm0, %xmm0, %xmm0 movq %rcx, %rsi jmp .LBB1_716 .LBB1_714: movq %rcx, %rsi vmovsd 11648(%rsi,%r13), %xmm0 .LBB1_716: vmovapd %xmm0, 32192(%rbx) movb 484(%rsi,%r13), %cl movb %cl, %dl andb $1, %dl jne .LBB1_717 vxorpd %xmm0, %xmm0, %xmm0 jmp .LBB1_719 .LBB1_717: vmovsd 11192(%rsi,%r13), %xmm0 .LBB1_719: vmovapd %xmm0, 31680(%rbx) movb %r9b, %dl andb $1, %dl jne .LBB1_720 vxorpd %xmm0, %xmm0, %xmm0 jmp .LBB1_722 .LBB1_720: vmovsd 11832(%rsi,%r13), %xmm0 .LBB1_722: vmovapd %xmm0, 30656(%rbx) andb $1, %al jne .LBB1_723 vxorpd %xmm0, %xmm0, %xmm0 jmp .LBB1_725 .LBB1_723: vmovsd 11520(%rsi,%r13), %xmm0 .LBB1_725: vmovapd %xmm0, 30144(%rbx) jne .LBB1_726 vxorpd %xmm0, %xmm0, %xmm0 jmp .LBB1_728 .LBB1_726: vmovsd 11568(%rsi,%r13), %xmm0 .LBB1_728: vmovapd %xmm0, 30112(%rbx) andb $1, %r11b jne .LBB1_729 vxorpd %xmm0, %xmm0, %xmm0 jmp .LBB1_731 .LBB1_729: vmovsd 11264(%rsi,%r13), %xmm0 .LBB1_731: vmovapd %xmm0, 30176(%rbx) jne .LBB1_732 vxorpd %xmm0, %xmm0, %xmm0 jmp .LBB1_734 .LBB1_732: vmovsd 11296(%rsi,%r13), %xmm0 .LBB1_734: vmovapd %xmm0, 30048(%rbx) jne .LBB1_735 vxorpd %xmm0, %xmm0, %xmm0 jmp .LBB1_737 .LBB1_735: vmovsd 11320(%rsi,%r13), %xmm0 .LBB1_737: vmovapd %xmm0, 30016(%rbx) andb $1, %cl vmovsd 11168(%rsi,%r13), %xmm1 jne .LBB1_738 movq %rsi, %rdx vxorpd %xmm0, %xmm0, %xmm0 jmp .LBB1_740 .LBB1_738: vmovsd 11136(%rsi,%r13), %xmm0 movq %rsi, %rdx .LBB1_740: vmovapd %xmm0, 30080(%rbx) jne .LBB1_742 vxorpd %xmm1, %xmm1, %xmm1 .LBB1_742: vmovapd %xmm1, 29504(%rbx) jne .LBB1_743 vxorpd %xmm0, %xmm0, %xmm0 jmp .LBB1_745 .LBB1_743: vmovsd 11184(%rdx,%r13), %xmm0 .LBB1_745: vmovapd %xmm0, 29984(%rbx) andb $1, %r8b jne .LBB1_746 vxorpd %xmm0, %xmm0, %xmm0 jmp .LBB1_748 .LBB1_746: vmovsd 11904(%rdx,%r13), %xmm0 .LBB1_748: vmovapd %xmm0, 29472(%rbx) jne .LBB1_749 vxorpd %xmm0, %xmm0, %xmm0 jmp .LBB1_751 .LBB1_749: vmovsd 11936(%rdx,%r13), %xmm0 .LBB1_751: vmovapd %xmm0, 29440(%rbx) jne .LBB1_752 vxorpd %xmm11, %xmm11, %xmm11 jmp .LBB1_754 .LBB1_752: vmovsd 11960(%rdx,%r13), %xmm11 .LBB1_754: andb $1, %r9b jne .LBB1_755 vxorpd %xmm0, %xmm0, %xmm0 jmp .LBB1_757 .LBB1_755: vmovsd 11776(%rdx,%r13), %xmm0 .LBB1_757: vmovapd %xmm0, 29408(%rbx) jne .LBB1_758 vxorpd %xmm0, %xmm0, %xmm0 jmp .LBB1_760 .LBB1_758: vmovsd 11808(%rdx,%r13), %xmm0 .LBB1_760: movl 480(%rdx,%r13), %edi movl %edi, %esi andl $1, %esi vmovsd 11200(%rdx,%r13), %xmm2 vmovsd 11712(%rdx,%r13), %xmm6 vmovsd 11328(%rdx,%r13), %xmm3 vmovsd 11840(%rdx,%r13), %xmm7 vmovsd 11456(%rdx,%r13), %xmm12 vmovsd 11584(%rdx,%r13), %xmm8 testb %cl, %cl jne .LBB1_761 movq %rdx, %rcx vxorpd %xmm1, %xmm1, %xmm1 jmp .LBB1_763 .LBB1_761: vmovsd 11072(%rdx,%r13), %xmm1 movq %rdx, %rcx .LBB1_763: testb %r14b, %r14b jne .LBB1_765 vxorpd %xmm8, %xmm8, %xmm8 .LBB1_765: testb %al, %al jne .LBB1_767 vxorpd %xmm12, %xmm12, %xmm12 .LBB1_767: testb %r8b, %r8b jne .LBB1_769 vxorpd %xmm7, %xmm7, %xmm7 .LBB1_769: testb %r10b, %r10b jne .LBB1_771 vxorps %xmm3, %xmm3, %xmm3 .LBB1_771: testb %r9b, %r9b jne .LBB1_773 vxorpd %xmm6, %xmm6, %xmm6 .LBB1_773: vmovaps %xmm3, 29376(%rbx) testb %r11b, %r11b jne .LBB1_775 vxorpd %xmm2, %xmm2, %xmm2 .LBB1_775: testb %sil, %sil jne .LBB1_776 vxorpd %xmm4, %xmm4, %xmm4 jmp .LBB1_778 .LBB1_776: vmovsd 11040(%rcx,%r13), %xmm4 .LBB1_778: vmovapd %xmm2, %xmm3 jne .LBB1_779 vxorpd %xmm14, %xmm14, %xmm14 jmp .LBB1_781 .LBB1_779: vmovsd 10944(%rcx,%r13), %xmm14 .LBB1_781: jne .LBB1_782 vxorpd %xmm9, %xmm9, %xmm9 jmp .LBB1_784 .LBB1_782: vmovsd 11064(%rcx,%r13), %xmm9 .LBB1_784: jne .LBB1_785 vxorpd %xmm15, %xmm15, %xmm15 jmp .LBB1_787 .LBB1_785: vmovsd 11056(%rcx,%r13), %xmm15 .LBB1_787: jne .LBB1_788 vxorpd %xmm2, %xmm2, %xmm2 jmp .LBB1_790 .LBB1_788: vmovsd 11008(%rcx,%r13), %xmm2 .LBB1_790: vmovapd %xmm2, 32832(%rbx) andl $1, %edi vunpcklpd %xmm8, %xmm12, %xmm12 vunpcklpd %xmm13, %xmm5, %xmm13 vmovapd 32896(%rbx), %xmm5 vunpcklpd %xmm10, %xmm5, %xmm10 vmovapd 30144(%rbx), %xmm2 vunpcklpd 32192(%rbx), %xmm2, %xmm8 vmovapd 30016(%rbx), %xmm2 vunpcklpd 32224(%rbx), %xmm2, %xmm5 vunpcklpd 31680(%rbx), %xmm9, %xmm9 vmovapd 30656(%rbx), %xmm2 vunpcklpd %xmm11, %xmm2, %xmm11 vunpcklpd %xmm1, %xmm14, %xmm1 vmovapd 30048(%rbx), %xmm2 vunpcklpd 32736(%rbx), %xmm2, %xmm2 vunpcklpd 29504(%rbx), %xmm4, %xmm4 vunpcklpd %xmm7, %xmm6, %xmm6 vunpcklpd 29440(%rbx), %xmm0, %xmm7 vmovapd 29408(%rbx), %xmm0 vunpcklpd 29472(%rbx), %xmm0, %xmm0 vunpcklpd 29376(%rbx), %xmm3, %xmm3 vinsertf128 $1, %xmm7, %ymm10, %ymm7 vmovapd %ymm7, 32896(%rbx) vinsertf128 $1, %xmm11, %ymm13, %ymm10 vmovapd %ymm10, 31680(%rbx) vinsertf128 $1, %xmm6, %ymm12, %ymm14 vinsertf128 $1, %xmm2, %ymm4, %ymm11 vinsertf128 $1, %xmm5, %ymm9, %ymm13 vinsertf128 $1, %xmm3, %ymm1, %ymm9 vinsertf128 $1, %xmm0, %ymm8, %ymm6 vmovapd %ymm6, 32224(%rbx) vmovapd 30720(%rbx), %xmm0 vunpcklpd 31648(%rbx), %xmm0, %xmm1 vunpcklpd 29984(%rbx), %xmm15, %xmm2 vmovapd 32704(%rbx), %ymm5 vmulpd %ymm5, %ymm14, %ymm0 vmulpd %ymm10, %ymm0, %ymm0 vmovapd 32352(%rbx), %ymm10 vmovapd 32672(%rbx), %ymm12 vmulpd %ymm10, %ymm12, %ymm3 vmulpd %ymm7, %ymm3, %ymm3 vaddpd %ymm3, %ymm0, %ymm3 vmovapd 30784(%rbx), %xmm0 vunpcklpd 30752(%rbx), %xmm0, %xmm0 vmovapd 30112(%rbx), %xmm4 vunpcklpd 30688(%rbx), %xmm4, %xmm4 vinsertf128 $1, %xmm0, %ymm4, %ymm0 vmovapd %ymm0, 30784(%rbx) vmovapd 32000(%rbx), %ymm4 vmulpd %ymm4, %ymm5, %ymm5 vmovapd %ymm5, 31648(%rbx) vmulpd %ymm6, %ymm4, %ymm4 vmulpd %ymm0, %ymm4, %ymm4 vaddpd %ymm4, %ymm3, %ymm3 vmovapd %ymm3, 30720(%rbx) vmovapd 32864(%rbx), %ymm8 vmulpd %ymm8, %ymm9, %ymm4 vmulpd %ymm13, %ymm4, %ymm4 vmovapd 32416(%rbx), %ymm7 vmovapd 30880(%rbx), %ymm15 vmulpd %ymm7, %ymm15, %ymm5 vmulpd %ymm11, %ymm5, %ymm5 vaddpd %ymm5, %ymm4, %ymm4 vinsertf128 $1, %xmm1, %ymm2, %ymm3 vmovapd %ymm3, 30752(%rbx) vmovapd 30176(%rbx), %xmm1 vunpcklpd 32160(%rbx), %xmm1, %xmm1 vmovapd 32832(%rbx), %xmm2 vunpcklpd 30080(%rbx), %xmm2, %xmm2 vinsertf128 $1, %xmm1, %ymm2, %ymm5 vmovapd %ymm5, 32160(%rbx) vmulpd %ymm10, %ymm14, %ymm1 vmulpd %ymm0, %ymm1, %ymm1 vmovapd 30720(%rbx), %ymm0 vsubpd %ymm1, %ymm0, %ymm2 vmovapd 31968(%rbx), %ymm1 vmulpd %ymm1, %ymm8, %ymm0 vmulpd %ymm5, %ymm1, %ymm1 vmulpd %ymm3, %ymm1, %ymm1 vaddpd %ymm1, %ymm4, %ymm1 vmulpd %ymm7, %ymm9, %ymm4 vmulpd %ymm3, %ymm4, %ymm4 vsubpd %ymm4, %ymm1, %ymm1 vmulpd %ymm5, %ymm15, %ymm4 vmulpd %ymm4, %ymm13, %ymm4 vmovapd %ymm13, %ymm10 vsubpd %ymm4, %ymm1, %ymm1 vmulpd %ymm6, %ymm12, %ymm4 vmovapd 31680(%rbx), %ymm3 vmulpd %ymm4, %ymm3, %ymm4 vmovapd %ymm3, %ymm12 vmulpd %ymm0, %ymm11, %ymm3 vsubpd %ymm3, %ymm1, %ymm1 vmulpd .LCPI1_22(%rip), %ymm1, %ymm3 je .LBB1_792 vmovlpd %xmm3, 9960(%r13,%rcx) .LBB1_792: vsubpd %ymm4, %ymm2, %ymm2 vmovapd 32896(%rbx), %ymm1 vmulpd 31648(%rbx), %ymm1, %ymm0 testb $1, 484(%rcx,%r13) je .LBB1_794 vunpckhpd %xmm3, %xmm3, %xmm1 vmovsd %xmm1, 10088(%rcx,%r13) .LBB1_794: vsubpd %ymm0, %ymm2, %ymm0 vextractf128 $1, %ymm3, %xmm2 testb $1, 488(%rcx,%r13) je .LBB1_796 vmovsd %xmm2, 10216(%rcx,%r13) .LBB1_796: vmulpd .LCPI1_22(%rip), %ymm0, %ymm0 testb $1, 492(%rcx,%r13) je .LBB1_798 vunpckhpd %xmm2, %xmm2, %xmm1 vmovsd %xmm1, 10344(%rcx,%r13) .LBB1_798: testb $1, 496(%rcx,%r13) je .LBB1_800 vmovsd %xmm0, 10472(%rcx,%r13) .LBB1_800: testb $1, 500(%rcx,%r13) je .LBB1_802 vunpckhpd %xmm0, %xmm0, %xmm1 vmovsd %xmm1, 10600(%rcx,%r13) .LBB1_802: vextractf128 $1, %ymm0, %xmm0 testb $1, 504(%rcx,%r13) je .LBB1_804 vmovsd %xmm0, 10728(%rcx,%r13) .LBB1_804: testb $1, 508(%rcx,%r13) je .LBB1_806 vunpckhpd %xmm0, %xmm0, %xmm0 vmovsd %xmm0, 10856(%rcx,%r13) .LBB1_806: vmovsd 11104(%rcx,%r13), %xmm3 movl 480(%rcx,%r13), %eax vxorpd %xmm2, %xmm2, %xmm2 andl $1, %eax jne .LBB1_807 vxorpd %xmm5, %xmm5, %xmm5 jmp .LBB1_809 .LBB1_807: vmovsd 10976(%rcx,%r13), %xmm5 .LBB1_809: testb $1, 484(%rcx,%r13) jne .LBB1_811 vxorpd %xmm3, %xmm3, %xmm3 .LBB1_811: vmovsd 11616(%rcx,%r13), %xmm0 vmovsd 11872(%rcx,%r13), %xmm6 vmovsd 11744(%rcx,%r13), %xmm7 testb $1, 492(%rcx,%r13) jne .LBB1_812 vxorpd %xmm4, %xmm4, %xmm4 jmp .LBB1_814 .LBB1_812: vmovsd 11360(%rcx,%r13), %xmm4 .LBB1_814: testb $1, 504(%rcx,%r13) jne .LBB1_816 vxorpd %xmm7, %xmm7, %xmm7 .LBB1_816: testb $1, 508(%rcx,%r13) jne .LBB1_818 vxorpd %xmm6, %xmm6, %xmm6 .LBB1_818: testb $1, 500(%rcx,%r13) jne .LBB1_820 vxorpd %xmm0, %xmm0, %xmm0 .LBB1_820: testb $1, 496(%rcx,%r13) jne .LBB1_821 vxorpd %xmm1, %xmm1, %xmm1 jmp .LBB1_823 .LBB1_821: vmovsd 11488(%rcx,%r13), %xmm1 .LBB1_823: vunpcklpd %xmm0, %xmm1, %xmm8 vunpcklpd %xmm3, %xmm5, %xmm0 testb $1, 488(%rcx,%r13) je .LBB1_825 vmovsd 11232(%rcx,%r13), %xmm2 .LBB1_825: vunpcklpd %xmm4, %xmm2, %xmm3 vunpcklpd %xmm6, %xmm7, %xmm1 vmovapd %ymm9, 32192(%rbx) vmulpd 32800(%rbx), %ymm9, %ymm7 vmovapd %ymm7, 31648(%rbx) vinsertf128 $1, %xmm1, %ymm8, %ymm5 vmovapd %ymm5, 32800(%rbx) vmovapd 32288(%rbx), %ymm1 vmovapd %ymm11, %ymm4 vmovapd %ymm4, 30144(%rbx) vmulpd %ymm4, %ymm1, %ymm2 vmulpd 30816(%rbx), %ymm9, %ymm11 vmovapd 30912(%rbx), %ymm6 vmulpd %ymm4, %ymm6, %ymm4 vinsertf128 $1, %xmm3, %ymm0, %ymm3 vmovapd %ymm3, 32832(%rbx) vmovapd %ymm14, 32736(%rbx) vmulpd 31616(%rbx), %ymm14, %ymm9 vmovapd %ymm9, 31616(%rbx) vmulpd 30848(%rbx), %ymm14, %ymm14 vmulpd %ymm3, %ymm15, %ymm15 vmovapd 30752(%rbx), %ymm13 vmulpd %ymm13, %ymm7, %ymm0 vmovapd %ymm10, 30656(%rbx) vmulpd %ymm10, %ymm15, %ymm1 vaddpd %ymm1, %ymm0, %ymm0 vaddpd %ymm4, %ymm0, %ymm0 vmulpd %ymm11, %ymm10, %ymm1 vsubpd %ymm1, %ymm0, %ymm0 vsubpd %ymm2, %ymm0, %ymm0 vmovapd 32672(%rbx), %ymm1 vmulpd %ymm5, %ymm1, %ymm8 vmovapd %ymm12, %ymm10 vmulpd %ymm10, %ymm8, %ymm1 vmovapd 30784(%rbx), %ymm4 vmulpd %ymm4, %ymm9, %ymm2 vaddpd %ymm1, %ymm2, %ymm2 vmulpd 31968(%rbx), %ymm3, %ymm1 vmovapd %ymm1, 32672(%rbx) vmulpd %ymm1, %ymm13, %ymm1 vsubpd %ymm1, %ymm0, %ymm0 vmulpd 32000(%rbx), %ymm5, %ymm1 vmovapd %ymm1, 32000(%rbx) vmulpd %ymm1, %ymm4, %ymm1 vmovapd 32256(%rbx), %ymm3 vmovapd 32896(%rbx), %ymm7 vmulpd %ymm7, %ymm3, %ymm3 testl %eax, %eax vmulpd %ymm14, %ymm10, %ymm4 vmovapd 32320(%rbx), %ymm5 vmulpd %ymm7, %ymm5, %ymm5 vaddpd %ymm5, %ymm2, %ymm2 vsubpd %ymm4, %ymm2, %ymm2 vsubpd %ymm3, %ymm2, %ymm2 vsubpd %ymm1, %ymm2, %ymm1 vmulpd .LCPI1_22(%rip), %ymm0, %ymm12 vextractf128 $1, %ymm12, %xmm10 vunpckhpd %xmm12, %xmm12, %xmm3 je .LBB1_827 vmovsd %xmm12, 9968(%r13,%rcx) .LBB1_827: vmulpd .LCPI1_22(%rip), %ymm1, %ymm2 vunpckhpd %xmm10, %xmm10, %xmm0 testb $1, 484(%rcx,%r13) movabsq $-9223372036854775808, %rax je .LBB1_829 vmovsd %xmm3, 10096(%rcx,%r13) .LBB1_829: vmovapd %xmm3, 30752(%rbx) testb $1, 488(%rcx,%r13) je .LBB1_831 vmovsd %xmm10, 10224(%rcx,%r13) .LBB1_831: vunpckhpd %xmm2, %xmm2, %xmm1 testb $1, 492(%rcx,%r13) je .LBB1_833 vmovsd %xmm0, 10352(%rcx,%r13) .LBB1_833: vextractf128 $1, %ymm2, %xmm7 testb $1, 496(%rcx,%r13) je .LBB1_835 vmovsd %xmm2, 10480(%rcx,%r13) .LBB1_835: vunpckhpd %xmm7, %xmm7, %xmm3 testb $1, 500(%rcx,%r13) je .LBB1_837 vmovsd %xmm1, 10608(%rcx,%r13) .LBB1_837: testb $1, 504(%rcx,%r13) je .LBB1_839 vmovsd %xmm7, 10736(%rcx,%r13) .LBB1_839: vmovapd %xmm1, 30176(%rbx) vmovapd %xmm0, 30880(%rbx) testb $1, 508(%rcx,%r13) je .LBB1_841 vmovsd %xmm3, 10864(%rcx,%r13) .LBB1_841: vmovapd %xmm3, 30112(%rbx) vmovapd 32224(%rbx), %ymm9 vmovapd 32256(%rbx), %ymm0 vmulpd %ymm9, %ymm0, %ymm4 vmovapd 32352(%rbx), %ymm1 vmulpd %ymm1, %ymm14, %ymm13 vaddpd %ymm4, %ymm13, %ymm4 vmovapd 32704(%rbx), %ymm0 vmovapd 32000(%rbx), %ymm3 vmulpd %ymm0, %ymm3, %ymm13 vaddpd %ymm13, %ymm4, %ymm4 vmovapd 31616(%rbx), %ymm3 vmulpd %ymm0, %ymm3, %ymm13 vsubpd %ymm13, %ymm4, %ymm4 vmovapd 32160(%rbx), %ymm14 vmovapd 32288(%rbx), %ymm0 vmulpd %ymm14, %ymm0, %ymm13 vmovapd 32416(%rbx), %ymm0 vmulpd %ymm0, %ymm11, %ymm11 vaddpd %ymm13, %ymm11, %ymm11 vmulpd %ymm8, %ymm1, %ymm13 vmovapd 32864(%rbx), %ymm1 vmovapd 32672(%rbx), %ymm3 vmulpd %ymm1, %ymm3, %ymm8 vaddpd %ymm8, %ymm11, %ymm8 vsubpd %ymm13, %ymm4, %ymm4 vmovapd 31648(%rbx), %ymm3 vmulpd %ymm1, %ymm3, %ymm11 vmulpd 32320(%rbx), %ymm9, %ymm13 vsubpd %ymm13, %ymm4, %ymm4 testb $1, 480(%rcx,%r13) vsubpd %ymm11, %ymm8, %ymm8 vmulpd %ymm15, %ymm0, %ymm11 vsubpd %ymm11, %ymm8, %ymm8 vmulpd %ymm6, %ymm14, %ymm11 vsubpd %ymm11, %ymm8, %ymm8 vmulpd .LCPI1_22(%rip), %ymm8, %ymm0 vextractf128 $1, %ymm0, %xmm6 vunpckhpd %xmm0, %xmm0, %xmm5 je .LBB1_843 vmovsd %xmm0, 9976(%r13,%rcx) .LBB1_843: vmovapd %ymm0, 30784(%rbx) vmulpd .LCPI1_22(%rip), %ymm4, %ymm4 vunpckhpd %xmm6, %xmm6, %xmm0 testb $1, 484(%rcx,%r13) je .LBB1_845 vmovsd %xmm5, 10104(%rcx,%r13) .LBB1_845: testb $1, 488(%rcx,%r13) je .LBB1_847 vmovsd %xmm6, 10232(%rcx,%r13) .LBB1_847: vunpckhpd %xmm4, %xmm4, %xmm1 testb $1, 492(%rcx,%r13) je .LBB1_849 vmovsd %xmm0, 10360(%rcx,%r13) .LBB1_849: vextractf128 $1, %ymm4, %xmm3 testb $1, 496(%rcx,%r13) je .LBB1_851 vmovsd %xmm4, 10488(%rcx,%r13) .LBB1_851: vmovapd %ymm4, 32704(%rbx) vunpckhpd %xmm3, %xmm3, %xmm4 testb $1, 500(%rcx,%r13) je .LBB1_853 vmovsd %xmm1, 10616(%rcx,%r13) .LBB1_853: testb $1, 504(%rcx,%r13) je .LBB1_855 vmovsd %xmm3, 10744(%rcx,%r13) .LBB1_855: testb $1, 508(%rcx,%r13) je .LBB1_857 vmovsd %xmm4, 10872(%rcx,%r13) .LBB1_857: testb $1, 480(%rcx,%r13) je .LBB1_859 movq %rax, 9984(%r13,%rcx) .LBB1_859: testb $1, 484(%rcx,%r13) je .LBB1_861 movq %rax, 10112(%rcx,%r13) .LBB1_861: vmovapd %xmm4, 30688(%rbx) vmovapd %xmm5, 30816(%rbx) testb $1, 488(%rcx,%r13) je .LBB1_863 movq %rax, 10240(%rcx,%r13) .LBB1_863: testb $1, 492(%rcx,%r13) je .LBB1_865 movq %rax, 10368(%rcx,%r13) .LBB1_865: vmovapd %xmm6, 31968(%rbx) testb $1, 496(%rcx,%r13) je .LBB1_867 movq %rax, 10496(%rcx,%r13) .LBB1_867: testb $1, 500(%rcx,%r13) je .LBB1_869 movq %rax, 10624(%rcx,%r13) .LBB1_869: vmovapd %xmm0, 30848(%rbx) testb $1, 504(%rcx,%r13) je .LBB1_871 movq %rax, 10752(%rcx,%r13) .LBB1_871: testb $1, 508(%rcx,%r13) vmovaps 30880(%rbx), %xmm0 je .LBB1_873 movq %rax, 10880(%rcx,%r13) .LBB1_873: testb $1, 480(%rcx,%r13) je .LBB1_875 vmovsd %xmm12, 9992(%r13,%rcx) .LBB1_875: testb $1, 484(%rcx,%r13) je .LBB1_877 vmovapd 30752(%rbx), %xmm4 vmovsd %xmm4, 10120(%rcx,%r13) .LBB1_877: vmovapd %xmm1, 30752(%rbx) testb $1, 488(%rcx,%r13) je .LBB1_879 vmovsd %xmm10, 10248(%rcx,%r13) .LBB1_879: testb $1, 492(%rcx,%r13) vmovaps 30176(%rbx), %xmm1 je .LBB1_881 vmovsd %xmm0, 10376(%rcx,%r13) .LBB1_881: vmovapd %xmm3, 30720(%rbx) testb $1, 496(%rcx,%r13) je .LBB1_883 vmovsd %xmm2, 10504(%rcx,%r13) .LBB1_883: testb $1, 500(%rcx,%r13) je .LBB1_885 vmovsd %xmm1, 10632(%rcx,%r13) .LBB1_885: testb $1, 504(%rcx,%r13) vmovapd 30112(%rbx), %xmm0 je .LBB1_887 vmovsd %xmm7, 10760(%rcx,%r13) .LBB1_887: testb $1, 508(%rcx,%r13) je .LBB1_889 vmovsd %xmm0, 10888(%rcx,%r13) .LBB1_889: vmovsd 11688(%rcx,%r13), %xmm1 vxorpd %xmm0, %xmm0, %xmm0 testb $1, 496(%rcx,%r13) jne .LBB1_890 vxorpd %xmm2, %xmm2, %xmm2 jmp .LBB1_892 .LBB1_890: vmovsd 11560(%rcx,%r13), %xmm2 .LBB1_892: testb $1, 500(%rcx,%r13) jne .LBB1_894 vxorpd %xmm1, %xmm1, %xmm1 .LBB1_894: vmovsd 11944(%rcx,%r13), %xmm3 testb $1, 504(%rcx,%r13) jne .LBB1_895 vxorpd %xmm4, %xmm4, %xmm4 jmp .LBB1_897 .LBB1_895: vmovsd 11816(%rcx,%r13), %xmm4 .LBB1_897: testb $1, 508(%rcx,%r13) jne .LBB1_899 vxorpd %xmm3, %xmm3, %xmm3 .LBB1_899: vmovsd 11048(%rcx,%r13), %xmm5 movl 480(%rcx,%r13), %eax testb $1, 492(%rcx,%r13) jne .LBB1_900 vxorpd %xmm6, %xmm6, %xmm6 jmp .LBB1_902 .LBB1_900: vmovsd 11432(%rcx,%r13), %xmm6 .LBB1_902: andl $1, %eax jne .LBB1_904 vxorpd %xmm5, %xmm5, %xmm5 .LBB1_904: vunpcklpd %xmm1, %xmm2, %xmm1 testb $1, 484(%rcx,%r13) jne .LBB1_905 vxorpd %xmm2, %xmm2, %xmm2 jmp .LBB1_907 .LBB1_905: vmovsd 11176(%rcx,%r13), %xmm2 .LBB1_907: vunpcklpd %xmm3, %xmm4, %xmm3 testb $1, 488(%rcx,%r13) je .LBB1_909 vmovsd 11304(%rcx,%r13), %xmm0 .LBB1_909: vunpcklpd %xmm6, %xmm0, %xmm0 vmovapd 32736(%rbx), %ymm4 vmulpd 32480(%rbx), %ymm4, %ymm6 vunpcklpd %xmm2, %xmm5, %xmm4 vinsertf128 $1, %xmm3, %ymm1, %ymm7 vmovapd %ymm7, 30176(%rbx) vmovapd 31072(%rbx), %ymm1 vmulpd 32896(%rbx), %ymm1, %ymm1 vmovapd 32192(%rbx), %ymm2 vmulpd 32512(%rbx), %ymm2, %ymm2 vmovapd 31680(%rbx), %ymm8 vmulpd %ymm8, %ymm6, %ymm3 vaddpd %ymm1, %ymm3, %ymm1 vinsertf128 $1, %xmm0, %ymm4, %ymm6 vmovapd %ymm6, 29984(%rbx) vmovapd 31328(%rbx), %ymm0 vmulpd 32832(%rbx), %ymm0, %ymm3 vmovapd 31104(%rbx), %ymm0 vmovapd 30144(%rbx), %ymm9 vmulpd %ymm9, %ymm0, %ymm0 vmovapd 30656(%rbx), %ymm5 vmulpd %ymm5, %ymm2, %ymm2 vaddpd %ymm0, %ymm2, %ymm4 vmulpd 30944(%rbx), %ymm9, %ymm0 vmovapd 32000(%rbx), %ymm2 vmulpd %ymm7, %ymm2, %ymm2 vaddpd %ymm2, %ymm1, %ymm2 vmulpd %ymm3, %ymm5, %ymm1 vmovapd 31296(%rbx), %ymm3 vmulpd 32800(%rbx), %ymm3, %ymm3 vmovapd 32672(%rbx), %ymm5 vmulpd %ymm6, %ymm5, %ymm5 vaddpd %ymm5, %ymm4, %ymm4 vmovapd 31648(%rbx), %ymm5 vmulpd %ymm6, %ymm5, %ymm5 vsubpd %ymm5, %ymm4, %ymm4 vmovapd 31616(%rbx), %ymm5 vmulpd %ymm7, %ymm5, %ymm5 testl %eax, %eax vsubpd %ymm5, %ymm2, %ymm2 vmulpd %ymm3, %ymm8, %ymm3 vsubpd %ymm1, %ymm4, %ymm1 vsubpd %ymm0, %ymm1, %ymm0 vmulpd .LCPI1_22(%rip), %ymm0, %ymm0 je .LBB1_911 vmovlpd %xmm0, 10000(%r13,%rcx) .LBB1_911: vmovapd 32896(%rbx), %ymm1 vmulpd 30976(%rbx), %ymm1, %ymm1 vsubpd %ymm3, %ymm2, %ymm2 testb $1, 484(%rcx,%r13) je .LBB1_913 vunpckhpd %xmm0, %xmm0, %xmm3 vmovsd %xmm3, 10128(%rcx,%r13) .LBB1_913: vsubpd %ymm1, %ymm2, %ymm2 vextractf128 $1, %ymm0, %xmm1 testb $1, 488(%rcx,%r13) je .LBB1_915 vmovsd %xmm1, 10256(%rcx,%r13) .LBB1_915: vmulpd .LCPI1_22(%rip), %ymm2, %ymm0 testb $1, 492(%rcx,%r13) je .LBB1_917 vunpckhpd %xmm1, %xmm1, %xmm1 vmovsd %xmm1, 10384(%rcx,%r13) .LBB1_917: testb $1, 496(%rcx,%r13) je .LBB1_919 vmovsd %xmm0, 10512(%rcx,%r13) .LBB1_919: testb $1, 500(%rcx,%r13) je .LBB1_921 vunpckhpd %xmm0, %xmm0, %xmm1 vmovsd %xmm1, 10640(%rcx,%r13) .LBB1_921: vextractf128 $1, %ymm0, %xmm0 testb $1, 504(%rcx,%r13) je .LBB1_923 vmovsd %xmm0, 10768(%rcx,%r13) .LBB1_923: testb $1, 508(%rcx,%r13) je .LBB1_925 vunpckhpd %xmm0, %xmm0, %xmm0 vmovsd %xmm0, 10896(%rcx,%r13) .LBB1_925: vmovsd 11368(%rcx,%r13), %xmm1 movb 492(%rcx,%r13), %r10b andb $1, %r10b jne .LBB1_926 vxorpd %xmm0, %xmm0, %xmm0 jmp .LBB1_928 .LBB1_926: vmovsd 11352(%rcx,%r13), %xmm0 .LBB1_928: vmovapd %xmm0, 32512(%rbx) jne .LBB1_930 vxorps %xmm1, %xmm1, %xmm1 .LBB1_930: vmovaps %xmm1, 32480(%rbx) vmovsd 11880(%rcx,%r13), %xmm0 vmovaps %xmm0, 32896(%rbx) vmovsd 11864(%rcx,%r13), %xmm0 movb 508(%rcx,%r13), %r9b vmovsd 11240(%rcx,%r13), %xmm1 movb 488(%rcx,%r13), %r8b vmovsd 11336(%rcx,%r13), %xmm2 jne .LBB1_931 vxorpd %xmm3, %xmm3, %xmm3 jmp .LBB1_933 .LBB1_931: vmovsd 11416(%rcx,%r13), %xmm3 .LBB1_933: vmovapd %xmm3, 32672(%rbx) jne .LBB1_935 vxorps %xmm2, %xmm2, %xmm2 .LBB1_935: vmovaps %xmm2, 32864(%rbx) movb %r8b, %al andb $1, %al jne .LBB1_937 vxorps %xmm1, %xmm1, %xmm1 .LBB1_937: vmovaps %xmm1, 32352(%rbx) movb %r9b, %al andb $1, %al vmovsd 11752(%rcx,%r13), %xmm2 movb 504(%rcx,%r13), %r11b vmovsd 11544(%rcx,%r13), %xmm3 movb 496(%rcx,%r13), %r14b movq %rcx, %rax jne .LBB1_939 vxorps %xmm0, %xmm0, %xmm0 .LBB1_939: jne .LBB1_941 vxorps %xmm1, %xmm1, %xmm1 vmovaps %xmm1, 32896(%rbx) .LBB1_941: vmovaps %xmm0, 32000(%rbx) jne .LBB1_942 vxorps %xmm0, %xmm0, %xmm0 movq %rax, %rdx jmp .LBB1_944 .LBB1_942: movq %rax, %rdx vmovsd 11848(%rdx,%r13), %xmm0 .LBB1_944: vmovaps %xmm0, 32256(%rbx) movb 500(%rdx,%r13), %cl movb %cl, %al andb $1, %al jne .LBB1_945 vxorpd %xmm7, %xmm7, %xmm7 jmp .LBB1_947 .LBB1_945: vmovsd 11672(%rdx,%r13), %xmm7 .LBB1_947: movb %r14b, %al andb $1, %al jne .LBB1_949 vxorpd %xmm3, %xmm3, %xmm3 .LBB1_949: andb $1, %r11b jne .LBB1_951 vxorps %xmm2, %xmm2, %xmm2 .LBB1_951: vmovapd %xmm3, 31104(%rbx) jne .LBB1_952 vxorps %xmm1, %xmm1, %xmm1 jmp .LBB1_954 .LBB1_952: vmovsd 11800(%rdx,%r13), %xmm1 .LBB1_954: vmovaps %xmm1, 32416(%rbx) vmovaps %xmm2, 32320(%rbx) vmovsd 11720(%rdx,%r13), %xmm2 jne .LBB1_955 movq %rdx, %rax vxorps %xmm1, %xmm1, %xmm1 jmp .LBB1_957 .LBB1_955: vmovsd 11736(%rdx,%r13), %xmm1 movq %rdx, %rax .LBB1_957: vmovaps %xmm1, 31648(%rbx) jne .LBB1_959 vxorpd %xmm2, %xmm2, %xmm2 .LBB1_959: vmovapd %xmm2, 32288(%rbx) andb $1, %r8b jne .LBB1_960 vxorps %xmm1, %xmm1, %xmm1 jmp .LBB1_962 .LBB1_960: vmovsd 11224(%rax,%r13), %xmm1 .LBB1_962: vmovaps %xmm1, 31616(%rbx) vmovsd 11208(%rax,%r13), %xmm0 jne .LBB1_963 vxorps %xmm1, %xmm1, %xmm1 jmp .LBB1_965 .LBB1_963: vmovsd 11288(%rax,%r13), %xmm1 .LBB1_965: vmovaps %xmm1, 31296(%rbx) jne .LBB1_967 vxorps %xmm0, %xmm0, %xmm0 .LBB1_967: vmovaps %xmm0, 31680(%rbx) andb $1, %cl vmovsd 11592(%rax,%r13), %xmm10 jne .LBB1_968 vxorps %xmm0, %xmm0, %xmm0 jmp .LBB1_970 .LBB1_968: vmovsd 11608(%rax,%r13), %xmm0 .LBB1_970: vmovaps %xmm0, 31328(%rbx) jne .LBB1_972 vxorpd %xmm10, %xmm10, %xmm10 .LBB1_972: movq %rax, %rsi vmovsd 11080(%rsi,%r13), %xmm1 movb 484(%rsi,%r13), %dl jne .LBB1_973 vxorps %xmm0, %xmm0, %xmm0 jmp .LBB1_975 .LBB1_973: vmovsd 11624(%rsi,%r13), %xmm0 .LBB1_975: vmovaps %xmm0, 31072(%rbx) movb %dl, %al andb $1, %al jne .LBB1_977 vxorps %xmm1, %xmm1, %xmm1 .LBB1_977: vmovaps %xmm1, 30944(%rbx) andb $1, %r14b jne .LBB1_978 vxorps %xmm0, %xmm0, %xmm0 jmp .LBB1_980 .LBB1_978: vmovsd 11480(%rsi,%r13), %xmm0 .LBB1_980: vmovaps %xmm0, 30976(%rbx) jne .LBB1_981 vxorpd %xmm5, %xmm5, %xmm5 jmp .LBB1_983 .LBB1_981: vmovsd 11464(%rsi,%r13), %xmm5 .LBB1_983: jne .LBB1_984 vxorps %xmm0, %xmm0, %xmm0 jmp .LBB1_986 .LBB1_984: vmovsd 11496(%rsi,%r13), %xmm0 .LBB1_986: vmovaps %xmm0, 30880(%rbx) andb $1, %dl vmovsd 11112(%rsi,%r13), %xmm1 jne .LBB1_987 movq %rsi, %rax vxorps %xmm0, %xmm0, %xmm0 jmp .LBB1_989 .LBB1_987: vmovsd 11096(%rsi,%r13), %xmm0 movq %rsi, %rax .LBB1_989: vmovaps %xmm0, 30912(%rbx) jne .LBB1_991 vxorps %xmm1, %xmm1, %xmm1 .LBB1_991: vmovaps %xmm1, 30656(%rbx) jne .LBB1_992 vxorps %xmm0, %xmm0, %xmm0 jmp .LBB1_994 .LBB1_992: vmovsd 11160(%rax,%r13), %xmm0 .LBB1_994: vmovaps %xmm0, 30144(%rbx) andb $1, %r9b jne .LBB1_995 vxorpd %xmm3, %xmm3, %xmm3 movq %rax, %rdi jmp .LBB1_997 .LBB1_995: movq %rax, %rdi vmovsd 11928(%rdi,%r13), %xmm3 .LBB1_997: movl 480(%rdi,%r13), %eax movl %eax, %esi andl $1, %esi vmovsd 11384(%rdi,%r13), %xmm0 vmovsd 11768(%rdi,%r13), %xmm9 vmovsd 11256(%rdi,%r13), %xmm1 vmovsd 11128(%rdi,%r13), %xmm4 vmovsd 11512(%rdi,%r13), %xmm11 testb %cl, %cl jne .LBB1_998 movq %rdi, %rcx vxorpd %xmm13, %xmm13, %xmm13 jmp .LBB1_1000 .LBB1_998: vmovsd 11640(%rdi,%r13), %xmm13 movq %rdi, %rcx .LBB1_1000: testb %r9b, %r9b jne .LBB1_1001 vxorpd %xmm15, %xmm15, %xmm15 jmp .LBB1_1003 .LBB1_1001: vmovsd 11896(%rcx,%r13), %xmm15 .LBB1_1003: testb %r14b, %r14b jne .LBB1_1005 vxorpd %xmm11, %xmm11, %xmm11 .LBB1_1005: testb %dl, %dl jne .LBB1_1007 vxorpd %xmm4, %xmm4, %xmm4 .LBB1_1007: testb %r8b, %r8b jne .LBB1_1009 vxorpd %xmm1, %xmm1, %xmm1 .LBB1_1009: testb %r11b, %r11b jne .LBB1_1011 vxorpd %xmm9, %xmm9, %xmm9 .LBB1_1011: vmovapd %xmm1, 30112(%rbx) testb %r10b, %r10b movq %rcx, %rdi jne .LBB1_1013 vxorpd %xmm0, %xmm0, %xmm0 .LBB1_1013: testb %sil, %sil jne .LBB1_1014 vxorpd %xmm1, %xmm1, %xmm1 jmp .LBB1_1016 .LBB1_1014: vmovsd 11032(%rdi,%r13), %xmm1 .LBB1_1016: vmovapd %xmm0, %xmm8 jne .LBB1_1017 vxorpd %xmm6, %xmm6, %xmm6 jmp .LBB1_1019 .LBB1_1017: vmovsd 10952(%rdi,%r13), %xmm6 .LBB1_1019: jne .LBB1_1020 vxorpd %xmm2, %xmm2, %xmm2 jmp .LBB1_1022 .LBB1_1020: vmovsd 11000(%rdi,%r13), %xmm2 .LBB1_1022: jne .LBB1_1023 vxorpd %xmm12, %xmm12, %xmm12 jmp .LBB1_1025 .LBB1_1023: vmovsd 10984(%rdi,%r13), %xmm12 .LBB1_1025: jne .LBB1_1026 vxorpd %xmm14, %xmm14, %xmm14 jmp .LBB1_1028 .LBB1_1026: vmovsd 10968(%rdi,%r13), %xmm14 .LBB1_1028: andl $1, %eax vunpcklpd %xmm13, %xmm11, %xmm11 vmovapd 32288(%rbx), %xmm0 vunpcklpd 32256(%rbx), %xmm0, %xmm0 vunpcklpd %xmm10, %xmm5, %xmm13 vmovapd 31104(%rbx), %xmm5 vunpcklpd %xmm7, %xmm5, %xmm10 vunpcklpd %xmm15, %xmm9, %xmm5 vmovapd 32416(%rbx), %xmm7 vunpcklpd %xmm3, %xmm7, %xmm7 vunpcklpd %xmm4, %xmm2, %xmm2 vmovapd 31680(%rbx), %xmm3 vunpcklpd 32864(%rbx), %xmm3, %xmm4 vunpcklpd 30944(%rbx), %xmm6, %xmm6 vmovapd 31296(%rbx), %xmm3 vunpcklpd 32672(%rbx), %xmm3, %xmm3 vunpcklpd 30144(%rbx), %xmm1, %xmm9 vmovapd 30112(%rbx), %xmm1 vunpcklpd %xmm8, %xmm1, %xmm1 vinsertf128 $1, %xmm7, %ymm10, %ymm7 vmovapd %ymm7, 32864(%rbx) vinsertf128 $1, %xmm0, %ymm13, %ymm0 vmovapd %ymm0, 32416(%rbx) vmovapd %ymm0, %ymm8 vinsertf128 $1, %xmm5, %ymm11, %ymm10 vmovapd %ymm10, 32256(%rbx) vmovapd 32320(%rbx), %xmm0 vunpcklpd 32896(%rbx), %xmm0, %xmm5 vmovapd 30880(%rbx), %xmm0 vunpcklpd 31072(%rbx), %xmm0, %xmm11 vinsertf128 $1, %xmm3, %ymm9, %ymm13 vmovapd %ymm13, 32672(%rbx) vinsertf128 $1, %xmm4, %ymm6, %ymm6 vmovapd %ymm6, 32320(%rbx) vinsertf128 $1, %xmm1, %ymm2, %ymm9 vmovapd %ymm9, 32288(%rbx) vmovapd 32352(%rbx), %xmm0 vunpcklpd 32480(%rbx), %xmm0, %xmm0 vunpcklpd 30656(%rbx), %xmm12, %xmm1 vmovapd 32736(%rbx), %ymm2 vmulpd %ymm10, %ymm2, %ymm2 vmulpd 32576(%rbx), %ymm2, %ymm2 vmovapd 32800(%rbx), %ymm15 vmulpd %ymm15, %ymm8, %ymm3 vmovapd %ymm3, 31680(%rbx) vmulpd %ymm7, %ymm3, %ymm3 vaddpd %ymm3, %ymm2, %ymm2 vinsertf128 $1, %xmm5, %ymm11, %ymm7 vmovapd %ymm7, 32352(%rbx) vmovapd 31648(%rbx), %xmm3 vunpcklpd 32000(%rbx), %xmm3, %xmm3 vmovapd 30976(%rbx), %xmm4 vunpcklpd 31328(%rbx), %xmm4, %xmm4 vinsertf128 $1, %xmm3, %ymm4, %ymm5 vmovapd %ymm5, 30880(%rbx) vmulpd %ymm7, %ymm5, %ymm3 vmovapd 32224(%rbx), %ymm8 vmulpd %ymm8, %ymm3, %ymm3 vaddpd %ymm3, %ymm2, %ymm2 vmovapd %ymm2, 32896(%rbx) vmovapd 32192(%rbx), %ymm2 vmulpd %ymm9, %ymm2, %ymm3 vmulpd 32544(%rbx), %ymm3, %ymm3 vmovapd 32832(%rbx), %ymm12 vmulpd %ymm12, %ymm6, %ymm4 vmovapd %ymm4, 31648(%rbx) vmulpd %ymm13, %ymm4, %ymm4 vaddpd %ymm4, %ymm3, %ymm3 vinsertf128 $1, %xmm0, %ymm1, %ymm11 vmovapd %ymm11, 32480(%rbx) vmovapd 31616(%rbx), %xmm0 vunpcklpd 32512(%rbx), %xmm0, %xmm0 vunpcklpd 30912(%rbx), %xmm14, %xmm1 vinsertf128 $1, %xmm0, %ymm1, %ymm4 vmovapd %ymm4, 30912(%rbx) vmulpd %ymm11, %ymm4, %ymm0 vmovapd 32160(%rbx), %ymm14 vmulpd %ymm14, %ymm0, %ymm0 vaddpd %ymm0, %ymm3, %ymm0 vmulpd %ymm11, %ymm2, %ymm1 vmulpd %ymm1, %ymm13, %ymm1 vsubpd %ymm1, %ymm0, %ymm1 vmovapd 32736(%rbx), %ymm0 vmulpd %ymm7, %ymm0, %ymm0 vmovapd 32864(%rbx), %ymm2 vmulpd %ymm0, %ymm2, %ymm0 vmovapd 32896(%rbx), %ymm2 vsubpd %ymm0, %ymm2, %ymm0 vmulpd 32416(%rbx), %ymm10, %ymm2 vmulpd %ymm8, %ymm2, %ymm2 vsubpd %ymm2, %ymm0, %ymm0 vmulpd %ymm6, %ymm9, %ymm2 vmulpd %ymm14, %ymm2, %ymm2 vmulpd %ymm5, %ymm15, %ymm3 vmovapd 32576(%rbx), %ymm5 vmulpd %ymm3, %ymm5, %ymm3 vsubpd %ymm3, %ymm0, %ymm0 vsubpd %ymm2, %ymm1, %ymm1 vmulpd %ymm4, %ymm12, %ymm2 vmovapd 32544(%rbx), %ymm3 vmulpd %ymm2, %ymm3, %ymm2 vsubpd %ymm2, %ymm1, %ymm1 vmulpd .LCPI1_22(%rip), %ymm1, %ymm11 vextractf128 $1, %ymm11, %xmm13 vunpckhpd %xmm11, %xmm11, %xmm1 je .LBB1_1030 vmovsd %xmm11, 10008(%r13,%rdi) .LBB1_1030: vmulpd .LCPI1_22(%rip), %ymm0, %ymm15 vunpckhpd %xmm13, %xmm13, %xmm0 testb $1, 484(%rdi,%r13) je .LBB1_1032 vmovsd %xmm1, 10136(%rdi,%r13) .LBB1_1032: testb $1, 488(%rdi,%r13) je .LBB1_1034 vmovsd %xmm13, 10264(%rdi,%r13) .LBB1_1034: vunpckhpd %xmm15, %xmm15, %xmm2 testb $1, 492(%rdi,%r13) je .LBB1_1036 vmovsd %xmm0, 10392(%rdi,%r13) .LBB1_1036: vextractf128 $1, %ymm15, %xmm14 testb $1, 496(%rdi,%r13) je .LBB1_1038 vmovsd %xmm15, 10520(%rdi,%r13) .LBB1_1038: vunpckhpd %xmm14, %xmm14, %xmm3 testb $1, 500(%rdi,%r13) je .LBB1_1040 vmovsd %xmm2, 10648(%rdi,%r13) .LBB1_1040: testb $1, 504(%rdi,%r13) je .LBB1_1042 vmovsd %xmm14, 10776(%rdi,%r13) .LBB1_1042: vmovapd %xmm2, 32576(%rbx) vmovapd %xmm1, 32736(%rbx) testb $1, 508(%rdi,%r13) je .LBB1_1044 vmovsd %xmm3, 10904(%rdi,%r13) .LBB1_1044: vmovapd %xmm0, 32896(%rbx) vxorpd %xmm2, %xmm2, %xmm2 testb $1, 484(%rdi,%r13) jne .LBB1_1045 vxorpd %xmm8, %xmm8, %xmm8 jmp .LBB1_1047 .LBB1_1045: vmovsd 10072(%rdi,%r13), %xmm8 .LBB1_1047: vmovapd %xmm3, 32544(%rbx) vmovsd 10328(%rdi,%r13), %xmm7 vmovsd 9944(%rdi,%r13), %xmm9 movl 480(%rdi,%r13), %eax vmovsd 10840(%rdi,%r13), %xmm3 testb $1, 504(%rdi,%r13) jne .LBB1_1048 vxorpd %xmm5, %xmm5, %xmm5 jmp .LBB1_1050 .LBB1_1048: vmovsd 10712(%rdi,%r13), %xmm5 .LBB1_1050: testb $1, 508(%rdi,%r13) jne .LBB1_1052 vxorpd %xmm3, %xmm3, %xmm3 .LBB1_1052: andl $1, %eax jne .LBB1_1054 vxorpd %xmm9, %xmm9, %xmm9 .LBB1_1054: testb $1, 492(%rdi,%r13) jne .LBB1_1056 vxorpd %xmm7, %xmm7, %xmm7 .LBB1_1056: testb $1, 488(%rdi,%r13) jne .LBB1_1057 vxorpd %xmm10, %xmm10, %xmm10 jmp .LBB1_1059 .LBB1_1057: vmovsd 10200(%rdi,%r13), %xmm10 .LBB1_1059: vunpcklpd %xmm7, %xmm10, %xmm0 vmovapd %xmm0, 32512(%rbx) vunpcklpd %xmm8, %xmm9, %xmm0 vmovapd %ymm0, 32224(%rbx) vunpcklpd %xmm3, %xmm5, %xmm0 vmovapd %xmm0, 32192(%rbx) testb $1, 496(%rdi,%r13) jne .LBB1_1060 vxorpd %xmm12, %xmm12, %xmm12 jmp .LBB1_1062 .LBB1_1060: vmovsd 10456(%rdi,%r13), %xmm12 .LBB1_1062: testb $1, 500(%rdi,%r13) je .LBB1_1064 vmovsd 10584(%rdi,%r13), %xmm2 .LBB1_1064: vunpcklpd %xmm2, %xmm12, %xmm0 vmovapd %ymm0, 32160(%rbx) testl %eax, %eax je .LBB1_1066 vmovsd %xmm9, 10016(%r13,%rdi) .LBB1_1066: testb $1, 484(%rdi,%r13) je .LBB1_1068 vmovsd %xmm8, 10144(%rdi,%r13) .LBB1_1068: testb $1, 488(%rdi,%r13) je .LBB1_1070 vmovsd %xmm10, 10272(%rdi,%r13) .LBB1_1070: testb $1, 492(%rdi,%r13) vmovaps 31968(%rbx), %xmm1 vmovaps 30848(%rbx), %xmm6 vmovaps 30816(%rbx), %xmm0 vmovaps 30752(%rbx), %xmm4 vmovapd 30720(%rbx), %xmm8 je .LBB1_1072 vmovsd %xmm7, 10400(%rdi,%r13) .LBB1_1072: testb $1, 496(%rdi,%r13) je .LBB1_1074 vmovsd %xmm12, 10528(%rdi,%r13) .LBB1_1074: testb $1, 500(%rdi,%r13) je .LBB1_1076 vmovsd %xmm2, 10656(%rdi,%r13) .LBB1_1076: testb $1, 504(%rdi,%r13) je .LBB1_1078 vmovsd %xmm5, 10784(%rdi,%r13) .LBB1_1078: testb $1, 508(%rdi,%r13) je .LBB1_1080 vmovsd %xmm3, 10912(%rdi,%r13) .LBB1_1080: testb $1, 480(%rdi,%r13) je .LBB1_1082 vmovapd 30784(%rbx), %ymm2 vmovsd %xmm2, 10024(%r13,%rdi) .LBB1_1082: testb $1, 484(%rdi,%r13) je .LBB1_1084 vmovsd %xmm0, 10152(%rdi,%r13) .LBB1_1084: testb $1, 488(%rdi,%r13) je .LBB1_1086 vmovsd %xmm1, 10280(%rdi,%r13) .LBB1_1086: testb $1, 492(%rdi,%r13) je .LBB1_1088 vmovsd %xmm6, 10408(%rdi,%r13) .LBB1_1088: testb $1, 496(%rdi,%r13) je .LBB1_1090 vmovapd 32704(%rbx), %ymm2 vmovsd %xmm2, 10536(%rdi,%r13) .LBB1_1090: testb $1, 500(%rdi,%r13) je .LBB1_1092 vmovsd %xmm4, 10664(%rdi,%r13) .LBB1_1092: testb $1, 504(%rdi,%r13) vmovaps 32736(%rbx), %xmm1 je .LBB1_1094 vmovsd %xmm8, 10792(%rdi,%r13) .LBB1_1094: testb $1, 508(%rdi,%r13) vmovaps 30688(%rbx), %xmm0 je .LBB1_1096 vmovsd %xmm0, 10920(%rdi,%r13) .LBB1_1096: testb $1, 480(%rdi,%r13) je .LBB1_1098 vmovsd %xmm11, 10032(%r13,%rdi) .LBB1_1098: testb $1, 484(%rdi,%r13) vmovaps 32896(%rbx), %xmm0 je .LBB1_1100 vmovsd %xmm1, 10160(%rdi,%r13) .LBB1_1100: testb $1, 488(%rdi,%r13) je .LBB1_1102 vmovsd %xmm13, 10288(%rdi,%r13) .LBB1_1102: testb $1, 492(%rdi,%r13) vmovaps 32576(%rbx), %xmm1 je .LBB1_1104 vmovsd %xmm0, 10416(%rdi,%r13) .LBB1_1104: testb $1, 496(%rdi,%r13) vmovaps 32544(%rbx), %xmm0 je .LBB1_1106 vmovsd %xmm15, 10544(%rdi,%r13) .LBB1_1106: testb $1, 500(%rdi,%r13) je .LBB1_1108 vmovsd %xmm1, 10672(%rdi,%r13) .LBB1_1108: testb $1, 504(%rdi,%r13) je .LBB1_1110 vmovsd %xmm14, 10800(%rdi,%r13) .LBB1_1110: testb $1, 508(%rdi,%r13) je .LBB1_1112 vmovsd %xmm0, 10928(%rdi,%r13) .LBB1_1112: vmovaps 32160(%rbx), %ymm0 vinsertf128 $1, 32192(%rbx), %ymm0, %ymm0 vmovaps %ymm0, 29504(%rbx) vmovaps 32224(%rbx), %ymm0 vinsertf128 $1, 32512(%rbx), %ymm0, %ymm0 vmovaps %ymm0, 29472(%rbx) movb 508(%rdi,%r13), %r10b movb %r10b, %al andb $1, %al jne .LBB1_1113 vxorps %xmm0, %xmm0, %xmm0 jmp .LBB1_1115 .LBB1_1113: vmovsd 11912(%rdi,%r13), %xmm0 .LBB1_1115: vmovaps %xmm0, 31072(%rbx) jne .LBB1_1116 vxorps %xmm0, %xmm0, %xmm0 jmp .LBB1_1118 .LBB1_1116: vmovsd 11920(%rdi,%r13), %xmm0 .LBB1_1118: vmovaps %xmm0, 30944(%rbx) vmovsd 11792(%rdi,%r13), %xmm1 movb 504(%rdi,%r13), %r9b movb %r9b, %al andb $1, %al jne .LBB1_1119 vxorps %xmm0, %xmm0, %xmm0 jmp .LBB1_1121 .LBB1_1119: vmovsd 11784(%rdi,%r13), %xmm0 .LBB1_1121: vmovaps %xmm0, 30976(%rbx) jne .LBB1_1123 vxorps %xmm1, %xmm1, %xmm1 .LBB1_1123: vmovaps %xmm1, 30848(%rbx) vmovsd 11656(%rdi,%r13), %xmm0 movb 500(%rdi,%r13), %al jne .LBB1_1124 vxorpd %xmm2, %xmm2, %xmm2 jmp .LBB1_1126 .LBB1_1124: vmovsd 11728(%rdi,%r13), %xmm2 .LBB1_1126: vmovapd %xmm2, 31616(%rbx) movb %al, %dl andb $1, %dl jne .LBB1_1128 vxorps %xmm0, %xmm0, %xmm0 .LBB1_1128: vmovaps %xmm0, 31968(%rbx) movb 496(%rdi,%r13), %dl andb $1, %dl jne .LBB1_1129 vxorpd %xmm8, %xmm8, %xmm8 jmp .LBB1_1131 .LBB1_1129: vmovsd 11504(%rdi,%r13), %xmm8 .LBB1_1131: vmovsd 11536(%rdi,%r13), %xmm1 vmovsd 11472(%rdi,%r13), %xmm0 jne .LBB1_1132 vxorpd %xmm2, %xmm2, %xmm2 jmp .LBB1_1134 .LBB1_1132: vmovsd 11528(%rdi,%r13), %xmm2 .LBB1_1134: vmovapd %xmm2, 31296(%rbx) jne .LBB1_1136 vxorps %xmm0, %xmm0, %xmm0 .LBB1_1136: vmovaps %xmm0, 31328(%rbx) jne .LBB1_1138 vxorps %xmm1, %xmm1, %xmm1 .LBB1_1138: vmovaps %xmm1, 30816(%rbx) jne .LBB1_1139 vxorpd %xmm9, %xmm9, %xmm9 jmp .LBB1_1141 .LBB1_1139: vmovsd 11520(%rdi,%r13), %xmm9 .LBB1_1141: movb %r10b, %cl andb $1, %cl jne .LBB1_1142 vxorpd %xmm2, %xmm2, %xmm2 jmp .LBB1_1144 .LBB1_1142: vmovsd 11904(%rdi,%r13), %xmm2 .LBB1_1144: vmovapd %xmm2, 32736(%rbx) jne .LBB1_1145 vxorpd %xmm2, %xmm2, %xmm2 jmp .LBB1_1147 .LBB1_1145: vmovsd 11888(%rdi,%r13), %xmm2 .LBB1_1147: vmovapd %xmm2, 32224(%rbx) andb $1, %r9b jne .LBB1_1148 vxorpd %xmm2, %xmm2, %xmm2 jmp .LBB1_1150 .LBB1_1148: vmovsd 11776(%rdi,%r13), %xmm2 .LBB1_1150: vmovapd %xmm2, 32192(%rbx) jne .LBB1_1151 vxorpd %xmm2, %xmm2, %xmm2 jmp .LBB1_1153 .LBB1_1151: vmovsd 11760(%rdi,%r13), %xmm2 .LBB1_1153: vmovapd %xmm2, 31104(%rbx) andb $1, %al jne .LBB1_1154 vxorpd %xmm12, %xmm12, %xmm12 jmp .LBB1_1156 .LBB1_1154: vmovsd 11632(%rdi,%r13), %xmm12 .LBB1_1156: vmovsd 11648(%rdi,%r13), %xmm0 vmovsd 11664(%rdi,%r13), %xmm2 jne .LBB1_1157 vxorps %xmm1, %xmm1, %xmm1 jmp .LBB1_1159 .LBB1_1157: vmovsd 11600(%rdi,%r13), %xmm1 .LBB1_1159: vmovaps %xmm1, 30784(%rbx) jne .LBB1_1161 vxorps %xmm2, %xmm2, %xmm2 .LBB1_1161: vmovaps %xmm2, 30688(%rbx) jne .LBB1_1163 vxorpd %xmm0, %xmm0, %xmm0 .LBB1_1163: andb $1, %r10b vmovsd 11400(%rdi,%r13), %xmm2 vmovaps %xmm2, 32896(%rbx) movb 492(%rdi,%r13), %r8b vmovsd 11584(%rdi,%r13), %xmm5 vmovsd 11712(%rdi,%r13), %xmm11 vmovsd 11840(%rdi,%r13), %xmm15 vmovsd 11456(%rdi,%r13), %xmm13 movl 480(%rdi,%r13), %r11d jne .LBB1_1164 vxorps %xmm1, %xmm1, %xmm1 jmp .LBB1_1166 .LBB1_1164: vmovsd 11856(%rdi,%r13), %xmm1 .LBB1_1166: vmovaps %xmm1, 29344(%rbx) movl %r11d, %esi andl $1, %esi testb %dl, %dl jne .LBB1_1168 vxorpd %xmm13, %xmm13, %xmm13 .LBB1_1168: testb %r10b, %r10b jne .LBB1_1170 vxorpd %xmm15, %xmm15, %xmm15 .LBB1_1170: testb %r9b, %r9b jne .LBB1_1172 vxorpd %xmm11, %xmm11, %xmm11 .LBB1_1172: testb %al, %al jne .LBB1_1174 vxorpd %xmm5, %xmm5, %xmm5 .LBB1_1174: andb $1, %r8b jne .LBB1_1176 vxorps %xmm2, %xmm2, %xmm2 vmovaps %xmm2, 32896(%rbx) .LBB1_1176: vmovsd 11280(%rdi,%r13), %xmm1 vmovaps %xmm1, 32704(%rbx) vmovsd 11272(%rdi,%r13), %xmm2 movb 488(%rdi,%r13), %al vmovsd 11392(%rdi,%r13), %xmm14 vmovsd 11408(%rdi,%r13), %xmm3 vmovsd 11376(%rdi,%r13), %xmm4 jne .LBB1_1177 vxorps %xmm1, %xmm1, %xmm1 jmp .LBB1_1179 .LBB1_1177: vmovsd 11344(%rdi,%r13), %xmm1 .LBB1_1179: vmovaps %xmm1, 30752(%rbx) jne .LBB1_1181 vxorps %xmm4, %xmm4, %xmm4 .LBB1_1181: vmovaps %xmm4, 30144(%rbx) jne .LBB1_1183 vxorps %xmm3, %xmm3, %xmm3 .LBB1_1183: vmovaps %xmm3, 30656(%rbx) jne .LBB1_1185 vxorps %xmm14, %xmm14, %xmm14 .LBB1_1185: andb $1, %al jne .LBB1_1187 vxorps %xmm2, %xmm2, %xmm2 .LBB1_1187: vmovaps %xmm14, 30080(%rbx) jne .LBB1_1189 vxorps %xmm1, %xmm1, %xmm1 vmovaps %xmm1, 32704(%rbx) .LBB1_1189: vmovaps %xmm2, 30720(%rbx) vmovsd 11200(%rdi,%r13), %xmm1 vmovaps %xmm1, 32576(%rbx) vmovsd 11072(%rdi,%r13), %xmm6 vmovsd 11328(%rdi,%r13), %xmm14 vmovsd 11136(%rdi,%r13), %xmm1 vmovaps %xmm1, 32544(%rbx) vmovsd 11152(%rdi,%r13), %xmm7 vmovsd 11120(%rdi,%r13), %xmm2 vmovsd 11088(%rdi,%r13), %xmm1 vmovsd 11144(%rdi,%r13), %xmm4 movb 484(%rdi,%r13), %cl vmovsd 11248(%rdi,%r13), %xmm3 vmovaps %xmm3, 32160(%rbx) vmovsd 11264(%rdi,%r13), %xmm3 vmovapd %xmm3, 32512(%rbx) jne .LBB1_1190 vxorpd %xmm3, %xmm3, %xmm3 jmp .LBB1_1192 .LBB1_1190: vmovsd 11216(%rdi,%r13), %xmm3 .LBB1_1192: vmovapd %xmm3, 30048(%rbx) jne .LBB1_1194 vxorpd %xmm3, %xmm3, %xmm3 vmovapd %xmm3, 32512(%rbx) .LBB1_1194: jne .LBB1_1196 vxorpd %xmm3, %xmm3, %xmm3 vmovapd %xmm3, 32160(%rbx) .LBB1_1196: andb $1, %cl jne .LBB1_1198 vxorpd %xmm4, %xmm4, %xmm4 .LBB1_1198: jne .LBB1_1200 vxorps %xmm1, %xmm1, %xmm1 .LBB1_1200: vmovapd %xmm4, 30016(%rbx) jne .LBB1_1202 vxorpd %xmm2, %xmm2, %xmm2 .LBB1_1202: vmovaps %xmm1, 30112(%rbx) jne .LBB1_1204 vxorpd %xmm7, %xmm7, %xmm7 .LBB1_1204: jne .LBB1_1206 vxorps %xmm1, %xmm1, %xmm1 vmovaps %xmm1, 32544(%rbx) .LBB1_1206: testb %r8b, %r8b jne .LBB1_1208 vxorps %xmm14, %xmm14, %xmm14 .LBB1_1208: vmovapd %xmm7, 29408(%rbx) testb %cl, %cl jne .LBB1_1210 vxorpd %xmm6, %xmm6, %xmm6 .LBB1_1210: testb %al, %al jne .LBB1_1212 vxorps %xmm1, %xmm1, %xmm1 vmovaps %xmm1, 32576(%rbx) .LBB1_1212: vmovaps %xmm14, 29440(%rbx) testb %sil, %sil jne .LBB1_1213 vxorpd %xmm3, %xmm3, %xmm3 jmp .LBB1_1215 .LBB1_1213: vmovsd 10944(%rdi,%r13), %xmm3 .LBB1_1215: vmovapd %xmm6, %xmm14 jne .LBB1_1216 vxorpd %xmm4, %xmm4, %xmm4 jmp .LBB1_1218 .LBB1_1216: vmovsd 11024(%rdi,%r13), %xmm4 .LBB1_1218: jne .LBB1_1219 vxorpd %xmm6, %xmm6, %xmm6 jmp .LBB1_1221 .LBB1_1219: vmovsd 11008(%rdi,%r13), %xmm6 .LBB1_1221: jne .LBB1_1222 vxorpd %xmm7, %xmm7, %xmm7 jmp .LBB1_1224 .LBB1_1222: vmovsd 10992(%rdi,%r13), %xmm7 .LBB1_1224: jne .LBB1_1225 vxorps %xmm1, %xmm1, %xmm1 jmp .LBB1_1227 .LBB1_1225: vmovsd 11016(%rdi,%r13), %xmm1 .LBB1_1227: vmovaps %xmm1, 29376(%rbx) jne .LBB1_1228 vxorps %xmm1, %xmm1, %xmm1 jmp .LBB1_1230 .LBB1_1228: vmovsd 10960(%rdi,%r13), %xmm1 .LBB1_1230: vmovaps %xmm1, 32000(%rbx) andl $1, %r11d vunpcklpd %xmm12, %xmm8, %xmm8 vunpcklpd %xmm0, %xmm9, %xmm9 vunpcklpd %xmm15, %xmm11, %xmm0 vunpcklpd %xmm5, %xmm13, %xmm12 vmovapd 30848(%rbx), %xmm5 vunpcklpd 30944(%rbx), %xmm5, %xmm5 vmovapd 30816(%rbx), %xmm1 vunpcklpd 30688(%rbx), %xmm1, %xmm15 vmovapd 31104(%rbx), %xmm1 vunpcklpd 32224(%rbx), %xmm1, %xmm11 vmovapd 32192(%rbx), %xmm1 vunpcklpd 32736(%rbx), %xmm1, %xmm1 vinsertf128 $1, %xmm5, %ymm15, %ymm5 vmovapd %ymm5, 32736(%rbx) vmovapd %ymm5, %ymm10 vinsertf128 $1, %xmm0, %ymm12, %ymm15 vmovapd %ymm15, 30816(%rbx) vinsertf128 $1, %xmm1, %ymm9, %ymm12 vmovapd %ymm12, 32192(%rbx) vinsertf128 $1, %xmm11, %ymm8, %ymm13 vmovapd %ymm13, 32224(%rbx) vmovapd 31616(%rbx), %xmm0 vunpcklpd 29344(%rbx), %xmm0, %xmm0 vmovapd 31328(%rbx), %xmm1 vunpcklpd 30784(%rbx), %xmm1, %xmm9 vmovapd 30976(%rbx), %xmm1 vunpcklpd 31072(%rbx), %xmm1, %xmm1 vmovapd 31296(%rbx), %xmm5 vunpcklpd 31968(%rbx), %xmm5, %xmm11 vmovapd 32416(%rbx), %ymm5 vmulpd %ymm13, %ymm5, %ymm5 vmulpd %ymm12, %ymm5, %ymm5 vmovapd 32352(%rbx), %ymm12 vmulpd %ymm12, %ymm15, %ymm8 vmulpd %ymm10, %ymm8, %ymm8 vaddpd %ymm5, %ymm8, %ymm8 vinsertf128 $1, %xmm1, %ymm11, %ymm11 vmovapd %ymm11, 30848(%rbx) vinsertf128 $1, %xmm0, %ymm9, %ymm10 vmovapd %ymm10, 30688(%rbx) vunpcklpd %xmm2, %xmm7, %xmm2 vunpcklpd 32544(%rbx), %xmm6, %xmm6 vunpcklpd %xmm14, %xmm3, %xmm3 vunpcklpd 29408(%rbx), %xmm4, %xmm7 vmovapd 32160(%rbx), %xmm0 vunpcklpd 30144(%rbx), %xmm0, %xmm1 vmovapd 32512(%rbx), %xmm0 vunpcklpd 30080(%rbx), %xmm0, %xmm4 vmovapd 32576(%rbx), %xmm0 vunpcklpd 29440(%rbx), %xmm0, %xmm5 vmovapd 32704(%rbx), %xmm0 vunpcklpd 30656(%rbx), %xmm0, %xmm0 vmulpd 32800(%rbx), %ymm10, %ymm9 vmulpd %ymm11, %ymm9, %ymm9 vaddpd %ymm9, %ymm8, %ymm8 vmovapd %ymm8, 32704(%rbx) vinsertf128 $1, %xmm0, %ymm7, %ymm8 vmovapd %ymm8, 32800(%rbx) vinsertf128 $1, %xmm5, %ymm3, %ymm7 vmovapd %ymm7, 30144(%rbx) vinsertf128 $1, %xmm4, %ymm6, %ymm9 vmovapd %ymm9, 30080(%rbx) vinsertf128 $1, %xmm1, %ymm2, %ymm14 vmovapd %ymm14, 32160(%rbx) vmovapd 30720(%rbx), %xmm0 vunpcklpd 32896(%rbx), %xmm0, %xmm2 vmovapd 29376(%rbx), %xmm0 vunpcklpd 30016(%rbx), %xmm0, %xmm3 vmovapd 32320(%rbx), %ymm0 vmulpd %ymm14, %ymm0, %ymm0 vmulpd %ymm9, %ymm0, %ymm0 vmovapd 32480(%rbx), %ymm4 vmulpd %ymm4, %ymm7, %ymm1 vmulpd %ymm8, %ymm1, %ymm1 vaddpd %ymm0, %ymm1, %ymm1 vmulpd %ymm13, %ymm15, %ymm0 vmulpd %ymm11, %ymm0, %ymm0 vmovapd 32704(%rbx), %ymm5 vsubpd %ymm0, %ymm5, %ymm0 vinsertf128 $1, %xmm2, %ymm3, %ymm5 vmovapd %ymm5, 30656(%rbx) vmovapd 30048(%rbx), %xmm2 vunpcklpd 30752(%rbx), %xmm2, %xmm2 vmovapd 32000(%rbx), %xmm3 vunpcklpd 30112(%rbx), %xmm3, %xmm3 vinsertf128 $1, %xmm2, %ymm3, %ymm6 vmovapd %ymm6, 30112(%rbx) vmovapd 32736(%rbx), %ymm2 vmulpd 31680(%rbx), %ymm2, %ymm2 vmulpd 32832(%rbx), %ymm6, %ymm3 vmulpd %ymm5, %ymm3, %ymm3 vaddpd %ymm3, %ymm1, %ymm1 vmulpd %ymm14, %ymm7, %ymm3 vmulpd %ymm5, %ymm3, %ymm3 vsubpd %ymm3, %ymm1, %ymm1 vmulpd 31648(%rbx), %ymm8, %ymm3 vsubpd %ymm3, %ymm1, %ymm1 vmulpd %ymm10, %ymm12, %ymm3 vmulpd %ymm6, %ymm4, %ymm4 vmulpd %ymm4, %ymm9, %ymm4 vsubpd %ymm4, %ymm1, %ymm1 vmulpd .LCPI1_22(%rip), %ymm1, %ymm1 je .LBB1_1232 vmovlpd %xmm1, 10040(%r13,%rdi) .LBB1_1232: vsubpd %ymm2, %ymm0, %ymm0 vmovapd 32192(%rbx), %ymm2 vmulpd %ymm3, %ymm2, %ymm2 testb $1, 484(%rdi,%r13) je .LBB1_1234 vunpckhpd %xmm1, %xmm1, %xmm3 vmovsd %xmm3, 10168(%rdi,%r13) .LBB1_1234: vsubpd %ymm2, %ymm0, %ymm0 vextractf128 $1, %ymm1, %xmm1 testb $1, 488(%rdi,%r13) je .LBB1_1236 vmovsd %xmm1, 10296(%rdi,%r13) .LBB1_1236: vmulpd .LCPI1_22(%rip), %ymm0, %ymm0 testb $1, 492(%rdi,%r13) je .LBB1_1238 vunpckhpd %xmm1, %xmm1, %xmm1 vmovsd %xmm1, 10424(%rdi,%r13) .LBB1_1238: testb $1, 496(%rdi,%r13) je .LBB1_1240 vmovsd %xmm0, 10552(%rdi,%r13) .LBB1_1240: testb $1, 500(%rdi,%r13) je .LBB1_1242 vunpckhpd %xmm0, %xmm0, %xmm1 vmovsd %xmm1, 10680(%rdi,%r13) .LBB1_1242: vextractf128 $1, %ymm0, %xmm0 testb $1, 504(%rdi,%r13) je .LBB1_1244 vmovsd %xmm0, 10808(%rdi,%r13) .LBB1_1244: testb $1, 508(%rdi,%r13) je .LBB1_1246 vunpckhpd %xmm0, %xmm0, %xmm0 vmovsd %xmm0, 10936(%rdi,%r13) .LBB1_1246: vmovsd 11704(%rdi,%r13), %xmm0 vmovaps %xmm0, 32000(%rbx) vmovsd 11944(%rdi,%r13), %xmm15 vmovsd 11872(%rdi,%r13), %xmm3 vmovsd 10832(%rdi,%r13), %xmm6 vmovsd 11936(%rdi,%r13), %xmm4 vmovsd 10816(%rdi,%r13), %xmm0 vmovsd 11672(%rdi,%r13), %xmm1 vmovaps %xmm1, 32832(%rbx) vmovsd 11680(%rdi,%r13), %xmm12 vmovsd 10568(%rdi,%r13), %xmm13 vmovsd 11664(%rdi,%r13), %xmm1 vmovaps %xmm1, 32896(%rbx) vmovsd 11688(%rdi,%r13), %xmm1 vmovaps %xmm1, 32704(%rbx) vmovsd 10576(%rdi,%r13), %xmm2 vmovaps %xmm2, 32576(%rbx) vmovsd 11616(%rdi,%r13), %xmm14 vmovsd 11696(%rdi,%r13), %xmm5 vmovaps %xmm5, 32544(%rbx) vmovsd 10560(%rdi,%r13), %xmm1 vmovaps %xmm1, 31968(%rbx) vmovsd 11928(%rdi,%r13), %xmm8 vmovsd 11920(%rdi,%r13), %xmm7 vmovsd 11952(%rdi,%r13), %xmm1 vmovaps %xmm1, 32512(%rbx) vmovsd 10824(%rdi,%r13), %xmm2 vmovsd 11832(%rdi,%r13), %xmm1 vmovaps %xmm1, 31680(%rbx) vmovsd 11960(%rdi,%r13), %xmm1 vmovaps %xmm1, 31648(%rbx) movl 508(%rdi,%r13), %edx movl 500(%rdi,%r13), %ecx vmovsd 11576(%rdi,%r13), %xmm1 movl 496(%rdi,%r13), %r10d vmovsd 11064(%rdi,%r13), %xmm5 vmovaps %xmm5, 31104(%rbx) vmovsd 11448(%rdi,%r13), %xmm5 vmovaps %xmm5, 31328(%rbx) movl 492(%rdi,%r13), %r11d vmovsd 11320(%rdi,%r13), %xmm10 movl 488(%rdi,%r13), %r8d movl 480(%rdi,%r13), %r9d movl 484(%rdi,%r13), %eax andl $1, %eax jne .LBB1_1247 vxorps %xmm5, %xmm5, %xmm5 jmp .LBB1_1249 .LBB1_1247: vmovsd 11192(%rdi,%r13), %xmm5 .LBB1_1249: andl $1, %r8d jne .LBB1_1251 vxorpd %xmm10, %xmm10, %xmm10 .LBB1_1251: vmovaps %xmm5, 30048(%rbx) andl $1, %r11d jne .LBB1_1253 vxorpd %xmm9, %xmm9, %xmm9 vmovapd %xmm9, 31328(%rbx) .LBB1_1253: andl $1, %r9d jne .LBB1_1255 vxorps %xmm5, %xmm5, %xmm5 vmovaps %xmm5, 31104(%rbx) .LBB1_1255: andl $1, %r10d jne .LBB1_1257 vxorps %xmm1, %xmm1, %xmm1 .LBB1_1257: vmovaps %xmm1, 29120(%rbx) andl $1, %ecx jne .LBB1_1259 vxorps %xmm1, %xmm1, %xmm1 vmovaps %xmm1, 32000(%rbx) .LBB1_1259: andl $1, %edx jne .LBB1_1261 vxorps %xmm1, %xmm1, %xmm1 vmovaps %xmm1, 31648(%rbx) .LBB1_1261: movl 504(%rdi,%r13), %esi andl $1, %esi jne .LBB1_1263 vxorps %xmm1, %xmm1, %xmm1 vmovaps %xmm1, 31680(%rbx) .LBB1_1263: testb %dl, %dl jne .LBB1_1265 vxorps %xmm0, %xmm0, %xmm0 .LBB1_1265: jne .LBB1_1267 vxorps %xmm2, %xmm2, %xmm2 .LBB1_1267: jne .LBB1_1269 vxorps %xmm1, %xmm1, %xmm1 vmovaps %xmm1, 32512(%rbx) .LBB1_1269: vmovaps %xmm0, 30016(%rbx) jne .LBB1_1271 vxorps %xmm4, %xmm4, %xmm4 .LBB1_1271: jne .LBB1_1273 vxorps %xmm6, %xmm6, %xmm6 .LBB1_1273: vmovaps %xmm2, 29152(%rbx) jne .LBB1_1275 vxorps %xmm3, %xmm3, %xmm3 .LBB1_1275: jne .LBB1_1277 vxorps %xmm15, %xmm15, %xmm15 .LBB1_1277: vmovaps %xmm4, 29248(%rbx) jne .LBB1_1279 vxorps %xmm7, %xmm7, %xmm7 .LBB1_1279: jne .LBB1_1281 vxorps %xmm8, %xmm8, %xmm8 .LBB1_1281: vmovaps %xmm6, 29280(%rbx) testb %cl, %cl vmovsd 11104(%rdi,%r13), %xmm11 vmovsd 10056(%rdi,%r13), %xmm0 vmovaps %xmm0, 31296(%rbx) vmovsd 10048(%rdi,%r13), %xmm0 vmovaps %xmm0, 31072(%rbx) jne .LBB1_1283 vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 31968(%rbx) .LBB1_1283: vmovaps %xmm3, 29376(%rbx) jne .LBB1_1285 vxorps %xmm13, %xmm13, %xmm13 .LBB1_1285: vmovaps %xmm15, 29440(%rbx) jne .LBB1_1287 vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 32544(%rbx) .LBB1_1287: jne .LBB1_1289 vxorps %xmm14, %xmm14, %xmm14 .LBB1_1289: vmovaps %xmm7, 29312(%rbx) jne .LBB1_1291 vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 32576(%rbx) .LBB1_1291: vmovaps %xmm8, 29344(%rbx) jne .LBB1_1293 vxorps %xmm12, %xmm12, %xmm12 .LBB1_1293: vmovaps 32896(%rbx), %xmm1 jne .LBB1_1295 vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 32704(%rbx) .LBB1_1295: jne .LBB1_1297 vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 32832(%rbx) .LBB1_1297: vmovapd %xmm10, %xmm9 vmovaps %xmm13, 29184(%rbx) jne .LBB1_1299 vxorps %xmm1, %xmm1, %xmm1 .LBB1_1299: testb %al, %al vmovsd 10064(%rdi,%r13), %xmm3 vmovsd 11168(%rdi,%r13), %xmm0 vmovsd 11160(%rdi,%r13), %xmm6 vmovsd 11176(%rdi,%r13), %xmm2 vmovaps %xmm2, 31616(%rbx) vmovsd 11152(%rdi,%r13), %xmm5 vmovsd 11184(%rdi,%r13), %xmm4 vmovsd 11360(%rdi,%r13), %xmm10 vmovsd 11424(%rdi,%r13), %xmm13 vmovsd 10312(%rdi,%r13), %xmm15 vmovsd 10304(%rdi,%r13), %xmm2 jne .LBB1_1301 vxorps %xmm7, %xmm7, %xmm7 vmovaps %xmm7, 31072(%rbx) .LBB1_1301: vmovaps %xmm14, 29216(%rbx) jne .LBB1_1303 vxorps %xmm7, %xmm7, %xmm7 vmovaps %xmm7, 31296(%rbx) .LBB1_1303: jne .LBB1_1305 vxorps %xmm4, %xmm4, %xmm4 .LBB1_1305: vmovaps %xmm4, 28736(%rbx) jne .LBB1_1307 vxorps %xmm11, %xmm11, %xmm11 .LBB1_1307: vmovaps %xmm12, 29408(%rbx) jne .LBB1_1309 vxorps %xmm5, %xmm5, %xmm5 .LBB1_1309: jne .LBB1_1311 vxorps %xmm7, %xmm7, %xmm7 vmovaps %xmm7, 31616(%rbx) .LBB1_1311: vmovaps %xmm5, 28928(%rbx) jne .LBB1_1313 vxorps %xmm6, %xmm6, %xmm6 .LBB1_1313: vmovaps %xmm11, 29088(%rbx) jne .LBB1_1315 vxorps %xmm0, %xmm0, %xmm0 .LBB1_1315: vmovaps %xmm6, 28896(%rbx) vmovaps %xmm1, 32896(%rbx) jne .LBB1_1317 vxorps %xmm3, %xmm3, %xmm3 .LBB1_1317: testb %r11b, %r11b vmovsd 11416(%rdi,%r13), %xmm14 vmovsd 11408(%rdi,%r13), %xmm5 vmovsd 11432(%rdi,%r13), %xmm6 vmovsd 11440(%rdi,%r13), %xmm7 vmovsd 10320(%rdi,%r13), %xmm4 vmovsd 11792(%rdi,%r13), %xmm11 vmovsd 11808(%rdi,%r13), %xmm12 vmovsd 10688(%rdi,%r13), %xmm1 vmovaps %xmm1, 30752(%rbx) jne .LBB1_1319 vxorps %xmm2, %xmm2, %xmm2 .LBB1_1319: vmovaps %xmm0, 29056(%rbx) jne .LBB1_1321 vxorps %xmm15, %xmm15, %xmm15 .LBB1_1321: vmovaps %xmm3, 28992(%rbx) jne .LBB1_1323 vxorps %xmm4, %xmm4, %xmm4 .LBB1_1323: vmovaps %xmm2, 28480(%rbx) vmovaps %xmm4, 28512(%rbx) jne .LBB1_1325 vxorps %xmm7, %xmm7, %xmm7 .LBB1_1325: vmovaps %xmm7, 28576(%rbx) jne .LBB1_1327 vxorps %xmm6, %xmm6, %xmm6 .LBB1_1327: vmovaps %xmm15, 28608(%rbx) jne .LBB1_1329 vxorps %xmm5, %xmm5, %xmm5 .LBB1_1329: vmovaps %xmm6, 28800(%rbx) jne .LBB1_1331 vxorps %xmm13, %xmm13, %xmm13 .LBB1_1331: vmovaps %xmm5, 28832(%rbx) jne .LBB1_1333 vxorps %xmm10, %xmm10, %xmm10 .LBB1_1333: jne .LBB1_1335 vxorps %xmm14, %xmm14, %xmm14 .LBB1_1335: testb %sil, %sil vmovsd 11816(%rdi,%r13), %xmm5 vmovsd 11800(%rdi,%r13), %xmm6 vmovsd 10704(%rdi,%r13), %xmm4 vmovsd 11824(%rdi,%r13), %xmm7 vmovsd 11744(%rdi,%r13), %xmm0 vmovsd 10696(%rdi,%r13), %xmm3 vmovsd 11560(%rdi,%r13), %xmm2 vmovaps %xmm2, 30976(%rbx) vmovsd 11488(%rdi,%r13), %xmm8 vmovsd 10448(%rdi,%r13), %xmm2 vmovaps %xmm2, 30944(%rbx) vmovsd 10440(%rdi,%r13), %xmm1 vmovaps %xmm1, 30720(%rbx) vmovsd 10432(%rdi,%r13), %xmm1 jne .LBB1_1337 vxorps %xmm2, %xmm2, %xmm2 vmovaps %xmm2, 30752(%rbx) .LBB1_1337: jne .LBB1_1339 vxorps %xmm3, %xmm3, %xmm3 .LBB1_1339: vmovaps %xmm3, 28288(%rbx) vmovaps %xmm14, 28864(%rbx) vmovaps %xmm13, 29024(%rbx) jne .LBB1_1341 vxorps %xmm4, %xmm4, %xmm4 .LBB1_1341: vmovaps %xmm4, 28448(%rbx) vmovapd %xmm1, %xmm14 jne .LBB1_1343 vxorps %xmm0, %xmm0, %xmm0 .LBB1_1343: vmovaps %xmm0, 28544(%rbx) vmovaps %xmm10, 28960(%rbx) jne .LBB1_1345 vxorps %xmm7, %xmm7, %xmm7 .LBB1_1345: jne .LBB1_1347 vxorps %xmm12, %xmm12, %xmm12 .LBB1_1347: vmovaps %xmm7, 28416(%rbx) jne .LBB1_1349 vxorps %xmm11, %xmm11, %xmm11 .LBB1_1349: jne .LBB1_1351 vxorps %xmm6, %xmm6, %xmm6 .LBB1_1351: jne .LBB1_1353 vxorps %xmm5, %xmm5, %xmm5 .LBB1_1353: testb %r10b, %r10b vmovsd 11552(%rdi,%r13), %xmm0 vmovaps %xmm0, 30784(%rbx) vmovsd 11544(%rdi,%r13), %xmm10 vmovsd 11536(%rdi,%r13), %xmm4 vmovsd 11568(%rdi,%r13), %xmm0 vmovsd 9920(%rdi,%r13), %xmm15 jne .LBB1_1355 vxorpd %xmm14, %xmm14, %xmm14 .LBB1_1355: vmovaps %xmm6, 28640(%rbx) vmovaps %xmm12, 28704(%rbx) jne .LBB1_1357 vxorpd %xmm1, %xmm1, %xmm1 vmovapd %xmm1, 30720(%rbx) .LBB1_1357: vmovaps %xmm5, 28672(%rbx) vmovaps %xmm11, 28768(%rbx) jne .LBB1_1359 vxorpd %xmm1, %xmm1, %xmm1 vmovapd %xmm1, 30944(%rbx) .LBB1_1359: jne .LBB1_1361 vxorps %xmm8, %xmm8, %xmm8 .LBB1_1361: vmovapd 30048(%rbx), %xmm2 jne .LBB1_1363 vxorps %xmm0, %xmm0, %xmm0 .LBB1_1363: jne .LBB1_1365 vxorps %xmm4, %xmm4, %xmm4 .LBB1_1365: vmovaps %xmm0, 28320(%rbx) jne .LBB1_1367 vxorpd %xmm1, %xmm1, %xmm1 vmovapd %xmm1, 30976(%rbx) .LBB1_1367: vmovaps %xmm4, 28352(%rbx) vmovaps %xmm8, 28384(%rbx) jne .LBB1_1369 vxorps %xmm10, %xmm10, %xmm10 .LBB1_1369: jne .LBB1_1371 vxorpd %xmm1, %xmm1, %xmm1 vmovapd %xmm1, 30784(%rbx) .LBB1_1371: testb %r9b, %r9b vmovapd 31104(%rbx), %xmm1 vunpcklpd %xmm2, %xmm1, %xmm8 vmovsd 11048(%rdi,%r13), %xmm4 vmovsd 10976(%rdi,%r13), %xmm5 vmovsd 11056(%rdi,%r13), %xmm1 jne .LBB1_1373 vxorpd %xmm15, %xmm15, %xmm15 .LBB1_1373: vunpcklpd 31328(%rbx), %xmm9, %xmm2 vmovsd 9936(%rdi,%r13), %xmm0 vmovaps %xmm0, 31328(%rbx) vmovsd 11040(%rdi,%r13), %xmm0 vmovsd 11032(%rdi,%r13), %xmm6 vmovsd 11024(%rdi,%r13), %xmm3 jne .LBB1_1374 vxorps %xmm7, %xmm7, %xmm7 jmp .LBB1_1376 .LBB1_1374: vmovsd 9928(%rdi,%r13), %xmm7 .LBB1_1376: vmovaps %xmm7, 28064(%rbx) jne .LBB1_1378 vxorps %xmm1, %xmm1, %xmm1 .LBB1_1378: vmovaps %xmm1, 28096(%rbx) jne .LBB1_1380 vxorps %xmm5, %xmm5, %xmm5 .LBB1_1380: jne .LBB1_1382 vxorps %xmm3, %xmm3, %xmm3 .LBB1_1382: vmovaps %xmm5, 28160(%rbx) jne .LBB1_1384 vxorps %xmm4, %xmm4, %xmm4 .LBB1_1384: vmovaps %xmm3, 28224(%rbx) jne .LBB1_1386 vxorps %xmm6, %xmm6, %xmm6 .LBB1_1386: vmovaps %xmm4, 28192(%rbx) jne .LBB1_1388 vxorps %xmm0, %xmm0, %xmm0 .LBB1_1388: vmovaps %xmm6, 28128(%rbx) vmovaps %xmm0, 28256(%rbx) vmovaps %xmm10, 31104(%rbx) vmovapd 32480(%rbx), %ymm3 vmulpd 31168(%rbx), %ymm3, %ymm5 jne .LBB1_1390 vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 31328(%rbx) .LBB1_1390: testb %r8b, %r8b vmovapd 31168(%rbx), %ymm6 vmulpd 32160(%rbx), %ymm6, %ymm3 vmovapd 32800(%rbx), %ymm4 vmulpd 31712(%rbx), %ymm4, %ymm4 vinsertf128 $1, %xmm2, %ymm8, %ymm7 vmulpd 32288(%rbx), %ymm6, %ymm1 vmulpd %ymm5, %ymm6, %ymm5 vmovapd .LCPI1_23(%rip), %ymm13 jne .LBB1_1391 vxorpd %xmm6, %xmm6, %xmm6 jmp .LBB1_1393 .LBB1_1391: vmovsd 10176(%rdi,%r13), %xmm6 .LBB1_1393: vmovapd 29120(%rbx), %xmm2 vunpcklpd 32000(%rbx), %xmm2, %xmm2 vmovapd 31712(%rbx), %ymm10 vmulpd %ymm4, %ymm10, %ymm4 vaddpd %ymm13, %ymm5, %ymm11 vmovapd 31136(%rbx), %ymm12 vmulpd %ymm1, %ymm12, %ymm9 vmulpd %ymm3, %ymm10, %ymm3 vunpcklpd 31968(%rbx), %xmm14, %xmm0 vmovapd %ymm0, 32000(%rbx) vmovapd 31680(%rbx), %xmm1 vunpcklpd 31648(%rbx), %xmm1, %xmm5 vmovapd %ymm7, 30048(%rbx) vmulpd %ymm12, %ymm7, %ymm7 vmulpd %ymm7, %ymm12, %ymm10 vunpcklpd 31072(%rbx), %xmm15, %xmm0 vmovapd 31200(%rbx), %ymm15 vmulpd 32256(%rbx), %ymm15, %ymm7 vaddpd %ymm4, %ymm11, %ymm12 vmovapd 31936(%rbx), %ymm1 vmulpd %ymm7, %ymm1, %ymm11 vmovapd 30752(%rbx), %xmm4 vunpcklpd 30016(%rbx), %xmm4, %xmm4 vmulpd 32224(%rbx), %ymm15, %ymm7 vmovapd 31264(%rbx), %ymm14 vmulpd %ymm7, %ymm14, %ymm8 vaddpd %ymm9, %ymm3, %ymm7 vmulpd 32864(%rbx), %ymm14, %ymm3 vaddpd %ymm11, %ymm8, %ymm8 vmulpd %ymm3, %ymm1, %ymm9 vmovapd 32352(%rbx), %ymm1 vmulpd %ymm15, %ymm1, %ymm3 vmulpd %ymm3, %ymm15, %ymm11 vunpcklpd 28480(%rbx), %xmm6, %xmm3 vaddpd %ymm10, %ymm12, %ymm6 jne .LBB1_1394 vxorpd %xmm10, %xmm10, %xmm10 jmp .LBB1_1396 .LBB1_1394: vmovsd 10184(%rdi,%r13), %xmm10 .LBB1_1396: vinsertf128 $1, %xmm5, %ymm2, %ymm15 vmovapd %ymm15, 30016(%rbx) vmovapd 32736(%rbx), %ymm1 vmulpd %ymm14, %ymm1, %ymm2 vmulpd %ymm2, %ymm14, %ymm2 vaddpd %ymm13, %ymm11, %ymm5 vaddpd %ymm9, %ymm8, %ymm8 vmovapd 31712(%rbx), %ymm1 vmulpd 32672(%rbx), %ymm1, %ymm9 vmovapd 31136(%rbx), %ymm1 vmulpd %ymm9, %ymm1, %ymm9 vaddpd %ymm9, %ymm7, %ymm9 vaddpd %ymm2, %ymm5, %ymm14 vmovapd 32000(%rbx), %ymm1 vinsertf128 $1, %xmm4, %ymm1, %ymm7 vmovapd .LCPI1_19(%rip), %ymm13 vmovapd 32064(%rbx), %ymm1 vcmpltpd %ymm13, %ymm1, %ymm1 vinsertf128 $1, %xmm3, %ymm0, %ymm11 vextractf128 $1, %ymm1, %xmm0 vpshufd $8, %xmm0, %xmm0 vpshufd $8, %xmm1, %xmm1 vmovlhps %xmm0, %xmm1, %xmm12 vunpcklpd 28608(%rbx), %xmm10, %xmm4 vmovapd 32032(%rbx), %ymm0 vcmpltpd %ymm13, %ymm0, %ymm0 vmovapd 28064(%rbx), %xmm1 vunpcklpd 31296(%rbx), %xmm1, %xmm3 vextractf128 $1, %ymm0, %xmm1 vpshufd $8, %xmm1, %xmm1 vpshufd $8, %xmm0, %xmm0 vmovlhps %xmm1, %xmm0, %xmm1 vmovapd 30720(%rbx), %xmm0 vunpcklpd 29184(%rbx), %xmm0, %xmm0 vmovapd %ymm0, 32000(%rbx) vmovapd 28288(%rbx), %xmm0 vunpcklpd 29152(%rbx), %xmm0, %xmm5 vmovapd 32448(%rbx), %ymm0 vcmpltpd %ymm13, %ymm0, %ymm0 vextractf128 $1, %ymm0, %xmm2 vpshufd $8, %xmm2, %xmm2 vpshufd $8, %xmm0, %xmm0 vmovlhps %xmm2, %xmm0, %xmm0 vmovaps %xmm0, 31968(%rbx) vmovapd 32096(%rbx), %ymm0 vcmpltpd %ymm13, %ymm0, %ymm10 vextractf128 $1, %ymm10, %xmm2 vpshufd $8, %xmm2, %xmm2 vpshufd $8, %xmm10, %xmm0 vmovlhps %xmm2, %xmm0, %xmm0 vmovapd 31936(%rbx), %ymm10 vmulpd %ymm10, %ymm15, %ymm2 vmulpd %ymm2, %ymm10, %ymm2 vaddpd %ymm2, %ymm14, %ymm2 vmovapd %ymm2, 31648(%rbx) vmovapd .LCPI1_24(%rip), %ymm10 vmulpd %ymm10, %ymm9, %ymm2 vmulpd %ymm10, %ymm8, %ymm9 vaddpd %ymm2, %ymm6, %ymm2 vmovapd %ymm2, 31680(%rbx) vpshufb .LCPI1_21(%rip), %xmm12, %xmm2 vpshufb .LCPI1_20(%rip), %xmm1, %xmm1 vpor %xmm1, %xmm2, %xmm1 vmovdqa %xmm1, 30752(%rbx) vmovapd .LCPI1_25(%rip), %ymm1 vxorpd %ymm1, %ymm11, %ymm12 vxorpd %ymm1, %ymm7, %ymm13 vinsertf128 $1, %xmm4, %ymm3, %ymm1 vmovapd %ymm1, 30720(%rbx) vmovapd 28096(%rbx), %xmm1 vunpcklpd 28736(%rbx), %xmm1, %xmm15 jne .LBB1_1397 vxorpd %xmm1, %xmm1, %xmm1 jmp .LBB1_1399 .LBB1_1397: vmovsd 10192(%rdi,%r13), %xmm1 .LBB1_1399: vunpcklpd 28512(%rbx), %xmm1, %xmm1 vmovapd %xmm1, 29184(%rbx) jne .LBB1_1400 vxorpd %xmm1, %xmm1, %xmm1 jmp .LBB1_1402 .LBB1_1400: vmovsd 11312(%rdi,%r13), %xmm1 .LBB1_1402: vunpcklpd 28576(%rbx), %xmm1, %xmm8 vmovapd 31104(%rbx), %xmm7 jne .LBB1_1403 vxorpd %xmm11, %xmm11, %xmm11 jmp .LBB1_1405 .LBB1_1403: vmovsd 11232(%rdi,%r13), %xmm11 .LBB1_1405: vmovdqa .LCPI1_20(%rip), %xmm1 vmovapd 32000(%rbx), %ymm2 vinsertf128 $1, %xmm5, %ymm2, %ymm2 vmovapd %ymm2, 29152(%rbx) jne .LBB1_1406 vxorpd %xmm10, %xmm10, %xmm10 jmp .LBB1_1408 .LBB1_1406: vmovsd 11296(%rdi,%r13), %xmm10 .LBB1_1408: vmovapd 28704(%rbx), %xmm2 vunpcklpd 29248(%rbx), %xmm2, %xmm2 vmovapd %xmm2, 28704(%rbx) vmovapd 28320(%rbx), %xmm2 vunpcklpd 32544(%rbx), %xmm2, %xmm2 vmovapd %ymm2, 32544(%rbx) vmovapd 30944(%rbx), %xmm2 vunpcklpd 32576(%rbx), %xmm2, %xmm2 vmovapd %ymm2, 32576(%rbx) vmovapd 28448(%rbx), %xmm2 vunpcklpd 29280(%rbx), %xmm2, %xmm2 vmovapd %xmm2, 29120(%rbx) vmovapd 28416(%rbx), %xmm2 vunpcklpd 32512(%rbx), %xmm2, %xmm2 vmovapd %xmm2, 28736(%rbx) vmovapd 28384(%rbx), %xmm2 vunpcklpd 29216(%rbx), %xmm2, %xmm2 vmovapd %ymm2, 32000(%rbx) vmovapd 28160(%rbx), %xmm2 vunpcklpd 29088(%rbx), %xmm2, %xmm2 vmovapd %ymm2, 32512(%rbx) vmovdqa 31968(%rbx), %xmm2 vpshufb %xmm1, %xmm2, %xmm14 vmovapd 28192(%rbx), %xmm1 vunpcklpd 31616(%rbx), %xmm1, %xmm1 vmovapd %ymm1, 31072(%rbx) jne .LBB1_1409 vxorpd %xmm3, %xmm3, %xmm3 jmp .LBB1_1411 .LBB1_1409: vmovsd 11304(%rdi,%r13), %xmm3 .LBB1_1411: vmovapd 28128(%rbx), %xmm1 vunpcklpd 28896(%rbx), %xmm1, %xmm1 vmovapd %ymm1, 31968(%rbx) vmovapd 28256(%rbx), %xmm6 jne .LBB1_1412 vxorpd %xmm4, %xmm4, %xmm4 jmp .LBB1_1414 .LBB1_1412: vmovsd 11280(%rdi,%r13), %xmm4 .LBB1_1414: vmovapd 28224(%rbx), %xmm1 vunpcklpd 28928(%rbx), %xmm1, %xmm1 vmovapd %ymm1, 31296(%rbx) vmovdqa .LCPI1_21(%rip), %xmm1 jne .LBB1_1415 vxorpd %xmm5, %xmm5, %xmm5 jmp .LBB1_1417 .LBB1_1415: vmovsd 11288(%rdi,%r13), %xmm5 .LBB1_1417: vmovapd 28544(%rbx), %xmm2 vunpcklpd 29376(%rbx), %xmm2, %xmm2 vmovapd %xmm2, 29088(%rbx) vpshufb %xmm1, %xmm0, %xmm0 vmovapd 30976(%rbx), %xmm2 vunpcklpd 32704(%rbx), %xmm2, %xmm1 vmovapd %ymm1, 29376(%rbx) vunpcklpd 32832(%rbx), %xmm7, %xmm1 vmovapd %ymm1, 30944(%rbx) vmovapd 28352(%rbx), %xmm2 vunpcklpd 32896(%rbx), %xmm2, %xmm1 vmovapd %ymm1, 30976(%rbx) vunpcklpd 28960(%rbx), %xmm11, %xmm1 vmovapd %xmm1, 32704(%rbx) vmovapd 31328(%rbx), %xmm1 vunpcklpd 28992(%rbx), %xmm1, %xmm11 vunpcklpd 28800(%rbx), %xmm3, %xmm1 vmovapd %xmm1, 32832(%rbx) vunpcklpd 28832(%rbx), %xmm4, %xmm1 vmovapd %xmm1, 31328(%rbx) vunpcklpd 28864(%rbx), %xmm5, %xmm1 vmovapd %xmm1, 29280(%rbx) vmovapd 28768(%rbx), %xmm2 vunpcklpd 29312(%rbx), %xmm2, %xmm1 vmovapd %xmm1, 29312(%rbx) vmovapd 28640(%rbx), %xmm2 vunpcklpd 29344(%rbx), %xmm2, %xmm1 vmovapd %xmm1, 29344(%rbx) vmovapd 28672(%rbx), %xmm2 vunpcklpd 29440(%rbx), %xmm2, %xmm1 vmovapd %xmm1, 29248(%rbx) vpor %xmm14, %xmm0, %xmm0 vmovapd 31648(%rbx), %ymm1 vaddpd %ymm9, %ymm1, %ymm3 vunpcklpd 29024(%rbx), %xmm10, %xmm4 vunpcklpd 29056(%rbx), %xmm6, %xmm5 vmovapd 30784(%rbx), %xmm2 vunpcklpd 29408(%rbx), %xmm2, %xmm1 vmovapd %ymm1, 31104(%rbx) vsqrtpd %ymm12, %ymm6 vsqrtpd 31680(%rbx), %ymm10 vmovapd %ymm10, 23360(%rbx) vmovdqa 30752(%rbx), %xmm1 vpsllw $15, %xmm1, %xmm2 vpsllw $15, %xmm0, %xmm0 vmovapd 30720(%rbx), %ymm1 vmulpd %ymm10, %ymm1, %ymm1 vmovapd .LCPI1_23(%rip), %ymm14 vdivpd %ymm6, %ymm14, %ymm9 vmovapd %ymm9, 23424(%rbx) vpsraw $15, %xmm0, %xmm0 vpsraw $15, %xmm2, %xmm6 vsqrtpd %ymm13, %ymm13 vinsertf128 $1, %xmm8, %ymm15, %ymm15 vmovapd %ymm15, 29440(%rbx) vpunpckhbw %xmm0, %xmm6, %xmm2 vpslld $31, %xmm2, %xmm2 vmulpd %ymm9, %ymm1, %ymm8 vinsertf128 $1, 29184(%rbx), %ymm11, %ymm1 vmovapd %ymm1, 31648(%rbx) vpunpckhbw %xmm0, %xmm0, %xmm7 vpunpcklbw %xmm0, %xmm0, %xmm1 vpslld $31, %xmm7, %xmm0 vsqrtpd %ymm3, %ymm11 vmovapd %ymm11, 23392(%rbx) vinsertf128 $1, %xmm4, %ymm5, %ymm3 vmovapd %ymm3, 29408(%rbx) vmovhlps %xmm0, %xmm0, %xmm7 vpmovsxdq %xmm0, %xmm0 vmovdqa %ymm0, 32896(%rbx) vdivpd %ymm13, %ymm14, %ymm12 vmovapd %ymm12, 23456(%rbx) vmovhlps %xmm2, %xmm2, %xmm0 vpmovsxdq %xmm2, %xmm2 vmovdqa %ymm2, 31680(%rbx) vpunpcklbw %xmm0, %xmm6, %xmm2 vpslld $31, %xmm1, %xmm1 vmovapd 31168(%rbx), %ymm4 vsubpd %ymm8, %ymm4, %ymm4 vmovapd %ymm4, 31616(%rbx) vmovapd 31104(%rbx), %ymm5 vinsertf128 $1, 28704(%rbx), %ymm5, %ymm14 vmovapd %ymm14, 29216(%rbx) vpmovsxdq %xmm1, %xmm5 vmovdqa %ymm5, 30784(%rbx) vmovhlps %xmm1, %xmm1, %xmm1 vmovapd 29152(%rbx), %ymm5 vmulpd %ymm11, %ymm5, %ymm8 vpslld $31, %xmm2, %xmm5 vpmovsxdq %xmm0, %xmm6 vpmovsxdq %xmm7, %xmm2 vpmovsxdq %xmm1, %xmm13 vmovapd 32544(%rbx), %ymm0 vinsertf128 $1, 28736(%rbx), %ymm0, %ymm7 vmovapd %ymm7, 29184(%rbx) vmovaps 32576(%rbx), %ymm0 vinsertf128 $1, 29120(%rbx), %ymm0, %ymm0 vmovaps %ymm0, 31104(%rbx) vmovapd 29984(%rbx), %ymm0 vmulpd %ymm4, %ymm0, %ymm0 vdivpd %ymm9, %ymm10, %ymm1 vmovapd %ymm1, 32576(%rbx) vmulpd %ymm1, %ymm3, %ymm1 vaddpd %ymm0, %ymm1, %ymm0 vmovapd 31648(%rbx), %ymm1 vmulpd %ymm10, %ymm1, %ymm1 vmulpd %ymm9, %ymm1, %ymm1 vmovapd 31712(%rbx), %ymm4 vsubpd %ymm1, %ymm4, %ymm4 vmovapd %ymm4, 30752(%rbx) vmulpd %ymm4, %ymm15, %ymm1 vmovapd %ymm4, %ymm15 vaddpd %ymm1, %ymm0, %ymm0 vmovapd 29472(%rbx), %ymm1 vmulpd %ymm10, %ymm1, %ymm1 vmulpd %ymm9, %ymm1, %ymm1 vmovapd 31136(%rbx), %ymm4 vsubpd %ymm1, %ymm4, %ymm3 vmovapd %ymm3, 31648(%rbx) vmovapd 30048(%rbx), %ymm1 vmulpd %ymm3, %ymm1, %ymm1 vaddpd %ymm1, %ymm0, %ymm0 vmovapd %ymm0, 32544(%rbx) vmovapd %ymm0, %ymm10 vmovhlps %xmm5, %xmm5, %xmm1 vpmovsxdq %xmm5, %xmm0 vmulpd %ymm12, %ymm8, %ymm9 vpmovsxdq %xmm1, %xmm4 vmovaps 30784(%rbx), %ymm1 vinsertf128 $1, %xmm13, %ymm1, %ymm1 vmovaps %ymm1, 29984(%rbx) vmovapd 32896(%rbx), %ymm1 vinsertf128 $1, %xmm2, %ymm1, %ymm5 vmovapd 31680(%rbx), %ymm1 vinsertf128 $1, %xmm6, %ymm1, %ymm3 vmovapd 32000(%rbx), %ymm1 vinsertf128 $1, 29088(%rbx), %ymm1, %ymm13 vmovapd %ymm13, 29152(%rbx) vdivpd %ymm12, %ymm11, %ymm8 vmovapd %ymm8, 32896(%rbx) vmovaps 32512(%rbx), %ymm1 vinsertf128 $1, 32704(%rbx), %ymm1, %ymm1 vmovaps %ymm1, 32000(%rbx) vmulpd %ymm8, %ymm14, %ymm6 vmovapd %ymm8, %ymm14 vinsertf128 $1, %xmm4, %ymm0, %ymm0 vmovaps %ymm0, 29472(%rbx) vmovapd 31200(%rbx), %ymm4 vsubpd %ymm9, %ymm4, %ymm8 vmovapd %ymm8, 30720(%rbx) vmovapd 30176(%rbx), %ymm0 vmulpd %ymm8, %ymm0, %ymm4 vaddpd %ymm4, %ymm6, %ymm4 vmovapd 31104(%rbx), %ymm0 vmulpd %ymm11, %ymm0, %ymm2 vmulpd %ymm12, %ymm2, %ymm2 vmovapd 31264(%rbx), %ymm6 vsubpd %ymm2, %ymm6, %ymm0 vmovapd %ymm0, 30176(%rbx) vmulpd %ymm0, %ymm7, %ymm2 vmovapd %ymm0, %ymm7 vaddpd %ymm2, %ymm4, %ymm2 vmovapd 29504(%rbx), %ymm0 vmulpd %ymm11, %ymm0, %ymm4 vmulpd %ymm12, %ymm4, %ymm4 vmovapd 31936(%rbx), %ymm0 vsubpd %ymm4, %ymm0, %ymm0 vmovapd %ymm0, 30784(%rbx) vmovapd 30016(%rbx), %ymm1 vmulpd %ymm0, %ymm1, %ymm6 vmovapd %ymm0, %ymm1 vmovapd 32192(%rbx), %ymm0 vmulpd %ymm14, %ymm0, %ymm4 vaddpd %ymm6, %ymm2, %ymm0 vmovapd %ymm0, 32512(%rbx) vmovapd 30336(%rbx), %ymm2 vmulpd %ymm0, %ymm2, %ymm0 vmovapd %ymm0, 29504(%rbx) vmovapd .LCPI1_19(%rip), %ymm9 vmovapd 32032(%rbx), %ymm0 vblendvpd %ymm3, %ymm9, %ymm0, %ymm0 vmovapd %ymm0, 31680(%rbx) vmovapd 30368(%rbx), %ymm0 vmulpd %ymm10, %ymm0, %ymm0 vmovapd %ymm0, 32032(%rbx) vmovapd 32448(%rbx), %ymm0 vblendvpd %ymm5, %ymm9, %ymm0, %ymm0 vmovapd %ymm0, 31104(%rbx) vmovapd 32096(%rbx), %ymm0 vmovapd 29984(%rbx), %ymm2 vblendvpd %ymm2, %ymm9, %ymm0, %ymm0 vmovapd %ymm0, 32096(%rbx) vmovaps 31072(%rbx), %ymm0 vinsertf128 $1, 32832(%rbx), %ymm0, %ymm0 vmovaps %ymm0, 29984(%rbx) vmovapd 30848(%rbx), %ymm0 vmulpd %ymm8, %ymm0, %ymm5 vaddpd %ymm5, %ymm4, %ymm4 vmovapd 32736(%rbx), %ymm0 vmulpd %ymm7, %ymm0, %ymm5 vmovapd %ymm7, %ymm2 vaddpd %ymm5, %ymm4, %ymm4 vmovapd 32576(%rbx), %ymm3 vmovapd 30080(%rbx), %ymm0 vmulpd %ymm3, %ymm0, %ymm5 vmovapd 30656(%rbx), %ymm0 vmovapd 31616(%rbx), %ymm12 vmulpd %ymm12, %ymm0, %ymm6 vmovapd 32864(%rbx), %ymm0 vmulpd %ymm1, %ymm0, %ymm7 vaddpd %ymm7, %ymm4, %ymm11 vmovapd %ymm11, 32704(%rbx) vaddpd %ymm6, %ymm5, %ymm4 vmovapd 32800(%rbx), %ymm0 vmovapd %ymm15, %ymm10 vmulpd %ymm10, %ymm0, %ymm5 vaddpd %ymm5, %ymm4, %ymm4 vmulpd %ymm14, %ymm13, %ymm5 vmovapd %ymm14, %ymm15 vmovapd 32352(%rbx), %ymm0 vmulpd %ymm8, %ymm0, %ymm6 vmovapd 32672(%rbx), %ymm0 vmovapd 31648(%rbx), %ymm14 vmulpd %ymm14, %ymm0, %ymm7 vaddpd %ymm7, %ymm4, %ymm0 vmovapd %ymm0, 32800(%rbx) vmovapd %ymm0, %ymm13 vmovapd 30400(%rbx), %ymm0 vmulpd %ymm11, %ymm0, %ymm4 vaddpd %ymm6, %ymm5, %ymm5 vmovapd 32224(%rbx), %ymm0 vmulpd %ymm2, %ymm0, %ymm6 vaddpd %ymm6, %ymm5, %ymm5 vmovapd 32256(%rbx), %ymm0 vmulpd %ymm1, %ymm0, %ymm6 vmovapd %ymm1, %ymm11 vaddpd %ymm6, %ymm5, %ymm1 vmovapd %ymm1, 32672(%rbx) vmovapd 29632(%rbx), %ymm0 vmulpd %ymm1, %ymm0, %ymm5 vmovapd 32000(%rbx), %ymm1 vmulpd %ymm3, %ymm1, %ymm6 vmovapd 32480(%rbx), %ymm1 vmulpd %ymm12, %ymm1, %ymm7 vaddpd %ymm4, %ymm5, %ymm5 vmovapd 29600(%rbx), %ymm8 vmulpd %ymm13, %ymm8, %ymm4 vaddpd %ymm7, %ymm6, %ymm6 vmovapd 32160(%rbx), %ymm1 vmulpd %ymm10, %ymm1, %ymm7 vaddpd %ymm7, %ymm6, %ymm6 vmovapd 32288(%rbx), %ymm1 vmulpd %ymm14, %ymm1, %ymm7 vaddpd %ymm7, %ymm6, %ymm1 vmovapd %ymm1, 32864(%rbx) vmovapd 29664(%rbx), %ymm10 vmulpd %ymm1, %ymm10, %ymm7 vmovapd 30816(%rbx), %ymm1 vmulpd %ymm15, %ymm1, %ymm6 vaddpd %ymm4, %ymm7, %ymm7 vmovapd 30720(%rbx), %ymm12 vmovapd 32416(%rbx), %ymm1 vmulpd %ymm12, %ymm1, %ymm4 vaddpd 32032(%rbx), %ymm7, %ymm7 vmovapd %ymm7, 32736(%rbx) vaddpd 29504(%rbx), %ymm5, %ymm13 vmovapd %ymm13, 32832(%rbx) vaddpd %ymm4, %ymm6, %ymm5 vmovapd 32064(%rbx), %ymm3 vmovapd 29472(%rbx), %ymm1 vblendvpd %ymm1, %ymm9, %ymm3, %ymm6 vmovapd %ymm6, 31072(%rbx) vmovaps 29376(%rbx), %ymm1 vinsertf128 $1, 29248(%rbx), %ymm1, %ymm1 vmovaps %ymm1, 32064(%rbx) vmovaps 30944(%rbx), %ymm1 vinsertf128 $1, 29344(%rbx), %ymm1, %ymm1 vmovaps %ymm1, 29504(%rbx) vmovaps 30976(%rbx), %ymm1 vinsertf128 $1, 29312(%rbx), %ymm1, %ymm1 vmovaps %ymm1, 29248(%rbx) vmovaps 31968(%rbx), %ymm1 vinsertf128 $1, 29280(%rbx), %ymm1, %ymm1 vmovaps %ymm1, 29344(%rbx) vmovaps 31296(%rbx), %ymm1 vinsertf128 $1, 31328(%rbx), %ymm1, %ymm1 vmovaps %ymm1, 29312(%rbx) vmovapd %ymm2, %ymm1 vmovapd 30688(%rbx), %ymm3 vmulpd %ymm1, %ymm3, %ymm4 vmovapd 31680(%rbx), %ymm15 vmovapd 31104(%rbx), %ymm2 vaddpd %ymm15, %ymm2, %ymm2 vmovapd %ymm2, 31328(%rbx) vmovapd 30880(%rbx), %ymm3 vmulpd %ymm11, %ymm3, %ymm2 vmovapd %ymm2, 32448(%rbx) vmovapd 30912(%rbx), %ymm3 vmulpd %ymm14, %ymm3, %ymm2 vmovapd %ymm2, 31296(%rbx) vmulpd %ymm1, %ymm13, %ymm1 vmovapd %ymm1, 31968(%rbx) vmovapd 32000(%rbx), %ymm1 vmulpd %ymm7, %ymm1, %ymm1 vmovapd %ymm1, 32000(%rbx) vmovapd 31616(%rbx), %ymm1 vmulpd %ymm1, %ymm7, %ymm2 vmovapd %ymm2, 29280(%rbx) vmulpd %ymm12, %ymm13, %ymm2 vmovapd %ymm2, 32032(%rbx) vaddpd %ymm4, %ymm5, %ymm4 vmovapd 32096(%rbx), %ymm3 vaddpd %ymm6, %ymm3, %ymm11 vmovapd 32576(%rbx), %ymm7 vmovapd 30144(%rbx), %ymm2 vmulpd %ymm7, %ymm2, %ymm5 vmovapd 32320(%rbx), %ymm2 vmulpd %ymm1, %ymm2, %ymm14 vaddpd %ymm14, %ymm5, %ymm14 vmovapd 30752(%rbx), %ymm12 vmovapd 30112(%rbx), %ymm1 vmulpd %ymm12, %ymm1, %ymm5 vmovapd .LCPI1_27(%rip), %ymm9 vmulpd %ymm9, %ymm15, %ymm1 vmovapd %ymm1, 30976(%rbx) vmovapd %ymm1, %ymm3 vmulpd %ymm9, %ymm6, %ymm1 vmovapd %ymm1, 30944(%rbx) vaddpd %ymm11, %ymm1, %ymm1 vmovapd %ymm1, 29376(%rbx) vaddpd 32448(%rbx), %ymm4, %ymm1 vmovapd %ymm1, 32448(%rbx) vaddpd 31328(%rbx), %ymm3, %ymm1 vmovapd %ymm1, 29472(%rbx) vmovapd 30400(%rbx), %ymm1 vaddpd 31968(%rbx), %ymm1, %ymm2 vmovapd %ymm2, 23328(%rbx) vmovapd 32896(%rbx), %ymm6 vdivpd %ymm6, %ymm2, %ymm15 vmovapd %ymm15, 31328(%rbx) vmovapd 29152(%rbx), %ymm1 vmulpd %ymm13, %ymm1, %ymm9 vaddpd 32032(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 23296(%rbx) vaddpd 29280(%rbx), %ymm10, %ymm2 vmovapd %ymm2, 23264(%rbx) vaddpd %ymm5, %ymm14, %ymm1 vmovapd %ymm7, %ymm10 vdivpd %ymm10, %ymm2, %ymm2 vmovapd %ymm2, 31968(%rbx) vmovapd 32480(%rbx), %ymm3 vmulpd %ymm2, %ymm3, %ymm3 vmovapd 32736(%rbx), %ymm11 vmulpd %ymm12, %ymm11, %ymm5 vmovapd 32000(%rbx), %ymm2 vaddpd %ymm3, %ymm2, %ymm4 vaddpd %ymm5, %ymm8, %ymm7 vmovapd %ymm7, 23232(%rbx) vdivpd %ymm6, %ymm0, %ymm2 vmovapd %ymm2, 32032(%rbx) vmovapd %ymm6, %ymm12 vaddpd 31296(%rbx), %ymm1, %ymm0 vmovapd %ymm0, 32480(%rbx) vmovapd 32352(%rbx), %ymm0 vmulpd %ymm2, %ymm0, %ymm1 vaddpd %ymm1, %ymm9, %ymm1 vmovapd 32224(%rbx), %ymm0 vmulpd %ymm15, %ymm0, %ymm3 vmovapd 29216(%rbx), %ymm0 vmulpd %ymm13, %ymm0, %ymm5 vmovapd 32064(%rbx), %ymm0 vmulpd %ymm2, %ymm0, %ymm2 vmulpd 30784(%rbx), %ymm13, %ymm6 vmovapd 30336(%rbx), %ymm0 vaddpd %ymm6, %ymm0, %ymm0 vmovapd %ymm0, 23200(%rbx) vdivpd %ymm12, %ymm0, %ymm14 vmovapd %ymm14, 31296(%rbx) vaddpd %ymm2, %ymm5, %ymm2 vaddpd %ymm3, %ymm1, %ymm3 vmovapd 32256(%rbx), %ymm0 vmulpd %ymm14, %ymm0, %ymm5 vdivpd %ymm10, %ymm7, %ymm0 vmovapd %ymm0, 32000(%rbx) vmovapd 32160(%rbx), %ymm1 vmulpd %ymm0, %ymm1, %ymm1 vmulpd 31648(%rbx), %ymm11, %ymm6 vaddpd %ymm1, %ymm4, %ymm1 vmovapd 30368(%rbx), %ymm0 vaddpd %ymm6, %ymm0, %ymm0 vmovapd %ymm0, 23168(%rbx) vmovapd 29184(%rbx), %ymm4 vmulpd %ymm15, %ymm4, %ymm4 vaddpd %ymm5, %ymm3, %ymm3 vmovapd %ymm3, 32224(%rbx) vaddpd %ymm4, %ymm2, %ymm2 vmovapd 30016(%rbx), %ymm4 vmulpd %ymm14, %ymm4, %ymm4 vdivpd %ymm10, %ymm0, %ymm0 vmovapd %ymm0, 32064(%rbx) vmovapd 32288(%rbx), %ymm5 vmulpd %ymm0, %ymm5, %ymm6 vmovapd %ymm0, %ymm7 vmovapd 30816(%rbx), %ymm0 vmulpd %ymm13, %ymm0, %ymm5 vmovapd 32192(%rbx), %ymm0 vmulpd %ymm13, %ymm0, %ymm12 vmovapd %ymm13, %ymm9 vmovapd 29408(%rbx), %ymm0 vmulpd %ymm11, %ymm0, %ymm0 vmovapd %ymm0, 32256(%rbx) vmulpd 32928(%rbx), %ymm11, %ymm0 vmovapd %ymm0, 32192(%rbx) vaddpd %ymm6, %ymm1, %ymm0 vmovapd %ymm0, 32352(%rbx) vmovapd %ymm0, %ymm6 vaddpd %ymm4, %ymm2, %ymm0 vmovapd %ymm0, 32288(%rbx) vmovapd %ymm0, %ymm8 vmovapd 30144(%rbx), %ymm0 vmulpd %ymm11, %ymm0, %ymm0 vmovapd %ymm0, 29216(%rbx) vmovapd %ymm11, %ymm0 vmovapd 32320(%rbx), %ymm1 vmovapd 31968(%rbx), %ymm4 vmulpd %ymm4, %ymm1, %ymm11 vmovapd 30080(%rbx), %ymm1 vmulpd %ymm0, %ymm1, %ymm1 vmovapd %ymm1, 30816(%rbx) vmovapd %ymm0, %ymm10 vmovapd 32032(%rbx), %ymm13 vmulpd %ymm3, %ymm13, %ymm0 vmovapd %ymm0, 30016(%rbx) vmovapd 32416(%rbx), %ymm1 vmulpd %ymm13, %ymm1, %ymm1 vaddpd %ymm1, %ymm5, %ymm1 vmovapd 30688(%rbx), %ymm2 vmulpd %ymm15, %ymm2, %ymm2 vaddpd %ymm2, %ymm1, %ymm1 vmovapd 30880(%rbx), %ymm2 vmulpd %ymm14, %ymm2, %ymm2 vaddpd %ymm2, %ymm1, %ymm1 vmovapd %ymm1, 30144(%rbx) vmulpd %ymm1, %ymm9, %ymm1 vmovapd %ymm1, 32160(%rbx) vaddpd %ymm0, %ymm1, %ymm1 vmovapd 30848(%rbx), %ymm0 vmulpd %ymm13, %ymm0, %ymm2 vaddpd %ymm2, %ymm12, %ymm2 vmovapd 29248(%rbx), %ymm0 vmulpd %ymm15, %ymm0, %ymm3 vaddpd %ymm3, %ymm2, %ymm2 vmovapd 29504(%rbx), %ymm0 vmulpd %ymm14, %ymm0, %ymm0 vaddpd %ymm0, %ymm2, %ymm0 vmovapd %ymm0, 32320(%rbx) vmulpd %ymm0, %ymm15, %ymm2 vmovapd %ymm2, 29408(%rbx) vaddpd %ymm2, %ymm1, %ymm0 vmulpd %ymm8, %ymm14, %ymm5 vmovapd %ymm5, 29280(%rbx) vmovapd %ymm4, %ymm14 vmovapd %ymm6, %ymm9 vmulpd %ymm9, %ymm14, %ymm3 vmovapd %ymm3, 29504(%rbx) vmovapd 29216(%rbx), %ymm1 vaddpd %ymm11, %ymm1, %ymm1 vmovapd 30112(%rbx), %ymm2 vmovapd 32000(%rbx), %ymm8 vmulpd %ymm8, %ymm2, %ymm2 vaddpd %ymm2, %ymm1, %ymm1 vmovapd 30912(%rbx), %ymm2 vmulpd %ymm7, %ymm2, %ymm2 vaddpd %ymm2, %ymm1, %ymm1 vmovapd %ymm1, 30688(%rbx) vmulpd %ymm1, %ymm10, %ymm6 vmovapd 30656(%rbx), %ymm1 vmulpd %ymm14, %ymm1, %ymm1 vaddpd %ymm3, %ymm6, %ymm3 vaddpd %ymm5, %ymm0, %ymm4 vmovapd 30816(%rbx), %ymm0 vaddpd %ymm1, %ymm0, %ymm0 vmovapd %ymm8, %ymm5 vmovapd 29312(%rbx), %ymm1 vmulpd %ymm5, %ymm1, %ymm1 vaddpd %ymm1, %ymm0, %ymm0 vmovapd 29344(%rbx), %ymm1 vmulpd %ymm7, %ymm1, %ymm1 vaddpd %ymm1, %ymm0, %ymm0 vmovapd %ymm0, 32416(%rbx) vmulpd %ymm0, %ymm5, %ymm2 vmovapd %ymm2, 29312(%rbx) vmovapd .LCPI1_26(%rip), %ymm12 vcmpltpd %ymm12, %ymm4, %ymm1 vaddpd %ymm2, %ymm3, %ymm0 vmovapd 29984(%rbx), %ymm2 vmulpd %ymm14, %ymm2, %ymm2 vmovapd 32256(%rbx), %ymm3 vaddpd %ymm2, %ymm3, %ymm2 vmovapd 29440(%rbx), %ymm3 vmulpd %ymm5, %ymm3, %ymm3 vaddpd %ymm3, %ymm2, %ymm2 vmovapd 30048(%rbx), %ymm3 vmulpd %ymm7, %ymm3, %ymm3 vaddpd %ymm3, %ymm2, %ymm2 vmovapd %ymm2, 32256(%rbx) vmulpd %ymm2, %ymm7, %ymm2 vmovapd %ymm2, 29248(%rbx) vaddpd %ymm2, %ymm0, %ymm0 vextractf128 $1, %ymm1, %xmm2 vpshufd $8, %xmm2, %xmm3 vpshufd $8, %xmm1, %xmm1 vmulpd %ymm9, %ymm10, %ymm2 vmovapd %ymm2, 30848(%rbx) vmovlhps %xmm3, %xmm1, %xmm1 vpshufb .LCPI1_20(%rip), %xmm1, %xmm1 vcmpltpd %ymm12, %ymm0, %ymm3 vextractf128 $1, %ymm3, %xmm2 vpshufd $8, %xmm2, %xmm2 vpshufd $8, %xmm3, %xmm3 vmovlhps %xmm2, %xmm3, %xmm2 vpshufb .LCPI1_21(%rip), %xmm2, %xmm2 vpor %xmm1, %xmm2, %xmm1 vpsllw $15, %xmm1, %xmm1 vpsraw $15, %xmm1, %xmm1 vpunpcklbw %xmm0, %xmm1, %xmm2 vpslld $31, %xmm2, %xmm2 vpmovsxdq %xmm2, %xmm3 vmovhlps %xmm2, %xmm2, %xmm2 vpmovsxdq %xmm2, %xmm2 vinsertf128 $1, %xmm2, %ymm3, %ymm2 vblendvpd %ymm2, %ymm12, %ymm0, %ymm2 vmovapd %ymm2, 30912(%rbx) vmovapd .LCPI1_28(%rip), %ymm15 vmulpd %ymm15, %ymm2, %ymm0 vpunpckhbw %xmm0, %xmm1, %xmm1 vmovapd 30944(%rbx), %ymm3 vaddpd %ymm0, %ymm3, %ymm13 vmovapd %ymm13, 29152(%rbx) vaddpd 29376(%rbx), %ymm2, %ymm0 vmovapd %ymm0, 29184(%rbx) vmovapd %ymm2, %ymm7 vmovapd 32576(%rbx), %ymm5 vmulpd %ymm0, %ymm5, %ymm2 vmovapd %ymm2, 30048(%rbx) vpslld $31, %xmm1, %xmm1 vmovapd 32864(%rbx), %ymm0 vmulpd %ymm2, %ymm0, %ymm8 vxorpd %ymm0, %ymm0, %ymm0 vmulpd %ymm0, %ymm13, %ymm0 vmovapd %ymm0, 30112(%rbx) vmovapd %ymm0, %ymm14 vmovapd 32480(%rbx), %ymm9 vmulpd %ymm2, %ymm9, %ymm11 vmovhlps %xmm1, %xmm1, %xmm2 vpmovsxdq %xmm2, %xmm3 vpmovsxdq %xmm1, %xmm10 vaddpd %ymm11, %ymm13, %ymm1 vsubpd %ymm6, %ymm1, %ymm1 vsqrtpd %ymm7, %ymm0 vmovapd %ymm0, 30656(%rbx) vmovapd 32192(%rbx), %ymm2 vdivpd %ymm0, %ymm2, %ymm6 vmovapd %ymm6, 32192(%rbx) vmulpd %ymm6, %ymm9, %ymm2 vmovapd %ymm6, %ymm13 vaddpd %ymm2, %ymm1, %ymm2 vaddpd %ymm8, %ymm14, %ymm6 vmovapd 30688(%rbx), %ymm1 vmulpd 32928(%rbx), %ymm1, %ymm8 vinsertf128 $1, %xmm3, %ymm10, %ymm1 vblendvpd %ymm1, %ymm12, %ymm4, %ymm7 vmovapd %ymm7, 30880(%rbx) vmulpd %ymm15, %ymm7, %ymm1 vdivpd %ymm0, %ymm8, %ymm3 vmovapd %ymm3, 29984(%rbx) vmovapd %ymm5, %ymm10 vmulpd %ymm3, %ymm10, %ymm3 vsubpd 30848(%rbx), %ymm6, %ymm4 vaddpd %ymm3, %ymm2, %ymm3 vmovapd 30976(%rbx), %ymm0 vaddpd %ymm1, %ymm0, %ymm2 vaddpd 29472(%rbx), %ymm7, %ymm5 vmovapd %ymm7, %ymm11 vmovapd 32896(%rbx), %ymm8 vmulpd %ymm5, %ymm8, %ymm0 vmovapd %ymm0, 30848(%rbx) vmovapd 32448(%rbx), %ymm7 vmulpd %ymm0, %ymm7, %ymm1 vaddpd %ymm1, %ymm2, %ymm6 vmovapd 32672(%rbx), %ymm9 vmulpd %ymm0, %ymm9, %ymm1 vsubpd 32160(%rbx), %ymm6, %ymm14 vmulpd .LCPI1_88, %ymm2, %ymm6 vaddpd %ymm1, %ymm6, %ymm1 vmovapd 31008(%rbx), %ymm0 vmaskmovpd %ymm3, %ymm0, 11968(%rdi,%r13) vmovapd 32864(%rbx), %ymm0 vmulpd %ymm13, %ymm0, %ymm3 vaddpd %ymm3, %ymm4, %ymm0 vmovapd %ymm0, 30816(%rbx) vmovapd 32832(%rbx), %ymm0 vmovapd 32224(%rbx), %ymm15 vmulpd %ymm15, %ymm0, %ymm4 vsubpd %ymm4, %ymm1, %ymm1 vmovapd %ymm1, 29440(%rbx) vmovapd 32640(%rbx), %ymm12 vmulpd %ymm12, %ymm0, %ymm1 vsqrtpd %ymm11, %ymm11 vmovapd %ymm11, 30080(%rbx) vdivpd %ymm11, %ymm1, %ymm0 vmovapd %ymm0, 32160(%rbx) vmulpd %ymm0, %ymm7, %ymm1 vmovapd %ymm0, %ymm3 vaddpd %ymm1, %ymm14, %ymm1 vmovapd 30144(%rbx), %ymm0 vmulpd %ymm12, %ymm0, %ymm7 vmovapd %ymm12, %ymm14 vdivpd %ymm11, %ymm7, %ymm0 vmovapd %ymm11, %ymm4 vmovapd %ymm0, 29472(%rbx) vmulpd %ymm0, %ymm8, %ymm7 vmovapd %ymm8, %ymm0 vaddpd %ymm7, %ymm1, %ymm1 vmovapd 31040(%rbx), %ymm7 vmaskmovpd %ymm1, %ymm7, 12000(%rdi,%r13) vmulpd %ymm3, %ymm9, %ymm1 vmovapd 29440(%rbx), %ymm3 vaddpd %ymm1, %ymm3, %ymm1 vmovapd %ymm1, 29344(%rbx) vmovapd 32928(%rbx), %ymm12 vmovapd 32352(%rbx), %ymm1 vmulpd %ymm12, %ymm1, %ymm1 vmovapd 30656(%rbx), %ymm9 vdivpd %ymm9, %ymm1, %ymm1 vmovapd %ymm1, 29440(%rbx) vmulpd %ymm1, %ymm10, %ymm1 vmovapd 30816(%rbx), %ymm3 vaddpd %ymm1, %ymm3, %ymm7 vmovapd 32800(%rbx), %ymm8 vmulpd 30048(%rbx), %ymm8, %ymm1 vmovapd 30112(%rbx), %ymm3 vaddpd %ymm1, %ymm3, %ymm1 vmovapd 32736(%rbx), %ymm3 vmovapd 32416(%rbx), %ymm11 vmulpd %ymm11, %ymm3, %ymm3 vsubpd %ymm3, %ymm1, %ymm1 vmulpd %ymm13, %ymm8, %ymm3 vmovapd %ymm8, %ymm13 vaddpd %ymm3, %ymm1, %ymm3 vmovapd 31008(%rbx), %ymm1 vmaskmovpd %ymm7, %ymm1, 12032(%rdi,%r13) vmulpd %ymm14, %ymm15, %ymm1 vdivpd %ymm4, %ymm1, %ymm1 vmovapd %ymm1, 29376(%rbx) vmulpd %ymm1, %ymm0, %ymm1 vmovapd 29344(%rbx), %ymm0 vaddpd %ymm1, %ymm0, %ymm8 vmovapd 32704(%rbx), %ymm7 vmulpd 30848(%rbx), %ymm7, %ymm1 vaddpd %ymm1, %ymm6, %ymm1 vmovapd 32320(%rbx), %ymm14 vmovapd 32832(%rbx), %ymm0 vmulpd %ymm14, %ymm0, %ymm4 vsubpd %ymm4, %ymm1, %ymm0 vmovapd %ymm0, 29024(%rbx) vmulpd %ymm12, %ymm11, %ymm1 vdivpd %ymm9, %ymm1, %ymm0 vmovapd %ymm0, 29344(%rbx) vmulpd %ymm0, %ymm10, %ymm1 vaddpd %ymm1, %ymm3, %ymm0 vmovapd %ymm0, 29216(%rbx) vmovapd 31616(%rbx), %ymm1 vmovapd 29184(%rbx), %ymm0 vmulpd %ymm0, %ymm1, %ymm4 vmovapd %ymm4, 28896(%rbx) vmovapd 30752(%rbx), %ymm1 vmulpd %ymm0, %ymm1, %ymm9 vmovapd %ymm9, 30816(%rbx) vmovapd 31648(%rbx), %ymm1 vmulpd %ymm0, %ymm1, %ymm0 vmovapd 32544(%rbx), %ymm1 vmulpd %ymm0, %ymm1, %ymm1 vmovapd 29152(%rbx), %ymm3 vaddpd %ymm1, %ymm3, %ymm10 vmulpd %ymm9, %ymm13, %ymm1 vaddpd %ymm1, %ymm3, %ymm1 vmovapd %ymm1, 29056(%rbx) vmovapd 32864(%rbx), %ymm1 vmulpd %ymm4, %ymm1, %ymm1 vaddpd %ymm1, %ymm3, %ymm1 vmovapd %ymm1, 29152(%rbx) vmovapd 30720(%rbx), %ymm1 vmulpd %ymm5, %ymm1, %ymm3 vmovapd 30176(%rbx), %ymm1 vmulpd %ymm5, %ymm1, %ymm9 vmovapd 30784(%rbx), %ymm1 vmulpd %ymm5, %ymm1, %ymm15 vmovapd 32512(%rbx), %ymm5 vmulpd %ymm15, %ymm5, %ymm1 vaddpd %ymm1, %ymm2, %ymm12 vmulpd %ymm9, %ymm7, %ymm1 vaddpd %ymm1, %ymm2, %ymm1 vmovapd %ymm1, 28992(%rbx) vmovapd 32672(%rbx), %ymm13 vmulpd %ymm3, %ymm13, %ymm1 vaddpd %ymm1, %ymm2, %ymm1 vmovapd %ymm1, 29120(%rbx) vmovapd 31040(%rbx), %ymm1 vmaskmovpd %ymm8, %ymm1, 12064(%rdi,%r13) vmovapd 32480(%rbx), %ymm1 vmulpd %ymm0, %ymm1, %ymm1 vmovapd 30112(%rbx), %ymm4 vaddpd %ymm1, %ymm4, %ymm1 vmovapd 32064(%rbx), %ymm2 vmulpd 30688(%rbx), %ymm2, %ymm2 vsubpd %ymm2, %ymm1, %ymm1 vmovapd %ymm1, 29184(%rbx) vsubpd 29280(%rbx), %ymm12, %ymm1 vmovapd %ymm1, 29280(%rbx) vsubpd 29248(%rbx), %ymm10, %ymm1 vmovapd %ymm1, 29248(%rbx) vmulpd %ymm15, %ymm7, %ymm1 vaddpd %ymm1, %ymm6, %ymm1 vmovapd 31296(%rbx), %ymm11 vmulpd %ymm14, %ymm11, %ymm2 vsubpd %ymm2, %ymm1, %ymm1 vmovapd %ymm1, 29088(%rbx) vmovapd %ymm13, %ymm1 vmulpd %ymm15, %ymm1, %ymm8 vmovapd 32448(%rbx), %ymm7 vmulpd %ymm15, %ymm7, %ymm10 vmulpd 30848(%rbx), %ymm5, %ymm2 vmulpd %ymm9, %ymm7, %ymm12 vmovapd %ymm7, %ymm13 vmulpd %ymm9, %ymm5, %ymm7 vmulpd %ymm9, %ymm1, %ymm9 vmulpd %ymm3, %ymm13, %ymm13 vmulpd %ymm3, %ymm5, %ymm1 vmovapd 32704(%rbx), %ymm15 vmulpd %ymm3, %ymm15, %ymm5 vaddpd %ymm10, %ymm6, %ymm3 vaddpd %ymm8, %ymm6, %ymm14 vaddpd %ymm7, %ymm6, %ymm10 vaddpd %ymm12, %ymm6, %ymm7 vmovapd %ymm7, 28672(%rbx) vaddpd %ymm9, %ymm6, %ymm7 vmovapd %ymm7, 28864(%rbx) vaddpd %ymm1, %ymm6, %ymm1 vmovapd %ymm1, 28832(%rbx) vaddpd %ymm13, %ymm6, %ymm1 vmovapd %ymm1, 30848(%rbx) vaddpd %ymm2, %ymm6, %ymm1 vmovapd %ymm1, 28608(%rbx) vaddpd %ymm5, %ymm6, %ymm1 vmovapd %ymm1, 28544(%rbx) vmovapd 29056(%rbx), %ymm1 vsubpd 29312(%rbx), %ymm1, %ymm1 vmovapd %ymm1, 29312(%rbx) vmovapd 32800(%rbx), %ymm13 vmulpd %ymm0, %ymm13, %ymm1 vmovapd %ymm4, %ymm7 vaddpd %ymm1, %ymm7, %ymm1 vmovapd 32064(%rbx), %ymm4 vmulpd 32416(%rbx), %ymm4, %ymm5 vsubpd %ymm5, %ymm1, %ymm1 vmovapd %ymm1, 29056(%rbx) vmovapd %ymm11, %ymm2 vmovapd 32224(%rbx), %ymm8 vmulpd %ymm8, %ymm2, %ymm1 vsubpd %ymm1, %ymm14, %ymm1 vmovapd %ymm1, 28960(%rbx) vmovapd 32864(%rbx), %ymm6 vmulpd %ymm0, %ymm6, %ymm0 vaddpd %ymm0, %ymm7, %ymm0 vmulpd 32352(%rbx), %ymm4, %ymm1 vsubpd %ymm1, %ymm0, %ymm0 vmovapd %ymm0, 28800(%rbx) vmovapd 30144(%rbx), %ymm12 vmulpd %ymm12, %ymm2, %ymm0 vsubpd %ymm0, %ymm3, %ymm0 vmovapd %ymm0, 28640(%rbx) vmulpd 32160(%rbx), %ymm15, %ymm0 vmovapd 29024(%rbx), %ymm1 vaddpd %ymm0, %ymm1, %ymm0 vmovapd %ymm0, 28512(%rbx) vmovapd 32480(%rbx), %ymm14 vmovapd 30816(%rbx), %ymm11 vmulpd %ymm11, %ymm14, %ymm1 vaddpd %ymm1, %ymm7, %ymm1 vmovapd %ymm7, %ymm4 vmovapd 32000(%rbx), %ymm9 vmovapd 30688(%rbx), %ymm3 vmulpd %ymm3, %ymm9, %ymm5 vsubpd %ymm5, %ymm1, %ymm0 vmovapd %ymm0, 29024(%rbx) vmovapd 31328(%rbx), %ymm2 vmovapd 32288(%rbx), %ymm0 vmulpd %ymm0, %ymm2, %ymm1 vsubpd %ymm1, %ymm10, %ymm1 vmovapd %ymm1, 28928(%rbx) vmovapd 32544(%rbx), %ymm7 vmulpd %ymm11, %ymm7, %ymm1 vaddpd %ymm1, %ymm4, %ymm1 vmovapd 32256(%rbx), %ymm15 vmulpd %ymm15, %ymm9, %ymm5 vmovapd %ymm9, %ymm11 vsubpd %ymm5, %ymm1, %ymm1 vmovapd %ymm1, 28768(%rbx) vmovapd 28992(%rbx), %ymm1 vsubpd 29408(%rbx), %ymm1, %ymm1 vmovapd %ymm1, 28736(%rbx) vmovapd 28896(%rbx), %ymm9 vmulpd %ymm9, %ymm13, %ymm1 vaddpd %ymm1, %ymm4, %ymm1 vmovapd 31968(%rbx), %ymm10 vmulpd 32416(%rbx), %ymm10, %ymm5 vsubpd %ymm5, %ymm1, %ymm1 vmovapd %ymm1, 29408(%rbx) vmulpd %ymm8, %ymm2, %ymm1 vmovapd 28864(%rbx), %ymm5 vsubpd %ymm1, %ymm5, %ymm1 vmovapd %ymm1, 28864(%rbx) vmulpd 30816(%rbx), %ymm6, %ymm1 vaddpd %ymm1, %ymm4, %ymm1 vmulpd 32352(%rbx), %ymm11, %ymm5 vsubpd %ymm5, %ymm1, %ymm1 vmovapd %ymm1, 28704(%rbx) vmulpd %ymm12, %ymm2, %ymm1 vmovapd 28672(%rbx), %ymm2 vsubpd %ymm1, %ymm2, %ymm1 vmovapd %ymm1, 28576(%rbx) vmulpd %ymm9, %ymm14, %ymm1 vaddpd %ymm1, %ymm4, %ymm1 vmulpd %ymm3, %ymm10, %ymm5 vmovapd %ymm10, %ymm3 vsubpd %ymm5, %ymm1, %ymm1 vmovapd %ymm1, 28992(%rbx) vmovapd %ymm0, %ymm2 vmovapd 32032(%rbx), %ymm5 vmulpd %ymm2, %ymm5, %ymm1 vmovapd 28832(%rbx), %ymm0 vsubpd %ymm1, %ymm0, %ymm0 vmovapd %ymm0, 28832(%rbx) vmulpd %ymm9, %ymm7, %ymm1 vmovapd %ymm7, %ymm10 vaddpd %ymm1, %ymm4, %ymm1 vmulpd %ymm15, %ymm3, %ymm4 vsubpd %ymm4, %ymm1, %ymm0 vmovapd %ymm0, 28672(%rbx) vmovapd 32320(%rbx), %ymm9 vmulpd %ymm9, %ymm5, %ymm1 vmovapd 28544(%rbx), %ymm0 vsubpd %ymm1, %ymm0, %ymm0 vmovapd %ymm0, 28544(%rbx) vmovapd 32832(%rbx), %ymm0 vmulpd %ymm2, %ymm0, %ymm1 vmovapd 28608(%rbx), %ymm0 vsubpd %ymm1, %ymm0, %ymm0 vmovapd %ymm0, 28896(%rbx) vmovapd 29120(%rbx), %ymm0 vsubpd 30016(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 29120(%rbx) vmovapd 29152(%rbx), %ymm0 vsubpd 29504(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 29152(%rbx) vmulpd %ymm12, %ymm5, %ymm1 vmovapd 30848(%rbx), %ymm0 vsubpd %ymm1, %ymm0, %ymm0 vmovapd %ymm0, 28608(%rbx) vmovapd 31008(%rbx), %ymm1 vmovapd 29216(%rbx), %ymm0 vmaskmovpd %ymm0, %ymm1, 12096(%rdi,%r13) vmovapd 32640(%rbx), %ymm3 vmovapd 31296(%rbx), %ymm0 vmulpd %ymm3, %ymm0, %ymm1 vmovapd 30080(%rbx), %ymm0 vdivpd %ymm0, %ymm1, %ymm7 vmovapd %ymm7, 30816(%rbx) vmovapd 32704(%rbx), %ymm2 vmulpd %ymm7, %ymm2, %ymm1 vmovapd 29088(%rbx), %ymm4 vaddpd %ymm1, %ymm4, %ymm1 vmovapd %ymm1, 29216(%rbx) vmovapd 32928(%rbx), %ymm5 vmovapd 32064(%rbx), %ymm1 vmulpd %ymm5, %ymm1, %ymm1 vmovapd 30656(%rbx), %ymm12 vdivpd %ymm12, %ymm1, %ymm8 vmovapd %ymm8, 30848(%rbx) vmulpd %ymm8, %ymm10, %ymm1 vmovapd %ymm10, %ymm6 vmovapd 29248(%rbx), %ymm4 vaddpd %ymm1, %ymm4, %ymm1 vmovapd %ymm1, 30016(%rbx) vmovapd 32512(%rbx), %ymm13 vmulpd %ymm7, %ymm13, %ymm1 vmovapd 29280(%rbx), %ymm4 vaddpd %ymm1, %ymm4, %ymm1 vmovapd %ymm1, 29248(%rbx) vmulpd %ymm8, %ymm14, %ymm1 vmovapd 29184(%rbx), %ymm4 vaddpd %ymm1, %ymm4, %ymm1 vmovapd %ymm1, 28480(%rbx) vmulpd %ymm3, %ymm9, %ymm1 vdivpd %ymm0, %ymm1, %ymm4 vmovapd %ymm0, %ymm15 vmovapd 32896(%rbx), %ymm0 vmulpd %ymm4, %ymm0, %ymm1 vmovapd 28512(%rbx), %ymm0 vaddpd %ymm1, %ymm0, %ymm0 vmovapd %ymm0, 28448(%rbx) vmovapd 32448(%rbx), %ymm9 vmulpd %ymm7, %ymm9, %ymm0 vmovapd 28640(%rbx), %ymm1 vaddpd %ymm0, %ymm1, %ymm0 vmovapd %ymm0, 29280(%rbx) vmovapd 32864(%rbx), %ymm14 vmulpd %ymm8, %ymm14, %ymm0 vmovapd 28800(%rbx), %ymm1 vaddpd %ymm0, %ymm1, %ymm0 vmovapd %ymm0, 29088(%rbx) vmovapd 32672(%rbx), %ymm10 vmulpd %ymm7, %ymm10, %ymm0 vmovapd 28960(%rbx), %ymm1 vaddpd %ymm0, %ymm1, %ymm0 vmovapd %ymm0, 28960(%rbx) vmovapd 32800(%rbx), %ymm7 vmulpd %ymm8, %ymm7, %ymm0 vmovapd 29056(%rbx), %ymm1 vaddpd %ymm0, %ymm1, %ymm0 vmovapd %ymm0, 28640(%rbx) vmovapd 32000(%rbx), %ymm0 vmulpd %ymm5, %ymm0, %ymm0 vdivpd %ymm12, %ymm0, %ymm1 vmovapd %ymm12, %ymm5 vmovapd %ymm1, 23136(%rbx) vmulpd %ymm1, %ymm7, %ymm0 vmovapd 29312(%rbx), %ymm8 vaddpd %ymm0, %ymm8, %ymm0 vmovapd %ymm0, 29184(%rbx) vmovapd 31328(%rbx), %ymm0 vmulpd %ymm3, %ymm0, %ymm0 vdivpd %ymm15, %ymm0, %ymm8 vmovapd %ymm8, 23104(%rbx) vmulpd %ymm8, %ymm2, %ymm0 vmovapd %ymm2, %ymm11 vmovapd 28736(%rbx), %ymm2 vaddpd %ymm0, %ymm2, %ymm0 vmovapd %ymm0, 28800(%rbx) vmulpd %ymm1, %ymm6, %ymm0 vmovapd 28768(%rbx), %ymm2 vaddpd %ymm0, %ymm2, %ymm0 vmovapd %ymm0, 28768(%rbx) vmulpd %ymm8, %ymm13, %ymm0 vmovapd 28928(%rbx), %ymm2 vaddpd %ymm0, %ymm2, %ymm0 vmovapd %ymm0, 28512(%rbx) vmovapd 32480(%rbx), %ymm2 vmulpd %ymm1, %ymm2, %ymm0 vmovapd 29024(%rbx), %ymm12 vaddpd %ymm0, %ymm12, %ymm0 vmovapd %ymm0, 29056(%rbx) vmulpd %ymm8, %ymm9, %ymm0 vmovapd 28576(%rbx), %ymm12 vaddpd %ymm0, %ymm12, %ymm0 vmovapd %ymm0, 28928(%rbx) vmulpd %ymm1, %ymm14, %ymm0 vmovapd 28704(%rbx), %ymm1 vaddpd %ymm0, %ymm1, %ymm0 vmovapd %ymm0, 28736(%rbx) vmulpd %ymm8, %ymm10, %ymm0 vmovapd 28864(%rbx), %ymm1 vaddpd %ymm0, %ymm1, %ymm0 vmovapd %ymm0, 28704(%rbx) vmovapd 31968(%rbx), %ymm0 vmovapd 32928(%rbx), %ymm8 vmulpd %ymm8, %ymm0, %ymm0 vdivpd %ymm5, %ymm0, %ymm1 vmovapd %ymm1, 29504(%rbx) vmulpd %ymm1, %ymm7, %ymm0 vmovapd 29408(%rbx), %ymm7 vaddpd %ymm0, %ymm7, %ymm0 vmovapd %ymm0, 29024(%rbx) vmovapd 32032(%rbx), %ymm0 vmulpd %ymm3, %ymm0, %ymm0 vdivpd %ymm15, %ymm0, %ymm12 vmovapd %ymm12, 23072(%rbx) vmulpd %ymm12, %ymm11, %ymm0 vmovapd 28544(%rbx), %ymm5 vaddpd %ymm0, %ymm5, %ymm0 vmovapd %ymm0, 28864(%rbx) vmulpd %ymm1, %ymm6, %ymm0 vmovapd 28672(%rbx), %ymm5 vaddpd %ymm0, %ymm5, %ymm0 vmovapd %ymm0, 28672(%rbx) vmovapd %ymm13, %ymm5 vmulpd %ymm12, %ymm5, %ymm0 vmovapd 28832(%rbx), %ymm6 vaddpd %ymm0, %ymm6, %ymm0 vmovapd %ymm0, 28576(%rbx) vmulpd %ymm1, %ymm2, %ymm0 vmovapd 28992(%rbx), %ymm2 vaddpd %ymm0, %ymm2, %ymm0 vmovapd %ymm0, 28992(%rbx) vmulpd %ymm12, %ymm9, %ymm0 vmovapd 28608(%rbx), %ymm2 vaddpd %ymm0, %ymm2, %ymm0 vmovapd %ymm0, 28832(%rbx) vmulpd %ymm1, %ymm14, %ymm0 vmovapd 29152(%rbx), %ymm1 vaddpd %ymm0, %ymm1, %ymm0 vmovapd %ymm0, 28608(%rbx) vmulpd %ymm12, %ymm10, %ymm1 vmovapd 29120(%rbx), %ymm0 vaddpd %ymm1, %ymm0, %ymm0 vmovapd %ymm0, 28544(%rbx) vmulpd 32160(%rbx), %ymm5, %ymm1 vmovapd 28896(%rbx), %ymm0 vaddpd %ymm1, %ymm0, %ymm0 vmovapd %ymm0, 29120(%rbx) vmovapd 31040(%rbx), %ymm0 vmovapd 28448(%rbx), %ymm1 vmaskmovpd %ymm1, %ymm0, 12128(%rdi,%r13) vmovapd 31648(%rbx), %ymm9 vmovapd 29984(%rbx), %ymm0 vmulpd %ymm0, %ymm9, %ymm1 vmovapd 28480(%rbx), %ymm2 vaddpd %ymm1, %ymm2, %ymm13 vmovapd 32288(%rbx), %ymm1 vmulpd %ymm3, %ymm1, %ymm1 vdivpd %ymm15, %ymm1, %ymm5 vmovapd 30784(%rbx), %ymm7 vmulpd %ymm5, %ymm7, %ymm1 vmovapd 29248(%rbx), %ymm2 vaddpd %ymm1, %ymm2, %ymm11 vmovapd 32256(%rbx), %ymm10 vmulpd %ymm8, %ymm10, %ymm1 vdivpd 30656(%rbx), %ymm1, %ymm2 vmulpd %ymm2, %ymm9, %ymm1 vmovapd 30016(%rbx), %ymm3 vaddpd %ymm1, %ymm3, %ymm1 vmovapd %ymm1, 30016(%rbx) vmulpd %ymm4, %ymm7, %ymm1 vmovapd 29216(%rbx), %ymm3 vaddpd %ymm1, %ymm3, %ymm1 vmovapd %ymm1, 29408(%rbx) vmovapd 29344(%rbx), %ymm15 vmulpd %ymm15, %ymm9, %ymm1 vmovapd 28640(%rbx), %ymm3 vaddpd %ymm1, %ymm3, %ymm1 vmovapd %ymm1, 29312(%rbx) vmovapd 29376(%rbx), %ymm12 vmulpd %ymm12, %ymm7, %ymm1 vmovapd 28960(%rbx), %ymm3 vaddpd %ymm1, %ymm3, %ymm1 vmovapd %ymm1, 29248(%rbx) vmovapd 29440(%rbx), %ymm8 vmulpd %ymm8, %ymm9, %ymm1 vmovapd 29088(%rbx), %ymm3 vaddpd %ymm1, %ymm3, %ymm1 vmovapd %ymm1, 29216(%rbx) vmovapd 29472(%rbx), %ymm6 vmulpd %ymm6, %ymm7, %ymm1 vmovapd 29280(%rbx), %ymm3 vaddpd %ymm1, %ymm3, %ymm1 vmovapd %ymm1, 29280(%rbx) vmovapd 30176(%rbx), %ymm14 vmulpd %ymm5, %ymm14, %ymm1 vmovapd 28512(%rbx), %ymm3 vaddpd %ymm1, %ymm3, %ymm1 vmovapd %ymm1, 29152(%rbx) vmovapd 30752(%rbx), %ymm9 vmulpd %ymm2, %ymm9, %ymm1 vmovapd 28768(%rbx), %ymm3 vaddpd %ymm1, %ymm3, %ymm1 vmovapd %ymm1, 29088(%rbx) vmulpd %ymm4, %ymm14, %ymm1 vmovapd 28800(%rbx), %ymm3 vaddpd %ymm1, %ymm3, %ymm1 vmovapd %ymm1, 28960(%rbx) vmulpd %ymm15, %ymm9, %ymm1 vmovapd %ymm15, %ymm7 vmovapd 29184(%rbx), %ymm3 vaddpd %ymm1, %ymm3, %ymm1 vmovapd %ymm1, 29184(%rbx) vmulpd %ymm12, %ymm14, %ymm1 vmovapd 28704(%rbx), %ymm3 vaddpd %ymm1, %ymm3, %ymm1 vmovapd %ymm1, 28896(%rbx) vmulpd %ymm8, %ymm9, %ymm1 vmovapd %ymm8, %ymm15 vmovapd 28736(%rbx), %ymm3 vaddpd %ymm1, %ymm3, %ymm1 vmovapd %ymm1, 28800(%rbx) vmulpd %ymm6, %ymm14, %ymm1 vmovapd 28928(%rbx), %ymm3 vaddpd %ymm1, %ymm3, %ymm1 vmovapd %ymm1, 28928(%rbx) vmulpd %ymm0, %ymm9, %ymm1 vmovapd 29056(%rbx), %ymm3 vaddpd %ymm1, %ymm3, %ymm1 vmovapd %ymm1, 29056(%rbx) vmovapd 30720(%rbx), %ymm9 vmulpd %ymm5, %ymm9, %ymm1 vmovapd 28576(%rbx), %ymm3 vaddpd %ymm1, %ymm3, %ymm1 vmovapd %ymm1, 28768(%rbx) vmovapd 31616(%rbx), %ymm3 vmulpd %ymm2, %ymm3, %ymm1 vmovapd 28672(%rbx), %ymm8 vaddpd %ymm1, %ymm8, %ymm8 vmulpd %ymm4, %ymm9, %ymm1 vmovapd 28864(%rbx), %ymm4 vaddpd %ymm1, %ymm4, %ymm4 vmulpd %ymm7, %ymm3, %ymm1 vmovapd 29024(%rbx), %ymm7 vaddpd %ymm1, %ymm7, %ymm7 vmulpd %ymm12, %ymm9, %ymm1 vmovapd %ymm9, %ymm14 vmovapd 28544(%rbx), %ymm9 vaddpd %ymm1, %ymm9, %ymm12 vmulpd %ymm15, %ymm3, %ymm1 vmovapd %ymm3, %ymm9 vmovapd 28608(%rbx), %ymm3 vaddpd %ymm1, %ymm3, %ymm15 vmulpd %ymm6, %ymm14, %ymm1 vmovapd 28832(%rbx), %ymm3 vaddpd %ymm1, %ymm3, %ymm3 vmulpd %ymm0, %ymm9, %ymm1 vmovapd 28992(%rbx), %ymm0 vaddpd %ymm1, %ymm0, %ymm9 vmovapd 32896(%rbx), %ymm0 vmulpd %ymm5, %ymm0, %ymm1 vmovapd 29120(%rbx), %ymm0 vaddpd %ymm1, %ymm0, %ymm5 vmovapd 32544(%rbx), %ymm0 vmulpd 30048(%rbx), %ymm0, %ymm1 vmovapd 30112(%rbx), %ymm6 vaddpd %ymm1, %ymm6, %ymm1 vmovapd 32736(%rbx), %ymm14 vmulpd %ymm10, %ymm14, %ymm14 vsubpd %ymm14, %ymm1, %ymm1 vmulpd 32192(%rbx), %ymm0, %ymm14 vaddpd %ymm14, %ymm1, %ymm1 vmovapd 32576(%rbx), %ymm0 vmulpd %ymm2, %ymm0, %ymm2 vaddpd %ymm2, %ymm1, %ymm1 vmovapd 31008(%rbx), %ymm2 vmaskmovpd %ymm1, %ymm2, 12160(%rdi,%r13) vmovapd 31040(%rbx), %ymm0 vmaskmovpd %ymm5, %ymm0, 12192(%rdi,%r13) vmaskmovpd %ymm9, %ymm2, 12224(%rdi,%r13) vmovaps 30912(%rbx), %ymm1 vmaskmovpd %ymm3, %ymm0, 12256(%rdi,%r13) vmaskmovpd %ymm15, %ymm2, 12288(%rdi,%r13) vmaskmovpd %ymm12, %ymm0, 12320(%rdi,%r13) vmaskmovpd %ymm7, %ymm2, 12352(%rdi,%r13) vmaskmovpd %ymm4, %ymm0, 12384(%rdi,%r13) vmaskmovpd %ymm8, %ymm2, 12416(%rdi,%r13) vmovapd 28768(%rbx), %ymm3 vmaskmovpd %ymm3, %ymm0, 12448(%rdi,%r13) vmovapd 29056(%rbx), %ymm3 vmaskmovpd %ymm3, %ymm2, 12480(%rdi,%r13) vmovapd 28928(%rbx), %ymm3 vmaskmovpd %ymm3, %ymm0, 12512(%rdi,%r13) vmovapd 28800(%rbx), %ymm3 vmaskmovpd %ymm3, %ymm2, 12544(%rdi,%r13) vmovaps 30880(%rbx), %ymm9 vmovapd 28896(%rbx), %ymm3 vmaskmovpd %ymm3, %ymm0, 12576(%rdi,%r13) vmovapd 29184(%rbx), %ymm3 vmaskmovpd %ymm3, %ymm2, 12608(%rdi,%r13) vmovapd 28960(%rbx), %ymm3 vmaskmovpd %ymm3, %ymm0, 12640(%rdi,%r13) vmovapd 29088(%rbx), %ymm3 vmaskmovpd %ymm3, %ymm2, 12672(%rdi,%r13) vmovapd 29152(%rbx), %ymm3 vmaskmovpd %ymm3, %ymm0, 12704(%rdi,%r13) vmaskmovpd %ymm13, %ymm2, 12736(%rdi,%r13) vmovapd 29280(%rbx), %ymm3 vmaskmovpd %ymm3, %ymm0, 12768(%rdi,%r13) vmovapd 29216(%rbx), %ymm3 vmaskmovpd %ymm3, %ymm2, 12800(%rdi,%r13) vmovapd 29248(%rbx), %ymm3 vmaskmovpd %ymm3, %ymm0, 12832(%rdi,%r13) vmovapd 29312(%rbx), %ymm3 vmaskmovpd %ymm3, %ymm2, 12864(%rdi,%r13) vmovapd 29408(%rbx), %ymm3 vmaskmovpd %ymm3, %ymm0, 12896(%rdi,%r13) vmovapd 30016(%rbx), %ymm3 vmaskmovpd %ymm3, %ymm2, 12928(%rdi,%r13) vmaskmovpd %ymm11, %ymm0, 12960(%rdi,%r13) vmovsd 11848(%rdi,%r13), %xmm0 vmovaps %xmm0, 29472(%rbx) vmovsd 11928(%rdi,%r13), %xmm0 vmovaps %xmm0, 29440(%rbx) vmovsd 10824(%rdi,%r13), %xmm0 vmovaps %xmm0, 29088(%rbx) vmovsd 11936(%rdi,%r13), %xmm0 vmovaps %xmm0, 29184(%rbx) vmovsd 11912(%rdi,%r13), %xmm0 vmovaps %xmm0, 29152(%rbx) vmovsd 11952(%rdi,%r13), %xmm0 vmovaps %xmm0, 29120(%rbx) vmovsd 11840(%rdi,%r13), %xmm0 vmovaps %xmm0, 29056(%rbx) vmovsd 11856(%rdi,%r13), %xmm0 vmovaps %xmm0, 29984(%rbx) vmovsd 11872(%rdi,%r13), %xmm0 vmovaps %xmm0, 29024(%rbx) vmovsd 10832(%rdi,%r13), %xmm0 vmovaps %xmm0, 28992(%rbx) vmovsd 11944(%rdi,%r13), %xmm0 vmovaps %xmm0, 28960(%rbx) vmovsd 10840(%rdi,%r13), %xmm0 vmovaps %xmm0, 28928(%rbx) vmovsd 11904(%rdi,%r13), %xmm0 vmovaps %xmm0, 28864(%rbx) vmovsd 11960(%rdi,%r13), %xmm0 vmovaps %xmm0, 28608(%rbx) vmovsd 11920(%rdi,%r13), %xmm0 vmovaps %xmm0, 27776(%rbx) vmovsd 11864(%rdi,%r13), %xmm0 vmovaps %xmm0, 27360(%rbx) vmovsd 11896(%rdi,%r13), %xmm0 vmovaps %xmm0, 27296(%rbx) vmovsd 11888(%rdi,%r13), %xmm0 vmovaps %xmm0, 27232(%rbx) vmovsd 11672(%rdi,%r13), %xmm0 vmovaps %xmm0, 29408(%rbx) vmovsd 11592(%rdi,%r13), %xmm0 vmovaps %xmm0, 29344(%rbx) vmovsd 10568(%rdi,%r13), %xmm0 vmovaps %xmm0, 28512(%rbx) vmovsd 11704(%rdi,%r13), %xmm0 vmovaps %xmm0, 30016(%rbx) vmovsd 10576(%rdi,%r13), %xmm0 vmovaps %xmm0, 28256(%rbx) vmovsd 11616(%rdi,%r13), %xmm0 vmovaps %xmm0, 28224(%rbx) vmovsd 11696(%rdi,%r13), %xmm0 vmovaps %xmm0, 27872(%rbx) vmovsd 11656(%rdi,%r13), %xmm0 vmovaps %xmm0, 27840(%rbx) vmovsd 11680(%rdi,%r13), %xmm0 vmovaps %xmm0, 27808(%rbx) vmovsd 11600(%rdi,%r13), %xmm0 vmovaps %xmm0, 27616(%rbx) vmovsd 11584(%rdi,%r13), %xmm0 vmovaps %xmm0, 27552(%rbx) vmovsd 11688(%rdi,%r13), %xmm0 vmovaps %xmm0, 27520(%rbx) vmovsd 11648(%rdi,%r13), %xmm0 vmovaps %xmm0, 30048(%rbx) vmovsd 10584(%rdi,%r13), %xmm0 vmovaps %xmm0, 27488(%rbx) vmovsd 11664(%rdi,%r13), %xmm0 vmovaps %xmm0, 27072(%rbx) vmovsd 11640(%rdi,%r13), %xmm0 vmovaps %xmm0, 26752(%rbx) vmovsd 11608(%rdi,%r13), %xmm0 vmovaps %xmm0, 26816(%rbx) vmovsd 11632(%rdi,%r13), %xmm0 vmovaps %xmm0, 26656(%rbx) vmovsd 11720(%rdi,%r13), %xmm0 vmovaps %xmm0, 29376(%rbx) vmovsd 11800(%rdi,%r13), %xmm0 vmovaps %xmm0, 29312(%rbx) vmovsd 11776(%rdi,%r13), %xmm0 vmovaps %xmm0, 28544(%rbx) vmovsd 11816(%rdi,%r13), %xmm0 vmovaps %xmm0, 28576(%rbx) vmovsd 10712(%rdi,%r13), %xmm0 vmovaps %xmm0, 28480(%rbx) vmovsd 10704(%rdi,%r13), %xmm0 vmovaps %xmm0, 28672(%rbx) vmovsd 11808(%rdi,%r13), %xmm0 vmovaps %xmm0, 28832(%rbx) vmovsd 11784(%rdi,%r13), %xmm0 vmovaps %xmm0, 28800(%rbx) vmovsd 11824(%rdi,%r13), %xmm0 vmovaps %xmm0, 28768(%rbx) vmovsd 11712(%rdi,%r13), %xmm0 vmovaps %xmm0, 28736(%rbx) vmovsd 10696(%rdi,%r13), %xmm0 vmovaps %xmm0, 28704(%rbx) vmovsd 11744(%rdi,%r13), %xmm0 vmovaps %xmm0, 28640(%rbx) vmovsd 11728(%rdi,%r13), %xmm0 vmovaps %xmm0, 28896(%rbx) vmovsd 11832(%rdi,%r13), %xmm0 vmovaps %xmm0, 28032(%rbx) vmovsd 11792(%rdi,%r13), %xmm0 vmovaps %xmm0, 27264(%rbx) vmovsd 11736(%rdi,%r13), %xmm0 vmovaps %xmm0, 26944(%rbx) vmovsd 11768(%rdi,%r13), %xmm0 vmovaps %xmm0, 26880(%rbx) vmovsd 11760(%rdi,%r13), %xmm0 vmovaps %xmm0, 26720(%rbx) vmovsd 11544(%rdi,%r13), %xmm0 vmovaps %xmm0, 31040(%rbx) vmovsd 11464(%rdi,%r13), %xmm0 vmovaps %xmm0, 31008(%rbx) vmovsd 11552(%rdi,%r13), %xmm0 vmovaps %xmm0, 27424(%rbx) vmovsd 11568(%rdi,%r13), %xmm0 vmovaps %xmm0, 27456(%rbx) vmovsd 11528(%rdi,%r13), %xmm0 vmovaps %xmm0, 27392(%rbx) vmovsd 11576(%rdi,%r13), %xmm0 vmovaps %xmm0, 27712(%rbx) vmovsd 10448(%rdi,%r13), %xmm0 vmovaps %xmm0, 27648(%rbx) vmovsd 11488(%rdi,%r13), %xmm0 vmovaps %xmm0, 27584(%rbx) vmovsd 10440(%rdi,%r13), %xmm0 vmovaps %xmm0, 27904(%rbx) vmovsd 11472(%rdi,%r13), %xmm0 vmovaps %xmm0, 27200(%rbx) vmovsd 11456(%rdi,%r13), %xmm0 vmovaps %xmm0, 27136(%rbx) vmovsd 11520(%rdi,%r13), %xmm0 vmovaps %xmm0, 27040(%rbx) vmovsd 10456(%rdi,%r13), %xmm0 vmovaps %xmm0, 27008(%rbx) vmovsd 11560(%rdi,%r13), %xmm0 vmovaps %xmm0, 26976(%rbx) vmovsd 11536(%rdi,%r13), %xmm0 vmovaps %xmm0, 26560(%rbx) vmovsd 11480(%rdi,%r13), %xmm0 vmovaps %xmm0, 26144(%rbx) vmovsd 11512(%rdi,%r13), %xmm0 vmovaps %xmm0, 26016(%rbx) vmovsd 11504(%rdi,%r13), %xmm0 vmovaps %xmm0, 25952(%rbx) vmovsd 11624(%rdi,%r13), %xmm0 vmovaps %xmm0, 29280(%rbx) movl 500(%rdi,%r13), %eax movl %eax, 23872(%rbx) vmovsd 11496(%rdi,%r13), %xmm0 vmovaps %xmm0, 30112(%rbx) movl 496(%rdi,%r13), %eax movl %eax, 24000(%rbx) vmovsd 11880(%rdi,%r13), %xmm0 vmovaps %xmm0, 29248(%rbx) movl 508(%rdi,%r13), %eax movl %eax, 24128(%rbx) vmovsd 11752(%rdi,%r13), %xmm0 vmovaps %xmm0, 29216(%rbx) movl 504(%rdi,%r13), %eax movl %eax, 24096(%rbx) vmovsd 11264(%rdi,%r13), %xmm0 vmovaps %xmm0, 28064(%rbx) vmovsd 10184(%rdi,%r13), %xmm0 vmovaps %xmm0, 28000(%rbx) vmovsd 11200(%rdi,%r13), %xmm0 vmovaps %xmm0, 28288(%rbx) vmovsd 11216(%rdi,%r13), %xmm0 vmovaps %xmm0, 28448(%rbx) vmovsd 11312(%rdi,%r13), %xmm0 vmovaps %xmm0, 28416(%rbx) vmovsd 11296(%rdi,%r13), %xmm0 vmovaps %xmm0, 28384(%rbx) vmovsd 11304(%rdi,%r13), %xmm0 vmovaps %xmm0, 28352(%rbx) vmovsd 11224(%rdi,%r13), %xmm0 vmovaps %xmm0, 28320(%rbx) vmovsd 10200(%rdi,%r13), %xmm0 vmovaps %xmm0, 27328(%rbx) vmovsd 11280(%rdi,%r13), %xmm0 vmovaps %xmm0, 26848(%rbx) vmovsd 11320(%rdi,%r13), %xmm0 vmovaps %xmm0, 26784(%rbx) vmovsd 11208(%rdi,%r13), %xmm0 vmovaps %xmm0, 26272(%rbx) vmovsd 10192(%rdi,%r13), %xmm0 vmovaps %xmm0, 26432(%rbx) vmovsd 11272(%rdi,%r13), %xmm0 vmovaps %xmm0, 26304(%rbx) vmovsd 11232(%rdi,%r13), %xmm0 vmovaps %xmm0, 26240(%rbx) vmovsd 11288(%rdi,%r13), %xmm0 vmovaps %xmm0, 26080(%rbx) vmovsd 11256(%rdi,%r13), %xmm0 vmovaps %xmm0, 26048(%rbx) vmovsd 11248(%rdi,%r13), %xmm0 vmovaps %xmm0, 25664(%rbx) vmovsd 11344(%rdi,%r13), %xmm0 vmovaps %xmm0, 28192(%rbx) vmovsd 11440(%rdi,%r13), %xmm0 vmovaps %xmm0, 28160(%rbx) vmovsd 11424(%rdi,%r13), %xmm0 vmovaps %xmm0, 28128(%rbx) vmovsd 11432(%rdi,%r13), %xmm0 vmovaps %xmm0, 28096(%rbx) vmovsd 11328(%rdi,%r13), %xmm0 vmovaps %xmm0, 27936(%rbx) vmovsd 11392(%rdi,%r13), %xmm0 vmovaps %xmm0, 27744(%rbx) vmovsd 10312(%rdi,%r13), %xmm0 vmovaps %xmm0, 27680(%rbx) vmovsd 11352(%rdi,%r13), %xmm0 vmovaps %xmm0, 27968(%rbx) vmovsd 10328(%rdi,%r13), %xmm0 vmovaps %xmm0, 27168(%rbx) vmovsd 11408(%rdi,%r13), %xmm0 vmovaps %xmm0, 26592(%rbx) vmovsd 11448(%rdi,%r13), %xmm0 vmovaps %xmm0, 26528(%rbx) vmovsd 11400(%rdi,%r13), %xmm0 vmovaps %xmm0, 25824(%rbx) vmovsd 11360(%rdi,%r13), %xmm0 vmovaps %xmm0, 25760(%rbx) vmovsd 11336(%rdi,%r13), %xmm0 vmovaps %xmm0, 25696(%rbx) vmovsd 10320(%rdi,%r13), %xmm0 vmovaps %xmm0, 25856(%rbx) vmovsd 11416(%rdi,%r13), %xmm0 vmovaps %xmm0, 25600(%rbx) vmovsd 11384(%rdi,%r13), %xmm0 vmovaps %xmm0, 25568(%rbx) vmovsd 11376(%rdi,%r13), %xmm0 vmovaps %xmm0, 25504(%rbx) vmovsd 11008(%rdi,%r13), %xmm0 vmovaps %xmm0, 26624(%rbx) vmovsd 9944(%rdi,%r13), %xmm0 vmovaps %xmm0, 26688(%rbx) vmovsd 9928(%rdi,%r13), %xmm0 vmovaps %xmm0, 27104(%rbx) vmovsd 11056(%rdi,%r13), %xmm0 vmovaps %xmm0, 26464(%rbx) vmovsd 11048(%rdi,%r13), %xmm0 vmovaps %xmm0, 26496(%rbx) vmovsd 11040(%rdi,%r13), %xmm0 vmovaps %xmm0, 26368(%rbx) vmovsd 10960(%rdi,%r13), %xmm0 vmovaps %xmm0, 26336(%rbx) vmovsd 10968(%rdi,%r13), %xmm0 vmovaps %xmm0, 26112(%rbx) vmovsd 10944(%rdi,%r13), %xmm0 vmovaps %xmm0, 26176(%rbx) vmovsd 11064(%rdi,%r13), %xmm0 vmovaps %xmm0, 25456(%rbx) vmovsd 11024(%rdi,%r13), %xmm0 vmovaps %xmm0, 25440(%rbx) vmovsd 10952(%rdi,%r13), %xmm0 vmovaps %xmm0, 25312(%rbx) vmovsd 10976(%rdi,%r13), %xmm0 vmovaps %xmm0, 25280(%rbx) vmovsd 9936(%rdi,%r13), %xmm0 vmovaps %xmm0, 25408(%rbx) vmovsd 11000(%rdi,%r13), %xmm0 vmovaps %xmm0, 25152(%rbx) vmovsd 11032(%rdi,%r13), %xmm0 vmovaps %xmm0, 25216(%rbx) vmovsd 11016(%rdi,%r13), %xmm0 vmovaps %xmm0, 25248(%rbx) vmovsd 10992(%rdi,%r13), %xmm0 vmovaps %xmm0, 25088(%rbx) vmovsd 10056(%rdi,%r13), %xmm0 vmovaps %xmm0, 26912(%rbx) vmovsd 10072(%rdi,%r13), %xmm0 vmovaps %xmm0, 26400(%rbx) vmovsd 11136(%rdi,%r13), %xmm0 vmovaps %xmm0, 26208(%rbx) vmovsd 11184(%rdi,%r13), %xmm0 vmovaps %xmm0, 25984(%rbx) vmovsd 11088(%rdi,%r13), %xmm0 vmovaps %xmm0, 25888(%rbx) vmovsd 11072(%rdi,%r13), %xmm0 vmovaps %xmm0, 25728(%rbx) vmovsd 11096(%rdi,%r13), %xmm0 vmovaps %xmm0, 25632(%rbx) vmovsd 11176(%rdi,%r13), %xmm0 vmovaps %xmm0, 25920(%rbx) vmovsd 11168(%rdi,%r13), %xmm0 vmovaps %xmm0, 25792(%rbx) vmovsd 11192(%rdi,%r13), %xmm0 vmovaps %xmm0, 25392(%rbx) vmovsd 11152(%rdi,%r13), %xmm0 vmovaps %xmm0, 25344(%rbx) vmovsd 10064(%rdi,%r13), %xmm0 vmovaps %xmm0, 25184(%rbx) vmovsd 11160(%rdi,%r13), %xmm0 vmovaps %xmm0, 24992(%rbx) vmovsd 11144(%rdi,%r13), %xmm0 vmovaps %xmm0, 25040(%rbx) vmovsd 11080(%rdi,%r13), %xmm0 vmovaps %xmm0, 25056(%rbx) vmovsd 11104(%rdi,%r13), %xmm0 vmovaps %xmm0, 24976(%rbx) vmovsd 11128(%rdi,%r13), %xmm0 vmovaps %xmm0, 24928(%rbx) vmovsd 11120(%rdi,%r13), %xmm0 vmovaps %xmm0, 24896(%rbx) vmovsd 11368(%rdi,%r13), %xmm0 vmovaps %xmm0, 25536(%rbx) movl 492(%rdi,%r13), %eax movl %eax, 24832(%rbx) vmovsd 11240(%rdi,%r13), %xmm0 vmovaps %xmm0, 25472(%rbx) movl 488(%rdi,%r13), %eax movl %eax, 24864(%rbx) vmovsd 10984(%rdi,%r13), %xmm0 vmovaps %xmm0, 25136(%rbx) vmovsd 11112(%rdi,%r13), %xmm0 vmovaps %xmm0, 25120(%rbx) movl 480(%rdi,%r13), %r14d movl 484(%rdi,%r13), %r15d movq %rdi, %r12 vmovaps %ymm1, %ymm0 vmovaps .LCPI1_29(%rip), %ymm8 vmovaps %ymm8, %ymm1 callq __ocl_svml_e9_pow4 vmovaps %ymm0, 23040(%rbx) vmovaps %ymm9, %ymm0 vmovaps %ymm8, %ymm1 callq __ocl_svml_e9_pow4 vmovaps %ymm0, 23008(%rbx) andl $1, %r15d jne .LBB1_1419 vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 25120(%rbx) .LBB1_1419: andl $1, %r14d jne .LBB1_1421 vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 25136(%rbx) .LBB1_1421: andl $1, 24864(%rbx) movq %r12, %rsi jne .LBB1_1423 vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 25472(%rbx) .LBB1_1423: andl $1, 24832(%rbx) jne .LBB1_1425 vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 25536(%rbx) .LBB1_1425: testb %r15b, %r15b jne .LBB1_1427 vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 24896(%rbx) .LBB1_1427: jne .LBB1_1429 vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 24928(%rbx) .LBB1_1429: jne .LBB1_1431 vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 24976(%rbx) .LBB1_1431: jne .LBB1_1433 vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 25056(%rbx) .LBB1_1433: jne .LBB1_1435 vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 25040(%rbx) .LBB1_1435: jne .LBB1_1437 vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 24992(%rbx) .LBB1_1437: jne .LBB1_1439 vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 25184(%rbx) .LBB1_1439: jne .LBB1_1441 vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 25344(%rbx) .LBB1_1441: jne .LBB1_1443 vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 25392(%rbx) .LBB1_1443: jne .LBB1_1445 vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 25792(%rbx) .LBB1_1445: jne .LBB1_1447 vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 25920(%rbx) .LBB1_1447: jne .LBB1_1449 vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 25632(%rbx) .LBB1_1449: jne .LBB1_1451 vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 25728(%rbx) .LBB1_1451: jne .LBB1_1453 vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 25888(%rbx) .LBB1_1453: jne .LBB1_1455 vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 25984(%rbx) .LBB1_1455: jne .LBB1_1457 vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 26208(%rbx) .LBB1_1457: jne .LBB1_1459 vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 26400(%rbx) .LBB1_1459: jne .LBB1_1461 vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 26912(%rbx) .LBB1_1461: testb %r14b, %r14b jne .LBB1_1463 vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 25088(%rbx) .LBB1_1463: jne .LBB1_1465 vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 25248(%rbx) .LBB1_1465: jne .LBB1_1467 vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 25216(%rbx) .LBB1_1467: jne .LBB1_1469 vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 25152(%rbx) .LBB1_1469: jne .LBB1_1471 vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 25408(%rbx) .LBB1_1471: jne .LBB1_1473 vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 25280(%rbx) .LBB1_1473: jne .LBB1_1475 vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 25312(%rbx) .LBB1_1475: jne .LBB1_1477 vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 25440(%rbx) .LBB1_1477: jne .LBB1_1479 vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 25456(%rbx) .LBB1_1479: jne .LBB1_1481 vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 26176(%rbx) .LBB1_1481: jne .LBB1_1483 vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 26112(%rbx) .LBB1_1483: jne .LBB1_1485 vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 26336(%rbx) .LBB1_1485: jne .LBB1_1487 vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 26368(%rbx) .LBB1_1487: jne .LBB1_1489 vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 26496(%rbx) .LBB1_1489: jne .LBB1_1491 vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 26464(%rbx) .LBB1_1491: jne .LBB1_1493 vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 27104(%rbx) .LBB1_1493: jne .LBB1_1495 vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 26688(%rbx) .LBB1_1495: jne .LBB1_1497 vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 26624(%rbx) .LBB1_1497: movl 24832(%rbx), %eax testb %al, %al jne .LBB1_1499 vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 25504(%rbx) .LBB1_1499: jne .LBB1_1501 vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 25568(%rbx) .LBB1_1501: jne .LBB1_1503 vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 25600(%rbx) .LBB1_1503: jne .LBB1_1505 vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 25856(%rbx) .LBB1_1505: jne .LBB1_1507 vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 25696(%rbx) .LBB1_1507: jne .LBB1_1509 vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 25760(%rbx) .LBB1_1509: jne .LBB1_1511 vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 25824(%rbx) .LBB1_1511: jne .LBB1_1513 vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 26528(%rbx) .LBB1_1513: jne .LBB1_1515 vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 26592(%rbx) .LBB1_1515: jne .LBB1_1517 vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 27168(%rbx) .LBB1_1517: jne .LBB1_1519 vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 27968(%rbx) .LBB1_1519: jne .LBB1_1521 vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 27680(%rbx) .LBB1_1521: jne .LBB1_1523 vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 27744(%rbx) .LBB1_1523: jne .LBB1_1525 vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 27936(%rbx) .LBB1_1525: jne .LBB1_1527 vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 28096(%rbx) .LBB1_1527: jne .LBB1_1529 vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 28128(%rbx) .LBB1_1529: jne .LBB1_1531 vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 28160(%rbx) .LBB1_1531: jne .LBB1_1533 vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 28192(%rbx) .LBB1_1533: movl 24864(%rbx), %eax testb %al, %al vmovsd 11864(%rsi,%r13), %xmm14 vmovsd 11896(%rsi,%r13), %xmm5 vmovsd 11936(%rsi,%r13), %xmm2 vmovsd 11912(%rsi,%r13), %xmm3 vmovsd 11848(%rsi,%r13), %xmm7 movb 488(%rsi,%r13), %r11b vmovsd 11928(%rsi,%r13), %xmm0 vmovaps %xmm0, 24864(%rbx) vmovsd 11888(%rsi,%r13), %xmm0 vmovaps %xmm0, 24832(%rbx) vmovsd 11872(%rsi,%r13), %xmm0 vmovaps %xmm0, 24800(%rbx) vmovsd 11840(%rsi,%r13), %xmm12 vmovsd 11920(%rsi,%r13), %xmm4 vmovsd 11952(%rsi,%r13), %xmm6 vmovsd 11880(%rsi,%r13), %xmm0 vmovaps %xmm0, 24736(%rbx) vmovsd 11944(%rsi,%r13), %xmm0 vmovaps %xmm0, 24704(%rbx) movb 508(%rsi,%r13), %r14b jne .LBB1_1535 vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 25664(%rbx) .LBB1_1535: jne .LBB1_1537 vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 26048(%rbx) .LBB1_1537: jne .LBB1_1539 vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 26080(%rbx) .LBB1_1539: jne .LBB1_1541 vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 26240(%rbx) .LBB1_1541: jne .LBB1_1543 vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 26304(%rbx) .LBB1_1543: jne .LBB1_1545 vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 26432(%rbx) .LBB1_1545: jne .LBB1_1547 vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 26272(%rbx) .LBB1_1547: jne .LBB1_1549 vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 26784(%rbx) .LBB1_1549: jne .LBB1_1551 vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 26848(%rbx) .LBB1_1551: jne .LBB1_1553 vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 27328(%rbx) .LBB1_1553: jne .LBB1_1555 vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 28320(%rbx) .LBB1_1555: jne .LBB1_1557 vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 28352(%rbx) .LBB1_1557: jne .LBB1_1559 vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 28384(%rbx) .LBB1_1559: jne .LBB1_1561 vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 28416(%rbx) .LBB1_1561: jne .LBB1_1563 vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 28448(%rbx) .LBB1_1563: jne .LBB1_1565 vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 28288(%rbx) .LBB1_1565: jne .LBB1_1567 vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 28000(%rbx) .LBB1_1567: jne .LBB1_1569 vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 28064(%rbx) .LBB1_1569: andb $1, %r14b vmovsd 11904(%rsi,%r13), %xmm9 vmovsd 11856(%rsi,%r13), %xmm11 vmovaps %xmm11, 24768(%rbx) vmovsd 11280(%rsi,%r13), %xmm1 vmovaps %xmm1, 24576(%rbx) vmovsd 11264(%rsi,%r13), %xmm1 vmovaps %xmm1, 24480(%rbx) jne .LBB1_1571 vxorps %xmm1, %xmm1, %xmm1 vmovaps %xmm1, 24704(%rbx) .LBB1_1571: jne .LBB1_1573 vxorps %xmm1, %xmm1, %xmm1 vmovaps %xmm1, 24736(%rbx) .LBB1_1573: jne .LBB1_1575 vxorps %xmm7, %xmm7, %xmm7 .LBB1_1575: jne .LBB1_1577 vxorps %xmm3, %xmm3, %xmm3 .LBB1_1577: jne .LBB1_1579 vxorps %xmm2, %xmm2, %xmm2 .LBB1_1579: jne .LBB1_1581 vxorps %xmm6, %xmm6, %xmm6 .LBB1_1581: jne .LBB1_1583 vxorps %xmm4, %xmm4, %xmm4 .LBB1_1583: jne .LBB1_1585 vxorps %xmm5, %xmm5, %xmm5 .LBB1_1585: jne .LBB1_1587 vxorps %xmm14, %xmm14, %xmm14 .LBB1_1587: vmovaps %xmm7, 22784(%rbx) jne .LBB1_1589 vxorps %xmm12, %xmm12, %xmm12 .LBB1_1589: vmovaps %xmm3, 22816(%rbx) jne .LBB1_1591 vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 24800(%rbx) .LBB1_1591: movl 24128(%rbx), %eax jne .LBB1_1593 vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 24832(%rbx) .LBB1_1593: vmovaps %xmm2, 22752(%rbx) jne .LBB1_1595 vxorps %xmm2, %xmm2, %xmm2 vmovaps %xmm2, 24768(%rbx) .LBB1_1595: vmovaps %xmm6, 22880(%rbx) jne .LBB1_1597 vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 24864(%rbx) .LBB1_1597: vmovaps %xmm4, 22944(%rbx) jne .LBB1_1599 vxorps %xmm9, %xmm9, %xmm9 .LBB1_1599: andb $1, %r11b vmovsd 11328(%rsi,%r13), %xmm0 vmovaps %xmm0, 24672(%rbx) vmovsd 11376(%rsi,%r13), %xmm0 vmovaps %xmm0, 24640(%rbx) vmovsd 11352(%rsi,%r13), %xmm8 vmovsd 11384(%rsi,%r13), %xmm11 vmovsd 11344(%rsi,%r13), %xmm15 vmovsd 11440(%rsi,%r13), %xmm2 vmovaps %xmm2, 24608(%rbx) vmovsd 11360(%rsi,%r13), %xmm2 vmovaps %xmm2, 24416(%rbx) vmovsd 11424(%rsi,%r13), %xmm2 vmovaps %xmm2, 24384(%rbx) vmovsd 11400(%rsi,%r13), %xmm2 vmovaps %xmm2, 24352(%rbx) vmovsd 11432(%rsi,%r13), %xmm2 vmovaps %xmm2, 24320(%rbx) vmovsd 11336(%rsi,%r13), %xmm0 vmovaps %xmm0, 24256(%rbx) vmovsd 11408(%rsi,%r13), %xmm0 vmovaps %xmm0, 24224(%rbx) vmovsd 11392(%rsi,%r13), %xmm0 vmovaps %xmm0, 24160(%rbx) movb 492(%rsi,%r13), %r8b vmovsd 11200(%rsi,%r13), %xmm10 vmovsd 11248(%rsi,%r13), %xmm7 vmovsd 11208(%rsi,%r13), %xmm0 vmovaps %xmm0, 24192(%rbx) vmovsd 11288(%rsi,%r13), %xmm3 vmovaps %xmm3, 24512(%rbx) vmovsd 11312(%rsi,%r13), %xmm3 vmovaps %xmm3, 24448(%rbx) vmovsd 11224(%rsi,%r13), %xmm13 vmovaps %xmm13, 24544(%rbx) vmovsd 11240(%rsi,%r13), %xmm1 vmovsd 11232(%rsi,%r13), %xmm0 vmovsd 11296(%rsi,%r13), %xmm2 vmovsd 11272(%rsi,%r13), %xmm4 vmovsd 11304(%rsi,%r13), %xmm3 vmovaps %xmm3, 24288(%rbx) vmovsd 11256(%rsi,%r13), %xmm13 vmovsd 11216(%rsi,%r13), %xmm6 jne .LBB1_1601 vxorps %xmm3, %xmm3, %xmm3 vmovaps %xmm3, 24480(%rbx) .LBB1_1601: vmovaps %xmm5, 22912(%rbx) jne .LBB1_1603 vxorps %xmm5, %xmm5, %xmm5 vmovaps %xmm5, 24576(%rbx) .LBB1_1603: vmovaps %xmm14, 22976(%rbx) jne .LBB1_1605 vxorps %xmm3, %xmm3, %xmm3 vmovaps %xmm3, 24192(%rbx) .LBB1_1605: vmovaps %xmm12, 22848(%rbx) jne .LBB1_1607 vxorps %xmm3, %xmm3, %xmm3 vmovaps %xmm3, 24288(%rbx) .LBB1_1607: vmovaps %xmm9, 22720(%rbx) jne .LBB1_1609 vxorps %xmm4, %xmm4, %xmm4 .LBB1_1609: jne .LBB1_1611 vxorps %xmm2, %xmm2, %xmm2 .LBB1_1611: vmovaps %xmm4, 22336(%rbx) jne .LBB1_1613 vxorps %xmm0, %xmm0, %xmm0 .LBB1_1613: vmovaps %xmm2, 22368(%rbx) movl 24096(%rbx), %edi jne .LBB1_1615 vxorps %xmm1, %xmm1, %xmm1 .LBB1_1615: vmovaps %xmm0, 22400(%rbx) jne .LBB1_1617 vxorps %xmm7, %xmm7, %xmm7 .LBB1_1617: jne .LBB1_1619 vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 24544(%rbx) .LBB1_1619: vmovaps %xmm1, 22464(%rbx) jne .LBB1_1621 vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 24448(%rbx) .LBB1_1621: vmovaps %xmm7, 22592(%rbx) jne .LBB1_1623 vxorps %xmm6, %xmm6, %xmm6 .LBB1_1623: jne .LBB1_1625 vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 24512(%rbx) .LBB1_1625: jne .LBB1_1627 vxorps %xmm13, %xmm13, %xmm13 .LBB1_1627: jne .LBB1_1629 vxorps %xmm10, %xmm10, %xmm10 .LBB1_1629: vmovaps %xmm6, 22496(%rbx) andb $1, %r8b vmovsd 11416(%rsi,%r13), %xmm1 vmovsd 11368(%rsi,%r13), %xmm2 jne .LBB1_1631 vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 24160(%rbx) .LBB1_1631: jne .LBB1_1633 vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 24224(%rbx) .LBB1_1633: jne .LBB1_1635 vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 24256(%rbx) .LBB1_1635: vmovaps %xmm13, 22528(%rbx) jne .LBB1_1637 vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 24320(%rbx) .LBB1_1637: vmovaps %xmm10, 22688(%rbx) jne .LBB1_1639 vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 24352(%rbx) .LBB1_1639: jne .LBB1_1641 vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 24384(%rbx) .LBB1_1641: jne .LBB1_1643 vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 24416(%rbx) .LBB1_1643: jne .LBB1_1645 vxorps %xmm2, %xmm2, %xmm2 .LBB1_1645: jne .LBB1_1647 vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 24608(%rbx) .LBB1_1647: jne .LBB1_1649 vxorps %xmm15, %xmm15, %xmm15 .LBB1_1649: vmovaps %xmm2, 22272(%rbx) jne .LBB1_1651 vxorps %xmm1, %xmm1, %xmm1 .LBB1_1651: jne .LBB1_1653 vxorps %xmm11, %xmm11, %xmm11 .LBB1_1653: jne .LBB1_1655 vxorps %xmm8, %xmm8, %xmm8 .LBB1_1655: jne .LBB1_1657 vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 24640(%rbx) .LBB1_1657: vmovaps %xmm1, 22304(%rbx) jne .LBB1_1659 vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 24672(%rbx) .LBB1_1659: andl $1, %edi jne .LBB1_1661 vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 29216(%rbx) .LBB1_1661: andl $1, %eax vmovsd 11824(%rsi,%r13), %xmm14 vmovsd 11720(%rsi,%r13), %xmm7 vmovsd 11816(%rsi,%r13), %xmm1 jne .LBB1_1663 vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 29248(%rbx) .LBB1_1663: vmovaps %xmm15, 22560(%rbx) movb 504(%rsi,%r13), %r9b andb $1, %r9b vmovsd 11776(%rsi,%r13), %xmm9 vmovsd 11768(%rsi,%r13), %xmm2 vmovaps %xmm2, 24128(%rbx) vmovsd 11744(%rsi,%r13), %xmm12 vmovsd 11712(%rsi,%r13), %xmm13 vmovsd 11760(%rsi,%r13), %xmm3 vmovsd 11800(%rsi,%r13), %xmm2 vmovsd 11808(%rsi,%r13), %xmm0 vmovsd 11784(%rsi,%r13), %xmm6 vmovsd 11752(%rsi,%r13), %xmm4 vmovsd 11736(%rsi,%r13), %xmm10 vmovsd 11728(%rsi,%r13), %xmm15 vmovsd 11792(%rsi,%r13), %xmm5 jne .LBB1_1665 vxorps %xmm1, %xmm1, %xmm1 .LBB1_1665: vmovaps %xmm1, 21824(%rbx) jne .LBB1_1667 vxorps %xmm4, %xmm4, %xmm4 .LBB1_1667: vmovaps %xmm4, 21792(%rbx) jne .LBB1_1669 vxorps %xmm7, %xmm7, %xmm7 .LBB1_1669: vmovaps %xmm7, 21920(%rbx) vmovaps %xmm11, 22624(%rbx) jne .LBB1_1671 vxorps %xmm6, %xmm6, %xmm6 .LBB1_1671: vmovaps %xmm6, 21888(%rbx) vmovaps %xmm8, 22656(%rbx) jne .LBB1_1673 vxorps %xmm0, %xmm0, %xmm0 .LBB1_1673: jne .LBB1_1675 vxorps %xmm2, %xmm2, %xmm2 .LBB1_1675: vmovaps %xmm0, 21856(%rbx) jne .LBB1_1677 vxorps %xmm14, %xmm14, %xmm14 .LBB1_1677: vmovaps %xmm2, 22176(%rbx) jne .LBB1_1679 vxorps %xmm3, %xmm3, %xmm3 .LBB1_1679: jne .LBB1_1681 vxorps %xmm5, %xmm5, %xmm5 .LBB1_1681: vmovaps %xmm14, 22208(%rbx) jne .LBB1_1683 vxorps %xmm15, %xmm15, %xmm15 .LBB1_1683: vmovaps %xmm3, 22144(%rbx) jne .LBB1_1685 vxorps %xmm13, %xmm13, %xmm13 .LBB1_1685: vmovaps %xmm5, 22080(%rbx) jne .LBB1_1687 vxorps %xmm12, %xmm12, %xmm12 .LBB1_1687: vmovaps %xmm15, 22112(%rbx) jne .LBB1_1689 vxorps %xmm1, %xmm1, %xmm1 vmovaps %xmm1, 24128(%rbx) .LBB1_1689: jne .LBB1_1691 vxorps %xmm10, %xmm10, %xmm10 .LBB1_1691: vmovaps %xmm13, 21984(%rbx) vmovaps 30112(%rbx), %xmm8 jne .LBB1_1693 vxorps %xmm9, %xmm9, %xmm9 .LBB1_1693: vmovaps %xmm12, 22016(%rbx) movb 480(%rsi,%r13), %r10b movb 484(%rsi,%r13), %r15b andb $1, %r10b vmovsd 10952(%rsi,%r13), %xmm0 vmovsd 10960(%rsi,%r13), %xmm15 vmovsd 10984(%rsi,%r13), %xmm2 vmovsd 10992(%rsi,%r13), %xmm1 vmovsd 10944(%rsi,%r13), %xmm11 vmovsd 11048(%rsi,%r13), %xmm13 vmovsd 11040(%rsi,%r13), %xmm14 vmovsd 11000(%rsi,%r13), %xmm3 vmovsd 10968(%rsi,%r13), %xmm7 vmovsd 10976(%rsi,%r13), %xmm12 vmovsd 11032(%rsi,%r13), %xmm5 vmovaps %xmm5, 24096(%rbx) vmovsd 11056(%rsi,%r13), %xmm6 vmovsd 11016(%rsi,%r13), %xmm5 vmovsd 11008(%rsi,%r13), %xmm4 vmovaps %xmm4, 24032(%rbx) jne .LBB1_1694 vxorps %xmm4, %xmm4, %xmm4 jmp .LBB1_1696 .LBB1_1694: vmovsd 11024(%rsi,%r13), %xmm4 .LBB1_1696: vmovaps %xmm4, 24064(%rbx) jne .LBB1_1698 vxorps %xmm4, %xmm4, %xmm4 vmovaps %xmm4, 24032(%rbx) .LBB1_1698: vmovaps %xmm10, 22048(%rbx) jne .LBB1_1700 vxorps %xmm0, %xmm0, %xmm0 .LBB1_1700: vmovaps %xmm0, 21536(%rbx) vmovaps %xmm9, 22240(%rbx) jne .LBB1_1702 vxorps %xmm1, %xmm1, %xmm1 .LBB1_1702: jne .LBB1_1704 vxorps %xmm2, %xmm2, %xmm2 .LBB1_1704: vmovaps %xmm1, 21760(%rbx) jne .LBB1_1706 vxorps %xmm7, %xmm7, %xmm7 .LBB1_1706: vmovaps %xmm2, 21744(%rbx) jne .LBB1_1708 vxorps %xmm3, %xmm3, %xmm3 .LBB1_1708: vmovaps %xmm7, 21680(%rbx) jne .LBB1_1710 vxorps %xmm5, %xmm5, %xmm5 .LBB1_1710: jne .LBB1_1712 vxorps %xmm6, %xmm6, %xmm6 .LBB1_1712: vmovaps %xmm3, 21728(%rbx) movl 24000(%rbx), %edx jne .LBB1_1714 vxorps %xmm15, %xmm15, %xmm15 .LBB1_1714: vmovaps %xmm5, 21712(%rbx) vmovapd 31232(%rbx), %ymm10 jne .LBB1_1716 vxorps %xmm14, %xmm14, %xmm14 .LBB1_1716: vmovaps %xmm6, 21568(%rbx) jne .LBB1_1718 vxorps %xmm13, %xmm13, %xmm13 .LBB1_1718: jne .LBB1_1720 vxorps %xmm1, %xmm1, %xmm1 vmovaps %xmm1, 24096(%rbx) .LBB1_1720: vmovaps %xmm15, 21664(%rbx) jne .LBB1_1722 vxorps %xmm12, %xmm12, %xmm12 .LBB1_1722: vmovaps %xmm14, 21632(%rbx) jne .LBB1_1724 vxorps %xmm11, %xmm11, %xmm11 .LBB1_1724: vmovaps %xmm13, 21696(%rbx) andl $1, %edx jne .LBB1_1726 vxorps %xmm8, %xmm8, %xmm8 .LBB1_1726: andb $1, %r15b vmovsd 11176(%rsi,%r13), %xmm2 vmovsd 11136(%rsi,%r13), %xmm0 vmovaps %xmm0, 23936(%rbx) vmovsd 11072(%rsi,%r13), %xmm13 vmovsd 11184(%rsi,%r13), %xmm9 vmovsd 11096(%rsi,%r13), %xmm7 vmovsd 11112(%rsi,%r13), %xmm1 vmovsd 11120(%rsi,%r13), %xmm0 vmovsd 11160(%rsi,%r13), %xmm4 vmovsd 11128(%rsi,%r13), %xmm5 vmovsd 11080(%rsi,%r13), %xmm3 vmovaps %xmm3, 23968(%rbx) vmovsd 11088(%rsi,%r13), %xmm3 vmovsd 11104(%rsi,%r13), %xmm6 vmovaps %xmm6, 24000(%rbx) vmovsd 11144(%rsi,%r13), %xmm14 vmovsd 11168(%rsi,%r13), %xmm15 jne .LBB1_1727 vxorps %xmm6, %xmm6, %xmm6 jmp .LBB1_1729 .LBB1_1727: vmovsd 11152(%rsi,%r13), %xmm6 .LBB1_1729: vmovaps %xmm6, 23904(%rbx) vmovaps %xmm12, 21600(%rbx) jne .LBB1_1731 vxorps %xmm6, %xmm6, %xmm6 vmovaps %xmm6, 23936(%rbx) .LBB1_1731: vmovaps %xmm11, 21952(%rbx) movl 23872(%rbx), %ecx jne .LBB1_1733 vxorps %xmm6, %xmm6, %xmm6 vmovaps %xmm6, 23968(%rbx) .LBB1_1733: jne .LBB1_1735 vxorps %xmm5, %xmm5, %xmm5 .LBB1_1735: jne .LBB1_1737 vxorps %xmm4, %xmm4, %xmm4 .LBB1_1737: vmovaps %xmm5, 21344(%rbx) jne .LBB1_1739 vxorps %xmm0, %xmm0, %xmm0 .LBB1_1739: vmovaps %xmm4, 21408(%rbx) jne .LBB1_1741 vxorps %xmm4, %xmm4, %xmm4 vmovaps %xmm4, 24000(%rbx) .LBB1_1741: vmovaps %xmm0, 21504(%rbx) jne .LBB1_1743 vxorps %xmm2, %xmm2, %xmm2 .LBB1_1743: jne .LBB1_1745 vxorps %xmm1, %xmm1, %xmm1 .LBB1_1745: jne .LBB1_1747 vxorps %xmm7, %xmm7, %xmm7 .LBB1_1747: vmovaps %xmm2, 21440(%rbx) jne .LBB1_1749 vxorps %xmm9, %xmm9, %xmm9 .LBB1_1749: vmovaps %xmm1, 21472(%rbx) jne .LBB1_1751 vxorps %xmm3, %xmm3, %xmm3 .LBB1_1751: vmovaps 31008(%rbx), %xmm12 jne .LBB1_1753 vxorps %xmm15, %xmm15, %xmm15 .LBB1_1753: vmovaps %xmm7, 21376(%rbx) vmovaps 31040(%rbx), %xmm11 jne .LBB1_1755 vxorps %xmm14, %xmm14, %xmm14 .LBB1_1755: vmovaps %xmm9, 21280(%rbx) jne .LBB1_1757 vxorps %xmm13, %xmm13, %xmm13 .LBB1_1757: vmovaps %xmm3, 21248(%rbx) andl $1, %ecx jne .LBB1_1759 vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 29280(%rbx) .LBB1_1759: testb %dl, %dl jne .LBB1_1761 vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 25952(%rbx) .LBB1_1761: vmovaps %xmm15, 21216(%rbx) jne .LBB1_1763 vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 26016(%rbx) .LBB1_1763: vmovaps %xmm14, 21312(%rbx) jne .LBB1_1765 vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 26144(%rbx) .LBB1_1765: vmovaps %xmm13, 21776(%rbx) jne .LBB1_1767 vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 26560(%rbx) .LBB1_1767: jne .LBB1_1769 vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 26976(%rbx) .LBB1_1769: jne .LBB1_1771 vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 27008(%rbx) .LBB1_1771: jne .LBB1_1773 vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 27040(%rbx) .LBB1_1773: jne .LBB1_1775 vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 27136(%rbx) .LBB1_1775: jne .LBB1_1777 vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 27200(%rbx) .LBB1_1777: jne .LBB1_1779 vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 27904(%rbx) .LBB1_1779: jne .LBB1_1781 vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 27584(%rbx) .LBB1_1781: jne .LBB1_1783 vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 27648(%rbx) .LBB1_1783: jne .LBB1_1785 vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 27712(%rbx) .LBB1_1785: jne .LBB1_1787 vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 27392(%rbx) .LBB1_1787: jne .LBB1_1789 vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 27456(%rbx) .LBB1_1789: jne .LBB1_1791 vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 27424(%rbx) .LBB1_1791: jne .LBB1_1793 vxorps %xmm12, %xmm12, %xmm12 .LBB1_1793: jne .LBB1_1795 vxorps %xmm11, %xmm11, %xmm11 .LBB1_1795: testb %dil, %dil jne .LBB1_1797 vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 26720(%rbx) .LBB1_1797: jne .LBB1_1799 vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 26880(%rbx) .LBB1_1799: jne .LBB1_1801 vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 26944(%rbx) .LBB1_1801: jne .LBB1_1803 vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 27264(%rbx) .LBB1_1803: jne .LBB1_1805 vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 28032(%rbx) .LBB1_1805: jne .LBB1_1807 vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 28896(%rbx) .LBB1_1807: jne .LBB1_1809 vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 28640(%rbx) .LBB1_1809: jne .LBB1_1811 vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 28704(%rbx) .LBB1_1811: jne .LBB1_1813 vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 28736(%rbx) .LBB1_1813: jne .LBB1_1815 vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 28768(%rbx) .LBB1_1815: jne .LBB1_1817 vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 28800(%rbx) .LBB1_1817: jne .LBB1_1819 vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 28832(%rbx) .LBB1_1819: jne .LBB1_1821 vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 28672(%rbx) .LBB1_1821: jne .LBB1_1823 vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 28480(%rbx) .LBB1_1823: jne .LBB1_1825 vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 28576(%rbx) .LBB1_1825: jne .LBB1_1827 vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 28544(%rbx) .LBB1_1827: vmovaps %xmm8, 30112(%rbx) jne .LBB1_1829 vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 29312(%rbx) .LBB1_1829: jne .LBB1_1831 vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 29376(%rbx) .LBB1_1831: testb %cl, %cl jne .LBB1_1833 vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 26656(%rbx) .LBB1_1833: jne .LBB1_1835 vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 26816(%rbx) .LBB1_1835: jne .LBB1_1837 vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 26752(%rbx) .LBB1_1837: jne .LBB1_1839 vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 27072(%rbx) .LBB1_1839: jne .LBB1_1841 vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 27488(%rbx) .LBB1_1841: jne .LBB1_1843 vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 30048(%rbx) .LBB1_1843: jne .LBB1_1845 vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 27520(%rbx) .LBB1_1845: jne .LBB1_1847 vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 27552(%rbx) .LBB1_1847: jne .LBB1_1849 vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 27616(%rbx) .LBB1_1849: jne .LBB1_1851 vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 27808(%rbx) .LBB1_1851: jne .LBB1_1853 vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 27840(%rbx) .LBB1_1853: jne .LBB1_1855 vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 27872(%rbx) .LBB1_1855: jne .LBB1_1857 vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 28224(%rbx) .LBB1_1857: jne .LBB1_1859 vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 28256(%rbx) .LBB1_1859: jne .LBB1_1861 vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 30016(%rbx) .LBB1_1861: jne .LBB1_1863 vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 28512(%rbx) .LBB1_1863: jne .LBB1_1865 vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 29344(%rbx) .LBB1_1865: jne .LBB1_1867 vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 29408(%rbx) .LBB1_1867: testb %al, %al movb 496(%rsi,%r13), %al vmovsd 11544(%rsi,%r13), %xmm8 vmovsd 11536(%rsi,%r13), %xmm9 vmovsd 11568(%rsi,%r13), %xmm5 vmovsd 11496(%rsi,%r13), %xmm2 vmovsd 11560(%rsi,%r13), %xmm1 vmovsd 11552(%rsi,%r13), %xmm0 vmovaps %xmm0, 23808(%rbx) vmovsd 11488(%rsi,%r13), %xmm0 vmovaps %xmm0, 23776(%rbx) vmovsd 11480(%rsi,%r13), %xmm0 vmovaps %xmm0, 23840(%rbx) vmovsd 11504(%rsi,%r13), %xmm7 vmovsd 11472(%rsi,%r13), %xmm6 jne .LBB1_1869 vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 27232(%rbx) .LBB1_1869: jne .LBB1_1871 vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 27296(%rbx) .LBB1_1871: jne .LBB1_1873 vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 27360(%rbx) .LBB1_1873: jne .LBB1_1875 vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 27776(%rbx) .LBB1_1875: jne .LBB1_1877 vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 28608(%rbx) .LBB1_1877: jne .LBB1_1879 vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 28864(%rbx) .LBB1_1879: jne .LBB1_1881 vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 28928(%rbx) .LBB1_1881: jne .LBB1_1883 vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 28960(%rbx) .LBB1_1883: jne .LBB1_1885 vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 28992(%rbx) .LBB1_1885: jne .LBB1_1887 vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 29024(%rbx) .LBB1_1887: jne .LBB1_1889 vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 29984(%rbx) .LBB1_1889: jne .LBB1_1891 vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 29056(%rbx) .LBB1_1891: jne .LBB1_1893 vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 29120(%rbx) .LBB1_1893: jne .LBB1_1895 vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 29152(%rbx) .LBB1_1895: jne .LBB1_1897 vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 29184(%rbx) .LBB1_1897: jne .LBB1_1899 vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 29088(%rbx) .LBB1_1899: jne .LBB1_1901 vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 29440(%rbx) .LBB1_1901: jne .LBB1_1903 vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 29472(%rbx) .LBB1_1903: andb $1, %al vmovsd 11512(%rsi,%r13), %xmm4 vmovsd 11688(%rsi,%r13), %xmm0 vmovaps %xmm0, 23712(%rbx) vmovsd 11520(%rsi,%r13), %xmm0 vmovaps %xmm0, 23872(%rbx) vmovsd 11528(%rsi,%r13), %xmm0 vmovaps %xmm0, 23744(%rbx) vmovsd 11464(%rsi,%r13), %xmm3 vmovsd 11456(%rsi,%r13), %xmm0 jne .LBB1_1905 vxorps %xmm1, %xmm1, %xmm1 .LBB1_1905: jne .LBB1_1907 vxorps %xmm2, %xmm2, %xmm2 .LBB1_1907: jne .LBB1_1909 vxorps %xmm5, %xmm5, %xmm5 .LBB1_1909: vmovapd 32832(%rbx), %ymm15 jne .LBB1_1911 vxorps %xmm6, %xmm6, %xmm6 .LBB1_1911: jne .LBB1_1913 vxorps %xmm9, %xmm9, %xmm9 .LBB1_1913: jne .LBB1_1915 vxorps %xmm7, %xmm7, %xmm7 .LBB1_1915: jne .LBB1_1917 vxorps %xmm8, %xmm8, %xmm8 .LBB1_1917: vmovaps %xmm12, 31008(%rbx) jne .LBB1_1919 vxorps %xmm0, %xmm0, %xmm0 .LBB1_1919: vmovaps %xmm0, 20384(%rbx) vmovaps %xmm11, 31040(%rbx) jne .LBB1_1921 vxorps %xmm3, %xmm3, %xmm3 .LBB1_1921: vmovaps %xmm5, 20672(%rbx) jne .LBB1_1923 vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 23840(%rbx) .LBB1_1923: vmovaps %xmm6, 20736(%rbx) jne .LBB1_1925 vxorps %xmm4, %xmm4, %xmm4 .LBB1_1925: vmovaps %xmm3, 20416(%rbx) jne .LBB1_1927 vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 23744(%rbx) .LBB1_1927: vmovaps %xmm2, 20544(%rbx) vmovaps %xmm1, 20576(%rbx) vmovaps %xmm9, 20800(%rbx) jne .LBB1_1929 vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 23776(%rbx) .LBB1_1929: vmovaps %xmm8, 20704(%rbx) vmovaps %xmm7, 20768(%rbx) vmovapd 31904(%rbx), %ymm2 vmovapd 31872(%rbx), %ymm3 vmovapd 32800(%rbx), %ymm6 vmovapd 32864(%rbx), %ymm7 vmovapd 32704(%rbx), %ymm8 vmovapd 32672(%rbx), %ymm11 jne .LBB1_1931 vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 23808(%rbx) .LBB1_1931: vmovaps %xmm4, 20448(%rbx) vmovapd .LCPI1_28(%rip), %ymm0 vmovapd 32928(%rbx), %ymm1 vmovapd 31776(%rbx), %ymm9 vmovapd 32544(%rbx), %ymm13 jne .LBB1_1933 vxorps %xmm4, %xmm4, %xmm4 vmovaps %xmm4, 23872(%rbx) .LBB1_1933: vmovapd 31840(%rbx), %ymm4 vmulpd %ymm8, %ymm4, %ymm8 vmulpd %ymm11, %ymm2, %ymm11 vmovapd 31808(%rbx), %ymm2 vmulpd %ymm6, %ymm2, %ymm12 vmulpd %ymm7, %ymm3, %ymm14 movb 500(%rsi,%r13), %cl andb $1, %cl vmovsd 11624(%rsi,%r13), %xmm2 vmovaps %xmm2, 23616(%rbx) jne .LBB1_1935 vxorps %xmm2, %xmm2, %xmm2 vmovaps %xmm2, 23712(%rbx) .LBB1_1935: vmovapd 32640(%rbx), %ymm2 vmulpd %ymm0, %ymm2, %ymm7 vmulpd %ymm0, %ymm1, %ymm6 vmulpd %ymm15, %ymm10, %ymm1 vmovapd %ymm15, %ymm3 vmovapd 31744(%rbx), %ymm15 vmulpd 31968(%rbx), %ymm15, %ymm2 vmulpd %ymm13, %ymm9, %ymm9 vmulpd 31296(%rbx), %ymm10, %ymm0 vmovapd %ymm0, 23680(%rbx) vmulpd 31328(%rbx), %ymm10, %ymm4 vmulpd 32032(%rbx), %ymm10, %ymm5 vmulpd 32736(%rbx), %ymm15, %ymm10 vmulpd 32000(%rbx), %ymm15, %ymm13 vaddpd %ymm12, %ymm14, %ymm12 vaddpd %ymm8, %ymm11, %ymm11 vmovapd 32128(%rbx), %ymm8 vmulpd 32512(%rbx), %ymm8, %ymm14 vmulpd 32064(%rbx), %ymm15, %ymm8 jne .LBB1_1937 vxorpd %xmm0, %xmm0, %xmm0 vmovapd %xmm0, 23616(%rbx) .LBB1_1937: vmovapd 32064(%rbx), %ymm15 vmulpd %ymm6, %ymm15, %ymm15 vmovapd %ymm15, 20352(%rbx) vmovapd 31296(%rbx), %ymm15 vmulpd %ymm7, %ymm15, %ymm15 vmovapd %ymm15, 20320(%rbx) vmovapd 31968(%rbx), %ymm15 vmulpd %ymm6, %ymm15, %ymm15 vmovapd %ymm15, 20288(%rbx) vmovapd %ymm3, %ymm15 vmulpd %ymm7, %ymm15, %ymm3 vmovapd %ymm3, 20256(%rbx) vmovapd 32032(%rbx), %ymm3 vmulpd %ymm7, %ymm3, %ymm3 vmovapd %ymm3, 20512(%rbx) vmovapd 31328(%rbx), %ymm3 vmulpd %ymm7, %ymm3, %ymm3 vmovapd %ymm3, 20480(%rbx) vmovapd 32000(%rbx), %ymm3 vmulpd %ymm6, %ymm3, %ymm3 vmovapd %ymm3, 20640(%rbx) vmovapd 32736(%rbx), %ymm3 vmulpd %ymm6, %ymm3, %ymm3 vmovapd %ymm3, 20608(%rbx) vaddpd %ymm14, %ymm11, %ymm3 vmovapd %ymm3, 20832(%rbx) vaddpd %ymm9, %ymm12, %ymm3 vmovapd %ymm3, 20864(%rbx) vmovapd 30080(%rbx), %ymm7 vmovapd 32640(%rbx), %ymm3 vdivpd %ymm7, %ymm3, %ymm3 vmovapd %ymm3, 21184(%rbx) vmovapd 30656(%rbx), %ymm3 vdivpd %ymm3, %ymm13, %ymm6 vmovapd %ymm6, 20960(%rbx) vmovapd 32928(%rbx), %ymm6 vdivpd %ymm3, %ymm6, %ymm6 vmovapd %ymm6, 21152(%rbx) vdivpd %ymm3, %ymm10, %ymm6 vmovapd %ymm6, 21056(%rbx) vdivpd %ymm3, %ymm2, %ymm2 vmovapd %ymm2, 21024(%rbx) vdivpd %ymm7, %ymm1, %ymm1 vmovapd %ymm1, 20992(%rbx) vdivpd %ymm7, %ymm5, %ymm1 vmovapd %ymm1, 20928(%rbx) vdivpd %ymm7, %ymm4, %ymm1 vmovapd %ymm1, 20896(%rbx) vdivpd %ymm3, %ymm8, %ymm1 vmovapd %ymm1, 21120(%rbx) vmovapd 23680(%rbx), %ymm0 vdivpd %ymm7, %ymm0, %ymm0 vmovapd %ymm0, 21088(%rbx) vmovsd 11616(%rsi,%r13), %xmm5 vmovsd 11640(%rsi,%r13), %xmm2 vmovsd 11608(%rsi,%r13), %xmm1 vmovsd 11584(%rsi,%r13), %xmm3 vmovsd 11696(%rsi,%r13), %xmm4 vmovsd 11592(%rsi,%r13), %xmm13 vmovsd 11680(%rsi,%r13), %xmm6 vmovsd 11672(%rsi,%r13), %xmm9 vmovsd 11632(%rsi,%r13), %xmm0 vmovaps %xmm0, 30656(%rbx) vmovsd 11664(%rsi,%r13), %xmm0 vmovaps %xmm0, 23680(%rbx) vmovsd 11600(%rsi,%r13), %xmm0 vmovaps %xmm0, 23648(%rbx) jne .LBB1_1938 vxorps %xmm0, %xmm0, %xmm0 jmp .LBB1_1940 .LBB1_1938: vmovsd 11656(%rsi,%r13), %xmm0 .LBB1_1940: vmovaps %xmm0, 20128(%rbx) jne .LBB1_1942 vxorps %xmm3, %xmm3, %xmm3 .LBB1_1942: vmovaps %xmm3, 20192(%rbx) jne .LBB1_1944 vxorps %xmm1, %xmm1, %xmm1 .LBB1_1944: vmovaps %xmm1, 20224(%rbx) jne .LBB1_1946 vxorps %xmm2, %xmm2, %xmm2 .LBB1_1946: vmovapd 20576(%rbx), %xmm1 vmovapd 20544(%rbx), %xmm3 jne .LBB1_1948 vxorps %xmm9, %xmm9, %xmm9 .LBB1_1948: vmovaps %xmm2, 30080(%rbx) jne .LBB1_1950 vxorps %xmm5, %xmm5, %xmm5 .LBB1_1950: vmovaps %xmm9, 20160(%rbx) jne .LBB1_1952 vxorpd %xmm6, %xmm6, %xmm6 .LBB1_1952: vmovaps %xmm5, 20064(%rbx) jne .LBB1_1954 vxorpd %xmm13, %xmm13, %xmm13 .LBB1_1954: jne .LBB1_1956 vxorps %xmm4, %xmm4, %xmm4 .LBB1_1956: vmovapd %xmm6, %xmm9 jne .LBB1_1958 vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 23648(%rbx) .LBB1_1958: vmovaps %xmm4, 20096(%rbx) jne .LBB1_1960 vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 23680(%rbx) .LBB1_1960: vmovapd 25088(%rbx), %xmm0 vunpcklpd 24896(%rbx), %xmm0, %xmm2 vmovapd 25952(%rbx), %xmm0 vunpcklpd 26656(%rbx), %xmm0, %xmm7 vmovapd 25152(%rbx), %xmm0 vunpcklpd 24928(%rbx), %xmm0, %xmm0 vmovapd %ymm0, 24896(%rbx) vmovapd 26016(%rbx), %xmm0 vunpcklpd 26752(%rbx), %xmm0, %xmm0 vmovapd %ymm0, 24928(%rbx) vmovapd 25216(%rbx), %xmm0 vunpcklpd 24992(%rbx), %xmm0, %xmm0 vmovapd %ymm0, 24992(%rbx) vmovapd 25248(%rbx), %xmm0 vunpcklpd 25040(%rbx), %xmm0, %xmm0 vmovapd %ymm0, 25216(%rbx) vmovapd 25280(%rbx), %xmm0 vunpcklpd 24976(%rbx), %xmm0, %xmm0 vmovapd %ymm0, 25248(%rbx) vmovapd 25312(%rbx), %xmm0 vunpcklpd 25056(%rbx), %xmm0, %xmm0 vmovapd %ymm0, 25280(%rbx) vmovapd 26144(%rbx), %xmm0 vunpcklpd 26816(%rbx), %xmm0, %xmm0 vmovapd %ymm0, 25312(%rbx) jne .LBB1_1962 vxorpd %xmm0, %xmm0, %xmm0 vmovapd %xmm0, 30656(%rbx) .LBB1_1962: vunpcklpd 23616(%rbx), %xmm3, %xmm0 vmovapd %ymm0, 25056(%rbx) vmovapd 24032(%rbx), %xmm0 vunpcklpd 23936(%rbx), %xmm0, %xmm0 vmovapd %ymm0, 25088(%rbx) vmovapd 25408(%rbx), %xmm0 vunpcklpd 25184(%rbx), %xmm0, %xmm0 vmovapd %ymm0, 25152(%rbx) vunpcklpd 23712(%rbx), %xmm1, %xmm0 vmovapd %ymm0, 25184(%rbx) vmovapd 24064(%rbx), %xmm0 vunpcklpd 23904(%rbx), %xmm0, %xmm0 vmovapd %ymm0, 25408(%rbx) vmovapd 25664(%rbx), %xmm0 vunpcklpd 25504(%rbx), %xmm0, %xmm11 vmovapd 26720(%rbx), %xmm0 vunpcklpd 27232(%rbx), %xmm0, %xmm3 vmovapd 26560(%rbx), %xmm0 vunpcklpd 27072(%rbx), %xmm0, %xmm0 vmovapd %ymm0, 26144(%rbx) vmovapd 25136(%rbx), %xmm0 vunpcklpd 25120(%rbx), %xmm0, %xmm0 vmovapd %ymm0, 25664(%rbx) vmovapd 25440(%rbx), %xmm0 vunpcklpd 25344(%rbx), %xmm0, %xmm0 vmovapd %ymm0, 25952(%rbx) vmovapd 25456(%rbx), %xmm0 vunpcklpd 25392(%rbx), %xmm0, %xmm0 vmovapd %ymm0, 26016(%rbx) vmovapd 26880(%rbx), %xmm0 vunpcklpd 27296(%rbx), %xmm0, %xmm15 vmovapd 26048(%rbx), %xmm0 vunpcklpd 25568(%rbx), %xmm0, %xmm1 vmovapd 26080(%rbx), %xmm0 vunpcklpd 25600(%rbx), %xmm0, %xmm6 vmovapd 24480(%rbx), %xmm0 vunpcklpd 24160(%rbx), %xmm0, %xmm14 vmovapd 26944(%rbx), %xmm0 vunpcklpd 27360(%rbx), %xmm0, %xmm0 vmovapd %xmm0, 25504(%rbx) vmovapd 26272(%rbx), %xmm0 vunpcklpd 25696(%rbx), %xmm0, %xmm0 vmovapd %xmm0, 25440(%rbx) vmovapd 26240(%rbx), %xmm0 vunpcklpd 25760(%rbx), %xmm0, %xmm0 vmovapd %xmm0, 25136(%rbx) vmovapd 26304(%rbx), %xmm0 vunpcklpd 25824(%rbx), %xmm0, %xmm0 vmovapd %xmm0, 25120(%rbx) vmovapd 24576(%rbx), %xmm0 vunpcklpd 24224(%rbx), %xmm0, %xmm0 vmovapd 21824(%rbx), %xmm4 vunpcklpd 24704(%rbx), %xmm4, %xmm12 vmovapd 26432(%rbx), %xmm4 vunpcklpd 25856(%rbx), %xmm4, %xmm10 vmovapd 21792(%rbx), %xmm4 vunpcklpd 24736(%rbx), %xmm4, %xmm5 vmovapd 24192(%rbx), %xmm4 vunpcklpd 24256(%rbx), %xmm4, %xmm4 vmovapd %xmm4, 25392(%rbx) vmovapd 21536(%rbx), %xmm4 vunpcklpd 23968(%rbx), %xmm4, %xmm4 vmovapd %ymm4, 25344(%rbx) vmovapd 26976(%rbx), %xmm4 vunpcklpd 27520(%rbx), %xmm4, %xmm4 vmovapd %ymm4, 27072(%rbx) vmovapd 27008(%rbx), %xmm4 vunpcklpd 27488(%rbx), %xmm4, %xmm4 vmovapd %ymm4, 27296(%rbx) vmovapd 27040(%rbx), %xmm8 vunpcklpd 30048(%rbx), %xmm8, %xmm4 vmovapd %ymm4, 27360(%rbx) vmovapd 25472(%rbx), %xmm4 vunpcklpd 25536(%rbx), %xmm4, %xmm8 vinsertf128 $1, %xmm11, %ymm2, %ymm2 vmovapd %ymm2, 30048(%rbx) vmovapd %ymm2, %ymm4 vinsertf128 $1, %xmm3, %ymm7, %ymm11 vmovapd %ymm11, 27520(%rbx) vmovapd 26112(%rbx), %xmm2 vunpcklpd 25632(%rbx), %xmm2, %xmm2 vmovapd %ymm2, 27232(%rbx) vmovapd 27264(%rbx), %xmm2 vunpcklpd 27776(%rbx), %xmm2, %xmm2 vmovapd %xmm2, 25696(%rbx) vmovapd 26784(%rbx), %xmm2 vunpcklpd 26528(%rbx), %xmm2, %xmm2 vmovapd %xmm2, 25632(%rbx) vmovapd 26848(%rbx), %xmm2 vunpcklpd 26592(%rbx), %xmm2, %xmm2 vmovapd %xmm2, 25600(%rbx) vmovapd 26176(%rbx), %xmm2 vunpcklpd 25728(%rbx), %xmm2, %xmm2 vmovapd %ymm2, 26880(%rbx) vmovapd 27136(%rbx), %xmm2 vunpcklpd 27552(%rbx), %xmm2, %xmm2 vmovapd %ymm2, 26944(%rbx) vmovapd 27200(%rbx), %xmm2 vunpcklpd 27616(%rbx), %xmm2, %xmm2 vmovapd %ymm2, 27136(%rbx) vmovapd 26336(%rbx), %xmm2 vunpcklpd 25888(%rbx), %xmm2, %xmm2 vmovapd %ymm2, 27776(%rbx) vmovapd 26464(%rbx), %xmm2 vunpcklpd 25984(%rbx), %xmm2, %xmm2 vmovapd %ymm2, 27200(%rbx) vmovapd 26368(%rbx), %xmm2 vunpcklpd 25792(%rbx), %xmm2, %xmm2 vmovapd %ymm2, 27264(%rbx) vmovapd 26496(%rbx), %xmm2 vunpcklpd 25920(%rbx), %xmm2, %xmm2 vmovapd %ymm2, 27616(%rbx) vmovapd 21568(%rbx), %xmm2 vunpcklpd 21280(%rbx), %xmm2, %xmm2 vmovapd %ymm2, 27008(%rbx) vmovapd 26624(%rbx), %xmm2 vunpcklpd 26208(%rbx), %xmm2, %xmm2 vmovapd %ymm2, 26720(%rbx) vmovapd 27424(%rbx), %xmm2 vunpcklpd 27808(%rbx), %xmm2, %xmm2 vmovapd %ymm2, 26752(%rbx) vmovapd 27392(%rbx), %xmm2 vunpcklpd 27840(%rbx), %xmm2, %xmm2 vmovapd %ymm2, 26784(%rbx) vmovapd 27456(%rbx), %xmm2 vunpcklpd 27872(%rbx), %xmm2, %xmm2 vmovapd %ymm2, 26816(%rbx) vmovapd 21600(%rbx), %xmm2 vunpcklpd 24000(%rbx), %xmm2, %xmm2 vmovapd %ymm2, 26304(%rbx) vmovapd 23776(%rbx), %xmm2 vunpcklpd 20064(%rbx), %xmm2, %xmm2 vmovapd %ymm2, 26336(%rbx) vmovapd 21664(%rbx), %xmm2 vunpcklpd 21248(%rbx), %xmm2, %xmm2 vmovapd %ymm2, 26368(%rbx) vmovapd 26688(%rbx), %xmm2 vunpcklpd 26400(%rbx), %xmm2, %xmm2 vmovapd %ymm2, 27040(%rbx) vmovapd 23808(%rbx), %xmm2 vunpcklpd %xmm9, %xmm2, %xmm2 vmovapd %ymm2, 26432(%rbx) vmovapd 21632(%rbx), %xmm2 vunpcklpd 21216(%rbx), %xmm2, %xmm2 vmovapd %ymm2, 26464(%rbx) vmovapd 20384(%rbx), %xmm2 vunpcklpd 20192(%rbx), %xmm2, %xmm2 vmovapd %ymm2, 26848(%rbx) vmovapd 21696(%rbx), %xmm2 vunpcklpd 21440(%rbx), %xmm2, %xmm2 vmovapd %ymm2, 26272(%rbx) vmovapd 20416(%rbx), %xmm2 vunpcklpd %xmm13, %xmm2, %xmm2 vmovapd %ymm2, 26400(%rbx) vmovapd 21680(%rbx), %xmm2 vunpcklpd 21376(%rbx), %xmm2, %xmm2 vmovapd %ymm2, 26560(%rbx) vmovapd 23840(%rbx), %xmm2 vunpcklpd 20224(%rbx), %xmm2, %xmm2 vmovapd %ymm2, 26592(%rbx) vmovapd 21728(%rbx), %xmm2 vunpcklpd 21344(%rbx), %xmm2, %xmm2 vmovapd %ymm2, 26624(%rbx) vmovapd 20448(%rbx), %xmm2 vunpcklpd 30080(%rbx), %xmm2, %xmm2 vmovapd %ymm2, 26656(%rbx) vmovapd 24096(%rbx), %xmm2 vunpcklpd 21408(%rbx), %xmm2, %xmm2 vmovapd %ymm2, 26688(%rbx) vmovapd 23744(%rbx), %xmm2 vunpcklpd 20128(%rbx), %xmm2, %xmm2 vmovapd %ymm2, 26048(%rbx) vmovapd 21712(%rbx), %xmm2 vunpcklpd 21312(%rbx), %xmm2, %xmm2 vmovapd %ymm2, 26080(%rbx) vmovapd 21744(%rbx), %xmm2 vunpcklpd 21472(%rbx), %xmm2, %xmm2 vmovapd %ymm2, 26112(%rbx) vmovapd 21760(%rbx), %xmm2 vunpcklpd 21504(%rbx), %xmm2, %xmm2 vmovapd %ymm2, 26496(%rbx) vmovapd 27584(%rbx), %xmm2 vunpcklpd 28224(%rbx), %xmm2, %xmm2 vmovapd %ymm2, 26528(%rbx) vmovapd 20672(%rbx), %xmm2 vunpcklpd 20096(%rbx), %xmm2, %xmm2 vmovapd %ymm2, 26976(%rbx) vmovapd 27648(%rbx), %xmm2 vunpcklpd 28256(%rbx), %xmm2, %xmm2 vmovapd %ymm2, 27584(%rbx) vmovapd 20704(%rbx), %xmm2 vunpcklpd 20160(%rbx), %xmm2, %xmm2 vmovapd %ymm2, 27648(%rbx) vmovapd 27712(%rbx), %xmm2 vunpcklpd 30016(%rbx), %xmm2, %xmm2 vmovapd %ymm2, 25824(%rbx) vmovapd 24992(%rbx), %ymm2 vinsertf128 $1, %xmm6, %ymm2, %ymm2 vmovapd %ymm2, 30016(%rbx) vmovapd %ymm2, %ymm7 vmovapd 24896(%rbx), %ymm2 vinsertf128 $1, %xmm1, %ymm2, %ymm9 vmovapd %ymm9, 27872(%rbx) vmovapd 24928(%rbx), %ymm1 vinsertf128 $1, %xmm15, %ymm1, %ymm1 vmovapd %ymm1, 30080(%rbx) vmovapd %ymm1, %ymm13 vmovapd 21856(%rbx), %xmm1 vunpcklpd 22752(%rbx), %xmm1, %xmm1 vmovapd %xmm1, 25984(%rbx) vmovapd 27328(%rbx), %xmm1 vunpcklpd 27168(%rbx), %xmm1, %xmm1 vmovapd %xmm1, 27328(%rbx) vmovapd 21920(%rbx), %xmm1 vunpcklpd 22784(%rbx), %xmm1, %xmm1 vmovapd %xmm1, 25888(%rbx) vmovapd 24288(%rbx), %xmm1 vunpcklpd 24320(%rbx), %xmm1, %xmm1 vmovapd %xmm1, 25856(%rbx) vmovapd 22336(%rbx), %xmm1 vunpcklpd 24352(%rbx), %xmm1, %xmm1 vmovapd %xmm1, 25760(%rbx) vmovapd 22368(%rbx), %xmm1 vunpcklpd 24384(%rbx), %xmm1, %xmm1 vmovapd %xmm1, 25920(%rbx) vmovapd 22400(%rbx), %xmm1 vunpcklpd 24416(%rbx), %xmm1, %xmm1 vmovapd %xmm1, 25792(%rbx) vmovapd 22464(%rbx), %xmm1 vunpcklpd 22272(%rbx), %xmm1, %xmm1 vmovapd %xmm1, 25728(%rbx) vmovapd 21888(%rbx), %xmm1 vunpcklpd 22816(%rbx), %xmm1, %xmm1 vmovapd %xmm1, 25568(%rbx) vmovapd 28032(%rbx), %xmm1 vunpcklpd 28608(%rbx), %xmm1, %xmm1 vmovapd %xmm1, 25456(%rbx) vmovapd 27104(%rbx), %xmm1 vunpcklpd 26912(%rbx), %xmm1, %xmm1 vmovapd %ymm1, 26176(%rbx) vmovapd 20736(%rbx), %xmm1 vunpcklpd 23648(%rbx), %xmm1, %xmm1 vmovapd %ymm1, 26208(%rbx) vmovapd 27904(%rbx), %xmm1 vunpcklpd 28512(%rbx), %xmm1, %xmm1 vmovapd %ymm1, 26240(%rbx) vmovapd 20800(%rbx), %xmm1 vunpcklpd 23680(%rbx), %xmm1, %xmm1 vmovapd %ymm1, 27168(%rbx) vmovapd 20768(%rbx), %xmm1 vunpcklpd 30656(%rbx), %xmm1, %xmm1 vmovapd %ymm1, 27712(%rbx) vmovapd 25056(%rbx), %ymm1 vinsertf128 $1, %xmm5, %ymm1, %ymm1 vmovapd %ymm1, 28256(%rbx) vmovapd 25088(%rbx), %ymm1 vinsertf128 $1, %xmm14, %ymm1, %ymm1 vmovapd %ymm1, 28224(%rbx) vmovapd 25152(%rbx), %ymm1 vinsertf128 $1, %xmm10, %ymm1, %ymm1 vmovapd %ymm1, 30656(%rbx) vmovapd 25184(%rbx), %ymm1 vinsertf128 $1, %xmm12, %ymm1, %ymm1 vmovapd %ymm1, 28512(%rbx) vmovapd 25408(%rbx), %ymm1 vinsertf128 $1, %xmm0, %ymm1, %ymm0 vmovapd %ymm0, 28608(%rbx) vmovaps 25216(%rbx), %ymm0 vinsertf128 $1, 25120(%rbx), %ymm0, %ymm0 vmovaps %ymm0, 27840(%rbx) vmovaps 25248(%rbx), %ymm0 vinsertf128 $1, 25136(%rbx), %ymm0, %ymm0 vmovaps %ymm0, 27808(%rbx) vmovaps 25280(%rbx), %ymm0 vinsertf128 $1, 25440(%rbx), %ymm0, %ymm0 vmovaps %ymm0, 27904(%rbx) vmovaps 25312(%rbx), %ymm0 vinsertf128 $1, 25504(%rbx), %ymm0, %ymm0 vmovaps %ymm0, 28032(%rbx) vmovapd 23008(%rbx), %ymm14 vmovapd 20256(%rbx), %ymm0 vdivpd %ymm14, %ymm0, %ymm0 vmovapd %ymm0, 27424(%rbx) vmovapd 23040(%rbx), %ymm10 vmovapd 20288(%rbx), %ymm0 vdivpd %ymm10, %ymm0, %ymm0 vmovapd %ymm0, 27392(%rbx) vmovapd 20320(%rbx), %ymm0 vdivpd %ymm14, %ymm0, %ymm0 vmovapd %ymm0, 27552(%rbx) vmovapd 20352(%rbx), %ymm0 vdivpd %ymm10, %ymm0, %ymm0 vmovapd %ymm0, 27488(%rbx) vmovapd 25344(%rbx), %ymm0 vinsertf128 $1, 25392(%rbx), %ymm0, %ymm3 vmovapd %ymm3, 27456(%rbx) vmovapd 28544(%rbx), %xmm0 vunpcklpd 28864(%rbx), %xmm0, %xmm0 vmovapd %xmm0, 26912(%rbx) vmovapd 28480(%rbx), %xmm0 vunpcklpd 28928(%rbx), %xmm0, %xmm0 vmovapd %xmm0, 25248(%rbx) vmovapd 28576(%rbx), %xmm0 vunpcklpd 28960(%rbx), %xmm0, %xmm0 vmovapd %xmm0, 28576(%rbx) vmovapd 24448(%rbx), %xmm0 vunpcklpd 24608(%rbx), %xmm0, %xmm0 vmovapd %xmm0, 25136(%rbx) vmovapd 21984(%rbx), %xmm0 vunpcklpd 22848(%rbx), %xmm0, %xmm0 vmovapd %xmm0, 28544(%rbx) vmovapd 22496(%rbx), %xmm0 vunpcklpd 22560(%rbx), %xmm0, %xmm0 vmovapd %xmm0, 25056(%rbx) vmovapd 22016(%rbx), %xmm0 vunpcklpd 24800(%rbx), %xmm0, %xmm1 vmovapd 28000(%rbx), %xmm0 vunpcklpd 27680(%rbx), %xmm0, %xmm0 vmovapd %xmm0, 28864(%rbx) vmovapd 28064(%rbx), %xmm0 vunpcklpd 27744(%rbx), %xmm0, %xmm0 vmovapd %xmm0, 28064(%rbx) vmovapd 24512(%rbx), %xmm0 vunpcklpd 22304(%rbx), %xmm0, %xmm0 vmovapd %xmm0, 28000(%rbx) vmovapd 24128(%rbx), %xmm0 vunpcklpd 22912(%rbx), %xmm0, %xmm0 vmovapd %xmm0, 28928(%rbx) vmovapd 22528(%rbx), %xmm0 vunpcklpd 22624(%rbx), %xmm0, %xmm0 vmovapd %xmm0, 28960(%rbx) vmovapd 22048(%rbx), %xmm0 vunpcklpd 22976(%rbx), %xmm0, %xmm0 vmovapd %xmm0, 27744(%rbx) vmovapd 24544(%rbx), %xmm0 vunpcklpd 22656(%rbx), %xmm0, %xmm0 vmovapd %xmm0, 27680(%rbx) vmovapd 28672(%rbx), %xmm0 vunpcklpd 28992(%rbx), %xmm0, %xmm0 vmovapd %xmm0, 25440(%rbx) vmovapd 22208(%rbx), %xmm0 vunpcklpd 22880(%rbx), %xmm0, %xmm0 vmovapd %xmm0, 25344(%rbx) vmovapd 28640(%rbx), %xmm0 vunpcklpd 29024(%rbx), %xmm0, %xmm0 vmovapd %xmm0, 29024(%rbx) vmovapd 22592(%rbx), %xmm0 vunpcklpd 24640(%rbx), %xmm0, %xmm0 vmovapd %xmm0, 25184(%rbx) vmovapd 22144(%rbx), %xmm0 vunpcklpd 24832(%rbx), %xmm0, %xmm0 vmovapd %xmm0, 25120(%rbx) vmovapd 22080(%rbx), %xmm2 vunpcklpd 22944(%rbx), %xmm2, %xmm0 vmovapd %xmm0, 25088(%rbx) vmovapd 28704(%rbx), %xmm5 vunpcklpd 29088(%rbx), %xmm5, %xmm0 vmovapd %xmm0, 29088(%rbx) vmovapd 22112(%rbx), %xmm2 vunpcklpd 24768(%rbx), %xmm2, %xmm0 vmovapd 28736(%rbx), %xmm5 vunpcklpd 29056(%rbx), %xmm5, %xmm2 vmovapd %xmm2, 25536(%rbx) vmovapd 28288(%rbx), %xmm5 vunpcklpd 27936(%rbx), %xmm5, %xmm2 vmovapd %xmm2, 25504(%rbx) vmovapd 28768(%rbx), %xmm5 vunpcklpd 29120(%rbx), %xmm5, %xmm2 vmovapd %xmm2, 25408(%rbx) vmovapd 28800(%rbx), %xmm5 vunpcklpd 29152(%rbx), %xmm5, %xmm2 vmovapd %xmm2, 25312(%rbx) vmovapd 28832(%rbx), %xmm5 vunpcklpd 29184(%rbx), %xmm5, %xmm2 vmovapd %xmm2, 27936(%rbx) vmovapd 22176(%rbx), %xmm2 vunpcklpd 24864(%rbx), %xmm2, %xmm2 vmovapd %xmm2, 28736(%rbx) vmovapd 28320(%rbx), %xmm5 vunpcklpd 27968(%rbx), %xmm5, %xmm2 vmovapd %xmm2, 27968(%rbx) vmovapd 28352(%rbx), %xmm5 vunpcklpd 28096(%rbx), %xmm5, %xmm2 vmovapd %xmm2, 25472(%rbx) vmovapd 28384(%rbx), %xmm5 vunpcklpd 28128(%rbx), %xmm5, %xmm2 vmovapd %xmm2, 25392(%rbx) vmovapd 28416(%rbx), %xmm5 vunpcklpd 28160(%rbx), %xmm5, %xmm2 vmovapd %xmm2, 25280(%rbx) vmovapd 28448(%rbx), %xmm5 vunpcklpd 28192(%rbx), %xmm5, %xmm2 vmovapd %xmm2, 25216(%rbx) vmovapd 28896(%rbx), %xmm5 vunpcklpd 29984(%rbx), %xmm5, %xmm2 vmovapd %xmm2, 25152(%rbx) vmovapd 25664(%rbx), %ymm2 vinsertf128 $1, %xmm8, %ymm2, %ymm8 vmovapd %ymm8, 28192(%rbx) vmovapd 25952(%rbx), %ymm2 vinsertf128 $1, 25600(%rbx), %ymm2, %ymm6 vmovapd %ymm6, 28288(%rbx) vmovapd 26016(%rbx), %ymm2 vinsertf128 $1, 25632(%rbx), %ymm2, %ymm12 vmovapd %ymm12, 28352(%rbx) vmovapd 26144(%rbx), %ymm2 vinsertf128 $1, 25696(%rbx), %ymm2, %ymm5 vmovapd %ymm5, 28992(%rbx) vmovapd 30240(%rbx), %ymm2 vmulpd %ymm11, %ymm2, %ymm15 vmovapd %ymm15, 26144(%rbx) vmovapd 31200(%rbx), %ymm15 vmulpd %ymm11, %ymm15, %ymm11 vmovapd %ymm11, 26016(%rbx) vmovapd 31168(%rbx), %ymm15 vmulpd %ymm4, %ymm15, %ymm4 vmovapd %ymm4, 25952(%rbx) vmulpd %ymm13, %ymm2, %ymm2 vmovapd %ymm2, 25664(%rbx) vmovaps 25824(%rbx), %ymm2 vinsertf128 $1, 25456(%rbx), %ymm2, %ymm2 vmovaps %ymm2, 29984(%rbx) vmulpd %ymm9, %ymm15, %ymm2 vmovapd %ymm2, 25696(%rbx) vmovapd 31712(%rbx), %ymm11 vmulpd %ymm7, %ymm11, %ymm2 vmovapd %ymm2, 25824(%rbx) vmovaps 26048(%rbx), %ymm2 vinsertf128 $1, 25568(%rbx), %ymm2, %ymm2 vmovaps %ymm2, 28480(%rbx) vmovapd 22240(%rbx), %xmm2 vunpcklpd 22720(%rbx), %xmm2, %xmm2 vmovapd %xmm2, 27104(%rbx) vmovaps 26080(%rbx), %ymm2 vinsertf128 $1, 25760(%rbx), %ymm2, %ymm2 vmovaps %ymm2, 28672(%rbx) vmovaps 26112(%rbx), %ymm2 vinsertf128 $1, 25728(%rbx), %ymm2, %ymm2 vmovaps %ymm2, 28416(%rbx) vmovaps 26272(%rbx), %ymm2 vinsertf128 $1, 25856(%rbx), %ymm2, %ymm2 vmovaps %ymm2, 29184(%rbx) vmovaps 26400(%rbx), %ymm2 vinsertf128 $1, 25888(%rbx), %ymm2, %ymm2 vmovaps %ymm2, 28768(%rbx) vmovaps 26304(%rbx), %ymm2 vinsertf128 $1, 25792(%rbx), %ymm2, %ymm2 vmovaps %ymm2, 28384(%rbx) vmovapd 26336(%rbx), %ymm2 vinsertf128 $1, %xmm1, %ymm2, %ymm2 vmovapd %ymm2, 28640(%rbx) vmovaps 26368(%rbx), %ymm1 vinsertf128 $1, 25056(%rbx), %ymm1, %ymm2 vmovaps %ymm2, 29056(%rbx) vmovaps 27040(%rbx), %ymm1 vinsertf128 $1, 27328(%rbx), %ymm1, %ymm1 vmovaps %ymm1, 27040(%rbx) vmovaps 26432(%rbx), %ymm1 vinsertf128 $1, 25984(%rbx), %ymm1, %ymm2 vmovaps %ymm2, 28896(%rbx) vmovaps 26464(%rbx), %ymm1 vinsertf128 $1, 25920(%rbx), %ymm1, %ymm2 vmovaps %ymm2, 29120(%rbx) vmovaps 26848(%rbx), %ymm1 vinsertf128 $1, 28544(%rbx), %ymm1, %ymm1 vmovaps %ymm1, 28544(%rbx) vmovaps 27008(%rbx), %ymm1 vinsertf128 $1, 25136(%rbx), %ymm1, %ymm1 vmovaps %ymm1, 29152(%rbx) vmovaps 27072(%rbx), %ymm1 vinsertf128 $1, 28576(%rbx), %ymm1, %ymm1 vmovaps %ymm1, 28096(%rbx) vmovaps 27296(%rbx), %ymm1 vinsertf128 $1, 25248(%rbx), %ymm1, %ymm1 vmovaps %ymm1, 27072(%rbx) vmovaps 27360(%rbx), %ymm1 vinsertf128 $1, 26912(%rbx), %ymm1, %ymm1 vmovaps %ymm1, 28320(%rbx) vmovapd 20480(%rbx), %ymm1 vdivpd %ymm14, %ymm1, %ymm1 vmovapd %ymm1, 27328(%rbx) vmovapd 20512(%rbx), %ymm1 vdivpd %ymm14, %ymm1, %ymm1 vmovapd %ymm1, 27296(%rbx) vmulpd 29504(%rbx), %ymm3, %ymm1 vmovapd 22688(%rbx), %xmm2 vunpcklpd 24672(%rbx), %xmm2, %xmm2 vmovapd 21952(%rbx), %xmm4 vunpcklpd 21776(%rbx), %xmm4, %xmm4 vinsertf128 $1, %xmm2, %ymm4, %ymm2 vmovapd %ymm2, 27360(%rbx) vmulpd 32192(%rbx), %ymm2, %ymm2 vaddpd .LCPI1_88, %ymm2, %ymm2 vaddpd %ymm1, %ymm2, %ymm1 vmovapd %ymm1, 26912(%rbx) vmovaps 26176(%rbx), %ymm1 vinsertf128 $1, 28864(%rbx), %ymm1, %ymm1 vmovaps %ymm1, 26848(%rbx) vmovapd 26208(%rbx), %ymm1 vinsertf128 $1, %xmm0, %ymm1, %ymm1 vmovapd %ymm1, 28576(%rbx) vmovaps 26240(%rbx), %ymm0 vinsertf128 $1, 29088(%rbx), %ymm0, %ymm0 vmovaps %ymm0, 27008(%rbx) vmovaps 27168(%rbx), %ymm0 vinsertf128 $1, 25088(%rbx), %ymm0, %ymm1 vmovaps %ymm1, 28800(%rbx) vmovaps 27712(%rbx), %ymm0 vinsertf128 $1, 25120(%rbx), %ymm0, %ymm0 vmovaps %ymm0, 28704(%rbx) vmovaps 26496(%rbx), %ymm0 vinsertf128 $1, 25184(%rbx), %ymm0, %ymm0 vmovaps %ymm0, 28448(%rbx) vmovaps 26528(%rbx), %ymm0 vinsertf128 $1, 29024(%rbx), %ymm0, %ymm0 vmovaps %ymm0, 28128(%rbx) vmovaps 26976(%rbx), %ymm0 vinsertf128 $1, 25344(%rbx), %ymm0, %ymm0 vmovaps %ymm0, 28864(%rbx) vmovaps 27584(%rbx), %ymm0 vinsertf128 $1, 25440(%rbx), %ymm0, %ymm0 vmovaps %ymm0, 26976(%rbx) vmovaps 26560(%rbx), %ymm0 vinsertf128 $1, 27680(%rbx), %ymm0, %ymm0 vmovaps %ymm0, 29088(%rbx) vmovaps 26592(%rbx), %ymm0 vinsertf128 $1, 27744(%rbx), %ymm0, %ymm0 vmovaps %ymm0, 29024(%rbx) vmovaps 26624(%rbx), %ymm0 vinsertf128 $1, 28960(%rbx), %ymm0, %ymm0 vmovaps %ymm0, 28960(%rbx) vmovaps 26656(%rbx), %ymm0 vinsertf128 $1, 28928(%rbx), %ymm0, %ymm0 vmovaps %ymm0, 28928(%rbx) vmovaps 26688(%rbx), %ymm0 vinsertf128 $1, 28000(%rbx), %ymm0, %ymm0 vmovaps %ymm0, 28832(%rbx) vmovaps 27648(%rbx), %ymm0 vinsertf128 $1, 28736(%rbx), %ymm0, %ymm0 vmovaps %ymm0, 28736(%rbx) vmovaps 26720(%rbx), %ymm0 vinsertf128 $1, 28064(%rbx), %ymm0, %ymm0 vmovaps %ymm0, 27680(%rbx) vmovaps 26752(%rbx), %ymm0 vinsertf128 $1, 27936(%rbx), %ymm0, %ymm0 vmovaps %ymm0, 27936(%rbx) vmovaps 26784(%rbx), %ymm0 vinsertf128 $1, 25312(%rbx), %ymm0, %ymm0 vmovaps %ymm0, 28160(%rbx) vmovaps 26816(%rbx), %ymm0 vinsertf128 $1, 25408(%rbx), %ymm0, %ymm0 vmovaps %ymm0, 28000(%rbx) vmovaps 26880(%rbx), %ymm0 vinsertf128 $1, 25504(%rbx), %ymm0, %ymm0 vmovaps %ymm0, 27712(%rbx) vmovaps 26944(%rbx), %ymm0 vinsertf128 $1, 25536(%rbx), %ymm0, %ymm0 vmovaps %ymm0, 27744(%rbx) vmovaps 27136(%rbx), %ymm0 vinsertf128 $1, 25152(%rbx), %ymm0, %ymm0 vmovaps %ymm0, 28064(%rbx) vmovaps 27776(%rbx), %ymm0 vinsertf128 $1, 25216(%rbx), %ymm0, %ymm0 vmovaps %ymm0, 27776(%rbx) vmovaps 27200(%rbx), %ymm0 vinsertf128 $1, 25280(%rbx), %ymm0, %ymm0 vmovaps %ymm0, 27200(%rbx) vmovaps 27264(%rbx), %ymm0 vinsertf128 $1, 25392(%rbx), %ymm0, %ymm0 vmovaps %ymm0, 27168(%rbx) vmovaps 27616(%rbx), %ymm0 vinsertf128 $1, 25472(%rbx), %ymm0, %ymm0 vmovaps %ymm0, 27136(%rbx) vmovaps 27232(%rbx), %ymm0 vinsertf128 $1, 27968(%rbx), %ymm0, %ymm0 vmovaps %ymm0, 27968(%rbx) vmovapd 20608(%rbx), %ymm0 vdivpd %ymm10, %ymm0, %ymm0 vmovapd %ymm0, 27232(%rbx) vmovapd 20640(%rbx), %ymm0 vdivpd %ymm10, %ymm0, %ymm0 vmovapd %ymm0, 27264(%rbx) vmovapd 29568(%rbx), %ymm0 vmulpd 25952(%rbx), %ymm0, %ymm1 vmovapd %ymm1, 27648(%rbx) vmovapd 30272(%rbx), %ymm10 vmulpd 26016(%rbx), %ymm10, %ymm1 vmovapd %ymm1, 27616(%rbx) vmovapd 31264(%rbx), %ymm2 vmulpd 26144(%rbx), %ymm2, %ymm1 vmovapd %ymm1, 27584(%rbx) vmulpd %ymm2, %ymm5, %ymm4 vmovapd 31136(%rbx), %ymm14 vmulpd %ymm14, %ymm12, %ymm2 vmulpd %ymm11, %ymm6, %ymm5 vmulpd %ymm15, %ymm8, %ymm6 vmovapd 29216(%rbx), %xmm1 vunpcklpd 29248(%rbx), %xmm1, %xmm7 vmovapd 30112(%rbx), %xmm1 vunpcklpd 29280(%rbx), %xmm1, %xmm8 vinsertf128 $1, %xmm7, %ymm8, %ymm1 vmovapd %ymm1, 29280(%rbx) vmovapd 29536(%rbx), %ymm8 vmulpd 30048(%rbx), %ymm8, %ymm7 vmulpd %ymm9, %ymm8, %ymm15 vmulpd %ymm7, %ymm11, %ymm12 vmovapd 31200(%rbx), %ymm3 vmulpd %ymm3, %ymm1, %ymm13 vmulpd %ymm8, %ymm6, %ymm9 vmulpd %ymm0, %ymm5, %ymm7 vmovapd 31936(%rbx), %ymm11 vmovapd 29984(%rbx), %ymm1 vmulpd %ymm11, %ymm1, %ymm1 vmovapd %ymm1, 31168(%rbx) vmulpd 30080(%rbx), %ymm3, %ymm6 vmovapd 30208(%rbx), %ymm5 vmulpd %ymm5, %ymm2, %ymm8 vmulpd %ymm10, %ymm4, %ymm4 vmulpd 25664(%rbx), %ymm11, %ymm10 vaddpd %ymm7, %ymm9, %ymm9 vmovapd 27584(%rbx), %ymm1 vaddpd 27616(%rbx), %ymm1, %ymm3 vmulpd 30240(%rbx), %ymm13, %ymm2 vaddpd 27648(%rbx), %ymm12, %ymm12 vmulpd 25696(%rbx), %ymm5, %ymm13 vmulpd %ymm15, %ymm14, %ymm15 vmovapd %ymm14, %ymm1 vmulpd 30016(%rbx), %ymm0, %ymm14 vmovapd 31008(%rbx), %xmm0 vunpcklpd 29344(%rbx), %xmm0, %xmm0 vmovapd %ymm0, 31712(%rbx) jne .LBB1_1963 vxorpd %xmm0, %xmm0, %xmm0 jmp .LBB1_1965 .LBB1_1963: vmovsd 11648(%rsi,%r13), %xmm0 .LBB1_1965: vaddpd %ymm10, %ymm3, %ymm3 vmovapd %ymm3, 30112(%rbx) vaddpd %ymm4, %ymm2, %ymm2 vmovapd %ymm2, 26944(%rbx) vaddpd %ymm8, %ymm9, %ymm2 vmovapd %ymm2, 26816(%rbx) vmovapd 30304(%rbx), %ymm2 vmulpd %ymm6, %ymm2, %ymm3 vmovapd %ymm3, 26880(%rbx) vmovapd 31168(%rbx), %ymm3 vmulpd %ymm2, %ymm3, %ymm9 vmovapd 30208(%rbx), %ymm2 vmulpd 25824(%rbx), %ymm2, %ymm11 vmovapd 29312(%rbx), %xmm2 vunpcklpd 29440(%rbx), %xmm2, %xmm2 vmovapd %xmm2, 29440(%rbx) vmovapd 31040(%rbx), %xmm2 vunpcklpd 29408(%rbx), %xmm2, %xmm10 vmovapd 29376(%rbx), %xmm2 vunpcklpd 29472(%rbx), %xmm2, %xmm8 vmovsd 11064(%rsi,%r13), %xmm2 vmovaps %xmm2, 31200(%rbx) vaddpd %ymm15, %ymm12, %ymm2 vaddpd %ymm2, %ymm13, %ymm13 vmulpd %ymm14, %ymm1, %ymm14 vmovsd 11192(%rsi,%r13), %xmm1 vmovsd 11320(%rsi,%r13), %xmm2 vmovsd 11448(%rsi,%r13), %xmm3 vmovsd 11576(%rsi,%r13), %xmm7 vmovsd 11704(%rsi,%r13), %xmm5 vmovsd 11832(%rsi,%r13), %xmm4 testb %r14b, %r14b jne .LBB1_1966 vxorpd %xmm6, %xmm6, %xmm6 jmp .LBB1_1968 .LBB1_1966: vmovsd 11960(%rsi,%r13), %xmm6 .LBB1_1968: vmovapd %xmm6, 27648(%rbx) vmovaps %xmm2, 29344(%rbx) vmovaps %xmm1, 31008(%rbx) testb %r9b, %r9b jne .LBB1_1970 vxorps %xmm4, %xmm4, %xmm4 .LBB1_1970: vmovaps %xmm4, 29216(%rbx) testb %cl, %cl jne .LBB1_1972 vxorps %xmm5, %xmm5, %xmm5 .LBB1_1972: vmovaps %xmm5, 27584(%rbx) testb %al, %al jne .LBB1_1974 vxorps %xmm7, %xmm7, %xmm7 .LBB1_1974: testb %r8b, %r8b jne .LBB1_1976 vxorps %xmm3, %xmm3, %xmm3 .LBB1_1976: vmovaps %xmm7, 27616(%rbx) vmovaps %xmm3, 29248(%rbx) testb %r11b, %r11b jne .LBB1_1978 vxorps %xmm1, %xmm1, %xmm1 vmovaps %xmm1, 29344(%rbx) .LBB1_1978: movq %rsi, %r12 testb %r15b, %r15b vmovapd 32192(%rbx), %ymm12 vmovapd 32160(%rbx), %ymm15 jne .LBB1_1980 vxorps %xmm1, %xmm1, %xmm1 vmovaps %xmm1, 31008(%rbx) .LBB1_1980: testb %r10b, %r10b vaddpd %ymm13, %ymm14, %ymm2 vmovapd 31712(%rbx), %ymm1 vinsertf128 $1, %xmm8, %ymm1, %ymm1 vmovapd %ymm1, 31168(%rbx) vaddpd %ymm2, %ymm11, %ymm1 vmovapd 26816(%rbx), %ymm2 vaddpd %ymm1, %ymm2, %ymm1 vmovapd 26944(%rbx), %ymm2 vaddpd %ymm9, %ymm2, %ymm2 vmovapd 26880(%rbx), %ymm3 vaddpd 30112(%rbx), %ymm3, %ymm3 vinsertf128 $1, 29440(%rbx), %ymm10, %ymm6 vmovapd %ymm6, 29312(%rbx) vmovapd 30272(%rbx), %ymm4 vmulpd %ymm6, %ymm4, %ymm4 vmovapd 31936(%rbx), %ymm5 vmulpd %ymm4, %ymm5, %ymm4 vaddpd %ymm3, %ymm4, %ymm3 vmovapd 31264(%rbx), %ymm4 vmulpd %ymm6, %ymm4, %ymm4 vmovapd 30304(%rbx), %ymm5 vmulpd %ymm4, %ymm5, %ymm4 vaddpd %ymm3, %ymm4, %ymm3 vaddpd %ymm3, %ymm2, %ymm4 vdivpd 23360(%rbx), %ymm1, %ymm1 jne .LBB1_1982 vxorpd %xmm2, %xmm2, %xmm2 vmovapd %xmm2, 31200(%rbx) .LBB1_1982: vmovapd 23872(%rbx), %xmm2 vunpcklpd %xmm0, %xmm2, %xmm0 vinsertf128 $1, 27104(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 27104(%rbx) vmulpd %ymm15, %ymm0, %ymm0 vxorpd %ymm11, %ymm11, %ymm11 vaddpd %ymm11, %ymm0, %ymm0 vmovapd 23072(%rbx), %ymm10 vmovapd 28480(%rbx), %ymm2 vmulpd %ymm10, %ymm2, %ymm2 vaddpd %ymm2, %ymm0, %ymm0 vmovapd 28224(%rbx), %ymm2 vmulpd %ymm12, %ymm2, %ymm2 vaddpd %ymm11, %ymm2, %ymm2 vmovapd 29504(%rbx), %ymm9 vmovapd 28672(%rbx), %ymm3 vmulpd %ymm9, %ymm3, %ymm3 vaddpd %ymm3, %ymm2, %ymm3 vmovapd 28640(%rbx), %ymm2 vmulpd %ymm15, %ymm2, %ymm2 vaddpd %ymm11, %ymm2, %ymm2 vmovapd 28256(%rbx), %ymm5 vmulpd %ymm10, %ymm5, %ymm5 vaddpd %ymm5, %ymm2, %ymm7 vmovapd 28384(%rbx), %ymm2 vmulpd %ymm12, %ymm2, %ymm2 vaddpd %ymm11, %ymm2, %ymm2 vmovapd 28416(%rbx), %ymm5 vmulpd %ymm9, %ymm5, %ymm5 vaddpd %ymm5, %ymm2, %ymm8 vmovapd 28544(%rbx), %ymm2 vmulpd %ymm15, %ymm2, %ymm2 vaddpd %ymm11, %ymm2, %ymm2 vmovapd 28768(%rbx), %ymm5 vmulpd %ymm10, %ymm5, %ymm5 vaddpd %ymm5, %ymm2, %ymm6 vdivpd 23392(%rbx), %ymm4, %ymm4 vmovapd 29184(%rbx), %ymm2 vmulpd %ymm9, %ymm2, %ymm2 vmovapd 29120(%rbx), %ymm5 vmulpd %ymm12, %ymm5, %ymm5 vaddpd %ymm11, %ymm5, %ymm5 vaddpd %ymm2, %ymm5, %ymm2 vmovapd %ymm2, 31936(%rbx) vmovapd 28512(%rbx), %ymm2 vmulpd %ymm10, %ymm2, %ymm2 vmovapd 28896(%rbx), %ymm5 vmulpd %ymm15, %ymm5, %ymm5 vaddpd %ymm11, %ymm5, %ymm5 vaddpd %ymm2, %ymm5, %ymm10 vmovapd 30656(%rbx), %ymm2 vmulpd %ymm1, %ymm2, %ymm2 vmovapd 27040(%rbx), %ymm5 vmulpd %ymm1, %ymm5, %ymm5 vmovapd 26848(%rbx), %ymm9 vmulpd %ymm1, %ymm9, %ymm11 vmovapd 23424(%rbx), %ymm13 vmulpd %ymm13, %ymm11, %ymm15 vmulpd %ymm13, %ymm5, %ymm14 vmulpd %ymm13, %ymm2, %ymm2 vdivpd %ymm13, %ymm1, %ymm12 vmovapd %ymm12, 31712(%rbx) vmovapd 23136(%rbx), %ymm5 vmovapd 29056(%rbx), %ymm1 vmulpd %ymm5, %ymm1, %ymm1 vmovapd 26912(%rbx), %ymm9 vaddpd %ymm1, %ymm9, %ymm1 vmovapd %ymm1, 31264(%rbx) vmovapd 23104(%rbx), %ymm9 vmovapd 28576(%rbx), %ymm1 vmulpd %ymm9, %ymm1, %ymm1 vaddpd %ymm1, %ymm6, %ymm1 vmovapd %ymm1, 31136(%rbx) vmovapd 28448(%rbx), %ymm1 vmulpd %ymm5, %ymm1, %ymm1 vaddpd %ymm1, %ymm8, %ymm1 vmovapd %ymm1, 31040(%rbx) vmovapd 28704(%rbx), %ymm1 vmulpd %ymm9, %ymm1, %ymm1 vaddpd %ymm1, %ymm7, %ymm1 vmovapd %ymm1, 29504(%rbx) vmovapd 28608(%rbx), %ymm1 vmulpd %ymm5, %ymm1, %ymm1 vaddpd %ymm1, %ymm3, %ymm11 vmovapd 28800(%rbx), %ymm1 vmulpd %ymm9, %ymm1, %ymm1 vaddpd %ymm1, %ymm0, %ymm13 vmovapd 29536(%rbx), %ymm0 vsubpd %ymm15, %ymm0, %ymm1 vmovapd 27008(%rbx), %ymm0 vmulpd %ymm4, %ymm0, %ymm0 vmovapd 23456(%rbx), %ymm6 vmulpd %ymm6, %ymm0, %ymm0 vmovapd 30240(%rbx), %ymm3 vsubpd %ymm0, %ymm3, %ymm7 vmovapd 26976(%rbx), %ymm0 vmulpd %ymm4, %ymm0, %ymm0 vmulpd %ymm6, %ymm0, %ymm0 vmovapd 30272(%rbx), %ymm3 vsubpd %ymm0, %ymm3, %ymm3 vmovapd 29568(%rbx), %ymm0 vsubpd %ymm2, %ymm0, %ymm2 vmovapd 30208(%rbx), %ymm0 vsubpd %ymm14, %ymm0, %ymm0 vmovapd %ymm0, 30656(%rbx) vmovapd 28864(%rbx), %ymm0 vmulpd %ymm9, %ymm0, %ymm14 vaddpd %ymm14, %ymm10, %ymm0 vmovapd %ymm0, 29376(%rbx) vmovapd 29152(%rbx), %ymm0 vmulpd %ymm5, %ymm0, %ymm10 vmovapd 31936(%rbx), %ymm0 vaddpd %ymm10, %ymm0, %ymm0 vmovapd %ymm0, 29408(%rbx) vdivpd %ymm6, %ymm4, %ymm0 vmovapd %ymm0, 31936(%rbx) vmovapd 28128(%rbx), %ymm5 vmulpd %ymm0, %ymm5, %ymm9 vmovapd 29280(%rbx), %ymm5 vmulpd %ymm7, %ymm5, %ymm10 vaddpd %ymm10, %ymm9, %ymm15 vmovapd 27936(%rbx), %ymm5 vmulpd %ymm0, %ymm5, %ymm9 vmovapd 28096(%rbx), %ymm5 vmulpd %ymm7, %ymm5, %ymm10 vaddpd %ymm10, %ymm9, %ymm9 vmovapd 27808(%rbx), %ymm5 vmulpd %ymm12, %ymm5, %ymm10 vmovapd 28192(%rbx), %ymm5 vmulpd %ymm1, %ymm5, %ymm14 vaddpd %ymm14, %ymm10, %ymm14 vmovapd 27680(%rbx), %ymm5 vmulpd %ymm12, %ymm5, %ymm10 vmovapd 27840(%rbx), %ymm5 vmulpd %ymm1, %ymm5, %ymm5 vaddpd %ymm5, %ymm10, %ymm5 vmovapd %ymm5, 30272(%rbx) vmovapd 30816(%rbx), %ymm8 vmovapd 28736(%rbx), %ymm5 vmulpd %ymm8, %ymm5, %ymm5 vaddpd %ymm5, %ymm13, %ymm5 vmovapd %ymm5, 30112(%rbx) vmovapd 30848(%rbx), %ymm13 vmovapd 28832(%rbx), %ymm5 vmulpd %ymm13, %ymm5, %ymm5 vaddpd %ymm5, %ymm11, %ymm5 vmovapd %ymm5, 29536(%rbx) vmovapd 28928(%rbx), %ymm5 vmulpd %ymm8, %ymm5, %ymm5 vmovapd 29504(%rbx), %ymm10 vaddpd %ymm5, %ymm10, %ymm5 vmovapd %ymm5, 29568(%rbx) vmovapd 28960(%rbx), %ymm5 vmulpd %ymm13, %ymm5, %ymm5 vmovapd 31040(%rbx), %ymm10 vaddpd %ymm5, %ymm10, %ymm5 vmovapd %ymm5, 29504(%rbx) vmovapd 29024(%rbx), %ymm5 vmulpd %ymm8, %ymm5, %ymm5 vmovapd 31136(%rbx), %ymm8 vaddpd %ymm5, %ymm8, %ymm5 vmovapd %ymm5, 29472(%rbx) vmovapd 29088(%rbx), %ymm5 vmulpd %ymm13, %ymm5, %ymm5 vmovapd 31264(%rbx), %ymm8 vaddpd %ymm5, %ymm8, %ymm5 vmovapd %ymm5, 29440(%rbx) vmovapd 27520(%rbx), %ymm5 vmulpd %ymm3, %ymm5, %ymm5 vaddpd %ymm5, %ymm15, %ymm5 vmovapd 27072(%rbx), %ymm8 vmulpd %ymm4, %ymm8, %ymm4 vmulpd %ymm6, %ymm4, %ymm4 vmovapd 30304(%rbx), %ymm6 vsubpd %ymm4, %ymm6, %ymm4 vmovapd 30080(%rbx), %ymm6 vmulpd %ymm4, %ymm6, %ymm6 vaddpd %ymm6, %ymm5, %ymm6 vmovapd %ymm6, 31040(%rbx) vmovapd 29632(%rbx), %ymm5 vmulpd %ymm6, %ymm5, %ymm5 vmovapd 20832(%rbx), %ymm6 vaddpd %ymm5, %ymm6, %ymm6 vmovapd 30048(%rbx), %ymm5 vmulpd %ymm2, %ymm5, %ymm5 vaddpd %ymm5, %ymm14, %ymm5 vmovapd 28000(%rbx), %ymm8 vmulpd %ymm3, %ymm8, %ymm8 vaddpd %ymm8, %ymm9, %ymm8 vmovapd 28320(%rbx), %ymm9 vmulpd %ymm0, %ymm9, %ymm9 vmovapd 28160(%rbx), %ymm10 vmulpd %ymm7, %ymm10, %ymm11 vaddpd %ymm11, %ymm9, %ymm9 vmovapd 28992(%rbx), %ymm10 vmulpd %ymm3, %ymm10, %ymm11 vaddpd %ymm11, %ymm9, %ymm9 vmovapd 29312(%rbx), %ymm10 vmulpd %ymm4, %ymm10, %ymm11 vaddpd %ymm11, %ymm9, %ymm11 vmovapd %ymm11, 30304(%rbx) vmovapd 30400(%rbx), %ymm9 vmulpd %ymm11, %ymm9, %ymm9 vaddpd %ymm9, %ymm6, %ymm6 vmovapd 29984(%rbx), %ymm9 vmulpd %ymm4, %ymm9, %ymm9 vaddpd %ymm9, %ymm8, %ymm14 vmovapd %ymm14, 30400(%rbx) vmovapd 28288(%rbx), %ymm8 vmulpd %ymm2, %ymm8, %ymm8 vmovapd 30272(%rbx), %ymm9 vaddpd %ymm8, %ymm9, %ymm9 vmovapd 30656(%rbx), %ymm13 vmovapd 27872(%rbx), %ymm8 vmulpd %ymm13, %ymm8, %ymm8 vaddpd %ymm8, %ymm5, %ymm11 vmovapd %ymm11, 30272(%rbx) vmovapd 27744(%rbx), %ymm5 vmulpd %ymm0, %ymm5, %ymm5 vmovapd 31168(%rbx), %ymm8 vmulpd %ymm7, %ymm8, %ymm8 vaddpd %ymm8, %ymm5, %ymm5 vmovapd 27712(%rbx), %ymm8 vmulpd %ymm12, %ymm8, %ymm8 vmovapd 27904(%rbx), %ymm10 vmulpd %ymm1, %ymm10, %ymm10 vaddpd %ymm10, %ymm8, %ymm10 vmovapd 29664(%rbx), %ymm8 vmulpd %ymm11, %ymm8, %ymm8 vmovapd 20864(%rbx), %ymm11 vaddpd %ymm8, %ymm11, %ymm8 vmovapd %ymm8, 31136(%rbx) vmovapd 30016(%rbx), %ymm8 vmulpd %ymm13, %ymm8, %ymm11 vmovapd %ymm13, %ymm15 vaddpd %ymm11, %ymm9, %ymm8 vmovapd %ymm8, 30240(%rbx) vmovapd 30336(%rbx), %ymm9 vmulpd %ymm14, %ymm9, %ymm9 vaddpd %ymm9, %ymm6, %ymm13 vmovapd %ymm13, 29664(%rbx) vmovapd 32736(%rbx), %ymm14 vmulpd %ymm2, %ymm14, %ymm6 vmovapd 31808(%rbx), %ymm9 vaddpd %ymm6, %ymm9, %ymm6 vmovapd %ymm6, 31264(%rbx) vmovapd 32832(%rbx), %ymm11 vmulpd %ymm7, %ymm11, %ymm7 vmovapd 31904(%rbx), %ymm6 vaddpd %ymm7, %ymm6, %ymm6 vmovapd %ymm6, 26912(%rbx) vmulpd %ymm1, %ymm14, %ymm7 vmovapd 31872(%rbx), %ymm6 vaddpd %ymm7, %ymm6, %ymm9 vmovapd 27776(%rbx), %ymm6 vmulpd %ymm2, %ymm6, %ymm7 vaddpd %ymm7, %ymm10, %ymm6 vmovapd %ymm6, 26944(%rbx) vmovapd 28064(%rbx), %ymm6 vmulpd %ymm3, %ymm6, %ymm7 vaddpd %ymm7, %ymm5, %ymm5 vmovapd %ymm5, 26880(%rbx) vmulpd %ymm15, %ymm14, %ymm5 vmovapd %ymm15, %ymm6 vmovapd 31776(%rbx), %ymm7 vaddpd %ymm5, %ymm7, %ymm5 vmovapd %ymm5, 26976(%rbx) vmulpd %ymm3, %ymm11, %ymm3 vmovapd 31840(%rbx), %ymm5 vaddpd %ymm3, %ymm5, %ymm3 vmovapd %ymm3, 30208(%rbx) vmulpd %ymm4, %ymm11, %ymm3 vmovapd 32128(%rbx), %ymm5 vaddpd %ymm3, %ymm5, %ymm3 vmovapd %ymm3, 29632(%rbx) vmulpd 23168(%rbx), %ymm12, %ymm3 vmulpd 23232(%rbx), %ymm12, %ymm5 vmulpd 23264(%rbx), %ymm12, %ymm10 vmovapd 32576(%rbx), %ymm15 vmulpd %ymm15, %ymm15, %ymm7 vdivpd %ymm7, %ymm10, %ymm10 vmovapd %ymm10, 26784(%rbx) vdivpd %ymm7, %ymm5, %ymm5 vmovapd %ymm5, 26848(%rbx) vdivpd %ymm7, %ymm3, %ymm3 vmovapd %ymm3, 27040(%rbx) vmulpd 23328(%rbx), %ymm0, %ymm5 vmulpd 23200(%rbx), %ymm0, %ymm3 vmulpd 23296(%rbx), %ymm0, %ymm7 vmovapd 32896(%rbx), %ymm14 vmulpd %ymm14, %ymm14, %ymm11 vdivpd %ymm11, %ymm7, %ymm0 vmovapd %ymm0, 26816(%rbx) vdivpd %ymm11, %ymm3, %ymm0 vmovapd %ymm0, 27072(%rbx) vdivpd %ymm11, %ymm5, %ymm0 vmovapd %ymm0, 27008(%rbx) vmovapd 29600(%rbx), %ymm3 vmulpd %ymm8, %ymm3, %ymm3 vmovapd 31136(%rbx), %ymm0 vaddpd %ymm3, %ymm0, %ymm8 vmovapd 27136(%rbx), %ymm7 vmulpd %ymm1, %ymm7, %ymm1 vmovapd 27168(%rbx), %ymm5 vmulpd %ymm12, %ymm5, %ymm3 vaddpd %ymm1, %ymm3, %ymm1 vmovapd 27200(%rbx), %ymm10 vmulpd %ymm2, %ymm10, %ymm2 vaddpd %ymm2, %ymm1, %ymm1 vmovapd 28352(%rbx), %ymm0 vmulpd %ymm6, %ymm0, %ymm2 vaddpd %ymm2, %ymm1, %ymm0 vmovapd %ymm0, 30336(%rbx) vmovapd 30368(%rbx), %ymm1 vmulpd %ymm0, %ymm1, %ymm1 vaddpd %ymm1, %ymm8, %ymm11 vmovapd %ymm11, 31136(%rbx) vmulpd 31616(%rbx), %ymm11, %ymm1 vaddpd %ymm9, %ymm1, %ymm1 vmulpd 30720(%rbx), %ymm13, %ymm2 vaddpd 26912(%rbx), %ymm2, %ymm9 vmovapd 30752(%rbx), %ymm2 vmulpd %ymm11, %ymm2, %ymm2 vmovapd 31264(%rbx), %ymm0 vaddpd %ymm2, %ymm0, %ymm2 vmovapd 28032(%rbx), %ymm0 vmulpd %ymm4, %ymm0, %ymm3 vmovapd 26880(%rbx), %ymm0 vaddpd %ymm3, %ymm0, %ymm0 vmovapd %ymm0, 31264(%rbx) vmovapd 27968(%rbx), %ymm0 vmulpd %ymm6, %ymm0, %ymm0 vmovapd 26944(%rbx), %ymm3 vaddpd %ymm0, %ymm3, %ymm0 vmovapd %ymm0, 30656(%rbx) vdivpd %ymm15, %ymm1, %ymm0 vsubpd 26784(%rbx), %ymm0, %ymm1 vmovapd 27808(%rbx), %ymm0 vmulpd %ymm11, %ymm0, %ymm0 vmovapd 28192(%rbx), %ymm3 vmulpd %ymm1, %ymm3, %ymm3 vaddpd %ymm3, %ymm0, %ymm4 vmovapd 27680(%rbx), %ymm0 vmulpd %ymm11, %ymm0, %ymm0 vmovapd 27840(%rbx), %ymm3 vmulpd %ymm1, %ymm3, %ymm3 vaddpd %ymm3, %ymm0, %ymm8 vdivpd %ymm15, %ymm2, %ymm0 vsubpd 26848(%rbx), %ymm0, %ymm2 vdivpd %ymm14, %ymm9, %ymm0 vsubpd 26816(%rbx), %ymm0, %ymm0 vmovapd 27712(%rbx), %ymm3 vmulpd %ymm11, %ymm3, %ymm3 vmovapd 27904(%rbx), %ymm6 vmulpd %ymm1, %ymm6, %ymm6 vaddpd %ymm6, %ymm3, %ymm12 vmulpd %ymm11, %ymm5, %ymm3 vmulpd %ymm1, %ymm7, %ymm6 vaddpd %ymm6, %ymm3, %ymm6 vmovapd 31648(%rbx), %ymm3 vmulpd %ymm11, %ymm3, %ymm3 vmovapd 26976(%rbx), %ymm5 vaddpd %ymm3, %ymm5, %ymm5 vmovapd 27744(%rbx), %ymm3 vmulpd %ymm13, %ymm3, %ymm3 vmovapd 31168(%rbx), %ymm7 vmulpd %ymm0, %ymm7, %ymm7 vaddpd %ymm7, %ymm3, %ymm9 vmulpd %ymm2, %ymm10, %ymm3 vaddpd %ymm3, %ymm6, %ymm3 vmovapd %ymm3, 31616(%rbx) vmovapd 28288(%rbx), %ymm3 vmulpd %ymm2, %ymm3, %ymm3 vaddpd %ymm3, %ymm8, %ymm7 vmovapd 30048(%rbx), %ymm3 vmulpd %ymm2, %ymm3, %ymm3 vaddpd %ymm3, %ymm4, %ymm10 vmovapd 27776(%rbx), %ymm3 vmulpd %ymm2, %ymm3, %ymm3 vaddpd %ymm3, %ymm12, %ymm6 vmovapd 27936(%rbx), %ymm3 vmulpd %ymm13, %ymm3, %ymm3 vmovapd 28096(%rbx), %ymm4 vmulpd %ymm0, %ymm4, %ymm4 vaddpd %ymm4, %ymm3, %ymm4 vdivpd %ymm15, %ymm5, %ymm3 vsubpd 27040(%rbx), %ymm3, %ymm3 vmovapd 30784(%rbx), %ymm8 vmulpd %ymm13, %ymm8, %ymm8 vmovapd 29632(%rbx), %ymm5 vaddpd %ymm8, %ymm5, %ymm12 vmovapd 30176(%rbx), %ymm8 vmulpd %ymm13, %ymm8, %ymm8 vmovapd 30208(%rbx), %ymm5 vaddpd %ymm8, %ymm5, %ymm8 vdivpd %ymm14, %ymm8, %ymm8 vsubpd 27008(%rbx), %ymm8, %ymm8 vmovapd 28000(%rbx), %ymm5 vmulpd %ymm8, %ymm5, %ymm5 vaddpd %ymm5, %ymm4, %ymm5 vdivpd %ymm14, %ymm12, %ymm4 vsubpd 27072(%rbx), %ymm4, %ymm4 vmovapd 28064(%rbx), %ymm12 vmulpd %ymm8, %ymm12, %ymm12 vaddpd %ymm12, %ymm9, %ymm9 vmovapd %ymm9, 30720(%rbx) vmovapd 27968(%rbx), %ymm9 vmulpd %ymm3, %ymm9, %ymm12 vaddpd %ymm12, %ymm6, %ymm15 vmovapd 27872(%rbx), %ymm6 vmulpd %ymm3, %ymm6, %ymm12 vaddpd %ymm12, %ymm10, %ymm9 vmovapd %ymm9, 30208(%rbx) vmovapd 30016(%rbx), %ymm6 vmulpd %ymm3, %ymm6, %ymm10 vaddpd %ymm10, %ymm7, %ymm6 vmovapd %ymm6, 31648(%rbx) vmovapd 28352(%rbx), %ymm6 vmulpd %ymm3, %ymm6, %ymm7 vmovapd 31616(%rbx), %ymm6 vaddpd %ymm7, %ymm6, %ymm7 vmovapd %ymm7, 31616(%rbx) vmovapd 29984(%rbx), %ymm6 vmulpd %ymm4, %ymm6, %ymm6 vaddpd %ymm6, %ymm5, %ymm5 vmovapd %ymm5, 31168(%rbx) vmovapd 21152(%rbx), %ymm14 vmulpd %ymm2, %ymm14, %ymm5 vmovapd 20960(%rbx), %ymm6 vaddpd %ymm5, %ymm6, %ymm5 vmovapd %ymm5, 30784(%rbx) vmovapd 21184(%rbx), %ymm5 vmulpd %ymm8, %ymm5, %ymm6 vmovapd 20896(%rbx), %ymm10 vaddpd %ymm6, %ymm10, %ymm6 vmovapd %ymm6, 30752(%rbx) vmulpd %ymm0, %ymm5, %ymm6 vmovapd 20928(%rbx), %ymm10 vaddpd %ymm6, %ymm10, %ymm6 vmovapd %ymm6, 29984(%rbx) vmulpd %ymm13, %ymm5, %ymm6 vmovapd 20992(%rbx), %ymm10 vaddpd %ymm6, %ymm10, %ymm6 vmovapd %ymm6, 29632(%rbx) vmulpd %ymm1, %ymm14, %ymm6 vmovapd 21024(%rbx), %ymm10 vaddpd %ymm6, %ymm10, %ymm6 vmovapd %ymm6, 30016(%rbx) vmulpd %ymm11, %ymm14, %ymm6 vmovapd 21056(%rbx), %ymm10 vaddpd %ymm6, %ymm10, %ymm6 vmulpd 30688(%rbx), %ymm11, %ymm12 vmovapd %ymm12, 30368(%rbx) vmovapd 31968(%rbx), %ymm10 vmulpd %ymm9, %ymm10, %ymm10 vmovapd 32736(%rbx), %ymm9 vmulpd %ymm15, %ymm9, %ymm11 vmovapd %ymm11, 30688(%rbx) vaddpd %ymm12, %ymm11, %ymm11 vaddpd %ymm10, %ymm11, %ymm10 vmovapd 28032(%rbx), %ymm9 vmulpd %ymm4, %ymm9, %ymm11 vmovapd 30720(%rbx), %ymm9 vaddpd %ymm11, %ymm9, %ymm9 vmovapd 28128(%rbx), %ymm11 vmulpd %ymm13, %ymm11, %ymm11 vmovapd 29280(%rbx), %ymm12 vmulpd %ymm0, %ymm12, %ymm15 vaddpd %ymm15, %ymm11, %ymm11 vmovapd 27520(%rbx), %ymm12 vmulpd %ymm8, %ymm12, %ymm15 vaddpd %ymm15, %ymm11, %ymm11 vmovapd 30080(%rbx), %ymm12 vmulpd %ymm4, %ymm12, %ymm15 vaddpd %ymm15, %ymm11, %ymm12 vmovapd %ymm12, 31968(%rbx) vmulpd 30144(%rbx), %ymm13, %ymm15 vmovapd %ymm15, 30176(%rbx) vmovapd 32032(%rbx), %ymm11 vmulpd %ymm12, %ymm11, %ymm11 vmovapd 32832(%rbx), %ymm12 vmulpd %ymm9, %ymm12, %ymm9 vmovapd %ymm9, 30720(%rbx) vaddpd %ymm15, %ymm9, %ymm9 vaddpd %ymm11, %ymm9, %ymm9 vmulpd 32352(%rbx), %ymm1, %ymm1 vaddpd %ymm1, %ymm10, %ymm1 vmulpd %ymm4, %ymm5, %ymm10 vmovapd 21088(%rbx), %ymm5 vaddpd %ymm10, %ymm5, %ymm5 vmovapd %ymm5, 30144(%rbx) vmulpd %ymm3, %ymm14, %ymm11 vmovapd 21120(%rbx), %ymm5 vaddpd %ymm11, %ymm5, %ymm5 vmovapd %ymm5, 30080(%rbx) vmovapd 32000(%rbx), %ymm15 vmulpd 31648(%rbx), %ymm15, %ymm15 vaddpd %ymm15, %ymm1, %ymm1 vmulpd 32416(%rbx), %ymm2, %ymm2 vaddpd %ymm2, %ymm1, %ymm1 vmovapd 28160(%rbx), %ymm2 vmulpd %ymm0, %ymm2, %ymm2 vmulpd 32224(%rbx), %ymm0, %ymm0 vaddpd %ymm0, %ymm9, %ymm0 vmovapd 28320(%rbx), %ymm5 vmulpd %ymm13, %ymm5, %ymm9 vaddpd %ymm2, %ymm9, %ymm2 vmovapd 28992(%rbx), %ymm5 vmulpd %ymm8, %ymm5, %ymm9 vaddpd %ymm9, %ymm2, %ymm2 vmovapd 29312(%rbx), %ymm5 vmulpd %ymm4, %ymm5, %ymm9 vaddpd %ymm9, %ymm2, %ymm5 vmovapd %ymm5, 32000(%rbx) vmovapd 31328(%rbx), %ymm2 vmulpd %ymm5, %ymm2, %ymm2 vaddpd %ymm2, %ymm0, %ymm0 vmulpd 32320(%rbx), %ymm8, %ymm2 vaddpd %ymm2, %ymm0, %ymm2 vmovapd 32064(%rbx), %ymm0 vmulpd %ymm7, %ymm0, %ymm0 vaddpd %ymm0, %ymm1, %ymm0 vmulpd 32256(%rbx), %ymm3, %ymm1 vaddpd %ymm1, %ymm0, %ymm15 vmovapd %ymm15, 30048(%rbx) vmulpd 27232(%rbx), %ymm15, %ymm0 vsubpd %ymm0, %ymm6, %ymm14 vmovapd %ymm14, 32064(%rbx) vmulpd 27392(%rbx), %ymm15, %ymm0 vmovapd 30016(%rbx), %ymm1 vsubpd %ymm0, %ymm1, %ymm0 vmovapd 31296(%rbx), %ymm1 vmulpd 31168(%rbx), %ymm1, %ymm1 vaddpd %ymm1, %ymm2, %ymm1 vmulpd 32288(%rbx), %ymm4, %ymm2 vaddpd %ymm2, %ymm1, %ymm10 vmovapd %ymm10, 30016(%rbx) vmulpd 27424(%rbx), %ymm10, %ymm1 vmovapd 29632(%rbx), %ymm2 vsubpd %ymm1, %ymm2, %ymm12 vmovapd %ymm12, 32032(%rbx) vmulpd 27296(%rbx), %ymm10, %ymm1 vmovapd 29984(%rbx), %ymm2 vsubpd %ymm1, %ymm2, %ymm8 vmovapd 28416(%rbx), %ymm1 vmulpd %ymm0, %ymm1, %ymm1 vmovapd 28384(%rbx), %ymm2 vmulpd %ymm14, %ymm2, %ymm2 vxorpd %ymm13, %ymm13, %ymm13 vaddpd %ymm13, %ymm2, %ymm2 vaddpd %ymm1, %ymm2, %ymm4 vmulpd 27328(%rbx), %ymm10, %ymm1 vmovapd 30752(%rbx), %ymm2 vsubpd %ymm1, %ymm2, %ymm2 vmulpd 27264(%rbx), %ymm15, %ymm1 vmovapd 30784(%rbx), %ymm3 vsubpd %ymm1, %ymm3, %ymm3 vmovapd 28480(%rbx), %ymm1 vmulpd %ymm8, %ymm1, %ymm1 vmovapd 27104(%rbx), %ymm5 vmulpd %ymm12, %ymm5, %ymm5 vaddpd %ymm13, %ymm5, %ymm5 vaddpd %ymm1, %ymm5, %ymm5 vmovapd 28672(%rbx), %ymm1 vmulpd %ymm0, %ymm1, %ymm1 vmovapd 28224(%rbx), %ymm6 vmulpd %ymm14, %ymm6, %ymm6 vaddpd %ymm13, %ymm6, %ymm6 vaddpd %ymm1, %ymm6, %ymm6 vmovapd 28256(%rbx), %ymm1 vmulpd %ymm8, %ymm1, %ymm1 vmovapd 28640(%rbx), %ymm7 vmulpd %ymm12, %ymm7, %ymm7 vaddpd %ymm13, %ymm7, %ymm7 vaddpd %ymm1, %ymm7, %ymm9 vmovapd 28768(%rbx), %ymm1 vmulpd %ymm8, %ymm1, %ymm1 vmovapd 28544(%rbx), %ymm7 vmulpd %ymm12, %ymm7, %ymm7 vaddpd %ymm13, %ymm7, %ymm7 vxorpd %ymm11, %ymm11, %ymm11 vaddpd %ymm1, %ymm7, %ymm13 vmovapd 27456(%rbx), %ymm1 vmulpd %ymm0, %ymm1, %ymm1 vmovapd 27360(%rbx), %ymm7 vmulpd %ymm14, %ymm7, %ymm7 vaddpd %ymm11, %ymm7, %ymm7 vaddpd %ymm1, %ymm7, %ymm7 vmovapd 28512(%rbx), %ymm1 vmulpd %ymm8, %ymm1, %ymm1 vmovapd 28896(%rbx), %ymm8 vmulpd %ymm12, %ymm8, %ymm8 vaddpd %ymm11, %ymm8, %ymm8 vaddpd %ymm1, %ymm8, %ymm12 vmulpd 27488(%rbx), %ymm15, %ymm1 vmovapd 30080(%rbx), %ymm8 vsubpd %ymm1, %ymm8, %ymm11 vmovapd %ymm11, 29632(%rbx) vmulpd 27552(%rbx), %ymm10, %ymm1 vmovapd 30144(%rbx), %ymm8 vsubpd %ymm1, %ymm8, %ymm10 vmovapd %ymm10, 29280(%rbx) vmovapd 29056(%rbx), %ymm1 vmulpd %ymm3, %ymm1, %ymm1 vaddpd %ymm1, %ymm7, %ymm7 vmovapd 28576(%rbx), %ymm1 vmulpd %ymm2, %ymm1, %ymm1 vaddpd %ymm1, %ymm13, %ymm8 vmovapd 28448(%rbx), %ymm1 vmulpd %ymm3, %ymm1, %ymm1 vaddpd %ymm1, %ymm4, %ymm4 vmovapd 28704(%rbx), %ymm1 vmulpd %ymm2, %ymm1, %ymm1 vaddpd %ymm1, %ymm9, %ymm9 vmovapd 28608(%rbx), %ymm1 vmulpd %ymm3, %ymm1, %ymm1 vaddpd %ymm1, %ymm6, %ymm6 vmovapd 28800(%rbx), %ymm1 vmulpd %ymm2, %ymm1, %ymm1 vaddpd %ymm1, %ymm5, %ymm5 vmovapd 29184(%rbx), %ymm1 vmulpd %ymm0, %ymm1, %ymm0 vmovapd 29120(%rbx), %ymm1 vmulpd %ymm14, %ymm1, %ymm1 vaddpd .LCPI1_88, %ymm1, %ymm1 vaddpd %ymm0, %ymm1, %ymm0 vmovapd 29152(%rbx), %ymm1 vmulpd %ymm3, %ymm1, %ymm1 vmovapd 28864(%rbx), %ymm3 vmulpd %ymm2, %ymm3, %ymm2 vaddpd %ymm2, %ymm12, %ymm2 vmovapd %ymm2, 29600(%rbx) vaddpd %ymm1, %ymm0, %ymm0 vmovapd %ymm0, 29312(%rbx) vmovapd 28736(%rbx), %ymm0 vmulpd %ymm10, %ymm0, %ymm0 vaddpd %ymm0, %ymm5, %ymm0 vmovapd %ymm0, 31328(%rbx) vmovapd 28832(%rbx), %ymm0 vmulpd %ymm11, %ymm0, %ymm0 vaddpd %ymm0, %ymm6, %ymm0 vmovapd %ymm0, 30752(%rbx) vmovapd 28928(%rbx), %ymm0 vmulpd %ymm10, %ymm0, %ymm0 vaddpd %ymm0, %ymm9, %ymm0 vmovapd %ymm0, 31296(%rbx) vmovapd 28960(%rbx), %ymm0 vmulpd %ymm11, %ymm0, %ymm0 vaddpd %ymm0, %ymm4, %ymm0 vmovapd %ymm0, 30144(%rbx) vmovapd 29024(%rbx), %ymm0 vmulpd %ymm10, %ymm0, %ymm0 vaddpd %ymm0, %ymm8, %ymm0 vmovapd %ymm0, 30784(%rbx) vmovapd 29088(%rbx), %ymm0 vmulpd %ymm11, %ymm0, %ymm0 vaddpd %ymm0, %ymm7, %ymm0 vmovapd %ymm0, 30080(%rbx) vmovapd 30624(%rbx), %xmm0 vmovapd 30592(%rbx), %xmm2 vmovapd 30560(%rbx), %xmm6 vmovapd 30528(%rbx), %xmm4 vmovapd 30496(%rbx), %xmm1 vmovapd 30464(%rbx), %xmm5 vmovapd 30432(%rbx), %xmm7 vmovapd 31200(%rbx), %xmm15 vmovapd 31008(%rbx), %xmm13 vmovapd 29344(%rbx), %xmm12 vmovapd 29248(%rbx), %xmm9 vmovapd 29216(%rbx), %xmm11 vmovapd 27648(%rbx), %xmm10 vmovapd 27616(%rbx), %xmm14 vmovapd 27584(%rbx), %xmm3 .LBB1_1983: vunpcklpd %xmm0, %xmm2, %xmm2 vunpcklpd %xmm5, %xmm7, %xmm0 vmovapd 29888(%rbx), %xmm5 vunpcklpd %xmm1, %xmm5, %xmm5 vmovapd 29920(%rbx), %xmm1 vunpcklpd %xmm4, %xmm1, %xmm8 vmovapd 29760(%rbx), %xmm1 vunpcklpd 29792(%rbx), %xmm1, %xmm7 vmovapd 29824(%rbx), %xmm1 vunpcklpd 29856(%rbx), %xmm1, %xmm4 vmovapd 29952(%rbx), %xmm1 vunpcklpd %xmm6, %xmm1, %xmm6 vunpcklpd %xmm3, %xmm14, %xmm3 vmovapd 29696(%rbx), %xmm1 vunpcklpd 29728(%rbx), %xmm1, %xmm1 vinsertf128 $1, %xmm5, %ymm8, %ymm8 vmovapd %ymm8, 31200(%rbx) vinsertf128 $1, %xmm1, %ymm7, %ymm5 vmovapd %ymm5, 30560(%rbx) vunpcklpd %xmm10, %xmm11, %xmm1 vinsertf128 $1, %xmm6, %ymm2, %ymm2 vmovapd %ymm2, 30624(%rbx) vinsertf128 $1, %xmm4, %ymm0, %ymm0 vmovapd %ymm0, 30592(%rbx) vunpcklpd %xmm9, %xmm12, %xmm0 vmovapd %xmm0, 30464(%rbx) vunpcklpd %xmm13, %xmm15, %xmm0 vmovapd %ymm0, 29888(%rbx) vinsertf128 $1, %xmm1, %ymm3, %ymm0 vmovapd %ymm0, 30528(%rbx) vmovapd .LCPI1_27(%rip), %ymm0 vmovapd %ymm0, %ymm1 vmulpd %ymm1, %ymm5, %ymm0 vmovapd %ymm1, %ymm9 vaddpd %ymm8, %ymm0, %ymm1 vaddpd %ymm1, %ymm5, %ymm1 vmovapd 30016(%rbx), %ymm2 vaddpd %ymm1, %ymm2, %ymm1 vmovapd %ymm1, 30432(%rbx) vmovapd .LCPI1_28(%rip), %ymm13 vmulpd %ymm13, %ymm2, %ymm1 vaddpd %ymm0, %ymm1, %ymm0 vmovapd %ymm0, 30496(%rbx) vmovapd 32896(%rbx), %ymm0 vmulpd 31264(%rbx), %ymm0, %ymm0 vmovapd 32448(%rbx), %ymm1 vmulpd 31936(%rbx), %ymm1, %ymm1 vaddpd %ymm0, %ymm1, %ymm0 vmovapd %ymm0, 29824(%rbx) vmovapd 32096(%rbx), %ymm0 vmovapd %ymm0, %ymm10 vmovapd .LCPI1_30(%rip), %ymm14 vmovapd %ymm14, %ymm15 vmovapd %ymm15, %ymm1 callq __ocl_svml_e9_pow4 vmovapd %ymm0, %ymm8 vmovapd %ymm8, 29920(%rbx) vmovapd 31104(%rbx), %ymm14 vmovapd %ymm14, %ymm0 vmovapd %ymm15, %ymm1 callq __ocl_svml_e9_pow4 vmovapd %ymm0, 30016(%rbx) vmovapd 31072(%rbx), %ymm1 vmulpd %ymm8, %ymm1, %ymm2 vmovapd %ymm2, 29856(%rbx) vmovapd %ymm1, %ymm8 vmovapd 31680(%rbx), %ymm11 vmulpd %ymm0, %ymm11, %ymm1 vmovapd %ymm1, 29984(%rbx) vmovapd %ymm2, %ymm0 callq __ocl_svml_e9_log8 vmovapd %ymm0, 31008(%rbx) vmovapd %ymm1, 29952(%rbx) vmovapd 30976(%rbx), %ymm0 vaddpd %ymm14, %ymm0, %ymm0 vaddpd %ymm0, %ymm11, %ymm0 vmovapd 30880(%rbx), %ymm1 vaddpd %ymm0, %ymm1, %ymm0 vmovapd %ymm0, 30880(%rbx) vmulpd %ymm15, %ymm8, %ymm11 vmovapd %ymm8, %ymm12 vmovapd %ymm10, %ymm8 vmovapd %ymm8, %ymm0 vmovaps .LCPI1_31(%rip), %ymm1 callq __ocl_svml_e9_pow4 vmulpd %ymm0, %ymm11, %ymm0 vmovapd %ymm0, 29152(%rbx) vmovapd 32896(%rbx), %ymm10 vmulpd 30400(%rbx), %ymm10, %ymm0 vmovapd 32512(%rbx), %ymm2 vmovapd 31936(%rbx), %ymm11 vmulpd %ymm11, %ymm2, %ymm1 vmovapd %ymm2, %ymm5 vaddpd %ymm0, %ymm1, %ymm6 vmovaps 29888(%rbx), %ymm0 vinsertf128 $1, 30464(%rbx), %ymm0, %ymm0 vmovaps %ymm0, 29184(%rbx) vmovapd 30592(%rbx), %ymm0 vmulpd %ymm9, %ymm0, %ymm7 vaddpd 30624(%rbx), %ymm7, %ymm1 vaddpd %ymm1, %ymm0, %ymm1 vmovapd 30048(%rbx), %ymm2 vmulpd %ymm13, %ymm2, %ymm9 vaddpd %ymm1, %ymm2, %ymm1 vmovapd %ymm1, 29248(%rbx) vmovapd 32576(%rbx), %ymm13 vmulpd 30240(%rbx), %ymm13, %ymm2 vmovapd 31712(%rbx), %ymm1 vmovapd 32800(%rbx), %ymm3 vmulpd %ymm1, %ymm3, %ymm3 vaddpd %ymm2, %ymm3, %ymm2 vmovapd %ymm2, 29216(%rbx) vmovapd 30944(%rbx), %ymm2 vaddpd %ymm8, %ymm2, %ymm3 vaddpd %ymm3, %ymm12, %ymm3 vmovapd 30912(%rbx), %ymm4 vaddpd %ymm3, %ymm4, %ymm2 vmovapd %ymm2, 29888(%rbx) vmovapd %ymm2, %ymm4 vmovapd 30528(%rbx), %ymm2 vmulpd 29280(%rbx), %ymm2, %ymm3 vmovapd %ymm3, 29280(%rbx) vmulpd 30816(%rbx), %ymm2, %ymm2 vmovapd %ymm2, 30912(%rbx) vmovapd %ymm10, %ymm12 vmulpd 30304(%rbx), %ymm12, %ymm8 vmovapd 32704(%rbx), %ymm2 vmulpd %ymm11, %ymm2, %ymm10 vaddpd %ymm8, %ymm10, %ymm2 vmovapd %ymm2, 29728(%rbx) vmulpd 31040(%rbx), %ymm12, %ymm8 vmovapd 32672(%rbx), %ymm2 vmulpd %ymm11, %ymm2, %ymm10 vmovapd %ymm11, %ymm2 vaddpd %ymm8, %ymm10, %ymm3 vmovapd %ymm3, 29696(%rbx) vmovapd .LCPI1_32(%rip), %ymm8 vmovapd %ymm8, %ymm10 vmovapd 32640(%rbx), %ymm8 vmulpd %ymm10, %ymm8, %ymm8 vmulpd 31232(%rbx), %ymm8, %ymm8 vmovapd %ymm8, 30528(%rbx) vmovapd 32928(%rbx), %ymm8 vmulpd %ymm10, %ymm8, %ymm8 vmulpd 31744(%rbx), %ymm8, %ymm8 vmovapd %ymm8, 30464(%rbx) vmovapd 30432(%rbx), %ymm3 vmulpd %ymm12, %ymm3, %ymm10 vmovapd %ymm10, 29792(%rbx) vmovapd 30880(%rbx), %ymm3 vmulpd 29824(%rbx), %ymm3, %ymm8 vmulpd 32448(%rbx), %ymm10, %ymm11 vaddpd %ymm8, %ymm11, %ymm8 vmovapd 30496(%rbx), %ymm11 vaddpd %ymm8, %ymm11, %ymm8 vaddpd %ymm7, %ymm9, %ymm7 vmovapd %ymm7, 29760(%rbx) vmulpd 30656(%rbx), %ymm13, %ymm7 vmovapd 32480(%rbx), %ymm9 vmulpd %ymm1, %ymm9, %ymm9 vaddpd %ymm7, %ymm9, %ymm7 vmovapd %ymm7, 29344(%rbx) vmulpd 30272(%rbx), %ymm13, %ymm7 vmovapd 32864(%rbx), %ymm9 vmulpd %ymm1, %ymm9, %ymm9 vaddpd %ymm7, %ymm9, %ymm7 vmovapd %ymm7, 29824(%rbx) vmulpd %ymm6, %ymm3, %ymm6 vmulpd %ymm5, %ymm10, %ymm7 vaddpd %ymm6, %ymm7, %ymm6 vmovapd 30624(%rbx), %ymm9 vmulpd 29152(%rbx), %ymm9, %ymm5 vmovapd 29920(%rbx), %ymm3 vmulpd %ymm0, %ymm3, %ymm7 vaddpd %ymm5, %ymm7, %ymm5 vmovapd 29664(%rbx), %ymm10 vmulpd 32288(%rbx), %ymm10, %ymm7 vsubpd %ymm7, %ymm6, %ymm6 vmovapd %ymm6, 30048(%rbx) vmovapd 29184(%rbx), %ymm3 vmulpd 29632(%rbx), %ymm3, %ymm6 vmovapd 29312(%rbx), %ymm7 vaddpd %ymm6, %ymm7, %ymm6 vmovapd %ymm6, 30432(%rbx) vmulpd 30336(%rbx), %ymm13, %ymm6 vmovapd 32544(%rbx), %ymm7 vmulpd %ymm1, %ymm7, %ymm7 vaddpd %ymm6, %ymm7, %ymm6 vmovapd %ymm6, 30496(%rbx) vmulpd %ymm13, %ymm9, %ymm6 vmovapd 32096(%rbx), %ymm11 vmulpd %ymm1, %ymm11, %ymm7 vaddpd %ymm7, %ymm6, %ymm1 vmovapd %ymm1, 31744(%rbx) vmovapd 31200(%rbx), %ymm1 vmulpd %ymm12, %ymm1, %ymm6 vmulpd %ymm2, %ymm14, %ymm7 vaddpd %ymm7, %ymm6, %ymm1 vmovapd %ymm1, 31232(%rbx) vsubpd 30176(%rbx), %ymm8, %ymm1 vmovapd %ymm1, 29920(%rbx) vmovapd 29248(%rbx), %ymm0 vmulpd %ymm13, %ymm0, %ymm0 vmovapd %ymm0, 32288(%rbx) vmovapd %ymm4, %ymm8 vmulpd 29216(%rbx), %ymm8, %ymm1 vmulpd 32800(%rbx), %ymm0, %ymm2 vaddpd %ymm1, %ymm2, %ymm0 vmovapd %ymm0, 30176(%rbx) vmovapd 29600(%rbx), %ymm1 vaddpd 29280(%rbx), %ymm1, %ymm0 vmovapd %ymm0, 30816(%rbx) vmovapd 29376(%rbx), %ymm1 vaddpd 30912(%rbx), %ymm1, %ymm0 vmovapd %ymm0, 30912(%rbx) vpermilpd $0, 20032(%rbx), %xmm1 vinsertf128 $1, %xmm1, %ymm1, %ymm12 vmovapd .LCPI1_27(%rip), %ymm2 vdivpd %ymm2, %ymm11, %ymm0 vmovapd %ymm0, 29376(%rbx) vdivpd 29856(%rbx), %ymm0, %ymm1 vmulpd %ymm5, %ymm1, %ymm1 vmulpd 30848(%rbx), %ymm3, %ymm0 vmovapd %ymm0, 29600(%rbx) vmovapd %ymm9, %ymm0 vmovapd 31072(%rbx), %ymm3 vmulpd %ymm0, %ymm3, %ymm3 vmovapd %ymm3, 29312(%rbx) vdivpd %ymm2, %ymm0, %ymm0 vmovapd 31008(%rbx), %ymm2 vmulpd %ymm0, %ymm2, %ymm0 vaddpd %ymm1, %ymm0, %ymm0 vmovapd %ymm0, 29280(%rbx) vmovapd 31680(%rbx), %ymm9 vmulpd %ymm15, %ymm9, %ymm15 vmovapd %ymm14, %ymm0 vmovaps .LCPI1_31(%rip), %ymm1 callq __ocl_svml_e9_pow4 vmulpd %ymm0, %ymm15, %ymm0 vmovapd %ymm0, 29632(%rbx) vmovapd 30880(%rbx), %ymm0 vmulpd 29696(%rbx), %ymm0, %ymm1 vmovapd %ymm1, 29696(%rbx) vmulpd 29728(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 30848(%rbx) vmulpd 32224(%rbx), %ymm10, %ymm0 vmovapd %ymm0, 30624(%rbx) vmulpd 32320(%rbx), %ymm10, %ymm0 vmovapd %ymm0, 31072(%rbx) vmovapd 31136(%rbx), %ymm0 vmulpd 32416(%rbx), %ymm0, %ymm1 vmovapd %ymm1, 30880(%rbx) vmulpd 32256(%rbx), %ymm0, %ymm1 vmovapd %ymm1, 32320(%rbx) vmulpd 32352(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 29856(%rbx) vmovapd 32736(%rbx), %ymm0 vmulpd 30208(%rbx), %ymm0, %ymm1 vmovapd %ymm1, 31136(%rbx) vmulpd 31616(%rbx), %ymm0, %ymm1 vmovapd %ymm1, 32352(%rbx) vmulpd 31648(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 32224(%rbx) vmovapd 32832(%rbx), %ymm0 vmulpd 31168(%rbx), %ymm0, %ymm1 vmovapd %ymm1, 31648(%rbx) vmulpd 31968(%rbx), %ymm0, %ymm1 vmovapd %ymm1, 31968(%rbx) vmulpd 32000(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 32256(%rbx) vmovapd %ymm8, %ymm11 vmulpd 29344(%rbx), %ymm11, %ymm0 vmovapd 32288(%rbx), %ymm8 vmulpd 32480(%rbx), %ymm8, %ymm1 vaddpd %ymm0, %ymm1, %ymm0 vmovapd 29760(%rbx), %ymm1 vaddpd %ymm0, %ymm1, %ymm0 vmovapd %ymm0, 32832(%rbx) vmovapd 32096(%rbx), %ymm0 vmovapd 30592(%rbx), %ymm1 vdivpd %ymm0, %ymm1, %ymm1 vmovapd %ymm1, 32000(%rbx) vmovapd 30944(%rbx), %ymm1 vdivpd %ymm0, %ymm1, %ymm1 vmovapd %ymm1, 32736(%rbx) vmovapd .LCPI1_24(%rip), %ymm10 vmovapd %ymm10, %ymm1 callq __ocl_svml_e9_pow4 vmovapd 29312(%rbx), %ymm1 vdivpd %ymm0, %ymm1, %ymm0 vmovapd %ymm0, 32096(%rbx) vmovapd 29408(%rbx), %ymm0 vaddpd 29600(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 32416(%rbx) vmovapd 29376(%rbx), %ymm0 vmulpd 31008(%rbx), %ymm0, %ymm0 vmovapd 29280(%rbx), %ymm1 vmulpd %ymm13, %ymm1, %ymm1 vmulpd 31712(%rbx), %ymm0, %ymm0 vaddpd %ymm0, %ymm1, %ymm0 vmovapd %ymm0, 31616(%rbx) vmovapd 31200(%rbx), %ymm15 vmulpd %ymm15, %ymm9, %ymm9 vmovapd %ymm14, %ymm0 vmovapd %ymm10, %ymm1 callq __ocl_svml_e9_pow4 vdivpd %ymm0, %ymm9, %ymm0 vmulpd 29824(%rbx), %ymm11, %ymm1 vmulpd 32864(%rbx), %ymm8, %ymm2 vaddpd %ymm1, %ymm2, %ymm1 vmovapd %ymm1, 31680(%rbx) vmovapd 32672(%rbx), %ymm1 vmovapd 29792(%rbx), %ymm3 vmulpd %ymm1, %ymm3, %ymm2 vaddpd 29696(%rbx), %ymm2, %ymm2 vmovapd %ymm2, 31168(%rbx) vmovapd %ymm15, %ymm4 vmulpd 29632(%rbx), %ymm4, %ymm2 vmovapd .LCPI1_27(%rip), %ymm6 vdivpd %ymm6, %ymm4, %ymm4 vmovapd 29952(%rbx), %ymm8 vmulpd %ymm4, %ymm8, %ymm4 vdivpd %ymm6, %ymm14, %ymm5 vmovapd %ymm6, %ymm15 vdivpd 29984(%rbx), %ymm5, %ymm7 vmulpd %ymm8, %ymm5, %ymm6 vmovapd 30976(%rbx), %ymm5 vdivpd %ymm14, %ymm5, %ymm9 vmovapd 30560(%rbx), %ymm11 vdivpd %ymm14, %ymm11, %ymm5 vmovapd 30016(%rbx), %ymm8 vmulpd %ymm11, %ymm8, %ymm11 vaddpd %ymm2, %ymm11, %ymm2 vmulpd %ymm2, %ymm7, %ymm2 vaddpd %ymm2, %ymm4, %ymm2 vmulpd 31936(%rbx), %ymm6, %ymm4 vmulpd 32896(%rbx), %ymm2, %ymm2 vaddpd %ymm4, %ymm2, %ymm6 vsubpd %ymm0, %ymm5, %ymm4 vmovapd 32000(%rbx), %ymm0 vsubpd 32096(%rbx), %ymm0, %ymm5 vmovapd 32832(%rbx), %ymm0 vsubpd 30368(%rbx), %ymm0, %ymm7 vmovapd 32064(%rbx), %ymm11 vmovapd 32736(%rbx), %ymm2 vdivpd %ymm2, %ymm11, %ymm0 vmovapd 31616(%rbx), %ymm8 vaddpd %ymm0, %ymm8, %ymm0 vmovapd %ymm0, 31616(%rbx) vmovapd 31168(%rbx), %ymm0 vsubpd 30624(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 31168(%rbx) vmovapd 31680(%rbx), %ymm0 vsubpd 29856(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 31200(%rbx) vmovapd 32704(%rbx), %ymm0 vmulpd %ymm0, %ymm3, %ymm3 vaddpd 30848(%rbx), %ymm3, %ymm3 vmovapd 32032(%rbx), %ymm8 vmovapd 32448(%rbx), %ymm14 vmulpd %ymm8, %ymm14, %ymm14 vmovapd %ymm14, 31104(%rbx) vmulpd %ymm8, %ymm1, %ymm1 vmovapd %ymm1, 32000(%rbx) vmovapd 32512(%rbx), %ymm1 vmulpd %ymm8, %ymm1, %ymm1 vmovapd %ymm1, 31680(%rbx) vmulpd %ymm8, %ymm0, %ymm0 vmovapd %ymm0, 32512(%rbx) vdivpd %ymm9, %ymm8, %ymm8 vaddpd %ymm8, %ymm6, %ymm0 vmovapd %ymm0, 30848(%rbx) vsubpd 30688(%rbx), %ymm7, %ymm0 vmovapd %ymm0, 30944(%rbx) vmovapd 29920(%rbx), %ymm0 vsubpd 30720(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 30720(%rbx) vmulpd %ymm15, %ymm5, %ymm8 vmulpd %ymm15, %ymm4, %ymm0 vmovapd %ymm0, 32832(%rbx) vmovapd 32192(%rbx), %ymm4 vmovapd 30272(%rbx), %ymm0 vmulpd %ymm4, %ymm0, %ymm0 vmovapd %ymm0, 32448(%rbx) vmovapd 30656(%rbx), %ymm0 vmulpd %ymm4, %ymm0, %ymm0 vmovapd %ymm0, 32096(%rbx) vmovapd 30336(%rbx), %ymm0 vmulpd %ymm4, %ymm0, %ymm0 vmovapd %ymm0, 32672(%rbx) vmovapd 30240(%rbx), %ymm5 vmulpd %ymm4, %ymm5, %ymm0 vmovapd %ymm0, 32704(%rbx) vmulpd %ymm4, %ymm8, %ymm4 vmulpd %ymm2, %ymm2, %ymm14 vdivpd %ymm14, %ymm4, %ymm4 vmovapd 31616(%rbx), %ymm0 vsubpd %ymm4, %ymm0, %ymm0 vmovapd %ymm0, 31008(%rbx) vmovapd 30176(%rbx), %ymm0 vsubpd 30880(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 30976(%rbx) vsubpd 31072(%rbx), %ymm3, %ymm0 vmovapd %ymm0, 31616(%rbx) vmovapd 31200(%rbx), %ymm0 vsubpd 31136(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 31200(%rbx) vmovapd 31168(%rbx), %ymm0 vsubpd 31968(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 31168(%rbx) vmovapd 30048(%rbx), %ymm0 vsubpd 31648(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 31136(%rbx) vmovapd 32928(%rbx), %ymm0 vmovapd %ymm10, %ymm1 callq __ocl_svml_e9_pow4 vmovapd .LCPI1_32(%rip), %ymm15 vmulpd %ymm15, %ymm0, %ymm0 vmovapd %ymm0, 31968(%rbx) vmulpd %ymm0, %ymm8, %ymm0 vdivpd %ymm14, %ymm0, %ymm0 vmovapd %ymm0, 30880(%rbx) vmovapd 32160(%rbx), %ymm0 vmovapd 30400(%rbx), %ymm1 vmulpd %ymm0, %ymm1, %ymm1 vmovapd %ymm1, 32032(%rbx) vmovapd 31040(%rbx), %ymm1 vmulpd %ymm0, %ymm1, %ymm1 vmovapd %ymm1, 31648(%rbx) vmovapd 31264(%rbx), %ymm1 vmulpd %ymm0, %ymm1, %ymm1 vmovapd %ymm1, 31264(%rbx) vmovapd 30304(%rbx), %ymm1 vmulpd %ymm0, %ymm1, %ymm1 vmovapd %ymm1, 32192(%rbx) vmovapd 32832(%rbx), %ymm1 vmulpd %ymm0, %ymm1, %ymm0 vmulpd %ymm9, %ymm9, %ymm14 vdivpd %ymm14, %ymm0, %ymm0 vmovapd 30848(%rbx), %ymm1 vsubpd %ymm0, %ymm1, %ymm0 vmovapd %ymm0, 31040(%rbx) vmovapd 31104(%rbx), %ymm0 vaddpd 30720(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 32160(%rbx) vmovapd 32480(%rbx), %ymm0 vmulpd %ymm11, %ymm0, %ymm0 vaddpd 30944(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 31072(%rbx) vmovapd 30464(%rbx), %ymm0 vmovapd 32736(%rbx), %ymm1 vdivpd %ymm1, %ymm0, %ymm8 vmovapd 30528(%rbx), %ymm0 vdivpd %ymm9, %ymm0, %ymm0 vmovapd %ymm0, 30848(%rbx) vmulpd %ymm10, %ymm1, %ymm0 vmovapd %ymm0, 31104(%rbx) vmulpd %ymm10, %ymm9, %ymm0 vmovapd %ymm0, 32928(%rbx) vmovapd 32640(%rbx), %ymm0 vmovapd %ymm10, %ymm1 callq __ocl_svml_e9_pow4 vmulpd %ymm15, %ymm0, %ymm9 vmovapd %ymm9, 30944(%rbx) vmulpd %ymm8, %ymm13, %ymm0 vmovapd 31008(%rbx), %ymm1 vsubpd %ymm0, %ymm1, %ymm0 vmovapd %ymm0, 31008(%rbx) vmovapd 30976(%rbx), %ymm0 vsubpd 32224(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 30976(%rbx) vmulpd 30432(%rbx), %ymm13, %ymm0 vmovapd %ymm0, 32640(%rbx) vmulpd 30144(%rbx), %ymm13, %ymm0 vmovapd %ymm0, 32736(%rbx) vmulpd 30080(%rbx), %ymm13, %ymm0 vmovapd %ymm0, 32480(%rbx) vmulpd 30752(%rbx), %ymm13, %ymm0 vmovapd %ymm0, 32224(%rbx) vmulpd 30880(%rbx), %ymm13, %ymm7 vmovapd 31136(%rbx), %ymm0 vaddpd 31680(%rbx), %ymm0, %ymm8 vmovapd 31168(%rbx), %ymm0 vaddpd 32000(%rbx), %ymm0, %ymm0 vmovapd 32864(%rbx), %ymm1 vmulpd %ymm11, %ymm1, %ymm1 vmovapd 31200(%rbx), %ymm2 vaddpd %ymm1, %ymm2, %ymm5 vmovapd 31616(%rbx), %ymm1 vsubpd 32256(%rbx), %ymm1, %ymm4 vmovapd 32800(%rbx), %ymm1 vmulpd %ymm11, %ymm1, %ymm1 vmovapd 32544(%rbx), %ymm2 vmulpd %ymm11, %ymm2, %ymm3 vmovapd 32288(%rbx), %ymm6 vmulpd %ymm2, %ymm6, %ymm2 vmovapd 29888(%rbx), %ymm6 vmulpd 30496(%rbx), %ymm6, %ymm6 vaddpd %ymm6, %ymm2, %ymm2 vsubpd 32320(%rbx), %ymm2, %ymm2 vsubpd 32352(%rbx), %ymm2, %ymm6 vmovapd 32896(%rbx), %ymm10 vmulpd 30848(%rbx), %ymm10, %ymm2 vmovapd 31040(%rbx), %ymm11 vsubpd %ymm2, %ymm11, %ymm2 vaddpd %ymm3, %ymm6, %ymm3 vaddpd 32512(%rbx), %ymm4, %ymm6 vmovapd 32832(%rbx), %ymm4 vmulpd %ymm9, %ymm4, %ymm4 vdivpd %ymm14, %ymm4, %ymm15 vmovapd 32096(%rbx), %ymm4 vaddpd 31072(%rbx), %ymm4, %ymm4 vmovapd 31264(%rbx), %ymm9 vaddpd 32160(%rbx), %ymm9, %ymm14 vaddpd 32448(%rbx), %ymm5, %ymm11 vaddpd 31648(%rbx), %ymm0, %ymm9 vaddpd 32032(%rbx), %ymm8, %ymm0 vmovapd 31968(%rbx), %ymm5 vdivpd 31104(%rbx), %ymm5, %ymm5 vmovapd 31008(%rbx), %ymm8 vaddpd %ymm7, %ymm8, %ymm7 vmovapd %ymm7, 32576(%rbx) vmovapd 30976(%rbx), %ymm7 vaddpd %ymm1, %ymm7, %ymm13 vmovapd %ymm10, %ymm1 vmulpd 30816(%rbx), %ymm1, %ymm7 vmovapd %ymm7, 32864(%rbx) vmulpd 31296(%rbx), %ymm1, %ymm7 vmovapd %ymm7, 32832(%rbx) vmulpd 30784(%rbx), %ymm1, %ymm7 vmovapd %ymm7, 32800(%rbx) vmulpd 31328(%rbx), %ymm1, %ymm7 vmovapd %ymm7, 32544(%rbx) vmulpd %ymm15, %ymm1, %ymm1 vaddpd 32192(%rbx), %ymm6, %ymm6 vaddpd 32672(%rbx), %ymm3, %ymm3 vaddpd %ymm1, %ymm2, %ymm1 vmovapd 31936(%rbx), %ymm10 vmulpd 29472(%rbx), %ymm10, %ymm2 vaddpd %ymm14, %ymm2, %ymm14 vmovapd 31712(%rbx), %ymm7 vmulpd 29440(%rbx), %ymm7, %ymm2 vaddpd %ymm4, %ymm2, %ymm15 vmovapd %ymm7, %ymm2 vmulpd 32416(%rbx), %ymm2, %ymm8 vmulpd 29536(%rbx), %ymm2, %ymm7 vmulpd 29504(%rbx), %ymm2, %ymm4 vmulpd %ymm5, %ymm2, %ymm5 vmulpd 30912(%rbx), %ymm10, %ymm2 vaddpd %ymm2, %ymm0, %ymm0 vmulpd 29568(%rbx), %ymm10, %ymm2 vaddpd %ymm2, %ymm9, %ymm2 vaddpd %ymm4, %ymm11, %ymm4 vaddpd %ymm8, %ymm3, %ymm3 vmulpd 30112(%rbx), %ymm10, %ymm8 vaddpd %ymm8, %ymm6, %ymm6 vaddpd 32704(%rbx), %ymm13, %ymm8 vaddpd %ymm7, %ymm8, %ymm7 vmovapd 30944(%rbx), %ymm8 vdivpd 32928(%rbx), %ymm8, %ymm8 vmulpd %ymm8, %ymm10, %ymm8 vsubpd %ymm8, %ymm1, %ymm9 vmovapd 32576(%rbx), %ymm1 vsubpd %ymm5, %ymm1, %ymm13 vaddpd 32224(%rbx), %ymm7, %ymm8 vaddpd 32544(%rbx), %ymm6, %ymm1 vaddpd 32640(%rbx), %ymm3, %ymm3 vmovapd 32480(%rbx), %ymm5 vaddpd %ymm15, %ymm5, %ymm10 vmovapd 32800(%rbx), %ymm5 vaddpd %ymm14, %ymm5, %ymm11 vaddpd 32736(%rbx), %ymm4, %ymm15 vaddpd 32832(%rbx), %ymm2, %ymm14 vaddpd 32864(%rbx), %ymm0, %ymm2 vmovapd 31232(%rbx), %ymm0 vmulpd %ymm12, %ymm0, %ymm0 vmovapd %ymm0, 32928(%rbx) vmovapd 32128(%rbx), %ymm0 vmulpd %ymm12, %ymm0, %ymm5 vmovapd 31744(%rbx), %ymm0 vmulpd %ymm12, %ymm0, %ymm0 vmovapd %ymm0, 32864(%rbx) vmovapd 31776(%rbx), %ymm0 vmulpd %ymm12, %ymm0, %ymm7 vmovapd 31840(%rbx), %ymm0 vmulpd %ymm12, %ymm0, %ymm4 vmovapd 31808(%rbx), %ymm0 vmulpd %ymm12, %ymm0, %ymm6 vmovapd 31904(%rbx), %ymm0 vmulpd %ymm12, %ymm0, %ymm0 vmovapd %ymm0, 32896(%rbx) vmovapd 31872(%rbx), %ymm0 vmulpd %ymm12, %ymm0, %ymm0 vmulpd %ymm12, %ymm2, %ymm2 vmovapd %ymm2, 32800(%rbx) vmulpd %ymm12, %ymm3, %ymm2 vmovapd %ymm2, 32832(%rbx) vmulpd %ymm12, %ymm13, %ymm3 vmulpd %ymm12, %ymm1, %ymm1 vmulpd %ymm12, %ymm9, %ymm2 vmulpd %ymm12, %ymm8, %ymm13 vmulpd %ymm12, %ymm14, %ymm8 vmulpd %ymm12, %ymm15, %ymm15 vmulpd %ymm12, %ymm11, %ymm9 vmulpd %ymm12, %ymm10, %ymm12 movq %r12, %r11 vmovdqa .LCPI1_17(%rip), %xmm14 vpcmpeqd %xmm11, %xmm11, %xmm11 movabsq $8589934592, %rdx vmovaps 23488(%rbx), %ymm10 .LBB1_1984: vmovapd %ymm12, 768(%r11,%r13) vmovapd %ymm9, 800(%r11,%r13) vmovapd %ymm8, 736(%r11,%r13) vmovapd %ymm15, 704(%r11,%r13) vmovapd %ymm1, 672(%r11,%r13) vmovapd %ymm13, 640(%r11,%r13) vmovaps 32800(%rbx), %ymm1 vmovaps %ymm1, 608(%r11,%r13) vmovaps 32832(%rbx), %ymm1 vmovaps %ymm1, 576(%r11,%r13) vmovapd %ymm2, 544(%r11,%r13) vmovapd %ymm3, 512(%r11,%r13) vextractf128 $1, %ymm5, %xmm3 vextractf128 $1, %ymm7, %xmm2 vmovlpd %xmm7, 832(%r11,%r13) vextractf128 $1, %ymm6, %xmm1 vmovhpd %xmm7, 840(%r11,%r13) vextractf128 $1, %ymm4, %xmm7 vmovlpd %xmm2, 848(%r11,%r13) vmovhpd %xmm2, 856(%r11,%r13) vmovlpd %xmm5, 864(%r11,%r13) vmovhpd %xmm5, 872(%r11,%r13) vmovlpd %xmm3, 880(%r11,%r13) vmovhpd %xmm3, 888(%r11,%r13) vmovlpd %xmm6, 896(%r11,%r13) vmovhpd %xmm6, 904(%r11,%r13) vmovapd 32928(%rbx), %ymm3 vextractf128 $1, %ymm3, %xmm5 vmovlpd %xmm1, 912(%r11,%r13) vmovhpd %xmm1, 920(%r11,%r13) vmovapd 32864(%rbx), %ymm8 vextractf128 $1, %ymm8, %xmm6 vmovlpd %xmm4, 928(%r11,%r13) vmovhpd %xmm4, 936(%r11,%r13) vmovapd 32896(%rbx), %ymm4 vextractf128 $1, %ymm4, %xmm1 vmovlpd %xmm7, 944(%r11,%r13) vmovhpd %xmm7, 952(%r11,%r13) vextractf128 $1, %ymm0, %xmm2 vmovlpd %xmm0, 960(%r11,%r13) vmovhpd %xmm0, 968(%r11,%r13) vmovlpd %xmm2, 976(%r11,%r13) vmovhpd %xmm2, 984(%r11,%r13) vmovlpd %xmm4, 992(%r11,%r13) vmovhpd %xmm4, 1000(%r11,%r13) vmovlpd %xmm1, 1008(%r11,%r13) vmovhpd %xmm1, 1016(%r11,%r13) vmovlpd %xmm8, 1024(%r11,%r13) vmovhpd %xmm8, 1032(%r11,%r13) vmovlpd %xmm6, 1040(%r11,%r13) vmovhpd %xmm6, 1048(%r11,%r13) vmovlpd %xmm3, 1056(%r11,%r13) vmovhpd %xmm3, 1064(%r11,%r13) vmovlpd %xmm5, 1072(%r11,%r13) vmovhpd %xmm5, 1080(%r11,%r13) vmovaps .LCPI1_6(%rip), %ymm15 vandps 448(%r11,%r13), %ymm15, %ymm0 vextractf128 $1, %ymm0, %xmm1 vxorpd %xmm2, %xmm2, %xmm2 vpcmpeqd %xmm2, %xmm1, %xmm1 vpxor %xmm11, %xmm1, %xmm1 vmovdqa .LCPI1_5(%rip), %xmm7 vpshufb %xmm7, %xmm1, %xmm1 vpcmpeqd %xmm2, %xmm0, %xmm0 vpxor %xmm11, %xmm0, %xmm0 vpshufb %xmm7, %xmm0, %xmm0 vmovlhps %xmm1, %xmm0, %xmm1 vpunpckhbw %xmm0, %xmm1, %xmm0 vpslld $31, %xmm0, %xmm2 vpmovsxdq %xmm2, %xmm0 vmovhlps %xmm2, %xmm2, %xmm2 vpmovsxdq %xmm2, %xmm2 vinsertf128 $1, %xmm2, %ymm0, %ymm0 vblendvpd %ymm0, %ymm10, %ymm10, %ymm0 vpunpcklbw %xmm0, %xmm1, %xmm1 vpslld $31, %xmm1, %xmm2 vpmovsxdq %xmm2, %xmm1 vmovaps %ymm0, 1120(%r11,%r13) vmovhlps %xmm2, %xmm2, %xmm2 vpmovsxdq %xmm2, %xmm2 vinsertf128 $1, %xmm2, %ymm1, %ymm1 vblendvpd %ymm1, %ymm10, %ymm10, %ymm4 vmovapd %ymm4, 1088(%r11,%r13) vmovaps 192(%r11,%r13), %ymm5 vextractf128 $1, %ymm0, %xmm3 vpsrlq $32, %xmm0, %xmm1 vextractf128 $1, %ymm4, %xmm2 vpsrlq $32, %xmm4, %xmm8 vextractf128 $1, %ymm5, %xmm4 vmovdqa .LCPI1_33(%rip), %xmm0 vpcmpeqd %xmm0, %xmm4, %xmm4 vpcmpeqd %xmm0, %xmm5, %xmm5 vinsertf128 $1, %xmm4, %ymm5, %ymm4 vpsrlq $32, %xmm2, %xmm10 vpsrlq $32, %xmm3, %xmm3 vandps %ymm15, %ymm4, %ymm4 movl 232(%r11,%r13), %eax movl %eax, 32800(%rbx) movl 104(%r11,%r13), %eax movl %eax, 32736(%rbx) vmovaps 64(%r11,%r13), %ymm9 vmovaps %ymm9, 32448(%rbx) vextractf128 $1, %ymm9, %xmm5 vmovdqa .LCPI1_34(%rip), %xmm0 vpcmpgtd %xmm0, %xmm5, %xmm6 vmovaps %ymm4, 1152(%r11,%r13) vpshufb %xmm7, %xmm6, %xmm2 vmovdqa %xmm2, 32416(%rbx) vmovdqa .LCPI1_35(%rip), %xmm6 vpaddd %xmm6, %xmm5, %xmm4 vinsertf128 $1, %xmm3, %ymm1, %ymm1 vmovaps %ymm1, 32352(%rbx) vpaddd %xmm6, %xmm9, %xmm3 vpcmpgtd %xmm0, %xmm9, %xmm1 vpshufb %xmm7, %xmm1, %xmm1 vinsertf128 $1, %xmm10, %ymm8, %ymm5 vmovaps %ymm5, 32320(%rbx) vinsertf128 $1, %xmm4, %ymm3, %ymm3 vmovaps %ymm3, 32288(%rbx) vmovaps 64(%r11,%r13), %ymm5 vmovaps %ymm5, 32256(%rbx) vmovlhps %xmm2, %xmm1, %xmm6 vextractf128 $1, %ymm5, %xmm2 vmovdqa .LCPI1_36(%rip), %xmm3 vpcmpgtd %xmm5, %xmm3, %xmm1 vpcmpgtd %xmm2, %xmm3, %xmm4 vpaddd %xmm0, %xmm5, %xmm3 vpaddd %xmm0, %xmm2, %xmm9 movl $9, 32224(%rbx) vmovdqa 384(%r11,%r13), %ymm5 vpaddd %xmm5, %xmm3, %xmm3 vmovdqa .LCPI1_8(%rip), %xmm0 vpmulld %xmm0, %xmm3, %xmm3 vpshufb %xmm7, %xmm4, %xmm2 vmovdqa %xmm2, 32192(%rbx) movl 96(%r11,%r13), %ecx vpshufb %xmm7, %xmm1, %xmm1 vxorps %xmm14, %xmm6, %xmm4 vmovaps %xmm4, 32160(%rbx) vextractf128 $1, %ymm5, %xmm5 leal 67108863(%rcx), %eax vmovhlps %xmm3, %xmm3, %xmm4 vmovlhps %xmm2, %xmm1, %xmm6 vpmovsxdq %xmm3, %xmm8 vpaddd %xmm0, %xmm3, %xmm1 shll $6, %eax vpaddd %xmm5, %xmm9, %xmm2 vpmulld %xmm0, %xmm2, %xmm2 vmovhlps %xmm2, %xmm2, %xmm5 vxorps %xmm14, %xmm6, %xmm3 vmovaps %xmm3, 32128(%rbx) vpmovsxdq %xmm2, %xmm3 vpmovsxdq %xmm4, %xmm4 vpmovsxdq %xmm5, %xmm6 vmovdqa 128(%r11,%r13), %ymm5 vpaddd %xmm0, %xmm2, %xmm2 vpsllq $32, %xmm5, %xmm5 addl $67108862, %ecx shll $6, %ecx vmovd %ecx, %xmm7 vmovd %xmm5, %rcx movq %rcx, 31328(%rbx) vpshufd $0, %xmm7, %xmm7 vmovhlps %xmm2, %xmm2, %xmm5 vpmovsxdq %xmm2, %xmm2 vinsertf128 $1, %xmm6, %ymm3, %ymm0 vmovaps %ymm0, 32096(%rbx) vpmovsxdq %xmm1, %xmm3 vmovhlps %xmm1, %xmm1, %xmm1 vinsertf128 $1, %xmm4, %ymm8, %ymm0 vmovaps %ymm0, 32064(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 32032(%rbx) vmovd %eax, %xmm0 vpshufd $0, %xmm0, %xmm0 leaq (%rcx,%rdx), %rax movslq 416(%r11,%r13), %rcx vpmovsxdq %xmm1, %xmm1 vpmovsxdq %xmm5, %xmm4 leaq 33216(%rbx), %rdx leaq (%rdx,%rcx,8), %rdx movq %rdx, 32000(%rbx) leaq 33024(%rbx,%rcx,8), %rdx movq %rdx, 31968(%rbx) leaq 33792(%rbx), %rdx leaq (%rdx,%rcx,8), %rdx movq %rdx, 31936(%rbx) leaq 33120(%rbx,%rcx,8), %rdx movq %rdx, 31904(%rbx) sarq $32, %rax leaq 33984(%rbx), %rdx leaq (%rdx,%rcx,8), %rsi movq %rsi, 31872(%rbx) leaq 33312(%rbx,%rcx,8), %rsi movq %rsi, 31840(%rbx) leaq 34080(%rbx,%rcx,8), %rsi movq %rsi, 31808(%rbx) leaq 33888(%rbx,%rcx,8), %rcx movq %rcx, 31776(%rbx) vinsertf128 $1, %xmm4, %ymm2, %ymm2 vmovaps %ymm2, 32864(%rbx) vinsertf128 $1, %xmm1, %ymm3, %ymm1 vmovaps %ymm1, 32704(%rbx) vinsertf128 $1, %xmm0, %ymm0, %ymm0 vmovaps %ymm0, 31744(%rbx) leaq (%rdx,%rax,8), %rcx movq %rcx, 31712(%rbx) leaq 33024(%rbx,%rax,8), %rcx movq %rcx, 31680(%rbx) leaq 33120(%rbx,%rax,8), %rcx movq %rcx, 31648(%rbx) leaq 34080(%rbx,%rax,8), %rax movq %rax, 31616(%rbx) xorl %r14d, %r14d xorl %eax, %eax xorl %r8d, %r8d .align 16, 0x90 .LBB1_1985: movq %r8, 32640(%rbx) movq %rax, 32672(%rbx) vmovaps 192(%r11,%r13), %ymm1 vextractf128 $1, %ymm1, %xmm4 vmovaps .LCPI1_3(%rip), %xmm2 vxorps %xmm2, %xmm4, %xmm0 vxorps %xmm2, %xmm1, %xmm2 vmovdqa .LCPI1_37(%rip), %xmm5 vpcmpgtd %xmm2, %xmm5, %xmm3 vpcmpgtd %xmm0, %xmm5, %xmm2 vmovaps 32320(%rbx), %ymm7 vextractf128 $1, %ymm7, %xmm5 vmovd %rax, %xmm0 vmovlhps %xmm0, %xmm0, %xmm0 vmovdqa .LCPI1_5(%rip), %xmm6 vpshufb %xmm6, %xmm2, %xmm9 vpshufb %xmm6, %xmm3, %xmm3 vpaddq %xmm0, %xmm5, %xmm2 vpxor %xmm8, %xmm8, %xmm8 vpcmpeqd %xmm8, %xmm4, %xmm4 vpaddq %xmm0, %xmm7, %xmm5 vpshufd $8, %xmm5, %xmm5 vpshufb %xmm6, %xmm4, %xmm7 vpcmpeqd %xmm8, %xmm1, %xmm8 vinsertf128 $1, %xmm4, %ymm8, %ymm1 vpshufd $8, %xmm2, %xmm2 vpshufb %xmm6, %xmm8, %xmm4 vmovlhps %xmm7, %xmm4, %xmm10 vmovaps 32352(%rbx), %ymm8 vextractf128 $1, %ymm8, %xmm7 vmovlhps %xmm9, %xmm3, %xmm4 vmovaps %xmm4, 32576(%rbx) vmovlhps %xmm2, %xmm5, %xmm3 vpaddq %xmm0, %xmm8, %xmm2 vpaddq %xmm0, %xmm7, %xmm5 vandps %ymm15, %ymm1, %ymm0 vpshufd $8, %xmm5, %xmm1 vpshufd $8, %xmm2, %xmm2 vmovlhps %xmm1, %xmm2, %xmm2 vmovdqa .LCPI1_38(%rip), %xmm5 vpmulld %xmm5, %xmm3, %xmm1 vandps %xmm10, %xmm4, %xmm7 vmovaps %xmm7, 32928(%rbx) vmovdqa 32448(%rbx), %ymm3 vpcmpgtd .LCPI1_34(%rip), %xmm3, %xmm3 vpshufb %xmm6, %xmm3, %xmm4 vmovd %r8, %xmm3 vmovaps 32416(%rbx), %xmm6 vmovlhps %xmm6, %xmm4, %xmm15 vpmulld %xmm5, %xmm2, %xmm2 vmovlhps %xmm3, %xmm3, %xmm3 vmovaps %ymm3, 32544(%rbx) vxorps %xmm14, %xmm7, %xmm3 vmovaps %ymm0, 1184(%r11,%r13) vorps %xmm3, %xmm15, %xmm0 vpmovzxwd %xmm0, %xmm3 vpslld $31, %xmm3, %xmm3 vinsertf128 $1, %xmm2, %ymm1, %ymm1 vmovaps %ymm1, 32832(%rbx) vorps .LCPI1_39(%rip), %ymm1, %ymm13 vpsrad $31, %xmm3, %xmm1 vpunpckhwd %xmm0, %xmm0, %xmm0 vpslld $31, %xmm0, %xmm0 vpsrad $31, %xmm0, %xmm0 vinsertf128 $1, %xmm0, %ymm1, %ymm0 vmovdqa 31584(%rbx), %ymm1 vptest %ymm1, %ymm0 jb .LBB1_1986 vmovdqa 32928(%rbx), %xmm0 vpand 32160(%rbx), %xmm0, %xmm1 vpunpckhwd %xmm0, %xmm1, %xmm0 vpslld $31, %xmm0, %xmm3 vpmovzxwd %xmm1, %xmm0 vextractf128 $1, %ymm13, %xmm2 vmovhlps %xmm2, %xmm2, %xmm4 vpslld $31, %xmm0, %xmm0 vpsrad $31, %xmm0, %xmm0 vpsrad $31, %xmm3, %xmm3 vmovhlps %xmm13, %xmm13, %xmm5 vpmovsxdq %xmm4, %xmm4 vpmovsxdq %xmm13, %xmm6 vpmovsxdq %xmm2, %xmm7 vpextrq $1, %xmm7, %r10 vmovd %xmm7, %r8 vmovd %xmm6, %r15 vpextrq $1, %xmm4, %r13 vpmovsxdq %xmm5, %xmm5 vinsertf128 $1, %xmm3, %ymm0, %ymm0 vpextrq $1, %xmm6, %rdx vmovd %xmm4, %rax vpextrq $1, %xmm5, %r12 vmovd %xmm5, %r9 vmovdqa 31552(%rbx), %ymm3 vptest %ymm3, %ymm0 jb .LBB1_2060 vpextrb $4, %xmm1, %r11d vpextrb $2, %xmm1, %ecx movl %ecx, 32896(%rbx) vpextrb $0, %xmm1, %ecx vpxor %xmm3, %xmm3, %xmm3 testb $1, %cl vxorps %xmm9, %xmm9, %xmm9 je .LBB1_2063 vmovsd 33024(%rbx,%r15,8), %xmm9 .LBB1_2063: vpcmpeqd %xmm8, %xmm8, %xmm8 vpextrb $6, %xmm1, %edi movl 32896(%rbx), %esi testb $1, %sil je .LBB1_2065 vmovsd 33024(%rbx,%rdx,8), %xmm3 .LBB1_2065: vpextrb $8, %xmm1, %edx vpxor %xmm5, %xmm5, %xmm5 testb $1, %r11b vpxor %xmm11, %xmm11, %xmm11 je .LBB1_2067 vmovsd 33024(%rbx,%r9,8), %xmm11 .LBB1_2067: vmovaps %xmm14, %xmm7 vpextrb $10, %xmm1, %r9d testb $1, %dil je .LBB1_2069 vmovsd 33024(%rbx,%r12,8), %xmm5 .LBB1_2069: vpextrb $12, %xmm1, %r12d vxorps %xmm10, %xmm10, %xmm10 testb $1, %dl vxorps %xmm14, %xmm14, %xmm14 je .LBB1_2071 vmovsd 33024(%rbx,%r8,8), %xmm14 .LBB1_2071: vpextrb $14, %xmm1, %esi testb $1, %r9b je .LBB1_2073 vmovsd 33024(%rbx,%r10,8), %xmm10 .LBB1_2073: vxorpd %xmm4, %xmm4, %xmm4 testb $1, %r12b vxorpd %xmm12, %xmm12, %xmm12 je .LBB1_2075 vmovsd 33024(%rbx,%rax,8), %xmm12 .LBB1_2075: testb $1, %sil je .LBB1_2077 vmovsd 33024(%rbx,%r13,8), %xmm4 .LBB1_2077: vpaddd .LCPI1_40(%rip), %xmm13, %xmm0 vmovhlps %xmm0, %xmm0, %xmm1 vpmovsxdq %xmm0, %xmm0 vpmovsxdq %xmm1, %xmm1 testb $1, %cl je .LBB1_2079 vinsertf128 $1, %xmm1, %ymm0, %ymm6 vmovd %xmm6, %rax vmovsd %xmm9, 33024(%rbx,%rax,8) .LBB1_2079: movl 32896(%rbx), %eax testb $1, %al je .LBB1_2081 vpextrq $1, %xmm0, %rax vmovsd %xmm3, 33024(%rbx,%rax,8) .LBB1_2081: testb $1, %r11b je .LBB1_2083 vmovd %xmm1, %rax vmovsd %xmm11, 33024(%rbx,%rax,8) .LBB1_2083: vpaddd .LCPI1_40(%rip), %xmm2, %xmm0 testb $1, %dil je .LBB1_2085 vpextrq $1, %xmm1, %rax vmovsd %xmm5, 33024(%rbx,%rax,8) .LBB1_2085: vpmovsxdq %xmm0, %xmm1 testb $1, %dl je .LBB1_2087 vmovd %xmm1, %rax vmovsd %xmm14, 33024(%rbx,%rax,8) .LBB1_2087: vmovhlps %xmm0, %xmm0, %xmm0 testb $1, %r9b je .LBB1_2089 vpextrq $1, %xmm1, %rax vmovsd %xmm10, 33024(%rbx,%rax,8) .LBB1_2089: vpmovsxdq %xmm0, %xmm0 testb $1, %r12b je .LBB1_2091 vmovd %xmm0, %rax vmovsd %xmm12, 33024(%rbx,%rax,8) .LBB1_2091: testb $1, %sil je .LBB1_2093 vpextrq $1, %xmm0, %rax vmovsd %xmm4, 33024(%rbx,%rax,8) .LBB1_2093: vpaddd %xmm8, %xmm13, %xmm0 vmovhlps %xmm0, %xmm0, %xmm1 vpmovsxdq %xmm0, %xmm0 vpmovsxdq %xmm1, %xmm1 testb $1, %cl je .LBB1_2095 vinsertf128 $1, %xmm1, %ymm0, %ymm6 vmovd %xmm6, %rax vmovsd %xmm9, 33024(%rbx,%rax,8) .LBB1_2095: movl 32896(%rbx), %eax testb $1, %al je .LBB1_2097 vpextrq $1, %xmm0, %rax vmovsd %xmm3, 33024(%rbx,%rax,8) .LBB1_2097: testb $1, %r11b je .LBB1_2099 vmovd %xmm1, %rax vmovsd %xmm11, 33024(%rbx,%rax,8) .LBB1_2099: vpcmpeqd %xmm11, %xmm11, %xmm11 vpaddd %xmm11, %xmm2, %xmm0 testb $1, %dil je .LBB1_2101 vpextrq $1, %xmm1, %rax vmovsd %xmm5, 33024(%rbx,%rax,8) .LBB1_2101: vpmovsxdq %xmm0, %xmm1 testb $1, %dl je .LBB1_2103 vmovd %xmm1, %rax vmovsd %xmm14, 33024(%rbx,%rax,8) .LBB1_2103: vmovhlps %xmm0, %xmm0, %xmm0 testb $1, %r9b je .LBB1_2105 vpextrq $1, %xmm1, %rax vmovsd %xmm10, 33024(%rbx,%rax,8) .LBB1_2105: vpmovsxdq %xmm0, %xmm0 testb $1, %r12b vmovaps %xmm7, %xmm14 je .LBB1_2107 vmovd %xmm0, %rax vmovsd %xmm12, 33024(%rbx,%rax,8) .LBB1_2107: testb $1, %sil je .LBB1_1986 vpextrq $1, %xmm0, %rax vmovsd %xmm4, 33024(%rbx,%rax,8) jmp .LBB1_1986 .align 16, 0x90 .LBB1_2060: vpaddd %xmm11, %xmm2, %xmm1 vmovhlps %xmm1, %xmm1, %xmm4 vmovdqa .LCPI1_40(%rip), %xmm0 vpaddd %xmm0, %xmm13, %xmm6 vpaddd %xmm0, %xmm2, %xmm8 vpmovsxdq %xmm8, %xmm5 vpmovsxdq %xmm6, %xmm0 vmovhlps %xmm6, %xmm6, %xmm6 vpmovsxdq %xmm1, %xmm2 vpmovsxdq %xmm4, %xmm1 vpmovsxdq %xmm6, %xmm6 vpextrq $1, %xmm0, %rcx vpaddd %xmm11, %xmm13, %xmm7 vmovsd 33024(%rbx,%r13,8), %xmm9 vmovsd 33024(%rbx,%rax,8), %xmm10 vpextrq $1, %xmm5, %r13 vmovsd 33024(%rbx,%r10,8), %xmm4 vmovd %xmm5, %rdi vpextrq $1, %xmm6, %rsi vmovd %xmm6, %r11 vmovd %xmm0, %rax vmovsd 33024(%rbx,%r8,8), %xmm5 vmovsd 33024(%rbx,%r12,8), %xmm6 vpextrq $1, %xmm1, %r8 vmovsd 33024(%rbx,%r9,8), %xmm0 vmovd %xmm1, %r9 vpextrq $1, %xmm2, %r10 vmovsd 33024(%rbx,%rdx,8), %xmm1 vmovd %xmm2, %r12 vmovsd 33024(%rbx,%r15,8), %xmm2 vmovsd %xmm2, 33024(%rbx,%rax,8) vmovhlps %xmm7, %xmm7, %xmm3 vpmovsxdq %xmm3, %xmm3 vpextrq $1, %xmm3, %rax vmovd %xmm3, %rdx vmovsd %xmm1, 33024(%rbx,%rcx,8) vmovsd %xmm0, 33024(%rbx,%r11,8) vmovsd %xmm6, 33024(%rbx,%rsi,8) vmovsd %xmm5, 33024(%rbx,%rdi,8) vpmovsxdq %xmm7, %xmm7 vmovsd %xmm4, 33024(%rbx,%r13,8) vpextrq $1, %xmm7, %rcx vmovd %xmm7, %rsi vmovhlps %xmm8, %xmm8, %xmm3 vpmovsxdq %xmm3, %xmm3 vmovd %xmm3, %rdi vmovsd %xmm10, 33024(%rbx,%rdi,8) vpextrq $1, %xmm3, %rdi vmovsd %xmm9, 33024(%rbx,%rdi,8) vmovsd %xmm2, 33024(%rbx,%rsi,8) vmovsd %xmm1, 33024(%rbx,%rcx,8) vmovsd %xmm0, 33024(%rbx,%rdx,8) vmovsd %xmm6, 33024(%rbx,%rax,8) vmovsd %xmm5, 33024(%rbx,%r12,8) vmovsd %xmm4, 33024(%rbx,%r10,8) vmovsd %xmm10, 33024(%rbx,%r9,8) vmovsd %xmm9, 33024(%rbx,%r8,8) .LBB1_1986: vmovaps %ymm13, %ymm8 vmovaps 32928(%rbx), %xmm0 vandps %xmm15, %xmm0, %xmm3 vmovaps 32544(%rbx), %ymm0 vinsertf128 $1, %xmm0, %ymm0, %ymm15 vxorps %xmm14, %xmm3, %xmm0 vpmovzxwd %xmm0, %xmm1 vpslld $31, %xmm1, %xmm1 vpsrad $31, %xmm1, %xmm1 vpunpckhwd %xmm0, %xmm0, %xmm0 vpslld $31, %xmm0, %xmm0 vpsrad $31, %xmm0, %xmm0 vinsertf128 $1, %xmm0, %ymm1, %ymm0 vmovdqa 31520(%rbx), %ymm1 vptest %ymm1, %ymm0 jb .LBB1_1989 vmovdqa %ymm11, %ymm12 movq 32384(%rbx), %rax vmovdqa (%rax), %ymm0 vmovdqa .LCPI1_8(%rip), %xmm2 vpmulld %xmm2, %xmm0, %xmm1 vextractf128 $1, %ymm0, %xmm0 vpmulld %xmm2, %xmm0, %xmm4 vmovdqa .LCPI1_41(%rip), %xmm5 vpaddd %xmm5, %xmm4, %xmm0 vpmovsxdq %xmm0, %xmm2 vpaddd %xmm5, %xmm1, %xmm5 vmovhlps %xmm5, %xmm5, %xmm6 vpmovsxdq %xmm6, %xmm6 vpaddq %xmm15, %xmm2, %xmm2 vpmovsxdq %xmm5, %xmm5 vpaddq %xmm15, %xmm5, %xmm5 vpmovzxwd %xmm3, %xmm7 vpslld $31, %xmm7, %xmm7 vpsrad $31, %xmm7, %xmm7 vextractf128 $1, %ymm15, %xmm11 vmovaps %ymm15, %ymm13 vinsertf128 $1, %xmm4, %ymm1, %ymm15 vpextrq $1, %xmm2, %r10 vpaddq %xmm11, %xmm6, %xmm1 vmovhlps %xmm0, %xmm0, %xmm4 vpunpckhwd %xmm0, %xmm3, %xmm0 vpslld $31, %xmm0, %xmm0 vpsrad $31, %xmm0, %xmm0 vmovd %xmm2, %r15 vinsertf128 $1, %xmm0, %ymm7, %ymm0 vpextrq $1, %xmm5, %rdx vmovd %xmm5, %rax vpmovsxdq %xmm4, %xmm2 vextractf128 $1, %ymm13, %xmm14 vpaddq %xmm14, %xmm2, %xmm2 vpextrq $1, %xmm2, %rsi vmovd %xmm2, %r11 vpextrq $1, %xmm1, %r8 vmovd %xmm1, %rcx vmovdqa 31488(%rbx), %ymm1 vptest %ymm1, %ymm0 jb .LBB1_1988 movq %rsi, 32480(%rbx) vmovaps %ymm15, %ymm12 vmovaps %xmm11, 32512(%rbx) vmovaps %xmm14, 32896(%rbx) vpextrb $0, %xmm3, %edi movl %edi, 32544(%rbx) vpextrb $2, %xmm3, %r12d vpextrb $4, %xmm3, %esi vxorps %xmm11, %xmm11, %xmm11 testb $1, %dil vpxor %xmm7, %xmm7, %xmm7 je .LBB1_1997 movq 32992(%rbx), %rdi vmovsd (%rdi,%rax,8), %xmm7 .LBB1_1997: vpextrb $6, %xmm3, %edi testb $1, %r12b vmovaps .LCPI1_17(%rip), %xmm1 je .LBB1_1999 movq 32992(%rbx), %rax vmovsd (%rax,%rdx,8), %xmm11 .LBB1_1999: vpextrb $8, %xmm3, %r13d vxorps %xmm9, %xmm9, %xmm9 movl %esi, %edx testb $1, %dl vxorpd %xmm5, %xmm5, %xmm5 je .LBB1_2001 movq 32992(%rbx), %rax vmovsd (%rax,%rcx,8), %xmm5 .LBB1_2001: vpextrb $10, %xmm3, %r9d testb $1, %dil je .LBB1_2003 movq 32992(%rbx), %rax vmovsd (%rax,%r8,8), %xmm9 .LBB1_2003: vpextrb $12, %xmm3, %esi vxorps %xmm0, %xmm0, %xmm0 testb $1, %r13b vxorpd %xmm2, %xmm2, %xmm2 movq 32992(%rbx), %rcx vmovdqa %ymm13, %ymm15 je .LBB1_2005 vmovsd (%rcx,%r15,8), %xmm2 .LBB1_2005: vpextrb $14, %xmm3, %r8d testb $1, %r9b vmovdqa %ymm8, %ymm13 je .LBB1_2007 vmovsd (%rcx,%r10,8), %xmm0 .LBB1_2007: vxorps %xmm3, %xmm3, %xmm3 testb $1, %sil vpxor %xmm6, %xmm6, %xmm6 je .LBB1_2009 vmovsd (%rcx,%r11,8), %xmm6 .LBB1_2009: vmovaps %xmm1, %xmm10 testb $1, %r8b movl 32544(%rbx), %r11d je .LBB1_2011 movq 32480(%rbx), %rax vmovsd (%rcx,%rax,8), %xmm3 .LBB1_2011: vpaddd .LCPI1_40(%rip), %xmm13, %xmm1 vmovhlps %xmm1, %xmm1, %xmm4 vpmovsxdq %xmm1, %xmm14 vpmovsxdq %xmm4, %xmm4 testb $1, %r11b je .LBB1_2013 vinsertf128 $1, %xmm4, %ymm14, %ymm8 vmovd %xmm8, %rax vmovsd %xmm7, 33024(%rbx,%rax,8) .LBB1_2013: testb $1, %r12b je .LBB1_2015 vpextrq $1, %xmm14, %rax vmovsd %xmm11, 33024(%rbx,%rax,8) .LBB1_2015: vextractf128 $1, %ymm13, %xmm11 testb $1, %dl movl %esi, %r10d je .LBB1_2017 vmovd %xmm4, %rax vmovsd %xmm5, 33024(%rbx,%rax,8) .LBB1_2017: vpaddd .LCPI1_40(%rip), %xmm11, %xmm5 testb $1, %dil vmovaps %xmm10, %xmm14 je .LBB1_2019 vpextrq $1, %xmm4, %rax vmovsd %xmm9, 33024(%rbx,%rax,8) .LBB1_2019: vpmovsxdq %xmm5, %xmm1 testb $1, %r13b je .LBB1_2021 vmovd %xmm1, %rax vmovsd %xmm2, 33024(%rbx,%rax,8) .LBB1_2021: vmovhlps %xmm5, %xmm5, %xmm2 testb $1, %r9b je .LBB1_2023 vpextrq $1, %xmm1, %rax vmovsd %xmm0, 33024(%rbx,%rax,8) .LBB1_2023: vpmovsxdq %xmm2, %xmm0 testb $1, %r10b je .LBB1_2025 vmovd %xmm0, %rax vmovsd %xmm6, 33024(%rbx,%rax,8) .LBB1_2025: testb $1, %r8b vmovdqa 32512(%rbx), %xmm2 je .LBB1_2027 vpextrq $1, %xmm0, %rax vmovsd %xmm3, 33024(%rbx,%rax,8) .LBB1_2027: vpaddd .LCPI1_42(%rip), %xmm12, %xmm1 vpmovsxdq %xmm1, %xmm0 vpaddq %xmm15, %xmm0, %xmm0 vmovhlps %xmm1, %xmm1, %xmm1 vpmovsxdq %xmm1, %xmm1 vpaddq %xmm2, %xmm1, %xmm1 vxorps %xmm10, %xmm10, %xmm10 testb $1, %r11b vpxor %xmm5, %xmm5, %xmm5 je .LBB1_2029 vinsertf128 $1, %xmm1, %ymm0, %ymm2 vmovd %xmm2, %rax vmovsd (%rcx,%rax,8), %xmm5 .LBB1_2029: vextractf128 $1, %ymm12, %xmm2 testb $1, %r12b vmovdqa %ymm13, %ymm8 je .LBB1_2031 vpextrq $1, %xmm0, %rax vmovsd (%rcx,%rax,8), %xmm10 .LBB1_2031: vpaddd .LCPI1_42(%rip), %xmm2, %xmm3 vxorps %xmm12, %xmm12, %xmm12 testb $1, %dl vpxor %xmm0, %xmm0, %xmm0 je .LBB1_2033 vmovd %xmm1, %rax vmovsd (%rcx,%rax,8), %xmm0 .LBB1_2033: vpmovsxdq %xmm3, %xmm6 testb $1, %dil je .LBB1_2035 vpextrq $1, %xmm1, %rax vmovsd (%rcx,%rax,8), %xmm12 .LBB1_2035: vmovhlps %xmm3, %xmm3, %xmm4 vpaddq %xmm15, %xmm6, %xmm3 vpxor %xmm1, %xmm1, %xmm1 testb $1, %r13b vpxor %xmm7, %xmm7, %xmm7 vmovdqa 32896(%rbx), %xmm2 je .LBB1_2037 vmovd %xmm3, %rax vmovsd (%rcx,%rax,8), %xmm7 .LBB1_2037: vpmovsxdq %xmm4, %xmm4 testb $1, %r9b je .LBB1_2039 vpextrq $1, %xmm3, %rax vmovsd (%rcx,%rax,8), %xmm1 .LBB1_2039: vpaddq %xmm2, %xmm4, %xmm4 vxorpd %xmm3, %xmm3, %xmm3 testb $1, %r10b vpxor %xmm6, %xmm6, %xmm6 je .LBB1_2041 vmovd %xmm4, %rax vmovsd (%rcx,%rax,8), %xmm6 .LBB1_2041: testb $1, %r8b je .LBB1_2043 vpextrq $1, %xmm4, %rax vmovsd (%rcx,%rax,8), %xmm3 .LBB1_2043: vpcmpeqd %xmm2, %xmm2, %xmm2 vpaddd %xmm2, %xmm8, %xmm2 vmovhlps %xmm2, %xmm2, %xmm4 vpmovsxdq %xmm2, %xmm9 vpmovsxdq %xmm4, %xmm4 testb $1, %r11b je .LBB1_2045 vinsertf128 $1, %xmm4, %ymm9, %ymm8 vmovd %xmm8, %rax vmovsd %xmm5, 33024(%rbx,%rax,8) .LBB1_2045: testb $1, %r12b je .LBB1_2047 vpextrq $1, %xmm9, %rax vmovsd %xmm10, 33024(%rbx,%rax,8) .LBB1_2047: testb $1, %dl je .LBB1_2049 vmovd %xmm4, %rax vmovsd %xmm0, 33024(%rbx,%rax,8) .LBB1_2049: vpcmpeqd %xmm0, %xmm0, %xmm0 vpaddd %xmm0, %xmm11, %xmm0 vpcmpeqd %xmm11, %xmm11, %xmm11 testb $1, %dil je .LBB1_2051 vpextrq $1, %xmm4, %rax vmovsd %xmm12, 33024(%rbx,%rax,8) .LBB1_2051: vpmovsxdq %xmm0, %xmm2 testb $1, %r13b je .LBB1_2053 vmovd %xmm2, %rax vmovsd %xmm7, 33024(%rbx,%rax,8) .LBB1_2053: vmovhlps %xmm0, %xmm0, %xmm0 testb $1, %r9b je .LBB1_2055 vpextrq $1, %xmm2, %rax vmovsd %xmm1, 33024(%rbx,%rax,8) .LBB1_2055: vpmovsxdq %xmm0, %xmm0 testb $1, %r10b je .LBB1_2057 vmovd %xmm0, %rax vmovsd %xmm6, 33024(%rbx,%rax,8) .LBB1_2057: testb $1, %r8b je .LBB1_1989 vpextrq $1, %xmm0, %rax vmovsd %xmm3, 33024(%rbx,%rax,8) jmp .LBB1_1989 .align 16, 0x90 .LBB1_1988: vmovdqa .LCPI1_40(%rip), %xmm3 vpaddd %xmm3, %xmm8, %xmm4 vpmovsxdq %xmm4, %xmm6 movq 32992(%rbx), %rdi vmovsd (%rdi,%rsi,8), %xmm0 vmovsd %xmm0, 32896(%rbx) vmovsd (%rdi,%r11,8), %xmm9 vmovsd (%rdi,%r10,8), %xmm10 vmovsd (%rdi,%r15,8), %xmm2 vmovd %xmm6, %rsi vmovsd (%rdi,%r8,8), %xmm5 vmovsd (%rdi,%rcx,8), %xmm7 vmovsd (%rdi,%rdx,8), %xmm0 vmovsd (%rdi,%rax,8), %xmm1 vmovsd %xmm1, 33024(%rbx,%rsi,8) vpextrq $1, %xmm6, %rax vmovsd %xmm0, 33024(%rbx,%rax,8) vmovhlps %xmm4, %xmm4, %xmm0 vpmovsxdq %xmm0, %xmm0 vmovd %xmm0, %rax vmovsd %xmm7, 33024(%rbx,%rax,8) vpextrq $1, %xmm0, %rax vextractf128 $1, %ymm8, %xmm4 vmovsd %xmm5, 33024(%rbx,%rax,8) vpaddd %xmm3, %xmm4, %xmm5 vpmovsxdq %xmm5, %xmm7 vmovd %xmm7, %rax vpaddd %xmm12, %xmm4, %xmm4 vmovhlps %xmm4, %xmm4, %xmm0 vmovsd %xmm2, 33024(%rbx,%rax,8) vpmovsxdq %xmm0, %xmm6 vmovhlps %xmm5, %xmm5, %xmm5 vpextrq $1, %xmm7, %rax vextractf128 $1, %ymm15, %xmm7 vpaddd %xmm12, %xmm8, %xmm2 vmovsd %xmm10, 33024(%rbx,%rax,8) vpmovsxdq %xmm5, %xmm5 vmovdqa .LCPI1_42(%rip), %xmm0 vpaddd %xmm0, %xmm15, %xmm3 vpaddd %xmm0, %xmm7, %xmm0 vmovhlps %xmm0, %xmm0, %xmm1 vpmovsxdq %xmm1, %xmm7 vpextrq $1, %xmm6, %r8 vmovd %xmm6, %r9 vpmovsxdq %xmm0, %xmm6 vmovd %xmm5, %rax vpmovsxdq %xmm4, %xmm0 vpextrq $1, %xmm0, %r10 vmovd %xmm0, %r11 vmovsd %xmm9, 33024(%rbx,%rax,8) vmovhlps %xmm2, %xmm2, %xmm0 vpaddq %xmm14, %xmm7, %xmm4 vpextrq $1, %xmm5, %rax vpmovsxdq %xmm0, %xmm5 vpmovsxdq %xmm3, %xmm7 vpaddq %xmm13, %xmm6, %xmm6 vmovhlps %xmm3, %xmm3, %xmm0 vpmovsxdq %xmm0, %xmm0 vpaddq %xmm11, %xmm0, %xmm1 vmovdqa %ymm12, %ymm11 vmovd %xmm6, %rcx vpaddq %xmm13, %xmm7, %xmm3 vpextrq $1, %xmm6, %rsi vpextrq $1, %xmm5, %r15 vmovsd 32896(%rbx), %xmm0 vmovsd %xmm0, 33024(%rbx,%rax,8) vmovd %xmm4, %rax vpmovsxdq %xmm2, %xmm6 vpextrq $1, %xmm4, %rdx vmovd %xmm5, %r12 vmovsd (%rdi,%rdx,8), %xmm0 vpextrq $1, %xmm6, %rdx vmovsd (%rdi,%rax,8), %xmm2 vmovd %xmm6, %rax vmovsd (%rdi,%rsi,8), %xmm4 vmovd %xmm3, %rsi vmovsd (%rdi,%rcx,8), %xmm5 vpextrq $1, %xmm1, %rcx vmovsd (%rdi,%rcx,8), %xmm6 vmovd %xmm1, %rcx vmovsd (%rdi,%rcx,8), %xmm1 vpextrq $1, %xmm3, %rcx vmovsd (%rdi,%rcx,8), %xmm3 vmovsd (%rdi,%rsi,8), %xmm7 vmovsd %xmm7, 33024(%rbx,%rax,8) vmovsd %xmm3, 33024(%rbx,%rdx,8) vmovsd %xmm1, 33024(%rbx,%r12,8) vmovsd %xmm6, 33024(%rbx,%r15,8) vmovsd %xmm5, 33024(%rbx,%r11,8) vmovsd %xmm4, 33024(%rbx,%r10,8) vmovsd %xmm2, 33024(%rbx,%r9,8) vmovsd %xmm0, 33024(%rbx,%r8,8) vmovaps .LCPI1_17(%rip), %xmm14 vmovaps %ymm13, %ymm15 .LBB1_1989: vmovaps 32576(%rbx), %xmm0 vxorps %xmm14, %xmm0, %xmm0 movq 32792(%rbx), %rax vmovaps .LCPI1_6(%rip), %ymm1 movq 32960(%rbx), %rcx vandps 1152(%rax,%rcx), %ymm1, %ymm1 vextractf128 $1, %ymm1, %xmm2 vpxor %xmm5, %xmm5, %xmm5 vpcmpeqd %xmm5, %xmm2, %xmm2 vpxor %xmm11, %xmm2, %xmm2 vmovdqa .LCPI1_36(%rip), %xmm3 vmovdqa 32256(%rbx), %ymm4 vpcmpgtd %xmm4, %xmm3, %xmm3 vmovdqa .LCPI1_5(%rip), %xmm4 vpshufb %xmm4, %xmm3, %xmm3 vmovaps 32192(%rbx), %xmm6 vmovlhps %xmm6, %xmm3, %xmm3 vmovaps %xmm3, 32576(%rbx) vpshufb %xmm4, %xmm2, %xmm2 vpcmpeqd %xmm5, %xmm1, %xmm1 vpxor %xmm11, %xmm1, %xmm1 vpshufb %xmm4, %xmm1, %xmm1 vmovlhps %xmm2, %xmm1, %xmm1 vmovaps 32928(%rbx), %xmm2 vorps %xmm0, %xmm2, %xmm0 vandps %xmm0, %xmm1, %xmm10 vxorps %xmm14, %xmm10, %xmm0 vorps %xmm0, %xmm3, %xmm0 vpmovzxwd %xmm0, %xmm1 vpslld $31, %xmm1, %xmm1 vpunpckhwd %xmm0, %xmm0, %xmm0 vpslld $31, %xmm0, %xmm0 vpsrad $31, %xmm1, %xmm1 vpsrad $31, %xmm0, %xmm0 vinsertf128 $1, %xmm0, %ymm1, %ymm0 vmovdqa 31456(%rbx), %ymm1 vptest %ymm1, %ymm0 vmovdqa 32832(%rbx), %ymm9 jb .LBB1_1990 vandps 32128(%rbx), %xmm10, %xmm1 vmovdqa .LCPI1_43(%rip), %xmm2 vpaddd %xmm2, %xmm9, %xmm8 vmovdqa .LCPI1_8(%rip), %xmm0 vpaddd %xmm0, %xmm9, %xmm4 vextractf128 $1, %ymm9, %xmm13 vpaddd %xmm0, %xmm13, %xmm5 vmovhlps %xmm5, %xmm5, %xmm0 vpmovsxdq %xmm0, %xmm0 vpmovsxdq %xmm4, %xmm3 vpmovsxdq %xmm5, %xmm5 vpaddd %xmm2, %xmm13, %xmm7 vpmovzxwd %xmm1, %xmm2 vpslld $31, %xmm2, %xmm2 vmovhlps %xmm4, %xmm4, %xmm6 vpsrad $31, %xmm2, %xmm4 vinsertf128 $1, %xmm7, %ymm8, %ymm11 vpextrq $1, %xmm5, %r12 vmovd %xmm5, %r8 vpextrq $1, %xmm3, %r10 vmovd %xmm3, %r13 vpextrq $1, %xmm0, %r9 vpmovsxdq %xmm6, %xmm2 vpunpckhwd %xmm0, %xmm1, %xmm3 vpslld $31, %xmm3, %xmm3 vpsrad $31, %xmm3, %xmm3 vinsertf128 $1, %xmm3, %ymm4, %ymm3 vmovd %xmm0, %r15 vpextrq $1, %xmm2, %rcx vmovd %xmm2, %r11 vmovdqa 31424(%rbx), %ymm0 vptest %ymm0, %ymm3 jb .LBB1_2174 vmovaps %xmm10, 32544(%rbx) vmovdqa %ymm9, %ymm10 vpextrb $4, %xmm1, %eax movl %eax, 32928(%rbx) vpextrb $2, %xmm1, %eax movl %eax, 32896(%rbx) vpextrb $0, %xmm1, %edx vxorpd %xmm12, %xmm12, %xmm12 testb $1, %dl vxorps %xmm6, %xmm6, %xmm6 je .LBB1_2177 vmovsd 33024(%rbx,%r13,8), %xmm6 .LBB1_2177: vpextrb $6, %xmm1, %r13d movl 32896(%rbx), %eax testb $1, %al je .LBB1_2179 vmovsd 33024(%rbx,%r10,8), %xmm12 .LBB1_2179: vpextrb $8, %xmm1, %r10d vpxor %xmm8, %xmm8, %xmm8 movl 32928(%rbx), %eax testb $1, %al vpxor %xmm4, %xmm4, %xmm4 je .LBB1_2181 vmovsd 33024(%rbx,%r11,8), %xmm4 .LBB1_2181: vpextrb $10, %xmm1, %eax testb $1, %r13b je .LBB1_2183 vmovsd 33024(%rbx,%rcx,8), %xmm8 .LBB1_2183: vpextrb $12, %xmm1, %ecx vpxor %xmm7, %xmm7, %xmm7 testb $1, %r10b vpxor %xmm0, %xmm0, %xmm0 je .LBB1_2185 vmovsd 33024(%rbx,%r8,8), %xmm0 .LBB1_2185: vpextrb $14, %xmm1, %esi testb $1, %al je .LBB1_2187 vmovsd 33024(%rbx,%r12,8), %xmm7 .LBB1_2187: vpxor %xmm1, %xmm1, %xmm1 testb $1, %cl vxorps %xmm3, %xmm3, %xmm3 je .LBB1_2189 vmovsd 33024(%rbx,%r15,8), %xmm3 .LBB1_2189: vmovaps %xmm14, %xmm9 testb $1, %sil je .LBB1_2191 vmovsd 33024(%rbx,%r9,8), %xmm1 .LBB1_2191: vpmovsxdq %xmm11, %xmm14 vmovhlps %xmm11, %xmm11, %xmm2 vpmovsxdq %xmm2, %xmm2 testb $1, %dl je .LBB1_2193 vinsertf128 $1, %xmm2, %ymm14, %ymm5 vmovd %xmm5, %rdi vmovsd %xmm6, 33024(%rbx,%rdi,8) .LBB1_2193: movl 32896(%rbx), %edi testb $1, %dil je .LBB1_2195 vpextrq $1, %xmm14, %rdi vmovsd %xmm12, 33024(%rbx,%rdi,8) .LBB1_2195: movl 32928(%rbx), %edi testb $1, %dil je .LBB1_2197 vmovd %xmm2, %rdi vmovsd %xmm4, 33024(%rbx,%rdi,8) .LBB1_2197: vextractf128 $1, %ymm11, %xmm5 testb $1, %r13b vmovaps %xmm9, %xmm14 je .LBB1_2199 vpextrq $1, %xmm2, %rdi vmovsd %xmm8, 33024(%rbx,%rdi,8) .LBB1_2199: vpmovsxdq %xmm5, %xmm2 testb $1, %r10b je .LBB1_2201 vmovd %xmm2, %rdi vmovsd %xmm0, 33024(%rbx,%rdi,8) .LBB1_2201: vmovhlps %xmm5, %xmm5, %xmm5 testb $1, %al je .LBB1_2203 vpextrq $1, %xmm2, %rdi vmovsd %xmm7, 33024(%rbx,%rdi,8) .LBB1_2203: vpmovsxdq %xmm5, %xmm2 testb $1, %cl je .LBB1_2205 vmovd %xmm2, %rdi vmovsd %xmm3, 33024(%rbx,%rdi,8) .LBB1_2205: testb $1, %sil je .LBB1_2207 vpextrq $1, %xmm2, %rdi vmovsd %xmm1, 33024(%rbx,%rdi,8) .LBB1_2207: vpaddd .LCPI1_44(%rip), %xmm10, %xmm5 vmovhlps %xmm5, %xmm5, %xmm2 vpmovsxdq %xmm5, %xmm5 vpmovsxdq %xmm2, %xmm2 testb $1, %dl je .LBB1_2209 vinsertf128 $1, %xmm2, %ymm5, %ymm11 vmovd %xmm11, %rdx vmovsd %xmm6, 33024(%rbx,%rdx,8) .LBB1_2209: movl 32896(%rbx), %edx testb $1, %dl je .LBB1_2211 vpextrq $1, %xmm5, %rdx vmovsd %xmm12, 33024(%rbx,%rdx,8) .LBB1_2211: movl 32928(%rbx), %edx testb $1, %dl je .LBB1_2213 vmovd %xmm2, %rdx vmovsd %xmm4, 33024(%rbx,%rdx,8) .LBB1_2213: vpaddd .LCPI1_44(%rip), %xmm13, %xmm4 testb $1, %r13b je .LBB1_2215 vpextrq $1, %xmm2, %rdx vmovsd %xmm8, 33024(%rbx,%rdx,8) .LBB1_2215: vpmovsxdq %xmm4, %xmm2 testb $1, %r10b vmovdqa %ymm10, %ymm9 je .LBB1_2217 vmovd %xmm2, %rdx vmovsd %xmm0, 33024(%rbx,%rdx,8) .LBB1_2217: vmovhlps %xmm4, %xmm4, %xmm0 testb $1, %al je .LBB1_2219 vpextrq $1, %xmm2, %rax vmovsd %xmm7, 33024(%rbx,%rax,8) .LBB1_2219: vpmovsxdq %xmm0, %xmm0 testb $1, %cl je .LBB1_2221 vmovd %xmm0, %rax vmovsd %xmm3, 33024(%rbx,%rax,8) .LBB1_2221: testb $1, %sil vmovaps 32544(%rbx), %xmm10 je .LBB1_1990 vpextrq $1, %xmm0, %rax vmovsd %xmm1, 33024(%rbx,%rax,8) jmp .LBB1_1990 .align 16, 0x90 .LBB1_2174: vmovdqa .LCPI1_44(%rip), %xmm6 vpaddd %xmm6, %xmm13, %xmm0 vextractf128 $1, %ymm11, %xmm8 vmovhlps %xmm11, %xmm11, %xmm3 vmovhlps %xmm0, %xmm0, %xmm2 vpmovsxdq %xmm0, %xmm0 vpmovsxdq %xmm11, %xmm1 vpmovsxdq %xmm3, %xmm5 vpmovsxdq %xmm8, %xmm4 vpmovsxdq %xmm2, %xmm2 vpaddd %xmm6, %xmm9, %xmm6 vmovsd 33024(%rbx,%r9,8), %xmm11 vmovsd 33024(%rbx,%r15,8), %xmm12 vpextrq $1, %xmm4, %r15 vmovsd 33024(%rbx,%r12,8), %xmm3 vmovd %xmm4, %r12 vpextrq $1, %xmm5, %rsi vmovsd 33024(%rbx,%r8,8), %xmm4 vmovd %xmm5, %rax vpextrq $1, %xmm1, %rdx vmovsd 33024(%rbx,%rcx,8), %xmm5 vmovd %xmm1, %rcx vpextrq $1, %xmm2, %r8 vmovsd 33024(%rbx,%r11,8), %xmm7 vmovd %xmm2, %r9 vpextrq $1, %xmm0, %r11 vmovsd 33024(%rbx,%r10,8), %xmm1 vmovd %xmm0, %r10 vmovsd 33024(%rbx,%r13,8), %xmm0 vmovsd %xmm0, 33024(%rbx,%rcx,8) vmovhlps %xmm6, %xmm6, %xmm2 vpmovsxdq %xmm2, %xmm2 vpextrq $1, %xmm2, %rdi vmovd %xmm2, %rcx vmovsd %xmm1, 33024(%rbx,%rdx,8) vmovsd %xmm7, 33024(%rbx,%rax,8) vmovsd %xmm5, 33024(%rbx,%rsi,8) vmovsd %xmm4, 33024(%rbx,%r12,8) vmovsd %xmm3, 33024(%rbx,%r15,8) vpmovsxdq %xmm6, %xmm2 vmovhlps %xmm8, %xmm8, %xmm6 vpmovsxdq %xmm6, %xmm6 vmovd %xmm6, %rax vmovsd %xmm12, 33024(%rbx,%rax,8) vpextrq $1, %xmm2, %rax vmovd %xmm2, %rdx vpextrq $1, %xmm6, %rsi vmovsd %xmm11, 33024(%rbx,%rsi,8) vmovsd %xmm0, 33024(%rbx,%rdx,8) vmovsd %xmm1, 33024(%rbx,%rax,8) vmovsd %xmm7, 33024(%rbx,%rcx,8) vmovsd %xmm5, 33024(%rbx,%rdi,8) vmovsd %xmm4, 33024(%rbx,%r10,8) vmovsd %xmm3, 33024(%rbx,%r11,8) vmovsd %xmm12, 33024(%rbx,%r9,8) vmovsd %xmm11, 33024(%rbx,%r8,8) .LBB1_1990: vandps 32576(%rbx), %xmm10, %xmm3 vxorps %xmm14, %xmm3, %xmm0 vpmovzxwd %xmm0, %xmm1 vpslld $31, %xmm1, %xmm1 vpsrad $31, %xmm1, %xmm1 vpunpckhwd %xmm0, %xmm0, %xmm0 vpslld $31, %xmm0, %xmm0 vpsrad $31, %xmm0, %xmm0 vinsertf128 $1, %xmm0, %ymm1, %ymm0 vmovdqa 31392(%rbx), %ymm1 vptest %ymm1, %ymm0 movq 32792(%rbx), %r11 movq 32960(%rbx), %r13 jb .LBB1_1993 vmovdqa .LCPI1_43(%rip), %xmm2 vpaddd %xmm2, %xmm9, %xmm0 vextractf128 $1, %ymm15, %xmm11 vextractf128 $1, %ymm9, %xmm13 vextractf128 $1, %ymm15, %xmm10 vmovaps 32096(%rbx), %ymm7 vextractf128 $1, %ymm7, %xmm1 vpaddq %xmm10, %xmm1, %xmm1 vmovaps 32064(%rbx), %ymm4 vextractf128 $1, %ymm4, %xmm5 vpaddq %xmm15, %xmm4, %xmm4 vpaddd %xmm2, %xmm13, %xmm2 vpaddq %xmm11, %xmm5, %xmm6 vpmovzxwd %xmm3, %xmm5 vpslld $31, %xmm5, %xmm5 vpextrq $1, %xmm6, %r12 vmovd %xmm6, %rcx vinsertf128 $1, %xmm2, %ymm0, %ymm2 vpextrq $1, %xmm4, %rdi vmovd %xmm4, %rax vpextrq $1, %xmm1, %rsi vmovd %xmm1, %r11 vpaddq %xmm15, %xmm7, %xmm0 vpsrad $31, %xmm5, %xmm1 vpunpckhwd %xmm0, %xmm3, %xmm4 vpslld $31, %xmm4, %xmm4 vpsrad $31, %xmm4, %xmm4 vinsertf128 $1, %xmm4, %ymm1, %ymm1 vpextrq $1, %xmm0, %r10 vmovd %xmm0, %rdx vmovdqa 31360(%rbx), %ymm0 vptest %ymm0, %ymm1 jb .LBB1_1992 movq %rsi, 32576(%rbx) vpextrb $0, %xmm3, %esi movl %esi, 32896(%rbx) vpextrb $2, %xmm3, %r15d vpextrb $4, %xmm3, %r13d vxorpd %xmm12, %xmm12, %xmm12 testb $1, %sil vxorps %xmm7, %xmm7, %xmm7 je .LBB1_2111 movq 32992(%rbx), %rsi vmovsd (%rsi,%rax,8), %xmm7 .LBB1_2111: vmovaps %xmm13, 32928(%rbx) vpextrb $6, %xmm3, %r9d testb $1, %r15b je .LBB1_2113 movq 32992(%rbx), %rsi vmovsd (%rsi,%rdi,8), %xmm12 .LBB1_2113: vpextrb $8, %xmm3, %edi vxorps %xmm13, %xmm13, %xmm13 testb $1, %r13b vpxor %xmm0, %xmm0, %xmm0 je .LBB1_2115 movq 32992(%rbx), %rsi vmovsd (%rsi,%rcx,8), %xmm0 .LBB1_2115: vpextrb $10, %xmm3, %r8d testb $1, %r9b je .LBB1_2117 movq 32992(%rbx), %rcx vmovsd (%rcx,%r12,8), %xmm13 .LBB1_2117: vpextrb $12, %xmm3, %eax vxorps %xmm1, %xmm1, %xmm1 testb $1, %dil vpxor %xmm5, %xmm5, %xmm5 je .LBB1_2119 movq 32992(%rbx), %rcx vmovsd (%rcx,%rdx,8), %xmm5 .LBB1_2119: vpextrb $14, %xmm3, %r12d testb $1, %r8b movq 32992(%rbx), %rdx je .LBB1_2121 vmovsd (%rdx,%r10,8), %xmm1 .LBB1_2121: vxorps %xmm3, %xmm3, %xmm3 testb $1, %al vpxor %xmm4, %xmm4, %xmm4 movq 32576(%rbx), %rcx je .LBB1_2123 vmovsd (%rdx,%r11,8), %xmm4 .LBB1_2123: vmovdqa %xmm14, %xmm9 testb $1, %r12b movl 32896(%rbx), %r11d je .LBB1_2125 vmovsd (%rdx,%rcx,8), %xmm3 .LBB1_2125: vpmovsxdq %xmm2, %xmm14 vmovhlps %xmm2, %xmm2, %xmm6 vpmovsxdq %xmm6, %xmm6 testb $1, %r11b movl %r15d, %esi je .LBB1_2127 vinsertf128 $1, %xmm6, %ymm14, %ymm8 vmovd %xmm8, %rcx vmovsd %xmm7, 33024(%rbx,%rcx,8) .LBB1_2127: testb $1, %sil je .LBB1_2129 vpextrq $1, %xmm14, %rcx vmovsd %xmm12, 33024(%rbx,%rcx,8) .LBB1_2129: testb $1, %r13b movl %eax, %r10d je .LBB1_2131 vmovd %xmm6, %rcx vmovsd %xmm0, 33024(%rbx,%rcx,8) .LBB1_2131: vextractf128 $1, %ymm2, %xmm0 testb $1, %r9b vmovdqa %xmm9, %xmm14 je .LBB1_2133 vpextrq $1, %xmm6, %rcx vmovsd %xmm13, 33024(%rbx,%rcx,8) .LBB1_2133: vpmovsxdq %xmm0, %xmm2 testb $1, %dil je .LBB1_2135 vmovd %xmm2, %rcx vmovsd %xmm5, 33024(%rbx,%rcx,8) .LBB1_2135: vmovhlps %xmm0, %xmm0, %xmm0 testb $1, %r8b je .LBB1_2137 vpextrq $1, %xmm2, %rcx vmovsd %xmm1, 33024(%rbx,%rcx,8) .LBB1_2137: vpmovsxdq %xmm0, %xmm0 testb $1, %r10b je .LBB1_2139 vmovd %xmm0, %rcx vmovsd %xmm4, 33024(%rbx,%rcx,8) .LBB1_2139: testb $1, %r12b je .LBB1_2141 vpextrq $1, %xmm0, %rcx vmovsd %xmm3, 33024(%rbx,%rcx,8) .LBB1_2141: vmovaps 32704(%rbx), %ymm1 vextractf128 $1, %ymm1, %xmm0 vpaddq %xmm11, %xmm0, %xmm0 vpaddq %xmm15, %xmm1, %xmm1 vpxor %xmm11, %xmm11, %xmm11 testb $1, %r11b vpxor %xmm4, %xmm4, %xmm4 je .LBB1_2143 vinsertf128 $1, %xmm0, %ymm1, %ymm2 vmovd %xmm2, %rcx vmovsd (%rdx,%rcx,8), %xmm4 .LBB1_2143: testb $1, %sil je .LBB1_2145 vpextrq $1, %xmm1, %rcx vmovsd (%rdx,%rcx,8), %xmm11 .LBB1_2145: vxorpd %xmm12, %xmm12, %xmm12 testb $1, %r13b vxorpd %xmm6, %xmm6, %xmm6 je .LBB1_2147 vmovd %xmm0, %rcx vmovsd (%rdx,%rcx,8), %xmm6 .LBB1_2147: testb $1, %r9b je .LBB1_2149 vpextrq $1, %xmm0, %rcx vmovsd (%rdx,%rcx,8), %xmm12 .LBB1_2149: vmovdqa 32864(%rbx), %ymm0 vpaddq %xmm15, %xmm0, %xmm0 vpxor %xmm5, %xmm5, %xmm5 testb $1, %dil vpxor %xmm1, %xmm1, %xmm1 vmovdqa 32832(%rbx), %ymm3 je .LBB1_2151 vmovd %xmm0, %rcx vmovsd (%rdx,%rcx,8), %xmm1 .LBB1_2151: vmovaps 32864(%rbx), %ymm2 vextractf128 $1, %ymm2, %xmm2 testb $1, %r8b je .LBB1_2153 vpextrq $1, %xmm0, %rcx vmovsd (%rdx,%rcx,8), %xmm5 .LBB1_2153: vpaddq %xmm10, %xmm2, %xmm2 vxorpd %xmm0, %xmm0, %xmm0 testb $1, %r10b vxorps %xmm7, %xmm7, %xmm7 je .LBB1_2155 vmovd %xmm2, %rcx vmovsd (%rdx,%rcx,8), %xmm7 .LBB1_2155: testb $1, %r12b je .LBB1_2157 vpextrq $1, %xmm2, %rcx vmovsd (%rdx,%rcx,8), %xmm0 .LBB1_2157: vpaddd .LCPI1_44(%rip), %xmm3, %xmm3 vmovhlps %xmm3, %xmm3, %xmm2 vpmovsxdq %xmm3, %xmm8 vpmovsxdq %xmm2, %xmm2 testb $1, %r11b vmovdqa 32928(%rbx), %xmm3 je .LBB1_2159 vinsertf128 $1, %xmm2, %ymm8, %ymm10 vmovd %xmm10, %rcx vmovsd %xmm4, 33024(%rbx,%rcx,8) .LBB1_2159: testb $1, %sil je .LBB1_2161 vpextrq $1, %xmm8, %rcx vmovsd %xmm11, 33024(%rbx,%rcx,8) .LBB1_2161: testb $1, %r13b movq 32792(%rbx), %r11 movq 32960(%rbx), %r13 je .LBB1_2163 vmovd %xmm2, %rcx vmovsd %xmm6, 33024(%rbx,%rcx,8) .LBB1_2163: vpaddd .LCPI1_44(%rip), %xmm3, %xmm4 testb $1, %r9b je .LBB1_2165 vpextrq $1, %xmm2, %rax vmovsd %xmm12, 33024(%rbx,%rax,8) .LBB1_2165: vpmovsxdq %xmm4, %xmm2 testb $1, %dil je .LBB1_2167 vmovd %xmm2, %rax vmovsd %xmm1, 33024(%rbx,%rax,8) .LBB1_2167: vmovhlps %xmm4, %xmm4, %xmm1 testb $1, %r8b je .LBB1_2169 vpextrq $1, %xmm2, %rax vmovsd %xmm5, 33024(%rbx,%rax,8) .LBB1_2169: vpmovsxdq %xmm1, %xmm1 testb $1, %r10b je .LBB1_2171 vmovd %xmm1, %rax vmovsd %xmm7, 33024(%rbx,%rax,8) .LBB1_2171: testb $1, %r12b je .LBB1_1993 vpextrq $1, %xmm1, %rax vmovsd %xmm0, 33024(%rbx,%rax,8) jmp .LBB1_1993 .align 16, 0x90 .LBB1_1992: movq 32992(%rbx), %r13 vmovsd (%r13,%rsi,8), %xmm8 vmovsd (%r13,%r11,8), %xmm12 vmovsd (%r13,%r10,8), %xmm3 vmovsd (%r13,%rdx,8), %xmm4 vmovsd (%r13,%r12,8), %xmm6 vmovsd (%r13,%rcx,8), %xmm5 vpmovsxdq %xmm2, %xmm0 vmovd %xmm0, %rcx vmovsd (%r13,%rdi,8), %xmm7 vmovsd (%r13,%rax,8), %xmm1 vmovsd %xmm1, 33024(%rbx,%rcx,8) vpextrq $1, %xmm0, %rax vmovsd %xmm7, 33024(%rbx,%rax,8) vmovhlps %xmm2, %xmm2, %xmm0 vpmovsxdq %xmm0, %xmm0 vmovd %xmm0, %rax vmovsd %xmm5, 33024(%rbx,%rax,8) vextractf128 $1, %ymm2, %xmm5 vpmovsxdq %xmm5, %xmm2 vmovd %xmm2, %rax vpextrq $1, %xmm0, %rcx vmovsd %xmm6, 33024(%rbx,%rcx,8) vmovsd %xmm4, 33024(%rbx,%rax,8) vpextrq $1, %xmm2, %rax vmovdqa .LCPI1_44(%rip), %xmm0 vpaddd %xmm0, %xmm9, %xmm4 vpaddd %xmm0, %xmm13, %xmm7 vmovdqa 32704(%rbx), %ymm9 vpaddq %xmm15, %xmm9, %xmm2 vmovsd %xmm3, 33024(%rbx,%rax,8) vmovaps 32864(%rbx), %ymm1 vextractf128 $1, %ymm1, %xmm0 vpaddq %xmm10, %xmm0, %xmm6 vpaddq %xmm15, %xmm1, %xmm3 vmovhlps %xmm5, %xmm5, %xmm0 vpmovsxdq %xmm0, %xmm0 vmovd %xmm0, %rcx vpextrq $1, %xmm0, %rax vmovhlps %xmm7, %xmm7, %xmm0 vpmovsxdq %xmm7, %xmm5 vmovsd %xmm12, 33024(%rbx,%rcx,8) vpextrq $1, %xmm3, %r15 vmovd %xmm6, %rcx vmovhlps %xmm4, %xmm4, %xmm1 vpmovsxdq %xmm4, %xmm4 vpextrq $1, %xmm6, %rdi vpmovsxdq %xmm1, %xmm6 vpmovsxdq %xmm0, %xmm0 vextractf128 $1, %ymm9, %xmm1 vpaddq %xmm11, %xmm1, %xmm1 vmovd %xmm3, %rsi vpextrq $1, %xmm0, %r8 vmovd %xmm0, %r9 vpextrq $1, %xmm5, %r10 vmovd %xmm5, %r11 vmovsd %xmm8, 33024(%rbx,%rax,8) vpextrq $1, %xmm6, %r12 vmovd %xmm6, %rdx vmovsd (%r13,%rdi,8), %xmm0 vpextrq $1, %xmm4, %rdi vmovsd (%r13,%rcx,8), %xmm3 vmovd %xmm4, %rcx vmovsd (%r13,%r15,8), %xmm4 vmovd %xmm2, %rax vmovsd (%r13,%rsi,8), %xmm5 vpextrq $1, %xmm1, %rsi vmovsd (%r13,%rsi,8), %xmm6 vmovd %xmm1, %rsi vmovsd (%r13,%rsi,8), %xmm1 vpextrq $1, %xmm2, %rsi vmovsd (%r13,%rsi,8), %xmm2 vmovsd (%r13,%rax,8), %xmm7 vmovsd %xmm7, 33024(%rbx,%rcx,8) vmovsd %xmm2, 33024(%rbx,%rdi,8) vmovsd %xmm1, 33024(%rbx,%rdx,8) vmovsd %xmm6, 33024(%rbx,%r12,8) vmovsd %xmm5, 33024(%rbx,%r11,8) vmovsd %xmm4, 33024(%rbx,%r10,8) vmovsd %xmm3, 33024(%rbx,%r9,8) vmovsd %xmm0, 33024(%rbx,%r8,8) movq 32792(%rbx), %r11 movq 32960(%rbx), %r13 .LBB1_1993: movl 232(%r11,%r13), %eax cmpl $7, %eax movq 32640(%rbx), %r8 jae .LBB1_1994 testl %eax, %eax vpcmpeqd %xmm11, %xmm11, %xmm11 jne .LBB1_2231 cmpl $2, 32736(%rbx) jl .LBB1_2226 vmovdqa 64(%r11,%r13), %ymm1 vmovdqa 32032(%rbx), %ymm2 vpaddd %xmm1, %xmm2, %xmm0 vextractf128 $1, %ymm1, %xmm1 vextractf128 $1, %ymm2, %xmm2 vpaddd %xmm1, %xmm2, %xmm1 vmovdqa .LCPI1_8(%rip), %xmm6 vpmulld %xmm6, %xmm1, %xmm2 vmovhlps %xmm2, %xmm2, %xmm1 vpmovsxdq %xmm1, %xmm4 vpmulld %xmm6, %xmm0, %xmm3 vextractf128 $1, %ymm15, %xmm0 vmovhlps %xmm3, %xmm3, %xmm1 vpaddq %xmm0, %xmm4, %xmm4 vmovd %xmm4, %rdx vpmovsxdq %xmm3, %xmm3 vpaddq %xmm15, %xmm3, %xmm3 vmovd %xmm3, %rcx vpextrq $1, %xmm3, %rax movq 32992(%rbx), %rdi vmovsd (%rdi,%rcx,8), %xmm3 vpextrq $1, %xmm4, %rcx vmovsd (%rdi,%rdx,8), %xmm4 vpmovsxdq %xmm2, %xmm2 vpaddq %xmm15, %xmm2, %xmm2 vpextrq $1, %xmm2, %rdx vmovd %xmm2, %rsi vmovsd (%rdi,%rsi,8), %xmm2 vmovhpd (%rdi,%rdx,8), %xmm2, %xmm2 vmovhpd (%rdi,%rcx,8), %xmm4, %xmm4 vmovhpd (%rdi,%rax,8), %xmm3, %xmm3 vpmovsxdq %xmm1, %xmm5 vextractf128 $1, %ymm15, %xmm1 vpaddq %xmm1, %xmm5, %xmm5 vpextrq $1, %xmm5, %rax vmovd %xmm5, %rcx vmovsd (%rdi,%rcx,8), %xmm5 vmovhpd (%rdi,%rax,8), %xmm5, %xmm5 movq 31680(%rbx), %rax vmovupd %xmm5, 16(%rax,%r14) vmovaps 31744(%rbx), %ymm7 vextractf128 $1, %ymm7, %xmm5 vmovupd %xmm3, (%rax,%r14) vmovupd %xmm4, 48(%rax,%r14) vmovupd %xmm2, 32(%rax,%r14) vmovaps 64(%r11,%r13), %ymm3 vextractf128 $1, %ymm3, %xmm2 vpaddd %xmm3, %xmm7, %xmm3 vpmulld %xmm6, %xmm3, %xmm3 vpmovsxdq %xmm3, %xmm4 vpaddd %xmm2, %xmm5, %xmm2 vpmulld %xmm6, %xmm2, %xmm2 vmovhlps %xmm2, %xmm2, %xmm5 vpmovsxdq %xmm5, %xmm5 vpaddq %xmm0, %xmm5, %xmm5 vmovd %xmm5, %rax vmovsd (%rdi,%rax,8), %xmm0 vpaddq %xmm15, %xmm4, %xmm6 vmovd %xmm6, %rax vmovsd (%rdi,%rax,8), %xmm4 vmovhlps %xmm3, %xmm3, %xmm3 vpextrq $1, %xmm6, %rax vpextrq $1, %xmm5, %rcx vpmovsxdq %xmm2, %xmm2 vpaddq %xmm15, %xmm2, %xmm2 vpextrq $1, %xmm2, %rdx vmovd %xmm2, %rsi vmovsd (%rdi,%rsi,8), %xmm2 vmovhpd (%rdi,%rdx,8), %xmm2, %xmm2 vmovhpd (%rdi,%rcx,8), %xmm0, %xmm0 vmovhpd (%rdi,%rax,8), %xmm4, %xmm4 vpmovsxdq %xmm3, %xmm3 vpaddq %xmm1, %xmm3, %xmm1 vpextrq $1, %xmm1, %rax vmovd %xmm1, %rcx vmovsd (%rdi,%rcx,8), %xmm1 vmovhpd (%rdi,%rax,8), %xmm1, %xmm1 movq 31648(%rbx), %rax vmovupd %xmm1, 16(%rax,%r14) vmovupd %xmm4, (%rax,%r14) vmovupd %xmm0, 48(%rax,%r14) vmovupd %xmm2, 32(%rax,%r14) jmp .LBB1_2227 .align 16, 0x90 .LBB1_1994: cmpl $7, 32800(%rbx) vpcmpeqd %xmm11, %xmm11, %xmm11 je .LBB1_2228 jmp .LBB1_2231 .LBB1_2226: movq 31840(%rbx), %rax vmovups 32(%rax,%r14), %xmm0 vmovups 48(%rax,%r14), %xmm1 vmovups (%rax,%r14), %xmm2 vmovups 16(%rax,%r14), %xmm3 movq 31968(%rbx), %rax vmovups %xmm3, 16(%rax,%r14) vmovups %xmm2, (%rax,%r14) vmovups %xmm1, 48(%rax,%r14) vmovups %xmm0, 32(%rax,%r14) movq 32000(%rbx), %rax vmovupd 32(%rax,%r14), %xmm0 vmovupd 48(%rax,%r14), %xmm1 vmovupd (%rax,%r14), %xmm2 vmovdqu 16(%rax,%r14), %xmm3 movq 31904(%rbx), %rax vmovdqu %xmm3, 16(%rax,%r14) vmovupd %xmm2, (%rax,%r14) vmovupd %xmm1, 48(%rax,%r14) vmovupd %xmm0, 32(%rax,%r14) .LBB1_2227: cmpl $7, 32800(%rbx) jne .LBB1_2231 .LBB1_2228: cmpl $62, 32736(%rbx) jg .LBB1_2230 movl 96(%r11,%r13), %eax shll $6, %eax vmovd %eax, %xmm0 vpshufd $0, %xmm0, %xmm0 vmovaps 32288(%rbx), %ymm8 vextractf128 $1, %ymm8, %xmm1 vpaddd %xmm0, %xmm1, %xmm2 vmovdqa .LCPI1_8(%rip), %xmm7 vpmulld %xmm7, %xmm2, %xmm2 vpaddd %xmm0, %xmm8, %xmm0 vpmulld %xmm7, %xmm0, %xmm0 vpmovsxdq %xmm2, %xmm3 vpaddq %xmm15, %xmm3, %xmm4 vmovhlps %xmm2, %xmm2, %xmm2 vpmovsxdq %xmm2, %xmm3 vextractf128 $1, %ymm15, %xmm2 vpaddq %xmm2, %xmm3, %xmm3 vpextrq $1, %xmm4, %r9 vmovhlps %xmm0, %xmm0, %xmm5 vmovd %xmm4, %rdx vpmovsxdq %xmm0, %xmm4 vextractf128 $1, %ymm15, %xmm0 vpmovsxdq %xmm5, %xmm5 vpaddq %xmm0, %xmm5, %xmm5 vmovd %xmm5, %rcx vpaddq %xmm15, %xmm4, %xmm4 vpextrq $1, %xmm3, %rax vmovd %xmm3, %rsi movq 32992(%rbx), %rdi vmovsd (%rdi,%rsi,8), %xmm6 vpextrq $1, %xmm5, %rsi vmovsd (%rdi,%rdx,8), %xmm3 vmovhpd (%rdi,%r9,8), %xmm3, %xmm3 vmovhpd (%rdi,%rax,8), %xmm6, %xmm5 vpextrq $1, %xmm4, %rax vmovd %xmm4, %rdx vmovsd (%rdi,%rdx,8), %xmm4 vmovhpd (%rdi,%rax,8), %xmm4, %xmm4 vmovsd (%rdi,%rcx,8), %xmm6 vmovhpd (%rdi,%rsi,8), %xmm6, %xmm6 movq 31712(%rbx), %rax vmovupd %xmm6, 16(%rax,%r14) vmovupd %xmm4, (%rax,%r14) vmovupd %xmm5, 48(%rax,%r14) vmovupd %xmm3, 32(%rax,%r14) movl 96(%r11,%r13), %eax incl %eax shll $6, %eax vmovd %eax, %xmm3 vpshufd $0, %xmm3, %xmm3 vpaddd %xmm3, %xmm8, %xmm4 vpmulld %xmm7, %xmm4, %xmm5 vpmovsxdq %xmm5, %xmm4 vpaddd %xmm3, %xmm1, %xmm1 vpmulld %xmm7, %xmm1, %xmm3 vmovhlps %xmm3, %xmm3, %xmm1 vpmovsxdq %xmm1, %xmm1 vpaddq %xmm2, %xmm1, %xmm6 vmovd %xmm6, %rax vmovsd (%rdi,%rax,8), %xmm1 vpaddq %xmm15, %xmm4, %xmm7 vmovd %xmm7, %rax vmovsd (%rdi,%rax,8), %xmm4 vmovhlps %xmm5, %xmm5, %xmm2 vpextrq $1, %xmm7, %rax vpextrq $1, %xmm6, %rcx vpmovsxdq %xmm3, %xmm3 vpaddq %xmm15, %xmm3, %xmm3 vpextrq $1, %xmm3, %rdx vmovd %xmm3, %rsi vmovsd (%rdi,%rsi,8), %xmm3 vmovhpd (%rdi,%rdx,8), %xmm3, %xmm3 vmovhpd (%rdi,%rcx,8), %xmm1, %xmm1 vmovhpd (%rdi,%rax,8), %xmm4, %xmm4 vpmovsxdq %xmm2, %xmm2 vpaddq %xmm0, %xmm2, %xmm0 vpextrq $1, %xmm0, %rax vmovd %xmm0, %rcx vmovsd (%rdi,%rcx,8), %xmm0 vmovhpd (%rdi,%rax,8), %xmm0, %xmm0 movq 31616(%rbx), %rax vmovupd %xmm0, 16(%rax,%r14) vmovupd %xmm4, (%rax,%r14) vmovupd %xmm1, 48(%rax,%r14) vmovupd %xmm3, 32(%rax,%r14) jmp .LBB1_2231 .LBB1_2230: movq 31776(%rbx), %rax vmovups 32(%rax,%r14), %xmm0 vmovups 48(%rax,%r14), %xmm1 vmovups (%rax,%r14), %xmm2 vmovups 16(%rax,%r14), %xmm3 movq 31872(%rbx), %rax vmovups %xmm3, 16(%rax,%r14) vmovups %xmm2, (%rax,%r14) vmovups %xmm1, 48(%rax,%r14) vmovups %xmm0, 32(%rax,%r14) movq 31936(%rbx), %rax vmovups 32(%rax,%r14), %xmm0 vmovdqu 48(%rax,%r14), %xmm1 vmovups (%rax,%r14), %xmm2 vmovups 16(%rax,%r14), %xmm3 movq 31808(%rbx), %rax vmovups %xmm3, 16(%rax,%r14) vmovups %xmm2, (%rax,%r14) vmovdqu %xmm1, 48(%rax,%r14) vmovups %xmm0, 32(%rax,%r14) .align 16, 0x90 .LBB1_2231: addq $1152, %r14 movq 32672(%rbx), %rax addq $12, %rax incq %r8 decl 32224(%rbx) vmovaps .LCPI1_6(%rip), %ymm15 jne .LBB1_1985 cmpl $0, 232(%r11,%r13) movq 31328(%rbx), %rsi jne .LBB1_2235 cmpl $1, 104(%r11,%r13) jg .LBB1_2235 movabsq $1864015806464, %rax leaq (%rsi,%rax), %rcx sarq $32, %rcx vmovups 33024(%rbx,%rcx,8), %xmm0 vinsertf128 $1, 33040(%rbx,%rcx,8), %ymm0, %ymm0 vmovups 33056(%rbx,%rcx,8), %xmm1 vmovaps .LCPI1_25(%rip), %ymm4 vxorps %ymm4, %ymm0, %ymm0 vinsertf128 $1, 33072(%rbx,%rcx,8), %ymm1, %ymm1 vxorps %ymm4, %ymm1, %ymm1 vextractf128 $1, %ymm1, %xmm2 vextractf128 $1, %ymm0, %xmm3 movabsq $3770981285888, %rax leaq (%rsi,%rax), %rax movabsq $3719441678336, %rdx leaq (%rsi,%rdx), %rdx vmovups %xmm3, 33040(%rbx,%rcx,8) vmovups %xmm0, 33024(%rbx,%rcx,8) vmovups %xmm2, 33072(%rbx,%rcx,8) vmovups %xmm1, 33056(%rbx,%rcx,8) sarq $32, %rdx movabsq $1915555414016, %rcx leaq (%rsi,%rcx), %rcx sarq $32, %rcx sarq $32, %rax vmovups 33024(%rbx,%rdx,8), %xmm0 vinsertf128 $1, 33040(%rbx,%rdx,8), %ymm0, %ymm0 vxorps %ymm4, %ymm0, %ymm0 vextractf128 $1, %ymm0, %xmm3 vmovups 33072(%rbx,%rdx,8), %xmm1 vmovups 33056(%rbx,%rdx,8), %xmm2 vmovups %xmm3, 33040(%rbx,%rdx,8) vmovups %xmm0, 33024(%rbx,%rdx,8) vinsertf128 $1, %xmm1, %ymm2, %ymm0 vxorps %ymm4, %ymm0, %ymm0 vextractf128 $1, %ymm0, %xmm1 vmovups %xmm1, 33072(%rbx,%rdx,8) vmovups %xmm0, 33056(%rbx,%rdx,8) vmovups 33024(%rbx,%rcx,8), %xmm0 vinsertf128 $1, 33040(%rbx,%rcx,8), %ymm0, %ymm0 vxorps %ymm4, %ymm0, %ymm0 vextractf128 $1, %ymm0, %xmm3 vmovups 33072(%rbx,%rcx,8), %xmm1 vmovups 33056(%rbx,%rcx,8), %xmm2 vmovups %xmm3, 33040(%rbx,%rcx,8) vmovups %xmm0, 33024(%rbx,%rcx,8) vinsertf128 $1, %xmm1, %ymm2, %ymm0 vxorps %ymm4, %ymm0, %ymm0 vextractf128 $1, %ymm0, %xmm1 vmovups %xmm1, 33072(%rbx,%rcx,8) vmovups %xmm0, 33056(%rbx,%rcx,8) vmovups 33024(%rbx,%rax,8), %xmm0 vinsertf128 $1, 33040(%rbx,%rax,8), %ymm0, %ymm0 vxorps %ymm4, %ymm0, %ymm0 vextractf128 $1, %ymm0, %xmm3 vmovups 33072(%rbx,%rax,8), %xmm1 vmovups 33056(%rbx,%rax,8), %xmm2 vmovups %xmm3, 33040(%rbx,%rax,8) vmovups %xmm0, 33024(%rbx,%rax,8) vinsertf128 $1, %xmm1, %ymm2, %ymm0 vxorps %ymm4, %ymm0, %ymm0 vextractf128 $1, %ymm0, %xmm1 vmovups %xmm1, 33072(%rbx,%rax,8) vmovups %xmm0, 33056(%rbx,%rax,8) .align 16, 0x90 .LBB1_2235: cmpl $7, 32800(%rbx) jne .LBB1_2238 cmpl $63, 104(%r11,%r13) jl .LBB1_2238 movabsq $2379411881984, %rax leaq (%rsi,%rax), %rax sarq $32, %rax vmovups 33024(%rbx,%rax,8), %xmm0 vinsertf128 $1, 33040(%rbx,%rax,8), %ymm0, %ymm0 vmovups 33056(%rbx,%rax,8), %xmm1 vmovaps .LCPI1_25(%rip), %ymm4 vxorps %ymm4, %ymm0, %ymm0 vinsertf128 $1, 33072(%rbx,%rax,8), %ymm1, %ymm1 vxorps %ymm4, %ymm1, %ymm1 vextractf128 $1, %ymm1, %xmm2 vextractf128 $1, %ymm0, %xmm3 movabsq $4234837753856, %rcx leaq (%rsi,%rcx), %rcx vmovups %xmm3, 33040(%rbx,%rax,8) vmovups %xmm0, 33024(%rbx,%rax,8) vmovups %xmm2, 33072(%rbx,%rax,8) vmovups %xmm1, 33056(%rbx,%rax,8) sarq $32, %rcx movabsq $4286377361408, %rax leaq (%rsi,%rax), %rax movabsq $2430951489536, %rdx addq %rdx, %rsi sarq $32, %rsi sarq $32, %rax vmovups 33024(%rbx,%rcx,8), %xmm0 vinsertf128 $1, 33040(%rbx,%rcx,8), %ymm0, %ymm0 vxorps %ymm4, %ymm0, %ymm0 vextractf128 $1, %ymm0, %xmm3 vmovups 33072(%rbx,%rcx,8), %xmm1 vmovups 33056(%rbx,%rcx,8), %xmm2 vmovups %xmm3, 33040(%rbx,%rcx,8) vmovups %xmm0, 33024(%rbx,%rcx,8) vinsertf128 $1, %xmm1, %ymm2, %ymm0 vxorps %ymm4, %ymm0, %ymm0 vextractf128 $1, %ymm0, %xmm1 vmovups %xmm1, 33072(%rbx,%rcx,8) vmovups %xmm0, 33056(%rbx,%rcx,8) vmovups 33024(%rbx,%rsi,8), %xmm0 vinsertf128 $1, 33040(%rbx,%rsi,8), %ymm0, %ymm0 vxorps %ymm4, %ymm0, %ymm0 vextractf128 $1, %ymm0, %xmm3 vmovups 33072(%rbx,%rsi,8), %xmm1 vmovups 33056(%rbx,%rsi,8), %xmm2 vmovups %xmm3, 33040(%rbx,%rsi,8) vmovups %xmm0, 33024(%rbx,%rsi,8) vinsertf128 $1, %xmm1, %ymm2, %ymm0 vxorps %ymm4, %ymm0, %ymm0 vextractf128 $1, %ymm0, %xmm1 vmovups %xmm1, 33072(%rbx,%rsi,8) vmovups %xmm0, 33056(%rbx,%rsi,8) vmovups 33024(%rbx,%rax,8), %xmm0 vinsertf128 $1, 33040(%rbx,%rax,8), %ymm0, %ymm0 vxorps %ymm4, %ymm0, %ymm0 vextractf128 $1, %ymm0, %xmm3 vmovups 33072(%rbx,%rax,8), %xmm1 vmovups 33056(%rbx,%rax,8), %xmm2 vmovups %xmm3, 33040(%rbx,%rax,8) vmovups %xmm0, 33024(%rbx,%rax,8) vinsertf128 $1, %xmm1, %ymm2, %ymm0 vxorps %ymm4, %ymm0, %ymm0 vextractf128 $1, %ymm0, %xmm1 vmovups %xmm1, 33072(%rbx,%rax,8) vmovups %xmm0, 33056(%rbx,%rax,8) .align 16, 0x90 .LBB1_2238: movq 23520(%rbx), %rax addq $8, %rax cmpq 12088(%rbx), %rax jb .LBB1_9842 movq 23552(%rbx), %rax incq %rax movq %rax, 23552(%rbx) cmpq 12080(%rbx), %rax movl $0, %eax jb .LBB1_9842 vmovapd 20032(%rbx), %xmm2 vpermilpd $0, %xmm2, %xmm1 movl $12160, %eax movq %rax, 12024(%rbx) xorl %r12d, %r12d vmovsd .LCPI1_18(%rip), %xmm0 vdivsd %xmm2, %xmm0, %xmm0 leaq -64(%r11), %rax movq %rax, 11336(%rbx) vxorpd %xmm2, %xmm2, %xmm2 vinsertf128 $1, %xmm1, %ymm1, %ymm1 vmovapd %ymm1, 13824(%rbx) leaq -128(%r11), %rax movq %rax, 11328(%rbx) leaq -192(%r11), %rax movq %rax, 11320(%rbx) leaq 9664(%r11), %rax movq %rax, 12016(%rbx) movq $-5312, 12008(%rbx) leaq 9376(%r11), %rax movq %rax, 12000(%rbx) leaq 9888(%r11), %rax movq %rax, 11312(%rbx) vmovupd %xmm2, 43440(%rbx) vpermilpd $0, %xmm0, %xmm0 vinsertf128 $1, %xmm0, %ymm0, %ymm0 vmovapd %ymm0, 12096(%rbx) vpcmpeqd %xmm7, %xmm7, %xmm7 vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 11264(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 12352(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 12320(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 12288(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 12256(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 11232(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 12224(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 12192(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 12160(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 12128(%rbx) vmulsd .LCPI1_67(%rip), %xmm0, %xmm0 vpermilpd $0, %xmm0, %xmm0 vinsertf128 $1, %xmm0, %ymm0, %ymm0 vmovapd %ymm0, 11200(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 11168(%rbx) vmulsd .LCPI1_67(%rip), %xmm0, %xmm0 vpermilpd $0, %xmm0, %xmm0 vinsertf128 $1, %xmm0, %ymm0, %ymm0 vmovapd %ymm0, 11136(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 11104(%rbx) vmulsd .LCPI1_67(%rip), %xmm0, %xmm0 vpermilpd $0, %xmm0, %xmm0 vinsertf128 $1, %xmm0, %ymm0, %ymm0 vmovapd %ymm0, 11072(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 11040(%rbx) vmulsd .LCPI1_67(%rip), %xmm0, %xmm0 vpermilpd $0, %xmm0, %xmm0 vinsertf128 $1, %xmm0, %ymm0, %ymm0 vmovapd %ymm0, 11008(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 10976(%rbx) vmulsd .LCPI1_67(%rip), %xmm0, %xmm0 vpermilpd $0, %xmm0, %xmm0 vinsertf128 $1, %xmm0, %ymm0, %ymm0 vmovapd %ymm0, 10944(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 10912(%rbx) vmulsd .LCPI1_67(%rip), %xmm0, %xmm0 vpermilpd $0, %xmm0, %xmm0 vinsertf128 $1, %xmm0, %ymm0, %ymm0 vmovapd %ymm0, 10880(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 10848(%rbx) vmulsd .LCPI1_67(%rip), %xmm0, %xmm0 vpermilpd $0, %xmm0, %xmm0 vinsertf128 $1, %xmm0, %ymm0, %ymm0 vmovapd %ymm0, 10816(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 10784(%rbx) vmulsd .LCPI1_67(%rip), %xmm0, %xmm0 vpermilpd $0, %xmm0, %xmm0 vinsertf128 $1, %xmm0, %ymm0, %ymm0 vmovapd %ymm0, 10752(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 10720(%rbx) vmulsd .LCPI1_67(%rip), %xmm0, %xmm0 vpermilpd $0, %xmm0, %xmm0 vinsertf128 $1, %xmm0, %ymm0, %ymm0 vmovapd %ymm0, 10688(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 10656(%rbx) vmulsd .LCPI1_72(%rip), %xmm0, %xmm0 vpermilpd $0, %xmm0, %xmm0 vinsertf128 $1, %xmm0, %ymm0, %ymm0 vmovapd %ymm0, 10624(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 10592(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 10560(%rbx) vmulsd .LCPI1_72(%rip), %xmm0, %xmm0 vpermilpd $0, %xmm0, %xmm0 vinsertf128 $1, %xmm0, %ymm0, %ymm0 vmovapd %ymm0, 10528(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 10496(%rbx) vmulsd .LCPI1_72(%rip), %xmm0, %xmm0 vpermilpd $0, %xmm0, %xmm0 vinsertf128 $1, %xmm0, %ymm0, %ymm0 vmovapd %ymm0, 10464(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 10432(%rbx) vmulsd .LCPI1_72(%rip), %xmm0, %xmm0 vpermilpd $0, %xmm0, %xmm0 vinsertf128 $1, %xmm0, %ymm0, %ymm0 vmovapd %ymm0, 10400(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 10368(%rbx) vmulsd .LCPI1_72(%rip), %xmm0, %xmm0 vpermilpd $0, %xmm0, %xmm0 vinsertf128 $1, %xmm0, %ymm0, %ymm0 vmovapd %ymm0, 10336(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 10304(%rbx) vmulsd .LCPI1_72(%rip), %xmm0, %xmm0 vpermilpd $0, %xmm0, %xmm0 vinsertf128 $1, %xmm0, %ymm0, %ymm0 vmovapd %ymm0, 10272(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 10240(%rbx) vmulsd .LCPI1_72(%rip), %xmm0, %xmm0 vpermilpd $0, %xmm0, %xmm0 vinsertf128 $1, %xmm0, %ymm0, %ymm0 vmovapd %ymm0, 10208(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 10176(%rbx) vmulsd .LCPI1_72(%rip), %xmm0, %xmm0 vpermilpd $0, %xmm0, %xmm0 vinsertf128 $1, %xmm0, %ymm0, %ymm0 vmovapd %ymm0, 10144(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 10112(%rbx) vmulsd .LCPI1_72(%rip), %xmm0, %xmm0 vpermilpd $0, %xmm0, %xmm0 vinsertf128 $1, %xmm0, %ymm0, %ymm0 vmovapd %ymm0, 10080(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 10048(%rbx) vmulsd .LCPI1_67(%rip), %xmm0, %xmm0 vpermilpd $0, %xmm0, %xmm0 vinsertf128 $1, %xmm0, %ymm0, %ymm0 vmovapd %ymm0, 10016(%rbx) vmulsd .LCPI1_67(%rip), %xmm0, %xmm0 vpermilpd $0, %xmm0, %xmm0 vinsertf128 $1, %xmm0, %ymm0, %ymm0 vmovapd %ymm0, 9984(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 9952(%rbx) vmulsd .LCPI1_67(%rip), %xmm0, %xmm0 vpermilpd $0, %xmm0, %xmm0 vinsertf128 $1, %xmm0, %ymm0, %ymm0 vmovapd %ymm0, 9920(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 9888(%rbx) vmulsd .LCPI1_67(%rip), %xmm0, %xmm0 vpermilpd $0, %xmm0, %xmm0 vinsertf128 $1, %xmm0, %ymm0, %ymm0 vmovapd %ymm0, 9856(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 9824(%rbx) vmulsd .LCPI1_67(%rip), %xmm0, %xmm0 vpermilpd $0, %xmm0, %xmm0 vinsertf128 $1, %xmm0, %ymm0, %ymm0 vmovapd %ymm0, 9792(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 9760(%rbx) vmulsd .LCPI1_67(%rip), %xmm0, %xmm0 vpermilpd $0, %xmm0, %xmm0 vinsertf128 $1, %xmm0, %ymm0, %ymm0 vmovapd %ymm0, 9728(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 9696(%rbx) vmulsd .LCPI1_67(%rip), %xmm0, %xmm0 vpermilpd $0, %xmm0, %xmm0 vinsertf128 $1, %xmm0, %ymm0, %ymm0 vmovapd %ymm0, 9664(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 9632(%rbx) vmulsd .LCPI1_67(%rip), %xmm0, %xmm0 vpermilpd $0, %xmm0, %xmm0 vinsertf128 $1, %xmm0, %ymm0, %ymm0 vmovapd %ymm0, 9600(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 9568(%rbx) vmulsd .LCPI1_67(%rip), %xmm0, %xmm0 vpermilpd $0, %xmm0, %xmm0 vinsertf128 $1, %xmm0, %ymm0, %ymm0 vmovapd %ymm0, 9536(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 9504(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 9472(%rbx) vmulsd .LCPI1_72(%rip), %xmm0, %xmm0 vpermilpd $0, %xmm0, %xmm0 vinsertf128 $1, %xmm0, %ymm0, %ymm0 vmovapd %ymm0, 9440(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 9408(%rbx) vmulsd .LCPI1_72(%rip), %xmm0, %xmm0 vpermilpd $0, %xmm0, %xmm0 vinsertf128 $1, %xmm0, %ymm0, %ymm0 vmovapd %ymm0, 9376(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 9344(%rbx) vmulsd .LCPI1_72(%rip), %xmm0, %xmm0 vpermilpd $0, %xmm0, %xmm0 vinsertf128 $1, %xmm0, %ymm0, %ymm0 vmovapd %ymm0, 9312(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 9280(%rbx) vmulsd .LCPI1_72(%rip), %xmm0, %xmm0 vpermilpd $0, %xmm0, %xmm0 vinsertf128 $1, %xmm0, %ymm0, %ymm0 vmovapd %ymm0, 9248(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 9216(%rbx) vmulsd .LCPI1_72(%rip), %xmm0, %xmm0 vpermilpd $0, %xmm0, %xmm0 vinsertf128 $1, %xmm0, %ymm0, %ymm0 vmovapd %ymm0, 9184(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 9152(%rbx) vmulsd .LCPI1_72(%rip), %xmm0, %xmm0 vpermilpd $0, %xmm0, %xmm0 vinsertf128 $1, %xmm0, %ymm0, %ymm0 vmovapd %ymm0, 9120(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 9088(%rbx) vmulsd .LCPI1_72(%rip), %xmm0, %xmm0 vpermilpd $0, %xmm0, %xmm0 vinsertf128 $1, %xmm0, %ymm0, %ymm0 vmovapd %ymm0, 9056(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 9024(%rbx) vmulsd .LCPI1_72(%rip), %xmm0, %xmm0 vpermilpd $0, %xmm0, %xmm0 vinsertf128 $1, %xmm0, %ymm0, %ymm0 vmovapd %ymm0, 8992(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 8960(%rbx) vmulsd .LCPI1_72(%rip), %xmm0, %xmm0 vpermilpd $0, %xmm0, %xmm0 vinsertf128 $1, %xmm0, %ymm0, %ymm0 vmovapd %ymm0, 8928(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 8896(%rbx) vmulsd .LCPI1_67(%rip), %xmm0, %xmm0 vpermilpd $0, %xmm0, %xmm0 vinsertf128 $1, %xmm0, %ymm0, %ymm0 vmovapd %ymm0, 8864(%rbx) vmulsd .LCPI1_67(%rip), %xmm0, %xmm0 vpermilpd $0, %xmm0, %xmm0 vinsertf128 $1, %xmm0, %ymm0, %ymm0 vmovapd %ymm0, 8832(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 8800(%rbx) vmulsd .LCPI1_67(%rip), %xmm0, %xmm0 vpermilpd $0, %xmm0, %xmm0 vinsertf128 $1, %xmm0, %ymm0, %ymm0 vmovapd %ymm0, 8768(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 8736(%rbx) vmulsd .LCPI1_67(%rip), %xmm0, %xmm0 vpermilpd $0, %xmm0, %xmm0 vinsertf128 $1, %xmm0, %ymm0, %ymm0 vmovapd %ymm0, 8704(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 8672(%rbx) vmulsd .LCPI1_67(%rip), %xmm0, %xmm0 vpermilpd $0, %xmm0, %xmm0 vinsertf128 $1, %xmm0, %ymm0, %ymm0 vmovapd %ymm0, 8640(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 8608(%rbx) vmulsd .LCPI1_67(%rip), %xmm0, %xmm0 vpermilpd $0, %xmm0, %xmm0 vinsertf128 $1, %xmm0, %ymm0, %ymm0 vmovapd %ymm0, 8576(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 8544(%rbx) vmulsd .LCPI1_67(%rip), %xmm0, %xmm0 vpermilpd $0, %xmm0, %xmm0 vinsertf128 $1, %xmm0, %ymm0, %ymm0 vmovapd %ymm0, 8512(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 8480(%rbx) vmulsd .LCPI1_67(%rip), %xmm0, %xmm0 vpermilpd $0, %xmm0, %xmm0 vinsertf128 $1, %xmm0, %ymm0, %ymm0 vmovapd %ymm0, 8448(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 8416(%rbx) vmulsd .LCPI1_67(%rip), %xmm0, %xmm0 vpermilpd $0, %xmm0, %xmm0 vinsertf128 $1, %xmm0, %ymm0, %ymm0 vmovapd %ymm0, 8384(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 8352(%rbx) vmulsd .LCPI1_72(%rip), %xmm0, %xmm0 vpermilpd $0, %xmm0, %xmm0 vinsertf128 $1, %xmm0, %ymm0, %ymm0 vmovapd %ymm0, 8320(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 8288(%rbx) vmulsd .LCPI1_72(%rip), %xmm0, %xmm0 vpermilpd $0, %xmm0, %xmm0 vinsertf128 $1, %xmm0, %ymm0, %ymm0 vmovapd %ymm0, 8256(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 8224(%rbx) vmulsd .LCPI1_72(%rip), %xmm0, %xmm0 vpermilpd $0, %xmm0, %xmm0 vinsertf128 $1, %xmm0, %ymm0, %ymm0 vmovapd %ymm0, 8192(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 8160(%rbx) vmulsd .LCPI1_72(%rip), %xmm0, %xmm0 vpermilpd $0, %xmm0, %xmm0 vinsertf128 $1, %xmm0, %ymm0, %ymm0 vmovapd %ymm0, 8128(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 8096(%rbx) vmulsd .LCPI1_72(%rip), %xmm0, %xmm0 vpermilpd $0, %xmm0, %xmm0 vinsertf128 $1, %xmm0, %ymm0, %ymm0 vmovapd %ymm0, 8064(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 8032(%rbx) vmulsd .LCPI1_72(%rip), %xmm0, %xmm0 vpermilpd $0, %xmm0, %xmm0 vinsertf128 $1, %xmm0, %ymm0, %ymm0 vmovapd %ymm0, 8000(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 7968(%rbx) vmulsd .LCPI1_72(%rip), %xmm0, %xmm0 vpermilpd $0, %xmm0, %xmm0 vinsertf128 $1, %xmm0, %ymm0, %ymm0 vmovapd %ymm0, 7936(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 7904(%rbx) vmulsd .LCPI1_72(%rip), %xmm0, %xmm0 vpermilpd $0, %xmm0, %xmm0 vinsertf128 $1, %xmm0, %ymm0, %ymm0 vmovapd %ymm0, 7872(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 7840(%rbx) vmulsd .LCPI1_72(%rip), %xmm0, %xmm0 vpermilpd $0, %xmm0, %xmm0 vinsertf128 $1, %xmm0, %ymm0, %ymm0 vmovapd %ymm0, 7808(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 7776(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 7744(%rbx) vmulsd .LCPI1_67(%rip), %xmm0, %xmm0 vpermilpd $0, %xmm0, %xmm0 vinsertf128 $1, %xmm0, %ymm0, %ymm0 vmovapd %ymm0, 7712(%rbx) vmulsd .LCPI1_67(%rip), %xmm0, %xmm0 vpermilpd $0, %xmm0, %xmm0 vinsertf128 $1, %xmm0, %ymm0, %ymm0 vmovapd %ymm0, 7680(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 7648(%rbx) vmulsd .LCPI1_67(%rip), %xmm0, %xmm0 vpermilpd $0, %xmm0, %xmm0 vinsertf128 $1, %xmm0, %ymm0, %ymm0 vmovapd %ymm0, 7616(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 7584(%rbx) vmulsd .LCPI1_67(%rip), %xmm0, %xmm0 vpermilpd $0, %xmm0, %xmm0 vinsertf128 $1, %xmm0, %ymm0, %ymm0 vmovapd %ymm0, 7552(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 7520(%rbx) vmulsd .LCPI1_67(%rip), %xmm0, %xmm0 vpermilpd $0, %xmm0, %xmm0 vinsertf128 $1, %xmm0, %ymm0, %ymm0 vmovapd %ymm0, 7488(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 7456(%rbx) vmulsd .LCPI1_67(%rip), %xmm0, %xmm0 vpermilpd $0, %xmm0, %xmm0 vinsertf128 $1, %xmm0, %ymm0, %ymm0 vmovapd %ymm0, 7424(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 7392(%rbx) vmulsd .LCPI1_67(%rip), %xmm0, %xmm0 vpermilpd $0, %xmm0, %xmm0 vinsertf128 $1, %xmm0, %ymm0, %ymm0 vmovapd %ymm0, 7360(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 7328(%rbx) vmulsd .LCPI1_67(%rip), %xmm0, %xmm0 vpermilpd $0, %xmm0, %xmm0 vinsertf128 $1, %xmm0, %ymm0, %ymm0 vmovapd %ymm0, 7296(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 7264(%rbx) vmulsd .LCPI1_67(%rip), %xmm0, %xmm0 vpermilpd $0, %xmm0, %xmm0 vinsertf128 $1, %xmm0, %ymm0, %ymm0 vmovapd %ymm0, 7232(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 7200(%rbx) vmulsd .LCPI1_72(%rip), %xmm0, %xmm0 vpermilpd $0, %xmm0, %xmm0 vinsertf128 $1, %xmm0, %ymm0, %ymm0 vmovapd %ymm0, 7168(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 7136(%rbx) vmulsd .LCPI1_72(%rip), %xmm0, %xmm0 vpermilpd $0, %xmm0, %xmm0 vinsertf128 $1, %xmm0, %ymm0, %ymm0 vmovapd %ymm0, 7104(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 7072(%rbx) vmulsd .LCPI1_72(%rip), %xmm0, %xmm0 vpermilpd $0, %xmm0, %xmm0 vinsertf128 $1, %xmm0, %ymm0, %ymm0 vmovapd %ymm0, 7040(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 7008(%rbx) vmulsd .LCPI1_72(%rip), %xmm0, %xmm0 vpermilpd $0, %xmm0, %xmm0 vinsertf128 $1, %xmm0, %ymm0, %ymm0 vmovapd %ymm0, 6976(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 6944(%rbx) vmulsd .LCPI1_72(%rip), %xmm0, %xmm0 vpermilpd $0, %xmm0, %xmm0 vinsertf128 $1, %xmm0, %ymm0, %ymm0 vmovapd %ymm0, 6912(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 6880(%rbx) vmulsd .LCPI1_72(%rip), %xmm0, %xmm0 vpermilpd $0, %xmm0, %xmm0 vinsertf128 $1, %xmm0, %ymm0, %ymm0 vmovapd %ymm0, 6848(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 6816(%rbx) vmulsd .LCPI1_72(%rip), %xmm0, %xmm0 vpermilpd $0, %xmm0, %xmm0 vinsertf128 $1, %xmm0, %ymm0, %ymm0 vmovapd %ymm0, 6784(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 6752(%rbx) vmulsd .LCPI1_72(%rip), %xmm0, %xmm0 vpermilpd $0, %xmm0, %xmm0 vinsertf128 $1, %xmm0, %ymm0, %ymm0 vmovapd %ymm0, 6720(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 6688(%rbx) vmulsd .LCPI1_72(%rip), %xmm0, %xmm0 vpermilpd $0, %xmm0, %xmm0 vinsertf128 $1, %xmm0, %ymm0, %ymm0 vmovapd %ymm0, 6656(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 6624(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 6592(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 6560(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 6528(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 6496(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 6464(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 6432(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 6400(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 6368(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 6336(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 6304(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 6272(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 6240(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 6208(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 6176(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 6144(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 6112(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 6080(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 6048(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 6016(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 5984(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 5952(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 5920(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 5888(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 5856(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 5824(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 5792(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 5760(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 5728(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 5696(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 5664(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 5632(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 5600(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 5568(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 5536(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 5504(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 5472(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 5440(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 5408(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 5376(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 5344(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 5312(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 5280(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 5248(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 5216(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 5184(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 5152(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 5120(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 5088(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 5056(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 5024(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 4992(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 4960(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 4928(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 4896(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 4864(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 4832(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 4800(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 4768(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 4736(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 4704(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 4672(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 4640(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 4608(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 4576(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 4544(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 4512(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 4480(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 4448(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 4416(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 4384(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 4352(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 4320(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 4288(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 4256(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 4224(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 4192(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 4160(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 4128(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 4096(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 4064(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 4032(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 4000(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 3968(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 3936(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 3904(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 3872(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 3840(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 3808(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 3776(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 3744(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 3712(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 3680(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 3648(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 3616(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 3584(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 3552(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 3520(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 3488(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 3456(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 3424(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 3392(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 3360(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 3328(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 3296(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 3264(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 3232(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 3200(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 3168(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 3136(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 3104(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 3072(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 3040(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 3008(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 2976(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 2944(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 2912(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 2880(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 2848(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 2816(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 2784(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 2752(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 2720(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 2688(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 2656(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 2624(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 2592(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 2560(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 2528(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 2496(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 2464(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 2432(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 2400(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 2368(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 2336(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 2304(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 2272(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 2240(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 2208(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 2176(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 2144(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 2112(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 2080(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 2048(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 2016(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 1984(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 1952(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 1920(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 1888(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 1856(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 1824(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 1792(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 1760(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 1728(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 1696(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 1664(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 1632(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 1600(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 1568(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 1536(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 1504(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 1472(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 1440(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 1408(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 1376(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 1344(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 1312(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 1280(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 1248(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 1216(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 1184(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 1152(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 1120(%rbx) vinsertf128 $1, %xmm7, %ymm7, %ymm0 vmovaps %ymm0, 1088(%rbx) jmp .LBB1_2241 .align 16, 0x90 .LBB1_5330: vmovdqa %ymm12, 13824(%rbx) addq $12992, 12024(%rbx) addq $-12992, 12008(%rbx) addq $12992, 12016(%rbx) addq $12992, 12000(%rbx) addq $12992, %r12 vpcmpeqd %xmm7, %xmm7, %xmm7 vmovaps .LCPI1_6(%rip), %ymm15 .LBB1_2241: movq %r12, 31456(%rbx) vandps 1152(%r12,%r11), %ymm15, %ymm0 vmovaps 64(%r12,%r11), %ymm1 vextractf128 $1, %ymm1, %xmm3 vextractf128 $1, %ymm0, %xmm2 vpxor %xmm5, %xmm5, %xmm5 vpcmpeqd %xmm5, %xmm2, %xmm2 vpxor %xmm7, %xmm2, %xmm2 vmovdqa .LCPI1_45(%rip), %xmm6 vpcmpgtd %xmm6, %xmm3, %xmm3 vmovdqa .LCPI1_5(%rip), %xmm4 vpshufb %xmm4, %xmm3, %xmm3 vpcmpgtd %xmm6, %xmm1, %xmm1 vpshufb %xmm4, %xmm1, %xmm1 vmovlhps %xmm3, %xmm1, %xmm1 vpshufb %xmm4, %xmm2, %xmm2 vpcmpeqd %xmm5, %xmm0, %xmm0 vpxor %xmm7, %xmm0, %xmm0 vpshufb %xmm4, %xmm0, %xmm0 vmovlhps %xmm2, %xmm0, %xmm0 vandps %xmm0, %xmm1, %xmm9 vxorps %xmm14, %xmm9, %xmm0 vpmovzxwd %xmm0, %xmm1 vpslld $31, %xmm1, %xmm1 vpsrad $31, %xmm1, %xmm1 vpunpckhwd %xmm0, %xmm0, %xmm0 vpslld $31, %xmm0, %xmm0 vpsrad $31, %xmm0, %xmm0 vinsertf128 $1, %xmm0, %ymm1, %ymm0 vmovdqa 11264(%rbx), %ymm1 vptest %ymm1, %ymm0 jb .LBB1_3459 movq 32792(%rbx), %rsi movq 31456(%rbx), %rdi vmovaps 1088(%rdi,%rsi), %ymm0 vmovaps 1120(%rdi,%rsi), %ymm2 vextractf128 $1, %ymm2, %xmm1 vpextrq $1, %xmm2, %r11 vmovd %xmm2, %r10 vpextrq $1, %xmm1, %r9 vmovd %xmm1, %r8 vextractf128 $1, %ymm0, %xmm1 vpextrq $1, %xmm1, %rax vmovd %xmm1, %r14 sarq $32, %r14 sarq $32, %rax sarq $32, %r8 sarq $32, %r9 sarq $32, %r10 sarq $32, %r11 vmovd %xmm0, %rcx sarq $32, %rcx vpextrq $1, %xmm0, %rdx sarq $32, %rdx vmovd %rdx, %xmm4 vmovd %rcx, %xmm5 vmovd %r11, %xmm6 vmovd %r10, %xmm7 vmovd %r9, %xmm8 vmovd %r8, %xmm10 vmovd %rax, %xmm2 vmovd %r14, %xmm3 leaq 11848(%rdi,%rsi), %rax movq %rax, 28000(%rbx) leaq 11720(%rdi,%rsi), %rax movq %rax, 27968(%rbx) leaq 11592(%rdi,%rsi), %rax movq %rax, 27936(%rbx) leaq 11464(%rdi,%rsi), %rax movq %rax, 27904(%rbx) leaq 11336(%rdi,%rsi), %rax movq %rax, 27872(%rbx) leaq 11208(%rdi,%rsi), %rax movq %rax, 27840(%rbx) leaq 11080(%rdi,%rsi), %rax movq %rax, 27808(%rbx) leaq 10952(%rdi,%rsi), %rax movq %rax, 27776(%rbx) leaq 11928(%rdi,%rsi), %rax movq %rax, 27744(%rbx) leaq 11800(%rdi,%rsi), %rax movq %rax, 27712(%rbx) leaq 11672(%rdi,%rsi), %rax movq %rax, 27680(%rbx) leaq 11544(%rdi,%rsi), %rax movq %rax, 27648(%rbx) leaq 11416(%rdi,%rsi), %rax movq %rax, 27616(%rbx) leaq 11288(%rdi,%rsi), %rax movq %rax, 27584(%rbx) leaq 11160(%rdi,%rsi), %rax movq %rax, 27552(%rbx) leaq 11032(%rdi,%rsi), %rax movq %rax, 27520(%rbx) leaq 11888(%rdi,%rsi), %rax movq %rax, 27488(%rbx) leaq 11760(%rdi,%rsi), %rax movq %rax, 27456(%rbx) leaq 11632(%rdi,%rsi), %rax movq %rax, 27424(%rbx) leaq 11504(%rdi,%rsi), %rax movq %rax, 27392(%rbx) leaq 11376(%rdi,%rsi), %rax movq %rax, 27360(%rbx) leaq 11248(%rdi,%rsi), %rax movq %rax, 27328(%rbx) leaq 11120(%rdi,%rsi), %rax movq %rax, 27296(%rbx) leaq 10992(%rdi,%rsi), %rax movq %rax, 27264(%rbx) vpunpcklqdq %xmm6, %xmm7, %xmm6 vpunpcklqdq %xmm4, %xmm5, %xmm7 vmovdqa .LCPI1_46(%rip), %xmm1 vpsrlq $32, %xmm1, %xmm4 vpmuludq %xmm4, %xmm7, %xmm0 vpsllq $32, %xmm0, %xmm0 vpmuludq %xmm1, %xmm7, %xmm5 vpaddq %xmm0, %xmm5, %xmm11 vpsrlq $32, %xmm6, %xmm5 vmovaps %xmm9, 32320(%rbx) vpmuludq %xmm1, %xmm5, %xmm9 vpunpcklqdq %xmm2, %xmm3, %xmm3 vpunpcklqdq %xmm8, %xmm10, %xmm0 vpsrlq $32, %xmm7, %xmm2 vpmuludq %xmm1, %xmm2, %xmm2 vpsllq $32, %xmm2, %xmm2 vpaddq %xmm2, %xmm11, %xmm2 vpmuludq %xmm4, %xmm0, %xmm8 vpmuludq %xmm4, %xmm3, %xmm7 vpmuludq %xmm1, %xmm6, %xmm5 vpmuludq %xmm4, %xmm6, %xmm4 vpsllq $32, %xmm4, %xmm4 vpaddq %xmm4, %xmm5, %xmm10 vpsllq $32, %xmm9, %xmm11 vpmuludq %xmm1, %xmm3, %xmm4 vpsllq $32, %xmm7, %xmm7 vpsllq $32, %xmm8, %xmm6 vpsrlq $32, %xmm3, %xmm3 vpmuludq %xmm1, %xmm3, %xmm13 vpmuludq %xmm1, %xmm0, %xmm5 vpsrlq $32, %xmm0, %xmm3 vpaddq %xmm6, %xmm5, %xmm8 vpextrq $1, %xmm2, %rax sarq $32, %rax vpaddq %xmm7, %xmm4, %xmm9 vmovdqa .LCPI1_47(%rip), %xmm14 vpaddq %xmm14, %xmm2, %xmm0 vpextrq $1, %xmm0, %rdx sarq $32, %rdx vpmuludq %xmm1, %xmm3, %xmm4 vpaddq %xmm11, %xmm10, %xmm12 vmovdqa .LCPI1_48(%rip), %xmm10 vpaddq %xmm10, %xmm2, %xmm5 vpextrq $1, %xmm5, %rsi sarq $32, %rsi vpsllq $32, %xmm13, %xmm3 vmovd %xmm5, %rcx vmovd %rsi, %xmm7 sarq $32, %rcx vmovd %xmm0, %rsi vmovd %rdx, %xmm1 sarq $32, %rsi vpaddq %xmm3, %xmm9, %xmm6 vmovd %rax, %xmm3 vmovd %xmm2, %rax sarq $32, %rax vpsllq $32, %xmm4, %xmm4 vpaddq %xmm4, %xmm8, %xmm5 vmovd %rax, %xmm4 vpunpcklqdq %xmm3, %xmm4, %xmm0 vmovdqa %ymm0, 32928(%rbx) vmovd %rsi, %xmm3 vpunpcklqdq %xmm1, %xmm3, %xmm0 vmovdqa %ymm0, 32960(%rbx) vmovd %rcx, %xmm1 vpunpcklqdq %xmm7, %xmm1, %xmm0 vmovdqa %ymm0, 32992(%rbx) vmovdqa .LCPI1_49(%rip), %xmm0 vmovdqa %xmm0, %xmm8 vpaddq %xmm8, %xmm12, %xmm1 vpextrq $1, %xmm1, %rax sarq $32, %rax vmovd %rax, %xmm3 vmovd %xmm1, %rax sarq $32, %rax vmovd %rax, %xmm1 vpunpcklqdq %xmm3, %xmm1, %xmm0 vmovdqa %ymm0, 32896(%rbx) vpaddq %xmm14, %xmm12, %xmm1 vpextrq $1, %xmm1, %rax sarq $32, %rax vmovd %rax, %xmm3 vmovd %xmm1, %rax sarq $32, %rax vmovd %rax, %xmm1 vpunpcklqdq %xmm3, %xmm1, %xmm0 vmovdqa %ymm0, 32864(%rbx) vmovdqa .LCPI1_50(%rip), %xmm9 vpaddq %xmm9, %xmm2, %xmm1 vpextrq $1, %xmm1, %rax sarq $32, %rax vmovd %rax, %xmm3 vmovd %xmm1, %rax sarq $32, %rax vmovd %rax, %xmm1 vpunpcklqdq %xmm3, %xmm1, %xmm0 vmovdqa %ymm0, 32832(%rbx) vpaddq %xmm9, %xmm12, %xmm1 vpextrq $1, %xmm1, %rax sarq $32, %rax vmovd %rax, %xmm3 vmovd %xmm1, %rax sarq $32, %rax vmovd %rax, %xmm1 vpunpcklqdq %xmm3, %xmm1, %xmm0 vmovdqa %ymm0, 32736(%rbx) vpaddq %xmm8, %xmm2, %xmm1 vpextrq $1, %xmm1, %rax sarq $32, %rax vmovd %rax, %xmm3 vmovd %xmm1, %rax sarq $32, %rax vmovd %rax, %xmm1 vpunpcklqdq %xmm3, %xmm1, %xmm0 vmovdqa %ymm0, 32704(%rbx) vmovdqa .LCPI1_51(%rip), %xmm4 vpaddq %xmm4, %xmm2, %xmm1 vpextrq $1, %xmm1, %rax sarq $32, %rax vmovd %rax, %xmm3 vmovd %xmm1, %rax sarq $32, %rax vmovd %rax, %xmm1 vpunpcklqdq %xmm3, %xmm1, %xmm0 vmovdqa %ymm0, 32800(%rbx) vpaddq %xmm4, %xmm12, %xmm1 vpextrq $1, %xmm1, %rax sarq $32, %rax vmovd %rax, %xmm3 vmovd %xmm1, %rax sarq $32, %rax vmovd %rax, %xmm1 vpunpcklqdq %xmm3, %xmm1, %xmm0 vmovdqa %ymm0, 32672(%rbx) vmovdqa .LCPI1_52(%rip), %xmm7 vpaddq %xmm7, %xmm2, %xmm1 vpextrq $1, %xmm1, %rax sarq $32, %rax vmovd %rax, %xmm3 vmovd %xmm1, %rax sarq $32, %rax vmovd %rax, %xmm1 vpunpcklqdq %xmm3, %xmm1, %xmm0 vmovdqa %ymm0, 32640(%rbx) vpaddq %xmm7, %xmm12, %xmm1 vpextrq $1, %xmm1, %rax sarq $32, %rax vmovd %rax, %xmm3 vmovd %xmm1, %rax sarq $32, %rax vmovd %rax, %xmm1 vpunpcklqdq %xmm3, %xmm1, %xmm0 vmovdqa %ymm0, 32576(%rbx) vmovdqa .LCPI1_53(%rip), %xmm0 vpaddq %xmm0, %xmm2, %xmm1 vpextrq $1, %xmm1, %rax sarq $32, %rax vmovd %rax, %xmm3 vmovd %xmm1, %rax sarq $32, %rax vmovd %rax, %xmm1 vpunpcklqdq %xmm3, %xmm1, %xmm1 vmovdqa %ymm1, 32544(%rbx) vpaddq %xmm0, %xmm12, %xmm1 vpextrq $1, %xmm1, %rax sarq $32, %rax vmovd %rax, %xmm3 vmovd %xmm1, %rax sarq $32, %rax vmovd %rax, %xmm1 vpunpcklqdq %xmm3, %xmm1, %xmm1 vmovdqa %ymm1, 32512(%rbx) vmovdqa .LCPI1_54(%rip), %xmm3 vpaddq %xmm3, %xmm2, %xmm1 vpextrq $1, %xmm1, %rax sarq $32, %rax vmovd %rax, %xmm2 vmovd %xmm1, %rax sarq $32, %rax vmovd %rax, %xmm1 vpunpcklqdq %xmm2, %xmm1, %xmm1 vmovdqa %ymm1, 32480(%rbx) vpaddq %xmm3, %xmm12, %xmm1 vpextrq $1, %xmm1, %rax sarq $32, %rax vmovd %rax, %xmm2 vmovd %xmm1, %rax sarq $32, %rax vmovd %rax, %xmm1 vpunpcklqdq %xmm2, %xmm1, %xmm1 vmovdqa %ymm1, 32448(%rbx) vpaddq %xmm10, %xmm12, %xmm1 vpextrq $1, %xmm1, %rax sarq $32, %rax vmovd %rax, %xmm2 vmovd %xmm1, %rax sarq $32, %rax vmovd %rax, %xmm1 vpunpcklqdq %xmm2, %xmm1, %xmm1 vmovdqa %ymm1, 32384(%rbx) vpaddq %xmm4, %xmm6, %xmm1 vpextrq $1, %xmm1, %rax sarq $32, %rax vmovd %rax, %xmm2 vmovd %xmm1, %rax sarq $32, %rax vmovd %rax, %xmm1 vpunpcklqdq %xmm2, %xmm1, %xmm1 vmovdqa %xmm1, 32416(%rbx) vpaddq %xmm4, %xmm5, %xmm1 vpextrq $1, %xmm1, %rax sarq $32, %rax vmovd %rax, %xmm2 vmovd %xmm1, %rax sarq $32, %rax vmovd %rax, %xmm1 vpunpcklqdq %xmm2, %xmm1, %xmm1 vmovdqa %xmm1, 32352(%rbx) vpaddq %xmm7, %xmm6, %xmm1 vpextrq $1, %xmm1, %rax sarq $32, %rax vmovd %rax, %xmm2 vmovd %xmm1, %rax sarq $32, %rax vmovd %rax, %xmm1 vpunpcklqdq %xmm2, %xmm1, %xmm1 vmovdqa %xmm1, 32288(%rbx) vpaddq %xmm7, %xmm5, %xmm1 vpextrq $1, %xmm1, %rax sarq $32, %rax vmovd %rax, %xmm2 vmovd %xmm1, %rax sarq $32, %rax vmovd %rax, %xmm1 vpunpcklqdq %xmm2, %xmm1, %xmm1 vmovdqa %xmm1, 32256(%rbx) vpaddq %xmm0, %xmm6, %xmm1 vpextrq $1, %xmm1, %rax sarq $32, %rax vmovd %rax, %xmm2 vmovd %xmm1, %rax sarq $32, %rax vmovd %rax, %xmm1 vpunpcklqdq %xmm2, %xmm1, %xmm1 vmovdqa %xmm1, 32224(%rbx) vpaddq %xmm0, %xmm5, %xmm1 vpextrq $1, %xmm1, %rax sarq $32, %rax vmovd %rax, %xmm2 vmovd %xmm1, %rax sarq $32, %rax vmovd %rax, %xmm1 vpunpcklqdq %xmm2, %xmm1, %xmm0 vmovdqa %xmm0, 32192(%rbx) vpaddq %xmm3, %xmm6, %xmm1 vpextrq $1, %xmm1, %rax sarq $32, %rax vmovd %rax, %xmm2 vmovd %xmm1, %rax sarq $32, %rax vmovd %rax, %xmm1 vpunpcklqdq %xmm2, %xmm1, %xmm0 vmovdqa %xmm0, 32160(%rbx) vpaddq %xmm3, %xmm5, %xmm1 vpextrq $1, %xmm1, %rax sarq $32, %rax vmovd %rax, %xmm2 vmovd %xmm1, %rax sarq $32, %rax vmovd %rax, %xmm1 vpunpcklqdq %xmm2, %xmm1, %xmm0 vmovdqa %xmm0, 32128(%rbx) vpaddq %xmm10, %xmm6, %xmm1 vpextrq $1, %xmm1, %rax sarq $32, %rax vmovd %rax, %xmm2 vmovd %xmm1, %rax sarq $32, %rax vmovd %rax, %xmm1 vpunpcklqdq %xmm2, %xmm1, %xmm15 vpaddq %xmm10, %xmm5, %xmm1 vpextrq $1, %xmm1, %rax sarq $32, %rax vmovd %rax, %xmm2 vmovd %xmm1, %rax sarq $32, %rax vmovd %rax, %xmm1 vpunpcklqdq %xmm2, %xmm1, %xmm10 vpaddq %xmm8, %xmm6, %xmm2 vpextrq $1, %xmm2, %rax sarq $32, %rax vmovd %rax, %xmm3 vmovd %xmm2, %rax sarq $32, %rax vmovd %rax, %xmm1 vpunpcklqdq %xmm3, %xmm1, %xmm11 vpaddq %xmm8, %xmm5, %xmm3 vpextrq $1, %xmm3, %rax sarq $32, %rax vmovd %rax, %xmm4 vmovd %xmm3, %rax sarq $32, %rax vmovd %rax, %xmm1 vpunpcklqdq %xmm4, %xmm1, %xmm13 vpaddq %xmm14, %xmm6, %xmm4 vpextrq $1, %xmm4, %rax sarq $32, %rax vmovd %rax, %xmm7 vmovd %xmm4, %rax sarq $32, %rax vmovd %rax, %xmm1 vpunpcklqdq %xmm7, %xmm1, %xmm4 vpaddq %xmm14, %xmm5, %xmm7 vpextrq $1, %xmm7, %rax sarq $32, %rax vmovd %rax, %xmm1 vmovd %xmm7, %rax sarq $32, %rax vmovd %rax, %xmm2 vpunpcklqdq %xmm1, %xmm2, %xmm7 vpaddq %xmm9, %xmm6, %xmm1 vpextrq $1, %xmm1, %rax sarq $32, %rax vmovd %rax, %xmm2 vmovd %xmm1, %rax sarq $32, %rax vmovd %rax, %xmm1 vpunpcklqdq %xmm2, %xmm1, %xmm8 vpaddq %xmm9, %xmm5, %xmm1 vpextrq $1, %xmm1, %rax sarq $32, %rax vmovd %rax, %xmm2 vmovd %xmm1, %rax sarq $32, %rax vmovd %rax, %xmm1 vpunpcklqdq %xmm2, %xmm1, %xmm9 vpextrq $1, %xmm6, %rax sarq $32, %rax vmovd %rax, %xmm1 vmovd %xmm6, %rax sarq $32, %rax vmovd %rax, %xmm2 vpunpcklqdq %xmm1, %xmm2, %xmm6 vpextrq $1, %xmm5, %rax sarq $32, %rax vmovd %rax, %xmm1 vmovd %xmm5, %rax sarq $32, %rax vmovd %rax, %xmm2 vpunpcklqdq %xmm1, %xmm2, %xmm5 vpextrq $1, %xmm12, %rax sarq $32, %rax vmovd %rax, %xmm1 vmovd %xmm12, %rax sarq $32, %rax vmovd %rax, %xmm0 vpunpcklqdq %xmm1, %xmm0, %xmm0 vinsertf128 $1, %xmm5, %ymm0, %ymm0 vmovaps %ymm0, 25888(%rbx) vmovaps 32928(%rbx), %ymm0 vinsertf128 $1, %xmm6, %ymm0, %ymm0 vmovaps %ymm0, 25856(%rbx) vmovaps 32736(%rbx), %ymm0 vinsertf128 $1, %xmm9, %ymm0, %ymm0 vmovdqa 32320(%rbx), %xmm3 vmovaps %ymm0, 28864(%rbx) vmovaps 32832(%rbx), %ymm0 vinsertf128 $1, %xmm8, %ymm0, %ymm0 vmovaps %ymm0, 27232(%rbx) vmovaps 32864(%rbx), %ymm0 vinsertf128 $1, %xmm7, %ymm0, %ymm0 vmovaps %ymm0, 28832(%rbx) vmovaps 32960(%rbx), %ymm0 vinsertf128 $1, %xmm4, %ymm0, %ymm0 vmovaps %ymm0, 27200(%rbx) vmovaps 32896(%rbx), %ymm0 vinsertf128 $1, %xmm13, %ymm0, %ymm0 vmovaps %ymm0, 28800(%rbx) vmovaps 32704(%rbx), %ymm0 vinsertf128 $1, %xmm11, %ymm0, %ymm0 vmovaps %ymm0, 27168(%rbx) vmovaps 32384(%rbx), %ymm0 vinsertf128 $1, %xmm10, %ymm0, %ymm0 vmovaps %ymm0, 28768(%rbx) vmovaps 32992(%rbx), %ymm0 vinsertf128 $1, %xmm15, %ymm0, %ymm0 vmovaps %ymm0, 27136(%rbx) vmovaps 32448(%rbx), %ymm0 vinsertf128 $1, 32128(%rbx), %ymm0, %ymm0 vmovaps %ymm0, 28736(%rbx) vmovaps 32480(%rbx), %ymm0 vinsertf128 $1, 32160(%rbx), %ymm0, %ymm0 vmovaps %ymm0, 27104(%rbx) vmovaps 32512(%rbx), %ymm0 vinsertf128 $1, 32192(%rbx), %ymm0, %ymm0 vmovaps %ymm0, 28704(%rbx) vmovaps 32544(%rbx), %ymm0 vinsertf128 $1, 32224(%rbx), %ymm0, %ymm0 vmovaps %ymm0, 27072(%rbx) vmovaps 32576(%rbx), %ymm0 vinsertf128 $1, 32256(%rbx), %ymm0, %ymm0 vmovaps %ymm0, 28672(%rbx) vmovaps 32640(%rbx), %ymm0 vinsertf128 $1, 32288(%rbx), %ymm0, %ymm0 vmovaps %ymm0, 27040(%rbx) vmovaps 32672(%rbx), %ymm0 vinsertf128 $1, 32352(%rbx), %ymm0, %ymm0 vmovaps %ymm0, 28640(%rbx) vmovaps 32800(%rbx), %ymm0 vinsertf128 $1, 32416(%rbx), %ymm0, %ymm0 vmovaps %ymm0, 27008(%rbx) movl $1, 26976(%rbx) movl $2, %eax movl $10, %ecx .align 16, 0x90 .LBB1_2243: movl %eax, 26944(%rbx) vpunpckhwd %xmm0, %xmm3, %xmm1 vmovd %rcx, %xmm0 vpmovzxwd %xmm3, %xmm2 vpslld $31, %xmm2, %xmm5 vmovlhps %xmm0, %xmm0, %xmm0 vpslld $31, %xmm1, %xmm2 vmovaps 25888(%rbx), %ymm7 vextractf128 $1, %ymm7, %xmm4 vpsrad $31, %xmm5, %xmm9 vmovaps 25856(%rbx), %ymm8 vextractf128 $1, %ymm8, %xmm5 vpsrad $31, %xmm2, %xmm1 vpaddq %xmm4, %xmm0, %xmm6 vinsertf128 $1, %xmm0, %ymm0, %ymm12 vpaddq %xmm8, %xmm0, %xmm2 vpaddq %xmm5, %xmm0, %xmm4 vpaddq %xmm7, %xmm0, %xmm5 vpextrq $1, %xmm6, %r8 vmovd %xmm6, %r14 vinsertf128 $1, %xmm1, %ymm9, %ymm0 vpextrq $1, %xmm5, %r13 vmovd %xmm5, %rdx vpextrq $1, %xmm4, %r11 vmovd %xmm4, %r12 vpextrq $1, %xmm2, %rax vmovd %xmm2, %rsi vmovdqa 12352(%rbx), %ymm1 vptest %ymm1, %ymm0 jb .LBB1_2244 movq %rcx, 28608(%rbx) vpextrb $0, %xmm3, %ecx movl %ecx, 32736(%rbx) vpextrb $4, %xmm3, %edi movl %edi, 32992(%rbx) vpextrb $2, %xmm3, %r15d vxorps %xmm0, %xmm0, %xmm0 testb $1, %cl vpxor %xmm1, %xmm1, %xmm1 je .LBB1_2247 vmovsd 33024(%rbx,%rsi,8), %xmm1 .LBB1_2247: movq %rsi, 28384(%rbx) vpextrb $6, %xmm3, %r10d testb $1, %r15b movq 32792(%rbx), %rsi je .LBB1_2249 vmovsd 33024(%rbx,%rax,8), %xmm0 .LBB1_2249: movq %rax, 28416(%rbx) vpextrb $8, %xmm3, %eax vxorpd %xmm2, %xmm2, %xmm2 movl 32992(%rbx), %ecx testb $1, %cl vxorpd %xmm4, %xmm4, %xmm4 je .LBB1_2251 vmovsd 33024(%rbx,%r12,8), %xmm4 .LBB1_2251: vmovapd %xmm4, 32928(%rbx) vpextrb $10, %xmm3, %r9d testb $1, %r10b je .LBB1_2253 vmovsd 33024(%rbx,%r11,8), %xmm2 .LBB1_2253: vmovapd %xmm2, 32960(%rbx) movq %r12, 28448(%rbx) vpextrb $12, %xmm3, %edi vxorpd %xmm2, %xmm2, %xmm2 movl %eax, 29056(%rbx) testb $1, %al vxorpd %xmm4, %xmm4, %xmm4 je .LBB1_2255 vmovsd 33024(%rbx,%rdx,8), %xmm4 .LBB1_2255: vpextrb $14, %xmm3, %r12d testb $1, %r9b je .LBB1_2257 vmovsd 33024(%rbx,%r13,8), %xmm2 .LBB1_2257: movq %r11, 32288(%rbx) vmovdqa %xmm3, 32320(%rbx) vpxor %xmm3, %xmm3, %xmm3 testb $1, %dil vxorpd %xmm5, %xmm5, %xmm5 vmovdqa %ymm12, %ymm8 je .LBB1_2259 vmovsd 33024(%rbx,%r14,8), %xmm5 .LBB1_2259: movq %rdx, 28480(%rbx) testb $1, %r12b je .LBB1_2261 vmovsd 33024(%rbx,%r8,8), %xmm3 .LBB1_2261: vmovdqa %xmm3, 32896(%rbx) movq %r8, 28576(%rbx) vunpcklpd %xmm2, %xmm4, %xmm2 vmovapd %ymm2, 32832(%rbx) vmovdqa 27008(%rbx), %ymm3 vpaddq %xmm3, %xmm8, %xmm2 vunpcklpd %xmm0, %xmm1, %xmm0 vmovapd %ymm0, 32800(%rbx) vpextrq $1, %xmm2, %rax vextractf128 $1, %ymm3, %xmm0 vextractf128 $1, %ymm8, %xmm4 vpaddq %xmm0, %xmm4, %xmm3 vmovd %xmm2, %rcx leaq 33024(%rbx,%rcx,8), %r8 vxorps %xmm0, %xmm0, %xmm0 movl 32736(%rbx), %ecx testb $1, %cl vxorpd %xmm1, %xmm1, %xmm1 je .LBB1_2263 vmovsd (%r8), %xmm1 .LBB1_2263: movq %r8, 32448(%rbx) movq %r13, 28512(%rbx) vmovd %xmm3, %rcx leaq 33024(%rbx,%rax,8), %rax testb $1, %r15b movl %edi, %r13d je .LBB1_2265 vmovsd (%rax), %xmm0 .LBB1_2265: movq %rax, 31232(%rbx) vmovdqa 28640(%rbx), %ymm2 vpaddq %xmm2, %xmm8, %xmm2 vpextrq $1, %xmm3, %rax leaq 33024(%rbx,%rcx,8), %rcx vxorpd %xmm6, %xmm6, %xmm6 movl 32992(%rbx), %r11d testb $1, %r11b vxorpd %xmm3, %xmm3, %xmm3 movl %r12d, %r8d je .LBB1_2267 vmovsd (%rcx), %xmm3 .LBB1_2267: vmovapd %xmm3, 32672(%rbx) vmovapd %xmm5, 32864(%rbx) movq %rcx, 31200(%rbx) vmovaps 28640(%rbx), %ymm3 vextractf128 $1, %ymm3, %xmm3 vextractf128 $1, %ymm8, %xmm7 vmovd %xmm2, %rcx leaq 33024(%rbx,%rax,8), %rax testb $1, %r10b movl 32736(%rbx), %edi je .LBB1_2269 vmovsd (%rax), %xmm6 .LBB1_2269: movq %rax, 31168(%rbx) vpaddq %xmm3, %xmm7, %xmm5 vpextrq $1, %xmm2, %rax leaq 33024(%rbx,%rcx,8), %rcx vxorpd %xmm2, %xmm2, %xmm2 movl 29056(%rbx), %edx testb $1, %dl vxorps %xmm3, %xmm3, %xmm3 je .LBB1_2271 vmovsd (%rcx), %xmm3 .LBB1_2271: movq %rcx, 31072(%rbx) vmovd %xmm5, %rcx leaq 33024(%rbx,%rax,8), %rax testb $1, %r9b je .LBB1_2273 vmovsd (%rax), %xmm2 .LBB1_2273: movq %rax, 31008(%rbx) movq %r14, 28544(%rbx) vpextrq $1, %xmm5, %rax leaq 33024(%rbx,%rcx,8), %rcx vxorpd %xmm5, %xmm5, %xmm5 testb $1, %r13b vpxor %xmm15, %xmm15, %xmm15 je .LBB1_2275 vmovsd (%rcx), %xmm15 .LBB1_2275: vmovapd %xmm6, 32704(%rbx) movq %rcx, 30944(%rbx) leaq 33024(%rbx,%rax,8), %rax testb $1, %r8b je .LBB1_2277 vmovsd (%rax), %xmm5 .LBB1_2277: vmovapd %xmm5, 32640(%rbx) movq %rax, 30912(%rbx) vunpcklpd %xmm2, %xmm3, %xmm2 vmovapd %ymm2, 32576(%rbx) vmovdqa 27040(%rbx), %ymm3 vpaddq %xmm3, %xmm8, %xmm2 vunpcklpd %xmm0, %xmm1, %xmm0 vmovapd %ymm0, 32544(%rbx) vpextrq $1, %xmm2, %rax vextractf128 $1, %ymm3, %xmm0 vpaddq %xmm0, %xmm4, %xmm0 vmovd %xmm2, %rcx leaq 33024(%rbx,%rcx,8), %rcx vxorpd %xmm6, %xmm6, %xmm6 testb $1, %dil vxorpd %xmm5, %xmm5, %xmm5 je .LBB1_2279 vmovsd (%rcx), %xmm5 .LBB1_2279: movq %rcx, 31136(%rbx) vmovd %xmm0, %rcx leaq 33024(%rbx,%rax,8), %rax testb $1, %r15b movl 29056(%rbx), %edx je .LBB1_2281 vmovsd (%rax), %xmm6 .LBB1_2281: movq %rax, 31104(%rbx) vmovdqa 28672(%rbx), %ymm1 vpaddq %xmm1, %xmm8, %xmm1 vpextrq $1, %xmm0, %rax leaq 33024(%rbx,%rcx,8), %rcx vxorpd %xmm2, %xmm2, %xmm2 testb $1, %r11b vxorpd %xmm0, %xmm0, %xmm0 je .LBB1_2283 vmovsd (%rcx), %xmm0 .LBB1_2283: vmovapd %xmm0, 32416(%rbx) movq %rcx, 31040(%rbx) vmovaps 28672(%rbx), %ymm0 vextractf128 $1, %ymm0, %xmm0 vmovd %xmm1, %rcx leaq 33024(%rbx,%rax,8), %rax testb $1, %r10b je .LBB1_2285 vmovsd (%rax), %xmm2 .LBB1_2285: vmovapd %xmm2, 32512(%rbx) movq %rax, 30976(%rbx) vpaddq %xmm0, %xmm7, %xmm2 vpextrq $1, %xmm1, %rax leaq 33024(%rbx,%rcx,8), %rcx vxorps %xmm0, %xmm0, %xmm0 testb $1, %dl vxorpd %xmm1, %xmm1, %xmm1 movl %edi, %r14d je .LBB1_2287 vmovsd (%rcx), %xmm1 .LBB1_2287: movq %rcx, 30816(%rbx) vmovd %xmm2, %rcx leaq 33024(%rbx,%rax,8), %rax testb $1, %r9b je .LBB1_2289 vmovsd (%rax), %xmm0 .LBB1_2289: movq %rax, 30752(%rbx) vpextrq $1, %xmm2, %rax leaq 33024(%rbx,%rcx,8), %rcx vxorpd %xmm2, %xmm2, %xmm2 testb $1, %r13b vpxor %xmm3, %xmm3, %xmm3 je .LBB1_2291 vmovsd (%rcx), %xmm3 .LBB1_2291: vmovdqa %xmm3, 32352(%rbx) movq %rcx, 30688(%rbx) leaq 33024(%rbx,%rax,8), %rax testb $1, %r8b je .LBB1_2293 vmovsd (%rax), %xmm2 .LBB1_2293: vmovapd %xmm2, 32384(%rbx) movq %rax, 30656(%rbx) vunpcklpd %xmm0, %xmm1, %xmm0 vmovapd %ymm0, 29216(%rbx) vmovdqa 27072(%rbx), %ymm0 vpaddq %xmm0, %xmm8, %xmm1 vunpcklpd %xmm6, %xmm5, %xmm2 vmovapd %ymm2, 29184(%rbx) vpextrq $1, %xmm1, %rax vextractf128 $1, %ymm0, %xmm0 vpaddq %xmm0, %xmm4, %xmm0 vmovd %xmm1, %rcx leaq 33024(%rbx,%rcx,8), %rcx vxorpd %xmm6, %xmm6, %xmm6 testb $1, %r14b vxorpd %xmm5, %xmm5, %xmm5 je .LBB1_2295 vmovsd (%rcx), %xmm5 .LBB1_2295: movq %rcx, 30880(%rbx) vmovd %xmm0, %rcx leaq 33024(%rbx,%rax,8), %rax testb $1, %r15b je .LBB1_2297 vmovsd (%rax), %xmm6 .LBB1_2297: movq %rax, 30848(%rbx) vmovdqa 28704(%rbx), %ymm1 vpaddq %xmm1, %xmm8, %xmm1 vpextrq $1, %xmm0, %rax leaq 33024(%rbx,%rcx,8), %rcx vxorpd %xmm2, %xmm2, %xmm2 testb $1, %r11b vxorpd %xmm0, %xmm0, %xmm0 je .LBB1_2299 vmovsd (%rcx), %xmm0 .LBB1_2299: vmovapd %xmm0, 29120(%rbx) movq %rcx, 30784(%rbx) vmovaps 28704(%rbx), %ymm0 vextractf128 $1, %ymm0, %xmm0 vmovd %xmm1, %rcx leaq 33024(%rbx,%rax,8), %rax testb $1, %r10b je .LBB1_2301 vmovsd (%rax), %xmm2 .LBB1_2301: vmovapd %xmm2, 29152(%rbx) movq %rax, 30720(%rbx) vpaddq %xmm0, %xmm7, %xmm2 vpextrq $1, %xmm1, %rax leaq 33024(%rbx,%rcx,8), %rcx vxorps %xmm0, %xmm0, %xmm0 testb $1, %dl vxorpd %xmm1, %xmm1, %xmm1 je .LBB1_2303 vmovsd (%rcx), %xmm1 .LBB1_2303: movq %rcx, 30560(%rbx) vmovd %xmm2, %rcx leaq 33024(%rbx,%rax,8), %rax testb $1, %r9b je .LBB1_2305 vmovsd (%rax), %xmm0 .LBB1_2305: movq %rax, 30496(%rbx) vpextrq $1, %xmm2, %rax leaq 33024(%rbx,%rcx,8), %rcx vxorpd %xmm2, %xmm2, %xmm2 testb $1, %r13b vpxor %xmm3, %xmm3, %xmm3 je .LBB1_2307 vmovsd (%rcx), %xmm3 .LBB1_2307: vmovdqa %xmm3, 29024(%rbx) movq %rcx, 30432(%rbx) leaq 33024(%rbx,%rax,8), %rax testb $1, %r8b je .LBB1_2309 vmovsd (%rax), %xmm2 .LBB1_2309: vmovapd %xmm2, 29088(%rbx) movq %rax, 30400(%rbx) vunpcklpd %xmm0, %xmm1, %xmm0 vmovapd %ymm0, 28992(%rbx) vmovdqa 27104(%rbx), %ymm1 vpaddq %xmm1, %xmm8, %xmm0 vunpcklpd %xmm6, %xmm5, %xmm2 vmovapd %ymm2, 28960(%rbx) vpextrq $1, %xmm0, %rax vextractf128 $1, %ymm1, %xmm1 vpaddq %xmm1, %xmm4, %xmm1 vmovd %xmm0, %rcx leaq 33024(%rbx,%rcx,8), %rcx vxorpd %xmm5, %xmm5, %xmm5 testb $1, %r14b vxorpd %xmm0, %xmm0, %xmm0 je .LBB1_2311 vmovsd (%rcx), %xmm0 .LBB1_2311: movq %rcx, 30624(%rbx) vmovd %xmm1, %rcx leaq 33024(%rbx,%rax,8), %rax testb $1, %r15b je .LBB1_2313 vmovsd (%rax), %xmm5 .LBB1_2313: movq %rax, 30592(%rbx) vmovdqa 28736(%rbx), %ymm2 vpaddq %xmm2, %xmm8, %xmm2 vpextrq $1, %xmm1, %rax leaq 33024(%rbx,%rcx,8), %rcx vpxor %xmm3, %xmm3, %xmm3 testb $1, %r11b vxorpd %xmm1, %xmm1, %xmm1 je .LBB1_2315 vmovsd (%rcx), %xmm1 .LBB1_2315: vmovapd %xmm1, 28896(%rbx) movq %rcx, 30528(%rbx) vmovaps 28736(%rbx), %ymm1 vextractf128 $1, %ymm1, %xmm1 vmovd %xmm2, %rcx leaq 33024(%rbx,%rax,8), %rax testb $1, %r10b je .LBB1_2317 vmovsd (%rax), %xmm3 .LBB1_2317: vmovdqa %xmm3, 28928(%rbx) movq %rax, 30464(%rbx) vpaddq %xmm1, %xmm7, %xmm6 vpextrq $1, %xmm2, %rax leaq 33024(%rbx,%rcx,8), %rcx vxorps %xmm1, %xmm1, %xmm1 testb $1, %dl vxorpd %xmm2, %xmm2, %xmm2 je .LBB1_2319 vmovsd (%rcx), %xmm2 .LBB1_2319: movq %rcx, 30304(%rbx) vmovd %xmm6, %rcx leaq 33024(%rbx,%rax,8), %rax testb $1, %r9b je .LBB1_2321 vmovsd (%rax), %xmm1 .LBB1_2321: movq %rax, 30240(%rbx) vpextrq $1, %xmm6, %rax leaq 33024(%rbx,%rcx,8), %rcx vpxor %xmm3, %xmm3, %xmm3 testb $1, %r13b vpxor %xmm10, %xmm10, %xmm10 je .LBB1_2323 vmovsd (%rcx), %xmm10 .LBB1_2323: movq %rcx, 30176(%rbx) leaq 33024(%rbx,%rax,8), %rax testb $1, %r8b je .LBB1_2325 vmovsd (%rax), %xmm3 .LBB1_2325: vmovdqa %xmm3, 28352(%rbx) movq %rax, 30144(%rbx) vunpcklpd %xmm1, %xmm2, %xmm1 vmovapd %ymm1, 28192(%rbx) vmovdqa 27136(%rbx), %ymm2 vpaddq %xmm2, %xmm8, %xmm1 vunpcklpd %xmm5, %xmm0, %xmm0 vmovapd %ymm0, 28160(%rbx) vpextrq $1, %xmm1, %rax vextractf128 $1, %ymm2, %xmm0 vpaddq %xmm0, %xmm4, %xmm0 vmovd %xmm1, %rcx leaq 33024(%rbx,%rcx,8), %rcx vxorpd %xmm1, %xmm1, %xmm1 testb $1, %r14b vpxor %xmm11, %xmm11, %xmm11 je .LBB1_2327 vmovsd (%rcx), %xmm11 .LBB1_2327: movq %rcx, 30368(%rbx) vmovd %xmm0, %rcx leaq 33024(%rbx,%rax,8), %rax testb $1, %r15b je .LBB1_2329 vmovsd (%rax), %xmm1 .LBB1_2329: movq %rax, 30336(%rbx) vmovsd %xmm1, 32256(%rbx) vmovdqa 28768(%rbx), %ymm1 vpaddq %xmm1, %xmm8, %xmm1 vpextrq $1, %xmm0, %rax leaq 33024(%rbx,%rcx,8), %rcx vpxor %xmm14, %xmm14, %xmm14 testb $1, %r11b vxorpd %xmm0, %xmm0, %xmm0 je .LBB1_2331 vmovsd (%rcx), %xmm0 .LBB1_2331: movq %rcx, 30272(%rbx) vmovsd %xmm0, 32160(%rbx) vmovaps 28768(%rbx), %ymm0 vextractf128 $1, %ymm0, %xmm0 vmovd %xmm1, %rcx leaq 33024(%rbx,%rax,8), %rax testb $1, %r10b je .LBB1_2333 vmovsd (%rax), %xmm14 .LBB1_2333: movq %rax, 30208(%rbx) vpaddq %xmm0, %xmm7, %xmm0 vpextrq $1, %xmm1, %rax leaq 33024(%rbx,%rcx,8), %rcx vxorpd %xmm1, %xmm1, %xmm1 testb $1, %dl vpxor %xmm9, %xmm9, %xmm9 je .LBB1_2335 vmovsd (%rcx), %xmm9 .LBB1_2335: movq %rcx, 30016(%rbx) vmovd %xmm0, %rcx leaq 33024(%rbx,%rax,8), %rax testb $1, %r9b je .LBB1_2337 vmovsd (%rax), %xmm1 .LBB1_2337: movq %rax, 29952(%rbx) vpextrq $1, %xmm0, %rax leaq 33024(%rbx,%rcx,8), %rcx vxorpd %xmm0, %xmm0, %xmm0 testb $1, %r13b vpxor %xmm2, %xmm2, %xmm2 je .LBB1_2339 vmovsd (%rcx), %xmm2 .LBB1_2339: movq %rcx, 29920(%rbx) vmovsd %xmm1, 32128(%rbx) leaq 33024(%rbx,%rax,8), %rax testb $1, %r8b je .LBB1_2341 vmovsd (%rax), %xmm0 .LBB1_2341: movq %rax, 29888(%rbx) vmovsd %xmm0, 32064(%rbx) vmovdqa 27168(%rbx), %ymm1 vpaddq %xmm1, %xmm8, %xmm0 vmovd %xmm0, %rcx vpextrq $1, %xmm0, %rax vextractf128 $1, %ymm1, %xmm0 vpaddq %xmm0, %xmm4, %xmm1 leaq 33024(%rbx,%rcx,8), %rcx vxorps %xmm0, %xmm0, %xmm0 testb $1, %r14b vpxor %xmm3, %xmm3, %xmm3 movq 31456(%rbx), %r12 je .LBB1_2343 vmovsd (%rcx), %xmm3 .LBB1_2343: movq %rcx, 30112(%rbx) vmovsd %xmm2, 31936(%rbx) vmovd %xmm1, %rcx leaq 33024(%rbx,%rax,8), %rax testb $1, %r15b je .LBB1_2345 vmovsd (%rax), %xmm0 .LBB1_2345: movq %rax, 30080(%rbx) vmovsd %xmm0, 32096(%rbx) vmovdqa 28800(%rbx), %ymm0 vpaddq %xmm0, %xmm8, %xmm0 vpextrq $1, %xmm1, %rax leaq 33024(%rbx,%rcx,8), %rcx vpxor %xmm13, %xmm13, %xmm13 testb $1, %r11b vxorpd %xmm1, %xmm1, %xmm1 je .LBB1_2347 vmovsd (%rcx), %xmm1 .LBB1_2347: movq %rcx, 30048(%rbx) vmovsd %xmm1, 31904(%rbx) vmovaps 28800(%rbx), %ymm1 vextractf128 $1, %ymm1, %xmm1 vmovd %xmm0, %rcx leaq 33024(%rbx,%rax,8), %rax testb $1, %r10b je .LBB1_2349 vmovsd (%rax), %xmm13 .LBB1_2349: movq %rax, 29984(%rbx) vpaddq %xmm1, %xmm7, %xmm1 vpextrq $1, %xmm0, %rax leaq 33024(%rbx,%rcx,8), %rcx vxorpd %xmm0, %xmm0, %xmm0 testb $1, %dl vxorps %xmm12, %xmm12, %xmm12 je .LBB1_2351 vmovsd (%rcx), %xmm12 .LBB1_2351: movq %rcx, 29760(%rbx) vmovd %xmm1, %rcx leaq 33024(%rbx,%rax,8), %rax testb $1, %r9b je .LBB1_2353 vmovsd (%rax), %xmm0 .LBB1_2353: movq %rax, 29696(%rbx) vmovsd %xmm0, 31872(%rbx) vpextrq $1, %xmm1, %rax leaq 33024(%rbx,%rcx,8), %rcx vxorpd %xmm0, %xmm0, %xmm0 testb $1, %r13b vxorpd %xmm1, %xmm1, %xmm1 je .LBB1_2355 vmovsd (%rcx), %xmm1 .LBB1_2355: movq %rcx, 29664(%rbx) vmovsd %xmm1, 31712(%rbx) leaq 33024(%rbx,%rax,8), %rax testb $1, %r8b je .LBB1_2357 vmovsd (%rax), %xmm0 .LBB1_2357: movq %rax, 29632(%rbx) vmovsd %xmm0, 31808(%rbx) vmovdqa 27200(%rbx), %ymm1 vpaddq %xmm1, %xmm8, %xmm0 vmovdqa %ymm8, %ymm2 vmovd %xmm0, %rcx vpextrq $1, %xmm0, %rax vextractf128 $1, %ymm1, %xmm0 vpaddq %xmm0, %xmm4, %xmm1 leaq 33024(%rbx,%rcx,8), %rcx vxorps %xmm0, %xmm0, %xmm0 testb $1, %r14b vxorpd %xmm6, %xmm6, %xmm6 vmovsd %xmm6, 32480(%rbx) je .LBB1_2359 vmovsd (%rcx), %xmm8 vmovsd %xmm8, 32480(%rbx) .LBB1_2359: movq %rcx, 29856(%rbx) vmovd %xmm1, %rcx leaq 33024(%rbx,%rax,8), %rax testb $1, %r15b je .LBB1_2361 vmovsd (%rax), %xmm0 .LBB1_2361: movq %rax, 29824(%rbx) vmovsd %xmm0, 31840(%rbx) vmovdqa 28832(%rbx), %ymm0 vpaddq %xmm0, %xmm2, %xmm0 vpextrq $1, %xmm1, %rax leaq 33024(%rbx,%rcx,8), %rcx vxorpd %xmm6, %xmm6, %xmm6 testb $1, %r11b vxorpd %xmm1, %xmm1, %xmm1 je .LBB1_2363 vmovsd (%rcx), %xmm1 .LBB1_2363: movq %rcx, 29792(%rbx) vmovsd %xmm1, 31680(%rbx) vmovaps 28832(%rbx), %ymm1 vextractf128 $1, %ymm1, %xmm1 vmovd %xmm0, %rcx leaq 33024(%rbx,%rax,8), %rax testb $1, %r10b je .LBB1_2365 vmovsd (%rax), %xmm6 .LBB1_2365: movq %rax, 29728(%rbx) vpaddq %xmm1, %xmm7, %xmm1 vpextrq $1, %xmm0, %rax leaq 33024(%rbx,%rcx,8), %rcx vxorpd %xmm0, %xmm0, %xmm0 testb $1, %dl vxorpd %xmm5, %xmm5, %xmm5 je .LBB1_2367 vmovsd (%rcx), %xmm5 .LBB1_2367: movq %rcx, 29504(%rbx) vmovd %xmm1, %rcx leaq 33024(%rbx,%rax,8), %rax testb $1, %r9b je .LBB1_2369 vmovsd (%rax), %xmm0 .LBB1_2369: movl %r9d, %edi movl %r14d, %r9d movq %rax, 29440(%rbx) vmovsd %xmm0, 31648(%rbx) vpextrq $1, %xmm1, %rax leaq 33024(%rbx,%rcx,8), %rcx vxorpd %xmm0, %xmm0, %xmm0 testb $1, %r13b vxorpd %xmm1, %xmm1, %xmm1 je .LBB1_2371 vmovsd (%rcx), %xmm1 .LBB1_2371: movq %rcx, 29408(%rbx) vmovsd %xmm1, 31424(%rbx) leaq 33024(%rbx,%rax,8), %rax testb $1, %r8b movl %r8d, %r14d je .LBB1_2373 vmovsd (%rax), %xmm0 .LBB1_2373: movl %edi, %r8d movq %rax, 29376(%rbx) vmovsd %xmm0, 31584(%rbx) vmovdqa 27232(%rbx), %ymm1 vpaddq %xmm1, %xmm2, %xmm0 vmovd %xmm0, %rcx vpextrq $1, %xmm0, %rax vextractf128 $1, %ymm1, %xmm0 vpaddq %xmm0, %xmm4, %xmm1 leaq 33024(%rbx,%rcx,8), %rcx vxorps %xmm0, %xmm0, %xmm0 testb $1, %r9b vxorps %xmm4, %xmm4, %xmm4 je .LBB1_2375 vmovsd (%rcx), %xmm4 .LBB1_2375: movq %rcx, 29600(%rbx) vmovd %xmm1, %rcx leaq 33024(%rbx,%rax,8), %rax testb $1, %r15b je .LBB1_2377 vmovsd (%rax), %xmm0 .LBB1_2377: movq %rax, 29568(%rbx) vmovsd %xmm0, 31616(%rbx) vmovdqa 28864(%rbx), %ymm0 vpaddq %xmm0, %xmm2, %xmm0 vpextrq $1, %xmm1, %rax leaq 33024(%rbx,%rcx,8), %rdi vpxor %xmm2, %xmm2, %xmm2 testb $1, %r11b vxorpd %xmm1, %xmm1, %xmm1 je .LBB1_2379 vmovsd (%rdi), %xmm1 .LBB1_2379: vmovsd %xmm1, 31392(%rbx) vmovaps 28864(%rbx), %ymm1 vextractf128 $1, %ymm1, %xmm1 vmovd %xmm0, %rcx leaq 33024(%rbx,%rax,8), %rax testb $1, %r10b je .LBB1_2381 vmovsd (%rax), %xmm2 .LBB1_2381: movq %rax, 29472(%rbx) movq %rdi, 29536(%rbx) vmovsd %xmm6, 31744(%rbx) vpaddq %xmm1, %xmm7, %xmm1 vpextrq $1, %xmm0, %rax leaq 33024(%rbx,%rcx,8), %rdi vxorpd %xmm6, %xmm6, %xmm6 testb $1, %dl vxorpd %xmm0, %xmm0, %xmm0 je .LBB1_2383 vmovsd (%rdi), %xmm0 .LBB1_2383: vmovsd %xmm0, 31296(%rbx) vmovsd %xmm5, 31552(%rbx) vmovd %xmm1, %rcx leaq 33024(%rbx,%rax,8), %rax testb $1, %r8b vxorpd %xmm0, %xmm0, %xmm0 je .LBB1_2385 vmovsd (%rax), %xmm6 .LBB1_2385: movq %rax, 29312(%rbx) vpextrq $1, %xmm1, %rax leaq 33024(%rbx,%rcx,8), %rcx vxorpd %xmm1, %xmm1, %xmm1 testb $1, %r13b vxorpd %xmm5, %xmm5, %xmm5 je .LBB1_2387 vmovsd (%rcx), %xmm5 .LBB1_2387: vmovsd %xmm9, 32032(%rbx) vmovsd %xmm14, 32192(%rbx) leaq 33024(%rbx,%rax,8), %rax testb $1, %r14b je .LBB1_2389 vmovsd (%rax), %xmm1 .LBB1_2389: movq %rdi, 29344(%rbx) testb $1, %r9b je .LBB1_2391 movabsq $-4616189618054758400, %rdi movq %rdi, 10944(%rsi,%r12) .LBB1_2391: movq %rax, 29248(%rbx) vmovsd %xmm3, 32000(%rbx) testb $1, %r15b movl %edx, %edi movabsq $-4616189618054758400, %rax je .LBB1_2393 movq %rax, 11072(%rsi,%r12) .LBB1_2393: vmovsd %xmm5, 31264(%rbx) testb $1, %r11b je .LBB1_2395 movq %rax, 11200(%rsi,%r12) .LBB1_2395: testb $1, %r10b je .LBB1_2397 movq %rax, 11328(%rsi,%r12) .LBB1_2397: movq %rcx, 29280(%rbx) testb $1, %dil je .LBB1_2399 movq %rax, 11456(%rsi,%r12) .LBB1_2399: vmovsd %xmm1, 31328(%rbx) testb $1, %r8b movl %r10d, %edx je .LBB1_2401 movq %rax, 11584(%rsi,%r12) .LBB1_2401: testb $1, %r13b je .LBB1_2403 movq %rax, 11712(%rsi,%r12) .LBB1_2403: vmovsd %xmm13, 31968(%rbx) vmovsd %xmm11, 32224(%rbx) testb $1, %r14b je .LBB1_2405 movq %rax, 11840(%rsi,%r12) .LBB1_2405: testb $1, %r9b je .LBB1_2407 movq 27776(%rbx), %rax vmovupd %xmm0, 16(%rax) vmovupd %xmm0, (%rax) .LBB1_2407: testb $1, %r15b je .LBB1_2409 movq 27808(%rbx), %rax vmovupd %xmm0, 16(%rax) vmovupd %xmm0, (%rax) .LBB1_2409: testb $1, %r11b je .LBB1_2411 movq 27840(%rbx), %rax vmovupd %xmm0, 16(%rax) vmovupd %xmm0, (%rax) .LBB1_2411: vmovsd %xmm2, 31488(%rbx) vmovsd %xmm12, 31776(%rbx) testb $1, %dl je .LBB1_2413 movq 27872(%rbx), %rax vmovupd %xmm0, 16(%rax) vmovupd %xmm0, (%rax) .LBB1_2413: testb $1, %dil je .LBB1_2415 movq 27904(%rbx), %rax vmovupd %xmm0, 16(%rax) vmovupd %xmm0, (%rax) .LBB1_2415: vmovsd %xmm4, 31520(%rbx) testb $1, %r8b movabsq $4607182418800017408, %rcx je .LBB1_2417 movq 27936(%rbx), %rax vmovupd %xmm0, 16(%rax) vmovupd %xmm0, (%rax) .LBB1_2417: testb $1, %r13b je .LBB1_2419 movq 27968(%rbx), %rax vmovupd %xmm0, 16(%rax) vmovupd %xmm0, (%rax) .LBB1_2419: testb $1, %r14b je .LBB1_2421 movq 28000(%rbx), %rax vmovupd %xmm0, 16(%rax) vmovupd %xmm0, (%rax) .LBB1_2421: vmovsd %xmm6, 31360(%rbx) testb $1, %r9b je .LBB1_2423 movq %rcx, 10984(%rsi,%r12) .LBB1_2423: testb $1, %r15b je .LBB1_2425 movq %rcx, 11112(%rsi,%r12) .LBB1_2425: testb $1, %r11b je .LBB1_2427 movq %rcx, 11240(%rsi,%r12) .LBB1_2427: testb $1, %dl je .LBB1_2429 movq %rcx, 11368(%rsi,%r12) .LBB1_2429: testb $1, %dil je .LBB1_2431 movq %rcx, 11496(%rsi,%r12) .LBB1_2431: testb $1, %r8b je .LBB1_2433 movq %rcx, 11624(%rsi,%r12) .LBB1_2433: testb $1, %r13b je .LBB1_2435 movq %rcx, 11752(%rsi,%r12) .LBB1_2435: testb $1, %r14b je .LBB1_2437 movq %rcx, 11880(%rsi,%r12) .LBB1_2437: testb $1, %r9b je .LBB1_2439 movq 27264(%rbx), %rax vmovapd %xmm0, 16(%rax) vmovapd %xmm0, (%rax) .LBB1_2439: testb $1, %r15b je .LBB1_2441 movq 27296(%rbx), %rax vmovapd %xmm0, 16(%rax) vmovapd %xmm0, (%rax) .LBB1_2441: testb $1, %r11b je .LBB1_2443 movq 27328(%rbx), %rax vmovapd %xmm0, 16(%rax) vmovapd %xmm0, (%rax) .LBB1_2443: testb $1, %dl je .LBB1_2445 movq 27360(%rbx), %rax vmovapd %xmm0, 16(%rax) vmovapd %xmm0, (%rax) .LBB1_2445: testb $1, %dil je .LBB1_2447 movq 27392(%rbx), %rax vmovapd %xmm0, 16(%rax) vmovapd %xmm0, (%rax) .LBB1_2447: testb $1, %r8b je .LBB1_2449 movq 27424(%rbx), %rax vmovapd %xmm0, 16(%rax) vmovapd %xmm0, (%rax) .LBB1_2449: testb $1, %r13b je .LBB1_2451 movq 27456(%rbx), %rax vmovapd %xmm0, 16(%rax) vmovapd %xmm0, (%rax) .LBB1_2451: testb $1, %r14b je .LBB1_2453 movq 27488(%rbx), %rax vmovapd %xmm0, 16(%rax) vmovapd %xmm0, (%rax) .LBB1_2453: testb $1, %r9b je .LBB1_2455 movq %rcx, 11024(%rsi,%r12) .LBB1_2455: testb $1, %r15b je .LBB1_2457 movq %rcx, 11152(%rsi,%r12) .LBB1_2457: testb $1, %r11b je .LBB1_2459 movq %rcx, 11280(%rsi,%r12) .LBB1_2459: testb $1, %dl je .LBB1_2461 movq %rcx, 11408(%rsi,%r12) .LBB1_2461: testb $1, %dil je .LBB1_2463 movq %rcx, 11536(%rsi,%r12) .LBB1_2463: testb $1, %r8b je .LBB1_2465 movq %rcx, 11664(%rsi,%r12) .LBB1_2465: testb $1, %r13b je .LBB1_2467 movq %rcx, 11792(%rsi,%r12) .LBB1_2467: testb $1, %r14b je .LBB1_2469 movq %rcx, 11920(%rsi,%r12) .LBB1_2469: testb $1, %r9b je .LBB1_2471 movq 27520(%rbx), %rax vmovupd %xmm0, 16(%rax) vmovupd %xmm0, (%rax) .LBB1_2471: testb $1, %r15b je .LBB1_2473 movq 27552(%rbx), %rax vmovupd %xmm0, 16(%rax) vmovupd %xmm0, (%rax) .LBB1_2473: testb $1, %r11b je .LBB1_2475 movq 27584(%rbx), %rax vmovupd %xmm0, 16(%rax) vmovupd %xmm0, (%rax) .LBB1_2475: testb $1, %dl je .LBB1_2477 movq 27616(%rbx), %rax vmovupd %xmm0, 16(%rax) vmovupd %xmm0, (%rax) .LBB1_2477: testb $1, %dil je .LBB1_2479 movq 27648(%rbx), %rax vmovupd %xmm0, 16(%rax) vmovupd %xmm0, (%rax) .LBB1_2479: testb $1, %r8b je .LBB1_2481 movq 27680(%rbx), %rax vmovupd %xmm0, 16(%rax) vmovupd %xmm0, (%rax) .LBB1_2481: testb $1, %r13b je .LBB1_2483 movq 27712(%rbx), %rax vmovupd %xmm0, 16(%rax) vmovupd %xmm0, (%rax) .LBB1_2483: testb $1, %r14b je .LBB1_2485 movq 27744(%rbx), %rax vmovupd %xmm0, 16(%rax) vmovupd %xmm0, (%rax) .LBB1_2485: testb $1, %r9b je .LBB1_2487 movq %rcx, 11064(%rsi,%r12) .LBB1_2487: testb $1, %r15b je .LBB1_2489 movq %rcx, 11192(%rsi,%r12) .LBB1_2489: testb $1, %r11b je .LBB1_2491 movq %rcx, 11320(%rsi,%r12) .LBB1_2491: testb $1, %dl je .LBB1_2493 movq %rcx, 11448(%rsi,%r12) .LBB1_2493: testb $1, %dil je .LBB1_2495 movq %rcx, 11576(%rsi,%r12) .LBB1_2495: testb $1, %r8b je .LBB1_2497 movq %rcx, 11704(%rsi,%r12) .LBB1_2497: testb $1, %r13b movabsq $-4616189618054758400, %rax je .LBB1_2499 movq %rcx, 11832(%rsi,%r12) .LBB1_2499: testb $1, %r14b je .LBB1_2501 movq %rcx, 11960(%rsi,%r12) .LBB1_2501: testb $1, %r9b je .LBB1_2503 movq %rax, 9920(%rsi,%r12) .LBB1_2503: testb $1, %r15b je .LBB1_2505 movq %rax, 10048(%rsi,%r12) .LBB1_2505: testb $1, %r11b je .LBB1_2507 movq %rax, 10176(%rsi,%r12) .LBB1_2507: testb $1, %dl je .LBB1_2509 movq %rax, 10304(%rsi,%r12) .LBB1_2509: testb $1, %dil je .LBB1_2511 movq %rax, 10432(%rsi,%r12) .LBB1_2511: testb $1, %r8b je .LBB1_2513 movq %rax, 10560(%rsi,%r12) .LBB1_2513: testb $1, %r13b je .LBB1_2515 movq %rax, 10688(%rsi,%r12) .LBB1_2515: testb $1, %r14b je .LBB1_2517 movq %rax, 10816(%rsi,%r12) .LBB1_2517: testb $1, %r9b movabsq $-9223372036854775808, %rax je .LBB1_2519 movq %rax, 9928(%rsi,%r12) .LBB1_2519: testb $1, %r15b je .LBB1_2521 movq %rax, 10056(%rsi,%r12) .LBB1_2521: testb $1, %r11b je .LBB1_2523 movq %rax, 10184(%rsi,%r12) .LBB1_2523: testb $1, %dl je .LBB1_2525 movq %rax, 10312(%rsi,%r12) .LBB1_2525: testb $1, %dil je .LBB1_2527 movq %rax, 10440(%rsi,%r12) .LBB1_2527: testb $1, %r8b je .LBB1_2529 movq %rax, 10568(%rsi,%r12) .LBB1_2529: testb $1, %r13b je .LBB1_2531 movq %rax, 10696(%rsi,%r12) .LBB1_2531: testb $1, %r14b je .LBB1_2533 movq %rax, 10824(%rsi,%r12) .LBB1_2533: testb $1, %r9b je .LBB1_2535 movq %rax, 9936(%rsi,%r12) .LBB1_2535: testb $1, %r15b je .LBB1_2537 movq %rax, 10064(%rsi,%r12) .LBB1_2537: testb $1, %r11b je .LBB1_2539 movq %rax, 10192(%rsi,%r12) .LBB1_2539: testb $1, %dl je .LBB1_2541 movq %rax, 10320(%rsi,%r12) .LBB1_2541: testb $1, %dil je .LBB1_2543 movq %rax, 10448(%rsi,%r12) .LBB1_2543: testb $1, %r8b je .LBB1_2545 movq %rax, 10576(%rsi,%r12) .LBB1_2545: testb $1, %r13b je .LBB1_2547 movq %rax, 10704(%rsi,%r12) .LBB1_2547: testb $1, %r14b je .LBB1_2549 movq %rax, 10832(%rsi,%r12) .LBB1_2549: testb $1, %r9b je .LBB1_2551 movq %rax, 9944(%rsi,%r12) .LBB1_2551: testb $1, %r15b je .LBB1_2553 movq %rax, 10072(%rsi,%r12) .LBB1_2553: testb $1, %r11b je .LBB1_2555 movq %rax, 10200(%rsi,%r12) .LBB1_2555: testb $1, %dl je .LBB1_2557 movq %rax, 10328(%rsi,%r12) .LBB1_2557: testb $1, %dil je .LBB1_2559 movq %rax, 10456(%rsi,%r12) .LBB1_2559: testb $1, %r8b je .LBB1_2561 movq %rax, 10584(%rsi,%r12) .LBB1_2561: testb $1, %r13b je .LBB1_2563 movq %rax, 10712(%rsi,%r12) .LBB1_2563: testb $1, %r14b je .LBB1_2565 movq %rax, 10840(%rsi,%r12) .LBB1_2565: testb $1, %r9b je .LBB1_2567 movq %rax, 9952(%rsi,%r12) .LBB1_2567: testb $1, %r15b vmovapd 32864(%rbx), %xmm3 je .LBB1_2569 movq %rax, 10080(%rsi,%r12) .LBB1_2569: testb $1, %r11b vmovapd 32704(%rbx), %xmm4 je .LBB1_2571 movq %rax, 10208(%rsi,%r12) .LBB1_2571: testb $1, %dl je .LBB1_2573 movq %rax, 10336(%rsi,%r12) .LBB1_2573: testb $1, %dil je .LBB1_2575 movq %rax, 10464(%rsi,%r12) .LBB1_2575: testb $1, %r8b vmovapd 32960(%rbx), %xmm0 vmovapd 32928(%rbx), %xmm1 vmovapd 32896(%rbx), %xmm2 je .LBB1_2577 movq %rax, 10592(%rsi,%r12) .LBB1_2577: testb $1, %r13b je .LBB1_2579 movq %rax, 10720(%rsi,%r12) .LBB1_2579: vunpcklpd %xmm0, %xmm1, %xmm14 vunpcklpd %xmm2, %xmm3, %xmm5 vmovapd 32672(%rbx), %xmm0 vunpcklpd %xmm4, %xmm0, %xmm11 vunpcklpd 32640(%rbx), %xmm15, %xmm7 vmovapd 32416(%rbx), %xmm0 vunpcklpd 32512(%rbx), %xmm0, %xmm2 vmovapd 32352(%rbx), %xmm0 vunpcklpd 32384(%rbx), %xmm0, %xmm6 vmovapd 29120(%rbx), %xmm0 vunpcklpd 29152(%rbx), %xmm0, %xmm3 vmovapd 29024(%rbx), %xmm0 vunpcklpd 29088(%rbx), %xmm0, %xmm0 vmovapd 28896(%rbx), %xmm1 vunpcklpd 28928(%rbx), %xmm1, %xmm4 vunpcklpd 28352(%rbx), %xmm10, %xmm1 testb $1, %r14b je .LBB1_2581 movq %rax, 10848(%rsi,%r12) .LBB1_2581: vmovapd 32832(%rbx), %ymm8 vinsertf128 $1, %xmm5, %ymm8, %ymm5 vmovapd %ymm5, 28320(%rbx) vmovapd 32800(%rbx), %ymm5 vinsertf128 $1, %xmm14, %ymm5, %ymm5 vmovapd %ymm5, 28352(%rbx) vmovapd 32576(%rbx), %ymm5 vinsertf128 $1, %xmm7, %ymm5, %ymm5 vmovapd %ymm5, 28256(%rbx) vmovapd 32544(%rbx), %ymm5 vinsertf128 $1, %xmm11, %ymm5, %ymm5 vmovapd %ymm5, 28288(%rbx) vmovapd 29216(%rbx), %ymm5 vinsertf128 $1, %xmm6, %ymm5, %ymm5 vmovapd 29184(%rbx), %ymm6 vinsertf128 $1, %xmm2, %ymm6, %ymm2 vmovapd 28992(%rbx), %ymm6 vinsertf128 $1, %xmm0, %ymm6, %ymm0 vmovapd %ymm0, 32896(%rbx) vmovapd 28960(%rbx), %ymm0 vinsertf128 $1, %xmm3, %ymm0, %ymm0 vmovapd %ymm0, 32704(%rbx) vmovapd 28192(%rbx), %ymm0 vinsertf128 $1, %xmm1, %ymm0, %ymm0 vmovapd %ymm0, 32672(%rbx) vmovapd 28160(%rbx), %ymm0 vinsertf128 $1, %xmm4, %ymm0, %ymm0 vmovapd %ymm0, 32640(%rbx) movb %r8b, %al andb $1, %al jne .LBB1_2582 vmovapd %ymm2, 32864(%rbx) vmovapd %ymm5, 32928(%rbx) vxorpd %xmm0, %xmm0, %xmm0 jmp .LBB1_2584 .align 16, 0x90 .LBB1_2244: vmovdqa %xmm3, 32320(%rbx) movq %rcx, 28608(%rbx) vmovdqa 28640(%rbx), %ymm5 vpaddq %xmm5, %xmm12, %xmm0 vmovd %xmm0, %rcx movq %rcx, 28352(%rbx) vmovaps 27008(%rbx), %ymm7 vextractf128 $1, %ymm7, %xmm2 vextractf128 $1, %ymm12, %xmm1 vpaddq %xmm2, %xmm1, %xmm3 vmovsd 33024(%rbx,%rdx,8), %xmm2 movq %rdx, 28480(%rbx) vmovd %xmm3, %rdx movq %rdx, 30304(%rbx) vmovsd 33024(%rbx,%rcx,8), %xmm4 vpextrq $1, %xmm0, %rcx movq %rcx, 28320(%rbx) vmovhpd 33024(%rbx,%r13,8), %xmm2, %xmm2 movq %r13, 28512(%rbx) vmovsd 33024(%rbx,%r14,8), %xmm6 movq %r14, 28544(%rbx) vmovhpd 33024(%rbx,%rcx,8), %xmm4, %xmm8 vextractf128 $1, %ymm5, %xmm4 vextractf128 $1, %ymm12, %xmm0 vpaddq %xmm7, %xmm12, %xmm5 vpextrq $1, %xmm3, %rdi movq %rdi, 30240(%rbx) vmovsd 33024(%rbx,%rdx,8), %xmm3 vmovhpd 33024(%rbx,%r8,8), %xmm6, %xmm7 movq %r8, 28576(%rbx) vpaddq %xmm4, %xmm0, %xmm4 vpextrq $1, %xmm4, %rcx movq %rcx, 28256(%rbx) vmovd %xmm4, %rdx movq %rdx, 28288(%rbx) vmovsd 33024(%rbx,%rdx,8), %xmm4 vmovhpd 33024(%rbx,%rcx,8), %xmm4, %xmm6 vinsertf128 $1, %xmm7, %ymm2, %ymm9 vmovhpd 33024(%rbx,%rdi,8), %xmm3, %xmm2 vpextrq $1, %xmm5, %rcx movq %rcx, 30144(%rbx) vmovd %xmm5, %rdx movq %rdx, 30176(%rbx) vmovsd 33024(%rbx,%rdx,8), %xmm3 vmovhpd 33024(%rbx,%rcx,8), %xmm3, %xmm3 vinsertf128 $1, %xmm2, %ymm3, %ymm10 vmovapd .LCPI1_19(%rip), %ymm11 vcmpltpd %ymm11, %ymm9, %ymm2 vinsertf128 $1, %xmm6, %ymm8, %ymm13 vextractf128 $1, %ymm2, %xmm3 vpshufd $8, %xmm3, %xmm5 vpshufd $8, %xmm2, %xmm2 vmovlhps %xmm5, %xmm2, %xmm6 vmovsd 33024(%rbx,%r12,8), %xmm2 movq %r12, 28448(%rbx) vmovhpd 33024(%rbx,%r11,8), %xmm2, %xmm2 movq %r11, 32288(%rbx) vmovsd 33024(%rbx,%rsi,8), %xmm3 movq %rsi, 28384(%rbx) vmovhpd 33024(%rbx,%rax,8), %xmm3, %xmm3 movq %rax, 28416(%rbx) vinsertf128 $1, %xmm2, %ymm3, %ymm5 vcmpltpd %ymm11, %ymm13, %ymm2 vextractf128 $1, %ymm2, %xmm3 vpshufd $8, %xmm3, %xmm7 vpshufd $8, %xmm2, %xmm2 vmovlhps %xmm7, %xmm2, %xmm2 vcmpltpd %ymm11, %ymm10, %ymm7 vextractf128 $1, %ymm7, %xmm3 vpshufd $8, %xmm3, %xmm3 vpshufd $8, %xmm7, %xmm7 vmovlhps %xmm3, %xmm7, %xmm3 vmovdqa .LCPI1_21(%rip), %xmm7 vpshufb %xmm7, %xmm3, %xmm3 vmovdqa %xmm7, %xmm4 vmovdqa .LCPI1_20(%rip), %xmm7 vpshufb %xmm7, %xmm2, %xmm2 vpor %xmm2, %xmm3, %xmm2 vpshufb %xmm7, %xmm6, %xmm6 vcmpltpd %ymm11, %ymm5, %ymm7 vextractf128 $1, %ymm7, %xmm3 vpshufd $8, %xmm3, %xmm3 vpshufd $8, %xmm7, %xmm7 vmovlhps %xmm3, %xmm7, %xmm3 vpshufb %xmm4, %xmm3, %xmm3 vpor %xmm6, %xmm3, %xmm7 vpsllw $15, %xmm2, %xmm2 vpsraw $15, %xmm2, %xmm2 vpunpcklbw %xmm0, %xmm2, %xmm3 vpslld $31, %xmm3, %xmm3 vpmovsxdq %xmm3, %xmm6 vmovhlps %xmm3, %xmm3, %xmm3 vpmovsxdq %xmm3, %xmm3 vinsertf128 $1, %xmm3, %ymm6, %ymm6 vpunpckhbw %xmm0, %xmm2, %xmm2 vpslld $31, %xmm2, %xmm3 vpmovsxdq %xmm3, %xmm2 vmovhlps %xmm3, %xmm3, %xmm3 vpmovsxdq %xmm3, %xmm3 vinsertf128 $1, %xmm3, %ymm2, %ymm8 vpsllw $15, %xmm7, %xmm2 vpsraw $15, %xmm2, %xmm2 vpunpcklbw %xmm0, %xmm2, %xmm3 vpslld $31, %xmm3, %xmm3 vpmovsxdq %xmm3, %xmm7 vmovhlps %xmm3, %xmm3, %xmm3 vpmovsxdq %xmm3, %xmm3 vinsertf128 $1, %xmm3, %ymm7, %ymm7 vpunpckhbw %xmm0, %xmm2, %xmm2 vpslld $31, %xmm2, %xmm3 vpmovsxdq %xmm3, %xmm2 vmovhlps %xmm3, %xmm3, %xmm3 vpmovsxdq %xmm3, %xmm3 vinsertf128 $1, %xmm3, %ymm2, %ymm2 vblendvpd %ymm8, %ymm11, %ymm13, %ymm3 vmovapd %ymm3, 32992(%rbx) vblendvpd %ymm6, %ymm11, %ymm10, %ymm3 vmovapd %ymm3, 32960(%rbx) vblendvpd %ymm2, %ymm11, %ymm9, %ymm2 vmovapd %ymm2, 32736(%rbx) vblendvpd %ymm7, %ymm11, %ymm5, %ymm2 vmovapd %ymm2, 32576(%rbx) vmovaps 27072(%rbx), %ymm8 vextractf128 $1, %ymm8, %xmm2 vpaddq %xmm2, %xmm1, %xmm2 vmovdqa %xmm2, 32160(%rbx) vmovaps 27104(%rbx), %ymm7 vextractf128 $1, %ymm7, %xmm2 vpaddq %xmm2, %xmm1, %xmm2 vmovdqa %xmm2, 32352(%rbx) vmovaps 27040(%rbx), %ymm9 vextractf128 $1, %ymm9, %xmm2 vpaddq %xmm2, %xmm1, %xmm2 vmovdqa %xmm2, 32224(%rbx) vmovaps 27168(%rbx), %ymm5 vextractf128 $1, %ymm5, %xmm2 vpaddq %xmm2, %xmm1, %xmm2 vmovdqa %xmm2, 32864(%rbx) vmovaps 27136(%rbx), %ymm6 vextractf128 $1, %ymm6, %xmm2 vpaddq %xmm2, %xmm1, %xmm2 vmovdqa %xmm2, 32704(%rbx) vmovaps 27232(%rbx), %ymm3 vextractf128 $1, %ymm3, %xmm2 vpaddq %xmm2, %xmm1, %xmm2 vmovdqa %xmm2, 32928(%rbx) vmovaps 27200(%rbx), %ymm4 vextractf128 $1, %ymm4, %xmm2 vpaddq %xmm2, %xmm1, %xmm1 vmovdqa %xmm1, 32800(%rbx) vpaddq %xmm9, %xmm12, %xmm9 vpaddq %xmm7, %xmm12, %xmm1 vmovdqa %xmm1, 32096(%rbx) vpaddq %xmm8, %xmm12, %xmm15 vpaddq %xmm5, %xmm12, %xmm1 vmovdqa %xmm1, 32480(%rbx) vpaddq %xmm6, %xmm12, %xmm1 vmovdqa %xmm1, 32384(%rbx) vpaddq %xmm3, %xmm12, %xmm1 vmovdqa %xmm1, 32640(%rbx) vpaddq %xmm4, %xmm12, %xmm1 vmovdqa %xmm1, 32544(%rbx) vmovdqa 28672(%rbx), %ymm14 vpaddq %xmm14, %xmm12, %xmm1 vmovdqa 28736(%rbx), %ymm10 vpaddq %xmm10, %xmm12, %xmm13 vmovdqa 28704(%rbx), %ymm11 vpaddq %xmm11, %xmm12, %xmm2 vmovdqa %xmm2, 32064(%rbx) vmovdqa 28800(%rbx), %ymm4 vpaddq %xmm4, %xmm12, %xmm2 vmovdqa %xmm2, 32832(%rbx) vmovdqa 28768(%rbx), %ymm5 vpaddq %xmm5, %xmm12, %xmm2 vmovdqa %xmm2, 32672(%rbx) vmovdqa 28864(%rbx), %ymm2 vpaddq %xmm2, %xmm12, %xmm3 vmovdqa %xmm3, 32896(%rbx) vmovdqa 28832(%rbx), %ymm3 vpaddq %xmm3, %xmm12, %xmm12 vextractf128 $1, %ymm5, %xmm5 vextractf128 $1, %ymm4, %xmm6 vextractf128 $1, %ymm3, %xmm8 vextractf128 $1, %ymm2, %xmm7 vextractf128 $1, %ymm14, %xmm4 vextractf128 $1, %ymm11, %xmm3 vextractf128 $1, %ymm10, %xmm2 vpaddq %xmm2, %xmm0, %xmm2 vpaddq %xmm3, %xmm0, %xmm3 vpaddq %xmm4, %xmm0, %xmm4 vpaddq %xmm7, %xmm0, %xmm14 vpaddq %xmm8, %xmm0, %xmm11 vpaddq %xmm6, %xmm0, %xmm6 vmovdqa %xmm6, 32512(%rbx) vpaddq %xmm5, %xmm0, %xmm0 vmovdqa %xmm0, 32416(%rbx) vmovdqa %xmm13, %xmm6 vmovd %xmm6, %rcx movq %rcx, 28128(%rbx) vmovd %xmm1, %rax movq %rax, 28160(%rbx) vmovsd 33024(%rbx,%rax,8), %xmm0 vmovaps %xmm0, 32256(%rbx) vmovsd 33024(%rbx,%rcx,8), %xmm0 vmovaps %xmm0, 32192(%rbx) vmovd %xmm2, %rax movq %rax, 28096(%rbx) vpextrq $1, %xmm2, %rcx movq %rcx, 32448(%rbx) vmovsd 33024(%rbx,%rax,8), %xmm0 vmovaps %xmm0, 32128(%rbx) vmovapd 32160(%rbx), %xmm0 vmovd %xmm0, %rsi movq %rsi, 29760(%rbx) vpextrq $1, %xmm0, %rax movq %rax, 31200(%rbx) vmovd %xmm9, %r8 movq %r8, 29920(%rbx) vpextrq $1, %xmm9, %rax movq %rax, 31136(%rbx) vpextrq $1, %xmm1, %rax movq %rax, 31232(%rbx) vmovd %xmm3, %rdx movq %rdx, 28064(%rbx) vmovsd 33024(%rbx,%rdx,8), %xmm10 vmovd %xmm15, %rdi movq %rdi, 29888(%rbx) vpextrq $1, %xmm15, %rax movq %rax, 30912(%rbx) vmovapd 32224(%rbx), %xmm0 vmovd %xmm0, %rax movq %rax, 30016(%rbx) vpextrq $1, %xmm0, %r9 movq %r9, 29664(%rbx) vmovsd 33024(%rbx,%rax,8), %xmm8 vmovapd 32096(%rbx), %xmm0 vmovd %xmm0, %rcx movq %rcx, 29696(%rbx) vpextrq $1, %xmm0, %r14 movq %r14, 29632(%rbx) vmovapd 32352(%rbx), %xmm7 vmovd %xmm7, %rax movq %rax, 29952(%rbx) vmovsd 33024(%rbx,%rax,8), %xmm5 vmovd %xmm4, %rdx movq %rdx, 28032(%rbx) vpextrq $1, %xmm4, %r15 movq %r15, 26784(%rbx) vmovsd 33024(%rbx,%rdx,8), %xmm1 vmovapd 32064(%rbx), %xmm0 vmovd %xmm0, %rdx movq %rdx, 26912(%rbx) vpextrq $1, %xmm0, %r12 movq %r12, 26880(%rbx) vmovsd 33024(%rbx,%rdx,8), %xmm4 vpextrq $1, %xmm3, %r11 movq %r11, 26848(%rbx) vpextrq $1, %xmm6, %rax movq %rax, 26816(%rbx) vmovsd 33024(%rbx,%rdi,8), %xmm3 vmovsd 33024(%rbx,%rsi,8), %xmm2 vmovsd 33024(%rbx,%r8,8), %xmm6 vmovsd 33024(%rbx,%rcx,8), %xmm0 vpextrq $1, %xmm7, %rcx movq %rcx, 29504(%rbx) vmovq %xmm14, 31072(%rbx) vpextrq $1, %xmm14, %rsi movq %rsi, 31008(%rbx) vmovapd 32384(%rbx), %xmm7 vmovq %xmm7, 31168(%rbx) vpextrq $1, %xmm7, %rsi movq %rsi, 31104(%rbx) vmovapd 32704(%rbx), %xmm7 vmovq %xmm7, 31040(%rbx) vpextrq $1, %xmm7, %rsi movq %rsi, 30976(%rbx) vmovapd 32480(%rbx), %xmm7 vmovq %xmm7, 30944(%rbx) vpextrq $1, %xmm7, %rsi movq %rsi, 30880(%rbx) vmovapd 32864(%rbx), %xmm7 vmovq %xmm7, 30848(%rbx) vpextrq $1, %xmm7, %rsi movq %rsi, 30784(%rbx) vmovapd 32544(%rbx), %xmm7 vmovq %xmm7, 30720(%rbx) vpextrq $1, %xmm7, %rsi movq %rsi, 30656(%rbx) vmovdqa 32800(%rbx), %xmm7 vpextrq $1, %xmm7, %rdx movq %rdx, 30624(%rbx) vmovq %xmm7, 30592(%rbx) vmovapd 32640(%rbx), %xmm7 vmovd %xmm7, %r10 movq %r10, 30336(%rbx) vpextrq $1, %xmm7, %r13 movq %r13, 30272(%rbx) vmovdqa 32928(%rbx), %xmm7 vpextrq $1, %xmm7, %rsi movq %rsi, 30208(%rbx) vmovd %xmm7, %rdx movq %rdx, 30112(%rbx) vmovhpd 33024(%rbx,%rcx,8), %xmm5, %xmm5 vmovapd %xmm5, 30080(%rbx) vmovhpd 33024(%rbx,%r14,8), %xmm0, %xmm0 vmovapd %ymm0, 30048(%rbx) vmovhpd 33024(%rbx,%r9,8), %xmm8, %xmm0 vmovapd %xmm0, 29984(%rbx) movq 31136(%rbx), %rcx vmovhpd 33024(%rbx,%rcx,8), %xmm6, %xmm0 vmovapd %ymm0, 29856(%rbx) movq 31200(%rbx), %rcx vmovhpd 33024(%rbx,%rcx,8), %xmm2, %xmm0 vmovapd %xmm0, 29728(%rbx) movq 30912(%rbx), %rcx vmovhpd 33024(%rbx,%rcx,8), %xmm3, %xmm0 vmovapd %ymm0, 29600(%rbx) movq 32448(%rbx), %rcx vmovapd 32128(%rbx), %xmm0 vmovhpd 33024(%rbx,%rcx,8), %xmm0, %xmm0 vmovapd %xmm0, 29824(%rbx) vmovapd 32192(%rbx), %xmm0 vmovhpd 33024(%rbx,%rax,8), %xmm0, %xmm0 vmovapd %ymm0, 29792(%rbx) vmovhpd 33024(%rbx,%r11,8), %xmm10, %xmm0 vmovapd %xmm0, 29568(%rbx) vmovhpd 33024(%rbx,%r12,8), %xmm4, %xmm0 vmovapd %ymm0, 29536(%rbx) vmovhpd 33024(%rbx,%r15,8), %xmm1, %xmm0 vmovapd %xmm0, 29472(%rbx) movq 31232(%rbx), %rax vmovapd 32256(%rbx), %xmm0 vmovhpd 33024(%rbx,%rax,8), %xmm0, %xmm0 vmovapd %ymm0, 29344(%rbx) vmovapd 32672(%rbx), %xmm0 vmovq %xmm0, 30816(%rbx) vpextrq $1, %xmm0, %rax movq %rax, 30752(%rbx) vmovapd 32416(%rbx), %xmm0 vmovq %xmm0, 30688(%rbx) vpextrq $1, %xmm0, %rax movq %rax, 30560(%rbx) vmovapd 32832(%rbx), %xmm0 vmovq %xmm0, 30496(%rbx) vpextrq $1, %xmm0, %rdi vmovapd 32512(%rbx), %xmm0 vmovd %xmm0, %r12 vpextrq $1, %xmm0, %r14 vmovd %xmm12, %r11 vpextrq $1, %xmm12, %r8 movq %r8, 29440(%rbx) vmovd %xmm11, %rcx movq %rcx, 29408(%rbx) vpextrq $1, %xmm11, %rax movq %rax, 29376(%rbx) vmovdqa 32896(%rbx), %xmm0 vpextrq $1, %xmm0, %r15 vmovd %xmm0, %r9 vmovsd 33024(%rbx,%rsi,8), %xmm0 vmovsd %xmm0, 31488(%rbx) vmovsd 33024(%rbx,%rdx,8), %xmm0 vmovsd %xmm0, 31392(%rbx) vmovsd 33024(%rbx,%r13,8), %xmm0 vmovsd %xmm0, 31616(%rbx) vmovsd 33024(%rbx,%r10,8), %xmm0 vmovsd %xmm0, 31520(%rbx) movq 30624(%rbx), %rdx vmovsd 33024(%rbx,%rdx,8), %xmm0 vmovsd %xmm0, 31744(%rbx) movq 30592(%rbx), %rdx vmovsd 33024(%rbx,%rdx,8), %xmm0 vmovsd %xmm0, 31680(%rbx) movq 30656(%rbx), %rsi vmovsd 33024(%rbx,%rsi,8), %xmm0 vmovsd %xmm0, 31840(%rbx) movq 30720(%rbx), %rsi vmovsd 33024(%rbx,%rsi,8), %xmm0 vmovsd %xmm0, 32480(%rbx) movq 30784(%rbx), %rsi vmovsd 33024(%rbx,%rsi,8), %xmm0 vmovsd %xmm0, 31968(%rbx) movq 30848(%rbx), %rsi vmovsd 33024(%rbx,%rsi,8), %xmm0 vmovsd %xmm0, 31904(%rbx) movq 30880(%rbx), %rsi vmovsd 33024(%rbx,%rsi,8), %xmm0 vmovsd %xmm0, 32096(%rbx) movq 30944(%rbx), %rsi vmovsd 33024(%rbx,%rsi,8), %xmm0 vmovsd %xmm0, 32000(%rbx) movq 30976(%rbx), %rsi vmovsd 33024(%rbx,%rsi,8), %xmm0 vmovsd %xmm0, 32192(%rbx) movq 31040(%rbx), %rsi vmovsd 33024(%rbx,%rsi,8), %xmm0 vmovsd %xmm0, 32160(%rbx) movq 31104(%rbx), %rsi vmovsd 33024(%rbx,%rsi,8), %xmm0 vmovsd %xmm0, 32256(%rbx) movq 31168(%rbx), %rsi vmovsd 33024(%rbx,%rsi,8), %xmm0 vmovsd %xmm0, 32224(%rbx) movq 31008(%rbx), %rsi vmovsd 33024(%rbx,%rsi,8), %xmm0 vmovsd %xmm0, 31328(%rbx) movq 31072(%rbx), %rsi vmovsd 33024(%rbx,%rsi,8), %xmm0 vmovsd %xmm0, 31264(%rbx) vmovsd 33024(%rbx,%r15,8), %xmm0 vmovsd %xmm0, 31360(%rbx) vmovsd 33024(%rbx,%r9,8), %xmm0 movq %r9, %r10 vmovsd %xmm0, 31296(%rbx) vmovsd 33024(%rbx,%rax,8), %xmm0 vmovsd %xmm0, 31584(%rbx) vmovsd 33024(%rbx,%rcx,8), %xmm0 vmovsd %xmm0, 31424(%rbx) vmovsd 33024(%rbx,%r8,8), %xmm0 vmovsd %xmm0, 31648(%rbx) vmovsd 33024(%rbx,%r11,8), %xmm0 vmovsd %xmm0, 31552(%rbx) vmovsd 33024(%rbx,%r14,8), %xmm0 movq %r14, %rdx vmovsd %xmm0, 31808(%rbx) vmovsd 33024(%rbx,%r12,8), %xmm0 movq %r12, %r9 vmovsd %xmm0, 31712(%rbx) vmovsd 33024(%rbx,%rdi,8), %xmm0 vmovsd %xmm0, 31872(%rbx) movq 30496(%rbx), %rax vmovsd 33024(%rbx,%rax,8), %xmm0 vmovsd %xmm0, 31776(%rbx) movq 30560(%rbx), %rax vmovsd 33024(%rbx,%rax,8), %xmm0 vmovsd %xmm0, 32064(%rbx) movq 30688(%rbx), %rax vmovsd 33024(%rbx,%rax,8), %xmm0 vmovsd %xmm0, 31936(%rbx) movq 30752(%rbx), %rax vmovsd 33024(%rbx,%rax,8), %xmm0 vmovsd %xmm0, 32128(%rbx) movq 30816(%rbx), %rax vmovsd 33024(%rbx,%rax,8), %xmm0 vmovsd %xmm0, 32032(%rbx) movq 32792(%rbx), %r13 movabsq $-4616189618054758400, %r14 movq 31456(%rbx), %r12 movq %r14, 10944(%r13,%r12) movq %r14, 11072(%r13,%r12) movq %r14, 11200(%r13,%r12) movq %r14, 11328(%r13,%r12) movq %r14, 11456(%r13,%r12) movq %r14, 11584(%r13,%r12) movq %r14, 11712(%r13,%r12) movq %r14, 11840(%r13,%r12) vxorps %xmm0, %xmm0, %xmm0 movq 27776(%rbx), %rcx vmovups %xmm0, 16(%rcx) vmovups %xmm0, (%rcx) movq 27808(%rbx), %rcx vmovups %xmm0, 16(%rcx) vmovups %xmm0, (%rcx) movq 27840(%rbx), %rcx vmovups %xmm0, 16(%rcx) vmovups %xmm0, (%rcx) movq 27872(%rbx), %rcx vmovups %xmm0, 16(%rcx) vmovups %xmm0, (%rcx) movq 27904(%rbx), %rcx vmovups %xmm0, 16(%rcx) vmovups %xmm0, (%rcx) movq 27936(%rbx), %rcx vmovups %xmm0, 16(%rcx) vmovups %xmm0, (%rcx) movq 27968(%rbx), %rcx vmovups %xmm0, 16(%rcx) vmovups %xmm0, (%rcx) movq 28000(%rbx), %rcx vmovups %xmm0, 16(%rcx) vmovups %xmm0, (%rcx) movabsq $4607182418800017408, %r8 movq %r8, 10984(%r13,%r12) movq %r8, 11112(%r13,%r12) movq %r8, 11240(%r13,%r12) movq %r8, 11368(%r13,%r12) movq %r8, 11496(%r13,%r12) movq %r8, 11624(%r13,%r12) movq %r8, 11752(%r13,%r12) movq %r8, 11880(%r13,%r12) movq 27264(%rbx), %rcx vmovaps %xmm0, 16(%rcx) vmovaps %xmm0, (%rcx) movq 27296(%rbx), %rcx vmovaps %xmm0, 16(%rcx) vmovaps %xmm0, (%rcx) movq 27328(%rbx), %rcx vmovaps %xmm0, 16(%rcx) vmovaps %xmm0, (%rcx) movq 27360(%rbx), %rcx vmovaps %xmm0, 16(%rcx) vmovaps %xmm0, (%rcx) movq 27392(%rbx), %rcx vmovaps %xmm0, 16(%rcx) vmovaps %xmm0, (%rcx) movq 27424(%rbx), %rcx vmovaps %xmm0, 16(%rcx) vmovaps %xmm0, (%rcx) movq 27456(%rbx), %rcx vmovaps %xmm0, 16(%rcx) vmovaps %xmm0, (%rcx) movq 27488(%rbx), %rcx vmovaps %xmm0, 16(%rcx) vmovaps %xmm0, (%rcx) movq %r8, 11024(%r13,%r12) movq %r8, 11152(%r13,%r12) movq %r8, 11280(%r13,%r12) movq %r8, 11408(%r13,%r12) movq %r8, 11536(%r13,%r12) movq %r8, 11664(%r13,%r12) movq %r8, 11792(%r13,%r12) movq %r8, 11920(%r13,%r12) movq 27520(%rbx), %rcx vmovups %xmm0, 16(%rcx) vmovups %xmm0, (%rcx) movq 27552(%rbx), %rcx vmovups %xmm0, 16(%rcx) vmovups %xmm0, (%rcx) movq 27584(%rbx), %rcx vmovups %xmm0, 16(%rcx) vmovups %xmm0, (%rcx) movq 27616(%rbx), %rcx vmovups %xmm0, 16(%rcx) vmovups %xmm0, (%rcx) movq 27648(%rbx), %rcx vmovups %xmm0, 16(%rcx) vmovups %xmm0, (%rcx) movq 27680(%rbx), %rcx vmovups %xmm0, 16(%rcx) vmovups %xmm0, (%rcx) movq 27712(%rbx), %rcx vmovups %xmm0, 16(%rcx) vmovups %xmm0, (%rcx) movq 27744(%rbx), %rcx vmovups %xmm0, 16(%rcx) vmovups %xmm0, (%rcx) movq %r8, 11064(%r13,%r12) movq %r8, 11192(%r13,%r12) movq %r8, 11320(%r13,%r12) movq %r8, 11448(%r13,%r12) movq %r8, 11576(%r13,%r12) movq %r8, 11704(%r13,%r12) movq %r8, 11832(%r13,%r12) movq %r8, 11960(%r13,%r12) movq %r14, 9920(%r13,%r12) movq %r14, 10048(%r13,%r12) movq %r14, 10176(%r13,%r12) movq %r14, 10304(%r13,%r12) movq %r14, 10432(%r13,%r12) movq %r14, 10560(%r13,%r12) movq %r14, 10688(%r13,%r12) movq %r14, 10816(%r13,%r12) movabsq $-9223372036854775808, %rax movq %rax, 9928(%r13,%r12) movq %rax, 10056(%r13,%r12) movq %rax, 10184(%r13,%r12) movq %rax, 10312(%r13,%r12) movq %rax, 10440(%r13,%r12) movq %rax, 10568(%r13,%r12) movq %rax, 10696(%r13,%r12) movq %rax, 10824(%r13,%r12) movq %rax, 9936(%r13,%r12) movq %rax, 10064(%r13,%r12) movq %rax, 10192(%r13,%r12) movq %rax, 10320(%r13,%r12) movq %rax, 10448(%r13,%r12) movq %rax, 10576(%r13,%r12) movq %rax, 10704(%r13,%r12) movq %rax, 10832(%r13,%r12) movq %rax, 9944(%r13,%r12) movq %rax, 10072(%r13,%r12) movq %rax, 10200(%r13,%r12) movq %rax, 10328(%r13,%r12) movq %rax, 10456(%r13,%r12) movq %rax, 10584(%r13,%r12) movq %rax, 10712(%r13,%r12) movq %rax, 10840(%r13,%r12) movq %rax, 9952(%r13,%r12) movq %rax, 10080(%r13,%r12) movq %rax, 10208(%r13,%r12) movq %rax, 10336(%r13,%r12) movq %rax, 10464(%r13,%r12) movq %rax, 10592(%r13,%r12) movq %rax, 10720(%r13,%r12) movq %rax, 10848(%r13,%r12) vmovsd 10944(%r13,%r12), %xmm1 vmovsd 10960(%r13,%r12), %xmm0 vmovsd 11320(%r13,%r12), %xmm2 vmovhpd 11448(%r13,%r12), %xmm2, %xmm2 vmovsd 11064(%r13,%r12), %xmm3 vmovhpd 11192(%r13,%r12), %xmm3, %xmm3 vinsertf128 $1, %xmm2, %ymm3, %ymm4 vmovapd %ymm4, 32544(%rbx) vmovsd 11280(%r13,%r12), %xmm2 vmovhpd 11408(%r13,%r12), %xmm2, %xmm2 vmovsd 11024(%r13,%r12), %xmm3 vmovhpd 11152(%r13,%r12), %xmm3, %xmm3 vinsertf128 $1, %xmm2, %ymm3, %ymm5 vmovapd %ymm5, 30432(%rbx) vmovsd 11200(%r13,%r12), %xmm2 vmovhpd 11328(%r13,%r12), %xmm2, %xmm2 vmovhpd 11072(%r13,%r12), %xmm1, %xmm1 vinsertf128 $1, %xmm2, %ymm1, %ymm8 vmovapd %ymm8, 32800(%rbx) vmovsd 11296(%r13,%r12), %xmm1 vmovhpd 11424(%r13,%r12), %xmm1, %xmm1 vmovsd 11040(%r13,%r12), %xmm2 vmovhpd 11168(%r13,%r12), %xmm2, %xmm2 vinsertf128 $1, %xmm1, %ymm2, %ymm6 vmovapd %ymm6, 30528(%rbx) vmovsd 11288(%r13,%r12), %xmm1 vmovhpd 11416(%r13,%r12), %xmm1, %xmm1 vmovsd 11032(%r13,%r12), %xmm2 vmovhpd 11160(%r13,%r12), %xmm2, %xmm2 vinsertf128 $1, %xmm1, %ymm2, %ymm2 vmovapd %ymm2, 32864(%rbx) vmovsd 11216(%r13,%r12), %xmm1 vmovhpd 11344(%r13,%r12), %xmm1, %xmm1 vmovhpd 11088(%r13,%r12), %xmm0, %xmm0 vinsertf128 $1, %xmm1, %ymm0, %ymm1 vmovapd %ymm1, 30464(%rbx) vmulpd %ymm2, %ymm1, %ymm0 vmovapd %ymm1, %ymm9 vmovapd %ymm2, %ymm3 vmulpd %ymm6, %ymm0, %ymm0 vmovapd %ymm6, %ymm7 vmulpd %ymm5, %ymm8, %ymm1 vmovapd %ymm5, %ymm10 vmulpd %ymm4, %ymm1, %ymm1 vaddpd %ymm0, %ymm1, %ymm0 vmovsd 11312(%r13,%r12), %xmm1 vmovhpd 11440(%r13,%r12), %xmm1, %xmm1 vmovsd 11056(%r13,%r12), %xmm2 vmovhpd 11184(%r13,%r12), %xmm2, %xmm2 vinsertf128 $1, %xmm1, %ymm2, %ymm6 vmovapd %ymm6, 32832(%rbx) vmovsd 11264(%r13,%r12), %xmm1 vmovhpd 11392(%r13,%r12), %xmm1, %xmm1 vmovsd 11008(%r13,%r12), %xmm2 vmovhpd 11136(%r13,%r12), %xmm2, %xmm2 vinsertf128 $1, %xmm1, %ymm2, %ymm5 vmovapd %ymm5, 30368(%rbx) vmovsd 11224(%r13,%r12), %xmm1 vmovhpd 11352(%r13,%r12), %xmm1, %xmm1 vmovsd 10968(%r13,%r12), %xmm2 vmovhpd 11096(%r13,%r12), %xmm2, %xmm2 vinsertf128 $1, %xmm1, %ymm2, %ymm2 vmovapd %ymm2, 32352(%rbx) vmulpd %ymm5, %ymm2, %ymm1 vmulpd %ymm6, %ymm1, %ymm1 vaddpd %ymm1, %ymm0, %ymm0 vmulpd %ymm3, %ymm8, %ymm1 vmulpd %ymm6, %ymm1, %ymm1 vsubpd %ymm1, %ymm0, %ymm0 vmulpd %ymm5, %ymm9, %ymm1 vmovapd %ymm5, %ymm14 vmulpd %ymm1, %ymm4, %ymm1 vsubpd %ymm1, %ymm0, %ymm4 vmovsd 11832(%r13,%r12), %xmm0 vmovhpd 11960(%r13,%r12), %xmm0, %xmm0 vmovsd 11576(%r13,%r12), %xmm1 vmovhpd 11704(%r13,%r12), %xmm1, %xmm1 vinsertf128 $1, %xmm0, %ymm1, %ymm6 vmovapd %ymm6, 32416(%rbx) vmovsd 11792(%r13,%r12), %xmm0 vmovhpd 11920(%r13,%r12), %xmm0, %xmm0 vmovsd 11536(%r13,%r12), %xmm1 vmovhpd 11664(%r13,%r12), %xmm1, %xmm1 vinsertf128 $1, %xmm0, %ymm1, %ymm12 vmovapd %ymm12, 29280(%rbx) vmovsd 11712(%r13,%r12), %xmm0 vmovhpd 11840(%r13,%r12), %xmm0, %xmm0 vmovsd 11456(%r13,%r12), %xmm1 vmovhpd 11584(%r13,%r12), %xmm1, %xmm1 vinsertf128 $1, %xmm0, %ymm1, %ymm11 vmovapd %ymm11, 32384(%rbx) vmovsd 11808(%r13,%r12), %xmm0 vmovhpd 11936(%r13,%r12), %xmm0, %xmm0 vmovsd 11552(%r13,%r12), %xmm1 vmovhpd 11680(%r13,%r12), %xmm1, %xmm1 vinsertf128 $1, %xmm0, %ymm1, %ymm5 vmovapd %ymm5, 28992(%rbx) vmovsd 11800(%r13,%r12), %xmm0 vmovhpd 11928(%r13,%r12), %xmm0, %xmm0 vmovsd 11544(%r13,%r12), %xmm1 vmovhpd 11672(%r13,%r12), %xmm1, %xmm1 vinsertf128 $1, %xmm0, %ymm1, %ymm3 vmovapd %ymm3, 32640(%rbx) vmovsd 11728(%r13,%r12), %xmm0 vmovhpd 11856(%r13,%r12), %xmm0, %xmm0 vmovsd 11472(%r13,%r12), %xmm1 vmovhpd 11600(%r13,%r12), %xmm1, %xmm1 vinsertf128 $1, %xmm0, %ymm1, %ymm9 vmulpd %ymm2, %ymm10, %ymm0 vmulpd %ymm0, %ymm7, %ymm0 vsubpd %ymm0, %ymm4, %ymm1 vmulpd %ymm3, %ymm9, %ymm0 vmovapd %ymm3, %ymm4 vmulpd %ymm5, %ymm0, %ymm0 vmovapd %ymm5, %ymm7 vmulpd %ymm12, %ymm11, %ymm2 vmovapd %ymm12, %ymm13 vmovapd %ymm6, %ymm5 vmulpd %ymm5, %ymm2, %ymm2 vaddpd %ymm0, %ymm2, %ymm0 vmovsd 11824(%r13,%r12), %xmm2 vmovhpd 11952(%r13,%r12), %xmm2, %xmm2 vmovsd 11568(%r13,%r12), %xmm3 vmovhpd 11696(%r13,%r12), %xmm3, %xmm3 vinsertf128 $1, %xmm2, %ymm3, %ymm12 vmovapd %ymm12, 29248(%rbx) vmovsd 11776(%r13,%r12), %xmm2 vmovhpd 11904(%r13,%r12), %xmm2, %xmm2 vmovsd 11520(%r13,%r12), %xmm3 vmovhpd 11648(%r13,%r12), %xmm3, %xmm3 vinsertf128 $1, %xmm2, %ymm3, %ymm2 vmovapd %ymm2, 30400(%rbx) vmovsd 11736(%r13,%r12), %xmm3 vmovhpd 11864(%r13,%r12), %xmm3, %xmm3 vmovsd 11480(%r13,%r12), %xmm6 vmovhpd 11608(%r13,%r12), %xmm6, %xmm6 vinsertf128 $1, %xmm3, %ymm6, %ymm6 vmovapd %ymm6, 32512(%rbx) vmulpd %ymm2, %ymm6, %ymm3 vmulpd %ymm12, %ymm3, %ymm3 vaddpd %ymm3, %ymm0, %ymm3 vmovapd .LCPI1_22(%rip), %ymm0 vmulpd %ymm0, %ymm1, %ymm10 vmovapd %ymm0, %ymm8 vmovlpd %xmm10, 9960(%r13,%r12) vmovhpd %xmm10, 10088(%r13,%r12) vmulpd %ymm4, %ymm11, %ymm1 vmulpd %ymm12, %ymm1, %ymm1 vmovapd %ymm12, %ymm15 vsubpd %ymm1, %ymm3, %ymm1 vmulpd %ymm2, %ymm9, %ymm3 vmulpd %ymm3, %ymm5, %ymm3 vmovapd %ymm5, %ymm4 vsubpd %ymm3, %ymm1, %ymm1 vextractf128 $1, %ymm10, %xmm0 vmovlpd %xmm0, 10216(%r13,%r12) vmovhpd %xmm0, 10344(%r13,%r12) vmulpd %ymm6, %ymm13, %ymm0 vmovapd %ymm6, %ymm5 vmulpd %ymm0, %ymm7, %ymm0 vmovapd %ymm7, %ymm2 vsubpd %ymm0, %ymm1, %ymm0 vmulpd %ymm8, %ymm0, %ymm0 vmovlpd %xmm0, 10472(%r13,%r12) vmovhpd %xmm0, 10600(%r13,%r12) vextractf128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 10728(%r13,%r12) vmovhpd %xmm0, 10856(%r13,%r12) vmovsd 11744(%r13,%r12), %xmm0 vmovhpd 11872(%r13,%r12), %xmm0, %xmm0 vmovsd 11488(%r13,%r12), %xmm1 vmovhpd 11616(%r13,%r12), %xmm1, %xmm1 vinsertf128 $1, %xmm0, %ymm1, %ymm6 vmovapd %ymm6, 32928(%rbx) vmovsd 11256(%r13,%r12), %xmm0 vmovhpd 11384(%r13,%r12), %xmm0, %xmm0 vmovsd 11000(%r13,%r12), %xmm1 vmovhpd 11128(%r13,%r12), %xmm1, %xmm1 vinsertf128 $1, %xmm0, %ymm1, %ymm13 vmovapd %ymm13, 29120(%rbx) vmovsd 10976(%r13,%r12), %xmm7 vmovsd 10992(%r13,%r12), %xmm0 vmovsd 11768(%r13,%r12), %xmm1 vmovhpd 11896(%r13,%r12), %xmm1, %xmm1 vmovsd 11512(%r13,%r12), %xmm3 vmovhpd 11640(%r13,%r12), %xmm3, %xmm3 vinsertf128 $1, %xmm1, %ymm3, %ymm12 vmovapd %ymm12, 29184(%rbx) vmovsd 11248(%r13,%r12), %xmm1 vmovhpd 11376(%r13,%r12), %xmm1, %xmm1 vmovhpd 11120(%r13,%r12), %xmm0, %xmm0 vinsertf128 $1, %xmm1, %ymm0, %ymm1 vmovapd %ymm1, 32672(%rbx) vmovapd 30464(%rbx), %ymm8 vmulpd %ymm8, %ymm13, %ymm0 vmovapd %ymm0, 29152(%rbx) vmulpd %ymm14, %ymm0, %ymm0 vmovapd 32800(%rbx), %ymm3 vmulpd %ymm1, %ymm3, %ymm1 vmovapd %ymm1, 29088(%rbx) vmulpd 32864(%rbx), %ymm1, %ymm1 vaddpd %ymm0, %ymm1, %ymm14 vmulpd %ymm6, %ymm9, %ymm0 vmovapd %ymm0, 29216(%rbx) vmulpd %ymm4, %ymm0, %ymm0 vmulpd %ymm12, %ymm11, %ymm1 vmovapd %ymm1, 32896(%rbx) vmovapd %ymm12, %ymm11 vmulpd %ymm15, %ymm1, %ymm1 vaddpd %ymm0, %ymm1, %ymm6 vmovsd 11760(%r13,%r12), %xmm0 vmovhpd 11888(%r13,%r12), %xmm0, %xmm0 vmovsd 11504(%r13,%r12), %xmm1 vmovhpd 11632(%r13,%r12), %xmm1, %xmm1 vinsertf128 $1, %xmm0, %ymm1, %ymm4 vmovapd %ymm4, 29312(%rbx) vmovsd 11232(%r13,%r12), %xmm0 vmovhpd 11360(%r13,%r12), %xmm0, %xmm0 vmovhpd 11104(%r13,%r12), %xmm7, %xmm1 vinsertf128 $1, %xmm0, %ymm1, %ymm7 vmovapd %ymm7, 32704(%rbx) vmulpd %ymm7, %ymm8, %ymm0 vmovapd %ymm0, 28960(%rbx) vmovapd 32544(%rbx), %ymm12 vmulpd %ymm12, %ymm0, %ymm1 vmulpd %ymm13, %ymm3, %ymm8 vmovapd %ymm8, 29056(%rbx) vmovapd 32832(%rbx), %ymm0 vmulpd %ymm0, %ymm8, %ymm3 vmovapd %ymm8, %ymm10 vaddpd %ymm1, %ymm3, %ymm1 vmovapd %ymm1, 28928(%rbx) vmulpd %ymm4, %ymm5, %ymm1 vmovapd %ymm1, 29024(%rbx) vmovapd %ymm2, %ymm5 vmulpd %ymm5, %ymm1, %ymm3 vaddpd %ymm3, %ymm6, %ymm6 vmovapd 32352(%rbx), %ymm2 vmulpd %ymm2, %ymm7, %ymm7 vmovapd %ymm7, 30464(%rbx) vmovapd 30432(%rbx), %ymm8 vmulpd %ymm8, %ymm7, %ymm3 vmovapd %ymm7, %ymm1 vaddpd %ymm3, %ymm14, %ymm3 vmulpd %ymm9, %ymm11, %ymm9 vmovapd 30400(%rbx), %ymm11 vmulpd %ymm11, %ymm9, %ymm14 vmovapd 32384(%rbx), %ymm7 vmulpd %ymm4, %ymm7, %ymm15 vmovapd 32640(%rbx), %ymm13 vmulpd %ymm13, %ymm15, %ymm7 vaddpd %ymm14, %ymm7, %ymm14 vmulpd %ymm8, %ymm10, %ymm7 vsubpd %ymm7, %ymm3, %ymm3 vmovapd 32416(%rbx), %ymm4 vmulpd %ymm15, %ymm4, %ymm7 vsubpd %ymm7, %ymm6, %ymm15 vmulpd 32672(%rbx), %ymm2, %ymm6 vmovapd 30528(%rbx), %ymm4 vmulpd %ymm4, %ymm6, %ymm7 vmovapd 28928(%rbx), %ymm2 vaddpd %ymm7, %ymm2, %ymm2 vmulpd 29088(%rbx), %ymm12, %ymm7 vsubpd %ymm7, %ymm2, %ymm8 vmovapd 29152(%rbx), %ymm2 vmulpd %ymm4, %ymm2, %ymm7 vsubpd %ymm7, %ymm8, %ymm8 vmulpd %ymm1, %ymm0, %ymm7 vsubpd %ymm7, %ymm8, %ymm8 vmulpd %ymm5, %ymm9, %ymm7 vsubpd %ymm7, %ymm15, %ymm12 vmovapd 32864(%rbx), %ymm0 vmulpd 28960(%rbx), %ymm0, %ymm0 vsubpd %ymm0, %ymm3, %ymm3 vmovapd 32928(%rbx), %ymm0 vmulpd 32512(%rbx), %ymm0, %ymm2 vmovapd %ymm2, 30432(%rbx) vmovapd 29280(%rbx), %ymm1 vmulpd %ymm1, %ymm2, %ymm0 vaddpd %ymm0, %ymm14, %ymm0 vmovapd 32896(%rbx), %ymm4 vmulpd %ymm1, %ymm4, %ymm4 vsubpd %ymm4, %ymm0, %ymm0 vmulpd 29216(%rbx), %ymm13, %ymm4 vsubpd %ymm4, %ymm0, %ymm0 vmulpd 29024(%rbx), %ymm11, %ymm1 vsubpd %ymm1, %ymm0, %ymm0 vmovapd 30368(%rbx), %ymm1 vmulpd %ymm6, %ymm1, %ymm1 vsubpd %ymm1, %ymm3, %ymm3 vmovapd 29248(%rbx), %ymm1 vmulpd %ymm2, %ymm1, %ymm1 vsubpd %ymm1, %ymm12, %ymm4 vmovapd .LCPI1_22(%rip), %ymm2 vmulpd %ymm2, %ymm8, %ymm10 vmovlpd %xmm10, 9968(%r13,%r12) vmovhpd %xmm10, 10096(%r13,%r12) vextractf128 $1, %ymm10, %xmm1 vmovlpd %xmm1, 10224(%r13,%r12) vmovhpd %xmm1, 10352(%r13,%r12) vmulpd %ymm2, %ymm4, %ymm13 vmovlpd %xmm13, 10480(%r13,%r12) vmulpd %ymm2, %ymm3, %ymm5 vmovapd %ymm5, 29152(%rbx) vmulpd %ymm2, %ymm0, %ymm4 vmovapd %ymm4, 29216(%rbx) vmovhpd %xmm13, 10608(%r13,%r12) vextractf128 $1, %ymm4, %xmm2 vmovapd %xmm2, 29280(%rbx) vextractf128 $1, %ymm5, %xmm3 vmovapd %xmm3, 29248(%rbx) vextractf128 $1, %ymm13, %xmm0 vmovlpd %xmm0, 10736(%r13,%r12) vmovhpd %xmm0, 10864(%r13,%r12) vmovlpd %xmm5, 9976(%r13,%r12) vmovhpd %xmm5, 10104(%r13,%r12) vmovlpd %xmm3, 10232(%r13,%r12) vmovhpd %xmm3, 10360(%r13,%r12) vmovlpd %xmm4, 10488(%r13,%r12) vmovhpd %xmm4, 10616(%r13,%r12) vmovlpd %xmm2, 10744(%r13,%r12) vmovhpd %xmm2, 10872(%r13,%r12) movq %rax, 9984(%r13,%r12) movq %rax, 10112(%r13,%r12) movq %rax, 10240(%r13,%r12) movq %rax, 10368(%r13,%r12) movq %rax, 10496(%r13,%r12) movq %rax, 10624(%r13,%r12) movq %rax, 10752(%r13,%r12) movq %rax, 10880(%r13,%r12) vmovlpd %xmm10, 9992(%r13,%r12) vmovhpd %xmm10, 10120(%r13,%r12) vmovlpd %xmm1, 10248(%r13,%r12) vmovhpd %xmm1, 10376(%r13,%r12) vmovlpd %xmm13, 10504(%r13,%r12) vmovhpd %xmm13, 10632(%r13,%r12) vmovlpd %xmm0, 10760(%r13,%r12) vmovhpd %xmm0, 10888(%r13,%r12) vmovsd 10952(%r13,%r12), %xmm1 vmovsd 10984(%r13,%r12), %xmm0 vmovsd 11208(%r13,%r12), %xmm3 vmovhpd 11336(%r13,%r12), %xmm3, %xmm3 vmovhpd 11080(%r13,%r12), %xmm1, %xmm1 vinsertf128 $1, %xmm3, %ymm1, %ymm3 vmovapd %ymm3, 29024(%rbx) vmovsd 11240(%r13,%r12), %xmm1 vmovhpd 11368(%r13,%r12), %xmm1, %xmm1 vmovhpd 11112(%r13,%r12), %xmm0, %xmm0 vinsertf128 $1, %xmm1, %ymm0, %ymm0 vmovapd %ymm0, 32832(%rbx) vmovapd 32800(%rbx), %ymm1 vmulpd %ymm0, %ymm1, %ymm1 vmovapd %ymm1, 28960(%rbx) vmovapd %ymm0, %ymm2 vmulpd 29120(%rbx), %ymm3, %ymm10 vmovapd %ymm3, %ymm13 vmovapd 30528(%rbx), %ymm12 vmulpd %ymm12, %ymm10, %ymm0 vmovapd 32544(%rbx), %ymm7 vmulpd %ymm7, %ymm1, %ymm1 vaddpd %ymm0, %ymm1, %ymm0 vmovsd 11720(%r13,%r12), %xmm1 vmovhpd 11848(%r13,%r12), %xmm1, %xmm1 vmovsd 11464(%r13,%r12), %xmm3 vmovhpd 11592(%r13,%r12), %xmm3, %xmm3 vinsertf128 $1, %xmm1, %ymm3, %ymm5 vmovapd %ymm5, 29120(%rbx) vmovsd 11752(%r13,%r12), %xmm1 vmovhpd 11880(%r13,%r12), %xmm1, %xmm1 vmovsd 11496(%r13,%r12), %xmm3 vmovhpd 11624(%r13,%r12), %xmm3, %xmm3 vinsertf128 $1, %xmm1, %ymm3, %ymm1 vmovapd %ymm1, 32800(%rbx) vmovapd %ymm1, %ymm4 vmovsd 11304(%r13,%r12), %xmm1 vmovhpd 11432(%r13,%r12), %xmm1, %xmm1 vmovsd 11048(%r13,%r12), %xmm3 vmovhpd 11176(%r13,%r12), %xmm3, %xmm3 vinsertf128 $1, %xmm1, %ymm3, %ymm6 vmovapd %ymm6, 28192(%rbx) vmovapd 30464(%rbx), %ymm1 vmulpd %ymm6, %ymm1, %ymm1 vaddpd %ymm1, %ymm0, %ymm1 vmovapd 32384(%rbx), %ymm0 vmulpd %ymm4, %ymm0, %ymm8 vmovapd %ymm8, 32384(%rbx) vmovapd %ymm4, %ymm9 vmulpd 29184(%rbx), %ymm5, %ymm0 vmovapd %ymm5, %ymm14 vmovapd 28992(%rbx), %ymm11 vmulpd %ymm11, %ymm0, %ymm3 vmovapd 32416(%rbx), %ymm15 vmulpd %ymm15, %ymm8, %ymm4 vaddpd %ymm3, %ymm4, %ymm3 vmovsd 11816(%r13,%r12), %xmm4 vmovhpd 11944(%r13,%r12), %xmm4, %xmm4 vmovsd 11560(%r13,%r12), %xmm5 vmovhpd 11688(%r13,%r12), %xmm5, %xmm5 vinsertf128 $1, %xmm4, %ymm5, %ymm5 vmovapd %ymm5, 28896(%rbx) vmovapd 30432(%rbx), %ymm4 vmulpd %ymm5, %ymm4, %ymm4 vaddpd %ymm4, %ymm3, %ymm3 vmovapd 32896(%rbx), %ymm4 vmulpd %ymm5, %ymm4, %ymm4 vsubpd %ymm4, %ymm3, %ymm3 vmovapd 29056(%rbx), %ymm8 vmulpd %ymm6, %ymm8, %ymm4 vsubpd %ymm4, %ymm1, %ymm1 vmulpd 32704(%rbx), %ymm13, %ymm5 vmovapd %ymm5, 29088(%rbx) vmulpd %ymm5, %ymm7, %ymm4 vmovapd %ymm5, %ymm13 vsubpd %ymm4, %ymm1, %ymm1 vmulpd 32352(%rbx), %ymm2, %ymm5 vmulpd %ymm5, %ymm12, %ymm4 vsubpd %ymm4, %ymm1, %ymm4 vmulpd 32928(%rbx), %ymm14, %ymm6 vmovapd %ymm6, 32544(%rbx) vmulpd %ymm6, %ymm15, %ymm1 vsubpd %ymm1, %ymm3, %ymm1 vmovapd 30368(%rbx), %ymm2 vmulpd %ymm2, %ymm10, %ymm10 vmulpd %ymm2, %ymm5, %ymm14 vmulpd 32512(%rbx), %ymm9, %ymm5 vmulpd %ymm5, %ymm11, %ymm3 vmovapd 30400(%rbx), %ymm2 vmulpd %ymm2, %ymm0, %ymm0 vmulpd %ymm2, %ymm5, %ymm2 vmovapd .LCPI1_22(%rip), %ymm5 vmulpd %ymm5, %ymm4, %ymm4 vmovlpd %xmm4, 10000(%r13,%r12) vmovhpd %xmm4, 10128(%r13,%r12) vextractf128 $1, %ymm4, %xmm4 vmovlpd %xmm4, 10256(%r13,%r12) vmovhpd %xmm4, 10384(%r13,%r12) vsubpd %ymm3, %ymm1, %ymm1 vmulpd %ymm5, %ymm1, %ymm1 vmovapd %ymm5, %ymm9 vmovlpd %xmm1, 10512(%r13,%r12) vmovhpd %xmm1, 10640(%r13,%r12) vextractf128 $1, %ymm1, %xmm1 vmovlpd %xmm1, 10768(%r13,%r12) vmovhpd %xmm1, 10896(%r13,%r12) vmovsd 11016(%r13,%r12), %xmm1 vmovsd 11272(%r13,%r12), %xmm3 vmovhpd 11400(%r13,%r12), %xmm3, %xmm3 vmovhpd 11144(%r13,%r12), %xmm1, %xmm1 vinsertf128 $1, %xmm3, %ymm1, %ymm15 vmovapd %ymm15, 29184(%rbx) vmovapd 32864(%rbx), %ymm3 vmulpd 28960(%rbx), %ymm3, %ymm1 vmulpd %ymm3, %ymm13, %ymm3 vmulpd %ymm15, %ymm8, %ymm4 vaddpd %ymm3, %ymm4, %ymm3 vaddpd %ymm14, %ymm3, %ymm3 vsubpd %ymm1, %ymm3, %ymm1 vsubpd %ymm10, %ymm1, %ymm1 vmovsd 11784(%r13,%r12), %xmm3 vmovhpd 11912(%r13,%r12), %xmm3, %xmm3 vmovsd 11528(%r13,%r12), %xmm4 vmovhpd 11656(%r13,%r12), %xmm4, %xmm4 vinsertf128 $1, %xmm3, %ymm4, %ymm14 vmovapd %ymm14, 32352(%rbx) vmulpd 30464(%rbx), %ymm15, %ymm3 vsubpd %ymm3, %ymm1, %ymm1 vmovapd 32640(%rbx), %ymm4 vmulpd 32384(%rbx), %ymm4, %ymm3 vmulpd %ymm4, %ymm6, %ymm4 vmovapd 32896(%rbx), %ymm5 vmulpd %ymm14, %ymm5, %ymm5 vaddpd %ymm4, %ymm5, %ymm4 vaddpd %ymm2, %ymm4, %ymm2 vsubpd %ymm3, %ymm2, %ymm2 vsubpd %ymm0, %ymm2, %ymm0 vmulpd 30432(%rbx), %ymm14, %ymm2 vsubpd %ymm2, %ymm0, %ymm3 vmovapd %ymm9, %ymm4 vmulpd %ymm4, %ymm1, %ymm0 vmovlpd %xmm0, 10008(%r13,%r12) vmovhpd %xmm0, 10136(%r13,%r12) vextractf128 $1, %ymm0, %xmm2 vmovlpd %xmm2, 10264(%r13,%r12) vmovhpd %xmm2, 10392(%r13,%r12) vmulpd %ymm4, %ymm3, %ymm3 vmovlpd %xmm3, 10520(%r13,%r12) vmovhpd %xmm3, 10648(%r13,%r12) vextractf128 $1, %ymm3, %xmm7 vmovlpd %xmm7, 10776(%r13,%r12) vmovhpd %xmm7, 10904(%r13,%r12) vmovsd 10840(%r13,%r12), %xmm9 vmovsd 10712(%r13,%r12), %xmm10 vmovsd 10584(%r13,%r12), %xmm11 vmovsd 10456(%r13,%r12), %xmm13 vmovsd 10328(%r13,%r12), %xmm1 vmovsd 10200(%r13,%r12), %xmm5 vmovsd 9944(%r13,%r12), %xmm4 vmovsd 10072(%r13,%r12), %xmm6 vmovsd %xmm4, 10016(%r13,%r12) vmovsd %xmm6, 10144(%r13,%r12) vmovsd %xmm5, 10272(%r13,%r12) vmovsd %xmm1, 10400(%r13,%r12) vmovsd %xmm13, 10528(%r13,%r12) vmovsd %xmm11, 10656(%r13,%r12) vmovsd %xmm10, 10784(%r13,%r12) vmovsd %xmm9, 10912(%r13,%r12) vmovapd 29152(%rbx), %ymm1 vmovlpd %xmm1, 10024(%r13,%r12) vmovhpd %xmm1, 10152(%r13,%r12) vmovapd 29248(%rbx), %xmm1 vmovlpd %xmm1, 10280(%r13,%r12) vmovhpd %xmm1, 10408(%r13,%r12) vmovapd 29216(%rbx), %ymm1 vmovlpd %xmm1, 10536(%r13,%r12) vmovhpd %xmm1, 10664(%r13,%r12) vmovapd 29280(%rbx), %xmm1 vmovlpd %xmm1, 10792(%r13,%r12) vmovhpd %xmm1, 10920(%r13,%r12) vmovlpd %xmm0, 10032(%r13,%r12) vmovhpd %xmm0, 10160(%r13,%r12) vmovlpd %xmm2, 10288(%r13,%r12) vmovhpd %xmm2, 10416(%r13,%r12) vmovlpd %xmm3, 10544(%r13,%r12) vmovhpd %xmm3, 10672(%r13,%r12) vmovlpd %xmm7, 10800(%r13,%r12) vmovhpd %xmm7, 10928(%r13,%r12) vmovsd 10944(%r13,%r12), %xmm0 vmovsd 10960(%r13,%r12), %xmm2 vmovsd 11280(%r13,%r12), %xmm1 vmovhpd 11408(%r13,%r12), %xmm1, %xmm1 vmovsd 11024(%r13,%r12), %xmm3 vmovhpd 11152(%r13,%r12), %xmm3, %xmm3 vinsertf128 $1, %xmm1, %ymm3, %ymm7 vmovapd %ymm7, 32384(%rbx) vmovsd 11200(%r13,%r12), %xmm1 vmovhpd 11328(%r13,%r12), %xmm1, %xmm1 vmovhpd 11072(%r13,%r12), %xmm0, %xmm0 vinsertf128 $1, %xmm1, %ymm0, %ymm3 vmovsd 11264(%r13,%r12), %xmm0 vmovhpd 11392(%r13,%r12), %xmm0, %xmm0 vmovsd 11008(%r13,%r12), %xmm1 vmovhpd 11136(%r13,%r12), %xmm1, %xmm1 vinsertf128 $1, %xmm0, %ymm1, %ymm0 vmovapd 32672(%rbx), %ymm5 vmovapd 29024(%rbx), %ymm1 vmulpd %ymm5, %ymm1, %ymm1 vmulpd %ymm0, %ymm1, %ymm1 vmovapd 32832(%rbx), %ymm10 vmulpd %ymm10, %ymm3, %ymm4 vmulpd %ymm7, %ymm4, %ymm4 vaddpd %ymm1, %ymm4, %ymm1 vmovsd 11216(%r13,%r12), %xmm4 vmovhpd 11344(%r13,%r12), %xmm4, %xmm4 vmovhpd 11088(%r13,%r12), %xmm2, %xmm2 vinsertf128 $1, %xmm4, %ymm2, %ymm2 vmulpd 32704(%rbx), %ymm2, %ymm4 vmulpd %ymm15, %ymm4, %ymm4 vaddpd %ymm4, %ymm1, %ymm1 vmulpd %ymm5, %ymm3, %ymm3 vmulpd %ymm15, %ymm3, %ymm3 vsubpd %ymm3, %ymm1, %ymm3 vmovsd 11792(%r13,%r12), %xmm1 vmovhpd 11920(%r13,%r12), %xmm1, %xmm1 vmovsd 11536(%r13,%r12), %xmm4 vmovhpd 11664(%r13,%r12), %xmm4, %xmm4 vinsertf128 $1, %xmm1, %ymm4, %ymm8 vmovapd %ymm8, 29152(%rbx) vmovsd 11712(%r13,%r12), %xmm1 vmovhpd 11840(%r13,%r12), %xmm1, %xmm1 vmovsd 11456(%r13,%r12), %xmm4 vmovhpd 11584(%r13,%r12), %xmm4, %xmm4 vinsertf128 $1, %xmm1, %ymm4, %ymm4 vmovsd 11776(%r13,%r12), %xmm1 vmovhpd 11904(%r13,%r12), %xmm1, %xmm1 vmovsd 11520(%r13,%r12), %xmm5 vmovhpd 11648(%r13,%r12), %xmm5, %xmm5 vinsertf128 $1, %xmm1, %ymm5, %ymm5 vmovapd 29312(%rbx), %ymm9 vmovapd 29120(%rbx), %ymm1 vmulpd %ymm9, %ymm1, %ymm1 vmulpd %ymm5, %ymm1, %ymm1 vmovapd 32800(%rbx), %ymm11 vmulpd %ymm11, %ymm4, %ymm6 vmulpd %ymm8, %ymm6, %ymm6 vaddpd %ymm1, %ymm6, %ymm6 vmulpd 29088(%rbx), %ymm7, %ymm1 vsubpd %ymm1, %ymm3, %ymm1 vmulpd %ymm2, %ymm10, %ymm2 vmovapd %ymm10, %ymm12 vmulpd %ymm2, %ymm0, %ymm0 vmovsd 11728(%r13,%r12), %xmm2 vmovhpd 11856(%r13,%r12), %xmm2, %xmm2 vmovsd 11472(%r13,%r12), %xmm3 vmovhpd 11600(%r13,%r12), %xmm3, %xmm3 vinsertf128 $1, %xmm2, %ymm3, %ymm2 vsubpd %ymm0, %ymm1, %ymm0 vmulpd 32928(%rbx), %ymm2, %ymm1 vmulpd %ymm14, %ymm1, %ymm1 vaddpd %ymm1, %ymm6, %ymm1 vmulpd %ymm9, %ymm4, %ymm3 vmulpd %ymm14, %ymm3, %ymm3 vsubpd %ymm3, %ymm1, %ymm1 vmulpd 32544(%rbx), %ymm8, %ymm3 vsubpd %ymm3, %ymm1, %ymm1 vmulpd %ymm2, %ymm11, %ymm2 vmovapd %ymm11, %ymm4 vmulpd %ymm2, %ymm5, %ymm2 vmovapd .LCPI1_22(%rip), %ymm3 vmulpd %ymm3, %ymm0, %ymm0 vmovlpd %xmm0, 10040(%r13,%r12) vmovhpd %xmm0, 10168(%r13,%r12) vextractf128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 10296(%r13,%r12) vmovhpd %xmm0, 10424(%r13,%r12) vsubpd %ymm2, %ymm1, %ymm0 vmulpd %ymm3, %ymm0, %ymm0 vmovlpd %xmm0, 10552(%r13,%r12) vmovhpd %xmm0, 10680(%r13,%r12) vextractf128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 10808(%r13,%r12) vmovhpd %xmm0, 10936(%r13,%r12) vmovsd 9920(%r13,%r12), %xmm3 vmovsd 9928(%r13,%r12), %xmm0 vmovaps %xmm0, 32416(%rbx) vmovapd 29344(%rbx), %ymm0 vinsertf128 $1, 29472(%rbx), %ymm0, %ymm1 vmovapd %ymm1, 32928(%rbx) vmovapd 29536(%rbx), %ymm0 vinsertf128 $1, 29568(%rbx), %ymm0, %ymm5 vmovapd %ymm5, 32896(%rbx) vmovapd 29600(%rbx), %ymm0 vinsertf128 $1, 29728(%rbx), %ymm0, %ymm9 vmovapd %ymm9, 32704(%rbx) vmovapd 29856(%rbx), %ymm0 vinsertf128 $1, 29984(%rbx), %ymm0, %ymm10 vmovapd 29792(%rbx), %ymm0 vinsertf128 $1, 29824(%rbx), %ymm0, %ymm14 vmovapd %ymm14, 32672(%rbx) vmovapd 30048(%rbx), %ymm0 vinsertf128 $1, 30080(%rbx), %ymm0, %ymm15 vmovapd %ymm15, 32640(%rbx) vmulpd %ymm1, %ymm4, %ymm0 vmulpd %ymm0, %ymm1, %ymm0 vmovapd .LCPI1_23(%rip), %ymm11 vaddpd %ymm11, %ymm0, %ymm1 vmulpd %ymm10, %ymm12, %ymm0 vmulpd %ymm0, %ymm10, %ymm0 vaddpd %ymm11, %ymm0, %ymm0 vmulpd %ymm9, %ymm7, %ymm2 vmulpd %ymm2, %ymm9, %ymm2 vaddpd %ymm2, %ymm0, %ymm0 vmovapd %ymm0, 32864(%rbx) vmulpd %ymm5, %ymm8, %ymm2 vmulpd %ymm2, %ymm5, %ymm2 vaddpd %ymm2, %ymm1, %ymm1 vmovsd 11248(%r13,%r12), %xmm2 vmovhpd 11376(%r13,%r12), %xmm2, %xmm2 vmovsd 10992(%r13,%r12), %xmm4 vmovhpd 11120(%r13,%r12), %xmm4, %xmm4 vinsertf128 $1, %xmm2, %ymm4, %ymm8 vmovapd %ymm8, 29024(%rbx) vmovsd 11256(%r13,%r12), %xmm2 vmovhpd 11384(%r13,%r12), %xmm2, %xmm2 vmovsd 11000(%r13,%r12), %xmm4 vmovhpd 11128(%r13,%r12), %xmm4, %xmm4 vinsertf128 $1, %xmm2, %ymm4, %ymm7 vmovapd %ymm7, 29216(%rbx) vmovsd 11288(%r13,%r12), %xmm2 vmovhpd 11416(%r13,%r12), %xmm2, %xmm2 vmovsd 11032(%r13,%r12), %xmm4 vmovhpd 11160(%r13,%r12), %xmm4, %xmm4 vinsertf128 $1, %xmm2, %ymm4, %ymm0 vmovapd %ymm0, 28992(%rbx) vmovsd 11832(%r13,%r12), %xmm2 vmovhpd 11960(%r13,%r12), %xmm2, %xmm2 vmovsd 11576(%r13,%r12), %xmm4 vmovhpd 11704(%r13,%r12), %xmm4, %xmm4 vinsertf128 $1, %xmm2, %ymm4, %ymm0 vmovapd %ymm0, 28960(%rbx) vmovsd 11760(%r13,%r12), %xmm2 vmovhpd 11888(%r13,%r12), %xmm2, %xmm2 vmovsd 11504(%r13,%r12), %xmm4 vmovhpd 11632(%r13,%r12), %xmm4, %xmm4 vinsertf128 $1, %xmm2, %ymm4, %ymm2 vmovapd %ymm2, 32544(%rbx) vmovsd 11768(%r13,%r12), %xmm2 vmovhpd 11896(%r13,%r12), %xmm2, %xmm2 vmovsd 11512(%r13,%r12), %xmm4 vmovhpd 11640(%r13,%r12), %xmm4, %xmm4 vinsertf128 $1, %xmm2, %ymm4, %ymm2 vmovapd %ymm2, 32512(%rbx) vmovsd 11320(%r13,%r12), %xmm2 vmovhpd 11448(%r13,%r12), %xmm2, %xmm2 vmovsd 11064(%r13,%r12), %xmm4 vmovhpd 11192(%r13,%r12), %xmm4, %xmm4 vinsertf128 $1, %xmm2, %ymm4, %ymm13 vmovapd %ymm13, 28928(%rbx) vmovsd 10176(%r13,%r12), %xmm2 vmovhpd 10304(%r13,%r12), %xmm2, %xmm2 vmovhpd 10048(%r13,%r12), %xmm3, %xmm3 vinsertf128 $1, %xmm2, %ymm3, %ymm2 vmovapd %ymm2, 30528(%rbx) vmovsd 10432(%r13,%r12), %xmm5 vmovsd 10688(%r13,%r12), %xmm4 vmovsd 11544(%r13,%r12), %xmm6 vmovsd 11800(%r13,%r12), %xmm2 vmovhpd 11928(%r13,%r12), %xmm2, %xmm2 vmovhpd 11672(%r13,%r12), %xmm6, %xmm6 vmovhpd 10816(%r13,%r12), %xmm4, %xmm3 vmovapd %xmm3, 30464(%rbx) vmovhpd 10560(%r13,%r12), %xmm5, %xmm5 vmovsd 10824(%r13,%r12), %xmm3 vmovaps %xmm3, 29056(%rbx) vmovsd 10696(%r13,%r12), %xmm3 vmovaps %xmm3, 29088(%rbx) vmovsd 10568(%r13,%r12), %xmm11 vmovsd 10440(%r13,%r12), %xmm12 vmovsd 10312(%r13,%r12), %xmm3 vmovaps %xmm3, 29120(%rbx) vmovsd 10184(%r13,%r12), %xmm4 vmovsd 10056(%r13,%r12), %xmm3 vmulpd %ymm7, %ymm10, %ymm7 vmulpd %ymm7, %ymm15, %ymm7 vmulpd %ymm8, %ymm10, %ymm8 vmulpd %ymm8, %ymm9, %ymm8 vaddpd %ymm7, %ymm8, %ymm8 vmulpd %ymm14, %ymm0, %ymm7 vmulpd %ymm7, %ymm14, %ymm7 vaddpd %ymm7, %ymm1, %ymm7 vmulpd %ymm15, %ymm13, %ymm1 vmovapd 32928(%rbx), %ymm13 vmulpd %ymm1, %ymm15, %ymm1 vmovapd 32864(%rbx), %ymm0 vaddpd %ymm1, %ymm0, %ymm0 vmulpd 28992(%rbx), %ymm9, %ymm1 vmulpd %ymm1, %ymm15, %ymm1 vaddpd %ymm1, %ymm8, %ymm1 vmulpd 32512(%rbx), %ymm13, %ymm8 vmulpd %ymm8, %ymm14, %ymm8 vmulpd 32544(%rbx), %ymm13, %ymm9 vmovapd 32896(%rbx), %ymm15 vmulpd %ymm9, %ymm15, %ymm9 vaddpd %ymm8, %ymm9, %ymm8 vmovapd %xmm4, %xmm9 vinsertf128 $1, %xmm2, %ymm6, %ymm2 vmovapd %ymm2, 28224(%rbx) vmulpd %ymm2, %ymm15, %ymm2 vmulpd %ymm2, %ymm14, %ymm2 vmovdqa .LCPI1_21(%rip), %xmm14 vaddpd %ymm2, %ymm8, %ymm2 vmovapd .LCPI1_24(%rip), %ymm6 vmulpd %ymm6, %ymm2, %ymm2 vmulpd %ymm6, %ymm1, %ymm1 vinsertf128 $1, 30464(%rbx), %ymm5, %ymm4 vaddpd %ymm1, %ymm0, %ymm1 vaddpd %ymm2, %ymm7, %ymm0 vmovapd %xmm3, %xmm7 vmovapd .LCPI1_25(%rip), %ymm2 vmovapd 30528(%rbx), %ymm3 vxorpd %ymm2, %ymm3, %ymm3 vxorpd %ymm2, %ymm4, %ymm5 vmovapd 29088(%rbx), %xmm2 movq 30208(%rbx), %rax leaq 33024(%rbx,%rax,8), %rax movq %rax, 29472(%rbx) movq 30112(%rbx), %rax leaq 33024(%rbx,%rax,8), %rax movq %rax, 29536(%rbx) movq 30272(%rbx), %rax leaq 33024(%rbx,%rax,8), %rax movq %rax, 29568(%rbx) movq 30336(%rbx), %rax leaq 33024(%rbx,%rax,8), %rax movq %rax, 29600(%rbx) movq %r13, %rsi movq 30624(%rbx), %rax leaq 33024(%rbx,%rax,8), %rax movq %rax, 29728(%rbx) movq 30592(%rbx), %rax leaq 33024(%rbx,%rax,8), %rax movq %rax, 29792(%rbx) movq 30656(%rbx), %rax leaq 33024(%rbx,%rax,8), %rax movq %rax, 29824(%rbx) movq 30720(%rbx), %rax leaq 33024(%rbx,%rax,8), %rax movq %rax, 29856(%rbx) movq 30784(%rbx), %rax leaq 33024(%rbx,%rax,8), %rax movq %rax, 29984(%rbx) movq 30848(%rbx), %rax leaq 33024(%rbx,%rax,8), %rax movq %rax, 30048(%rbx) movq 30880(%rbx), %rax leaq 33024(%rbx,%rax,8), %rax movq %rax, 30080(%rbx) movq 30944(%rbx), %rax leaq 33024(%rbx,%rax,8), %rax movq %rax, 30112(%rbx) movq 30976(%rbx), %rax leaq 33024(%rbx,%rax,8), %rax movq %rax, 30208(%rbx) movq 31040(%rbx), %rax leaq 33024(%rbx,%rax,8), %rax movq %rax, 30272(%rbx) movq 31104(%rbx), %rax leaq 33024(%rbx,%rax,8), %rax movq %rax, 30336(%rbx) movq 31168(%rbx), %rax leaq 33024(%rbx,%rax,8), %rax movq %rax, 30368(%rbx) movq 29504(%rbx), %rax leaq 33024(%rbx,%rax,8), %rax movq %rax, 30464(%rbx) movq 29952(%rbx), %rax leaq 33024(%rbx,%rax,8), %rax movq %rax, 30528(%rbx) movq 29632(%rbx), %rax leaq 33024(%rbx,%rax,8), %rax movq %rax, 30592(%rbx) movq 29696(%rbx), %rax leaq 33024(%rbx,%rax,8), %rax movq %rax, 30624(%rbx) movq 31200(%rbx), %rax leaq 33024(%rbx,%rax,8), %rax movq %rax, 30720(%rbx) movq 29760(%rbx), %rax leaq 33024(%rbx,%rax,8), %rax movq %rax, 30784(%rbx) movq 30912(%rbx), %rax leaq 33024(%rbx,%rax,8), %rax movq %rax, 30848(%rbx) movq 29888(%rbx), %rax leaq 33024(%rbx,%rax,8), %rax movq %rax, 30880(%rbx) movq 29664(%rbx), %rax leaq 33024(%rbx,%rax,8), %rax movq %rax, 30976(%rbx) movq 30016(%rbx), %rax leaq 33024(%rbx,%rax,8), %rax movq %rax, 31040(%rbx) movq 31136(%rbx), %rax leaq 33024(%rbx,%rax,8), %rax movq %rax, 31104(%rbx) movq 29920(%rbx), %rax leaq 33024(%rbx,%rax,8), %rax movq %rax, 31136(%rbx) movq 30240(%rbx), %rax leaq 33024(%rbx,%rax,8), %rax movq %rax, 31168(%rbx) movq 30304(%rbx), %rax leaq 33024(%rbx,%rax,8), %rax movq %rax, 31200(%rbx) movq 30144(%rbx), %rax leaq 33024(%rbx,%rax,8), %r13 movq 30176(%rbx), %rax leaq 33024(%rbx,%rax,8), %rcx movq 31008(%rbx), %rax leaq 33024(%rbx,%rax,8), %rax movq %rax, 29248(%rbx) movq 31072(%rbx), %rax leaq 33024(%rbx,%rax,8), %rax movq %rax, 29280(%rbx) leaq 33024(%rbx,%r15,8), %rax movq %rax, 29312(%rbx) leaq 33024(%rbx,%r10,8), %rax movq %rax, 29344(%rbx) movq 29376(%rbx), %rax leaq 33024(%rbx,%rax,8), %rax movq %rax, 29376(%rbx) movq 29408(%rbx), %rax leaq 33024(%rbx,%rax,8), %rax movq %rax, 29408(%rbx) movq 29440(%rbx), %rax leaq 33024(%rbx,%rax,8), %rax movq %rax, 29440(%rbx) leaq 33024(%rbx,%r11,8), %rax movq %rax, 29504(%rbx) leaq 33024(%rbx,%rdx,8), %rax movq %rax, 29632(%rbx) leaq 33024(%rbx,%r9,8), %rax movq %rax, 29664(%rbx) leaq 33024(%rbx,%rdi,8), %rax movq %rax, 29696(%rbx) movq 30496(%rbx), %rax leaq 33024(%rbx,%rax,8), %rax movq %rax, 29760(%rbx) movq 30560(%rbx), %rax leaq 33024(%rbx,%rax,8), %rax movq %rax, 29888(%rbx) movq 30688(%rbx), %rax leaq 33024(%rbx,%rax,8), %rax movq %rax, 29920(%rbx) movq 30752(%rbx), %rax leaq 33024(%rbx,%rax,8), %rax movq %rax, 29952(%rbx) movq 30816(%rbx), %rax leaq 33024(%rbx,%rax,8), %rax movq %rax, 30016(%rbx) movq 32448(%rbx), %rax leaq 33024(%rbx,%rax,8), %rax movq %rax, 30144(%rbx) movq 28096(%rbx), %rax leaq 33024(%rbx,%rax,8), %rax movq %rax, 30176(%rbx) movq 26816(%rbx), %rax leaq 33024(%rbx,%rax,8), %rax movq %rax, 30240(%rbx) movq 28128(%rbx), %rax leaq 33024(%rbx,%rax,8), %rax movq %rax, 30304(%rbx) movq 26848(%rbx), %rax leaq 33024(%rbx,%rax,8), %rax movq %rax, 30400(%rbx) movq 28064(%rbx), %rax leaq 33024(%rbx,%rax,8), %rax movq %rax, 30432(%rbx) movq 26880(%rbx), %rax leaq 33024(%rbx,%rax,8), %rax movq %rax, 30496(%rbx) movq 26912(%rbx), %rax leaq 33024(%rbx,%rax,8), %rax movq %rax, 30560(%rbx) movq 26784(%rbx), %rax leaq 33024(%rbx,%rax,8), %rax movq %rax, 30656(%rbx) movq 28032(%rbx), %rax leaq 33024(%rbx,%rax,8), %rax movq %rax, 30688(%rbx) movq 31232(%rbx), %rax leaq 33024(%rbx,%rax,8), %rax movq %rax, 30752(%rbx) movq 28160(%rbx), %rax leaq 33024(%rbx,%rax,8), %rax movq %rax, 30816(%rbx) movq 28256(%rbx), %rax leaq 33024(%rbx,%rax,8), %rax movq %rax, 30912(%rbx) movq 28288(%rbx), %rax leaq 33024(%rbx,%rax,8), %rax movq %rax, 30944(%rbx) movq 28320(%rbx), %rax leaq 33024(%rbx,%rax,8), %rax movq %rax, 31008(%rbx) movq 28352(%rbx), %rax leaq 33024(%rbx,%rax,8), %rax movq %rax, 31072(%rbx) vsqrtpd %ymm0, %ymm0 vsqrtpd %ymm1, %ymm4 vmovapd 29056(%rbx), %xmm1 vsqrtpd %ymm5, %ymm8 vmovapd 32416(%rbx), %xmm5 vsqrtpd %ymm3, %ymm6 vmovapd 29120(%rbx), %xmm3 jmp .LBB1_3290 .align 16, 0x90 .LBB1_2582: vmovapd %ymm2, 32864(%rbx) vmovapd %ymm5, 32928(%rbx) vmovsd 11648(%rsi,%r12), %xmm0 .LBB1_2584: vmovapd %xmm0, 32352(%rbx) vmovsd 11520(%rsi,%r12), %xmm1 movb %r15b, %al andb $1, %al jne .LBB1_2585 vxorpd %xmm0, %xmm0, %xmm0 jmp .LBB1_2587 .align 16, 0x90 .LBB1_2585: vmovsd 11096(%rsi,%r12), %xmm0 .LBB1_2587: vmovapd %xmm0, 29120(%rbx) movb %dil, %al andb $1, %al jne .LBB1_2589 vxorps %xmm1, %xmm1, %xmm1 .LBB1_2589: vmovaps %xmm1, 29088(%rbx) vmovsd 11776(%rsi,%r12), %xmm0 vmovaps %xmm0, 32416(%rbx) vmovsd 11736(%rsi,%r12), %xmm2 vmovsd 11960(%rsi,%r12), %xmm1 movb %r14b, %al andb $1, %al jne .LBB1_2590 vxorps %xmm0, %xmm0, %xmm0 jmp .LBB1_2592 .align 16, 0x90 .LBB1_2590: vmovsd 11952(%rsi,%r12), %xmm0 .LBB1_2592: vmovaps %xmm0, 29024(%rbx) movl %edx, %eax jne .LBB1_2594 vxorps %xmm1, %xmm1, %xmm1 .LBB1_2594: vmovaps %xmm1, 28960(%rbx) movb %r13b, %cl andb $1, %cl movb %cl, 32384(%rbx) jne .LBB1_2596 vxorps %xmm2, %xmm2, %xmm2 .LBB1_2596: vmovaps %xmm2, 29152(%rbx) movl %r11d, %ecx jne .LBB1_2598 vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 32416(%rbx) .LBB1_2598: vmovsd 11728(%rsi,%r12), %xmm0 vmovaps %xmm0, 32800(%rbx) vmovsd 11832(%rsi,%r12), %xmm1 vmovsd 11800(%rsi,%r12), %xmm4 vmovsd 11792(%rsi,%r12), %xmm2 vmovsd 11824(%rsi,%r12), %xmm0 movl %ecx, %r11d jne .LBB1_2599 vxorpd %xmm3, %xmm3, %xmm3 jmp .LBB1_2601 .align 16, 0x90 .LBB1_2599: vmovsd 11808(%rsi,%r12), %xmm3 .LBB1_2601: vmovapd %xmm3, 28128(%rbx) jne .LBB1_2603 vxorps %xmm0, %xmm0, %xmm0 .LBB1_2603: vmovaps %xmm0, 28928(%rbx) jne .LBB1_2605 vxorps %xmm2, %xmm2, %xmm2 .LBB1_2605: vmovaps %xmm2, 28160(%rbx) movl %eax, %r10d jne .LBB1_2607 vxorps %xmm4, %xmm4, %xmm4 .LBB1_2607: jne .LBB1_2609 vxorps %xmm1, %xmm1, %xmm1 .LBB1_2609: vmovaps %xmm4, 29184(%rbx) jne .LBB1_2611 vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 32800(%rbx) .LBB1_2611: vmovaps %xmm1, 28192(%rbx) movb %r14b, %al andb $1, %al vmovsd 11856(%rsi,%r12), %xmm2 vmovsd 11920(%rsi,%r12), %xmm1 movl %r9d, %ecx jne .LBB1_2612 vxorps %xmm0, %xmm0, %xmm0 jmp .LBB1_2614 .align 16, 0x90 .LBB1_2612: vmovsd 11904(%rsi,%r12), %xmm0 .LBB1_2614: vmovaps %xmm0, 28096(%rbx) jne .LBB1_2616 vxorps %xmm1, %xmm1, %xmm1 .LBB1_2616: vmovaps %xmm1, 28064(%rbx) jne .LBB1_2618 vxorps %xmm2, %xmm2, %xmm2 .LBB1_2618: vmovaps %xmm2, 28992(%rbx) movb %r8b, %al andb $1, %al vmovsd 11600(%rsi,%r12), %xmm0 vmovaps %xmm0, 32832(%rbx) vmovsd 11664(%rsi,%r12), %xmm2 vmovsd 11704(%rsi,%r12), %xmm1 jne .LBB1_2619 vxorps %xmm0, %xmm0, %xmm0 jmp .LBB1_2621 .align 16, 0x90 .LBB1_2619: vmovsd 11696(%rsi,%r12), %xmm0 .LBB1_2621: vmovaps %xmm0, 26880(%rbx) jne .LBB1_2623 vxorps %xmm1, %xmm1, %xmm1 .LBB1_2623: vmovaps %xmm1, 26848(%rbx) jne .LBB1_2625 vxorps %xmm2, %xmm2, %xmm2 .LBB1_2625: vmovaps %xmm2, 28896(%rbx) jne .LBB1_2627 vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 32832(%rbx) .LBB1_2627: movl %r13d, 32960(%rbx) vmovsd 11280(%rsi,%r12), %xmm1 jne .LBB1_2628 vxorps %xmm0, %xmm0, %xmm0 jmp .LBB1_2630 .align 16, 0x90 .LBB1_2628: vmovsd 11608(%rsi,%r12), %xmm0 .LBB1_2630: vmovaps %xmm0, 28032(%rbx) movb %r11b, %al andb $1, %al jne .LBB1_2632 vxorps %xmm1, %xmm1, %xmm1 .LBB1_2632: vmovaps %xmm1, 26688(%rbx) movb %dil, %al andb $1, %al jne .LBB1_2633 vxorps %xmm0, %xmm0, %xmm0 jmp .LBB1_2635 .align 16, 0x90 .LBB1_2633: vmovsd 11576(%rsi,%r12), %xmm0 .LBB1_2635: vmovaps %xmm0, 26816(%rbx) movb %r11b, %al andb $1, %al jne .LBB1_2636 vxorps %xmm0, %xmm0, %xmm0 jmp .LBB1_2638 .align 16, 0x90 .LBB1_2636: vmovsd 11264(%rsi,%r12), %xmm0 .LBB1_2638: vmovaps %xmm0, 26784(%rbx) jne .LBB1_2639 vxorps %xmm0, %xmm0, %xmm0 jmp .LBB1_2641 .align 16, 0x90 .LBB1_2639: vmovsd 11312(%rsi,%r12), %xmm0 .LBB1_2641: vmovaps %xmm0, 26720(%rbx) movb %r14b, %al andb $1, %al jne .LBB1_2642 vxorps %xmm0, %xmm0, %xmm0 jmp .LBB1_2644 .align 16, 0x90 .LBB1_2642: vmovsd 11864(%rsi,%r12), %xmm0 .LBB1_2644: vmovaps %xmm0, 26656(%rbx) movl %ecx, %r9d movb %dil, %al andb $1, %al vmovsd 11392(%rsi,%r12), %xmm1 vmovsd 11480(%rsi,%r12), %xmm2 jne .LBB1_2645 vxorps %xmm0, %xmm0, %xmm0 jmp .LBB1_2647 .align 16, 0x90 .LBB1_2645: vmovsd 11568(%rsi,%r12), %xmm0 .LBB1_2647: movl %r9d, %ecx vmovaps %xmm0, 26752(%rbx) jne .LBB1_2649 vxorps %xmm2, %xmm2, %xmm2 .LBB1_2649: vmovaps %xmm2, 26592(%rbx) movb %r10b, %al andb $1, %al jne .LBB1_2651 vxorps %xmm1, %xmm1, %xmm1 .LBB1_2651: vmovaps %xmm1, 26624(%rbx) vmovsd 11416(%rsi,%r12), %xmm1 jne .LBB1_2652 vxorps %xmm0, %xmm0, %xmm0 jmp .LBB1_2654 .align 16, 0x90 .LBB1_2652: vmovsd 11440(%rsi,%r12), %xmm0 .LBB1_2654: vmovaps %xmm0, 26528(%rbx) jne .LBB1_2656 vxorps %xmm1, %xmm1, %xmm1 .LBB1_2656: vmovaps %xmm1, 26112(%rbx) vmovsd 11448(%rsi,%r12), %xmm1 jne .LBB1_2657 vxorps %xmm0, %xmm0, %xmm0 jmp .LBB1_2659 .align 16, 0x90 .LBB1_2657: vmovsd 11352(%rsi,%r12), %xmm0 .LBB1_2659: vmovaps %xmm0, 26560(%rbx) jne .LBB1_2661 vxorps %xmm1, %xmm1, %xmm1 .LBB1_2661: vmovaps %xmm1, 26496(%rbx) movl %r8d, 29216(%rbx) movb %r15b, %al andb $1, %al jne .LBB1_2662 vxorps %xmm12, %xmm12, %xmm12 jmp .LBB1_2664 .align 16, 0x90 .LBB1_2662: vmovsd 11152(%rsi,%r12), %xmm12 .LBB1_2664: movl %r15d, %r9d movb %dil, %al movl %r14d, %r15d andb $1, %al jne .LBB1_2665 vxorps %xmm0, %xmm0, %xmm0 jmp .LBB1_2667 .align 16, 0x90 .LBB1_2665: vmovsd 11536(%rsi,%r12), %xmm0 .LBB1_2667: vmovaps %xmm0, 26432(%rbx) movl %r11d, %eax movb %al, %r13b andb $1, %r13b vmovsd 11296(%rsi,%r12), %xmm1 vmovsd 11216(%rsi,%r12), %xmm0 vmovaps %xmm0, 32576(%rbx) vmovsd 11320(%rsi,%r12), %xmm0 jne .LBB1_2668 vxorps %xmm2, %xmm2, %xmm2 jmp .LBB1_2670 .align 16, 0x90 .LBB1_2668: vmovsd 11288(%rsi,%r12), %xmm2 .LBB1_2670: vmovaps %xmm2, 26336(%rbx) movl %ecx, %r8d jne .LBB1_2672 vxorps %xmm0, %xmm0, %xmm0 .LBB1_2672: vmovaps %xmm0, 26400(%rbx) jne .LBB1_2674 vxorps %xmm1, %xmm1, %xmm1 .LBB1_2674: vmovaps %xmm1, 26368(%rbx) jne .LBB1_2676 vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 32576(%rbx) .LBB1_2676: jne .LBB1_2677 vxorps %xmm0, %xmm0, %xmm0 jmp .LBB1_2679 .align 16, 0x90 .LBB1_2677: vmovsd 11224(%rsi,%r12), %xmm0 .LBB1_2679: vmovaps %xmm0, 26464(%rbx) movb %r9b, %al andb $1, %al jne .LBB1_2680 vxorpd %xmm3, %xmm3, %xmm3 jmp .LBB1_2682 .align 16, 0x90 .LBB1_2680: vmovsd 11160(%rsi,%r12), %xmm3 .LBB1_2682: movb %r10b, %r14b andb $1, %r14b vmovsd 11424(%rsi,%r12), %xmm0 jne .LBB1_2683 vxorps %xmm1, %xmm1, %xmm1 jmp .LBB1_2685 .align 16, 0x90 .LBB1_2683: vmovsd 11408(%rsi,%r12), %xmm1 .LBB1_2685: vmovaps %xmm1, 26272(%rbx) jne .LBB1_2687 vxorps %xmm0, %xmm0, %xmm0 .LBB1_2687: vmovaps %xmm0, 26304(%rbx) jne .LBB1_2688 vpxor %xmm9, %xmm9, %xmm9 jmp .LBB1_2690 .align 16, 0x90 .LBB1_2688: vmovsd 11344(%rsi,%r12), %xmm9 .LBB1_2690: movb %r15b, %r11b andb $1, %r11b jne .LBB1_2691 vxorps %xmm0, %xmm0, %xmm0 jmp .LBB1_2693 .align 16, 0x90 .LBB1_2691: vmovsd 11928(%rsi,%r12), %xmm0 .LBB1_2693: vmovaps %xmm0, 26144(%rbx) jne .LBB1_2694 vxorps %xmm0, %xmm0, %xmm0 jmp .LBB1_2696 .align 16, 0x90 .LBB1_2694: vmovsd 11936(%rsi,%r12), %xmm0 .LBB1_2696: vmovaps %xmm0, 26240(%rbx) movb %dil, %al andb $1, %al jne .LBB1_2697 vxorps %xmm0, %xmm0, %xmm0 jmp .LBB1_2699 .align 16, 0x90 .LBB1_2697: vmovsd 11472(%rsi,%r12), %xmm0 .LBB1_2699: vmovaps %xmm0, 26080(%rbx) movb %r9b, %dl andb $1, %dl jne .LBB1_2700 vxorpd %xmm8, %xmm8, %xmm8 jmp .LBB1_2702 .align 16, 0x90 .LBB1_2700: vmovsd 11088(%rsi,%r12), %xmm8 .LBB1_2702: vmovsd 11192(%rsi,%r12), %xmm0 vmovaps %xmm0, 32544(%rbx) vmovsd 11136(%rsi,%r12), %xmm0 vmovsd 11184(%rsi,%r12), %xmm1 jne .LBB1_2703 vxorps %xmm2, %xmm2, %xmm2 jmp .LBB1_2705 .align 16, 0x90 .LBB1_2703: vmovsd 11168(%rsi,%r12), %xmm2 .LBB1_2705: vmovaps %xmm2, 26048(%rbx) jne .LBB1_2707 vxorpd %xmm1, %xmm1, %xmm1 .LBB1_2707: vmovapd %xmm1, 26176(%rbx) jne .LBB1_2709 vxorps %xmm0, %xmm0, %xmm0 .LBB1_2709: vmovaps %xmm0, 26208(%rbx) jne .LBB1_2711 vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 32544(%rbx) .LBB1_2711: movl 29216(%rbx), %eax movb %al, %cl andb $1, %cl jne .LBB1_2712 vxorps %xmm0, %xmm0, %xmm0 jmp .LBB1_2714 .align 16, 0x90 .LBB1_2712: vmovsd 11672(%rsi,%r12), %xmm0 .LBB1_2714: vmovaps %xmm0, 25920(%rbx) jne .LBB1_2715 vxorps %xmm0, %xmm0, %xmm0 jmp .LBB1_2717 .align 16, 0x90 .LBB1_2715: vmovsd 11680(%rsi,%r12), %xmm0 .LBB1_2717: vmovaps %xmm0, 26016(%rbx) movb %dil, %al andb $1, %al vmovsd 11032(%rsi,%r12), %xmm11 vmovsd 11712(%rsi,%r12), %xmm0 vmovaps %xmm0, 32512(%rbx) vmovsd 11840(%rsi,%r12), %xmm2 vmovsd 11200(%rsi,%r12), %xmm0 vmovsd 11584(%rsi,%r12), %xmm4 vmovsd 11456(%rsi,%r12), %xmm10 vmovsd 11328(%rsi,%r12), %xmm13 vmovsd 11072(%rsi,%r12), %xmm5 vmovsd 11544(%rsi,%r12), %xmm15 jne .LBB1_2718 vxorpd %xmm1, %xmm1, %xmm1 jmp .LBB1_2720 .align 16, 0x90 .LBB1_2718: vmovsd 11552(%rsi,%r12), %xmm1 .LBB1_2720: vmovapd %xmm1, 25952(%rbx) jne .LBB1_2722 vxorpd %xmm15, %xmm15, %xmm15 .LBB1_2722: testb %dl, %dl jne .LBB1_2724 vxorpd %xmm5, %xmm5, %xmm5 .LBB1_2724: testb %r14b, %r14b jne .LBB1_2726 vxorpd %xmm13, %xmm13, %xmm13 .LBB1_2726: testb %al, %al jne .LBB1_2728 vxorpd %xmm10, %xmm10, %xmm10 .LBB1_2728: testb %cl, %cl jne .LBB1_2730 vxorpd %xmm4, %xmm4, %xmm4 .LBB1_2730: testb %r13b, %r13b jne .LBB1_2732 vxorpd %xmm0, %xmm0, %xmm0 .LBB1_2732: testb %r11b, %r11b jne .LBB1_2734 vxorps %xmm2, %xmm2, %xmm2 .LBB1_2734: cmpb $0, 32384(%rbx) jne .LBB1_2736 vxorpd %xmm1, %xmm1, %xmm1 vmovapd %xmm1, 32512(%rbx) .LBB1_2736: movb %r8b, %cl andb $1, %cl movl 32992(%rbx), %r8d jne .LBB1_2738 vxorpd %xmm11, %xmm11, %xmm11 .LBB1_2738: vmovaps %xmm2, 25984(%rbx) movl %edi, %edx movl %r15d, %eax jne .LBB1_2739 vxorpd %xmm1, %xmm1, %xmm1 jmp .LBB1_2741 .align 16, 0x90 .LBB1_2739: vmovsd 11040(%rsi,%r12), %xmm1 .LBB1_2741: vmovsd 10960(%rsi,%r12), %xmm2 movl %r10d, %edi jne .LBB1_2742 vxorpd %xmm14, %xmm14, %xmm14 jmp .LBB1_2744 .align 16, 0x90 .LBB1_2742: vmovsd 10944(%rsi,%r12), %xmm14 .LBB1_2744: jne .LBB1_2746 vxorpd %xmm2, %xmm2, %xmm2 .LBB1_2746: vunpcklpd %xmm3, %xmm11, %xmm7 vunpcklpd %xmm8, %xmm2, %xmm2 vmovsd 11064(%rsi,%r12), %xmm6 jne .LBB1_2747 vxorpd %xmm3, %xmm3, %xmm3 jmp .LBB1_2749 .align 16, 0x90 .LBB1_2747: vmovsd 11024(%rsi,%r12), %xmm3 .LBB1_2749: vunpcklpd %xmm12, %xmm3, %xmm8 vmovapd 32576(%rbx), %xmm3 vunpcklpd %xmm9, %xmm3, %xmm12 vmovapd 26336(%rbx), %xmm3 vunpcklpd 26112(%rbx), %xmm3, %xmm3 jne .LBB1_2751 vxorpd %xmm6, %xmm6, %xmm6 .LBB1_2751: vunpcklpd %xmm5, %xmm14, %xmm9 vunpcklpd 26048(%rbx), %xmm1, %xmm14 vunpcklpd 25920(%rbx), %xmm15, %xmm11 vmovapd 26080(%rbx), %xmm1 vunpcklpd 32832(%rbx), %xmm1, %xmm5 vinsertf128 $1, %xmm3, %ymm7, %ymm1 vmovapd %ymm1, 32384(%rbx) vinsertf128 $1, %xmm12, %ymm2, %ymm1 vmovapd %ymm1, 32832(%rbx) vmovapd 29184(%rbx), %xmm1 vunpcklpd 26144(%rbx), %xmm1, %xmm2 vmovapd 26368(%rbx), %xmm1 vunpcklpd 26304(%rbx), %xmm1, %xmm7 vunpcklpd %xmm13, %xmm0, %xmm0 vmovapd 26688(%rbx), %xmm1 vunpcklpd 26272(%rbx), %xmm1, %xmm3 vunpcklpd %xmm4, %xmm10, %xmm15 vmovapd 32800(%rbx), %xmm1 vunpcklpd 28992(%rbx), %xmm1, %xmm1 jne .LBB1_2752 vxorpd %xmm4, %xmm4, %xmm4 jmp .LBB1_2754 .align 16, 0x90 .LBB1_2752: vmovsd 11008(%rsi,%r12), %xmm4 .LBB1_2754: vunpcklpd 32544(%rbx), %xmm6, %xmm6 vmovapd %ymm6, 26368(%rbx) vmovapd 26432(%rbx), %xmm6 vunpcklpd 28896(%rbx), %xmm6, %xmm6 vmovapd %ymm6, 26688(%rbx) vmovapd 32832(%rbx), %ymm6 vmulpd 32384(%rbx), %ymm6, %ymm6 vinsertf128 $1, %xmm3, %ymm8, %ymm3 vmovapd %ymm3, 28896(%rbx) vinsertf128 $1, %xmm0, %ymm9, %ymm0 vmovapd %ymm0, 32800(%rbx) vinsertf128 $1, %xmm7, %ymm14, %ymm0 vmovapd %ymm0, 32576(%rbx) vinsertf128 $1, %xmm2, %ymm11, %ymm13 vinsertf128 $1, %xmm1, %ymm5, %ymm12 vmovapd 25952(%rbx), %xmm0 vunpcklpd 26016(%rbx), %xmm0, %xmm8 vmovapd 26400(%rbx), %xmm0 vunpcklpd 26496(%rbx), %xmm0, %xmm7 vmovapd 28128(%rbx), %xmm0 vunpcklpd 26240(%rbx), %xmm0, %xmm14 vmovapd 32512(%rbx), %xmm0 vunpcklpd 25984(%rbx), %xmm0, %xmm0 jne .LBB1_2755 vxorpd %xmm1, %xmm1, %xmm1 jmp .LBB1_2757 .align 16, 0x90 .LBB1_2755: vmovsd 11056(%rsi,%r12), %xmm1 .LBB1_2757: vmovapd 26592(%rbx), %xmm2 vunpcklpd 28032(%rbx), %xmm2, %xmm9 vunpcklpd 26176(%rbx), %xmm1, %xmm1 vmovapd %ymm1, 28032(%rbx) vunpcklpd 26208(%rbx), %xmm4, %xmm1 vmovapd %ymm1, 26592(%rbx) vmovapd 28160(%rbx), %xmm1 vunpcklpd 28064(%rbx), %xmm1, %xmm2 vmovapd %ymm13, 29184(%rbx) vmovapd %ymm12, 28992(%rbx) vmulpd %ymm13, %ymm12, %ymm11 vmulpd 32576(%rbx), %ymm6, %ymm1 vmovapd 32800(%rbx), %ymm3 vmulpd 28896(%rbx), %ymm3, %ymm6 vmovapd 26784(%rbx), %xmm3 vunpcklpd 26624(%rbx), %xmm3, %xmm3 vmovapd 26720(%rbx), %xmm4 vunpcklpd 26528(%rbx), %xmm4, %xmm5 vmovapd 29152(%rbx), %xmm4 vunpcklpd 26656(%rbx), %xmm4, %xmm10 vinsertf128 $1, %xmm0, %ymm15, %ymm15 vmovapd %ymm15, 29152(%rbx) vinsertf128 $1, %xmm14, %ymm8, %ymm14 vmovapd %ymm14, 32544(%rbx) vmovapd 26368(%rbx), %ymm0 vinsertf128 $1, %xmm7, %ymm0, %ymm7 vmovapd %ymm7, 32512(%rbx) vmovapd 32416(%rbx), %xmm0 vunpcklpd 28096(%rbx), %xmm0, %xmm0 vmovapd 26688(%rbx), %ymm4 vinsertf128 $1, %xmm2, %ymm4, %ymm4 vmovapd %ymm4, 28064(%rbx) vmovapd 29088(%rbx), %xmm2 vunpcklpd 32352(%rbx), %xmm2, %xmm2 vinsertf128 $1, %xmm0, %ymm2, %ymm8 vmovapd %ymm8, 28128(%rbx) vinsertf128 $1, %xmm10, %ymm9, %ymm9 vmovapd %ymm9, 32352(%rbx) vmulpd %ymm7, %ymm6, %ymm0 vaddpd %ymm1, %ymm0, %ymm1 vmovapd 28032(%rbx), %ymm0 vinsertf128 $1, %xmm5, %ymm0, %ymm10 vmovapd 26592(%rbx), %ymm0 vinsertf128 $1, %xmm3, %ymm0, %ymm6 vmovapd 26464(%rbx), %xmm0 vunpcklpd 26560(%rbx), %xmm0, %xmm2 vmulpd %ymm14, %ymm11, %ymm0 vmulpd %ymm4, %ymm15, %ymm3 vmovapd 28192(%rbx), %xmm4 vunpcklpd 28960(%rbx), %xmm4, %xmm4 vmovapd 26816(%rbx), %xmm5 vunpcklpd 26848(%rbx), %xmm5, %xmm5 vinsertf128 $1, %xmm4, %ymm5, %ymm7 vmovapd %ymm7, 29088(%rbx) vmulpd %ymm7, %ymm3, %ymm3 vaddpd %ymm0, %ymm3, %ymm0 vmulpd %ymm8, %ymm9, %ymm3 vmovapd 28928(%rbx), %xmm4 vunpcklpd 29024(%rbx), %xmm4, %xmm4 vmovapd 26752(%rbx), %xmm5 vunpcklpd 26880(%rbx), %xmm5, %xmm5 vinsertf128 $1, %xmm4, %ymm5, %ymm4 vmovapd %ymm4, 28928(%rbx) vmulpd %ymm4, %ymm3, %ymm3 vaddpd %ymm3, %ymm0, %ymm0 vmulpd %ymm13, %ymm15, %ymm3 vmulpd %ymm4, %ymm3, %ymm3 vsubpd %ymm3, %ymm0, %ymm0 vmulpd %ymm8, %ymm12, %ymm3 vmulpd %ymm3, %ymm7, %ymm3 vsubpd %ymm3, %ymm0, %ymm0 jne .LBB1_2758 vxorpd %xmm3, %xmm3, %xmm3 jmp .LBB1_2760 .align 16, 0x90 .LBB1_2758: vmovsd 10968(%rsi,%r12), %xmm3 .LBB1_2760: vunpcklpd 29120(%rbx), %xmm3, %xmm3 vinsertf128 $1, %xmm2, %ymm3, %ymm4 vmovapd %ymm4, 28096(%rbx) vmovapd %ymm6, 28160(%rbx) vmulpd %ymm6, %ymm4, %ymm2 vmovapd %ymm10, 28032(%rbx) vmulpd %ymm10, %ymm2, %ymm2 vaddpd %ymm2, %ymm1, %ymm1 vmovapd 32800(%rbx), %ymm2 vmulpd 32384(%rbx), %ymm2, %ymm2 vmulpd %ymm10, %ymm2, %ymm2 vsubpd %ymm2, %ymm1, %ymm1 vmovapd 28064(%rbx), %ymm2 vmulpd 32352(%rbx), %ymm2, %ymm2 testb %cl, %cl vmovapd 32832(%rbx), %ymm3 vmulpd %ymm6, %ymm3, %ymm3 vmovapd 32512(%rbx), %ymm5 vmulpd %ymm3, %ymm5, %ymm3 vsubpd %ymm3, %ymm1, %ymm1 vmovapd 28896(%rbx), %ymm3 vmulpd %ymm4, %ymm3, %ymm3 vmovapd 32576(%rbx), %ymm4 vmulpd %ymm3, %ymm4, %ymm3 vsubpd %ymm3, %ymm1, %ymm1 vmulpd .LCPI1_22(%rip), %ymm1, %ymm1 je .LBB1_2762 vmovlpd %xmm1, 9960(%rsi,%r12) .LBB1_2762: vmovapd 32544(%rbx), %ymm3 vmulpd %ymm2, %ymm3, %ymm2 testb $1, %r9b je .LBB1_2764 vunpckhpd %xmm1, %xmm1, %xmm3 vmovsd %xmm3, 10088(%rsi,%r12) .LBB1_2764: vsubpd %ymm2, %ymm0, %ymm0 vextractf128 $1, %ymm1, %xmm1 testb $1, %r8b je .LBB1_2766 vmovsd %xmm1, 10216(%rsi,%r12) .LBB1_2766: vmulpd .LCPI1_22(%rip), %ymm0, %ymm0 testb $1, %dil je .LBB1_2768 vunpckhpd %xmm1, %xmm1, %xmm1 vmovsd %xmm1, 10344(%rsi,%r12) .LBB1_2768: testb $1, %dl je .LBB1_2770 vmovsd %xmm0, 10472(%rsi,%r12) .LBB1_2770: movl 29216(%rbx), %ecx testb $1, %cl je .LBB1_2772 vunpckhpd %xmm0, %xmm0, %xmm1 vmovsd %xmm1, 10600(%rsi,%r12) .LBB1_2772: vextractf128 $1, %ymm0, %xmm0 movl 32960(%rbx), %ecx testb $1, %cl je .LBB1_2774 vmovsd %xmm0, 10728(%rsi,%r12) .LBB1_2774: movl %edi, %r10d testb $1, %al je .LBB1_2776 vunpckhpd %xmm0, %xmm0, %xmm0 vmovsd %xmm0, 10856(%rsi,%r12) .LBB1_2776: vmovsd 11744(%rsi,%r12), %xmm1 movl 32960(%rbx), %ecx movb %cl, %r14b andb $1, %r14b jne .LBB1_2777 vxorpd %xmm0, %xmm0, %xmm0 jmp .LBB1_2779 .align 16, 0x90 .LBB1_2777: vmovsd 11760(%rsi,%r12), %xmm0 .LBB1_2779: vmovapd %xmm0, 26880(%rbx) movl %edx, %r11d jne .LBB1_2781 vxorps %xmm1, %xmm1, %xmm1 .LBB1_2781: vmovaps %xmm1, 29120(%rbx) vmovsd 11616(%rsi,%r12), %xmm2 vmovsd 11104(%rsi,%r12), %xmm1 movb %r9b, %dil movl %r9d, 28224(%rbx) andb $1, %dil movl 29216(%rbx), %r9d movl %eax, %r15d jne .LBB1_2782 vxorpd %xmm0, %xmm0, %xmm0 jmp .LBB1_2784 .align 16, 0x90 .LBB1_2782: vmovsd 11120(%rsi,%r12), %xmm0 .LBB1_2784: vmovapd %xmm0, 26848(%rbx) jne .LBB1_2786 vxorps %xmm1, %xmm1, %xmm1 .LBB1_2786: vmovaps %xmm1, 32416(%rbx) movb %r9b, %r13b andb $1, %r13b jne .LBB1_2788 vxorps %xmm2, %xmm2, %xmm2 .LBB1_2788: vmovaps %xmm2, 29024(%rbx) vmovsd 11360(%rsi,%r12), %xmm1 vmovsd 11376(%rsi,%r12), %xmm0 jne .LBB1_2789 vxorps %xmm2, %xmm2, %xmm2 jmp .LBB1_2791 .align 16, 0x90 .LBB1_2789: vmovsd 11632(%rsi,%r12), %xmm2 .LBB1_2791: vmovaps %xmm2, 26784(%rbx) movb %r10b, %cl andb $1, %cl jne .LBB1_2793 vxorps %xmm0, %xmm0, %xmm0 .LBB1_2793: vmovaps %xmm0, 26816(%rbx) jne .LBB1_2795 vxorpd %xmm1, %xmm1, %xmm1 .LBB1_2795: vmovsd 10976(%rsi,%r12), %xmm15 vmovsd 10992(%rsi,%r12), %xmm7 vmovsd 11512(%rsi,%r12), %xmm13 vmovsd 11640(%rsi,%r12), %xmm9 vmovsd 11896(%rsi,%r12), %xmm11 vmovsd 11768(%rsi,%r12), %xmm12 vmovsd 11888(%rsi,%r12), %xmm0 vmovsd 11872(%rsi,%r12), %xmm3 vmovsd 11128(%rsi,%r12), %xmm10 vmovsd 11384(%rsi,%r12), %xmm2 vmovsd 11256(%rsi,%r12), %xmm4 vmovsd 11488(%rsi,%r12), %xmm5 vmovsd 11504(%rsi,%r12), %xmm14 vmovsd 11232(%rsi,%r12), %xmm6 movb %r8b, %dl andb $1, %dl jne .LBB1_2796 vxorpd %xmm8, %xmm8, %xmm8 jmp .LBB1_2798 .align 16, 0x90 .LBB1_2796: vmovsd 11248(%rsi,%r12), %xmm8 .LBB1_2798: jne .LBB1_2800 vxorpd %xmm6, %xmm6, %xmm6 .LBB1_2800: movb %r11b, %al andb $1, %al jne .LBB1_2802 vxorpd %xmm14, %xmm14, %xmm14 .LBB1_2802: jne .LBB1_2804 vxorpd %xmm5, %xmm5, %xmm5 .LBB1_2804: testb %dl, %dl jne .LBB1_2806 vxorpd %xmm4, %xmm4, %xmm4 .LBB1_2806: testb %cl, %cl jne .LBB1_2808 vxorpd %xmm2, %xmm2, %xmm2 .LBB1_2808: testb %dil, %dil jne .LBB1_2810 vxorpd %xmm10, %xmm10, %xmm10 .LBB1_2810: movb %r15b, %cl andb $1, %cl movl %r11d, %edi jne .LBB1_2812 vxorpd %xmm3, %xmm3, %xmm3 .LBB1_2812: jne .LBB1_2814 vxorpd %xmm0, %xmm0, %xmm0 .LBB1_2814: testb %r14b, %r14b jne .LBB1_2816 vxorpd %xmm12, %xmm12, %xmm12 .LBB1_2816: testb %cl, %cl movl %r10d, %r14d movl 32736(%rbx), %edx jne .LBB1_2818 vxorpd %xmm11, %xmm11, %xmm11 .LBB1_2818: testb %r13b, %r13b jne .LBB1_2820 vxorpd %xmm9, %xmm9, %xmm9 .LBB1_2820: testb %al, %al movabsq $-9223372036854775808, %r10 movl %r8d, %r11d jne .LBB1_2822 vxorpd %xmm13, %xmm13, %xmm13 .LBB1_2822: movb %dl, %al andb $1, %al jne .LBB1_2824 vxorpd %xmm15, %xmm15, %xmm15 .LBB1_2824: vunpcklpd 29024(%rbx), %xmm5, %xmm5 vunpcklpd %xmm1, %xmm6, %xmm1 vunpcklpd 32416(%rbx), %xmm15, %xmm6 vinsertf128 $1, %xmm1, %ymm6, %ymm1 vmovapd %ymm1, 32416(%rbx) vmovapd 29120(%rbx), %xmm1 vunpcklpd %xmm3, %xmm1, %xmm1 vunpcklpd %xmm2, %xmm4, %xmm2 movl 28224(%rbx), %ecx jne .LBB1_2825 vxorpd %xmm3, %xmm3, %xmm3 jmp .LBB1_2827 .align 16, 0x90 .LBB1_2825: vmovsd 11000(%rsi,%r12), %xmm3 .LBB1_2827: vmovapd 32512(%rbx), %ymm15 vunpcklpd %xmm10, %xmm3, %xmm3 vinsertf128 $1, %xmm2, %ymm3, %ymm3 vmovapd %ymm3, 28192(%rbx) vmovapd 32800(%rbx), %ymm2 vmulpd %ymm3, %ymm2, %ymm3 vmovapd %ymm3, 29024(%rbx) vinsertf128 $1, %xmm1, %ymm5, %ymm1 vmovapd %ymm1, 29120(%rbx) vmovapd 32832(%rbx), %ymm2 vmulpd 32416(%rbx), %ymm2, %ymm6 vmulpd %ymm15, %ymm6, %ymm2 vmulpd 28032(%rbx), %ymm3, %ymm3 vmovapd 28992(%rbx), %ymm4 vmulpd %ymm1, %ymm4, %ymm1 vmulpd 29088(%rbx), %ymm1, %ymm4 vunpcklpd %xmm11, %xmm12, %xmm5 vunpcklpd %xmm9, %xmm13, %xmm9 vinsertf128 $1, %xmm5, %ymm9, %ymm11 vmovapd 29152(%rbx), %ymm5 vmulpd %ymm11, %ymm5, %ymm5 vmovapd %ymm5, 28960(%rbx) vmulpd 28928(%rbx), %ymm5, %ymm5 vaddpd %ymm4, %ymm5, %ymm4 vmovapd 26880(%rbx), %xmm5 vunpcklpd %xmm0, %xmm5, %xmm0 vunpcklpd 26784(%rbx), %xmm14, %xmm5 vinsertf128 $1, %xmm0, %ymm5, %ymm5 vmovapd 32352(%rbx), %ymm0 vmulpd %ymm5, %ymm0, %ymm9 vmulpd 32544(%rbx), %ymm9, %ymm0 vaddpd %ymm0, %ymm4, %ymm0 vaddpd %ymm2, %ymm3, %ymm2 vunpcklpd 26816(%rbx), %xmm8, %xmm3 jne .LBB1_2829 vxorpd %xmm7, %xmm7, %xmm7 .LBB1_2829: vunpcklpd 26848(%rbx), %xmm7, %xmm4 vinsertf128 $1, %xmm3, %ymm4, %ymm4 vmovapd %ymm4, 26848(%rbx) vmovapd 28096(%rbx), %ymm8 vmulpd %ymm4, %ymm8, %ymm10 vmovapd 32576(%rbx), %ymm7 vmulpd %ymm7, %ymm10, %ymm3 vaddpd %ymm3, %ymm2, %ymm2 vmovapd 32800(%rbx), %ymm3 vmulpd %ymm4, %ymm3, %ymm12 vmulpd %ymm12, %ymm15, %ymm3 vmovapd %ymm15, 32512(%rbx) vsubpd %ymm3, %ymm2, %ymm2 vmovapd %ymm5, 26880(%rbx) vmovapd 29152(%rbx), %ymm3 vmulpd %ymm5, %ymm3, %ymm13 vmovapd 29088(%rbx), %ymm3 vmulpd %ymm13, %ymm3, %ymm3 vsubpd %ymm3, %ymm0, %ymm0 vmulpd 28992(%rbx), %ymm11, %ymm15 vmovapd %ymm11, 26528(%rbx) vmulpd 32544(%rbx), %ymm15, %ymm3 vsubpd %ymm3, %ymm0, %ymm0 vmovapd 29120(%rbx), %ymm3 vmulpd 32352(%rbx), %ymm3, %ymm3 vmovapd %ymm3, 28992(%rbx) vmovapd 28928(%rbx), %ymm4 vmulpd %ymm3, %ymm4, %ymm3 vsubpd %ymm3, %ymm0, %ymm0 vmovapd 28192(%rbx), %ymm3 vmulpd 32832(%rbx), %ymm3, %ymm14 vmulpd %ymm7, %ymm14, %ymm3 vsubpd %ymm3, %ymm2, %ymm2 vmovapd 32416(%rbx), %ymm3 vmulpd %ymm8, %ymm3, %ymm3 vmovapd %ymm3, 28928(%rbx) vmovapd 28032(%rbx), %ymm4 vmulpd %ymm3, %ymm4, %ymm3 testb %al, %al vsubpd %ymm3, %ymm2, %ymm2 vmulpd .LCPI1_22(%rip), %ymm2, %ymm11 vextractf128 $1, %ymm11, %xmm2 vunpckhpd %xmm11, %xmm11, %xmm3 je .LBB1_2831 vmovsd %xmm11, 9968(%rsi,%r12) .LBB1_2831: vmulpd .LCPI1_22(%rip), %ymm0, %ymm4 vunpckhpd %xmm2, %xmm2, %xmm0 testb $1, %cl je .LBB1_2833 vmovsd %xmm3, 10096(%rsi,%r12) .LBB1_2833: testb $1, %r11b je .LBB1_2835 vmovsd %xmm2, 10224(%rsi,%r12) .LBB1_2835: vunpckhpd %xmm4, %xmm4, %xmm5 testb $1, %r14b je .LBB1_2837 vmovsd %xmm0, 10352(%rsi,%r12) .LBB1_2837: vmovapd %xmm0, 28032(%rbx) vextractf128 $1, %ymm4, %xmm0 testb $1, %dil je .LBB1_2839 vmovsd %xmm4, 10480(%rsi,%r12) .LBB1_2839: vunpckhpd %xmm0, %xmm0, %xmm7 testb $1, %r9b je .LBB1_2841 vmovsd %xmm5, 10608(%rsi,%r12) .LBB1_2841: movl 32960(%rbx), %eax testb $1, %al je .LBB1_2843 vmovsd %xmm0, 10736(%rsi,%r12) .LBB1_2843: vmovapd %xmm3, 26816(%rbx) vmovapd %xmm2, 32832(%rbx) testb $1, %r15b je .LBB1_2845 vmovsd %xmm7, 10864(%rsi,%r12) .LBB1_2845: vmovapd %xmm7, 26496(%rbx) vmovapd 28128(%rbx), %ymm7 vmulpd %ymm7, %ymm15, %ymm15 vmovapd 29184(%rbx), %ymm8 vmulpd %ymm8, %ymm13, %ymm13 vaddpd %ymm15, %ymm13, %ymm13 vmovapd 28992(%rbx), %ymm2 vmovapd 28064(%rbx), %ymm3 vmulpd %ymm3, %ymm2, %ymm15 vaddpd %ymm15, %ymm13, %ymm13 vmovapd 28960(%rbx), %ymm2 vmulpd %ymm3, %ymm2, %ymm15 vsubpd %ymm15, %ymm13, %ymm13 vmulpd %ymm1, %ymm8, %ymm1 vsubpd %ymm1, %ymm13, %ymm1 vmovapd 28160(%rbx), %ymm8 vmulpd %ymm8, %ymm14, %ymm13 vmovapd 32384(%rbx), %ymm14 vmulpd %ymm14, %ymm12, %ymm12 vaddpd %ymm13, %ymm12, %ymm12 vmovapd 28928(%rbx), %ymm2 vmovapd 28896(%rbx), %ymm3 vmulpd %ymm3, %ymm2, %ymm13 vaddpd %ymm13, %ymm12, %ymm12 vmovapd 29024(%rbx), %ymm2 vmulpd %ymm3, %ymm2, %ymm13 vmulpd %ymm9, %ymm7, %ymm9 vsubpd %ymm9, %ymm1, %ymm1 testb $1, %dl vsubpd %ymm13, %ymm12, %ymm9 vmulpd %ymm6, %ymm14, %ymm6 vsubpd %ymm6, %ymm9, %ymm6 vmulpd %ymm10, %ymm8, %ymm9 vsubpd %ymm9, %ymm6, %ymm6 vmulpd .LCPI1_22(%rip), %ymm6, %ymm7 vextractf128 $1, %ymm7, %xmm6 vunpckhpd %xmm7, %xmm7, %xmm2 je .LBB1_2847 vmovsd %xmm7, 9976(%rsi,%r12) .LBB1_2847: vmovapd %xmm0, %xmm8 vmovapd %ymm7, 26656(%rbx) vmulpd .LCPI1_22(%rip), %ymm1, %ymm1 vunpckhpd %xmm6, %xmm6, %xmm7 testb $1, %cl je .LBB1_2849 vmovsd %xmm2, 10104(%rsi,%r12) .LBB1_2849: vmovapd %xmm2, 26688(%rbx) testb $1, %r11b je .LBB1_2851 vmovsd %xmm6, 10232(%rsi,%r12) .LBB1_2851: vunpckhpd %xmm1, %xmm1, %xmm2 testb $1, %r14b je .LBB1_2853 vmovsd %xmm7, 10360(%rsi,%r12) .LBB1_2853: vmovapd %xmm5, %xmm0 vextractf128 $1, %ymm1, %xmm3 testb $1, %dil je .LBB1_2855 vmovsd %xmm1, 10488(%rsi,%r12) .LBB1_2855: vunpckhpd %xmm3, %xmm3, %xmm5 testb $1, %r9b je .LBB1_2857 vmovsd %xmm2, 10616(%rsi,%r12) .LBB1_2857: movl 32960(%rbx), %eax testb $1, %al je .LBB1_2859 vmovsd %xmm3, 10744(%rsi,%r12) .LBB1_2859: vmovapd %xmm3, 26592(%rbx) testb $1, %r15b je .LBB1_2861 vmovsd %xmm5, 10872(%rsi,%r12) .LBB1_2861: vmovapd %xmm5, 26560(%rbx) testb $1, %dl je .LBB1_2863 movq %r10, 9984(%rsi,%r12) .LBB1_2863: vmovapd %xmm6, 26752(%rbx) testb $1, %cl je .LBB1_2865 movq %r10, 10112(%rsi,%r12) .LBB1_2865: vmovapd %xmm2, 26624(%rbx) testb $1, %r11b je .LBB1_2867 movq %r10, 10240(%rsi,%r12) .LBB1_2867: testb $1, %r14b vmovaps 26816(%rbx), %xmm3 je .LBB1_2869 movq %r10, 10368(%rsi,%r12) .LBB1_2869: testb $1, %dil je .LBB1_2871 movq %r10, 10496(%rsi,%r12) .LBB1_2871: vmovapd %xmm7, 26720(%rbx) testb $1, %r9b vmovaps 32832(%rbx), %xmm2 je .LBB1_2873 movq %r10, 10624(%rsi,%r12) .LBB1_2873: vmovapd %ymm1, 26784(%rbx) movl 32960(%rbx), %eax testb $1, %al je .LBB1_2875 movq %r10, 10752(%rsi,%r12) .LBB1_2875: testb $1, %r15b je .LBB1_2877 movq %r10, 10880(%rsi,%r12) .LBB1_2877: testb $1, %dl je .LBB1_2879 vmovsd %xmm11, 9992(%rsi,%r12) .LBB1_2879: testb $1, %cl movl 32960(%rbx), %r13d je .LBB1_2881 vmovsd %xmm3, 10120(%rsi,%r12) .LBB1_2881: testb $1, %r11b je .LBB1_2883 vmovsd %xmm2, 10248(%rsi,%r12) .LBB1_2883: testb $1, %r14b je .LBB1_2885 vmovapd 28032(%rbx), %xmm1 vmovsd %xmm1, 10376(%rsi,%r12) .LBB1_2885: testb $1, %dil je .LBB1_2887 vmovsd %xmm4, 10504(%rsi,%r12) .LBB1_2887: testb $1, %r9b je .LBB1_2889 vmovsd %xmm0, 10632(%rsi,%r12) .LBB1_2889: testb $1, %r13b vmovaps 26496(%rbx), %xmm0 je .LBB1_2891 vmovsd %xmm8, 10760(%rsi,%r12) .LBB1_2891: movl %r14d, %r10d testb $1, %r15b je .LBB1_2893 vmovsd %xmm0, 10888(%rsi,%r12) .LBB1_2893: vmovsd 11176(%rsi,%r12), %xmm0 vmovsd 11720(%rsi,%r12), %xmm2 movb %r13b, %r14b andb $1, %r14b jne .LBB1_2894 vxorpd %xmm1, %xmm1, %xmm1 jmp .LBB1_2896 .align 16, 0x90 .LBB1_2894: vmovsd 11816(%rsi,%r12), %xmm1 .LBB1_2896: vmovapd %xmm1, 28896(%rbx) jne .LBB1_2898 vxorpd %xmm2, %xmm2, %xmm2 .LBB1_2898: vmovapd %xmm2, 32832(%rbx) movb %cl, %dl andb $1, %dl jne .LBB1_2900 vxorps %xmm0, %xmm0, %xmm0 .LBB1_2900: vmovaps %xmm0, 26496(%rbx) vmovsd 11432(%rsi,%r12), %xmm0 vmovaps %xmm0, 32960(%rbx) vmovsd 11592(%rsi,%r12), %xmm1 vmovsd 11688(%rsi,%r12), %xmm0 movl %edi, %r8d jne .LBB1_2901 vxorpd %xmm2, %xmm2, %xmm2 jmp .LBB1_2903 .align 16, 0x90 .LBB1_2901: vmovsd 11080(%rsi,%r12), %xmm2 .LBB1_2903: movb %r9b, %dil andb $1, %dil jne .LBB1_2905 vxorps %xmm0, %xmm0, %xmm0 .LBB1_2905: vmovaps %xmm0, 28032(%rbx) jne .LBB1_2907 vxorps %xmm1, %xmm1, %xmm1 .LBB1_2907: vmovaps %xmm1, 28064(%rbx) movb %r10b, %al andb $1, %al jne .LBB1_2909 vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 32960(%rbx) .LBB1_2909: vmovsd 11464(%rsi,%r12), %xmm3 vmovsd 11560(%rsi,%r12), %xmm5 vmovsd 11112(%rsi,%r12), %xmm14 vmovsd 11304(%rsi,%r12), %xmm1 vmovsd 11368(%rsi,%r12), %xmm0 jne .LBB1_2910 vxorpd %xmm6, %xmm6, %xmm6 jmp .LBB1_2912 .align 16, 0x90 .LBB1_2910: vmovsd 11336(%rsi,%r12), %xmm6 .LBB1_2912: vmovsd 11208(%rsi,%r12), %xmm12 testb %al, %al jne .LBB1_2914 vxorpd %xmm0, %xmm0, %xmm0 .LBB1_2914: movb %r11b, %al andb $1, %al vmovsd 11944(%rsi,%r12), %xmm7 jne .LBB1_2916 vxorpd %xmm1, %xmm1, %xmm1 .LBB1_2916: vmovapd %xmm1, 26432(%rbx) jne .LBB1_2918 vxorpd %xmm12, %xmm12, %xmm12 .LBB1_2918: testb %dl, %dl jne .LBB1_2920 vxorpd %xmm14, %xmm14, %xmm14 .LBB1_2920: movb %r8b, %dl andb $1, %dl jne .LBB1_2922 vxorpd %xmm5, %xmm5, %xmm5 .LBB1_2922: jne .LBB1_2924 vxorpd %xmm3, %xmm3, %xmm3 .LBB1_2924: movb %r15b, %cl andb $1, %cl vmovsd 10952(%rsi,%r12), %xmm10 vmovsd 10984(%rsi,%r12), %xmm15 vmovsd 11496(%rsi,%r12), %xmm9 vmovsd 11624(%rsi,%r12), %xmm8 vmovsd 11752(%rsi,%r12), %xmm11 vmovsd 11880(%rsi,%r12), %xmm13 jne .LBB1_2926 vxorpd %xmm7, %xmm7, %xmm7 .LBB1_2926: vmovsd 11240(%rsi,%r12), %xmm4 jne .LBB1_2927 vxorpd %xmm1, %xmm1, %xmm1 jmp .LBB1_2929 .align 16, 0x90 .LBB1_2927: vmovsd 11848(%rsi,%r12), %xmm1 .LBB1_2929: testb %al, %al jne .LBB1_2931 vxorpd %xmm4, %xmm4, %xmm4 .LBB1_2931: testb %cl, %cl jne .LBB1_2933 vxorpd %xmm13, %xmm13, %xmm13 .LBB1_2933: testb %r14b, %r14b jne .LBB1_2935 vxorpd %xmm11, %xmm11, %xmm11 .LBB1_2935: testb %dil, %dil movl %r10d, %ecx movl 32736(%rbx), %r10d jne .LBB1_2937 vxorpd %xmm8, %xmm8, %xmm8 .LBB1_2937: testb %dl, %dl movl %r8d, %edx jne .LBB1_2939 vxorpd %xmm9, %xmm9, %xmm9 .LBB1_2939: movb %r10b, %al andb $1, %al jne .LBB1_2941 vxorpd %xmm15, %xmm15, %xmm15 .LBB1_2941: vunpcklpd %xmm14, %xmm15, %xmm14 movl %r13d, %edi movl 28224(%rbx), %r8d jne .LBB1_2943 vxorpd %xmm10, %xmm10, %xmm10 .LBB1_2943: vunpcklpd %xmm2, %xmm10, %xmm2 vunpcklpd %xmm0, %xmm4, %xmm0 vunpcklpd %xmm6, %xmm12, %xmm4 vmovapd 32832(%rbx), %xmm6 vunpcklpd %xmm1, %xmm6, %xmm1 vunpcklpd 28064(%rbx), %xmm3, %xmm3 vinsertf128 $1, %xmm1, %ymm3, %ymm12 vmovapd %ymm12, 26816(%rbx) vinsertf128 $1, %xmm4, %ymm2, %ymm2 vmovapd %ymm2, 28064(%rbx) vinsertf128 $1, %xmm0, %ymm14, %ymm0 vmovapd %ymm0, 32832(%rbx) vmovapd 32800(%rbx), %ymm1 vmulpd %ymm0, %ymm1, %ymm1 vmovapd %ymm1, 26464(%rbx) vmulpd 28192(%rbx), %ymm2, %ymm14 vmulpd 26528(%rbx), %ymm12, %ymm0 vmulpd 32576(%rbx), %ymm14, %ymm3 vmovapd 32512(%rbx), %ymm15 vmulpd %ymm15, %ymm1, %ymm4 vmulpd 32544(%rbx), %ymm0, %ymm1 vunpcklpd %xmm13, %xmm11, %xmm2 vunpcklpd %xmm8, %xmm9, %xmm6 vinsertf128 $1, %xmm2, %ymm6, %ymm2 vmovapd %ymm2, 32800(%rbx) vmovapd 29152(%rbx), %ymm6 vmulpd %ymm2, %ymm6, %ymm10 vmovapd 29088(%rbx), %ymm6 vmulpd %ymm6, %ymm10, %ymm2 vaddpd %ymm1, %ymm2, %ymm1 vmovapd 28896(%rbx), %xmm2 vunpcklpd %xmm7, %xmm2, %xmm2 vunpcklpd 28032(%rbx), %xmm5, %xmm5 vinsertf128 $1, %xmm2, %ymm5, %ymm5 vmovapd %ymm5, 28896(%rbx) vmovapd 28992(%rbx), %ymm2 vmulpd %ymm5, %ymm2, %ymm2 vaddpd %ymm2, %ymm1, %ymm1 vmovapd 28960(%rbx), %ymm2 vmulpd %ymm5, %ymm2, %ymm2 vsubpd %ymm2, %ymm1, %ymm1 vmulpd 29120(%rbx), %ymm12, %ymm2 vmovapd %ymm2, 28032(%rbx) vmulpd %ymm2, %ymm6, %ymm2 vsubpd %ymm2, %ymm1, %ymm5 vaddpd %ymm3, %ymm4, %ymm1 vmovapd 26432(%rbx), %xmm2 vunpcklpd 32960(%rbx), %xmm2, %xmm3 jne .LBB1_2944 vxorpd %xmm2, %xmm2, %xmm2 jmp .LBB1_2946 .align 16, 0x90 .LBB1_2944: vmovsd 11048(%rsi,%r12), %xmm2 .LBB1_2946: vunpcklpd 26496(%rbx), %xmm2, %xmm2 vinsertf128 $1, %xmm3, %ymm2, %ymm3 vmovapd %ymm3, 28192(%rbx) vmovapd 28928(%rbx), %ymm2 vmulpd %ymm3, %ymm2, %ymm2 vaddpd %ymm2, %ymm1, %ymm1 vmovapd 32800(%rbx), %ymm2 vmulpd 32352(%rbx), %ymm2, %ymm4 vmovapd 29024(%rbx), %ymm2 vmulpd %ymm3, %ymm2, %ymm2 vmovapd 28064(%rbx), %ymm3 vmulpd 32416(%rbx), %ymm3, %ymm6 vmovapd %ymm6, 29088(%rbx) vmovapd 32832(%rbx), %ymm3 vmulpd 28096(%rbx), %ymm3, %ymm3 testb %al, %al vsubpd %ymm2, %ymm1, %ymm1 vmulpd %ymm6, %ymm15, %ymm2 vsubpd %ymm2, %ymm1, %ymm1 vmovapd 32576(%rbx), %ymm2 vmulpd %ymm3, %ymm2, %ymm2 vsubpd %ymm2, %ymm1, %ymm1 vmulpd .LCPI1_22(%rip), %ymm1, %ymm1 je .LBB1_2948 vmovlpd %xmm1, 10000(%rsi,%r12) .LBB1_2948: vmovapd 32544(%rbx), %ymm2 vmulpd %ymm4, %ymm2, %ymm6 testb $1, %r8b je .LBB1_2950 vunpckhpd %xmm1, %xmm1, %xmm2 vmovsd %xmm2, 10128(%rsi,%r12) .LBB1_2950: vsubpd %ymm6, %ymm5, %ymm5 vextractf128 $1, %ymm1, %xmm1 testb $1, %r11b je .LBB1_2952 vmovsd %xmm1, 10256(%rsi,%r12) .LBB1_2952: vmulpd .LCPI1_22(%rip), %ymm5, %ymm5 testb $1, %cl je .LBB1_2954 vunpckhpd %xmm1, %xmm1, %xmm1 vmovsd %xmm1, 10384(%rsi,%r12) .LBB1_2954: testb $1, %dl je .LBB1_2956 vmovsd %xmm5, 10512(%rsi,%r12) .LBB1_2956: testb $1, %r9b je .LBB1_2958 vunpckhpd %xmm5, %xmm5, %xmm1 vmovsd %xmm1, 10640(%rsi,%r12) .LBB1_2958: vextractf128 $1, %ymm5, %xmm1 testb $1, %dil je .LBB1_2960 vmovsd %xmm1, 10768(%rsi,%r12) .LBB1_2960: testb $1, %r15b je .LBB1_2962 vunpckhpd %xmm1, %xmm1, %xmm1 vmovsd %xmm1, 10896(%rsi,%r12) .LBB1_2962: vmovsd 11528(%rsi,%r12), %xmm6 vxorpd %xmm5, %xmm5, %xmm5 testb $1, %r15b jne .LBB1_2963 vxorpd %xmm7, %xmm7, %xmm7 jmp .LBB1_2965 .align 16, 0x90 .LBB1_2963: vmovsd 11912(%rsi,%r12), %xmm7 .LBB1_2965: testb $1, %dl jne .LBB1_2967 vxorpd %xmm6, %xmm6, %xmm6 .LBB1_2967: testb $1, %r9b jne .LBB1_2968 vxorpd %xmm1, %xmm1, %xmm1 jmp .LBB1_2970 .align 16, 0x90 .LBB1_2968: vmovsd 11656(%rsi,%r12), %xmm1 .LBB1_2970: testb $1, %dil jne .LBB1_2971 vxorpd %xmm2, %xmm2, %xmm2 jmp .LBB1_2973 .align 16, 0x90 .LBB1_2971: vmovsd 11784(%rsi,%r12), %xmm2 .LBB1_2973: vunpcklpd %xmm7, %xmm2, %xmm2 vunpcklpd %xmm1, %xmm6, %xmm1 vinsertf128 $1, %xmm2, %ymm1, %ymm9 vmovapd 28032(%rbx), %ymm1 vmulpd 29184(%rbx), %ymm1, %ymm8 vmovsd 11144(%rsi,%r12), %xmm6 movb %r10b, %al andb $1, %al jne .LBB1_2974 vxorpd %xmm7, %xmm7, %xmm7 jmp .LBB1_2976 .align 16, 0x90 .LBB1_2974: vmovsd 11016(%rsi,%r12), %xmm7 .LBB1_2976: testb $1, %r8b jne .LBB1_2978 vxorpd %xmm6, %xmm6, %xmm6 .LBB1_2978: vmovapd 28960(%rbx), %ymm1 vmulpd %ymm9, %ymm1, %ymm1 testb $1, %r11b vaddpd %ymm8, %ymm1, %ymm8 jne .LBB1_2979 vxorpd %xmm1, %xmm1, %xmm1 jmp .LBB1_2981 .align 16, 0x90 .LBB1_2979: vmovsd 11272(%rsi,%r12), %xmm1 .LBB1_2981: testb $1, %cl je .LBB1_2983 vmovsd 11400(%rsi,%r12), %xmm5 .LBB1_2983: vmovapd 29184(%rbx), %ymm2 vmulpd %ymm10, %ymm2, %ymm2 vmovapd 28128(%rbx), %ymm10 vmulpd %ymm10, %ymm4, %ymm4 vaddpd %ymm4, %ymm8, %ymm4 vsubpd %ymm2, %ymm4, %ymm2 vunpcklpd %xmm5, %xmm1, %xmm1 vunpcklpd %xmm6, %xmm7, %xmm4 vmulpd %ymm10, %ymm0, %ymm0 vsubpd %ymm0, %ymm2, %ymm0 vinsertf128 $1, %xmm1, %ymm4, %ymm7 vmovapd %ymm7, 29184(%rbx) vmovapd 28160(%rbx), %ymm2 vmulpd %ymm2, %ymm14, %ymm1 vmulpd %ymm2, %ymm3, %ymm2 vmovapd 32384(%rbx), %ymm4 vmulpd 26464(%rbx), %ymm4, %ymm3 vmovapd 29088(%rbx), %ymm5 vmulpd %ymm4, %ymm5, %ymm5 vmulpd 28992(%rbx), %ymm9, %ymm6 vmovapd %ymm9, 32352(%rbx) vmulpd 28928(%rbx), %ymm7, %ymm4 testb %al, %al vsubpd %ymm6, %ymm0, %ymm0 vmovapd 29024(%rbx), %ymm6 vmulpd %ymm7, %ymm6, %ymm6 vaddpd %ymm5, %ymm6, %ymm5 vaddpd %ymm2, %ymm5, %ymm2 vsubpd %ymm3, %ymm2, %ymm2 vsubpd %ymm1, %ymm2, %ymm1 vsubpd %ymm4, %ymm1, %ymm1 vmulpd .LCPI1_22(%rip), %ymm1, %ymm15 vextractf128 $1, %ymm15, %xmm12 vunpckhpd %xmm15, %xmm15, %xmm9 je .LBB1_2985 vmovsd %xmm15, 10008(%rsi,%r12) .LBB1_2985: vmulpd .LCPI1_22(%rip), %ymm0, %ymm14 vunpckhpd %xmm12, %xmm12, %xmm8 testb $1, %r8b je .LBB1_2987 vmovsd %xmm9, 10136(%rsi,%r12) .LBB1_2987: testb $1, %r11b je .LBB1_2989 vmovsd %xmm12, 10264(%rsi,%r12) .LBB1_2989: vunpckhpd %xmm14, %xmm14, %xmm10 testb $1, %cl je .LBB1_2991 vmovsd %xmm8, 10392(%rsi,%r12) .LBB1_2991: vextractf128 $1, %ymm14, %xmm13 testb $1, %dl je .LBB1_2993 vmovsd %xmm14, 10520(%rsi,%r12) .LBB1_2993: vunpckhpd %xmm13, %xmm13, %xmm11 testb $1, %r9b je .LBB1_2995 vmovsd %xmm10, 10648(%rsi,%r12) .LBB1_2995: testb $1, %dil je .LBB1_2997 vmovsd %xmm13, 10776(%rsi,%r12) .LBB1_2997: testb $1, %r15b je .LBB1_2999 vmovsd %xmm11, 10904(%rsi,%r12) .LBB1_2999: vmovsd 10456(%rsi,%r12), %xmm6 vmovsd 10584(%rsi,%r12), %xmm5 vmovsd 10712(%rsi,%r12), %xmm3 testb $1, %r15b jne .LBB1_3000 vxorpd %xmm2, %xmm2, %xmm2 jmp .LBB1_3002 .align 16, 0x90 .LBB1_3000: vmovsd 10840(%rsi,%r12), %xmm2 .LBB1_3002: testb $1, %dil jne .LBB1_3004 vxorps %xmm3, %xmm3, %xmm3 .LBB1_3004: testb $1, %r9b jne .LBB1_3006 vxorpd %xmm5, %xmm5, %xmm5 .LBB1_3006: testb $1, %dl jne .LBB1_3008 vxorps %xmm6, %xmm6, %xmm6 .LBB1_3008: vmovsd 10072(%rsi,%r12), %xmm0 vmovsd 10200(%rsi,%r12), %xmm7 testb $1, %cl jne .LBB1_3009 vxorpd %xmm1, %xmm1, %xmm1 jmp .LBB1_3011 .align 16, 0x90 .LBB1_3009: vmovsd 10328(%rsi,%r12), %xmm1 .LBB1_3011: testb $1, %r11b jne .LBB1_3013 vxorps %xmm7, %xmm7, %xmm7 .LBB1_3013: testb $1, %r8b jne .LBB1_3015 vxorps %xmm0, %xmm0, %xmm0 .LBB1_3015: testb $1, %r10b je .LBB1_3017 vmovsd 9944(%rsi,%r12), %xmm4 vmovsd %xmm4, 10016(%rsi,%r12) .LBB1_3017: testb $1, %r8b je .LBB1_3019 vmovsd %xmm0, 10144(%rsi,%r12) .LBB1_3019: testb $1, %r11b je .LBB1_3021 vmovsd %xmm7, 10272(%rsi,%r12) .LBB1_3021: testb $1, %cl je .LBB1_3023 vmovsd %xmm1, 10400(%rsi,%r12) .LBB1_3023: testb $1, %dl vmovaps 26720(%rbx), %xmm4 je .LBB1_3025 vmovsd %xmm6, 10528(%rsi,%r12) .LBB1_3025: testb $1, %r9b vmovaps 26784(%rbx), %ymm0 je .LBB1_3027 vmovsd %xmm5, 10656(%rsi,%r12) .LBB1_3027: testb $1, %dil vmovaps 26752(%rbx), %xmm1 je .LBB1_3029 vmovsd %xmm3, 10784(%rsi,%r12) .LBB1_3029: testb $1, %r15b vmovaps 26656(%rbx), %ymm3 je .LBB1_3031 vmovsd %xmm2, 10912(%rsi,%r12) .LBB1_3031: testb $1, %r10b je .LBB1_3033 vmovsd %xmm3, 10024(%rsi,%r12) .LBB1_3033: testb $1, %r8b je .LBB1_3035 vmovapd 26688(%rbx), %xmm2 vmovsd %xmm2, 10152(%rsi,%r12) .LBB1_3035: testb $1, %r11b je .LBB1_3037 vmovsd %xmm1, 10280(%rsi,%r12) .LBB1_3037: testb $1, %cl vmovaps 26624(%rbx), %xmm1 je .LBB1_3039 vmovsd %xmm4, 10408(%rsi,%r12) .LBB1_3039: testb $1, %dl je .LBB1_3041 vmovsd %xmm0, 10536(%rsi,%r12) .LBB1_3041: testb $1, %r9b je .LBB1_3043 vmovsd %xmm1, 10664(%rsi,%r12) .LBB1_3043: testb $1, %dil je .LBB1_3045 vmovaps 26592(%rbx), %xmm0 vmovsd %xmm0, 10792(%rsi,%r12) .LBB1_3045: testb $1, %r15b je .LBB1_3047 vmovaps 26560(%rbx), %xmm0 vmovsd %xmm0, 10920(%rsi,%r12) .LBB1_3047: testb $1, %r10b je .LBB1_3049 vmovsd %xmm15, 10032(%rsi,%r12) .LBB1_3049: testb $1, %r8b je .LBB1_3051 vmovsd %xmm9, 10160(%rsi,%r12) .LBB1_3051: testb $1, %r11b je .LBB1_3053 vmovsd %xmm12, 10288(%rsi,%r12) .LBB1_3053: testb $1, %cl je .LBB1_3055 vmovsd %xmm8, 10416(%rsi,%r12) .LBB1_3055: testb $1, %dl je .LBB1_3057 vmovsd %xmm14, 10544(%rsi,%r12) .LBB1_3057: testb $1, %r9b je .LBB1_3059 vmovsd %xmm10, 10672(%rsi,%r12) .LBB1_3059: testb $1, %dil je .LBB1_3061 vmovsd %xmm13, 10800(%rsi,%r12) .LBB1_3061: testb $1, %r15b je .LBB1_3063 vmovsd %xmm11, 10928(%rsi,%r12) .LBB1_3063: movb %r11b, %al andb $1, %al jne .LBB1_3064 vxorps %xmm0, %xmm0, %xmm0 jmp .LBB1_3066 .align 16, 0x90 .LBB1_3064: vmovsd 11216(%rsi,%r12), %xmm0 .LBB1_3066: vmovaps %xmm0, 32576(%rbx) movb %cl, %al andb $1, %al jne .LBB1_3067 vxorps %xmm0, %xmm0, %xmm0 jmp .LBB1_3069 .align 16, 0x90 .LBB1_3067: vmovsd 11344(%rsi,%r12), %xmm0 .LBB1_3069: vmovaps %xmm0, 32544(%rbx) movb %r8b, %al andb $1, %al jne .LBB1_3070 vxorpd %xmm13, %xmm13, %xmm13 jmp .LBB1_3072 .align 16, 0x90 .LBB1_3070: vmovsd 11152(%rsi,%r12), %xmm13 .LBB1_3072: jne .LBB1_3073 vxorps %xmm0, %xmm0, %xmm0 jmp .LBB1_3075 .align 16, 0x90 .LBB1_3073: vmovsd 11088(%rsi,%r12), %xmm0 .LBB1_3075: vmovaps %xmm0, 32512(%rbx) movl %ecx, 26912(%rbx) movb %cl, %r14b andb $1, %r14b jne .LBB1_3076 vxorps %xmm0, %xmm0, %xmm0 jmp .LBB1_3078 .align 16, 0x90 .LBB1_3076: vmovsd 11408(%rsi,%r12), %xmm0 .LBB1_3078: vmovaps %xmm0, 32384(%rbx) movl %r15d, 32960(%rbx) jne .LBB1_3079 vxorps %xmm0, %xmm0, %xmm0 jmp .LBB1_3081 .align 16, 0x90 .LBB1_3079: vmovsd 11392(%rsi,%r12), %xmm0 .LBB1_3081: vmovaps %xmm0, 29152(%rbx) movb %r11b, %al andb $1, %al jne .LBB1_3082 vxorps %xmm0, %xmm0, %xmm0 jmp .LBB1_3084 .align 16, 0x90 .LBB1_3082: vmovsd 11280(%rsi,%r12), %xmm0 .LBB1_3084: vmovaps %xmm0, 29024(%rbx) movl 32960(%rbx), %eax movb %al, %r13b andb $1, %r13b jne .LBB1_3085 vxorps %xmm0, %xmm0, %xmm0 jmp .LBB1_3087 .align 16, 0x90 .LBB1_3085: vmovsd 11904(%rsi,%r12), %xmm0 .LBB1_3087: vmovaps %xmm0, 28992(%rbx) vmovsd 11920(%rsi,%r12), %xmm0 jne .LBB1_3088 vxorps %xmm1, %xmm1, %xmm1 jmp .LBB1_3090 .align 16, 0x90 .LBB1_3088: vmovsd 11856(%rsi,%r12), %xmm1 .LBB1_3090: vmovaps %xmm1, 28928(%rbx) movq %rsi, %rax jne .LBB1_3092 vxorps %xmm0, %xmm0, %xmm0 .LBB1_3092: vmovaps %xmm0, 28960(%rbx) movb %dil, %r11b andb $1, %r11b jne .LBB1_3093 vxorps %xmm0, %xmm0, %xmm0 jmp .LBB1_3095 .align 16, 0x90 .LBB1_3093: vmovsd 11776(%rax,%r12), %xmm0 .LBB1_3095: vmovaps %xmm0, 28160(%rbx) jne .LBB1_3096 vxorps %xmm0, %xmm0, %xmm0 jmp .LBB1_3098 .align 16, 0x90 .LBB1_3096: vmovsd 11728(%rax,%r12), %xmm0 .LBB1_3098: vmovaps %xmm0, 28128(%rbx) movl %r8d, %r10d movl %edi, %r15d jne .LBB1_3099 vxorps %xmm0, %xmm0, %xmm0 jmp .LBB1_3101 .align 16, 0x90 .LBB1_3099: vmovsd 11792(%rax,%r12), %xmm0 .LBB1_3101: vmovaps %xmm0, 28096(%rbx) movl 32992(%rbx), %ecx andb $1, %cl jne .LBB1_3102 vxorps %xmm0, %xmm0, %xmm0 movq %rax, %rdx jmp .LBB1_3104 .align 16, 0x90 .LBB1_3102: movq %rax, %rdx vmovsd 11264(%rdx,%r12), %xmm0 .LBB1_3104: vmovaps %xmm0, 26784(%rbx) movb %r10b, %al andb $1, %al vmovsd 11664(%rdx,%r12), %xmm1 vmovsd 11648(%rdx,%r12), %xmm0 jne .LBB1_3105 movq %rdx, %rsi vxorpd %xmm11, %xmm11, %xmm11 jmp .LBB1_3107 .align 16, 0x90 .LBB1_3105: vmovsd 11136(%rdx,%r12), %xmm11 movq %rdx, %rsi .LBB1_3107: movb %r9b, %dl andb $1, %dl jne .LBB1_3109 vxorps %xmm0, %xmm0, %xmm0 .LBB1_3109: vmovaps %xmm0, 26752(%rbx) jne .LBB1_3111 vxorps %xmm1, %xmm1, %xmm1 .LBB1_3111: vmovaps %xmm1, 26720(%rbx) vmovsd 11008(%rsi,%r12), %xmm15 vmovsd 11328(%rsi,%r12), %xmm7 vmovsd 11456(%rsi,%r12), %xmm9 vmovsd 11840(%rsi,%r12), %xmm6 vmovsd 11712(%rsi,%r12), %xmm0 vmovsd 11200(%rsi,%r12), %xmm2 vmovsd 11072(%rsi,%r12), %xmm8 vmovsd 11536(%rsi,%r12), %xmm3 vmovsd 11472(%rsi,%r12), %xmm12 vmovsd 11520(%rsi,%r12), %xmm4 vmovsd 11584(%rsi,%r12), %xmm1 jne .LBB1_3112 vxorpd %xmm5, %xmm5, %xmm5 jmp .LBB1_3114 .align 16, 0x90 .LBB1_3112: vmovsd 11600(%rsi,%r12), %xmm5 .LBB1_3114: testb %dl, %dl jne .LBB1_3116 vxorpd %xmm1, %xmm1, %xmm1 .LBB1_3116: movl 29056(%rbx), %edx movb %dl, %dil andb $1, %dil jne .LBB1_3118 vxorps %xmm4, %xmm4, %xmm4 .LBB1_3118: vmovaps %xmm4, 26688(%rbx) jne .LBB1_3120 vxorpd %xmm12, %xmm12, %xmm12 .LBB1_3120: jne .LBB1_3122 vxorps %xmm3, %xmm3, %xmm3 .LBB1_3122: testb %al, %al jne .LBB1_3124 vxorpd %xmm8, %xmm8, %xmm8 .LBB1_3124: vmovaps %xmm3, 26656(%rbx) testb %cl, %cl jne .LBB1_3126 vxorpd %xmm2, %xmm2, %xmm2 .LBB1_3126: testb %r11b, %r11b vmovsd 11024(%rsi,%r12), %xmm4 jne .LBB1_3128 vxorpd %xmm0, %xmm0, %xmm0 .LBB1_3128: testb %r13b, %r13b jne .LBB1_3130 vxorpd %xmm6, %xmm6, %xmm6 .LBB1_3130: testb %dil, %dil movq 31232(%rbx), %r13 jne .LBB1_3132 vxorpd %xmm9, %xmm9, %xmm9 .LBB1_3132: vmovapd %xmm0, %xmm3 testb %r14b, %r14b movl %edx, %r11d jne .LBB1_3134 vxorpd %xmm7, %xmm7, %xmm7 .LBB1_3134: vmovapd %xmm6, %xmm14 movl 32736(%rbx), %r14d movb %r14b, %al andb $1, %al movl 26912(%rbx), %edx jne .LBB1_3136 vxorpd %xmm15, %xmm15, %xmm15 .LBB1_3136: movl %r15d, %edi jne .LBB1_3138 vxorpd %xmm4, %xmm4, %xmm4 .LBB1_3138: vmovsd 10960(%rsi,%r12), %xmm0 vmovaps %xmm0, 26624(%rbx) movl %r10d, %ecx jne .LBB1_3139 vxorpd %xmm10, %xmm10, %xmm10 jmp .LBB1_3141 .align 16, 0x90 .LBB1_3139: vmovsd 10944(%rsi,%r12), %xmm10 .LBB1_3141: vunpcklpd %xmm1, %xmm9, %xmm9 vunpcklpd %xmm5, %xmm12, %xmm12 vunpcklpd %xmm11, %xmm15, %xmm11 vunpcklpd %xmm13, %xmm4, %xmm13 vunpcklpd %xmm8, %xmm10, %xmm15 vmovapd 26656(%rbx), %xmm0 vunpcklpd 26720(%rbx), %xmm0, %xmm4 vunpcklpd %xmm7, %xmm2, %xmm8 vmovapd 29024(%rbx), %xmm0 vunpcklpd 32384(%rbx), %xmm0, %xmm7 vmovapd 26784(%rbx), %xmm0 vunpcklpd 29152(%rbx), %xmm0, %xmm0 vmovapd 28128(%rbx), %xmm1 vunpcklpd 28928(%rbx), %xmm1, %xmm1 vunpcklpd %xmm14, %xmm3, %xmm2 vmovapd 28096(%rbx), %xmm3 vunpcklpd 28960(%rbx), %xmm3, %xmm3 vmovapd 28160(%rbx), %xmm5 vunpcklpd 28992(%rbx), %xmm5, %xmm5 vmovapd 26688(%rbx), %xmm6 vunpcklpd 26752(%rbx), %xmm6, %xmm10 vinsertf128 $1, %xmm5, %ymm10, %ymm6 vinsertf128 $1, %xmm3, %ymm4, %ymm14 vinsertf128 $1, %xmm2, %ymm9, %ymm4 vinsertf128 $1, %xmm1, %ymm12, %ymm3 vinsertf128 $1, %xmm0, %ymm11, %ymm2 vinsertf128 $1, %xmm7, %ymm13, %ymm13 vinsertf128 $1, %xmm8, %ymm15, %ymm1 vmovapd 26624(%rbx), %xmm7 jne .LBB1_3143 vxorpd %xmm7, %xmm7, %xmm7 .LBB1_3143: vmovapd 26880(%rbx), %ymm15 vmovapd 26816(%rbx), %ymm0 vmulpd %ymm15, %ymm0, %ymm0 vmovapd 32800(%rbx), %ymm11 vmulpd %ymm11, %ymm4, %ymm5 vmovapd %ymm14, 29152(%rbx) vmulpd %ymm14, %ymm5, %ymm5 vmulpd %ymm6, %ymm0, %ymm0 vmovapd %ymm6, 29024(%rbx) vaddpd %ymm0, %ymm5, %ymm6 vmovapd 32576(%rbx), %xmm0 vunpcklpd 32544(%rbx), %xmm0, %xmm5 vunpcklpd 32512(%rbx), %xmm7, %xmm7 vmovapd 26848(%rbx), %ymm10 vmovapd 28064(%rbx), %ymm0 vmulpd %ymm10, %ymm0, %ymm0 vmovapd 32832(%rbx), %ymm9 vmulpd %ymm9, %ymm1, %ymm8 vmovapd %ymm13, 32384(%rbx) vmulpd %ymm13, %ymm8, %ymm8 vmulpd %ymm2, %ymm0, %ymm0 vaddpd %ymm0, %ymm8, %ymm0 vmulpd 29120(%rbx), %ymm3, %ymm8 vmovapd 32352(%rbx), %ymm12 vmulpd %ymm12, %ymm8, %ymm8 vaddpd %ymm8, %ymm6, %ymm6 vinsertf128 $1, %xmm5, %ymm7, %ymm5 vmulpd %ymm15, %ymm4, %ymm4 vmulpd %ymm12, %ymm4, %ymm4 vmulpd %ymm3, %ymm11, %ymm3 vsubpd %ymm4, %ymm6, %ymm4 vmulpd 32416(%rbx), %ymm5, %ymm6 vmulpd %ymm5, %ymm9, %ymm5 vmulpd %ymm5, %ymm2, %ymm5 vmovapd 29184(%rbx), %ymm7 vmulpd %ymm7, %ymm6, %ymm2 vaddpd %ymm2, %ymm0, %ymm0 vmulpd 28032(%rbx), %ymm14, %ymm2 testb %al, %al vmulpd %ymm10, %ymm1, %ymm1 vmulpd %ymm7, %ymm1, %ymm1 vsubpd %ymm1, %ymm0, %ymm0 vmulpd 29088(%rbx), %ymm13, %ymm1 vsubpd %ymm1, %ymm0, %ymm0 vsubpd %ymm5, %ymm0, %ymm0 vmulpd .LCPI1_22(%rip), %ymm0, %ymm1 je .LBB1_3145 vmovlpd %xmm1, 10040(%rsi,%r12) .LBB1_3145: vmovapd 29024(%rbx), %ymm0 vmulpd %ymm3, %ymm0, %ymm0 vsubpd %ymm2, %ymm4, %ymm2 testb $1, %cl je .LBB1_3147 vunpckhpd %xmm1, %xmm1, %xmm3 vmovsd %xmm3, 10168(%rsi,%r12) .LBB1_3147: vsubpd %ymm0, %ymm2, %ymm0 vextractf128 $1, %ymm1, %xmm1 movl 32992(%rbx), %eax testb $1, %al je .LBB1_3149 vmovsd %xmm1, 10296(%rsi,%r12) .LBB1_3149: vmulpd .LCPI1_22(%rip), %ymm0, %ymm0 testb $1, %dl je .LBB1_3151 vunpckhpd %xmm1, %xmm1, %xmm1 vmovsd %xmm1, 10424(%rsi,%r12) .LBB1_3151: testb $1, %r11b je .LBB1_3153 vmovsd %xmm0, 10552(%rsi,%r12) .LBB1_3153: testb $1, %r9b je .LBB1_3155 vunpckhpd %xmm0, %xmm0, %xmm1 vmovsd %xmm1, 10680(%rsi,%r12) .LBB1_3155: vextractf128 $1, %ymm0, %xmm0 testb $1, %dil je .LBB1_3157 vmovsd %xmm0, 10808(%rsi,%r12) .LBB1_3157: movl 32960(%rbx), %eax testb $1, %al je .LBB1_3159 vunpckhpd %xmm0, %xmm0, %xmm0 vmovsd %xmm0, 10936(%rsi,%r12) .LBB1_3159: movb %r9b, %al andb $1, %al jne .LBB1_3160 vxorpd %xmm0, %xmm0, %xmm0 jmp .LBB1_3162 .align 16, 0x90 .LBB1_3160: vmovsd 10560(%rsi,%r12), %xmm0 .LBB1_3162: vmovapd %xmm0, 28032(%rbx) jne .LBB1_3163 vxorpd %xmm0, %xmm0, %xmm0 jmp .LBB1_3165 .align 16, 0x90 .LBB1_3163: vmovsd 11672(%rsi,%r12), %xmm0 .LBB1_3165: vmovapd %xmm0, 28928(%rbx) movb %dl, %al andb $1, %al jne .LBB1_3166 vxorpd %xmm0, %xmm0, %xmm0 jmp .LBB1_3168 .align 16, 0x90 .LBB1_3166: vmovsd 10304(%rsi,%r12), %xmm0 .LBB1_3168: vmovapd %xmm0, 26880(%rbx) movb %cl, %al andb $1, %al jne .LBB1_3169 vxorpd %xmm0, %xmm0, %xmm0 jmp .LBB1_3171 .align 16, 0x90 .LBB1_3169: vmovsd 10056(%rsi,%r12), %xmm0 .LBB1_3171: vmovapd %xmm0, 28160(%rbx) jne .LBB1_3172 vxorpd %xmm0, %xmm0, %xmm0 jmp .LBB1_3174 .align 16, 0x90 .LBB1_3172: vmovsd 10048(%rsi,%r12), %xmm0 .LBB1_3174: vmovapd %xmm0, 26848(%rbx) vmovsd 9920(%rsi,%r12), %xmm0 vmovaps %xmm0, 32576(%rbx) movb %r14b, %al andb $1, %al jne .LBB1_3175 vxorps %xmm0, %xmm0, %xmm0 jmp .LBB1_3177 .align 16, 0x90 .LBB1_3175: vmovsd 9928(%rsi,%r12), %xmm0 .LBB1_3177: vmovaps %xmm0, 32416(%rbx) vmovsd 11288(%rsi,%r12), %xmm1 movl 32992(%rbx), %eax andb $1, %al jne .LBB1_3178 vxorps %xmm0, %xmm0, %xmm0 jmp .LBB1_3180 .align 16, 0x90 .LBB1_3178: vmovsd 10184(%rsi,%r12), %xmm0 .LBB1_3180: vmovaps %xmm0, 28128(%rbx) jne .LBB1_3182 vxorps %xmm1, %xmm1, %xmm1 .LBB1_3182: vmovaps %xmm1, 28992(%rbx) jne .LBB1_3183 vxorps %xmm0, %xmm0, %xmm0 jmp .LBB1_3185 .align 16, 0x90 .LBB1_3183: vmovsd 10176(%rsi,%r12), %xmm0 .LBB1_3185: vmovaps %xmm0, 26816(%rbx) movb %cl, %al andb $1, %al jne .LBB1_3186 vxorps %xmm0, %xmm0, %xmm0 jmp .LBB1_3188 .align 16, 0x90 .LBB1_3186: vmovsd 11160(%rsi,%r12), %xmm0 .LBB1_3188: vmovaps %xmm0, 28960(%rbx) movb %dil, %al andb $1, %al jne .LBB1_3189 vxorps %xmm0, %xmm0, %xmm0 jmp .LBB1_3191 .align 16, 0x90 .LBB1_3189: vmovsd 11760(%rsi,%r12), %xmm0 .LBB1_3191: vmovaps %xmm0, 32544(%rbx) movb %r14b, %al andb $1, %al jne .LBB1_3192 vxorps %xmm0, %xmm0, %xmm0 jmp .LBB1_3194 .align 16, 0x90 .LBB1_3192: vmovsd 11032(%rsi,%r12), %xmm0 .LBB1_3194: vmovaps %xmm0, 26688(%rbx) movb %r11b, %al andb $1, %al jne .LBB1_3195 vxorpd %xmm10, %xmm10, %xmm10 jmp .LBB1_3197 .align 16, 0x90 .LBB1_3195: vmovsd 11512(%rsi,%r12), %xmm10 .LBB1_3197: movb %dl, %al andb $1, %al jne .LBB1_3198 vxorps %xmm0, %xmm0, %xmm0 jmp .LBB1_3200 .align 16, 0x90 .LBB1_3198: vmovsd 10312(%rsi,%r12), %xmm0 .LBB1_3200: vmovaps %xmm0, 29120(%rbx) movb %dil, %al andb $1, %al vmovsd 11800(%rsi,%r12), %xmm1 jne .LBB1_3201 vxorps %xmm0, %xmm0, %xmm0 jmp .LBB1_3203 .align 16, 0x90 .LBB1_3201: vmovsd 10696(%rsi,%r12), %xmm0 .LBB1_3203: vmovaps %xmm0, 29088(%rbx) jne .LBB1_3205 vxorps %xmm1, %xmm1, %xmm1 .LBB1_3205: vmovaps %xmm1, 26720(%rbx) jne .LBB1_3206 vxorps %xmm0, %xmm0, %xmm0 jmp .LBB1_3208 .align 16, 0x90 .LBB1_3206: vmovsd 11768(%rsi,%r12), %xmm0 .LBB1_3208: vmovaps %xmm0, 32512(%rbx) movl 32960(%rbx), %eax andb $1, %al jne .LBB1_3209 vxorps %xmm0, %xmm0, %xmm0 jmp .LBB1_3211 .align 16, 0x90 .LBB1_3209: vmovsd 10816(%rsi,%r12), %xmm0 .LBB1_3211: vmovaps %xmm0, 26784(%rbx) andb $1, %dil jne .LBB1_3212 vxorps %xmm0, %xmm0, %xmm0 jmp .LBB1_3214 .align 16, 0x90 .LBB1_3212: vmovsd 10688(%rsi,%r12), %xmm0 .LBB1_3214: vmovaps %xmm0, 26752(%rbx) movl 32960(%rbx), %eax andb $1, %al jne .LBB1_3215 vxorps %xmm0, %xmm0, %xmm0 jmp .LBB1_3217 .align 16, 0x90 .LBB1_3215: vmovsd 11896(%rsi,%r12), %xmm0 .LBB1_3217: vmovaps %xmm0, 29024(%rbx) movb %dl, %al andb $1, %al jne .LBB1_3218 vxorps %xmm0, %xmm0, %xmm0 jmp .LBB1_3220 .align 16, 0x90 .LBB1_3218: vmovsd 11416(%rsi,%r12), %xmm0 .LBB1_3220: vmovaps %xmm0, 26624(%rbx) movb %r11b, %al andb $1, %al jne .LBB1_3221 vxorpd %xmm9, %xmm9, %xmm9 jmp .LBB1_3223 .align 16, 0x90 .LBB1_3221: vmovsd 11504(%rsi,%r12), %xmm9 .LBB1_3223: movb %dl, %al andb $1, %al jne .LBB1_3224 vxorps %xmm0, %xmm0, %xmm0 jmp .LBB1_3226 .align 16, 0x90 .LBB1_3224: vmovsd 11376(%rsi,%r12), %xmm0 .LBB1_3226: vmovaps %xmm0, 26528(%rbx) movl 32960(%rbx), %eax andb $1, %al jne .LBB1_3227 vxorps %xmm0, %xmm0, %xmm0 jmp .LBB1_3229 .align 16, 0x90 .LBB1_3227: vmovsd 11928(%rsi,%r12), %xmm0 .LBB1_3229: vmovaps %xmm0, 26592(%rbx) andb $1, %r11b vmovsd 10432(%rsi,%r12), %xmm1 jne .LBB1_3230 vxorps %xmm0, %xmm0, %xmm0 jmp .LBB1_3232 .align 16, 0x90 .LBB1_3230: vmovsd 10440(%rsi,%r12), %xmm0 .LBB1_3232: vmovaps %xmm0, 28096(%rbx) jne .LBB1_3234 vxorpd %xmm1, %xmm1, %xmm1 .LBB1_3234: vmovapd %xmm1, 26656(%rbx) jne .LBB1_3235 vxorps %xmm0, %xmm0, %xmm0 jmp .LBB1_3237 .align 16, 0x90 .LBB1_3235: vmovsd 11544(%rsi,%r12), %xmm0 .LBB1_3237: vmovaps %xmm0, 26560(%rbx) movl 32960(%rbx), %eax andb $1, %al jne .LBB1_3238 vxorps %xmm0, %xmm0, %xmm0 jmp .LBB1_3240 .align 16, 0x90 .LBB1_3238: vmovsd 10824(%rsi,%r12), %xmm0 .LBB1_3240: vmovaps %xmm0, 29056(%rbx) movl 32992(%rbx), %eax andb $1, %al jne .LBB1_3241 vxorps %xmm0, %xmm0, %xmm0 jmp .LBB1_3243 .align 16, 0x90 .LBB1_3241: vmovsd 11256(%rsi,%r12), %xmm0 .LBB1_3243: vmovaps %xmm0, 26496(%rbx) andb $1, %dl jne .LBB1_3244 vxorpd %xmm8, %xmm8, %xmm8 jmp .LBB1_3246 .align 16, 0x90 .LBB1_3244: vmovsd 11384(%rsi,%r12), %xmm8 .LBB1_3246: movl 32960(%rbx), %eax andb $1, %al movl %eax, 32960(%rbx) jne .LBB1_3247 vxorpd %xmm3, %xmm3, %xmm3 jmp .LBB1_3249 .align 16, 0x90 .LBB1_3247: vmovsd 11888(%rsi,%r12), %xmm3 .LBB1_3249: movl 32992(%rbx), %eax andb $1, %al movl %eax, 32992(%rbx) jne .LBB1_3250 vxorpd %xmm7, %xmm7, %xmm7 jmp .LBB1_3252 .align 16, 0x90 .LBB1_3250: vmovsd 11248(%rsi,%r12), %xmm7 .LBB1_3252: andb $1, %cl vmovsd 11128(%rsi,%r12), %xmm0 jne .LBB1_3253 vxorpd %xmm1, %xmm1, %xmm1 jmp .LBB1_3255 .align 16, 0x90 .LBB1_3253: vmovsd 11120(%rsi,%r12), %xmm1 .LBB1_3255: jne .LBB1_3257 vxorpd %xmm0, %xmm0, %xmm0 .LBB1_3257: andb $1, %r9b vmovsd 10568(%rsi,%r12), %xmm4 vmovsd 11632(%rsi,%r12), %xmm2 jne .LBB1_3258 vxorpd %xmm6, %xmm6, %xmm6 jmp .LBB1_3260 .align 16, 0x90 .LBB1_3258: vmovsd 11640(%rsi,%r12), %xmm6 .LBB1_3260: jne .LBB1_3262 vxorpd %xmm2, %xmm2, %xmm2 .LBB1_3262: jne .LBB1_3264 vxorpd %xmm4, %xmm4, %xmm4 .LBB1_3264: vmovapd %xmm4, 28064(%rbx) andb $1, %r14b jne .LBB1_3265 vxorpd %xmm5, %xmm5, %xmm5 jmp .LBB1_3267 .align 16, 0x90 .LBB1_3265: vmovsd 11000(%rsi,%r12), %xmm5 .LBB1_3267: jne .LBB1_3268 vxorpd %xmm4, %xmm4, %xmm4 jmp .LBB1_3270 .align 16, 0x90 .LBB1_3268: vmovsd 10992(%rsi,%r12), %xmm4 .LBB1_3270: vunpcklpd %xmm1, %xmm4, %xmm1 vmovapd %ymm1, 26432(%rbx) vunpcklpd %xmm0, %xmm5, %xmm0 vmovapd %ymm0, 29216(%rbx) vunpcklpd %xmm6, %xmm10, %xmm0 vmovapd %ymm0, 26912(%rbx) vunpcklpd %xmm2, %xmm9, %xmm0 vmovapd %ymm0, 26400(%rbx) vmovsd 11832(%rsi,%r12), %xmm1 vmovsd 11704(%rsi,%r12), %xmm14 vmovsd 11576(%rsi,%r12), %xmm13 jne .LBB1_3272 vxorpd %xmm0, %xmm0, %xmm0 vmovapd %xmm0, 32576(%rbx) .LBB1_3272: testb %r11b, %r11b jne .LBB1_3274 vxorpd %xmm13, %xmm13, %xmm13 .LBB1_3274: testb %r9b, %r9b jne .LBB1_3276 vxorpd %xmm14, %xmm14, %xmm14 .LBB1_3276: testb %dil, %dil vmovsd 11960(%rsi,%r12), %xmm2 jne .LBB1_3278 vxorps %xmm1, %xmm1, %xmm1 .LBB1_3278: vmovaps %xmm1, 28224(%rbx) vmovapd .LCPI1_19(%rip), %ymm0 vmovapd 28288(%rbx), %ymm1 vcmpltpd %ymm0, %ymm1, %ymm10 vmovapd 28352(%rbx), %ymm1 vcmpltpd %ymm0, %ymm1, %ymm9 vmovapd 28320(%rbx), %ymm1 vcmpltpd %ymm0, %ymm1, %ymm4 vmovapd 28256(%rbx), %ymm1 vcmpltpd %ymm0, %ymm1, %ymm15 movl 32960(%rbx), %eax testb %al, %al vmovsd 11192(%rsi,%r12), %xmm0 vmovaps %xmm0, 32960(%rbx) jne .LBB1_3280 vxorps %xmm2, %xmm2, %xmm2 .LBB1_3280: vmovaps %xmm2, 26464(%rbx) vunpcklpd 26528(%rbx), %xmm7, %xmm2 vmovapd 26496(%rbx), %xmm0 vunpcklpd %xmm8, %xmm0, %xmm7 vmovapd 32544(%rbx), %xmm0 vunpcklpd %xmm3, %xmm0, %xmm0 vextractf128 $1, %ymm9, %xmm12 vextractf128 $1, %ymm10, %xmm1 vextractf128 $1, %ymm4, %xmm8 vextractf128 $1, %ymm15, %xmm5 vmovapd 32512(%rbx), %xmm6 vunpcklpd 29024(%rbx), %xmm6, %xmm6 testb %cl, %cl vmovsd 11448(%rsi,%r12), %xmm3 vmovaps %xmm3, 32736(%rbx) jne .LBB1_3282 vxorpd %xmm11, %xmm11, %xmm11 vmovapd %xmm11, 32960(%rbx) .LBB1_3282: vmovapd 26432(%rbx), %ymm3 vinsertf128 $1, %xmm2, %ymm3, %ymm2 vmovapd %ymm2, 29024(%rbx) vmovapd 26400(%rbx), %ymm2 vinsertf128 $1, %xmm0, %ymm2, %ymm0 vmovapd %ymm0, 32544(%rbx) vmovapd 29216(%rbx), %ymm0 vinsertf128 $1, %xmm7, %ymm0, %ymm0 vmovapd %ymm0, 29216(%rbx) vpshufd $8, %xmm1, %xmm11 vpshufd $8, %xmm10, %xmm7 vpshufd $8, %xmm12, %xmm12 vpshufd $8, %xmm9, %xmm2 vpshufd $8, %xmm4, %xmm4 vpshufd $8, %xmm8, %xmm0 vmovapd 32928(%rbx), %ymm9 vmovapd 32800(%rbx), %ymm1 vmulpd %ymm9, %ymm1, %ymm8 vpshufd $8, %xmm15, %xmm1 vpshufd $8, %xmm5, %xmm5 vmovapd 26912(%rbx), %ymm10 vinsertf128 $1, %xmm6, %ymm10, %ymm6 vmovapd %ymm6, 32512(%rbx) vunpcklpd %xmm14, %xmm13, %xmm3 vmovapd %ymm3, 26528(%rbx) vmovapd 26688(%rbx), %xmm6 vunpcklpd 28960(%rbx), %xmm6, %xmm6 vmovapd %ymm6, 26912(%rbx) testb %dl, %dl vmovsd 11064(%rsi,%r12), %xmm3 jne .LBB1_3284 vxorpd %xmm6, %xmm6, %xmm6 vmovapd %xmm6, 32736(%rbx) .LBB1_3284: vmovapd 32864(%rbx), %ymm13 vmulpd 29024(%rbx), %ymm13, %ymm10 vmulpd 29216(%rbx), %ymm13, %ymm6 vmovlhps %xmm11, %xmm7, %xmm7 vmovaps %xmm7, 26496(%rbx) vmulpd 32544(%rbx), %ymm9, %ymm15 vmovlhps %xmm12, %xmm2, %xmm2 vmovlhps %xmm0, %xmm4, %xmm14 vmovlhps %xmm5, %xmm1, %xmm1 vmulpd %ymm8, %ymm9, %ymm0 vmovapd %ymm0, 28960(%rbx) vmovapd %ymm9, %ymm0 vmovapd 29152(%rbx), %ymm4 vmulpd 32896(%rbx), %ymm4, %ymm9 vmovapd 32832(%rbx), %ymm4 vmulpd %ymm13, %ymm4, %ymm13 testb %r14b, %r14b vmulpd 32512(%rbx), %ymm0, %ymm0 movq 32448(%rbx), %rcx jne .LBB1_3286 vxorps %xmm3, %xmm3, %xmm3 .LBB1_3286: vmovaps %xmm3, 26688(%rbx) vmovapd 32704(%rbx), %ymm4 vmulpd %ymm10, %ymm4, %ymm8 vmovapd 28224(%rbx), %xmm4 vunpcklpd 26464(%rbx), %xmm4, %xmm11 vmovapd 32672(%rbx), %ymm4 vmulpd %ymm0, %ymm4, %ymm10 vmovapd 32896(%rbx), %ymm7 vmulpd %ymm15, %ymm7, %ymm12 vmovapd 32640(%rbx), %ymm0 vmulpd %ymm6, %ymm0, %ymm4 vmovapd 28992(%rbx), %xmm0 vunpcklpd 26624(%rbx), %xmm0, %xmm15 vmovdqa .LCPI1_21(%rip), %xmm0 vmovdqa 26496(%rbx), %xmm3 vpshufb %xmm0, %xmm3, %xmm6 vpshufb %xmm0, %xmm2, %xmm0 vmovdqa .LCPI1_20(%rip), %xmm5 vpshufb %xmm5, %xmm14, %xmm2 vmovapd 26720(%rbx), %xmm3 vunpcklpd 26592(%rbx), %xmm3, %xmm3 vmovapd %xmm3, 28224(%rbx) vpshufb %xmm5, %xmm1, %xmm1 vmovapd 32864(%rbx), %ymm3 vmulpd %ymm13, %ymm3, %ymm13 vmulpd %ymm9, %ymm7, %ymm9 vmovapd 28960(%rbx), %ymm3 vaddpd .LCPI1_23(%rip), %ymm3, %ymm14 movl 32992(%rbx), %eax testb %al, %al jne .LBB1_3287 vxorpd %xmm3, %xmm3, %xmm3 jmp .LBB1_3289 .align 16, 0x90 .LBB1_3287: vmovsd 11320(%rsi,%r12), %xmm3 .LBB1_3289: vmovapd 26528(%rbx), %ymm5 vinsertf128 $1, %xmm11, %ymm5, %ymm11 vmovapd %ymm11, 28960(%rbx) vaddpd %ymm4, %ymm8, %ymm7 vaddpd %ymm10, %ymm12, %ymm12 vmovapd 26912(%rbx), %ymm4 vinsertf128 $1, %xmm15, %ymm4, %ymm10 vmovapd %ymm10, 28992(%rbx) vunpcklpd 32736(%rbx), %xmm3, %xmm3 vmovapd 26688(%rbx), %xmm4 vunpcklpd 32960(%rbx), %xmm4, %xmm8 vaddpd %ymm9, %ymm14, %ymm9 vpor %xmm2, %xmm0, %xmm2 vmovapd 26816(%rbx), %xmm0 vunpcklpd 26880(%rbx), %xmm0, %xmm4 vmovapd 32576(%rbx), %xmm0 vunpcklpd 26848(%rbx), %xmm0, %xmm14 vpor %xmm1, %xmm6, %xmm0 vmovapd .LCPI1_23(%rip), %ymm15 vmovapd %ymm15, %ymm1 vaddpd %ymm1, %ymm13, %ymm15 vmovapd 26560(%rbx), %xmm1 vunpcklpd 28928(%rbx), %xmm1, %xmm1 vinsertf128 $1, 28224(%rbx), %ymm1, %ymm5 vmovapd %ymm5, 28224(%rbx) vmovapd 32896(%rbx), %ymm1 vmulpd %ymm5, %ymm1, %ymm5 vmovapd 32672(%rbx), %ymm6 vmulpd %ymm6, %ymm11, %ymm1 vmulpd %ymm1, %ymm6, %ymm1 vmulpd %ymm5, %ymm6, %ymm5 vaddpd %ymm5, %ymm12, %ymm12 vmovapd 32704(%rbx), %ymm6 vmovapd 32384(%rbx), %ymm5 vmulpd %ymm6, %ymm5, %ymm5 vmulpd %ymm5, %ymm6, %ymm13 vmulpd %ymm10, %ymm6, %ymm5 vmovapd 32640(%rbx), %ymm10 vmulpd %ymm5, %ymm10, %ymm5 vaddpd %ymm5, %ymm7, %ymm6 vaddpd %ymm1, %ymm9, %ymm5 vinsertf128 $1, %xmm3, %ymm8, %ymm11 vmovapd %ymm11, 28928(%rbx) vmovapd 26752(%rbx), %xmm1 vunpcklpd 26784(%rbx), %xmm1, %xmm7 vmovapd 26656(%rbx), %xmm1 vunpcklpd 28032(%rbx), %xmm1, %xmm9 vinsertf128 $1, %xmm4, %ymm14, %ymm1 vpsllw $15, %xmm2, %xmm2 vpsraw $15, %xmm2, %xmm2 vpunpckhbw %xmm0, %xmm2, %xmm3 vpslld $31, %xmm3, %xmm4 vpmovsxdq %xmm4, %xmm3 vmovhlps %xmm4, %xmm4, %xmm4 vpmovsxdq %xmm4, %xmm4 vinsertf128 $1, %xmm4, %ymm3, %ymm8 vpsllw $15, %xmm0, %xmm0 vpsraw $15, %xmm0, %xmm3 vpunpcklbw %xmm0, %xmm3, %xmm0 vpslld $31, %xmm0, %xmm4 vpmovsxdq %xmm4, %xmm0 vmovhlps %xmm4, %xmm4, %xmm4 vpmovsxdq %xmm4, %xmm4 vinsertf128 $1, %xmm4, %ymm0, %ymm0 vpunpckhbw %xmm0, %xmm3, %xmm3 vpslld $31, %xmm3, %xmm4 vpmovsxdq %xmm4, %xmm3 vmovhlps %xmm4, %xmm4, %xmm4 vpmovsxdq %xmm4, %xmm4 vinsertf128 $1, %xmm4, %ymm3, %ymm4 vmulpd %ymm10, %ymm11, %ymm3 vmulpd %ymm3, %ymm10, %ymm14 vaddpd %ymm13, %ymm15, %ymm11 vmovapd .LCPI1_24(%rip), %ymm13 vmulpd %ymm13, %ymm6, %ymm3 vmulpd %ymm13, %ymm12, %ymm6 vaddpd %ymm6, %ymm5, %ymm6 vinsertf128 $1, %xmm7, %ymm9, %ymm5 vpunpcklbw %xmm0, %xmm2, %xmm2 vpslld $31, %xmm2, %xmm7 vpmovsxdq %xmm7, %xmm2 vmovhlps %xmm7, %xmm7, %xmm7 vpmovsxdq %xmm7, %xmm7 vinsertf128 $1, %xmm7, %ymm2, %ymm7 vaddpd %ymm14, %ymm11, %ymm2 vmovapd .LCPI1_19(%rip), %ymm9 vmovapd 28256(%rbx), %ymm10 vblendvpd %ymm4, %ymm9, %ymm10, %ymm4 vmovapd %ymm4, 32992(%rbx) vmovapd 28288(%rbx), %ymm4 vblendvpd %ymm0, %ymm9, %ymm4, %ymm0 vmovapd %ymm0, 32960(%rbx) vmovapd 28320(%rbx), %ymm0 vblendvpd %ymm8, %ymm9, %ymm0, %ymm0 vmovapd %ymm0, 32736(%rbx) vmovapd 28352(%rbx), %ymm0 vblendvpd %ymm7, %ymm9, %ymm0, %ymm0 vmovapd %ymm0, 32576(%rbx) vmovapd .LCPI1_25(%rip), %ymm7 vxorpd %ymm7, %ymm1, %ymm1 vsqrtpd %ymm6, %ymm0 vsqrtpd %ymm1, %ymm6 vaddpd %ymm3, %ymm2, %ymm1 vsqrtpd %ymm1, %ymm4 vxorpd %ymm7, %ymm5, %ymm1 vsqrtpd %ymm1, %ymm8 vmovdqa .LCPI1_21(%rip), %xmm1 vmovdqa %xmm1, %xmm14 vmovapd 32928(%rbx), %ymm13 vmovapd 32864(%rbx), %ymm10 vmovapd 32416(%rbx), %xmm5 vmovapd 28160(%rbx), %xmm7 vmovapd 28128(%rbx), %xmm9 vmovapd 29120(%rbx), %xmm3 vmovapd 29088(%rbx), %xmm2 vmovapd 28096(%rbx), %xmm12 vmovapd 29056(%rbx), %xmm1 vmovapd 28064(%rbx), %xmm11 .LBB1_3290: vmovapd %ymm10, 32864(%rbx) vmovapd %ymm13, 32928(%rbx) movq %rcx, 32448(%rbx) vunpcklpd %xmm1, %xmm2, %xmm1 vunpcklpd %xmm11, %xmm12, %xmm2 vinsertf128 $1, %xmm1, %ymm2, %ymm1 vmulpd %ymm0, %ymm1, %ymm2 vmovapd .LCPI1_23(%rip), %ymm11 vdivpd %ymm8, %ymm11, %ymm15 vmulpd %ymm15, %ymm2, %ymm2 vunpcklpd %xmm3, %xmm9, %xmm3 vunpcklpd %xmm7, %xmm5, %xmm5 vinsertf128 $1, %xmm3, %ymm5, %ymm9 vmulpd %ymm4, %ymm9, %ymm3 vsubpd %ymm2, %ymm13, %ymm7 vdivpd %ymm6, %ymm11, %ymm12 vxorpd %xmm5, %xmm5, %xmm5 vmulpd %ymm12, %ymm3, %ymm2 vxorpd %ymm8, %ymm8, %ymm8 vcmpltpd %ymm8, %ymm7, %ymm3 vextractf128 $1, %ymm3, %xmm6 vpshufd $8, %xmm6, %xmm6 vpshufd $8, %xmm3, %xmm3 vmovlhps %xmm6, %xmm3, %xmm3 vsubpd %ymm2, %ymm10, %ymm6 vpshufb .LCPI1_20(%rip), %xmm3, %xmm2 vcmpltpd %ymm8, %ymm6, %ymm3 vextractf128 $1, %ymm3, %xmm6 vpshufd $8, %xmm6, %xmm6 vpshufd $8, %xmm3, %xmm3 vmovlhps %xmm6, %xmm3, %xmm3 vpshufb %xmm14, %xmm3, %xmm3 vpor %xmm2, %xmm3, %xmm2 vpsllw $15, %xmm2, %xmm2 vpsraw $15, %xmm2, %xmm3 vmovdqa %xmm3, 31232(%rbx) vmovdqa 32320(%rbx), %xmm2 vpand %xmm3, %xmm2, %xmm8 vpxor .LCPI1_17(%rip), %xmm8, %xmm2 vpmovzxwd %xmm2, %xmm3 vpslld $31, %xmm3, %xmm3 vpsrad $31, %xmm3, %xmm3 vpunpckhwd %xmm0, %xmm2, %xmm2 vpslld $31, %xmm2, %xmm2 vpsrad $31, %xmm2, %xmm2 vinsertf128 $1, %xmm2, %ymm3, %ymm2 vmovdqa 12320(%rbx), %ymm3 vptest %ymm3, %ymm2 jb .LBB1_3312 vmulpd %ymm9, %ymm12, %ymm6 vmovapd %ymm6, 32416(%rbx) vmovapd 32832(%rbx), %ymm2 vmulpd %ymm6, %ymm2, %ymm3 vmovapd 32704(%rbx), %ymm2 vdivpd %ymm4, %ymm2, %ymm11 vmulpd 29024(%rbx), %ymm6, %ymm2 vmulpd %ymm11, %ymm2, %ymm2 vmulpd %ymm3, %ymm6, %ymm3 vmovapd 32896(%rbx), %ymm5 vdivpd %ymm0, %ymm5, %ymm12 vmulpd %ymm1, %ymm15, %ymm9 vmulpd 32544(%rbx), %ymm9, %ymm1 vmulpd %ymm12, %ymm1, %ymm1 vmovapd 32800(%rbx), %ymm5 vmulpd %ymm9, %ymm5, %ymm5 vmulpd %ymm5, %ymm9, %ymm5 vaddpd %ymm1, %ymm5, %ymm1 vaddpd %ymm2, %ymm3, %ymm2 vmovapd 32640(%rbx), %ymm3 vdivpd %ymm4, %ymm3, %ymm13 vmovapd 32672(%rbx), %ymm3 vdivpd %ymm0, %ymm3, %ymm10 vmulpd 32512(%rbx), %ymm9, %ymm3 vmulpd %ymm10, %ymm3, %ymm3 vmulpd 29216(%rbx), %ymm6, %ymm4 vmulpd %ymm13, %ymm4, %ymm4 vaddpd %ymm4, %ymm2, %ymm2 vaddpd %ymm3, %ymm1, %ymm1 vmulpd 29184(%rbx), %ymm11, %ymm3 vmulpd %ymm3, %ymm6, %ymm3 vmulpd 32352(%rbx), %ymm12, %ymm4 vmulpd %ymm4, %ymm9, %ymm4 vaddpd %ymm4, %ymm1, %ymm1 vaddpd %ymm3, %ymm2, %ymm2 vmulpd 29152(%rbx), %ymm12, %ymm3 vmulpd %ymm3, %ymm12, %ymm3 vmulpd 32384(%rbx), %ymm11, %ymm4 vmulpd %ymm4, %ymm11, %ymm4 vaddpd %ymm4, %ymm2, %ymm2 vaddpd %ymm3, %ymm1, %ymm1 vmulpd 28992(%rbx), %ymm11, %ymm3 vmulpd %ymm3, %ymm13, %ymm3 vmovsd 11056(%rsi,%r12), %xmm15 vmulpd 28224(%rbx), %ymm12, %ymm4 vmulpd %ymm4, %ymm10, %ymm4 vaddpd %ymm4, %ymm1, %ymm1 vaddpd %ymm3, %ymm2, %ymm2 vmulpd 28896(%rbx), %ymm10, %ymm3 vmulpd %ymm3, %ymm9, %ymm3 vmulpd 28192(%rbx), %ymm13, %ymm4 vmulpd %ymm4, %ymm6, %ymm4 vpmovzxwd %xmm8, %xmm5 vpslld $31, %xmm5, %xmm5 vaddpd %ymm4, %ymm2, %ymm0 vpsrad $31, %xmm5, %xmm2 vaddpd %ymm3, %ymm1, %ymm7 vpunpckhwd %xmm0, %xmm8, %xmm1 vpslld $31, %xmm1, %xmm1 vpsrad $31, %xmm1, %xmm1 vinsertf128 $1, %xmm1, %ymm2, %ymm1 vmovdqa 12288(%rbx), %ymm2 vptest %ymm2, %ymm1 jb .LBB1_3292 vpextrb $14, %xmm8, %edx vpextrb $10, %xmm8, %edi vpextrb $0, %xmm8, %ecx vpextrb $2, %xmm8, %r8d vpextrb $4, %xmm8, %r9d vpextrb $6, %xmm8, %r10d vpextrb $8, %xmm8, %r11d vpextrb $12, %xmm8, %eax vmovsd 11568(%rsi,%r12), %xmm6 vmovsd 11696(%rsi,%r12), %xmm2 vmovsd 11824(%rsi,%r12), %xmm3 testb $1, %dl jne .LBB1_3294 vxorpd %xmm4, %xmm4, %xmm4 jmp .LBB1_3296 .align 16, 0x90 .LBB1_3292: vmovsd 11952(%rsi,%r12), %xmm4 vmovsd 11824(%rsi,%r12), %xmm3 vmovsd 11696(%rsi,%r12), %xmm2 vmovsd 11568(%rsi,%r12), %xmm6 vmovsd 11440(%rsi,%r12), %xmm14 vmovsd 11184(%rsi,%r12), %xmm5 vmovsd 11312(%rsi,%r12), %xmm1 jmp .LBB1_3311 .LBB1_3294: vmovsd 11952(%rsi,%r12), %xmm4 .LBB1_3296: testb $1, %cl jne .LBB1_3298 vxorpd %xmm15, %xmm15, %xmm15 .LBB1_3298: testb $1, %al jne .LBB1_3300 vxorpd %xmm3, %xmm3, %xmm3 .LBB1_3300: testb $1, %dil jne .LBB1_3302 vxorpd %xmm2, %xmm2, %xmm2 .LBB1_3302: testb $1, %r11b jne .LBB1_3304 vxorpd %xmm6, %xmm6, %xmm6 .LBB1_3304: vmovsd 11184(%rsi,%r12), %xmm5 vmovsd 11312(%rsi,%r12), %xmm1 testb $1, %r10b jne .LBB1_3305 vxorpd %xmm14, %xmm14, %xmm14 jmp .LBB1_3307 .LBB1_3305: vmovsd 11440(%rsi,%r12), %xmm14 .LBB1_3307: testb $1, %r9b jne .LBB1_3309 vxorpd %xmm1, %xmm1, %xmm1 .LBB1_3309: testb $1, %r8b jne .LBB1_3311 vxorpd %xmm5, %xmm5, %xmm5 .LBB1_3311: vunpcklpd %xmm14, %xmm1, %xmm1 vunpcklpd %xmm5, %xmm15, %xmm5 vinsertf128 $1, %xmm1, %ymm5, %ymm1 vmulpd %ymm1, %ymm13, %ymm5 vunpcklpd %xmm4, %xmm3, %xmm1 vunpcklpd %xmm2, %xmm6, %xmm2 vinsertf128 $1, %xmm1, %ymm2, %ymm1 vmulpd %ymm5, %ymm11, %ymm2 vmulpd 28928(%rbx), %ymm13, %ymm3 vmulpd %ymm3, %ymm13, %ymm3 vaddpd %ymm2, %ymm0, %ymm2 vaddpd %ymm3, %ymm2, %ymm2 vmulpd %ymm1, %ymm10, %ymm1 vmulpd %ymm1, %ymm12, %ymm1 vaddpd %ymm1, %ymm7, %ymm1 vmulpd 28960(%rbx), %ymm10, %ymm3 vmulpd %ymm3, %ymm10, %ymm3 vaddpd %ymm3, %ymm1, %ymm1 vmovapd .LCPI1_56(%rip), %ymm14 vandpd %ymm14, %ymm2, %ymm3 vmovapd .LCPI1_55(%rip), %ymm6 vcmpltpd %ymm6, %ymm3, %ymm3 vextractf128 $1, %ymm3, %xmm4 vpshufd $8, %xmm4, %xmm4 vpshufd $8, %xmm3, %xmm3 vmovlhps %xmm4, %xmm3, %xmm3 vandpd %ymm14, %ymm1, %ymm4 vcmpltpd %ymm6, %ymm4, %ymm4 vextractf128 $1, %ymm4, %xmm5 vpshufd $8, %xmm5, %xmm5 vpshufd $8, %xmm4, %xmm4 vmovlhps %xmm5, %xmm4, %xmm4 vmovdqa .LCPI1_20(%rip), %xmm7 vpshufb %xmm7, %xmm4, %xmm4 vmovdqa .LCPI1_21(%rip), %xmm0 vpshufb %xmm0, %xmm3, %xmm3 vpor %xmm4, %xmm3, %xmm3 vpsllw $15, %xmm3, %xmm3 vpsraw $15, %xmm3, %xmm3 vpunpckhbw %xmm0, %xmm3, %xmm4 vpslld $31, %xmm4, %xmm5 vpmovsxdq %xmm5, %xmm4 vmovhlps %xmm5, %xmm5, %xmm5 vpmovsxdq %xmm5, %xmm5 vinsertf128 $1, %xmm5, %ymm4, %ymm4 vblendvpd %ymm4, %ymm6, %ymm1, %ymm1 vpunpcklbw %xmm0, %xmm3, %xmm3 vpslld $31, %xmm3, %xmm4 vpmovsxdq %xmm4, %xmm3 vmovhlps %xmm4, %xmm4, %xmm4 vpmovsxdq %xmm4, %xmm4 vinsertf128 $1, %xmm4, %ymm3, %ymm3 vblendvpd %ymm3, %ymm6, %ymm2, %ymm2 vandpd %ymm14, %ymm1, %ymm3 vmovapd .LCPI1_23(%rip), %ymm6 vcmpnlepd %ymm3, %ymm6, %ymm3 vextractf128 $1, %ymm3, %xmm4 vpshufd $8, %xmm4, %xmm4 vpshufd $8, %xmm3, %xmm3 vmovlhps %xmm4, %xmm3, %xmm3 vpshufb %xmm7, %xmm3, %xmm3 vandpd %ymm14, %ymm2, %ymm4 vcmpnlepd %ymm4, %ymm6, %ymm4 vextractf128 $1, %ymm4, %xmm5 vpshufd $8, %xmm5, %xmm5 vpshufd $8, %xmm4, %xmm4 vmovlhps %xmm5, %xmm4, %xmm4 vpshufb %xmm0, %xmm4, %xmm4 vpor %xmm3, %xmm4, %xmm3 vpsllw $15, %xmm3, %xmm3 vpsraw $15, %xmm3, %xmm4 vpunpcklbw %xmm0, %xmm4, %xmm3 vpslld $31, %xmm3, %xmm3 vpunpckhbw %xmm0, %xmm4, %xmm4 vpslld $31, %xmm4, %xmm5 vpmovsxdq %xmm5, %xmm4 vmovhlps %xmm5, %xmm5, %xmm5 vpmovsxdq %xmm5, %xmm5 vinsertf128 $1, %xmm5, %ymm4, %ymm4 vpmovsxdq %xmm3, %xmm5 vmovhlps %xmm3, %xmm3, %xmm3 vpmovsxdq %xmm3, %xmm3 vinsertf128 $1, %xmm3, %ymm5, %ymm3 vmovapd .LCPI1_57(%rip), %ymm0 vblendvpd %ymm3, %ymm2, %ymm0, %ymm2 vsubpd %ymm2, %ymm6, %ymm2 vblendvpd %ymm4, %ymm1, %ymm0, %ymm1 vsubpd %ymm1, %ymm6, %ymm1 vsqrtpd %ymm1, %ymm1 vdivpd %ymm1, %ymm6, %ymm1 vmulpd %ymm10, %ymm1, %ymm14 vsqrtpd %ymm2, %ymm0 vdivpd %ymm0, %ymm6, %ymm0 vmulpd %ymm13, %ymm0, %ymm13 vmulpd %ymm12, %ymm1, %ymm10 vmulpd %ymm11, %ymm0, %ymm11 vmulpd %ymm9, %ymm1, %ymm2 vmulpd 32416(%rbx), %ymm0, %ymm6 vmovdqa %xmm8, %xmm5 .LBB1_3312: vmovapd 32576(%rbx), %ymm1 vextractf128 $1, %ymm1, %xmm7 vmovapd %xmm7, 29088(%rbx) vmovapd 32960(%rbx), %ymm0 vmovapd %ymm2, %ymm12 vextractf128 $1, %ymm0, %xmm2 vmovapd %xmm2, 29120(%rbx) vmovapd 32736(%rbx), %ymm4 vextractf128 $1, %ymm4, %xmm3 vmovapd %xmm3, 29024(%rbx) vunpckhpd %xmm7, %xmm7, %xmm7 vmovapd %xmm7, 29184(%rbx) vunpckhpd %xmm1, %xmm1, %xmm1 vmovapd %xmm1, 29056(%rbx) vmovapd 32992(%rbx), %ymm1 vextractf128 $1, %ymm1, %xmm7 vmovapd %xmm7, 28992(%rbx) vunpckhpd %xmm2, %xmm2, %xmm2 vmovapd %xmm2, 32384(%rbx) vunpckhpd %xmm0, %xmm0, %xmm0 vmovapd %xmm0, 32352(%rbx) vunpckhpd %xmm1, %xmm1, %xmm0 vmovapd %xmm0, 32416(%rbx) vunpckhpd %xmm7, %xmm7, %xmm0 vmovapd %xmm0, 32512(%rbx) vunpckhpd %xmm4, %xmm4, %xmm0 vmovapd %xmm0, 29152(%rbx) vunpckhpd %xmm3, %xmm3, %xmm0 vmovapd %xmm0, 29216(%rbx) vmovdqa 31232(%rbx), %xmm0 vpxor .LCPI1_17(%rip), %xmm0, %xmm0 vmovdqa 32320(%rbx), %xmm2 vpand %xmm0, %xmm2, %xmm0 vpunpcklbw %xmm0, %xmm5, %xmm2 vpunpckhbw %xmm0, %xmm5, %xmm7 vpshufd $50, %xmm7, %xmm4 vpmovzxdq %xmm7, %xmm7 vpsllq $63, %xmm7, %xmm7 vpsllq $63, %xmm4, %xmm9 vpmovzxdq %xmm2, %xmm4 vpsllq $63, %xmm4, %xmm4 vpshufd $50, %xmm2, %xmm2 vpsllq $63, %xmm2, %xmm2 vinsertf128 $1, %xmm2, %ymm4, %ymm2 vinsertf128 $1, %xmm9, %ymm7, %ymm9 vpor %xmm0, %xmm5, %xmm0 vmovapd 32672(%rbx), %ymm4 vblendvpd %ymm9, %ymm14, %ymm4, %ymm7 vmovapd %ymm7, 32320(%rbx) vmovapd 32896(%rbx), %ymm4 vblendvpd %ymm9, %ymm10, %ymm4, %ymm10 vmovapd %ymm10, 28928(%rbx) vmovapd 32640(%rbx), %ymm4 vblendvpd %ymm2, %ymm13, %ymm4, %ymm8 vmovapd %ymm8, 28960(%rbx) vmovapd 32864(%rbx), %ymm3 vblendvpd %ymm2, %ymm6, %ymm3, %ymm15 vmovapd 32928(%rbx), %ymm3 vblendvpd %ymm9, %ymm12, %ymm3, %ymm13 vmovapd %ymm13, 32544(%rbx) vpmovzxwd %xmm0, %xmm3 vpslld $31, %xmm3, %xmm3 vpsrad $31, %xmm3, %xmm3 vpunpckhwd %xmm0, %xmm0, %xmm4 vpslld $31, %xmm4, %xmm4 vpsrad $31, %xmm4, %xmm4 vmovapd 32704(%rbx), %ymm9 vblendvpd %ymm2, %ymm11, %ymm9, %ymm12 vinsertf128 $1, %xmm4, %ymm3, %ymm2 vmovaps %ymm2, 31232(%rbx) vextractf128 $1, %ymm7, %xmm2 vmovapd %xmm2, 32928(%rbx) vextractf128 $1, %ymm8, %xmm3 vmovapd %xmm3, 32864(%rbx) vextractf128 $1, %ymm10, %xmm4 vmovapd %xmm4, 32704(%rbx) vextractf128 $1, %ymm12, %xmm1 vmovapd %xmm1, 32640(%rbx) vextractf128 $1, %ymm13, %xmm6 vextractf128 $1, %ymm15, %xmm5 vunpckhpd %xmm2, %xmm2, %xmm2 vmovapd %xmm2, 32896(%rbx) vunpckhpd %xmm7, %xmm7, %xmm2 vmovapd %xmm2, 32832(%rbx) vunpckhpd %xmm3, %xmm3, %xmm2 vmovapd %xmm2, 32800(%rbx) vunpckhpd %xmm8, %xmm8, %xmm2 vmovapd %xmm2, 32672(%rbx) vunpckhpd %xmm5, %xmm5, %xmm8 vunpckhpd %xmm13, %xmm13, %xmm13 vunpckhpd %xmm6, %xmm6, %xmm9 vunpckhpd %xmm12, %xmm12, %xmm3 vunpckhpd %xmm1, %xmm1, %xmm14 vunpckhpd %xmm10, %xmm10, %xmm7 vunpckhpd %xmm4, %xmm4, %xmm4 vunpckhpd %xmm15, %xmm15, %xmm10 vmovdqa 12256(%rbx), %ymm2 vmovdqa 31232(%rbx), %ymm11 vptest %ymm2, %ymm11 movq 28576(%rbx), %rax movq 28544(%rbx), %r8 movq 28512(%rbx), %rcx movq 28480(%rbx), %r14 movq 28448(%rbx), %rdi movq 28416(%rbx), %rsi movq 28384(%rbx), %rdx jb .LBB1_3313 vmovapd %xmm10, 28064(%rbx) vmovapd %xmm8, 28096(%rbx) vmovaps 29088(%rbx), %xmm2 vmovapd %xmm5, 28128(%rbx) vmovapd %xmm13, 28160(%rbx) vmovaps 29024(%rbx), %xmm5 vmovapd %xmm9, 28192(%rbx) vmovapd %ymm15, 28224(%rbx) vmovapd %xmm3, 28256(%rbx) vmovapd %xmm6, 28288(%rbx) vmovapd %xmm14, 28320(%rbx) vmovaps 29120(%rbx), %xmm3 vmovapd %xmm7, 28352(%rbx) vmovaps 28992(%rbx), %xmm7 vmovapd %xmm4, 28896(%rbx) vmovapd %ymm12, %ymm4 vmovaps 28928(%rbx), %ymm1 vmovapd 28960(%rbx), %ymm10 vmovapd 32320(%rbx), %ymm13 vmovaps 32576(%rbx), %ymm11 vmovapd 32736(%rbx), %ymm15 vmovapd 32960(%rbx), %ymm12 vmovapd 32992(%rbx), %ymm14 movq %r13, 31232(%rbx) vpextrb $0, %xmm0, %r13d vpextrb $2, %xmm0, %r11d vpextrb $4, %xmm0, %r15d testb $1, %r13b je .LBB1_3316 vmovsd %xmm11, 33024(%rbx,%rdx,8) .LBB1_3316: vpextrb $6, %xmm0, %r9d testb $1, %r11b vmovaps 29056(%rbx), %xmm6 je .LBB1_3318 vmovsd %xmm6, 33024(%rbx,%rsi,8) .LBB1_3318: movq %rax, %r12 vpextrb $8, %xmm0, %r10d movl %r15d, %esi testb $1, %sil vmovsd 32224(%rbx), %xmm11 je .LBB1_3320 vmovsd %xmm2, 33024(%rbx,%rdi,8) .LBB1_3320: vpextrb $10, %xmm0, %r15d testb $1, %r9b vmovaps 29184(%rbx), %xmm2 je .LBB1_3322 movq 32288(%rbx), %rax vmovsd %xmm2, 33024(%rbx,%rax,8) .LBB1_3322: movq %r8, %rdx vpextrb $12, %xmm0, %eax testb $1, %r10b vmovaps 29152(%rbx), %xmm6 je .LBB1_3324 vmovsd %xmm15, 33024(%rbx,%r14,8) .LBB1_3324: vpextrb $14, %xmm0, %r14d testb $1, %r15b vmovaps %xmm5, %xmm2 je .LBB1_3326 vmovsd %xmm6, 33024(%rbx,%rcx,8) .LBB1_3326: testb $1, %al je .LBB1_3328 vmovsd %xmm2, 33024(%rbx,%rdx,8) .LBB1_3328: testb $1, %r14b movq 32448(%rbx), %rcx vmovaps 29216(%rbx), %xmm2 je .LBB1_3330 vmovsd %xmm2, 33024(%rbx,%r12,8) .LBB1_3330: testb $1, %r13b vmovaps 32352(%rbx), %xmm5 je .LBB1_3332 vmovsd %xmm12, (%rcx) .LBB1_3332: testb $1, %r11b vmovaps %xmm3, %xmm2 je .LBB1_3334 movq 31232(%rbx), %rcx vmovsd %xmm5, (%rcx) .LBB1_3334: testb $1, %sil je .LBB1_3336 movq 31200(%rbx), %rcx vmovsd %xmm2, (%rcx) .LBB1_3336: testb $1, %r9b vmovaps 32384(%rbx), %xmm2 je .LBB1_3338 movq 31168(%rbx), %rcx vmovsd %xmm2, (%rcx) .LBB1_3338: testb $1, %r10b vmovaps 32416(%rbx), %xmm3 je .LBB1_3340 movq 31072(%rbx), %rcx vmovsd %xmm14, (%rcx) .LBB1_3340: testb $1, %r15b vmovaps %xmm7, %xmm2 je .LBB1_3342 movq 31008(%rbx), %rcx vmovsd %xmm3, (%rcx) .LBB1_3342: testb $1, %al je .LBB1_3344 movq 30944(%rbx), %rcx vmovsd %xmm2, (%rcx) .LBB1_3344: testb $1, %r14b vmovaps 32512(%rbx), %xmm2 je .LBB1_3346 movq 30912(%rbx), %rcx vmovsd %xmm2, (%rcx) .LBB1_3346: testb $1, %r13b vmovaps 28224(%rbx), %ymm2 vmovaps 28064(%rbx), %xmm3 je .LBB1_3348 movq 31136(%rbx), %rcx vmovsd %xmm2, (%rcx) .LBB1_3348: testb $1, %r11b vmovaps 28128(%rbx), %xmm2 je .LBB1_3350 movq 31104(%rbx), %rcx vmovsd %xmm3, (%rcx) .LBB1_3350: testb $1, %sil vmovsd 32192(%rbx), %xmm9 vmovaps 28096(%rbx), %xmm3 je .LBB1_3352 movq 31040(%rbx), %rcx vmovsd %xmm2, (%rcx) .LBB1_3352: testb $1, %r9b vmovaps 32544(%rbx), %ymm2 je .LBB1_3354 movq 30976(%rbx), %rcx vmovsd %xmm3, (%rcx) .LBB1_3354: testb $1, %r10b vmovsd 32032(%rbx), %xmm3 vmovaps 28160(%rbx), %xmm5 je .LBB1_3356 movq 30816(%rbx), %rcx vmovsd %xmm2, (%rcx) .LBB1_3356: testb $1, %r15b vmovaps 28288(%rbx), %xmm2 je .LBB1_3358 movq 30752(%rbx), %rcx vmovsd %xmm5, (%rcx) .LBB1_3358: testb $1, %al vmovaps 28192(%rbx), %xmm5 je .LBB1_3360 movq 30688(%rbx), %rcx vmovsd %xmm2, (%rcx) .LBB1_3360: testb $1, %r14b vmovapd %ymm4, %ymm2 je .LBB1_3362 movq 30656(%rbx), %rcx vmovsd %xmm5, (%rcx) .LBB1_3362: testb $1, %r13b vmovsd 31776(%rbx), %xmm8 vmovaps 28256(%rbx), %xmm4 je .LBB1_3364 movq 30880(%rbx), %rcx vmovsd %xmm2, (%rcx) .LBB1_3364: testb $1, %r11b vmovaps 32640(%rbx), %xmm2 je .LBB1_3366 movq 30848(%rbx), %rcx vmovsd %xmm4, (%rcx) .LBB1_3366: testb $1, %sil vmovsd 32000(%rbx), %xmm5 vmovsd 31968(%rbx), %xmm6 vmovaps 28320(%rbx), %xmm4 je .LBB1_3368 movq 30784(%rbx), %rcx vmovsd %xmm2, (%rcx) .LBB1_3368: testb $1, %r9b vmovaps %ymm1, %ymm2 je .LBB1_3370 movq 30720(%rbx), %rcx vmovsd %xmm4, (%rcx) .LBB1_3370: testb $1, %r10b je .LBB1_3372 movq 30560(%rbx), %rcx vmovsd %xmm2, (%rcx) .LBB1_3372: testb $1, %r15b vmovaps 32704(%rbx), %xmm1 vmovaps 28352(%rbx), %xmm2 je .LBB1_3374 movq 30496(%rbx), %rcx vmovsd %xmm2, (%rcx) .LBB1_3374: testb $1, %al je .LBB1_3376 movq 30432(%rbx), %rcx vmovsd %xmm1, (%rcx) .LBB1_3376: testb $1, %r14b vmovapd %ymm10, %ymm2 vmovaps 28896(%rbx), %xmm1 je .LBB1_3378 movq 30400(%rbx), %rcx vmovsd %xmm1, (%rcx) .LBB1_3378: testb $1, %r13b je .LBB1_3380 movq 30624(%rbx), %rcx vmovsd %xmm2, (%rcx) .LBB1_3380: testb $1, %r11b vmovaps 32864(%rbx), %xmm1 vmovaps 32672(%rbx), %xmm2 je .LBB1_3382 movq 30592(%rbx), %rcx vmovsd %xmm2, (%rcx) .LBB1_3382: vmovdqa %xmm0, %xmm7 testb $1, %sil je .LBB1_3384 movq 30528(%rbx), %rcx vmovsd %xmm1, (%rcx) .LBB1_3384: testb $1, %r9b vmovaps 32800(%rbx), %xmm0 je .LBB1_3386 movq 30464(%rbx), %rcx vmovsd %xmm0, (%rcx) .LBB1_3386: testb $1, %r10b vmovaps 32832(%rbx), %xmm2 je .LBB1_3388 movq 30304(%rbx), %rcx vmovsd %xmm13, (%rcx) .LBB1_3388: testb $1, %r15b vmovaps 32928(%rbx), %xmm1 je .LBB1_3390 movq 30240(%rbx), %rcx vmovsd %xmm2, (%rcx) .LBB1_3390: testb $1, %al je .LBB1_3392 movq 30176(%rbx), %rcx vmovsd %xmm1, (%rcx) .LBB1_3392: testb $1, %r14b vmovaps 32896(%rbx), %xmm1 je .LBB1_3394 movq 30144(%rbx), %rcx vmovsd %xmm1, (%rcx) .LBB1_3394: testb $1, %r13b vmovsd 32256(%rbx), %xmm1 je .LBB1_3396 movq 30368(%rbx), %rcx vmovsd %xmm11, (%rcx) .LBB1_3396: testb $1, %r11b je .LBB1_3398 movq 30336(%rbx), %rcx vmovsd %xmm1, (%rcx) .LBB1_3398: testb $1, %sil vmovdqa %xmm7, %xmm0 je .LBB1_3400 vmovsd 32160(%rbx), %xmm1 movq 30272(%rbx), %rcx vmovsd %xmm1, (%rcx) .LBB1_3400: testb $1, %r9b vmovsd 32128(%rbx), %xmm1 vmovsd 31936(%rbx), %xmm2 je .LBB1_3402 movq 30208(%rbx), %rcx vmovsd %xmm9, (%rcx) .LBB1_3402: testb $1, %r10b je .LBB1_3404 movq 30016(%rbx), %rcx vmovsd %xmm3, (%rcx) .LBB1_3404: testb $1, %r15b je .LBB1_3406 movq 29952(%rbx), %rcx vmovsd %xmm1, (%rcx) .LBB1_3406: testb $1, %al vmovsd 31520(%rbx), %xmm4 je .LBB1_3408 movq 29920(%rbx), %rcx vmovsd %xmm2, (%rcx) .LBB1_3408: testb $1, %r14b je .LBB1_3410 vmovsd 32064(%rbx), %xmm1 movq 29888(%rbx), %rcx vmovsd %xmm1, (%rcx) .LBB1_3410: testb $1, %r13b je .LBB1_3412 movq 30112(%rbx), %rcx vmovsd %xmm5, (%rcx) .LBB1_3412: testb $1, %r11b je .LBB1_3414 vmovsd 32096(%rbx), %xmm1 movq 30080(%rbx), %rcx vmovsd %xmm1, (%rcx) .LBB1_3414: testb $1, %sil je .LBB1_3416 vmovsd 31904(%rbx), %xmm1 movq 30048(%rbx), %rcx vmovsd %xmm1, (%rcx) .LBB1_3416: testb $1, %r9b je .LBB1_3418 movq 29984(%rbx), %rcx vmovsd %xmm6, (%rcx) .LBB1_3418: testb $1, %r10b je .LBB1_3420 movq 29760(%rbx), %rcx vmovsd %xmm8, (%rcx) .LBB1_3420: testb $1, %r15b vmovsd 31744(%rbx), %xmm2 vmovsd 31360(%rbx), %xmm6 je .LBB1_3422 vmovsd 31872(%rbx), %xmm1 movq 29696(%rbx), %rcx vmovsd %xmm1, (%rcx) .LBB1_3422: testb $1, %al vmovsd 31552(%rbx), %xmm3 vmovsd 31488(%rbx), %xmm5 je .LBB1_3424 vmovsd 31712(%rbx), %xmm1 movq 29664(%rbx), %rcx vmovsd %xmm1, (%rcx) .LBB1_3424: testb $1, %r14b je .LBB1_3426 vmovsd 31808(%rbx), %xmm1 movq 29632(%rbx), %rcx vmovsd %xmm1, (%rcx) .LBB1_3426: testb $1, %r13b je .LBB1_3428 vmovsd 32480(%rbx), %xmm1 movq 29856(%rbx), %rcx vmovsd %xmm1, (%rcx) .LBB1_3428: testb $1, %r11b je .LBB1_3430 vmovsd 31840(%rbx), %xmm1 movq 29824(%rbx), %rcx vmovsd %xmm1, (%rcx) .LBB1_3430: testb $1, %sil je .LBB1_3432 vmovsd 31680(%rbx), %xmm1 movq 29792(%rbx), %rcx vmovsd %xmm1, (%rcx) .LBB1_3432: testb $1, %r9b je .LBB1_3434 movq 29728(%rbx), %rcx vmovsd %xmm2, (%rcx) .LBB1_3434: testb $1, %r10b je .LBB1_3436 movq 29504(%rbx), %rcx vmovsd %xmm3, (%rcx) .LBB1_3436: movl %esi, %edi testb $1, %r15b je .LBB1_3438 vmovsd 31648(%rbx), %xmm1 movq 29440(%rbx), %rcx vmovsd %xmm1, (%rcx) .LBB1_3438: testb $1, %al je .LBB1_3440 vmovsd 31424(%rbx), %xmm1 movq 29408(%rbx), %rcx vmovsd %xmm1, (%rcx) .LBB1_3440: testb $1, %r14b je .LBB1_3442 vmovsd 31584(%rbx), %xmm1 movq 29376(%rbx), %rcx vmovsd %xmm1, (%rcx) .LBB1_3442: testb $1, %r13b je .LBB1_3444 movq 29600(%rbx), %rcx vmovsd %xmm4, (%rcx) .LBB1_3444: testb $1, %r11b movq 29344(%rbx), %rdx movq 29280(%rbx), %rsi je .LBB1_3446 vmovsd 31616(%rbx), %xmm1 movq 29568(%rbx), %rcx vmovsd %xmm1, (%rcx) .LBB1_3446: testb $1, %dil movq 29536(%rbx), %rcx je .LBB1_3448 vmovsd 31392(%rbx), %xmm1 vmovsd %xmm1, (%rcx) .LBB1_3448: testb $1, %r9b je .LBB1_3450 movq 29472(%rbx), %rcx vmovsd %xmm5, (%rcx) .LBB1_3450: testb $1, %r10b vmovsd 31328(%rbx), %xmm1 je .LBB1_3452 vmovsd 31296(%rbx), %xmm2 vmovsd %xmm2, (%rdx) .LBB1_3452: testb $1, %r15b vmovsd 31264(%rbx), %xmm2 je .LBB1_3454 movq 29312(%rbx), %rcx vmovsd %xmm6, (%rcx) .LBB1_3454: testb $1, %al je .LBB1_3456 vmovsd %xmm2, (%rsi) .LBB1_3456: testb $1, %r14b movq 29248(%rbx), %rax je .LBB1_3458 jmp .LBB1_3457 .align 16, 0x90 .LBB1_3313: vmovaps 32576(%rbx), %ymm2 vmovsd %xmm2, 33024(%rbx,%rdx,8) vmovaps 29056(%rbx), %xmm2 vmovsd %xmm2, 33024(%rbx,%rsi,8) vmovaps 29088(%rbx), %xmm2 vmovsd %xmm2, 33024(%rbx,%rdi,8) movq 32288(%rbx), %rdi vmovaps 29184(%rbx), %xmm2 vmovsd %xmm2, 33024(%rbx,%rdi,8) vmovaps 32736(%rbx), %ymm2 vmovsd %xmm2, 33024(%rbx,%r14,8) vmovaps 29152(%rbx), %xmm2 vmovsd %xmm2, 33024(%rbx,%rcx,8) vmovaps 29024(%rbx), %xmm2 vmovsd %xmm2, 33024(%rbx,%r8,8) vmovaps 29216(%rbx), %xmm2 vmovsd %xmm2, 33024(%rbx,%rax,8) movq 32448(%rbx), %rax vmovaps 32960(%rbx), %ymm2 vmovsd %xmm2, (%rax) vmovaps 32352(%rbx), %xmm2 vmovsd %xmm2, (%r13) movq 31200(%rbx), %rax vmovaps 29120(%rbx), %xmm2 vmovsd %xmm2, (%rax) movq 31168(%rbx), %rax vmovaps 32384(%rbx), %xmm2 vmovsd %xmm2, (%rax) movq 31072(%rbx), %rax vmovaps 32992(%rbx), %ymm2 vmovsd %xmm2, (%rax) movq 31008(%rbx), %rax vmovaps 32416(%rbx), %xmm2 vmovsd %xmm2, (%rax) movq 30944(%rbx), %rax vmovaps 28992(%rbx), %xmm2 vmovsd %xmm2, (%rax) movq 30912(%rbx), %rax vmovaps 32512(%rbx), %xmm2 vmovsd %xmm2, (%rax) movq 31136(%rbx), %rax vmovsd %xmm15, (%rax) movq 31104(%rbx), %rax vmovsd %xmm10, (%rax) movq 31040(%rbx), %rax vmovsd %xmm5, (%rax) movq 30976(%rbx), %rax vmovsd %xmm8, (%rax) movq 30816(%rbx), %rax vmovaps 32544(%rbx), %ymm1 vmovsd %xmm1, (%rax) movq 30752(%rbx), %rax vmovsd %xmm13, (%rax) movq 30688(%rbx), %rax vmovsd %xmm6, (%rax) movq 30656(%rbx), %rax vmovsd %xmm9, (%rax) movq 30880(%rbx), %rax vmovsd %xmm12, (%rax) movq 30848(%rbx), %rax vmovsd %xmm3, (%rax) movq 30784(%rbx), %rax vmovaps 32640(%rbx), %xmm1 vmovsd %xmm1, (%rax) movq 30720(%rbx), %rax vmovsd %xmm14, (%rax) movq 30560(%rbx), %rax vmovaps 28928(%rbx), %ymm1 vmovsd %xmm1, (%rax) movq 30496(%rbx), %rax vmovsd %xmm7, (%rax) movq 30432(%rbx), %rax vmovaps 32704(%rbx), %xmm1 vmovsd %xmm1, (%rax) movq 30400(%rbx), %rax vmovsd %xmm4, (%rax) movq 30624(%rbx), %rax vmovaps 28960(%rbx), %ymm1 vmovsd %xmm1, (%rax) movq 30592(%rbx), %rax vmovaps 32672(%rbx), %xmm1 vmovsd %xmm1, (%rax) movq 30528(%rbx), %rax vmovaps 32864(%rbx), %xmm1 vmovsd %xmm1, (%rax) movq 30464(%rbx), %rax vmovaps 32800(%rbx), %xmm1 vmovsd %xmm1, (%rax) movq 30304(%rbx), %rax vmovaps 32320(%rbx), %ymm1 vmovsd %xmm1, (%rax) movq 30240(%rbx), %rax vmovaps 32832(%rbx), %xmm1 vmovsd %xmm1, (%rax) movq 30176(%rbx), %rax vmovaps 32928(%rbx), %xmm1 vmovsd %xmm1, (%rax) movq 30144(%rbx), %rax vmovaps 32896(%rbx), %xmm1 vmovsd %xmm1, (%rax) vmovsd 32224(%rbx), %xmm1 movq 30368(%rbx), %rax vmovsd %xmm1, (%rax) vmovsd 32256(%rbx), %xmm1 movq 30336(%rbx), %rax vmovsd %xmm1, (%rax) vmovsd 32160(%rbx), %xmm1 movq 30272(%rbx), %rax vmovsd %xmm1, (%rax) vmovsd 32192(%rbx), %xmm1 movq 30208(%rbx), %rax vmovsd %xmm1, (%rax) vmovsd 32032(%rbx), %xmm1 movq 30016(%rbx), %rax vmovsd %xmm1, (%rax) vmovsd 32128(%rbx), %xmm1 movq 29952(%rbx), %rax vmovsd %xmm1, (%rax) vmovsd 31936(%rbx), %xmm1 movq 29920(%rbx), %rax vmovsd %xmm1, (%rax) vmovsd 32064(%rbx), %xmm1 movq 29888(%rbx), %rax vmovsd %xmm1, (%rax) vmovsd 32000(%rbx), %xmm1 movq 30112(%rbx), %rax vmovsd %xmm1, (%rax) vmovsd 32096(%rbx), %xmm1 movq 30080(%rbx), %rax vmovsd %xmm1, (%rax) vmovsd 31904(%rbx), %xmm1 movq 30048(%rbx), %rax vmovsd %xmm1, (%rax) vmovsd 31968(%rbx), %xmm1 movq 29984(%rbx), %rax vmovsd %xmm1, (%rax) vmovsd 31776(%rbx), %xmm1 movq 29760(%rbx), %rax vmovsd %xmm1, (%rax) vmovsd 31872(%rbx), %xmm1 movq 29696(%rbx), %rax vmovsd %xmm1, (%rax) vmovsd 31712(%rbx), %xmm1 movq 29664(%rbx), %rax vmovsd %xmm1, (%rax) vmovsd 31808(%rbx), %xmm1 movq 29632(%rbx), %rax vmovsd %xmm1, (%rax) vmovsd 32480(%rbx), %xmm1 movq 29856(%rbx), %rax vmovsd %xmm1, (%rax) vmovsd 31840(%rbx), %xmm1 movq 29824(%rbx), %rax vmovsd %xmm1, (%rax) vmovsd 31680(%rbx), %xmm1 movq 29792(%rbx), %rax vmovsd %xmm1, (%rax) vmovsd 31744(%rbx), %xmm1 movq 29728(%rbx), %rax vmovsd %xmm1, (%rax) vmovsd 31552(%rbx), %xmm1 movq 29504(%rbx), %rax vmovsd %xmm1, (%rax) vmovsd 31648(%rbx), %xmm1 movq 29440(%rbx), %rax vmovsd %xmm1, (%rax) vmovsd 31424(%rbx), %xmm1 movq 29408(%rbx), %rax vmovsd %xmm1, (%rax) vmovsd 31584(%rbx), %xmm1 movq 29376(%rbx), %rax vmovsd %xmm1, (%rax) vmovsd 31520(%rbx), %xmm1 movq 29600(%rbx), %rax vmovsd %xmm1, (%rax) vmovsd 31616(%rbx), %xmm1 movq 29568(%rbx), %rax vmovsd %xmm1, (%rax) vmovsd 31392(%rbx), %xmm1 movq 29536(%rbx), %rax vmovsd %xmm1, (%rax) vmovsd 31488(%rbx), %xmm1 movq 29472(%rbx), %rax vmovsd %xmm1, (%rax) vmovsd 31296(%rbx), %xmm1 movq 29344(%rbx), %rax vmovsd %xmm1, (%rax) vmovsd 31360(%rbx), %xmm1 movq 29312(%rbx), %rax vmovsd %xmm1, (%rax) vmovsd 31264(%rbx), %xmm1 movq 29280(%rbx), %rax vmovsd %xmm1, (%rax) vmovsd 31328(%rbx), %xmm1 movq 29248(%rbx), %rax .LBB1_3457: vmovsd %xmm1, (%rax) .LBB1_3458: movl 26976(%rbx), %ecx testl %ecx, %ecx setne %al movzbl %al, %eax vmovd %eax, %xmm1 vpunpcklwd %xmm1, %xmm1, %xmm1 vpshufd $0, %xmm1, %xmm1 vpand %xmm1, %xmm0, %xmm3 decl %ecx movl %ecx, 26976(%rbx) movq 28608(%rbx), %rcx incq %rcx movl 26944(%rbx), %eax decl %eax jne .LBB1_2243 .LBB1_3459: movq 32792(%rbx), %r11 movq 31456(%rbx), %r12 vmovaps 1184(%r11,%r12), %ymm0 vmovaps 64(%r11,%r12), %ymm1 vextractf128 $1, %ymm1, %xmm2 vmovdqa .LCPI1_34(%rip), %xmm5 vpcmpgtd %xmm2, %xmm5, %xmm3 vandps .LCPI1_6(%rip), %ymm0, %ymm0 vextractf128 $1, %ymm0, %xmm2 vpxor %xmm6, %xmm6, %xmm6 vpcmpeqd %xmm6, %xmm2, %xmm2 vpcmpeqd %xmm7, %xmm7, %xmm7 vpxor %xmm7, %xmm2, %xmm2 vmovdqa .LCPI1_5(%rip), %xmm4 vpshufb %xmm4, %xmm3, %xmm3 vpcmpgtd %xmm1, %xmm5, %xmm1 vpshufb %xmm4, %xmm1, %xmm1 vmovlhps %xmm3, %xmm1, %xmm1 vpshufb %xmm4, %xmm2, %xmm2 vpcmpeqd %xmm6, %xmm0, %xmm0 vpxor %xmm7, %xmm0, %xmm0 vpshufb %xmm4, %xmm0, %xmm0 vmovlhps %xmm2, %xmm0, %xmm0 vandps %xmm0, %xmm1, %xmm10 vxorps .LCPI1_17(%rip), %xmm10, %xmm0 vpextrb $12, %xmm0, %eax movl %eax, 11776(%rbx) vpextrb $14, %xmm0, %eax movl %eax, 11744(%rbx) vpmovzxwd %xmm0, %xmm1 vpextrb $10, %xmm0, %eax movl %eax, 11808(%rbx) vpslld $31, %xmm1, %xmm1 vpextrb $0, %xmm0, %eax movl %eax, 11968(%rbx) vpextrb $2, %xmm0, %eax movl %eax, 11936(%rbx) vpextrb $4, %xmm0, %eax movl %eax, 11904(%rbx) vpextrb $6, %xmm0, %eax movl %eax, 11872(%rbx) vpextrb $8, %xmm0, %eax movl %eax, 11840(%rbx) vpsrad $31, %xmm1, %xmm1 vpunpckhwd %xmm0, %xmm0, %xmm0 vpslld $31, %xmm0, %xmm0 vpsrad $31, %xmm0, %xmm0 vinsertf128 $1, %xmm0, %ymm1, %ymm0 vmovdqa 11232(%rbx), %ymm1 vptest %ymm1, %ymm0 jb .LBB1_3460 vmovdqa 1088(%r12,%r11), %ymm0 vmovdqa 1120(%r12,%r11), %ymm2 vpextrq $1, %xmm0, %rax sarq $32, %rax vpextrq $1, %xmm2, %rcx sarq $32, %rcx vmovd %rcx, %xmm1 vmovd %xmm2, %rcx sarq $32, %rcx vmovd %rcx, %xmm3 vpunpcklqdq %xmm1, %xmm3, %xmm9 vmovd %rax, %xmm1 vmovd %xmm0, %rax sarq $32, %rax vmovd %rax, %xmm3 vpunpcklqdq %xmm1, %xmm3, %xmm12 vpsrlq $32, %xmm12, %xmm3 vmovdqa .LCPI1_46(%rip), %xmm4 vpsrlq $32, %xmm4, %xmm1 vpmuludq %xmm4, %xmm3, %xmm5 vpsrlq $32, %xmm9, %xmm3 vpmuludq %xmm1, %xmm12, %xmm6 vpsllq $32, %xmm6, %xmm6 vextractf128 $1, %ymm2, %xmm2 vmovd %xmm2, %rax vextractf128 $1, %ymm0, %xmm0 vpmuludq %xmm4, %xmm12, %xmm7 vpaddq %xmm6, %xmm7, %xmm7 vpmuludq %xmm4, %xmm3, %xmm8 vpmuludq %xmm1, %xmm9, %xmm3 vpsllq $32, %xmm3, %xmm3 vpsllq $32, %xmm5, %xmm5 vpextrq $1, %xmm0, %rcx sarq $32, %rax vpextrq $1, %xmm2, %rdx sarq $32, %rdx vpmuludq %xmm4, %xmm9, %xmm6 vpaddq %xmm5, %xmm7, %xmm2 vmovd %rdx, %xmm5 vpaddq %xmm3, %xmm6, %xmm7 vmovd %rax, %xmm3 vpunpcklqdq %xmm5, %xmm3, %xmm5 vpsllq $32, %xmm8, %xmm3 sarq $32, %rcx vmovd %rcx, %xmm6 vmovd %xmm0, %rax sarq $32, %rax vmovd %rax, %xmm0 vpunpcklqdq %xmm6, %xmm0, %xmm6 vpaddq %xmm3, %xmm7, %xmm8 vmovaps %xmm10, 12032(%rbx) vmovdqa .LCPI1_48(%rip), %xmm13 vpaddq %xmm13, %xmm2, %xmm0 vpextrq $1, %xmm0, %rsi vmovd %xmm0, %rdx vpmuludq %xmm1, %xmm5, %xmm0 vpsllq $32, %xmm0, %xmm0 vpmuludq %xmm4, %xmm5, %xmm3 vpaddq %xmm0, %xmm3, %xmm11 vpmuludq %xmm1, %xmm6, %xmm0 vpsllq $32, %xmm0, %xmm1 vpmuludq %xmm4, %xmm6, %xmm0 vpaddq %xmm1, %xmm0, %xmm1 vpsrlq $32, %xmm5, %xmm0 vpmuludq %xmm4, %xmm0, %xmm7 vpsrlq $32, %xmm6, %xmm0 vpmuludq %xmm4, %xmm0, %xmm3 vpaddq %xmm13, %xmm8, %xmm0 vpextrq $1, %xmm0, %rax vmovd %xmm0, %rdi vmovdqa .LCPI1_49(%rip), %xmm14 vpaddq %xmm14, %xmm2, %xmm0 vpextrq $1, %xmm0, %rcx vmovd %xmm0, %r9 vpaddq %xmm14, %xmm8, %xmm0 vpextrq $1, %xmm0, %r10 vmovd %xmm0, %r8 vpsllq $32, %xmm3, %xmm0 vpaddq %xmm0, %xmm1, %xmm10 vpsllq $32, %xmm7, %xmm0 vpaddq %xmm0, %xmm11, %xmm1 sarq $32, %rdx sarq $32, %rsi vinsertf128 $1, %xmm5, %ymm9, %ymm0 vmovaps %ymm0, 11680(%rbx) vinsertf128 $1, %xmm6, %ymm12, %ymm0 vmovaps %ymm0, 11712(%rbx) vmovdqa .LCPI1_47(%rip), %xmm4 vmovdqa %xmm4, %xmm11 vpaddq %xmm11, %xmm8, %xmm0 vpextrq $1, %xmm0, %r14 vmovd %rsi, %xmm3 vmovd %xmm0, %r13 vmovd %rdx, %xmm0 vpunpcklqdq %xmm3, %xmm0, %xmm0 vmovdqa %ymm0, 32992(%rbx) sarq $32, %rdi sarq $32, %rax vmovdqa .LCPI1_50(%rip), %xmm5 vpaddq %xmm5, %xmm2, %xmm0 vpextrq $1, %xmm0, %r15 vmovd %rax, %xmm3 vmovd %xmm0, %rsi vmovd %rdi, %xmm0 vpunpcklqdq %xmm3, %xmm0, %xmm0 vmovdqa %ymm0, 32960(%rbx) sarq $32, %r9 sarq $32, %rcx vpaddq %xmm5, %xmm8, %xmm0 vpextrq $1, %xmm0, %rdx vmovd %rcx, %xmm3 vmovd %xmm0, %rcx vmovd %r9, %xmm0 vpunpcklqdq %xmm3, %xmm0, %xmm0 vmovdqa %ymm0, 32928(%rbx) sarq $32, %r8 sarq $32, %r10 vpaddq %xmm11, %xmm2, %xmm0 vpextrq $1, %xmm0, %r9 vmovd %r10, %xmm3 vmovd %xmm0, %rdi vmovd %r8, %xmm0 vpunpcklqdq %xmm3, %xmm0, %xmm0 vmovdqa %ymm0, 32896(%rbx) sarq $32, %r13 sarq $32, %r14 vmovdqa .LCPI1_53(%rip), %xmm7 vpaddq %xmm7, %xmm2, %xmm0 vpextrq $1, %xmm0, %r10 vmovd %r14, %xmm3 vmovd %xmm0, %r14 vmovd %r13, %xmm0 vpunpcklqdq %xmm3, %xmm0, %xmm0 vmovdqa %ymm0, 32864(%rbx) sarq $32, %rsi sarq $32, %r15 vpaddq %xmm7, %xmm8, %xmm0 vpextrq $1, %xmm0, %r8 vmovd %r15, %xmm3 vmovd %xmm0, %r15 vmovd %rsi, %xmm0 vpunpcklqdq %xmm3, %xmm0, %xmm0 vmovdqa %ymm0, 32832(%rbx) sarq $32, %rcx sarq $32, %rdx vmovd %rdx, %xmm0 vmovd %rcx, %xmm3 vpunpcklqdq %xmm0, %xmm3, %xmm0 vmovdqa %ymm0, 32800(%rbx) vmovd %xmm2, %rax sarq $32, %rax vpextrq $1, %xmm2, %rcx sarq $32, %rcx vmovdqa .LCPI1_54(%rip), %xmm4 vpaddq %xmm4, %xmm2, %xmm0 vpextrq $1, %xmm0, %rsi vmovd %rcx, %xmm3 vmovd %xmm0, %rdx vmovd %rax, %xmm0 vpunpcklqdq %xmm3, %xmm0, %xmm0 vmovdqa %ymm0, 32704(%rbx) sarq $32, %rdi sarq $32, %r9 vpaddq %xmm4, %xmm8, %xmm0 vpextrq $1, %xmm0, %rcx vmovd %r9, %xmm3 vmovd %xmm0, %rax vmovd %rdi, %xmm0 vpunpcklqdq %xmm3, %xmm0, %xmm0 vmovdqa %ymm0, 32672(%rbx) sarq $32, %r14 sarq $32, %r10 vmovdqa .LCPI1_51(%rip), %xmm6 vpaddq %xmm6, %xmm2, %xmm0 vpextrq $1, %xmm0, %r9 vmovd %r10, %xmm3 vmovd %xmm0, %rdi vmovd %r14, %xmm0 vpunpcklqdq %xmm3, %xmm0, %xmm0 vmovdqa %ymm0, 32736(%rbx) sarq $32, %r15 sarq $32, %r8 vpaddq %xmm6, %xmm8, %xmm0 vpextrq $1, %xmm0, %r10 vmovd %r8, %xmm3 vmovd %xmm0, %r8 vmovd %r15, %xmm0 vpunpcklqdq %xmm3, %xmm0, %xmm0 vmovdqa %ymm0, 32640(%rbx) sarq $32, %rdx sarq $32, %rsi vmovdqa .LCPI1_52(%rip), %xmm3 vpaddq %xmm3, %xmm2, %xmm0 vpextrq $1, %xmm0, %r15 vmovd %rsi, %xmm2 vmovd %xmm0, %rsi vmovd %rdx, %xmm0 vpunpcklqdq %xmm2, %xmm0, %xmm0 vmovdqa %ymm0, 32576(%rbx) sarq $32, %rax sarq $32, %rcx vpaddq %xmm3, %xmm8, %xmm0 vpextrq $1, %xmm0, %rdx vmovd %rcx, %xmm2 vmovd %xmm0, %rcx vmovd %rax, %xmm0 vpunpcklqdq %xmm2, %xmm0, %xmm0 vmovdqa %ymm0, 32512(%rbx) sarq $32, %rdi sarq $32, %r9 vpaddq %xmm6, %xmm10, %xmm0 vpextrq $1, %xmm0, %r14 vmovd %r9, %xmm2 vmovd %xmm0, %r13 vmovd %rdi, %xmm0 vpunpcklqdq %xmm2, %xmm0, %xmm0 vmovdqa %ymm0, 32544(%rbx) sarq $32, %r8 sarq $32, %r10 vpaddq %xmm6, %xmm1, %xmm0 vpextrq $1, %xmm0, %r9 vmovd %r10, %xmm2 vmovd %xmm0, %rdi vmovd %r8, %xmm0 vpunpcklqdq %xmm2, %xmm0, %xmm0 vmovdqa %ymm0, 32480(%rbx) sarq $32, %rsi sarq $32, %r15 vpaddq %xmm3, %xmm10, %xmm0 vpextrq $1, %xmm0, %r10 vmovd %r15, %xmm2 vmovd %xmm0, %r8 vmovd %rsi, %xmm0 vpunpcklqdq %xmm2, %xmm0, %xmm0 vmovdqa %ymm0, 32448(%rbx) sarq $32, %rcx sarq $32, %rdx vpaddq %xmm3, %xmm1, %xmm0 vpextrq $1, %xmm0, %rsi vmovd %rdx, %xmm2 vmovd %xmm0, %rdx vmovd %rcx, %xmm0 vpunpcklqdq %xmm2, %xmm0, %xmm0 vmovdqa %ymm0, 32416(%rbx) sarq $32, %r13 sarq $32, %r14 vpaddq %xmm7, %xmm10, %xmm0 vpextrq $1, %xmm0, %rax vmovd %r14, %xmm2 vmovd %xmm0, %rcx vmovd %r13, %xmm0 vpunpcklqdq %xmm2, %xmm0, %xmm0 vmovdqa %xmm0, 32384(%rbx) sarq $32, %rdi sarq $32, %r9 vpaddq %xmm7, %xmm1, %xmm0 vpextrq $1, %xmm0, %r14 vmovd %r9, %xmm2 vmovd %xmm0, %r13 vmovd %rdi, %xmm0 vpunpcklqdq %xmm2, %xmm0, %xmm0 vmovdqa %xmm0, 32352(%rbx) sarq $32, %r8 sarq $32, %r10 vpaddq %xmm4, %xmm10, %xmm0 vpextrq $1, %xmm0, %r9 vmovd %r10, %xmm2 vmovd %xmm0, %rdi vmovd %r8, %xmm0 vpunpcklqdq %xmm2, %xmm0, %xmm0 vmovdqa %xmm0, 32320(%rbx) sarq $32, %rdx sarq $32, %rsi vpaddq %xmm4, %xmm1, %xmm0 vpextrq $1, %xmm0, %r8 vmovd %rsi, %xmm2 vmovd %xmm0, %rsi vmovd %rdx, %xmm0 vpunpcklqdq %xmm2, %xmm0, %xmm0 vmovdqa %xmm0, 32288(%rbx) sarq $32, %rcx sarq $32, %rax vpaddq %xmm13, %xmm10, %xmm0 vpextrq $1, %xmm0, %r15 vmovd %rax, %xmm2 vmovd %xmm0, %rdx vmovd %rcx, %xmm0 vpunpcklqdq %xmm2, %xmm0, %xmm0 vmovdqa %xmm0, 32256(%rbx) sarq $32, %r13 sarq $32, %r14 vpaddq %xmm13, %xmm1, %xmm0 vpextrq $1, %xmm0, %rcx vmovd %r14, %xmm2 vmovd %xmm0, %rax vmovd %r13, %xmm0 vpunpcklqdq %xmm2, %xmm0, %xmm12 sarq $32, %rdi sarq $32, %r9 vpaddq %xmm14, %xmm10, %xmm0 vpextrq $1, %xmm0, %r10 vmovd %r9, %xmm2 vmovd %xmm0, %r14 vmovd %rdi, %xmm0 vpunpcklqdq %xmm2, %xmm0, %xmm13 sarq $32, %rsi sarq $32, %r8 vpaddq %xmm14, %xmm1, %xmm0 vpextrq $1, %xmm0, %r13 vmovd %r8, %xmm2 vmovd %xmm0, %rdi vmovd %rsi, %xmm0 vpunpcklqdq %xmm2, %xmm0, %xmm14 sarq $32, %rdx sarq $32, %r15 vpaddq %xmm11, %xmm10, %xmm0 vmovd %xmm0, %r8 vmovd %r15, %xmm2 vpextrq $1, %xmm0, %rsi vmovd %rdx, %xmm0 vpunpcklqdq %xmm2, %xmm0, %xmm15 sarq $32, %rax sarq $32, %rcx vmovd %rcx, %xmm0 vmovd %rax, %xmm2 vpunpcklqdq %xmm0, %xmm2, %xmm9 vpaddq %xmm11, %xmm1, %xmm3 vpextrq $1, %xmm1, %rax movq %rax, 32224(%rbx) vmovd %xmm1, %r15 vpaddq %xmm5, %xmm1, %xmm4 sarq $32, %r14 sarq $32, %r10 vpaddq %xmm5, %xmm10, %xmm2 vpextrq $1, %xmm10, %r9 vmovd %r10, %xmm0 vmovd %xmm10, %r10 vmovd %r14, %xmm1 vpunpcklqdq %xmm0, %xmm1, %xmm10 sarq $32, %rdi sarq $32, %r13 vmovd %xmm4, %rcx vmovd %r13, %xmm0 vpextrq $1, %xmm4, %rax vmovd %rdi, %xmm1 vpunpcklqdq %xmm0, %xmm1, %xmm11 sarq $32, %r8 sarq $32, %rsi vmovd %xmm2, %rdi vmovd %rsi, %xmm0 vpextrq $1, %xmm2, %rsi vmovd %r8, %xmm1 vpunpcklqdq %xmm0, %xmm1, %xmm2 vpextrq $1, %xmm3, %rdx sarq $32, %rdx vmovd %rdx, %xmm0 vmovd %xmm3, %rdx sarq $32, %rdx vmovd %rdx, %xmm1 vpunpcklqdq %xmm0, %xmm1, %xmm3 sarq $32, %rdi sarq $32, %rsi vmovd %rsi, %xmm0 vmovd %rdi, %xmm1 vpunpcklqdq %xmm0, %xmm1, %xmm4 sarq $32, %rcx sarq $32, %rax vmovd %rax, %xmm0 vmovd %rcx, %xmm1 vpunpcklqdq %xmm0, %xmm1, %xmm5 sarq $32, %r10 sarq $32, %r9 vmovd %r9, %xmm0 vmovd %r10, %xmm1 vpunpcklqdq %xmm0, %xmm1, %xmm6 sarq $32, %r15 movq 32224(%rbx), %rax sarq $32, %rax vmovd %rax, %xmm0 vmovd %r15, %xmm1 vpunpcklqdq %xmm0, %xmm1, %xmm0 vpextrq $1, %xmm8, %rcx vmovd %xmm8, %rax sarq $32, %rax sarq $32, %rcx vmovd %rcx, %xmm1 vmovd %rax, %xmm7 vpunpcklqdq %xmm1, %xmm7, %xmm1 vinsertf128 $1, %xmm0, %ymm1, %ymm0 vmovaps %ymm0, 12416(%rbx) vmovaps 32704(%rbx), %ymm0 vinsertf128 $1, %xmm6, %ymm0, %ymm0 vmovaps %ymm0, 12384(%rbx) vmovaps 32800(%rbx), %ymm0 vinsertf128 $1, %xmm5, %ymm0, %ymm0 vmovaps %ymm0, 15136(%rbx) vmovaps 32832(%rbx), %ymm0 vinsertf128 $1, %xmm4, %ymm0, %ymm0 vmovaps %ymm0, 13696(%rbx) vmovaps 32864(%rbx), %ymm0 vinsertf128 $1, %xmm3, %ymm0, %ymm0 vmovaps %ymm0, 15104(%rbx) vmovaps 32672(%rbx), %ymm0 vinsertf128 $1, %xmm2, %ymm0, %ymm0 vmovaps %ymm0, 13664(%rbx) vmovaps 32896(%rbx), %ymm0 vinsertf128 $1, %xmm11, %ymm0, %ymm0 vmovaps %ymm0, 15072(%rbx) vmovaps 32928(%rbx), %ymm0 vinsertf128 $1, %xmm10, %ymm0, %ymm0 vmovaps %ymm0, 13632(%rbx) vmovaps 32960(%rbx), %ymm0 vinsertf128 $1, %xmm9, %ymm0, %ymm0 vmovaps %ymm0, 15040(%rbx) vmovaps 32992(%rbx), %ymm0 vinsertf128 $1, %xmm15, %ymm0, %ymm0 vmovaps %ymm0, 13600(%rbx) vmovaps 32512(%rbx), %ymm0 vinsertf128 $1, %xmm14, %ymm0, %ymm0 vmovaps %ymm0, 15008(%rbx) vmovaps 32576(%rbx), %ymm0 vinsertf128 $1, %xmm13, %ymm0, %ymm0 vmovaps %ymm0, 13568(%rbx) vmovaps 32640(%rbx), %ymm0 vinsertf128 $1, %xmm12, %ymm0, %ymm0 vmovaps %ymm0, 14976(%rbx) vmovaps 32736(%rbx), %ymm0 vinsertf128 $1, 32256(%rbx), %ymm0, %ymm0 vmovaps %ymm0, 13536(%rbx) vmovaps 32416(%rbx), %ymm0 vinsertf128 $1, 32288(%rbx), %ymm0, %ymm0 vmovaps %ymm0, 14944(%rbx) vmovaps 32448(%rbx), %ymm0 vinsertf128 $1, 32320(%rbx), %ymm0, %ymm0 vmovaps %ymm0, 13504(%rbx) vmovaps 32480(%rbx), %ymm0 vinsertf128 $1, 32352(%rbx), %ymm0, %ymm0 vmovaps %ymm0, 14912(%rbx) vmovaps 32544(%rbx), %ymm0 vinsertf128 $1, 32384(%rbx), %ymm0, %ymm0 vmovaps %ymm0, 13472(%rbx) leaq 10936(%r11,%r12), %rax movq %rax, 15200(%rbx) movl $1, %ecx movl $2, %edx leaq 10808(%r11,%r12), %rax movq %rax, 15328(%rbx) leaq 10680(%r11,%r12), %rax movq %rax, 15520(%rbx) leaq 10552(%r11,%r12), %rax movq %rax, 15648(%rbx) leaq 10424(%r11,%r12), %rax movq %rax, 21728(%rbx) leaq 10296(%r11,%r12), %rax movq %rax, 21984(%rbx) leaq 10168(%r11,%r12), %rax movq %rax, 16160(%rbx) leaq 10040(%r11,%r12), %rax movq %rax, 16576(%rbx) leaq 10928(%r11,%r12), %rax movq %rax, 13792(%rbx) leaq 10800(%r11,%r12), %rax movq %rax, 15296(%rbx) leaq 10672(%r11,%r12), %rax movq %rax, 21056(%rbx) leaq 10544(%r11,%r12), %rax movq %rax, 15616(%rbx) leaq 10416(%r11,%r12), %rax movq %rax, 21712(%rbx) leaq 10288(%r11,%r12), %rax movq %rax, 15968(%rbx) leaq 10160(%r11,%r12), %rax movq %rax, 22304(%rbx) leaq 10032(%r11,%r12), %rax movq %rax, 16544(%rbx) leaq 10920(%r11,%r12), %rax movq %rax, 13760(%rbx) leaq 10792(%r11,%r12), %rax movq %rax, 20736(%rbx) leaq 10664(%r11,%r12), %rax movq %rax, 21024(%rbx) leaq 10536(%r11,%r12), %rax movq %rax, 21440(%rbx) leaq 10408(%r11,%r12), %rax movq %rax, 21696(%rbx) leaq 10280(%r11,%r12), %rax movq %rax, 15936(%rbx) leaq 10152(%r11,%r12), %rax movq %rax, 16128(%rbx) leaq 10024(%r11,%r12), %rax movq %rax, 16512(%rbx) leaq 10912(%r11,%r12), %rax movq %rax, 15168(%rbx) leaq 10784(%r11,%r12), %rax movq %rax, 20704(%rbx) leaq 10656(%r11,%r12), %rax movq %rax, 20992(%rbx) leaq 10528(%r11,%r12), %rax movq %rax, 21408(%rbx) leaq 10400(%r11,%r12), %rax movq %rax, 21680(%rbx) leaq 10272(%r11,%r12), %rax movq %rax, 21952(%rbx) leaq 10144(%r11,%r12), %rax movq %rax, 22272(%rbx) leaq 10016(%r11,%r12), %rax movq %rax, 16480(%rbx) leaq 10904(%r11,%r12), %rax movq %rax, 13728(%rbx) leaq 10776(%r11,%r12), %rax movq %rax, 20672(%rbx) leaq 10648(%r11,%r12), %rax movq %rax, 15488(%rbx) leaq 10520(%r11,%r12), %rax movq %rax, 21376(%rbx) leaq 10392(%r11,%r12), %rax movq %rax, 15776(%rbx) leaq 10264(%r11,%r12), %rax movq %rax, 21920(%rbx) leaq 10136(%r11,%r12), %rax movq %rax, 22240(%rbx) leaq 10008(%r11,%r12), %rax movq %rax, 16448(%rbx) leaq 10896(%r11,%r12), %rax movq %rax, 20352(%rbx) leaq 10768(%r11,%r12), %rax movq %rax, 20640(%rbx) leaq 10640(%r11,%r12), %rax movq %rax, 20960(%rbx) leaq 10512(%r11,%r12), %rax movq %rax, 21344(%rbx) leaq 10384(%r11,%r12), %rax movq %rax, 21664(%rbx) leaq 10256(%r11,%r12), %rax movq %rax, 21888(%rbx) leaq 10128(%r11,%r12), %rax movq %rax, 22208(%rbx) leaq 10000(%r11,%r12), %rax movq %rax, 16416(%rbx) leaq 10888(%r11,%r12), %rax movq %rax, 20320(%rbx) leaq 10760(%r11,%r12), %rax movq %rax, 15264(%rbx) leaq 10632(%r11,%r12), %rax movq %rax, 15456(%rbx) leaq 10504(%r11,%r12), %rax movq %rax, 21312(%rbx) leaq 10376(%r11,%r12), %rax movq %rax, 15744(%rbx) leaq 10248(%r11,%r12), %rax movq %rax, 21856(%rbx) leaq 10120(%r11,%r12), %rax movq %rax, 16096(%rbx) leaq 9992(%r11,%r12), %rax movq %rax, 16384(%rbx) leaq 10880(%r11,%r12), %rax movq %rax, 20288(%rbx) leaq 10752(%r11,%r12), %rax movq %rax, 20608(%rbx) leaq 10624(%r11,%r12), %rax movq %rax, 20928(%rbx) leaq 10496(%r11,%r12), %rax movq %rax, 21280(%rbx) leaq 10368(%r11,%r12), %rax movq %rax, 21632(%rbx) leaq 10240(%r11,%r12), %rax movq %rax, 15904(%rbx) leaq 10112(%r11,%r12), %rax movq %rax, 16064(%rbx) leaq 9984(%r11,%r12), %rax movq %rax, 16352(%rbx) leaq 10872(%r11,%r12), %rax movq %rax, 20256(%rbx) leaq 10744(%r11,%r12), %rax movq %rax, 15232(%rbx) leaq 10616(%r11,%r12), %rax movq %rax, 15424(%rbx) leaq 10488(%r11,%r12), %rax movq %rax, 21248(%rbx) leaq 10360(%r11,%r12), %rax movq %rax, 15712(%rbx) leaq 10232(%r11,%r12), %rax movq %rax, 15872(%rbx) leaq 10104(%r11,%r12), %rax movq %rax, 22176(%rbx) leaq 9976(%r11,%r12), %rax movq %rax, 16320(%rbx) leaq 10864(%r11,%r12), %rax movq %rax, 20224(%rbx) leaq 10736(%r11,%r12), %rax movq %rax, 20576(%rbx) leaq 10608(%r11,%r12), %rax movq %rax, 20896(%rbx) leaq 10480(%r11,%r12), %rax movq %rax, 21216(%rbx) leaq 10352(%r11,%r12), %rax movq %rax, 21600(%rbx) leaq 10224(%r11,%r12), %rax movq %rax, 21824(%rbx) leaq 10096(%r11,%r12), %rax movq %rax, 22144(%rbx) leaq 9968(%r11,%r12), %rax movq %rax, 16288(%rbx) leaq 10856(%r11,%r12), %rax movq %rax, 20160(%rbx) leaq 10728(%r11,%r12), %rax movq %rax, 20512(%rbx) leaq 10600(%r11,%r12), %rax movq %rax, 20832(%rbx) leaq 10472(%r11,%r12), %rax movq %rax, 21152(%rbx) leaq 10344(%r11,%r12), %rax movq %rax, 24800(%rbx) leaq 10216(%r11,%r12), %rax movq %rax, 15840(%rbx) leaq 10088(%r11,%r12), %rax movq %rax, 16032(%rbx) leaq 9960(%r11,%r12), %rax movq %rax, 16256(%rbx) leaq 10848(%r11,%r12), %rax movq %rax, 20096(%rbx) leaq 10720(%r11,%r12), %rax movq %rax, 20448(%rbx) leaq 10592(%r11,%r12), %rax movq %rax, 15392(%rbx) leaq 10464(%r11,%r12), %rax movq %rax, 15584(%rbx) leaq 10336(%r11,%r12), %rax movq %rax, 21504(%rbx) leaq 10208(%r11,%r12), %rax movq %rax, 15808(%rbx) leaq 10080(%r11,%r12), %rax movq %rax, 16000(%rbx) leaq 9952(%r11,%r12), %rax movq %rax, 16224(%rbx) leaq 10840(%r11,%r12), %rax movq %rax, 26272(%rbx) leaq 10712(%r11,%r12), %rax movq %rax, 26368(%rbx) leaq 10584(%r11,%r12), %rax movq %rax, 26496(%rbx) leaq 10456(%r11,%r12), %rax movq %rax, 24704(%rbx) leaq 10328(%r11,%r12), %rax movq %rax, 26656(%rbx) leaq 10200(%r11,%r12), %rax movq %rax, 26752(%rbx) leaq 10072(%r11,%r12), %rax movq %rax, 24864(%rbx) leaq 9944(%r11,%r12), %rax movq %rax, 24896(%rbx) leaq 10832(%r11,%r12), %rax movq %rax, 20032(%rbx) leaq 10704(%r11,%r12), %rax movq %rax, 20384(%rbx) leaq 10576(%r11,%r12), %rax movq %rax, 15360(%rbx) leaq 10448(%r11,%r12), %rax movq %rax, 15552(%rbx) leaq 10320(%r11,%r12), %rax movq %rax, 15680(%rbx) leaq 10192(%r11,%r12), %rax movq %rax, 21744(%rbx) leaq 10064(%r11,%r12), %rax movq %rax, 22016(%rbx) leaq 9936(%r11,%r12), %rax movq %rax, 16192(%rbx) leaq 11864(%r11,%r12), %rax movq %rax, 20064(%rbx) leaq 11736(%r11,%r12), %rax movq %rax, 20416(%rbx) leaq 11608(%r11,%r12), %rax movq %rax, 20768(%rbx) leaq 11480(%r11,%r12), %rax movq %rax, 21088(%rbx) leaq 11352(%r11,%r12), %rax movq %rax, 21472(%rbx) leaq 11224(%r11,%r12), %rax movq %rax, 21760(%rbx) leaq 11096(%r11,%r12), %rax movq %rax, 22048(%rbx) leaq 10968(%r11,%r12), %rax movq %rax, 22336(%rbx) leaq 11856(%r11,%r12), %rax movq %rax, 24544(%rbx) leaq 11728(%r11,%r12), %rax movq %rax, 26336(%rbx) leaq 11600(%r11,%r12), %rax movq %rax, 26464(%rbx) leaq 11472(%r11,%r12), %rax movq %rax, 26592(%rbx) leaq 11344(%r11,%r12), %rax movq %rax, 26624(%rbx) leaq 11216(%r11,%r12), %rax movq %rax, 26720(%rbx) leaq 11088(%r11,%r12), %rax movq %rax, 26816(%rbx) leaq 10960(%r11,%r12), %rax movq %rax, 26880(%rbx) leaq 11936(%r11,%r12), %rax movq %rax, 20128(%rbx) leaq 11808(%r11,%r12), %rax movq %rax, 20480(%rbx) leaq 11680(%r11,%r12), %rax movq %rax, 20800(%rbx) leaq 11552(%r11,%r12), %rax movq %rax, 21120(%rbx) leaq 11424(%r11,%r12), %rax movq %rax, 21536(%rbx) leaq 11296(%r11,%r12), %rax movq %rax, 21776(%rbx) leaq 11168(%r11,%r12), %rax movq %rax, 22080(%rbx) leaq 11040(%r11,%r12), %rax movq %rax, 22368(%rbx) leaq 11904(%r11,%r12), %rax movq %rax, 24576(%rbx) leaq 11776(%r11,%r12), %rax movq %rax, 26400(%rbx) leaq 11648(%r11,%r12), %rax movq %rax, 26528(%rbx) leaq 11520(%r11,%r12), %rax movq %rax, 24736(%rbx) leaq 11392(%r11,%r12), %rax movq %rax, 26688(%rbx) leaq 11264(%r11,%r12), %rax movq %rax, 26784(%rbx) leaq 11136(%r11,%r12), %rax movq %rax, 26848(%rbx) leaq 11008(%r11,%r12), %rax movq %rax, 26912(%rbx) leaq 11872(%r11,%r12), %rax movq %rax, 20192(%rbx) leaq 11744(%r11,%r12), %rax movq %rax, 20544(%rbx) leaq 11616(%r11,%r12), %rax movq %rax, 20864(%rbx) leaq 11488(%r11,%r12), %rax movq %rax, 21184(%rbx) leaq 11360(%r11,%r12), %rax movq %rax, 21568(%rbx) leaq 11232(%r11,%r12), %rax movq %rax, 21792(%rbx) leaq 11104(%r11,%r12), %rax movq %rax, 22112(%rbx) leaq 10976(%r11,%r12), %rax movq %rax, 22400(%rbx) leaq 11848(%r11,%r12), %rax movq %rax, 26176(%rbx) leaq 11720(%r11,%r12), %rax movq %rax, 26208(%rbx) leaq 11592(%r11,%r12), %rax movq %rax, 26240(%rbx) leaq 11464(%r11,%r12), %rax movq %rax, 24608(%rbx) leaq 11336(%r11,%r12), %rax movq %rax, 24640(%rbx) leaq 11208(%r11,%r12), %rax movq %rax, 24672(%rbx) leaq 11080(%r11,%r12), %rax movq %rax, 24768(%rbx) leaq 10952(%r11,%r12), %rax movq %rax, 24832(%rbx) leaq 11840(%r11,%r12), %rax movq %rax, 26304(%rbx) leaq 11712(%r11,%r12), %rax movq %rax, 26432(%rbx) leaq 11584(%r11,%r12), %rax movq %rax, 26560(%rbx) leaq 11456(%r11,%r12), %rax movq %rax, 31488(%rbx) leaq 11328(%r11,%r12), %rax movq %rax, 32480(%rbx) leaq 11200(%r11,%r12), %rax movq %rax, 31520(%rbx) leaq 11072(%r11,%r12), %rax movq %rax, 32064(%rbx) leaq 10944(%r11,%r12), %rax movq %rax, 32640(%rbx) leaq 11960(%r12,%r11), %rax movq %rax, 31072(%rbx) leaq 11832(%r12,%r11), %rax movq %rax, 31168(%rbx) leaq 11704(%r12,%r11), %rax movq %rax, 32032(%rbx) leaq 11576(%r12,%r11), %rax movq %rax, 32000(%rbx) leaq 11448(%r12,%r11), %rax movq %rax, 31232(%rbx) leaq 11320(%r12,%r11), %rax movq %rax, 31200(%rbx) leaq 11192(%r12,%r11), %rax movq %rax, 31296(%rbx) leaq 11064(%r12,%r11), %rax movq %rax, 31264(%rbx) leaq 11952(%r12,%r11), %rax movq %rax, 22816(%rbx) leaq 11824(%r12,%r11), %rax movq %rax, 22784(%rbx) leaq 11696(%r12,%r11), %rax movq %rax, 22656(%rbx) leaq 11568(%r12,%r11), %rax movq %rax, 22624(%rbx) leaq 11440(%r12,%r11), %rax movq %rax, 22720(%rbx) leaq 11312(%r12,%r11), %rax movq %rax, 22688(%rbx) leaq 11184(%r12,%r11), %rax movq %rax, 22752(%rbx) leaq 11056(%r12,%r11), %rax movq %rax, 16608(%rbx) leaq 11944(%r12,%r11), %rax movq %rax, 14176(%rbx) leaq 11816(%r12,%r11), %rax movq %rax, 14144(%rbx) leaq 11688(%r12,%r11), %rax movq %rax, 14240(%rbx) leaq 11560(%r12,%r11), %rax movq %rax, 14208(%rbx) leaq 11432(%r12,%r11), %rax movq %rax, 14080(%rbx) leaq 11304(%r12,%r11), %rax movq %rax, 14048(%rbx) leaq 11176(%r12,%r11), %rax movq %rax, 14112(%rbx) leaq 11048(%r12,%r11), %rax movq %rax, 24352(%rbx) leaq 11928(%r12,%r11), %rax movq %rax, 32224(%rbx) leaq 11800(%r12,%r11), %rax movq %rax, 32192(%rbx) leaq 11672(%r12,%r11), %rax movq %rax, 32544(%rbx) leaq 11544(%r12,%r11), %rax movq %rax, 32160(%rbx) leaq 11416(%r12,%r11), %rax movq %rax, 31776(%rbx) leaq 11288(%r12,%r11), %rax movq %rax, 31712(%rbx) leaq 11160(%r12,%r11), %rax movq %rax, 31744(%rbx) leaq 11032(%r12,%r11), %rax movq %rax, 31040(%rbx) leaq 11920(%r12,%r11), %rax movq %rax, 31968(%rbx) leaq 11792(%r12,%r11), %rax movq %rax, 31680(%rbx) leaq 11664(%r12,%r11), %rax movq %rax, 31936(%rbx) leaq 11536(%r12,%r11), %rax movq %rax, 31904(%rbx) leaq 11408(%r12,%r11), %rax movq %rax, 31648(%rbx) leaq 11280(%r12,%r11), %rax movq %rax, 31616(%rbx) leaq 11152(%r12,%r11), %rax movq %rax, 31584(%rbx) leaq 11024(%r12,%r11), %rax movq %rax, 31552(%rbx) leaq 11912(%r12,%r11), %rax movq %rax, 13952(%rbx) leaq 11784(%r12,%r11), %rax movq %rax, 24320(%rbx) leaq 11656(%r12,%r11), %rax movq %rax, 14016(%rbx) leaq 11528(%r12,%r11), %rax movq %rax, 13984(%rbx) leaq 11400(%r12,%r11), %rax movq %rax, 13888(%rbx) leaq 11272(%r12,%r11), %rax movq %rax, 13856(%rbx) leaq 11144(%r12,%r11), %rax movq %rax, 13920(%rbx) leaq 11016(%r12,%r11), %rax movq %rax, 16640(%rbx) leaq 11896(%r12,%r11), %rax movq %rax, 24224(%rbx) leaq 11768(%r12,%r11), %rax movq %rax, 24192(%rbx) leaq 11640(%r12,%r11), %rax movq %rax, 24288(%rbx) leaq 11512(%r12,%r11), %rax movq %rax, 24256(%rbx) leaq 11384(%r12,%r11), %rax movq %rax, 24096(%rbx) leaq 11256(%r12,%r11), %rax movq %rax, 24064(%rbx) leaq 11128(%r12,%r11), %rax movq %rax, 24160(%rbx) leaq 11000(%r12,%r11), %rax movq %rax, 24128(%rbx) leaq 11888(%r12,%r11), %rax movq %rax, 32384(%rbx) leaq 11760(%r12,%r11), %rax movq %rax, 32352(%rbx) leaq 11632(%r12,%r11), %rax movq %rax, 32320(%rbx) leaq 11504(%r12,%r11), %rax movq %rax, 32288(%rbx) leaq 11376(%r12,%r11), %rax movq %rax, 31872(%rbx) leaq 11248(%r12,%r11), %rax movq %rax, 31808(%rbx) leaq 11120(%r12,%r11), %rax movq %rax, 31840(%rbx) leaq 10992(%r12,%r11), %rax movq %rax, 31136(%rbx) leaq 11880(%r12,%r11), %rax movq %rax, 26016(%rbx) leaq 11752(%r12,%r11), %rax movq %rax, 25952(%rbx) leaq 11624(%r12,%r11), %rax movq %rax, 25984(%rbx) leaq 11496(%r12,%r11), %rax movq %rax, 25920(%rbx) leaq 11368(%r12,%r11), %rax movq %rax, 25888(%rbx) leaq 11240(%r12,%r11), %rax movq %rax, 25824(%rbx) leaq 11112(%r12,%r11), %rax movq %rax, 25856(%rbx) leaq 10984(%r12,%r11), %rax movq %rax, 25792(%rbx) leaq 10824(%r12,%r11), %rax movq %rax, 30912(%rbx) leaq 10696(%r12,%r11), %rax movq %rax, 30880(%rbx) leaq 10568(%r12,%r11), %rax movq %rax, 30944(%rbx) leaq 10440(%r12,%r11), %rax movq %rax, 30784(%rbx) leaq 10312(%r12,%r11), %rax movq %rax, 30560(%rbx) leaq 10184(%r12,%r11), %rax movq %rax, 30528(%rbx) leaq 10056(%r12,%r11), %rax movq %rax, 30624(%rbx) leaq 9928(%r12,%r11), %rax movq %rax, 30592(%rbx) leaq 10816(%r12,%r11), %rax movq %rax, 30976(%rbx) leaq 10688(%r12,%r11), %rax movq %rax, 30816(%rbx) leaq 10560(%r12,%r11), %rax movq %rax, 31008(%rbx) leaq 10432(%r12,%r11), %rax movq %rax, 30848(%rbx) leaq 10304(%r12,%r11), %rax movq %rax, 30688(%rbx) leaq 10176(%r12,%r11), %rax movq %rax, 30656(%rbx) leaq 10048(%r12,%r11), %rax movq %rax, 30752(%rbx) leaq 9920(%r12,%r11), %rax movq %rax, 30720(%rbx) vmovdqa 12032(%rbx), %xmm0 movq %rax, 25632(%rbx) movq %rax, 25600(%rbx) movq %rax, 25568(%rbx) movq %rax, 32576(%rbx) movq %rax, 25760(%rbx) movq %rax, 32704(%rbx) movq %rax, 25728(%rbx) movq %rax, 25696(%rbx) movq %rax, 23264(%rbx) movq %rax, 23232(%rbx) movq %rax, 23200(%rbx) movq %rax, 23168(%rbx) movq %rax, 23328(%rbx) movq %rax, 23296(%rbx) movq %rax, 23488(%rbx) movq %rax, 23456(%rbx) movq %rax, 24976(%rbx) movq %rax, 24928(%rbx) movq %rax, 25216(%rbx) movq %rax, 25184(%rbx) movq %rax, 25152(%rbx) movq %rax, 25136(%rbx) movq %rax, 25120(%rbx) movq %rax, 25088(%rbx) movq %rax, 25056(%rbx) movq %rax, 25040(%rbx) movq %rax, 24992(%rbx) movq %rax, 25392(%rbx) movq %rax, 25344(%rbx) movq %rax, 25312(%rbx) movq %rax, 25280(%rbx) movq %rax, 25248(%rbx) movq %rax, 25536(%rbx) movq %rax, 25504(%rbx) movq %rax, 25472(%rbx) movq %rax, 25456(%rbx) movq %rax, 25440(%rbx) movq %rax, 25408(%rbx) movq %rax, 32128(%rbx) movq %rax, 32672(%rbx) movq %rax, 23136(%rbx) movq %rax, 23104(%rbx) movq %rax, 23008(%rbx) movq %rax, 22976(%rbx) movq %rax, 23552(%rbx) movq %rax, 23520(%rbx) movq %rax, 23392(%rbx) movq %rax, 23360(%rbx) movq %rax, 22880(%rbx) movq %rax, 23744(%rbx) movq %rax, 23680(%rbx) movq %rax, 23648(%rbx) movq %rax, 23808(%rbx) movq %rax, 23776(%rbx) movq %rax, 23712(%rbx) movq %rax, 22848(%rbx) movq %rax, 32096(%rbx) movq %rax, 22592(%rbx) movq %rax, 22496(%rbx) movq %rax, 22464(%rbx) movq %rax, 25664(%rbx) movq %rax, 32416(%rbx) movq %rax, 22560(%rbx) movq %rax, 22528(%rbx) movq %rax, 31104(%rbx) movq %rax, 23904(%rbx) movq %rax, 23872(%rbx) movq %rax, 23840(%rbx) movq %rax, 24032(%rbx) movq %rax, 24000(%rbx) movq %rax, 23968(%rbx) movq %rax, 23936(%rbx) movq %rax, 23072(%rbx) movq %rax, 23040(%rbx) movq %rax, 22944(%rbx) movq %rax, 22912(%rbx) movq %rax, 23424(%rbx) movq %rax, 32256(%rbx) movq %rax, 23616(%rbx) movq %rax, 23584(%rbx) movq %rax, 30368(%rbx) movq %rax, 30336(%rbx) movq %rax, 30304(%rbx) movq %rax, 30272(%rbx) movq %rax, 30496(%rbx) movq %rax, 30464(%rbx) movq %rax, 30432(%rbx) movq %rax, 30400(%rbx) movq %rax, 28160(%rbx) movq %rax, 30112(%rbx) movq %rax, 30080(%rbx) movq %rax, 30048(%rbx) movq %rax, 30240(%rbx) movq %rax, 30208(%rbx) movq %rax, 30176(%rbx) movq %rax, 30144(%rbx) movq %rax, 29312(%rbx) movq %rax, 29280(%rbx) movq %rax, 29120(%rbx) movq %rax, 29088(%rbx) movq %rax, 29952(%rbx) movq %rax, 29920(%rbx) movq %rax, 29760(%rbx) movq %rax, 29728(%rbx) movq %rax, 29184(%rbx) movq %rax, 29152(%rbx) movq %rax, 29056(%rbx) movq %rax, 29024(%rbx) movq %rax, 29824(%rbx) movq %rax, 29792(%rbx) movq %rax, 29696(%rbx) movq %rax, 29664(%rbx) movq %rax, 29440(%rbx) movq %rax, 29408(%rbx) movq %rax, 29248(%rbx) movq %rax, 29216(%rbx) movq %rax, 30016(%rbx) movq %rax, 29984(%rbx) movq %rax, 29888(%rbx) movq %rax, 29856(%rbx) movq %rax, 28288(%rbx) movq %rax, 28256(%rbx) movq %rax, 28128(%rbx) movq %rax, 28096(%rbx) movq %rax, 29568(%rbx) movq %rax, 29536(%rbx) movq %rax, 29376(%rbx) movq %rax, 29344(%rbx) movq %rax, 28672(%rbx) movq %rax, 28640(%rbx) movq %rax, 28416(%rbx) movq %rax, 28384(%rbx) movq %rax, 28992(%rbx) movq %rax, 28960(%rbx) movq %rax, 28864(%rbx) movq %rax, 28832(%rbx) movq %rax, 28480(%rbx) movq %rax, 28448(%rbx) movq %rax, 28224(%rbx) movq %rax, 28192(%rbx) movq %rax, 29632(%rbx) movq %rax, 29600(%rbx) movq %rax, 29504(%rbx) movq %rax, 29472(%rbx) movq %rax, 27808(%rbx) movq %rax, 27776(%rbx) movq %rax, 27616(%rbx) movq %rax, 27584(%rbx) movq %rax, 28928(%rbx) movq %rax, 28896(%rbx) movq %rax, 28736(%rbx) movq %rax, 28704(%rbx) movq %rax, 27104(%rbx) movq %rax, 27072(%rbx) movq %rax, 26976(%rbx) movq %rax, 26944(%rbx) movq %rax, 28000(%rbx) movq %rax, 27968(%rbx) movq %rax, 27872(%rbx) movq %rax, 27840(%rbx) movq %rax, 28064(%rbx) movq %rax, 28032(%rbx) movq %rax, 27936(%rbx) movq %rax, 27904(%rbx) movq %rax, 28800(%rbx) movq %rax, 28768(%rbx) movq %rax, 28544(%rbx) movq %rax, 28512(%rbx) movq %rax, 27680(%rbx) movq %rax, 27648(%rbx) movq %rax, 27488(%rbx) movq %rax, 27456(%rbx) movq %rax, 28608(%rbx) movq %rax, 28576(%rbx) movq %rax, 28352(%rbx) movq %rax, 28320(%rbx) movq %rax, 27424(%rbx) movq %rax, 27392(%rbx) movq %rax, 27232(%rbx) movq %rax, 27200(%rbx) movq %rax, 27744(%rbx) movq %rax, 27712(%rbx) movq %rax, 27552(%rbx) movq %rax, 27520(%rbx) movq %rax, 27296(%rbx) movq %rax, 27264(%rbx) movq %rax, 27040(%rbx) movq %rax, 27008(%rbx) movq %rax, 27360(%rbx) movq %rax, 27328(%rbx) movq %rax, 27168(%rbx) movq %rax, 27136(%rbx) movl $0, %eax .align 16, 0x90 .LBB1_3620: vmovdqa %xmm0, 14848(%rbx) movl %edx, 13408(%rbx) movl %ecx, 13440(%rbx) vpunpckhwd %xmm0, %xmm0, %xmm3 vmovd %rax, %xmm1 vpmovzxwd %xmm0, %xmm2 vpslld $31, %xmm2, %xmm2 vmovlhps %xmm1, %xmm1, %xmm4 vpslld $31, %xmm3, %xmm1 vmovaps 12416(%rbx), %ymm6 vextractf128 $1, %ymm6, %xmm5 vpsrad $31, %xmm2, %xmm8 vpextrb $14, %xmm0, %ecx movl %ecx, 32960(%rbx) vmovaps 12384(%rbx), %ymm7 vextractf128 $1, %ymm7, %xmm3 vpextrb $10, %xmm0, %ecx movl %ecx, 32928(%rbx) vpsrad $31, %xmm1, %xmm2 vpaddq %xmm5, %xmm4, %xmm5 vpextrb $0, %xmm0, %ecx movl %ecx, 32736(%rbx) vpextrb $4, %xmm0, %ecx movl %ecx, 32800(%rbx) vinsertf128 $1, %xmm4, %ymm4, %ymm13 vpaddq %xmm7, %xmm4, %xmm1 vpaddq %xmm3, %xmm4, %xmm3 vpaddq %xmm6, %xmm4, %xmm4 vpextrb $2, %xmm0, %edx vpextrb $6, %xmm0, %r13d vpextrb $8, %xmm0, %ecx movl %ecx, 32896(%rbx) vpextrb $12, %xmm0, %r15d vpextrq $1, %xmm5, %r8 vmovd %xmm5, %r11 vinsertf128 $1, %xmm2, %ymm8, %ymm0 vpextrq $1, %xmm4, %r14 vmovd %xmm4, %rcx vpextrq $1, %xmm3, %r12 vmovd %xmm3, %r9 vpextrq $1, %xmm1, %r10 vmovd %xmm1, %rdi vmovdqa 12224(%rbx), %ymm1 vptest %ymm1, %ymm0 jb .LBB1_3621 movq %r8, 20000(%rbx) movl %edx, %r8d movq %rax, 14880(%rbx) vxorps %xmm0, %xmm0, %xmm0 movl 32736(%rbx), %eax testb $1, %al movl %eax, %esi vpxor %xmm1, %xmm1, %xmm1 je .LBB1_3624 vmovsd 33024(%rbx,%rdi,8), %xmm1 .LBB1_3624: testb $1, %r8b je .LBB1_3626 vmovsd 33024(%rbx,%r10,8), %xmm0 .LBB1_3626: movq %rdi, 14656(%rbx) vpxor %xmm2, %xmm2, %xmm2 movl 32800(%rbx), %eax testb $1, %al vxorpd %xmm3, %xmm3, %xmm3 je .LBB1_3628 vmovsd 33024(%rbx,%r9,8), %xmm3 .LBB1_3628: vmovapd %xmm3, 32448(%rbx) movq %r10, 14688(%rbx) testb $1, %r13b movl %r15d, %edi je .LBB1_3630 vmovsd 33024(%rbx,%r12,8), %xmm2 .LBB1_3630: vmovdqa %xmm2, 32512(%rbx) movq %r9, 14720(%rbx) vpxor %xmm2, %xmm2, %xmm2 movl 32896(%rbx), %eax testb $1, %al vxorpd %xmm3, %xmm3, %xmm3 je .LBB1_3632 vmovsd 33024(%rbx,%rcx,8), %xmm3 .LBB1_3632: movl 32928(%rbx), %eax testb $1, %al movl %r13d, %r9d je .LBB1_3634 vmovsd 33024(%rbx,%r14,8), %xmm2 .LBB1_3634: movq %r12, 14752(%rbx) vxorpd %xmm4, %xmm4, %xmm4 testb $1, %dil vxorpd %xmm5, %xmm5, %xmm5 movl %r8d, %r13d movq 20000(%rbx), %rdx je .LBB1_3636 vmovsd 33024(%rbx,%r11,8), %xmm5 .LBB1_3636: movq %rcx, 14784(%rbx) movl 32960(%rbx), %eax testb $1, %al je .LBB1_3638 vmovsd 33024(%rbx,%rdx,8), %xmm4 .LBB1_3638: vmovapd %xmm4, 31424(%rbx) vunpcklpd %xmm2, %xmm3, %xmm2 vmovapd %ymm2, 31360(%rbx) vmovdqa 13472(%rbx), %ymm3 vpaddq %xmm3, %xmm13, %xmm2 vunpcklpd %xmm0, %xmm1, %xmm0 vmovapd %ymm0, 31328(%rbx) vpextrq $1, %xmm2, %rax vextractf128 $1, %ymm3, %xmm0 vextractf128 $1, %ymm13, %xmm4 vpaddq %xmm0, %xmm4, %xmm3 vmovd %xmm2, %rcx leaq 33024(%rbx,%rcx,8), %rcx vxorps %xmm0, %xmm0, %xmm0 testb $1, %sil vxorpd %xmm1, %xmm1, %xmm1 je .LBB1_3640 vmovsd (%rcx), %xmm1 .LBB1_3640: movq %rcx, 18944(%rbx) movq %r14, 14816(%rbx) movq %r11, 19968(%rbx) vmovd %xmm3, %rcx leaq 33024(%rbx,%rax,8), %rax testb $1, %r13b je .LBB1_3642 vmovsd (%rax), %xmm0 .LBB1_3642: movq %rax, 18912(%rbx) vmovdqa 14912(%rbx), %ymm2 vpaddq %xmm2, %xmm13, %xmm2 vpextrq $1, %xmm3, %rax leaq 33024(%rbx,%rcx,8), %rcx vpxor %xmm9, %xmm9, %xmm9 movl 32800(%rbx), %edx testb $1, %dl vxorpd %xmm3, %xmm3, %xmm3 movl 32896(%rbx), %r11d movl %edi, %r8d je .LBB1_3644 vmovsd (%rcx), %xmm3 .LBB1_3644: vmovapd %xmm3, 26112(%rbx) vmovapd %xmm5, 31392(%rbx) movq %rcx, 18880(%rbx) vmovaps 14912(%rbx), %ymm3 vextractf128 $1, %ymm3, %xmm3 vextractf128 $1, %ymm13, %xmm7 vmovd %xmm2, %rcx leaq 33024(%rbx,%rax,8), %rax testb $1, %r9b movl 32928(%rbx), %r15d je .LBB1_3646 vmovsd (%rax), %xmm9 .LBB1_3646: movq %rax, 18848(%rbx) vpaddq %xmm3, %xmm7, %xmm5 vpextrq $1, %xmm2, %rax leaq 33024(%rbx,%rcx,8), %rcx vxorpd %xmm2, %xmm2, %xmm2 testb $1, %r11b vxorps %xmm3, %xmm3, %xmm3 je .LBB1_3648 vmovsd (%rcx), %xmm3 .LBB1_3648: movq %rcx, 18688(%rbx) vmovd %xmm5, %rcx leaq 33024(%rbx,%rax,8), %rax testb $1, %r15b movl 32960(%rbx), %edi movl %esi, %r14d je .LBB1_3650 vmovsd (%rax), %xmm2 .LBB1_3650: movq %rax, 18656(%rbx) vpextrq $1, %xmm5, %rax leaq 33024(%rbx,%rcx,8), %rcx vxorpd %xmm5, %xmm5, %xmm5 testb $1, %r8b vpxor %xmm8, %xmm8, %xmm8 movl %edx, %r10d je .LBB1_3652 vmovsd (%rcx), %xmm8 .LBB1_3652: movq %rcx, 18624(%rbx) leaq 33024(%rbx,%rax,8), %rax testb $1, %dil je .LBB1_3654 vmovsd (%rax), %xmm5 .LBB1_3654: vmovapd %xmm5, 26080(%rbx) movq %rax, 18592(%rbx) vunpcklpd %xmm2, %xmm3, %xmm2 vmovapd %ymm2, 24480(%rbx) vmovdqa 13504(%rbx), %ymm3 vpaddq %xmm3, %xmm13, %xmm2 vunpcklpd %xmm0, %xmm1, %xmm0 vmovapd %ymm0, 24448(%rbx) vpextrq $1, %xmm2, %rax vextractf128 $1, %ymm3, %xmm0 vpaddq %xmm0, %xmm4, %xmm1 vmovd %xmm2, %rcx leaq 33024(%rbx,%rcx,8), %rcx vxorpd %xmm5, %xmm5, %xmm5 testb $1, %r14b vxorps %xmm0, %xmm0, %xmm0 je .LBB1_3656 vmovsd (%rcx), %xmm0 .LBB1_3656: movq %rcx, 18816(%rbx) vmovd %xmm1, %rcx leaq 33024(%rbx,%rax,8), %rax testb $1, %r13b je .LBB1_3658 vmovsd (%rax), %xmm5 .LBB1_3658: movq %rax, 18784(%rbx) vmovdqa 14944(%rbx), %ymm2 vpaddq %xmm2, %xmm13, %xmm2 vpextrq $1, %xmm1, %rax leaq 33024(%rbx,%rcx,8), %rcx vpxor %xmm3, %xmm3, %xmm3 testb $1, %r10b vxorpd %xmm1, %xmm1, %xmm1 je .LBB1_3660 vmovsd (%rcx), %xmm1 .LBB1_3660: vmovapd %xmm1, 24384(%rbx) movq %rcx, 18752(%rbx) vmovaps 14944(%rbx), %ymm1 vextractf128 $1, %ymm1, %xmm1 vmovd %xmm2, %rcx leaq 33024(%rbx,%rax,8), %rax testb $1, %r9b je .LBB1_3662 vmovsd (%rax), %xmm3 .LBB1_3662: vmovdqa %xmm3, 24416(%rbx) movq %rax, 18720(%rbx) vpaddq %xmm1, %xmm7, %xmm3 vpextrq $1, %xmm2, %rax leaq 33024(%rbx,%rcx,8), %rcx vxorps %xmm1, %xmm1, %xmm1 testb $1, %r11b vxorpd %xmm2, %xmm2, %xmm2 je .LBB1_3664 vmovsd (%rcx), %xmm2 .LBB1_3664: movq %rcx, 18432(%rbx) vmovd %xmm3, %rcx leaq 33024(%rbx,%rax,8), %rax testb $1, %r15b je .LBB1_3666 vmovsd (%rax), %xmm1 .LBB1_3666: movq %rax, 18400(%rbx) vpextrq $1, %xmm3, %rax leaq 33024(%rbx,%rcx,8), %rcx vxorpd %xmm3, %xmm3, %xmm3 testb $1, %r8b vpxor %xmm10, %xmm10, %xmm10 je .LBB1_3668 vmovsd (%rcx), %xmm10 .LBB1_3668: movq %rcx, 18368(%rbx) leaq 33024(%rbx,%rax,8), %rax testb $1, %dil je .LBB1_3670 vmovsd (%rax), %xmm3 .LBB1_3670: vmovapd %xmm3, 16896(%rbx) movq %rax, 18336(%rbx) vunpcklpd %xmm1, %xmm2, %xmm1 vmovapd %ymm1, 16832(%rbx) vmovdqa 13536(%rbx), %ymm1 vpaddq %xmm1, %xmm13, %xmm2 vunpcklpd %xmm5, %xmm0, %xmm0 vmovapd %ymm0, 16800(%rbx) vpextrq $1, %xmm2, %rax vextractf128 $1, %ymm1, %xmm0 vpaddq %xmm0, %xmm4, %xmm1 vmovd %xmm2, %rcx leaq 33024(%rbx,%rcx,8), %rcx vxorpd %xmm5, %xmm5, %xmm5 testb $1, %r14b vxorps %xmm0, %xmm0, %xmm0 je .LBB1_3672 vmovsd (%rcx), %xmm0 .LBB1_3672: movq %rcx, 18560(%rbx) vmovd %xmm1, %rcx leaq 33024(%rbx,%rax,8), %rax testb $1, %r13b je .LBB1_3674 vmovsd (%rax), %xmm5 .LBB1_3674: movq %rax, 18528(%rbx) vmovdqa 14976(%rbx), %ymm2 vpaddq %xmm2, %xmm13, %xmm2 vpextrq $1, %xmm1, %rax leaq 33024(%rbx,%rcx,8), %rcx vxorpd %xmm3, %xmm3, %xmm3 testb $1, %r10b vxorpd %xmm1, %xmm1, %xmm1 je .LBB1_3676 vmovsd (%rcx), %xmm1 .LBB1_3676: vmovapd %xmm1, 16736(%rbx) movq %rcx, 18496(%rbx) vmovaps 14976(%rbx), %ymm1 vextractf128 $1, %ymm1, %xmm1 vmovd %xmm2, %rcx leaq 33024(%rbx,%rax,8), %rax testb $1, %r9b je .LBB1_3678 vmovsd (%rax), %xmm3 .LBB1_3678: vmovapd %xmm3, 16768(%rbx) movq %rax, 18464(%rbx) vpaddq %xmm1, %xmm7, %xmm3 vpextrq $1, %xmm2, %rax leaq 33024(%rbx,%rcx,8), %rcx vxorps %xmm1, %xmm1, %xmm1 testb $1, %r11b vxorpd %xmm2, %xmm2, %xmm2 je .LBB1_3680 vmovsd (%rcx), %xmm2 .LBB1_3680: movq %rcx, 18176(%rbx) vmovd %xmm3, %rcx leaq 33024(%rbx,%rax,8), %rax testb $1, %r15b je .LBB1_3682 vmovsd (%rax), %xmm1 .LBB1_3682: movq %rax, 18112(%rbx) vpextrq $1, %xmm3, %rax leaq 33024(%rbx,%rcx,8), %rcx vxorpd %xmm3, %xmm3, %xmm3 testb $1, %r8b vxorps %xmm6, %xmm6, %xmm6 je .LBB1_3684 vmovsd (%rcx), %xmm6 .LBB1_3684: vmovaps %xmm6, 16672(%rbx) movq %rcx, 18080(%rbx) leaq 33024(%rbx,%rax,8), %rax testb $1, %dil je .LBB1_3686 vmovsd (%rax), %xmm3 .LBB1_3686: vmovapd %xmm3, 16704(%rbx) movq %rax, 18144(%rbx) vunpcklpd %xmm1, %xmm2, %xmm1 vmovapd %ymm1, 14624(%rbx) vmovdqa 13568(%rbx), %ymm1 vpaddq %xmm1, %xmm13, %xmm2 vunpcklpd %xmm5, %xmm0, %xmm0 vmovapd %ymm0, 14592(%rbx) vpextrq $1, %xmm2, %rax vextractf128 $1, %ymm1, %xmm0 vpaddq %xmm0, %xmm4, %xmm1 vmovd %xmm2, %rcx leaq 33024(%rbx,%rcx,8), %rcx vxorpd %xmm5, %xmm5, %xmm5 testb $1, %r14b vxorps %xmm0, %xmm0, %xmm0 je .LBB1_3688 vmovsd (%rcx), %xmm0 .LBB1_3688: movq %rcx, 18304(%rbx) vmovd %xmm1, %rcx leaq 33024(%rbx,%rax,8), %rax testb $1, %r13b je .LBB1_3690 vmovsd (%rax), %xmm5 .LBB1_3690: movq %rax, 18272(%rbx) vmovdqa 15008(%rbx), %ymm2 vpaddq %xmm2, %xmm13, %xmm2 vpextrq $1, %xmm1, %rax leaq 33024(%rbx,%rcx,8), %rcx vxorpd %xmm3, %xmm3, %xmm3 testb $1, %r10b vxorpd %xmm1, %xmm1, %xmm1 je .LBB1_3692 vmovsd (%rcx), %xmm1 .LBB1_3692: vmovapd %xmm1, 14528(%rbx) movq %rcx, 18240(%rbx) vmovaps 15008(%rbx), %ymm1 vextractf128 $1, %ymm1, %xmm1 vmovd %xmm2, %rcx leaq 33024(%rbx,%rax,8), %rax testb $1, %r9b je .LBB1_3694 vmovsd (%rax), %xmm3 .LBB1_3694: vmovapd %xmm3, 14560(%rbx) movq %rax, 18208(%rbx) vpaddq %xmm1, %xmm7, %xmm3 vpextrq $1, %xmm2, %rax leaq 33024(%rbx,%rcx,8), %rcx vxorps %xmm1, %xmm1, %xmm1 testb $1, %r11b vxorpd %xmm2, %xmm2, %xmm2 je .LBB1_3696 vmovsd (%rcx), %xmm2 .LBB1_3696: movq %rcx, 17984(%rbx) vmovd %xmm3, %rcx leaq 33024(%rbx,%rax,8), %rax testb $1, %r15b je .LBB1_3698 vmovsd (%rax), %xmm1 .LBB1_3698: movq %rax, 17920(%rbx) vpextrq $1, %xmm3, %rax leaq 33024(%rbx,%rcx,8), %rcx vxorpd %xmm3, %xmm3, %xmm3 testb $1, %r8b vpxor %xmm15, %xmm15, %xmm15 je .LBB1_3700 vmovsd (%rcx), %xmm15 .LBB1_3700: movq %rcx, 17856(%rbx) leaq 33024(%rbx,%rax,8), %rax testb $1, %dil je .LBB1_3702 vmovsd (%rax), %xmm3 .LBB1_3702: vmovapd %xmm3, 14496(%rbx) movq %rax, 17824(%rbx) vunpcklpd %xmm1, %xmm2, %xmm1 vmovapd %ymm1, 14432(%rbx) vmovdqa 13600(%rbx), %ymm2 vpaddq %xmm2, %xmm13, %xmm1 vunpcklpd %xmm5, %xmm0, %xmm0 vmovapd %ymm0, 14400(%rbx) vpextrq $1, %xmm1, %rax vextractf128 $1, %ymm2, %xmm0 vpaddq %xmm0, %xmm4, %xmm0 vmovd %xmm1, %rcx leaq 33024(%rbx,%rcx,8), %rcx vxorpd %xmm1, %xmm1, %xmm1 testb $1, %r14b vpxor %xmm11, %xmm11, %xmm11 je .LBB1_3704 vmovsd (%rcx), %xmm11 .LBB1_3704: movq %rcx, 18048(%rbx) vmovd %xmm0, %rcx leaq 33024(%rbx,%rax,8), %rax testb $1, %r13b je .LBB1_3706 vmovsd (%rax), %xmm1 .LBB1_3706: movq %rax, 18016(%rbx) vmovsd %xmm1, 19936(%rbx) vmovdqa 15040(%rbx), %ymm1 vpaddq %xmm1, %xmm13, %xmm1 vpextrq $1, %xmm0, %rax leaq 33024(%rbx,%rcx,8), %rcx vxorpd %xmm3, %xmm3, %xmm3 testb $1, %r10b vxorpd %xmm0, %xmm0, %xmm0 je .LBB1_3708 vmovsd (%rcx), %xmm0 .LBB1_3708: vmovdqa %xmm10, 16864(%rbx) vmovdqa %xmm8, 26048(%rbx) movq %rcx, 17952(%rbx) vmovsd %xmm0, 19840(%rbx) vmovaps 15040(%rbx), %ymm0 vextractf128 $1, %ymm0, %xmm0 vmovd %xmm1, %rcx leaq 33024(%rbx,%rax,8), %rax testb $1, %r9b je .LBB1_3710 vmovsd (%rax), %xmm3 .LBB1_3710: movq %rax, 17888(%rbx) vpaddq %xmm0, %xmm7, %xmm0 vpextrq $1, %xmm1, %rax leaq 33024(%rbx,%rcx,8), %rcx vxorpd %xmm1, %xmm1, %xmm1 testb $1, %r11b vpxor %xmm8, %xmm8, %xmm8 je .LBB1_3712 vmovsd (%rcx), %xmm8 .LBB1_3712: vmovdqa %xmm9, 26144(%rbx) movq %rcx, 17696(%rbx) vmovd %xmm0, %rcx leaq 33024(%rbx,%rax,8), %rax testb $1, %r15b je .LBB1_3714 vmovsd (%rax), %xmm1 .LBB1_3714: movq %rax, 17632(%rbx) vpextrq $1, %xmm0, %rax leaq 33024(%rbx,%rcx,8), %rcx vxorpd %xmm0, %xmm0, %xmm0 testb $1, %r8b vxorps %xmm6, %xmm6, %xmm6 je .LBB1_3716 vmovsd (%rcx), %xmm6 .LBB1_3716: movq %rcx, 17600(%rbx) vmovsd %xmm6, 19616(%rbx) vmovsd %xmm1, 19808(%rbx) leaq 33024(%rbx,%rax,8), %rax testb $1, %dil je .LBB1_3718 vmovsd (%rax), %xmm0 .LBB1_3718: movq %rax, 17568(%rbx) vmovsd %xmm0, 19744(%rbx) vmovdqa 13632(%rbx), %ymm1 vpaddq %xmm1, %xmm13, %xmm0 vmovd %xmm0, %rcx vpextrq $1, %xmm0, %rax vextractf128 $1, %ymm1, %xmm0 vpaddq %xmm0, %xmm4, %xmm1 leaq 33024(%rbx,%rcx,8), %rcx vxorps %xmm0, %xmm0, %xmm0 testb $1, %r14b vpxor %xmm14, %xmm14, %xmm14 je .LBB1_3720 vmovsd (%rcx), %xmm14 .LBB1_3720: movq %rcx, 17792(%rbx) vmovd %xmm1, %rcx leaq 33024(%rbx,%rax,8), %rax testb $1, %r13b je .LBB1_3722 vmovsd (%rax), %xmm0 .LBB1_3722: movq %rax, 17760(%rbx) vmovsd %xmm0, 19776(%rbx) vmovdqa 15072(%rbx), %ymm0 vpaddq %xmm0, %xmm13, %xmm0 vpextrq $1, %xmm1, %rax leaq 33024(%rbx,%rcx,8), %rcx vpxor %xmm10, %xmm10, %xmm10 testb $1, %r10b vxorpd %xmm1, %xmm1, %xmm1 je .LBB1_3724 vmovsd (%rcx), %xmm1 .LBB1_3724: movq %rcx, 17728(%rbx) vmovsd %xmm1, 19584(%rbx) vmovaps 15072(%rbx), %ymm1 vextractf128 $1, %ymm1, %xmm1 vmovd %xmm0, %rcx leaq 33024(%rbx,%rax,8), %rax testb $1, %r9b je .LBB1_3726 vmovsd (%rax), %xmm10 .LBB1_3726: movq %rax, 17664(%rbx) vpaddq %xmm1, %xmm7, %xmm1 vpextrq $1, %xmm0, %rax leaq 33024(%rbx,%rcx,8), %rcx vxorpd %xmm0, %xmm0, %xmm0 testb $1, %r11b vpxor %xmm12, %xmm12, %xmm12 je .LBB1_3728 vmovsd (%rcx), %xmm12 .LBB1_3728: movq %rcx, 17440(%rbx) vmovd %xmm1, %rcx leaq 33024(%rbx,%rax,8), %rax testb $1, %r15b je .LBB1_3730 vmovsd (%rax), %xmm0 .LBB1_3730: movq %rax, 17376(%rbx) vmovsd %xmm0, 19552(%rbx) vpextrq $1, %xmm1, %rax leaq 33024(%rbx,%rcx,8), %rcx vxorpd %xmm0, %xmm0, %xmm0 testb $1, %r8b vxorpd %xmm1, %xmm1, %xmm1 je .LBB1_3732 vmovsd (%rcx), %xmm1 .LBB1_3732: movq %rcx, 17344(%rbx) vmovsd %xmm1, 19392(%rbx) leaq 33024(%rbx,%rax,8), %rax testb $1, %dil je .LBB1_3734 vmovsd (%rax), %xmm0 .LBB1_3734: movq %rax, 17312(%rbx) vmovsd %xmm0, 19488(%rbx) vmovdqa 13664(%rbx), %ymm1 vpaddq %xmm1, %xmm13, %xmm0 vmovd %xmm0, %rcx vpextrq $1, %xmm0, %rax vextractf128 $1, %ymm1, %xmm0 vpaddq %xmm0, %xmm4, %xmm1 leaq 33024(%rbx,%rcx,8), %rcx vxorps %xmm0, %xmm0, %xmm0 testb $1, %r14b vpxor %xmm2, %xmm2, %xmm2 vmovsd %xmm2, 24512(%rbx) je .LBB1_3736 vmovsd (%rcx), %xmm9 vmovsd %xmm9, 24512(%rbx) .LBB1_3736: movq %rcx, 17536(%rbx) vmovd %xmm1, %rcx leaq 33024(%rbx,%rax,8), %rax testb $1, %r13b je .LBB1_3738 vmovsd (%rax), %xmm0 .LBB1_3738: movq %rax, 17504(%rbx) vmovsd %xmm0, 19520(%rbx) vmovdqa 15104(%rbx), %ymm0 vpaddq %xmm0, %xmm13, %xmm0 vpextrq $1, %xmm1, %rax leaq 33024(%rbx,%rcx,8), %rcx vpxor %xmm2, %xmm2, %xmm2 testb $1, %r10b vxorpd %xmm1, %xmm1, %xmm1 je .LBB1_3740 vmovsd (%rcx), %xmm1 .LBB1_3740: movq %rcx, 17472(%rbx) vmovsd %xmm1, 19360(%rbx) vmovaps 15104(%rbx), %ymm1 vextractf128 $1, %ymm1, %xmm1 vmovd %xmm0, %rcx leaq 33024(%rbx,%rax,8), %rax testb $1, %r9b je .LBB1_3742 vmovsd (%rax), %xmm2 .LBB1_3742: movq %rax, 17408(%rbx) vpaddq %xmm1, %xmm7, %xmm1 vpextrq $1, %xmm0, %rax leaq 33024(%rbx,%rcx,8), %rcx vxorpd %xmm0, %xmm0, %xmm0 testb $1, %r11b vxorpd %xmm5, %xmm5, %xmm5 je .LBB1_3744 vmovsd (%rcx), %xmm5 .LBB1_3744: movq %rcx, 17184(%rbx) vmovd %xmm1, %rcx leaq 33024(%rbx,%rax,8), %rax testb $1, %r15b je .LBB1_3746 vmovsd (%rax), %xmm0 .LBB1_3746: movq %rax, 17120(%rbx) vmovsd %xmm0, 19328(%rbx) vpextrq $1, %xmm1, %rax leaq 33024(%rbx,%rcx,8), %rcx vxorpd %xmm0, %xmm0, %xmm0 testb $1, %r8b vxorpd %xmm1, %xmm1, %xmm1 je .LBB1_3748 vmovsd (%rcx), %xmm1 .LBB1_3748: movl %r11d, %r12d movl %r8d, %r15d movl %r9d, %esi movq %rcx, 17088(%rbx) vmovsd %xmm1, 19136(%rbx) leaq 33024(%rbx,%rax,8), %rax testb $1, %dil je .LBB1_3750 vmovsd (%rax), %xmm0 .LBB1_3750: movq %rax, 17056(%rbx) vmovsd %xmm0, 19264(%rbx) vmovdqa 13696(%rbx), %ymm1 vpaddq %xmm1, %xmm13, %xmm0 vmovd %xmm0, %rcx vpextrq $1, %xmm0, %rax vextractf128 $1, %ymm1, %xmm0 vpaddq %xmm0, %xmm4, %xmm1 leaq 33024(%rbx,%rcx,8), %rcx vxorps %xmm0, %xmm0, %xmm0 testb $1, %r14b vxorps %xmm4, %xmm4, %xmm4 je .LBB1_3752 vmovsd (%rcx), %xmm4 .LBB1_3752: movq %rcx, 17280(%rbx) vmovd %xmm1, %rcx leaq 33024(%rbx,%rax,8), %rax testb $1, %r13b movl %r13d, %edi je .LBB1_3754 vmovsd (%rax), %xmm0 .LBB1_3754: movq %rax, 17248(%rbx) vmovsd %xmm0, 19296(%rbx) vmovdqa 15136(%rbx), %ymm0 vpaddq %xmm0, %xmm13, %xmm0 vpextrq $1, %xmm1, %rax leaq 33024(%rbx,%rcx,8), %rcx vxorps %xmm6, %xmm6, %xmm6 testb $1, %r10b movl %r10d, %r13d vxorpd %xmm1, %xmm1, %xmm1 je .LBB1_3756 vmovsd (%rcx), %xmm1 .LBB1_3756: movq %rcx, 17216(%rbx) vmovsd %xmm1, 19104(%rbx) vmovaps 15136(%rbx), %ymm1 vextractf128 $1, %ymm1, %xmm1 vmovd %xmm0, %rcx leaq 33024(%rbx,%rax,8), %rax testb $1, %sil je .LBB1_3758 vmovsd (%rax), %xmm6 .LBB1_3758: movl %esi, %r11d movl %r15d, %r8d movl %edi, 32864(%rbx) movq %rax, 17152(%rbx) vpaddq %xmm1, %xmm7, %xmm1 vpextrq $1, %xmm0, %rax leaq 33024(%rbx,%rcx,8), %rcx vxorps %xmm7, %xmm7, %xmm7 testb $1, %r12b vxorpd %xmm0, %xmm0, %xmm0 je .LBB1_3760 vmovsd (%rcx), %xmm0 .LBB1_3760: movq %rcx, 17024(%rbx) vmovsd %xmm0, 19008(%rbx) vmovd %xmm1, %rcx leaq 33024(%rbx,%rax,8), %rax movl 32928(%rbx), %esi testb $1, %sil vxorpd %xmm0, %xmm0, %xmm0 movq 26560(%rbx), %rdi movq 26432(%rbx), %rsi movq 26304(%rbx), %r10 je .LBB1_3762 vmovsd (%rax), %xmm7 .LBB1_3762: movq %rax, 16992(%rbx) vmovsd %xmm5, 19232(%rbx) vmovsd %xmm3, 19872(%rbx) vpextrq $1, %xmm1, %rax leaq 33024(%rbx,%rcx,8), %rcx vxorpd %xmm1, %xmm1, %xmm1 testb $1, %r8b vxorpd %xmm3, %xmm3, %xmm3 movq 32064(%rbx), %rdx je .LBB1_3764 vmovsd (%rcx), %xmm3 .LBB1_3764: movq %rcx, 16960(%rbx) leaq 33024(%rbx,%rax,8), %rax movl 32960(%rbx), %ecx testb $1, %cl movq 25632(%rbx), %rcx je .LBB1_3766 vmovsd (%rax), %xmm1 .LBB1_3766: movq %rax, 16928(%rbx) movl 32960(%rbx), %eax testb $1, %al movq 25696(%rbx), %rax cmovneq %r10, %rax movq %rax, 25696(%rbx) testb $1, %r8b movq 25728(%rbx), %rax cmovneq %rsi, %rax movq %rax, 25728(%rbx) movl 32928(%rbx), %eax testb $1, %al movq 32704(%rbx), %rax cmovneq %rdi, %rax movq %rax, 32704(%rbx) testb $1, %r12b movq 25760(%rbx), %rax cmovneq 31488(%rbx), %rax movq %rax, 25760(%rbx) testb $1, %r11b movq 32576(%rbx), %rax cmovneq 32480(%rbx), %rax movq %rax, 32576(%rbx) testb $1, %r13b movq 25568(%rbx), %rax cmovneq 31520(%rbx), %rax movq %rax, 25568(%rbx) movl 32864(%rbx), %eax testb $1, %al movq 25600(%rbx), %rax cmovneq %rdx, %rax movq %rax, 25600(%rbx) movb %r14b, %al andb $1, %al movq 32640(%rbx), %r15 cmovneq %r15, %rcx testb %al, %al je .LBB1_3768 movabsq $-4616189618054758400, %rax movq %rax, (%r15) .LBB1_3768: movl %r11d, 32992(%rbx) movl %r12d, %r11d vmovsd %xmm2, 19424(%rbx) vmovsd %xmm8, 19712(%rbx) movq %rcx, 25632(%rbx) movl 32864(%rbx), %eax testb $1, %al movabsq $-4616189618054758400, %rcx je .LBB1_3770 movq %rcx, (%rdx) .LBB1_3770: testb $1, %r13b movq 23168(%rbx), %r15 je .LBB1_3772 movq 31520(%rbx), %rax movq %rcx, (%rax) .LBB1_3772: movl 32992(%rbx), %eax testb $1, %al movq 24672(%rbx), %r9 je .LBB1_3774 movq 32480(%rbx), %rax movq %rcx, (%rax) .LBB1_3774: testb $1, %r11b movq 31488(%rbx), %rax je .LBB1_3776 movq %rcx, (%rax) .LBB1_3776: vmovsd %xmm1, 19040(%rbx) movl 32928(%rbx), %eax testb $1, %al je .LBB1_3778 movq %rcx, (%rdi) .LBB1_3778: testb $1, %r8b movq 25088(%rbx), %rax je .LBB1_3780 movq %rcx, (%rsi) .LBB1_3780: vmovsd %xmm14, 19680(%rbx) vmovsd %xmm11, 19904(%rbx) movl 32960(%rbx), %r12d testb $1, %r12b je .LBB1_3782 movq %rcx, (%r10) .LBB1_3782: movb %r12b, %cl andb $1, %cl movq 26176(%rbx), %rsi cmovneq %rsi, %rax movq %rax, 25088(%rbx) movl 32736(%rbx), %eax andb $1, %al movq 24832(%rbx), %r14 movq 24976(%rbx), %rdx cmovneq %r14, %rdx movq %rdx, 24976(%rbx) movq 23264(%rbx), %rdx cmovneq %r14, %rdx movq %rdx, 23264(%rbx) testb %cl, %cl movq 23456(%rbx), %rcx cmovneq %rsi, %rcx movq %rcx, 23456(%rbx) movb %r8b, %cl movl %r8d, 32832(%rbx) andb $1, %cl movq 25120(%rbx), %rdi movq 26208(%rbx), %rsi cmovneq %rsi, %rdi movq %rdi, 25120(%rbx) testb %cl, %cl movq 23488(%rbx), %rdi cmovneq %rsi, %rdi movl 32928(%rbx), %ecx andb $1, %cl movq 26240(%rbx), %rsi movq 25136(%rbx), %rdx cmovneq %rsi, %rdx movq %rdx, 25136(%rbx) testb %cl, %cl movq 23296(%rbx), %rcx cmovneq %rsi, %rcx movq %rcx, 23296(%rbx) movb %r11b, %cl andb $1, %cl movq 24608(%rbx), %rsi movq 25152(%rbx), %rdx cmovneq %rsi, %rdx movq %rdx, 25152(%rbx) testb %cl, %cl movq 23328(%rbx), %rcx cmovneq %rsi, %rcx movq %rcx, 23328(%rbx) movq %rsi, %r10 movl 32992(%rbx), %ecx andb $1, %cl movq 24640(%rbx), %rsi movq 25184(%rbx), %rdx cmovneq %rsi, %rdx movq %rdx, 25184(%rbx) testb %cl, %cl cmovneq %rsi, %r15 movq %rsi, %r8 movb %r13b, %cl andb $1, %cl movq 25216(%rbx), %rdx cmovneq %r9, %rdx movq %rdx, 25216(%rbx) testb %cl, %cl movq 23200(%rbx), %rcx cmovneq %r9, %rcx movq %rcx, 23200(%rbx) movq %r9, %r12 movl 32864(%rbx), %ecx andb $1, %cl movq 24768(%rbx), %rdx movq 24928(%rbx), %rsi cmovneq %rdx, %rsi movq %rsi, 24928(%rbx) testb %cl, %cl movq 23232(%rbx), %rcx cmovneq %rdx, %rcx movq %rdx, %r9 testb %al, %al je .LBB1_3784 vmovupd %xmm0, 16(%r14) vmovupd %xmm0, (%r14) .LBB1_3784: vmovsd %xmm3, 18976(%rbx) vmovsd %xmm12, 19456(%rbx) movq %rcx, 23232(%rbx) movq %rdi, 23488(%rbx) movl 32864(%rbx), %eax testb $1, %al je .LBB1_3786 vmovupd %xmm0, 16(%r9) vmovupd %xmm0, (%r9) .LBB1_3786: testb $1, %r13b movq %r12, %rax movq 26208(%rbx), %rdx je .LBB1_3788 vmovupd %xmm0, 16(%rax) vmovupd %xmm0, (%rax) .LBB1_3788: movl 32992(%rbx), %eax testb $1, %al movq 26240(%rbx), %rax movl 32928(%rbx), %edi movl 32960(%rbx), %r9d je .LBB1_3790 vmovupd %xmm0, 16(%r8) vmovupd %xmm0, (%r8) .LBB1_3790: vmovsd %xmm6, 19168(%rbx) testb $1, %r11b movl 32864(%rbx), %ecx je .LBB1_3792 vmovupd %xmm0, 16(%r10) vmovupd %xmm0, (%r10) .LBB1_3792: vmovsd %xmm4, 19200(%rbx) movq %r15, 23168(%rbx) testb $1, %dil movabsq $4607182418800017408, %rdi je .LBB1_3794 vmovupd %xmm0, 16(%rax) vmovupd %xmm0, (%rax) .LBB1_3794: movl 32832(%rbx), %eax testb $1, %al je .LBB1_3796 vmovupd %xmm0, 16(%rdx) vmovupd %xmm0, (%rdx) .LBB1_3796: testb $1, %r9b movq 26176(%rbx), %rax je .LBB1_3798 vmovupd %xmm0, 16(%rax) vmovupd %xmm0, (%rax) .LBB1_3798: movl 32736(%rbx), %eax testb $1, %al je .LBB1_3800 movq 25792(%rbx), %rax movq %rdi, (%rax) .LBB1_3800: testb $1, %cl je .LBB1_3802 movq 25856(%rbx), %rax movq %rdi, (%rax) .LBB1_3802: testb $1, %r13b movq 25040(%rbx), %r8 je .LBB1_3804 movq 25824(%rbx), %rax movq %rdi, (%rax) .LBB1_3804: movl 32992(%rbx), %eax testb $1, %al je .LBB1_3806 movq 25888(%rbx), %rax movq %rdi, (%rax) .LBB1_3806: testb $1, %r11b je .LBB1_3808 movq 25920(%rbx), %rax movq %rdi, (%rax) .LBB1_3808: movl %ecx, %r12d movl %r11d, %r13d movl 32928(%rbx), %eax testb $1, %al je .LBB1_3810 movq 25984(%rbx), %rax movq %rdi, (%rax) .LBB1_3810: movl 32832(%rbx), %eax testb $1, %al movq 24992(%rbx), %r10 movq 25392(%rbx), %r14 movq 25344(%rbx), %r11 movq 25312(%rbx), %rdx movq 25280(%rbx), %rsi movq 25248(%rbx), %rcx je .LBB1_3812 movq 25952(%rbx), %rax movq %rdi, (%rax) .LBB1_3812: testb $1, %r9b je .LBB1_3814 movq 26016(%rbx), %rax movq %rdi, (%rax) .LBB1_3814: testb $1, %r9b cmovneq 32384(%rbx), %rcx movl 32832(%rbx), %eax testb $1, %al cmovneq 32352(%rbx), %rsi movl 32928(%rbx), %eax testb $1, %al cmovneq 32320(%rbx), %rdx testb $1, %r13b cmovneq 32288(%rbx), %r11 movl 32992(%rbx), %eax testb $1, %al cmovneq 31872(%rbx), %r14 movl 32800(%rbx), %eax testb $1, %al cmovneq 31808(%rbx), %r10 testb $1, %r12b cmovneq 31840(%rbx), %r8 movl 32736(%rbx), %eax andb $1, %al movq 31136(%rbx), %r9 movq 25056(%rbx), %r15 cmovneq %r9, %r15 movq %r15, 25056(%rbx) testb %al, %al je .LBB1_3816 vmovapd %xmm0, 16(%r9) vmovapd %xmm0, (%r9) .LBB1_3816: movq %rcx, 25248(%rbx) movq %rsi, 25280(%rbx) movq %rdx, 25312(%rbx) movq %r11, 25344(%rbx) movq %r14, 25392(%rbx) movq %r10, 24992(%rbx) testb $1, %r12b movq 31840(%rbx), %rax je .LBB1_3818 vmovapd %xmm0, 16(%rax) vmovapd %xmm0, (%rax) .LBB1_3818: movl 32736(%rbx), %r9d movq 31040(%rbx), %r14 movl 32800(%rbx), %eax testb $1, %al movq 32352(%rbx), %rcx movq 31872(%rbx), %rdx movq 31808(%rbx), %rax movl %r13d, %r11d je .LBB1_3820 vmovapd %xmm0, 16(%rax) vmovapd %xmm0, (%rax) .LBB1_3820: movl %r12d, %r13d movl 32992(%rbx), %eax testb $1, %al movq 31616(%rbx), %rax je .LBB1_3822 vmovapd %xmm0, 16(%rdx) vmovapd %xmm0, (%rdx) .LBB1_3822: testb $1, %r11b movq 32160(%rbx), %r10 movq 32320(%rbx), %rdx je .LBB1_3824 movq 32288(%rbx), %rsi vmovapd %xmm0, 16(%rsi) vmovapd %xmm0, (%rsi) .LBB1_3824: vmovsd %xmm10, 19648(%rbx) movq %r8, 25040(%rbx) movl 32928(%rbx), %esi testb $1, %sil je .LBB1_3826 vmovapd %xmm0, 16(%rdx) vmovapd %xmm0, (%rdx) .LBB1_3826: movl 32832(%rbx), %edx testb $1, %dl movq 32192(%rbx), %r8 je .LBB1_3828 vmovapd %xmm0, 16(%rcx) vmovapd %xmm0, (%rcx) .LBB1_3828: movl 32960(%rbx), %ecx testb $1, %cl movq 32224(%rbx), %r12 je .LBB1_3830 movq 32384(%rbx), %rcx vmovapd %xmm0, 16(%rcx) vmovapd %xmm0, (%rcx) .LBB1_3830: testb $1, %r9b je .LBB1_3832 movq 31552(%rbx), %rcx movq %rdi, (%rcx) .LBB1_3832: testb $1, %r13b movq 31904(%rbx), %rcx je .LBB1_3834 movq 31584(%rbx), %rsi movq %rdi, (%rsi) .LBB1_3834: movl 32800(%rbx), %edx testb $1, %dl je .LBB1_3836 movq %rdi, (%rax) .LBB1_3836: movl 32992(%rbx), %eax testb $1, %al movq 31936(%rbx), %rax je .LBB1_3838 movq 31648(%rbx), %rsi movq %rdi, (%rsi) .LBB1_3838: testb $1, %r11b je .LBB1_3840 movq %rdi, (%rcx) .LBB1_3840: movl 32928(%rbx), %ecx testb $1, %cl movq 32672(%rbx), %rsi je .LBB1_3842 movq %rdi, (%rax) .LBB1_3842: movl 32832(%rbx), %eax testb $1, %al movq 31968(%rbx), %rax je .LBB1_3844 movq 31680(%rbx), %rcx movq %rdi, (%rcx) .LBB1_3844: vmovsd %xmm7, 19072(%rbx) movl 32960(%rbx), %ecx testb $1, %cl je .LBB1_3846 movq %rdi, (%rax) .LBB1_3846: movl 32960(%rbx), %eax testb $1, %al cmovneq %r12, %rsi movq %rsi, 32672(%rbx) movl 32832(%rbx), %eax testb $1, %al movq 32128(%rbx), %rax cmovneq %r8, %rax movq %rax, 32128(%rbx) movl 32928(%rbx), %eax testb $1, %al movq 25408(%rbx), %rax cmovneq 32544(%rbx), %rax movq %rax, 25408(%rbx) testb $1, %r11b movq 25440(%rbx), %rax cmovneq %r10, %rax movq %rax, 25440(%rbx) movl 32992(%rbx), %eax testb $1, %al movq 25456(%rbx), %rax cmovneq 31776(%rbx), %rax movq %rax, 25456(%rbx) movl 32800(%rbx), %eax testb $1, %al movq 25472(%rbx), %rax cmovneq 31712(%rbx), %rax movq %rax, 25472(%rbx) testb $1, %r13b movq 25504(%rbx), %rax cmovneq 31744(%rbx), %rax movq %rax, 25504(%rbx) movb %r9b, %al andb $1, %al movq %r14, %rcx movq 25536(%rbx), %rsi cmovneq %rcx, %rsi movq %rsi, 25536(%rbx) testb %al, %al je .LBB1_3848 vmovupd %xmm0, 16(%rcx) vmovupd %xmm0, (%rcx) .LBB1_3848: testb $1, %r13b movq 31264(%rbx), %r15 je .LBB1_3850 movq 31744(%rbx), %r14 vmovupd %xmm0, 16(%r14) vmovupd %xmm0, (%r14) .LBB1_3850: movl 32800(%rbx), %edx testb $1, %dl je .LBB1_3852 movq 31712(%rbx), %rcx vmovupd %xmm0, 16(%rcx) vmovupd %xmm0, (%rcx) .LBB1_3852: movl 32992(%rbx), %eax testb $1, %al je .LBB1_3854 movq 31776(%rbx), %rax vmovupd %xmm0, 16(%rax) vmovupd %xmm0, (%rax) .LBB1_3854: testb $1, %r11b je .LBB1_3856 vmovupd %xmm0, 16(%r10) vmovupd %xmm0, (%r10) .LBB1_3856: movl 32928(%rbx), %ecx testb $1, %cl movq 31200(%rbx), %rsi movl 32992(%rbx), %eax je .LBB1_3858 movq 32544(%rbx), %rcx vmovupd %xmm0, 16(%rcx) vmovupd %xmm0, (%rcx) .LBB1_3858: movl 32832(%rbx), %ecx testb $1, %cl je .LBB1_3860 vmovupd %xmm0, 16(%r8) vmovupd %xmm0, (%r8) .LBB1_3860: movl 32960(%rbx), %ecx testb $1, %cl je .LBB1_3862 vmovupd %xmm0, 16(%r12) vmovupd %xmm0, (%r12) .LBB1_3862: testb $1, %r9b je .LBB1_3864 movq %rdi, (%r15) .LBB1_3864: testb $1, %r13b je .LBB1_3866 movq 31296(%rbx), %rcx movq %rdi, (%rcx) .LBB1_3866: testb $1, %dl movl 32928(%rbx), %edx je .LBB1_3868 movq %rdi, (%rsi) .LBB1_3868: testb $1, %al movq 32032(%rbx), %rax je .LBB1_3870 movq 31232(%rbx), %rcx movq %rdi, (%rcx) .LBB1_3870: testb $1, %r11b movq 32000(%rbx), %rcx movq 31072(%rbx), %r10 je .LBB1_3872 movq %rdi, (%rcx) .LBB1_3872: testb $1, %dl je .LBB1_3874 movq %rdi, (%rax) .LBB1_3874: movq %rdi, %r9 movl 32832(%rbx), %eax testb $1, %al movq 24032(%rbx), %r12 movq 23872(%rbx), %r8 movq 23840(%rbx), %r11 movq 23808(%rbx), %r15 movq 23776(%rbx), %r14 movq 23712(%rbx), %rsi movq 22848(%rbx), %rcx movq 23616(%rbx), %rdi movq 23584(%rbx), %rdx movq 23424(%rbx), %r13 je .LBB1_3876 movq 31168(%rbx), %rax movq %r9, (%rax) .LBB1_3876: movl 32960(%rbx), %eax testb $1, %al je .LBB1_3878 movq %r9, (%r10) .LBB1_3878: movl 32960(%rbx), %eax andb $1, %al movb %al, 14464(%rbx) cmovneq 20064(%rbx), %rdx movq %rdx, 23584(%rbx) movq 23936(%rbx), %rax cmovneq 24544(%rbx), %rax movq %rax, 23936(%rbx) movq 22528(%rbx), %rax cmovneq 20128(%rbx), %rax movq %rax, 22528(%rbx) cmovneq 24576(%rbx), %rcx movq %rcx, 22848(%rbx) movl 32832(%rbx), %eax andb $1, %al movb %al, 14368(%rbx) cmovneq 20416(%rbx), %rdi movq %rdi, 23616(%rbx) movq 23968(%rbx), %rax cmovneq 26336(%rbx), %rax movq %rax, 23968(%rbx) movq 22560(%rbx), %rax cmovneq 20480(%rbx), %rax movq %rax, 22560(%rbx) cmovneq 26400(%rbx), %rsi movq %rsi, 23712(%rbx) movl 32928(%rbx), %eax movb %al, %sil andb $1, %sil movq 32256(%rbx), %rax cmovneq 20768(%rbx), %rax movq %rax, 32256(%rbx) movq 24000(%rbx), %rax cmovneq 26464(%rbx), %rax movq %rax, 24000(%rbx) movq 32416(%rbx), %rax cmovneq 20800(%rbx), %rax movq %rax, 32416(%rbx) cmovneq 26528(%rbx), %r14 movq %r14, 23776(%rbx) movl 32896(%rbx), %eax movb %al, %dl andb $1, %dl cmovneq 21088(%rbx), %r13 movq %r13, 23424(%rbx) cmovneq 26592(%rbx), %r12 movq %r12, 24032(%rbx) movq 25664(%rbx), %rax cmovneq 21120(%rbx), %rax movq %rax, 25664(%rbx) cmovneq 24736(%rbx), %r15 movq %r15, 23808(%rbx) movl 32992(%rbx), %eax movb %al, %r15b andb $1, %r15b movq 22912(%rbx), %rax cmovneq 21472(%rbx), %rax movq %rax, 22912(%rbx) cmovneq 26624(%rbx), %r11 movq %r11, 23840(%rbx) movq 22464(%rbx), %rax cmovneq 21536(%rbx), %rax movq %rax, 22464(%rbx) movq 23648(%rbx), %rax cmovneq 26688(%rbx), %rax movq %rax, 23648(%rbx) movl 32800(%rbx), %eax movb %al, %r12b andb $1, %r12b movq 22944(%rbx), %rax cmovneq 21760(%rbx), %rax movq %rax, 22944(%rbx) cmovneq 26720(%rbx), %r8 movq %r8, 23872(%rbx) movq 22496(%rbx), %rax cmovneq 21776(%rbx), %rax movq %rax, 22496(%rbx) movq 23680(%rbx), %r8 cmovneq 26784(%rbx), %r8 movl 32864(%rbx), %eax movb %al, %r10b andb $1, %r10b movq 23040(%rbx), %rax cmovneq 22048(%rbx), %rax movq %rax, 23040(%rbx) movq 23904(%rbx), %rax cmovneq 26816(%rbx), %rax movq %rax, 23904(%rbx) movq 22592(%rbx), %rax cmovneq 22080(%rbx), %rax movq %rax, 22592(%rbx) movq 23744(%rbx), %r13 cmovneq 26848(%rbx), %r13 movl 32736(%rbx), %eax movb %al, %cl andb $1, %cl movq 23072(%rbx), %rax cmovneq 22336(%rbx), %rax movq %rax, 23072(%rbx) movq 31104(%rbx), %r9 cmovneq 26880(%rbx), %r9 movq %r9, 31104(%rbx) movq 32096(%rbx), %rax cmovneq 22368(%rbx), %rax movq %rax, 32096(%rbx) movq 22880(%rbx), %r14 cmovneq 26912(%rbx), %r14 movq 23136(%rbx), %rax cmovneq 22400(%rbx), %rax movq %rax, 23136(%rbx) cmpb $0, 14464(%rbx) movq 23360(%rbx), %rax cmovneq 20192(%rbx), %rax movq %rax, 23360(%rbx) cmpb $0, 14368(%rbx) movq 23392(%rbx), %r11 cmovneq 20544(%rbx), %r11 testb %sil, %sil movq 23520(%rbx), %rdi cmovneq 20864(%rbx), %rdi testb %dl, %dl movq 23552(%rbx), %rdx cmovneq 21184(%rbx), %rdx testb %r15b, %r15b movq 22976(%rbx), %rax cmovneq 21568(%rbx), %rax movq %rax, 22976(%rbx) testb %r12b, %r12b movq 23008(%rbx), %rax cmovneq 21792(%rbx), %rax testb %r10b, %r10b movq 23104(%rbx), %rsi cmovneq 22112(%rbx), %rsi testb %cl, %cl movabsq $-4616189618054758400, %r9 je .LBB1_3880 movq 30720(%rbx), %rcx movq %r9, (%rcx) .LBB1_3880: movq %rax, 23008(%rbx) movq %rsi, 23104(%rbx) movq %r11, 23392(%rbx) movq %rdi, 23520(%rbx) movq %rdx, 23552(%rbx) movq %r8, 23680(%rbx) movq %r13, 23744(%rbx) movq %r14, 22880(%rbx) movl 32864(%rbx), %eax testb $1, %al movq 31008(%rbx), %r14 movq 30944(%rbx), %rdx movq 30912(%rbx), %r10 movq 30880(%rbx), %r15 je .LBB1_3882 movq 30752(%rbx), %rcx movq %r9, (%rcx) .LBB1_3882: movl 32800(%rbx), %eax testb $1, %al movl 32896(%rbx), %edi movl 32928(%rbx), %r13d je .LBB1_3884 movq 30656(%rbx), %rcx movq %r9, (%rcx) .LBB1_3884: movl 32992(%rbx), %eax testb $1, %al je .LBB1_3886 movq 30688(%rbx), %rcx movq %r9, (%rcx) .LBB1_3886: testb $1, %dil vmovapd 26144(%rbx), %xmm4 je .LBB1_3888 movq 30848(%rbx), %rcx movq %r9, (%rcx) .LBB1_3888: testb $1, %r13b movq 30816(%rbx), %rcx je .LBB1_3890 movq %r9, (%r14) .LBB1_3890: movl 32832(%rbx), %eax testb $1, %al je .LBB1_3892 movq %r9, (%rcx) .LBB1_3892: movl 32960(%rbx), %eax testb $1, %al movq 30976(%rbx), %rcx movq 30784(%rbx), %rsi movl 32800(%rbx), %r14d je .LBB1_3894 movq %r9, (%rcx) .LBB1_3894: movl 32736(%rbx), %eax testb $1, %al je .LBB1_3896 movq 30592(%rbx), %rax movabsq $-9223372036854775808, %rcx movq %rcx, (%rax) .LBB1_3896: movl 32864(%rbx), %eax testb $1, %al movq 30496(%rbx), %r8 vmovapd 26048(%rbx), %xmm6 je .LBB1_3898 movq 30624(%rbx), %rax movabsq $-9223372036854775808, %rcx movq %rcx, (%rax) .LBB1_3898: testb $1, %r14b je .LBB1_3900 movq 30528(%rbx), %rax movabsq $-9223372036854775808, %rcx movq %rcx, (%rax) .LBB1_3900: movl 32992(%rbx), %eax testb $1, %al je .LBB1_3902 movq 30560(%rbx), %rax movabsq $-9223372036854775808, %rcx movq %rcx, (%rax) .LBB1_3902: testb $1, %dil je .LBB1_3904 movabsq $-9223372036854775808, %rax movq %rax, (%rsi) .LBB1_3904: movl %edi, %r12d testb $1, %r13b je .LBB1_3906 movabsq $-9223372036854775808, %rax movq %rax, (%rdx) .LBB1_3906: movl 32832(%rbx), %eax testb $1, %al movq 30432(%rbx), %r11 movq 30336(%rbx), %rdi movq 15680(%rbx), %r9 movq 20384(%rbx), %rcx movq 20032(%rbx), %rsi je .LBB1_3908 movabsq $-9223372036854775808, %rax movq %rax, (%r15) .LBB1_3908: movl 32960(%rbx), %eax testb $1, %al movq 30464(%rbx), %rdx je .LBB1_3910 movabsq $-9223372036854775808, %rax movq %rax, (%r10) .LBB1_3910: movl 32960(%rbx), %eax testb $1, %al movq 30400(%rbx), %rax cmovneq %rsi, %rax movq %rax, 30400(%rbx) movl 32832(%rbx), %eax testb $1, %al cmovneq %rcx, %r11 testb $1, %r13b movq 15360(%rbx), %r10 cmovneq %r10, %rdx testb $1, %r12b movq 15552(%rbx), %rsi cmovneq %rsi, %r8 movl 32992(%rbx), %eax testb $1, %al movq 30272(%rbx), %rax cmovneq %r9, %rax movq %rax, 30272(%rbx) testb $1, %r14b movq 30304(%rbx), %rax cmovneq 21744(%rbx), %rax movq %rax, 30304(%rbx) movl 32864(%rbx), %eax testb $1, %al cmovneq 22016(%rbx), %rdi movq %rdi, 30336(%rbx) movl 32736(%rbx), %r15d movb %r15b, %al andb $1, %al movq 30368(%rbx), %rdi movq 16192(%rbx), %rcx cmovneq %rcx, %rdi testb %al, %al je .LBB1_3912 movabsq $-9223372036854775808, %rax movq %rax, (%rcx) .LBB1_3912: movq %rdi, 30368(%rbx) movl 32864(%rbx), %eax testb $1, %al movq 22016(%rbx), %rax vmovapd 16864(%rbx), %xmm7 je .LBB1_3914 movabsq $-9223372036854775808, %rcx movq %rcx, (%rax) .LBB1_3914: testb $1, %r14b movq 21744(%rbx), %rax movl 32832(%rbx), %edi je .LBB1_3916 movabsq $-9223372036854775808, %rcx movq %rcx, (%rax) .LBB1_3916: movl 32992(%rbx), %eax testb $1, %al je .LBB1_3918 movabsq $-9223372036854775808, %rax movq %rax, (%r9) .LBB1_3918: movq %rdx, 30464(%rbx) testb $1, %r12b je .LBB1_3920 movabsq $-9223372036854775808, %rax movq %rax, (%rsi) .LBB1_3920: testb $1, %r13b je .LBB1_3922 movabsq $-9223372036854775808, %rax movq %rax, (%r10) .LBB1_3922: movl %r13d, %r9d testb $1, %dil movq 30240(%rbx), %rax movq 24864(%rbx), %rcx je .LBB1_3924 movq 20384(%rbx), %rdx movabsq $-9223372036854775808, %rsi movq %rsi, (%rdx) .LBB1_3924: movl 32960(%rbx), %edx testb $1, %dl movq 29120(%rbx), %r10 je .LBB1_3926 movq 20032(%rbx), %rdx movabsq $-9223372036854775808, %rsi movq %rsi, (%rdx) .LBB1_3926: movq %r11, 30432(%rbx) movl 32960(%rbx), %edx testb $1, %dl movq 30144(%rbx), %rsi cmovneq 26272(%rbx), %rsi movq %rsi, 30144(%rbx) testb $1, %dil movl %edi, %r13d movq 30176(%rbx), %rsi cmovneq 26368(%rbx), %rsi movq %rsi, 30176(%rbx) testb $1, %r9b movq 30208(%rbx), %rsi cmovneq 26496(%rbx), %rsi movq %rsi, 30208(%rbx) testb $1, %r12b movq 24704(%rbx), %rdi cmovneq %rdi, %rax movq %rax, 30240(%rbx) movl 32992(%rbx), %eax testb $1, %al movq 30048(%rbx), %rax cmovneq 26656(%rbx), %rax movq %rax, 30048(%rbx) movl 32800(%rbx), %eax testb $1, %al movq 30080(%rbx), %rax cmovneq 26752(%rbx), %rax movq %rax, 30080(%rbx) movl 32864(%rbx), %eax testb $1, %al movq 30112(%rbx), %rax cmovneq %rcx, %rax movq %rax, 30112(%rbx) movb %r15b, %al andb $1, %al movq 28160(%rbx), %rsi movq 24896(%rbx), %rdx cmovneq %rdx, %rsi movq %rsi, 28160(%rbx) testb %al, %al movq %rdx, %rax je .LBB1_3928 movabsq $-9223372036854775808, %rdx movq %rdx, (%rax) .LBB1_3928: movq %r8, 30496(%rbx) movl 32864(%rbx), %eax testb $1, %al movq 16000(%rbx), %r11 movq 15808(%rbx), %r15 movq 15584(%rbx), %r8 je .LBB1_3930 movabsq $-9223372036854775808, %rax movq %rax, (%rcx) .LBB1_3930: movl 32800(%rbx), %eax testb $1, %al movq 29952(%rbx), %r14 movq 26752(%rbx), %rax je .LBB1_3932 movabsq $-9223372036854775808, %rdx movq %rdx, (%rax) .LBB1_3932: movl 32992(%rbx), %eax testb $1, %al movq 26656(%rbx), %rax je .LBB1_3934 movabsq $-9223372036854775808, %rdx movq %rdx, (%rax) .LBB1_3934: testb $1, %r12b je .LBB1_3936 movabsq $-9223372036854775808, %rax movq %rax, (%rdi) .LBB1_3936: testb $1, %r9b movq 15392(%rbx), %rdx movq 26496(%rbx), %rax je .LBB1_3938 movabsq $-9223372036854775808, %rsi movq %rsi, (%rax) .LBB1_3938: testb $1, %r13b movq 26368(%rbx), %rax je .LBB1_3940 movabsq $-9223372036854775808, %rsi movq %rsi, (%rax) .LBB1_3940: movl 32960(%rbx), %eax testb $1, %al movq 26272(%rbx), %rax je .LBB1_3942 movabsq $-9223372036854775808, %rsi movq %rsi, (%rax) .LBB1_3942: movl 32960(%rbx), %eax testb $1, %al movq 29728(%rbx), %rax cmovneq 20096(%rbx), %rax movq %rax, 29728(%rbx) testb $1, %r13b movq 29760(%rbx), %rax cmovneq 20448(%rbx), %rax movq %rax, 29760(%rbx) testb $1, %r9b movq 29920(%rbx), %rax cmovneq %rdx, %rax movq %rax, 29920(%rbx) testb $1, %r12b cmovneq %r8, %r14 movl 32992(%rbx), %eax testb $1, %al movq 29088(%rbx), %rax cmovneq 21504(%rbx), %rax movq %rax, 29088(%rbx) movl 32800(%rbx), %eax testb $1, %al cmovneq %r15, %r10 movq %r10, 29120(%rbx) movl 32864(%rbx), %esi testb $1, %sil movq 29280(%rbx), %rax cmovneq %r11, %rax movq %rax, 29280(%rbx) movl 32736(%rbx), %eax andb $1, %al movq 29312(%rbx), %rdi movq 16224(%rbx), %rcx cmovneq %rcx, %rdi movq %rdi, 29312(%rbx) testb %al, %al je .LBB1_3944 movabsq $-9223372036854775808, %rax movq %rax, (%rcx) .LBB1_3944: testb $1, %sil movl %esi, %r10d movq 22784(%rbx), %r13 vmovapd 31392(%rbx), %xmm3 je .LBB1_3946 movabsq $-9223372036854775808, %rax movq %rax, (%r11) .LBB1_3946: movl 32800(%rbx), %eax testb $1, %al movq 21504(%rbx), %rax je .LBB1_3948 movabsq $-9223372036854775808, %rsi movq %rsi, (%r15) .LBB1_3948: movl 32992(%rbx), %r9d testb $1, %r9b je .LBB1_3950 movabsq $-9223372036854775808, %rsi movq %rsi, (%rax) .LBB1_3950: testb $1, %r12b movq 21760(%rbx), %r12 movq 20416(%rbx), %rsi je .LBB1_3952 movabsq $-9223372036854775808, %rax movq %rax, (%r8) .LBB1_3952: movl 32928(%rbx), %eax testb $1, %al movq 20448(%rbx), %rax vmovapd 32512(%rbx), %xmm0 vmovapd 32448(%rbx), %xmm1 vmovapd 31424(%rbx), %xmm2 je .LBB1_3954 movabsq $-9223372036854775808, %rdi movq %rdi, (%rdx) .LBB1_3954: movq %r14, 29952(%rbx) movl 32832(%rbx), %ecx testb $1, %cl je .LBB1_3956 movabsq $-9223372036854775808, %rcx movq %rcx, (%rax) .LBB1_3956: vunpcklpd %xmm0, %xmm1, %xmm10 vunpcklpd %xmm2, %xmm3, %xmm5 vmovapd 26112(%rbx), %xmm0 vunpcklpd %xmm4, %xmm0, %xmm11 vunpcklpd 26080(%rbx), %xmm6, %xmm6 vmovapd 24384(%rbx), %xmm0 vunpcklpd 24416(%rbx), %xmm0, %xmm2 vunpcklpd 16896(%rbx), %xmm7, %xmm7 vmovapd 16736(%rbx), %xmm0 vunpcklpd 16768(%rbx), %xmm0, %xmm3 vmovapd 16672(%rbx), %xmm0 vunpcklpd 16704(%rbx), %xmm0, %xmm0 vmovapd 14528(%rbx), %xmm1 vunpcklpd 14560(%rbx), %xmm1, %xmm4 vunpcklpd 14496(%rbx), %xmm15, %xmm1 movl 32960(%rbx), %eax testb $1, %al movq 26400(%rbx), %rcx movq 20480(%rbx), %rdx movq 20096(%rbx), %rax je .LBB1_3958 movabsq $-9223372036854775808, %rdi movq %rdi, (%rax) .LBB1_3958: vmovapd 31360(%rbx), %ymm8 vinsertf128 $1, %xmm5, %ymm8, %ymm5 vmovapd %ymm5, 14528(%rbx) vmovapd 31328(%rbx), %ymm5 vinsertf128 $1, %xmm10, %ymm5, %ymm5 vmovapd %ymm5, 14560(%rbx) vmovapd 24480(%rbx), %ymm5 vinsertf128 $1, %xmm6, %ymm5, %ymm5 vmovapd %ymm5, 14464(%rbx) vmovapd 24448(%rbx), %ymm5 vinsertf128 $1, %xmm11, %ymm5, %ymm5 vmovapd %ymm5, 14496(%rbx) vmovapd 16832(%rbx), %ymm5 vinsertf128 $1, %xmm7, %ymm5, %ymm5 vmovapd 16800(%rbx), %ymm6 vinsertf128 $1, %xmm2, %ymm6, %ymm2 vmovapd 14624(%rbx), %ymm6 vinsertf128 $1, %xmm0, %ymm6, %ymm0 vmovapd %ymm0, 24480(%rbx) vmovapd 14592(%rbx), %ymm0 vinsertf128 $1, %xmm3, %ymm0, %ymm0 vmovapd %ymm0, 26144(%rbx) vmovapd 14432(%rbx), %ymm0 vinsertf128 $1, %xmm1, %ymm0, %ymm0 vmovapd %ymm0, 24448(%rbx) vmovapd 14400(%rbx), %ymm0 vinsertf128 $1, %xmm4, %ymm0, %ymm0 vmovapd %ymm0, 26080(%rbx) movq 32192(%rbx), %rax vmovsd (%rax), %xmm6 vmovsd (%rsi), %xmm1 vmovsd (%rcx), %xmm0 movl 32832(%rbx), %eax movb %al, %r11b andb $1, %r11b movq 31168(%rbx), %rcx vmovsd (%rcx), %xmm12 movq 31680(%rbx), %rcx vmovsd (%rcx), %xmm4 vmovsd (%rdx), %xmm7 movq 26336(%rbx), %rax vmovsd (%rax), %xmm3 movq 29696(%rbx), %rcx movq 20512(%rbx), %rax cmovneq %rax, %rcx movq %rcx, 29696(%rbx) jne .LBB1_3959 vmovapd %ymm2, 31424(%rbx) vmovapd %ymm5, 26112(%rbx) vxorpd %xmm2, %xmm2, %xmm2 jmp .LBB1_3961 .align 16, 0x90 .LBB1_3621: movq %rax, 14880(%rbx) vmovdqa 14912(%rbx), %ymm5 vpaddq %xmm5, %xmm13, %xmm0 movl %edx, 32864(%rbx) vmovd %xmm0, %rdx movq %rdx, 16800(%rbx) vmovaps 13472(%rbx), %ymm6 vextractf128 $1, %ymm6, %xmm2 vextractf128 $1, %ymm13, %xmm1 vpaddq %xmm2, %xmm1, %xmm3 vmovsd 33024(%rbx,%rcx,8), %xmm2 movq %rcx, 14784(%rbx) vmovd %xmm3, %rax movq %rax, 17920(%rbx) vmovsd 33024(%rbx,%rdx,8), %xmm4 vpextrq $1, %xmm0, %rcx movq %rcx, 16768(%rbx) vmovhpd 33024(%rbx,%r14,8), %xmm2, %xmm2 movq %r14, 14816(%rbx) vmovsd 33024(%rbx,%r11,8), %xmm7 movq %r11, 19968(%rbx) vmovhpd 33024(%rbx,%rcx,8), %xmm4, %xmm9 vextractf128 $1, %ymm5, %xmm4 vextractf128 $1, %ymm13, %xmm0 vpaddq %xmm6, %xmm13, %xmm5 vpextrq $1, %xmm3, %rsi movq %rsi, 17856(%rbx) vmovsd 33024(%rbx,%rax,8), %xmm3 vmovhpd 33024(%rbx,%r8,8), %xmm7, %xmm6 movq %r8, 20000(%rbx) vpaddq %xmm4, %xmm0, %xmm4 vpextrq $1, %xmm4, %rcx movq %rcx, 16736(%rbx) vmovd %xmm4, %rdx movq %rdx, 16704(%rbx) vmovsd 33024(%rbx,%rdx,8), %xmm4 vmovhpd 33024(%rbx,%rcx,8), %xmm4, %xmm7 vinsertf128 $1, %xmm6, %ymm2, %ymm8 vmovhpd 33024(%rbx,%rsi,8), %xmm3, %xmm2 vpextrq $1, %xmm5, %rax movq %rax, 17824(%rbx) vmovd %xmm5, %rcx movq %rcx, 17696(%rbx) vmovsd 33024(%rbx,%rcx,8), %xmm3 vmovhpd 33024(%rbx,%rax,8), %xmm3, %xmm3 vinsertf128 $1, %xmm2, %ymm3, %ymm10 vmovapd .LCPI1_19(%rip), %ymm11 vcmpltpd %ymm11, %ymm8, %ymm2 vinsertf128 $1, %xmm7, %ymm9, %ymm12 vextractf128 $1, %ymm2, %xmm3 vpshufd $8, %xmm3, %xmm3 vpshufd $8, %xmm2, %xmm2 vmovlhps %xmm3, %xmm2, %xmm7 vmovsd 33024(%rbx,%r9,8), %xmm2 movq %r9, 14720(%rbx) vmovhpd 33024(%rbx,%r12,8), %xmm2, %xmm2 movq %r12, 14752(%rbx) vmovsd 33024(%rbx,%rdi,8), %xmm3 movq %rdi, 14656(%rbx) vmovhpd 33024(%rbx,%r10,8), %xmm3, %xmm3 movq %r10, 14688(%rbx) vinsertf128 $1, %xmm2, %ymm3, %ymm5 vcmpltpd %ymm11, %ymm12, %ymm2 vextractf128 $1, %ymm2, %xmm3 vpshufd $8, %xmm3, %xmm3 vpshufd $8, %xmm2, %xmm2 vmovlhps %xmm3, %xmm2, %xmm2 vcmpltpd %ymm11, %ymm10, %ymm3 vextractf128 $1, %ymm3, %xmm6 vpshufd $8, %xmm6, %xmm6 vpshufd $8, %xmm3, %xmm3 vmovlhps %xmm6, %xmm3, %xmm3 vmovdqa .LCPI1_21(%rip), %xmm6 vmovdqa %xmm6, %xmm4 vpshufb %xmm4, %xmm3, %xmm3 vmovdqa .LCPI1_20(%rip), %xmm6 vpshufb %xmm6, %xmm2, %xmm2 vpor %xmm2, %xmm3, %xmm3 vpshufb %xmm6, %xmm7, %xmm2 vcmpltpd %ymm11, %ymm5, %ymm6 vextractf128 $1, %ymm6, %xmm7 vpshufd $8, %xmm7, %xmm7 vpshufd $8, %xmm6, %xmm6 vmovlhps %xmm7, %xmm6, %xmm6 vpshufb %xmm4, %xmm6, %xmm6 vpor %xmm2, %xmm6, %xmm2 vpsllw $15, %xmm3, %xmm3 vpsraw $15, %xmm3, %xmm3 vpunpcklbw %xmm0, %xmm3, %xmm6 vpslld $31, %xmm6, %xmm7 vpmovsxdq %xmm7, %xmm6 vmovhlps %xmm7, %xmm7, %xmm7 vpmovsxdq %xmm7, %xmm7 vinsertf128 $1, %xmm7, %ymm6, %ymm7 vpunpckhbw %xmm0, %xmm3, %xmm3 vpslld $31, %xmm3, %xmm6 vpmovsxdq %xmm6, %xmm3 vmovhlps %xmm6, %xmm6, %xmm6 vpmovsxdq %xmm6, %xmm6 vinsertf128 $1, %xmm6, %ymm3, %ymm9 vpsllw $15, %xmm2, %xmm2 vpsraw $15, %xmm2, %xmm3 vpunpcklbw %xmm0, %xmm3, %xmm2 vpslld $31, %xmm2, %xmm6 vpmovsxdq %xmm6, %xmm2 vmovhlps %xmm6, %xmm6, %xmm6 vpmovsxdq %xmm6, %xmm6 vinsertf128 $1, %xmm6, %ymm2, %ymm2 vpunpckhbw %xmm0, %xmm3, %xmm3 vpslld $31, %xmm3, %xmm6 vpmovsxdq %xmm6, %xmm3 vmovhlps %xmm6, %xmm6, %xmm6 vpmovsxdq %xmm6, %xmm6 vinsertf128 $1, %xmm6, %ymm3, %ymm3 vblendvpd %ymm9, %ymm11, %ymm12, %ymm4 vmovapd %ymm4, 31360(%rbx) vblendvpd %ymm7, %ymm11, %ymm10, %ymm4 vmovapd %ymm4, 31328(%rbx) vblendvpd %ymm3, %ymm11, %ymm8, %ymm3 vmovapd %ymm3, 26048(%rbx) vblendvpd %ymm2, %ymm11, %ymm5, %ymm2 vmovapd %ymm2, 24416(%rbx) vmovaps 13536(%rbx), %ymm8 vextractf128 $1, %ymm8, %xmm2 vpaddq %xmm2, %xmm1, %xmm10 vmovaps 13504(%rbx), %ymm9 vextractf128 $1, %ymm9, %xmm2 vpaddq %xmm2, %xmm1, %xmm2 vmovdqa %xmm2, 19808(%rbx) vmovaps 13568(%rbx), %ymm7 vextractf128 $1, %ymm7, %xmm2 vpaddq %xmm2, %xmm1, %xmm2 vmovdqa %xmm2, 19872(%rbx) vmovaps 13600(%rbx), %ymm6 vextractf128 $1, %ymm6, %xmm2 vpaddq %xmm2, %xmm1, %xmm2 vmovdqa %xmm2, 26144(%rbx) vmovaps 13696(%rbx), %ymm3 vextractf128 $1, %ymm3, %xmm2 vpaddq %xmm2, %xmm1, %xmm2 vmovdqa %xmm2, 32512(%rbx) vmovaps 13664(%rbx), %ymm4 vextractf128 $1, %ymm4, %xmm2 vpaddq %xmm2, %xmm1, %xmm2 vmovdqa %xmm2, 31424(%rbx) vmovaps 13632(%rbx), %ymm5 vextractf128 $1, %ymm5, %xmm2 vpaddq %xmm2, %xmm1, %xmm1 vmovdqa %xmm1, 26112(%rbx) vpaddq %xmm8, %xmm13, %xmm2 vpaddq %xmm9, %xmm13, %xmm8 vpaddq %xmm7, %xmm13, %xmm14 vpaddq %xmm5, %xmm13, %xmm1 vmovdqa %xmm1, 19936(%rbx) vpaddq %xmm6, %xmm13, %xmm1 vmovdqa %xmm1, 19904(%rbx) vpaddq %xmm3, %xmm13, %xmm1 vmovdqa %xmm1, 24480(%rbx) vpaddq %xmm4, %xmm13, %xmm1 vmovdqa %xmm1, 24448(%rbx) vmovd %xmm2, %rax movq %rax, 17376(%rbx) vpextrq $1, %xmm2, %rcx movq %rcx, 18880(%rbx) vmovdqa 14944(%rbx), %ymm9 vpaddq %xmm9, %xmm13, %xmm12 vmovdqa 14976(%rbx), %ymm15 vpaddq %xmm15, %xmm13, %xmm11 vmovdqa 15008(%rbx), %ymm5 vpaddq %xmm5, %xmm13, %xmm1 vmovdqa %xmm1, 19744(%rbx) vmovdqa 15040(%rbx), %ymm4 vpaddq %xmm4, %xmm13, %xmm1 vmovdqa %xmm1, 26080(%rbx) vmovdqa 15136(%rbx), %ymm1 vpaddq %xmm1, %xmm13, %xmm2 vmovdqa %xmm2, 32448(%rbx) vmovdqa 15104(%rbx), %ymm2 vpaddq %xmm2, %xmm13, %xmm3 vmovdqa %xmm3, 31392(%rbx) vmovdqa 15072(%rbx), %ymm3 vpaddq %xmm3, %xmm13, %xmm6 vmovdqa %xmm6, 24512(%rbx) vextractf128 $1, %ymm2, %xmm6 vextractf128 $1, %ymm4, %xmm2 vextractf128 $1, %ymm3, %xmm7 vextractf128 $1, %ymm5, %xmm3 vextractf128 $1, %ymm1, %xmm1 vextractf128 $1, %ymm15, %xmm4 vextractf128 $1, %ymm9, %xmm5 vpaddq %xmm5, %xmm0, %xmm5 vpaddq %xmm4, %xmm0, %xmm4 vpaddq %xmm1, %xmm0, %xmm13 vpaddq %xmm3, %xmm0, %xmm15 vpaddq %xmm7, %xmm0, %xmm1 vmovdqa %xmm1, 24384(%rbx) vpaddq %xmm2, %xmm0, %xmm2 vpaddq %xmm6, %xmm0, %xmm9 vmovsd 33024(%rbx,%rax,8), %xmm0 vmovaps %xmm0, 19840(%rbx) vmovd %xmm10, %rcx movq %rcx, 17600(%rbx) vpextrq $1, %xmm10, %rax movq %rax, 18848(%rbx) vmovsd 33024(%rbx,%rcx,8), %xmm0 vmovaps %xmm0, 19776(%rbx) vmovd %xmm8, %rcx movq %rcx, 17632(%rbx) vpextrq $1, %xmm8, %rax movq %rax, 18944(%rbx) vmovsd 33024(%rbx,%rcx,8), %xmm10 vmovapd 19808(%rbx), %xmm0 vmovd %xmm0, %rax movq %rax, 17568(%rbx) vpextrq $1, %xmm0, %rcx movq %rcx, 18912(%rbx) vmovsd 33024(%rbx,%rax,8), %xmm8 vmovd %xmm14, %rax movq %rax, 17440(%rbx) vpextrq $1, %xmm14, %r12 movq %r12, 17312(%rbx) vmovsd 33024(%rbx,%rax,8), %xmm14 vmovapd 19872(%rbx), %xmm0 vmovd %xmm0, %rax movq %rax, 17344(%rbx) vpextrq $1, %xmm0, %r14 movq %r14, 17184(%rbx) vmovsd 33024(%rbx,%rax,8), %xmm0 vmovd %xmm12, %rcx movq %rcx, 16672(%rbx) movl %r15d, 32832(%rbx) vpextrq $1, %xmm12, %r15 movq %r15, 14464(%rbx) vmovsd 33024(%rbx,%rcx,8), %xmm12 vmovd %xmm5, %rcx movq %rcx, 14560(%rbx) vpextrq $1, %xmm5, %r9 movq %r9, 14432(%rbx) vmovsd 33024(%rbx,%rcx,8), %xmm3 vmovd %xmm11, %rcx movq %rcx, 14528(%rbx) vpextrq $1, %xmm11, %r8 movq %r8, 14400(%rbx) vmovsd 33024(%rbx,%rcx,8), %xmm1 vmovd %xmm4, %rcx movq %rcx, 14496(%rbx) vpextrq $1, %xmm4, %rax movq %rax, 14336(%rbx) vmovsd 33024(%rbx,%rcx,8), %xmm4 vmovapd 19744(%rbx), %xmm5 vmovd %xmm5, %rcx movq %rcx, 14368(%rbx) vpextrq $1, %xmm5, %rdi movq %rdi, 14304(%rbx) vmovsd 33024(%rbx,%rcx,8), %xmm5 vmovd %xmm15, %rcx movq %rcx, 14272(%rbx) vpextrq $1, %xmm15, %rsi movq %rsi, 13376(%rbx) vmovsd 33024(%rbx,%rcx,8), %xmm6 vmovq %xmm13, 18688(%rbx) vpextrq $1, %xmm13, %rcx movq %rcx, 18656(%rbx) vmovapd 19904(%rbx), %xmm7 vmovq %xmm7, 18816(%rbx) vpextrq $1, %xmm7, %rcx movq %rcx, 18784(%rbx) vmovapd 26144(%rbx), %xmm7 vmovq %xmm7, 18752(%rbx) vpextrq $1, %xmm7, %rcx movq %rcx, 18720(%rbx) vmovapd 19936(%rbx), %xmm7 vmovq %xmm7, 18560(%rbx) vpextrq $1, %xmm7, %rcx movq %rcx, 18528(%rbx) vmovapd 26112(%rbx), %xmm7 vmovq %xmm7, 18496(%rbx) vpextrq $1, %xmm7, %rcx movq %rcx, 18464(%rbx) vmovapd 24448(%rbx), %xmm7 vmovq %xmm7, 18304(%rbx) vpextrq $1, %xmm7, %rcx movq %rcx, 18272(%rbx) vmovdqa 31424(%rbx), %xmm7 vpextrq $1, %xmm7, %rcx movq %rcx, 18240(%rbx) vmovq %xmm7, 18208(%rbx) vmovapd 24480(%rbx), %xmm7 vmovd %xmm7, %r10 movq %r10, 17888(%rbx) movl %r13d, 32992(%rbx) vpextrq $1, %xmm7, %r13 movq %r13, 17792(%rbx) vmovdqa 32512(%rbx), %xmm7 vpextrq $1, %xmm7, %rdx movq %rdx, 17760(%rbx) vmovd %xmm7, %r11 movq %r11, 17728(%rbx) vmovhpd 33024(%rbx,%r14,8), %xmm0, %xmm0 vmovapd %xmm0, 17664(%rbx) vmovhpd 33024(%rbx,%r12,8), %xmm14, %xmm0 vmovapd %ymm0, 17536(%rbx) movq 18912(%rbx), %rcx vmovhpd 33024(%rbx,%rcx,8), %xmm8, %xmm0 vmovapd %xmm0, 17504(%rbx) movq 18944(%rbx), %rcx vmovhpd 33024(%rbx,%rcx,8), %xmm10, %xmm0 vmovapd %ymm0, 17408(%rbx) movq 18848(%rbx), %rcx vmovapd 19776(%rbx), %xmm0 vmovhpd 33024(%rbx,%rcx,8), %xmm0, %xmm0 vmovapd %xmm0, 17248(%rbx) movq 18880(%rbx), %rcx vmovapd 19840(%rbx), %xmm0 vmovhpd 33024(%rbx,%rcx,8), %xmm0, %xmm0 vmovapd %ymm0, 17216(%rbx) vmovhpd 33024(%rbx,%rsi,8), %xmm6, %xmm0 vmovapd %xmm0, 17472(%rbx) vmovhpd 33024(%rbx,%rdi,8), %xmm5, %xmm0 vmovapd %ymm0, 17280(%rbx) vmovhpd 33024(%rbx,%rax,8), %xmm4, %xmm0 vmovapd %xmm0, 17152(%rbx) vmovhpd 33024(%rbx,%r8,8), %xmm1, %xmm0 vmovapd %ymm0, 16992(%rbx) vmovhpd 33024(%rbx,%r9,8), %xmm3, %xmm0 vmovapd %xmm0, 16960(%rbx) vmovhpd 33024(%rbx,%r15,8), %xmm12, %xmm0 vmovapd %ymm0, 16928(%rbx) vmovapd 26080(%rbx), %xmm0 vmovq %xmm0, 18624(%rbx) vpextrq $1, %xmm0, %rax movq %rax, 18592(%rbx) vmovq %xmm2, 18432(%rbx) vpextrq $1, %xmm2, %rax movq %rax, 18400(%rbx) vmovapd 24512(%rbx), %xmm0 vmovq %xmm0, 18368(%rbx) vpextrq $1, %xmm0, %rax movq %rax, 18336(%rbx) vmovapd 24384(%rbx), %xmm0 vmovd %xmm0, %r9 movq %r9, 13344(%rbx) vpextrq $1, %xmm0, %r15 movq %r15, 13312(%rbx) vmovapd 31392(%rbx), %xmm0 vmovd %xmm0, %r14 movq %r14, 13280(%rbx) vpextrq $1, %xmm0, %r8 movq %r8, 17120(%rbx) vmovd %xmm9, %rcx movq %rcx, 17088(%rbx) vpextrq $1, %xmm9, %rsi movq %rsi, 17056(%rbx) vmovdqa 32448(%rbx), %xmm0 vpextrq $1, %xmm0, %rdi movq %rdi, 17024(%rbx) vmovd %xmm0, %rax movq %rax, 13248(%rbx) vmovsd 33024(%rbx,%rdx,8), %xmm0 vmovsd %xmm0, 19168(%rbx) vmovsd 33024(%rbx,%r11,8), %xmm0 vmovsd %xmm0, 19104(%rbx) vmovsd 33024(%rbx,%r13,8), %xmm0 vmovsd %xmm0, 19296(%rbx) vmovsd 33024(%rbx,%r10,8), %xmm0 vmovsd %xmm0, 19200(%rbx) movq 18240(%rbx), %rdx vmovsd 33024(%rbx,%rdx,8), %xmm0 vmovsd %xmm0, 19424(%rbx) movq 18208(%rbx), %rdx vmovsd 33024(%rbx,%rdx,8), %xmm0 vmovsd %xmm0, 19360(%rbx) movq 18272(%rbx), %rdx vmovsd 33024(%rbx,%rdx,8), %xmm0 vmovsd %xmm0, 19520(%rbx) movq 18304(%rbx), %rdx vmovsd 33024(%rbx,%rdx,8), %xmm0 vmovsd %xmm0, 24512(%rbx) movq 18464(%rbx), %rdx vmovsd 33024(%rbx,%rdx,8), %xmm0 vmovsd %xmm0, 19648(%rbx) movq 18496(%rbx), %rdx vmovsd 33024(%rbx,%rdx,8), %xmm0 vmovsd %xmm0, 19584(%rbx) movq 18528(%rbx), %rdx vmovsd 33024(%rbx,%rdx,8), %xmm0 vmovsd %xmm0, 19776(%rbx) movq 18560(%rbx), %rdx vmovsd 33024(%rbx,%rdx,8), %xmm0 vmovsd %xmm0, 19680(%rbx) movq 18720(%rbx), %rdx vmovsd 33024(%rbx,%rdx,8), %xmm0 vmovsd %xmm0, 19872(%rbx) movq 18752(%rbx), %rdx vmovsd 33024(%rbx,%rdx,8), %xmm0 vmovsd %xmm0, 19840(%rbx) movq 18784(%rbx), %rdx vmovsd 33024(%rbx,%rdx,8), %xmm0 vmovsd %xmm0, 19936(%rbx) movq 18816(%rbx), %rdx vmovsd 33024(%rbx,%rdx,8), %xmm0 vmovsd %xmm0, 19904(%rbx) movq 18656(%rbx), %rdx vmovsd 33024(%rbx,%rdx,8), %xmm0 vmovsd %xmm0, 19040(%rbx) movq 18688(%rbx), %rdx vmovsd 33024(%rbx,%rdx,8), %xmm0 vmovsd %xmm0, 18976(%rbx) vmovsd 33024(%rbx,%rdi,8), %xmm0 vmovsd %xmm0, 19072(%rbx) vmovsd 33024(%rbx,%rax,8), %xmm0 vmovsd %xmm0, 19008(%rbx) vmovsd 33024(%rbx,%rsi,8), %xmm0 vmovsd %xmm0, 19264(%rbx) vmovsd 33024(%rbx,%rcx,8), %xmm0 vmovsd %xmm0, 19136(%rbx) vmovsd 33024(%rbx,%r8,8), %xmm0 vmovsd %xmm0, 19328(%rbx) vmovsd 33024(%rbx,%r14,8), %xmm0 vmovsd %xmm0, 19232(%rbx) vmovsd 33024(%rbx,%r15,8), %xmm0 vmovsd %xmm0, 19488(%rbx) vmovsd 33024(%rbx,%r9,8), %xmm0 vmovsd %xmm0, 19392(%rbx) movq 18336(%rbx), %rax vmovsd 33024(%rbx,%rax,8), %xmm0 vmovsd %xmm0, 19552(%rbx) movq 18368(%rbx), %rax vmovsd 33024(%rbx,%rax,8), %xmm0 vmovsd %xmm0, 19456(%rbx) movq 18400(%rbx), %rax vmovsd 33024(%rbx,%rax,8), %xmm0 vmovsd %xmm0, 19744(%rbx) movq 18432(%rbx), %rax vmovsd 33024(%rbx,%rax,8), %xmm0 vmovsd %xmm0, 19616(%rbx) movq 18592(%rbx), %rax vmovsd 33024(%rbx,%rax,8), %xmm0 vmovsd %xmm0, 19808(%rbx) movq 18624(%rbx), %rax vmovsd 33024(%rbx,%rax,8), %xmm0 vmovsd %xmm0, 19712(%rbx) movabsq $-4616189618054758400, %rsi movq 32640(%rbx), %rax movq %rsi, (%rax) movq 32064(%rbx), %rax movq %rsi, (%rax) movq 31520(%rbx), %rax movq %rsi, (%rax) movq 32480(%rbx), %rax movq %rsi, (%rax) movq 31488(%rbx), %rax movq %rsi, (%rax) movq 26560(%rbx), %rax movq %rsi, (%rax) movq 26432(%rbx), %rax movq %rsi, (%rax) movq 26304(%rbx), %rax movq %rsi, (%rax) vxorps %xmm0, %xmm0, %xmm0 movq 24832(%rbx), %rax vmovups %xmm0, 16(%rax) vmovups %xmm0, (%rax) movq 24768(%rbx), %rax vmovups %xmm0, 16(%rax) vmovups %xmm0, (%rax) movq 24672(%rbx), %rax vmovups %xmm0, 16(%rax) vmovups %xmm0, (%rax) movq 24640(%rbx), %rax vmovups %xmm0, 16(%rax) vmovups %xmm0, (%rax) movq 24608(%rbx), %rax vmovups %xmm0, 16(%rax) vmovups %xmm0, (%rax) movq 26240(%rbx), %rax vmovups %xmm0, 16(%rax) vmovups %xmm0, (%rax) movq 26208(%rbx), %rax vmovups %xmm0, 16(%rax) vmovups %xmm0, (%rax) movq 26176(%rbx), %rax vmovups %xmm0, 16(%rax) vmovups %xmm0, (%rax) movabsq $4607182418800017408, %rdx movq 25792(%rbx), %rax movq %rdx, (%rax) movq 25856(%rbx), %rax movq %rdx, (%rax) movq 25824(%rbx), %rax movq %rdx, (%rax) movq 25888(%rbx), %rax movq %rdx, (%rax) movq 25920(%rbx), %rax movq %rdx, (%rax) movq 25984(%rbx), %rax movq %rdx, (%rax) movq 25952(%rbx), %rax movq %rdx, (%rax) movq 26016(%rbx), %rax movq %rdx, (%rax) movq 31136(%rbx), %rax vmovaps %xmm0, 16(%rax) vmovaps %xmm0, (%rax) movq 31840(%rbx), %rax vmovaps %xmm0, 16(%rax) vmovaps %xmm0, (%rax) movq 31808(%rbx), %rax vmovaps %xmm0, 16(%rax) vmovaps %xmm0, (%rax) movq 31872(%rbx), %rax vmovaps %xmm0, 16(%rax) vmovaps %xmm0, (%rax) movq 32288(%rbx), %rax vmovaps %xmm0, 16(%rax) vmovaps %xmm0, (%rax) movq 32320(%rbx), %rax vmovaps %xmm0, 16(%rax) vmovaps %xmm0, (%rax) movq 32352(%rbx), %rax vmovaps %xmm0, 16(%rax) vmovaps %xmm0, (%rax) movq 32384(%rbx), %rax vmovaps %xmm0, 16(%rax) vmovaps %xmm0, (%rax) movq 31552(%rbx), %rax movq %rdx, (%rax) movq 31584(%rbx), %rax movq %rdx, (%rax) movq 31616(%rbx), %rax movq %rdx, (%rax) movq 31648(%rbx), %rax movq %rdx, (%rax) movq 31904(%rbx), %rax movq %rdx, (%rax) movq 31936(%rbx), %rax movq %rdx, (%rax) movq 31680(%rbx), %rax movq %rdx, (%rax) movq 31968(%rbx), %rax movq %rdx, (%rax) movq 31040(%rbx), %rax vmovups %xmm0, 16(%rax) vmovups %xmm0, (%rax) movq %rax, %r11 movq 31744(%rbx), %rcx vmovups %xmm0, 16(%rcx) vmovups %xmm0, (%rcx) movq 31712(%rbx), %rax vmovups %xmm0, 16(%rax) vmovups %xmm0, (%rax) movq %rax, %r15 movq %rcx, %r10 movq 31776(%rbx), %rax vmovups %xmm0, 16(%rax) vmovups %xmm0, (%rax) movq %rax, %r14 movq 32160(%rbx), %rax vmovups %xmm0, 16(%rax) vmovups %xmm0, (%rax) movq 32544(%rbx), %rax vmovups %xmm0, 16(%rax) vmovups %xmm0, (%rax) movq 32192(%rbx), %rax vmovups %xmm0, 16(%rax) vmovups %xmm0, (%rax) movq 32224(%rbx), %rax vmovups %xmm0, 16(%rax) vmovups %xmm0, (%rax) movq 31264(%rbx), %r12 movq %rdx, (%r12) movq %r12, %r8 movq 31296(%rbx), %rax movq %rdx, (%rax) movq 31200(%rbx), %rdi movq %rdx, (%rdi) movq 31232(%rbx), %r12 movq %rdx, (%r12) movq 32000(%rbx), %rcx movq %rdx, (%rcx) movq 32032(%rbx), %rcx movq %rdx, (%rcx) movq 31168(%rbx), %rcx movq %rdx, (%rcx) movq %rcx, %r9 movq 31072(%rbx), %rcx movq %rdx, (%rcx) movq %rcx, %r13 movq 30720(%rbx), %rcx movq %rsi, (%rcx) movq 30752(%rbx), %rcx movq %rsi, (%rcx) movq 30656(%rbx), %rcx movq %rsi, (%rcx) movq 30688(%rbx), %rcx movq %rsi, (%rcx) movq 30848(%rbx), %rcx movq %rsi, (%rcx) movq 31008(%rbx), %rcx movq %rsi, (%rcx) movq 30816(%rbx), %rcx movq %rsi, (%rcx) movq 30976(%rbx), %rcx movq %rsi, (%rcx) movabsq $-9223372036854775808, %rsi movq 30592(%rbx), %rcx movq %rsi, (%rcx) movq 30624(%rbx), %rcx movq %rsi, (%rcx) movq 30528(%rbx), %rcx movq %rsi, (%rcx) movq 30560(%rbx), %rcx movq %rsi, (%rcx) movq 30784(%rbx), %rcx movq %rsi, (%rcx) movq 30944(%rbx), %rcx movq %rsi, (%rcx) movq 30880(%rbx), %rcx movq %rsi, (%rcx) movq 30912(%rbx), %rcx movq %rsi, (%rcx) movq 16192(%rbx), %rcx movq %rsi, (%rcx) movq 22016(%rbx), %rcx movq %rsi, (%rcx) movq 21744(%rbx), %rcx movq %rsi, (%rcx) movq 15680(%rbx), %rcx movq %rsi, (%rcx) movq 15552(%rbx), %rcx movq %rsi, (%rcx) movq 15360(%rbx), %rcx movq %rsi, (%rcx) movq 20384(%rbx), %rcx movq %rsi, (%rcx) movq 20032(%rbx), %rcx movq %rsi, (%rcx) movq 24896(%rbx), %rcx movq %rsi, (%rcx) movq 24864(%rbx), %rcx movq %rsi, (%rcx) movq 26752(%rbx), %rcx movq %rsi, (%rcx) movq 26656(%rbx), %rcx movq %rsi, (%rcx) movq 24704(%rbx), %rcx movq %rsi, (%rcx) movq 26496(%rbx), %rcx movq %rsi, (%rcx) movq 26368(%rbx), %rcx movq %rsi, (%rcx) movq 26272(%rbx), %rcx movq %rsi, (%rcx) movq 16224(%rbx), %rcx movq %rsi, (%rcx) movq 16000(%rbx), %rcx movq %rsi, (%rcx) movq 15808(%rbx), %rcx movq %rsi, (%rcx) movq 21504(%rbx), %rcx movq %rsi, (%rcx) movq 15584(%rbx), %rcx movq %rsi, (%rcx) movq 15392(%rbx), %rcx movq %rsi, (%rcx) movq 20448(%rbx), %rcx movq %rsi, (%rcx) movq 20096(%rbx), %rcx movq %rsi, (%rcx) vmovsd (%rdi), %xmm0 vmovhpd (%r12), %xmm0, %xmm0 vmovsd (%r8), %xmm1 vmovhpd (%rax), %xmm1, %xmm1 vinsertf128 $1, %xmm0, %ymm1, %ymm5 vmovapd %ymm5, 13056(%rbx) movq 31616(%rbx), %rax vmovsd (%rax), %xmm0 movq 31648(%rbx), %rax vmovhpd (%rax), %xmm0, %xmm0 movq 31552(%rbx), %rax vmovsd (%rax), %xmm1 movq 31584(%rbx), %rax vmovhpd (%rax), %xmm1, %xmm1 vinsertf128 $1, %xmm0, %ymm1, %ymm7 vmovapd %ymm7, 32448(%rbx) movq 31520(%rbx), %r12 vmovsd (%r12), %xmm0 movq 32480(%rbx), %rax vmovhpd (%rax), %xmm0, %xmm0 movq 32640(%rbx), %rax vmovsd (%rax), %xmm1 movq 32064(%rbx), %rax vmovhpd (%rax), %xmm1, %xmm1 vinsertf128 $1, %xmm0, %ymm1, %ymm4 vmovapd %ymm4, 18016(%rbx) movq 21776(%rbx), %rax vmovsd (%rax), %xmm0 movq 21536(%rbx), %rax vmovhpd (%rax), %xmm0, %xmm0 movq 22368(%rbx), %rax vmovsd (%rax), %xmm1 movq 22080(%rbx), %rax vmovhpd (%rax), %xmm1, %xmm1 vinsertf128 $1, %xmm0, %ymm1, %ymm6 vmovapd %ymm6, 31392(%rbx) vmovsd (%r15), %xmm0 vmovhpd (%r14), %xmm0, %xmm0 vmovsd (%r11), %xmm1 vmovhpd (%r10), %xmm1, %xmm1 vinsertf128 $1, %xmm0, %ymm1, %ymm3 vmovapd %ymm3, 18176(%rbx) movq 26720(%rbx), %rax vmovsd (%rax), %xmm0 movq 26624(%rbx), %rax vmovhpd (%rax), %xmm0, %xmm0 movq 26880(%rbx), %rax vmovsd (%rax), %xmm1 movq 26816(%rbx), %rax vmovhpd (%rax), %xmm1, %xmm1 vinsertf128 $1, %xmm0, %ymm1, %ymm8 vmovapd %ymm8, 18112(%rbx) movq 22688(%rbx), %rdx vmovsd (%rdx), %xmm0 movq 22720(%rbx), %rdx vmovhpd (%rdx), %xmm0, %xmm1 movq 16608(%rbx), %rdx vmovsd (%rdx), %xmm0 movq 22752(%rbx), %rdx vmovhpd (%rdx), %xmm0, %xmm2 vmulpd %ymm3, %ymm8, %ymm0 vmovapd %ymm3, %ymm11 vmulpd %ymm6, %ymm0, %ymm0 vmulpd %ymm7, %ymm4, %ymm3 vmovapd %ymm7, %ymm13 vmovapd %ymm4, %ymm10 vmulpd %ymm5, %ymm3, %ymm3 vmovapd %ymm5, %ymm7 vaddpd %ymm0, %ymm3, %ymm0 vinsertf128 $1, %xmm1, %ymm2, %ymm4 vmovapd %ymm4, 32512(%rbx) movq 26784(%rbx), %rax vmovsd (%rax), %xmm1 movq 26688(%rbx), %rax vmovhpd (%rax), %xmm1, %xmm1 movq 26912(%rbx), %rax vmovsd (%rax), %xmm2 movq 26848(%rbx), %rax vmovhpd (%rax), %xmm2, %xmm2 vinsertf128 $1, %xmm1, %ymm2, %ymm3 vmovapd %ymm3, 24384(%rbx) movq 21760(%rbx), %rax vmovsd (%rax), %xmm1 movq 21472(%rbx), %rax vmovhpd (%rax), %xmm1, %xmm1 movq 22336(%rbx), %rax vmovsd (%rax), %xmm2 movq 22048(%rbx), %rax vmovhpd (%rax), %xmm2, %xmm2 vinsertf128 $1, %xmm1, %ymm2, %ymm2 vmovapd %ymm2, 18048(%rbx) vmulpd %ymm3, %ymm2, %ymm1 vmovapd %ymm2, %ymm9 vmulpd %ymm4, %ymm1, %ymm1 vmovapd %ymm4, %ymm8 vaddpd %ymm1, %ymm0, %ymm0 vmovsd (%r9), %xmm1 vmovhpd (%r13), %xmm1, %xmm1 movq 32000(%rbx), %rax vmovsd (%rax), %xmm2 movq 32032(%rbx), %rax vmovhpd (%rax), %xmm2, %xmm2 vinsertf128 $1, %xmm1, %ymm2, %ymm1 vmovapd %ymm1, 31424(%rbx) movq 31680(%rbx), %rax vmovsd (%rax), %xmm1 movq 31968(%rbx), %rax vmovhpd (%rax), %xmm1, %xmm1 movq 31904(%rbx), %rax vmovsd (%rax), %xmm2 movq 31936(%rbx), %rax vmovhpd (%rax), %xmm2, %xmm2 vinsertf128 $1, %xmm1, %ymm2, %ymm15 movq 26432(%rbx), %r14 vmovsd (%r14), %xmm1 movq 26304(%rbx), %rax vmovhpd (%rax), %xmm1, %xmm1 movq 31488(%rbx), %rcx vmovsd (%rcx), %xmm2 movq 26560(%rbx), %r13 vmovhpd (%r13), %xmm2, %xmm2 vinsertf128 $1, %xmm1, %ymm2, %ymm6 vmovapd %ymm6, 18080(%rbx) movq 20480(%rbx), %rax vmovsd (%rax), %xmm1 movq 20128(%rbx), %rax vmovhpd (%rax), %xmm1, %xmm1 movq 21120(%rbx), %rax vmovsd (%rax), %xmm2 movq 20800(%rbx), %rax vmovhpd (%rax), %xmm2, %xmm2 vinsertf128 $1, %xmm1, %ymm2, %ymm12 vmovapd %ymm12, 13024(%rbx) movq 32192(%rbx), %rax vmovsd (%rax), %xmm1 movq 32224(%rbx), %rax vmovhpd (%rax), %xmm1, %xmm1 movq 32160(%rbx), %rax vmovsd (%rax), %xmm2 movq 32544(%rbx), %rax vmovhpd (%rax), %xmm2, %xmm2 vinsertf128 $1, %xmm1, %ymm2, %ymm5 vmovapd %ymm5, 24480(%rbx) movq 26336(%rbx), %rax vmovsd (%rax), %xmm1 movq 24544(%rbx), %rax vmovhpd (%rax), %xmm1, %xmm1 movq 26592(%rbx), %rax vmovsd (%rax), %xmm2 movq 26464(%rbx), %rax vmovhpd (%rax), %xmm2, %xmm2 vinsertf128 $1, %xmm1, %ymm2, %ymm14 vmovapd %ymm14, 13184(%rbx) movq 22784(%rbx), %rdx vmovsd (%rdx), %xmm1 movq 22816(%rbx), %r8 vmovhpd (%r8), %xmm1, %xmm2 movq 22624(%rbx), %rdx vmovsd (%rdx), %xmm1 movq 22656(%rbx), %rdx vmovhpd (%rdx), %xmm1, %xmm4 vmulpd %ymm11, %ymm10, %ymm1 vmulpd %ymm8, %ymm1, %ymm1 vsubpd %ymm1, %ymm0, %ymm0 vmovapd 18112(%rbx), %ymm8 vmulpd %ymm3, %ymm8, %ymm1 vmovapd %ymm8, %ymm11 vmovapd %ymm3, %ymm8 vmulpd %ymm1, %ymm7, %ymm1 vsubpd %ymm1, %ymm0, %ymm0 vmulpd %ymm9, %ymm13, %ymm1 vmovapd 31392(%rbx), %ymm3 vmulpd %ymm1, %ymm3, %ymm1 vsubpd %ymm1, %ymm0, %ymm0 vmulpd %ymm5, %ymm14, %ymm1 vmovapd %ymm14, %ymm10 vmovapd %ymm12, %ymm9 vmulpd %ymm9, %ymm1, %ymm1 vmulpd %ymm15, %ymm6, %ymm3 vmovapd 31424(%rbx), %ymm14 vmulpd %ymm14, %ymm3, %ymm3 vaddpd %ymm1, %ymm3, %ymm1 vinsertf128 $1, %xmm2, %ymm4, %ymm12 vmovapd %ymm12, 14592(%rbx) movq 26400(%rbx), %rax vmovsd (%rax), %xmm2 movq 24576(%rbx), %rax vmovhpd (%rax), %xmm2, %xmm2 movq %rax, %r15 movq 24736(%rbx), %rax vmovsd (%rax), %xmm4 movq %rax, %r10 movq 26528(%rbx), %rax vmovhpd (%rax), %xmm4, %xmm4 vinsertf128 $1, %xmm2, %ymm4, %ymm3 vmovapd %ymm3, 24448(%rbx) movq 20416(%rbx), %rax vmovsd (%rax), %xmm2 movq 20064(%rbx), %rax vmovhpd (%rax), %xmm2, %xmm2 movq 21088(%rbx), %rax vmovsd (%rax), %xmm4 movq 20768(%rbx), %rax vmovhpd (%rax), %xmm4, %xmm4 vinsertf128 $1, %xmm2, %ymm4, %ymm4 vmovapd %ymm4, 16896(%rbx) vmulpd %ymm3, %ymm4, %ymm2 vmovapd %ymm4, %ymm7 vmovapd %ymm12, %ymm13 vmulpd %ymm13, %ymm2, %ymm2 vaddpd %ymm2, %ymm1, %ymm1 vmovapd .LCPI1_22(%rip), %ymm12 vmulpd %ymm12, %ymm0, %ymm0 movq 16256(%rbx), %rax vmovlpd %xmm0, (%rax) movq 16032(%rbx), %rax vmovhpd %xmm0, (%rax) vmulpd %ymm5, %ymm6, %ymm2 vmovapd %ymm5, %ymm4 vmulpd %ymm13, %ymm2, %ymm2 vsubpd %ymm2, %ymm1, %ymm1 vmulpd %ymm3, %ymm10, %ymm2 vmovapd %ymm3, %ymm5 vmulpd %ymm2, %ymm14, %ymm2 vsubpd %ymm2, %ymm1, %ymm1 vextractf128 $1, %ymm0, %xmm0 movq 15840(%rbx), %rax vmovlpd %xmm0, (%rax) movq 24800(%rbx), %rax vmovhpd %xmm0, (%rax) vmulpd %ymm7, %ymm15, %ymm0 vmovapd %ymm15, %ymm13 vmulpd %ymm0, %ymm9, %ymm0 vsubpd %ymm0, %ymm1, %ymm0 vmulpd %ymm12, %ymm0, %ymm0 movq 21152(%rbx), %rax vmovlpd %xmm0, (%rax) movq 20832(%rbx), %rax vmovhpd %xmm0, (%rax) vextractf128 $1, %ymm0, %xmm0 movq 20512(%rbx), %rax vmovlpd %xmm0, (%rax) movq 20160(%rbx), %rax vmovhpd %xmm0, (%rax) movq 31808(%rbx), %rax vmovsd (%rax), %xmm0 movq 31872(%rbx), %rax vmovhpd (%rax), %xmm0, %xmm0 movq 31136(%rbx), %rax vmovsd (%rax), %xmm1 movq 31840(%rbx), %rax vmovhpd (%rax), %xmm1, %xmm1 vinsertf128 $1, %xmm0, %ymm1, %ymm3 vmovapd %ymm3, 26080(%rbx) movq 24064(%rbx), %rax vmovsd (%rax), %xmm0 movq 24096(%rbx), %rax vmovhpd (%rax), %xmm0, %xmm0 movq 24128(%rbx), %rax vmovsd (%rax), %xmm1 movq 24160(%rbx), %rax vmovhpd (%rax), %xmm1, %xmm1 vinsertf128 $1, %xmm0, %ymm1, %ymm9 vmovapd %ymm9, 14624(%rbx) movq 32352(%rbx), %rax vmovsd (%rax), %xmm0 movq 32384(%rbx), %rax vmovhpd (%rax), %xmm0, %xmm0 movq 32288(%rbx), %rax vmovsd (%rax), %xmm1 movq 32320(%rbx), %rax vmovhpd (%rax), %xmm1, %xmm1 vinsertf128 $1, %xmm0, %ymm1, %ymm2 vmovapd %ymm2, 16832(%rbx) movq 24192(%rbx), %rax vmovsd (%rax), %xmm0 movq 24224(%rbx), %rax vmovhpd (%rax), %xmm0, %xmm0 movq 24256(%rbx), %rax vmovsd (%rax), %xmm1 movq 24288(%rbx), %rax vmovhpd (%rax), %xmm1, %xmm1 vinsertf128 $1, %xmm0, %ymm1, %ymm0 vmovapd %ymm0, 18144(%rbx) vmulpd %ymm10, %ymm0, %ymm0 vmovapd %ymm0, 13216(%rbx) vmulpd %ymm5, %ymm0, %ymm0 vmulpd %ymm2, %ymm6, %ymm1 vmovapd %ymm1, 13120(%rbx) vmovapd %ymm2, %ymm6 vmulpd %ymm4, %ymm1, %ymm1 vaddpd %ymm0, %ymm1, %ymm0 vmovapd %ymm11, %ymm10 vmulpd %ymm10, %ymm9, %ymm1 vmovapd %ymm1, 13152(%rbx) vmovapd %ymm9, %ymm5 vmulpd %ymm8, %ymm1, %ymm2 vmovapd 18016(%rbx), %ymm8 vmulpd %ymm3, %ymm8, %ymm1 vmovapd %ymm1, 13088(%rbx) vmovapd 18176(%rbx), %ymm9 vmulpd %ymm9, %ymm1, %ymm3 vaddpd %ymm2, %ymm3, %ymm2 movq 20544(%rbx), %rax vmovsd (%rax), %xmm4 movq 20192(%rbx), %rax vmovhpd (%rax), %xmm4, %xmm4 movq 21184(%rbx), %rax vmovsd (%rax), %xmm3 movq 20864(%rbx), %rax vmovhpd (%rax), %xmm3, %xmm3 vinsertf128 $1, %xmm4, %ymm3, %ymm14 vmovapd %ymm14, 26144(%rbx) movq 21792(%rbx), %rax vmovsd (%rax), %xmm3 movq 21568(%rbx), %rax vmovhpd (%rax), %xmm3, %xmm4 movq 22400(%rbx), %rax vmovsd (%rax), %xmm3 movq 22112(%rbx), %rax vmovhpd (%rax), %xmm3, %xmm3 vinsertf128 $1, %xmm4, %ymm3, %ymm3 vmovapd %ymm3, 26112(%rbx) vmovapd 18048(%rbx), %ymm15 vmulpd %ymm15, %ymm3, %ymm1 vmovapd %ymm1, 17984(%rbx) vmovapd %ymm3, %ymm4 vmovapd 32448(%rbx), %ymm12 vmulpd %ymm12, %ymm1, %ymm3 vaddpd %ymm3, %ymm2, %ymm11 vmovapd %ymm7, %ymm1 vmulpd %ymm1, %ymm14, %ymm2 vmovapd %ymm2, 17952(%rbx) vmovapd %ymm14, %ymm7 vmulpd %ymm13, %ymm2, %ymm2 vaddpd %ymm2, %ymm0, %ymm0 vmulpd %ymm4, %ymm10, %ymm4 vmovapd 13056(%rbx), %ymm14 vmulpd %ymm14, %ymm4, %ymm2 vmulpd %ymm5, %ymm8, %ymm10 vmovapd %ymm10, 18112(%rbx) vmulpd 32512(%rbx), %ymm10, %ymm3 vaddpd %ymm2, %ymm3, %ymm3 vmovapd 18080(%rbx), %ymm2 vmulpd 18144(%rbx), %ymm2, %ymm2 vmovapd %ymm2, 16864(%rbx) vmulpd %ymm13, %ymm2, %ymm8 vsubpd %ymm8, %ymm0, %ymm8 vmulpd %ymm12, %ymm10, %ymm0 vsubpd %ymm0, %ymm11, %ymm10 vmovapd 13184(%rbx), %ymm0 vmulpd %ymm7, %ymm0, %ymm11 vmovapd 31424(%rbx), %ymm5 vmulpd %ymm5, %ymm11, %ymm0 vmovapd 14592(%rbx), %ymm12 vmulpd %ymm12, %ymm2, %ymm7 vaddpd %ymm0, %ymm7, %ymm0 vmulpd %ymm6, %ymm1, %ymm7 vmovapd 13024(%rbx), %ymm1 vmulpd %ymm1, %ymm7, %ymm6 vaddpd %ymm6, %ymm0, %ymm0 vmulpd 13120(%rbx), %ymm5, %ymm5 vsubpd %ymm5, %ymm0, %ymm0 vmovapd 13216(%rbx), %ymm2 vmulpd %ymm1, %ymm2, %ymm5 vmovapd %ymm1, %ymm13 vsubpd %ymm5, %ymm0, %ymm5 vmulpd %ymm4, %ymm9, %ymm0 vsubpd %ymm0, %ymm10, %ymm4 vmovapd 24480(%rbx), %ymm0 vmulpd %ymm11, %ymm0, %ymm0 vsubpd %ymm0, %ymm8, %ymm8 vmulpd 26080(%rbx), %ymm15, %ymm10 vmovapd 31392(%rbx), %ymm6 vmulpd %ymm6, %ymm10, %ymm0 vaddpd %ymm0, %ymm3, %ymm0 vmulpd 13088(%rbx), %ymm14, %ymm1 vmovapd %ymm14, %ymm9 vsubpd %ymm1, %ymm0, %ymm0 vmovapd 13152(%rbx), %ymm1 vmulpd %ymm6, %ymm1, %ymm1 vmovapd %ymm6, %ymm14 vsubpd %ymm1, %ymm0, %ymm0 vmovapd 32512(%rbx), %ymm1 vmovapd 17984(%rbx), %ymm11 vmulpd %ymm11, %ymm1, %ymm1 vsubpd %ymm1, %ymm0, %ymm1 vmovapd 24448(%rbx), %ymm0 vmulpd %ymm7, %ymm0, %ymm0 vsubpd %ymm0, %ymm8, %ymm3 vmovapd 24384(%rbx), %ymm0 vmulpd %ymm10, %ymm0, %ymm0 vsubpd %ymm0, %ymm4, %ymm4 vmovapd 17952(%rbx), %ymm2 vmulpd %ymm2, %ymm12, %ymm0 vsubpd %ymm0, %ymm5, %ymm0 vmovapd .LCPI1_22(%rip), %ymm7 vmulpd %ymm7, %ymm1, %ymm1 movq 16288(%rbx), %rax vmovlpd %xmm1, (%rax) movq 22144(%rbx), %rax vmovhpd %xmm1, (%rax) vextractf128 $1, %ymm1, %xmm5 movq 21824(%rbx), %rax vmovlpd %xmm5, (%rax) movq 21600(%rbx), %rax vmovhpd %xmm5, (%rax) vmulpd %ymm7, %ymm0, %ymm8 movq 21216(%rbx), %rax vmovlpd %xmm8, (%rax) vmulpd %ymm7, %ymm4, %ymm6 vmovapd %ymm6, 13152(%rbx) vmulpd %ymm7, %ymm3, %ymm0 vmovapd %ymm0, 13216(%rbx) movq 20896(%rbx), %rax vmovhpd %xmm8, (%rax) vextractf128 $1, %ymm0, %xmm3 vmovapd %xmm3, 13184(%rbx) vextractf128 $1, %ymm6, %xmm7 vmovapd %xmm7, 13120(%rbx) vextractf128 $1, %ymm8, %xmm4 movq 20576(%rbx), %rax vmovlpd %xmm4, (%rax) movq 20224(%rbx), %rax vmovhpd %xmm4, (%rax) movq 16320(%rbx), %rax vmovlpd %xmm6, (%rax) movq 22176(%rbx), %rax vmovhpd %xmm6, (%rax) movq 15872(%rbx), %rax vmovlpd %xmm7, (%rax) movq 15712(%rbx), %rax vmovhpd %xmm7, (%rax) movq 21248(%rbx), %rax vmovlpd %xmm0, (%rax) movq 15424(%rbx), %rax vmovhpd %xmm0, (%rax) movq 15232(%rbx), %rax vmovlpd %xmm3, (%rax) movq 20256(%rbx), %rax vmovhpd %xmm3, (%rax) movq 16352(%rbx), %rax movq %rsi, (%rax) movq 16064(%rbx), %rax movq %rsi, (%rax) movq 15904(%rbx), %rax movq %rsi, (%rax) movq 21632(%rbx), %rax movq %rsi, (%rax) movq 21280(%rbx), %rax movq %rsi, (%rax) movq 20928(%rbx), %rax movq %rsi, (%rax) movq 20608(%rbx), %rax movq %rsi, (%rax) movq 20288(%rbx), %rax movq %rsi, (%rax) movq 16384(%rbx), %rax vmovlpd %xmm1, (%rax) movq 16096(%rbx), %rax vmovhpd %xmm1, (%rax) movq 21856(%rbx), %rax vmovlpd %xmm5, (%rax) movq 15744(%rbx), %rax vmovhpd %xmm5, (%rax) movq 21312(%rbx), %rax vmovlpd %xmm8, (%rax) movq 15456(%rbx), %rax vmovhpd %xmm8, (%rax) movq 15264(%rbx), %rax vmovlpd %xmm4, (%rax) movq 20320(%rbx), %rax vmovhpd %xmm4, (%rax) movq 25824(%rbx), %rax vmovsd (%rax), %xmm0 movq 25888(%rbx), %rax vmovhpd (%rax), %xmm0, %xmm1 movq 25792(%rbx), %rax vmovsd (%rax), %xmm0 movq 25856(%rbx), %rax vmovhpd (%rax), %xmm0, %xmm3 movq 24672(%rbx), %rax vmovsd (%rax), %xmm0 movq 24640(%rbx), %rax vmovhpd (%rax), %xmm0, %xmm0 movq 24832(%rbx), %rax vmovsd (%rax), %xmm4 movq 24768(%rbx), %rax vmovhpd (%rax), %xmm4, %xmm4 vinsertf128 $1, %xmm0, %ymm4, %ymm4 vmovapd %ymm4, 13088(%rbx) vinsertf128 $1, %xmm1, %ymm3, %ymm1 vmovapd %ymm1, 32448(%rbx) movq 25952(%rbx), %rax vmovsd (%rax), %xmm0 movq 26016(%rbx), %rax vmovhpd (%rax), %xmm0, %xmm5 movq 25920(%rbx), %rax vmovsd (%rax), %xmm0 movq 25984(%rbx), %rax vmovhpd (%rax), %xmm0, %xmm10 vmovapd 18016(%rbx), %ymm0 vmulpd %ymm1, %ymm0, %ymm3 vmovapd %ymm3, 12992(%rbx) vmulpd 14624(%rbx), %ymm4, %ymm12 vmulpd %ymm14, %ymm12, %ymm0 vmovapd %ymm9, %ymm14 vmulpd %ymm14, %ymm3, %ymm3 vaddpd %ymm0, %ymm3, %ymm8 movq 26208(%rbx), %rax vmovsd (%rax), %xmm0 movq 26176(%rbx), %rax vmovhpd (%rax), %xmm0, %xmm0 movq 24608(%rbx), %rax vmovsd (%rax), %xmm3 movq 26240(%rbx), %rax vmovhpd (%rax), %xmm3, %xmm3 vinsertf128 $1, %xmm0, %ymm3, %ymm9 vmovapd %ymm9, 18016(%rbx) vinsertf128 $1, %xmm5, %ymm10, %ymm5 vmovapd %ymm5, 32512(%rbx) movq 14048(%rbx), %rax vmovsd (%rax), %xmm0 movq 14080(%rbx), %rax vmovhpd (%rax), %xmm0, %xmm0 movq 24352(%rbx), %rax vmovsd (%rax), %xmm3 movq 14112(%rbx), %rax vmovhpd (%rax), %xmm3, %xmm3 vinsertf128 $1, %xmm0, %ymm3, %ymm6 vmovapd %ymm6, 14592(%rbx) vmulpd %ymm6, %ymm11, %ymm0 vaddpd %ymm0, %ymm8, %ymm15 vmovapd 18080(%rbx), %ymm0 vmulpd %ymm5, %ymm0, %ymm3 vmovapd %ymm3, 12960(%rbx) vmovapd %ymm5, %ymm7 vmulpd 18144(%rbx), %ymm9, %ymm10 vmulpd %ymm13, %ymm10, %ymm0 vmovapd 31424(%rbx), %ymm8 vmulpd %ymm8, %ymm3, %ymm3 vaddpd %ymm0, %ymm3, %ymm3 movq 14144(%rbx), %rax vmovsd (%rax), %xmm0 movq 14176(%rbx), %rax vmovhpd (%rax), %xmm0, %xmm0 movq 14208(%rbx), %rax vmovsd (%rax), %xmm5 movq 14240(%rbx), %rax vmovhpd (%rax), %xmm5, %xmm5 vinsertf128 $1, %xmm0, %ymm5, %ymm5 vmovapd %ymm5, 14624(%rbx) vmulpd %ymm5, %ymm2, %ymm0 vaddpd %ymm0, %ymm3, %ymm0 vmovapd 16864(%rbx), %ymm11 vmulpd %ymm5, %ymm11, %ymm3 vsubpd %ymm3, %ymm0, %ymm5 vmovapd 18112(%rbx), %ymm0 vmulpd %ymm6, %ymm0, %ymm0 vsubpd %ymm0, %ymm15, %ymm0 vmulpd 26112(%rbx), %ymm4, %ymm2 vmovapd %ymm2, 18080(%rbx) vmulpd %ymm2, %ymm14, %ymm3 vmovapd %ymm2, %ymm6 vsubpd %ymm3, %ymm0, %ymm3 vmulpd 18048(%rbx), %ymm1, %ymm0 vmovapd 31392(%rbx), %ymm1 vmulpd %ymm0, %ymm1, %ymm4 vsubpd %ymm4, %ymm3, %ymm3 vmulpd 26144(%rbx), %ymm9, %ymm2 vmovapd %ymm2, 18144(%rbx) vmulpd %ymm2, %ymm8, %ymm4 vmovapd %ymm2, %ymm9 vsubpd %ymm4, %ymm5, %ymm15 vmovapd 24384(%rbx), %ymm4 vmulpd %ymm4, %ymm12, %ymm1 vmulpd %ymm4, %ymm0, %ymm5 vmulpd 16896(%rbx), %ymm7, %ymm4 vmulpd %ymm4, %ymm13, %ymm0 vmovapd 24448(%rbx), %ymm2 vmulpd %ymm2, %ymm4, %ymm7 vmulpd %ymm2, %ymm10, %ymm4 vmovapd .LCPI1_22(%rip), %ymm12 vmulpd %ymm12, %ymm3, %ymm3 movq 16416(%rbx), %rax vmovlpd %xmm3, (%rax) movq 22208(%rbx), %rax vmovhpd %xmm3, (%rax) vextractf128 $1, %ymm3, %xmm3 movq 21888(%rbx), %rax vmovlpd %xmm3, (%rax) movq 21664(%rbx), %rax vmovhpd %xmm3, (%rax) vsubpd %ymm0, %ymm15, %ymm0 vmulpd %ymm12, %ymm0, %ymm0 movq 21344(%rbx), %rax vmovlpd %xmm0, (%rax) movq 20960(%rbx), %rax vmovhpd %xmm0, (%rax) vextractf128 $1, %ymm0, %xmm0 movq 20640(%rbx), %rax vmovlpd %xmm0, (%rax) movq 20352(%rbx), %rax vmovhpd %xmm0, (%rax) movq 24320(%rbx), %rax vmovsd (%rax), %xmm0 movq 13952(%rbx), %rax vmovhpd (%rax), %xmm0, %xmm0 movq 13984(%rbx), %rax vmovsd (%rax), %xmm3 movq 14016(%rbx), %rax vmovhpd (%rax), %xmm3, %xmm3 vinsertf128 $1, %xmm0, %ymm3, %ymm15 vmovapd %ymm15, 16896(%rbx) vmovapd 24480(%rbx), %ymm2 vmulpd 12960(%rbx), %ymm2, %ymm0 vmulpd %ymm2, %ymm9, %ymm3 vmulpd %ymm15, %ymm11, %ymm2 vaddpd %ymm3, %ymm2, %ymm2 vaddpd %ymm7, %ymm2, %ymm2 vsubpd %ymm0, %ymm2, %ymm0 movq 13856(%rbx), %rax vmovsd (%rax), %xmm2 movq 13888(%rbx), %rax vmovhpd (%rax), %xmm2, %xmm2 movq 16640(%rbx), %rax vmovsd (%rax), %xmm3 movq 13920(%rbx), %rax vmovhpd (%rax), %xmm3, %xmm3 vinsertf128 $1, %xmm2, %ymm3, %ymm11 vmovapd %ymm11, 16864(%rbx) vsubpd %ymm4, %ymm0, %ymm2 vmovapd 18176(%rbx), %ymm3 vmulpd 12992(%rbx), %ymm3, %ymm0 vmulpd %ymm3, %ymm6, %ymm3 vmovapd 18112(%rbx), %ymm4 vmulpd %ymm11, %ymm4, %ymm4 vaddpd %ymm3, %ymm4, %ymm3 vaddpd %ymm5, %ymm3, %ymm3 vsubpd %ymm0, %ymm3, %ymm0 vsubpd %ymm1, %ymm0, %ymm0 vmulpd 17984(%rbx), %ymm11, %ymm1 vsubpd %ymm1, %ymm0, %ymm0 vmulpd 17952(%rbx), %ymm15, %ymm1 vsubpd %ymm1, %ymm2, %ymm2 vmulpd %ymm12, %ymm0, %ymm0 movq 16448(%rbx), %rax vmovlpd %xmm0, (%rax) movq 22240(%rbx), %rax vmovhpd %xmm0, (%rax) vextractf128 $1, %ymm0, %xmm1 movq 21920(%rbx), %rax vmovlpd %xmm1, (%rax) movq 15776(%rbx), %rax vmovhpd %xmm1, (%rax) vmulpd %ymm12, %ymm2, %ymm2 movq 21376(%rbx), %rax vmovlpd %xmm2, (%rax) movq 15488(%rbx), %rax vmovhpd %xmm2, (%rax) vextractf128 $1, %ymm2, %xmm4 movq 20672(%rbx), %rax vmovlpd %xmm4, (%rax) movq 13728(%rbx), %rdx vmovhpd %xmm4, (%rdx) movq 26272(%rbx), %rax vmovsd (%rax), %xmm8 movq 26368(%rbx), %rax vmovsd (%rax), %xmm9 movq 26496(%rbx), %rax vmovsd (%rax), %xmm10 movq 24704(%rbx), %rax vmovsd (%rax), %xmm14 movq 26656(%rbx), %rax vmovsd (%rax), %xmm5 movq 26752(%rbx), %rax vmovsd (%rax), %xmm6 movq 24864(%rbx), %rax vmovsd (%rax), %xmm3 movq 24896(%rbx), %rax vmovsd (%rax), %xmm7 movq 16480(%rbx), %rax vmovsd %xmm7, (%rax) movq 22272(%rbx), %rax vmovsd %xmm3, (%rax) movq 21952(%rbx), %rax vmovsd %xmm6, (%rax) movq 21680(%rbx), %rax vmovsd %xmm5, (%rax) movq 21408(%rbx), %rax vmovsd %xmm14, (%rax) movq 20992(%rbx), %rax vmovsd %xmm10, (%rax) movq 20704(%rbx), %rax vmovsd %xmm9, (%rax) movq 15168(%rbx), %r11 vmovsd %xmm8, (%r11) movq 16512(%rbx), %rax vmovapd 13152(%rbx), %ymm3 vmovlpd %xmm3, (%rax) movq 16128(%rbx), %rax vmovhpd %xmm3, (%rax) movq 15936(%rbx), %rax vmovapd 13120(%rbx), %xmm3 vmovlpd %xmm3, (%rax) movq 21696(%rbx), %rax vmovhpd %xmm3, (%rax) movq 21440(%rbx), %rax vmovapd 13216(%rbx), %ymm3 vmovlpd %xmm3, (%rax) movq 21024(%rbx), %rax vmovhpd %xmm3, (%rax) vmovapd 13184(%rbx), %xmm3 movq 20736(%rbx), %rax vmovlpd %xmm3, (%rax) movq 13760(%rbx), %rsi vmovhpd %xmm3, (%rsi) movq 16544(%rbx), %rax vmovlpd %xmm0, (%rax) movq 22304(%rbx), %rax vmovhpd %xmm0, (%rax) movq 15968(%rbx), %rax vmovlpd %xmm1, (%rax) movq 21712(%rbx), %rax vmovhpd %xmm1, (%rax) movq 15616(%rbx), %rax vmovlpd %xmm2, (%rax) movq 21056(%rbx), %rax vmovhpd %xmm2, (%rax) movq 15296(%rbx), %r9 vmovlpd %xmm4, (%r9) movq 13792(%rbx), %rdi vmovhpd %xmm4, (%rdi) movq 31616(%rbx), %rax vmovsd (%rax), %xmm0 movq 31648(%rbx), %rax vmovhpd (%rax), %xmm0, %xmm0 movq 31552(%rbx), %rax vmovsd (%rax), %xmm1 movq 31584(%rbx), %rax vmovhpd (%rax), %xmm1, %xmm1 vinsertf128 $1, %xmm0, %ymm1, %ymm0 vmovapd %ymm0, 24384(%rbx) vmovapd %ymm0, %ymm5 vmovsd (%r12), %xmm0 movq 32480(%rbx), %rax vmovhpd (%rax), %xmm0, %xmm0 movq 32640(%rbx), %rax vmovsd (%rax), %xmm1 movq 32064(%rbx), %rax vmovhpd (%rax), %xmm1, %xmm1 vinsertf128 $1, %xmm0, %ymm1, %ymm1 movq 26784(%rbx), %rax vmovsd (%rax), %xmm0 movq 26688(%rbx), %rax vmovhpd (%rax), %xmm0, %xmm0 movq 26912(%rbx), %rax vmovsd (%rax), %xmm2 movq 26848(%rbx), %rax vmovhpd (%rax), %xmm2, %xmm2 vinsertf128 $1, %xmm0, %ymm2, %ymm8 movq 31680(%rbx), %rax vmovsd (%rax), %xmm2 movq 31968(%rbx), %rax vmovhpd (%rax), %xmm2, %xmm2 movq 31904(%rbx), %rax vmovsd (%rax), %xmm3 movq 31936(%rbx), %rax vmovhpd (%rax), %xmm3, %xmm3 vmovapd 26080(%rbx), %ymm7 vmovapd 13088(%rbx), %ymm0 vmulpd %ymm7, %ymm0, %ymm0 vmulpd %ymm8, %ymm0, %ymm4 vmovapd 32448(%rbx), %ymm9 vmulpd %ymm9, %ymm1, %ymm0 vmulpd %ymm5, %ymm0, %ymm0 vmovapd %ymm5, %ymm14 vaddpd %ymm4, %ymm0, %ymm4 vinsertf128 $1, %xmm2, %ymm3, %ymm0 vmovapd %ymm0, 31392(%rbx) vmovapd %ymm0, %ymm12 vmovsd (%r14), %xmm2 movq 26304(%rbx), %r8 vmovhpd (%r8), %xmm2, %xmm2 vmovsd (%rcx), %xmm3 vmovhpd (%r13), %xmm3, %xmm3 vinsertf128 $1, %xmm2, %ymm3, %ymm3 movq 26400(%rbx), %rax vmovsd (%rax), %xmm2 vmovhpd (%r15), %xmm2, %xmm2 vmovsd (%r10), %xmm5 movq 26528(%rbx), %rax vmovhpd (%rax), %xmm5, %xmm5 vinsertf128 $1, %xmm2, %ymm5, %ymm2 movq 26720(%rbx), %rax vmovsd (%rax), %xmm5 movq 26624(%rbx), %rax vmovhpd (%rax), %xmm5, %xmm5 movq 26880(%rbx), %rax vmovsd (%rax), %xmm6 movq 26816(%rbx), %rax vmovhpd (%rax), %xmm6, %xmm6 vinsertf128 $1, %xmm5, %ymm6, %ymm5 vmulpd 26112(%rbx), %ymm5, %ymm0 vmulpd %ymm11, %ymm0, %ymm0 vaddpd %ymm0, %ymm4, %ymm4 vmovapd 16832(%rbx), %ymm13 vmovapd 18016(%rbx), %ymm0 vmulpd %ymm13, %ymm0, %ymm0 vmulpd %ymm2, %ymm0, %ymm6 vmovapd 32512(%rbx), %ymm10 vmulpd %ymm10, %ymm3, %ymm0 vmulpd %ymm12, %ymm0, %ymm0 vaddpd %ymm6, %ymm0, %ymm6 vmulpd %ymm7, %ymm1, %ymm7 movq 26336(%rbx), %rax vmovsd (%rax), %xmm1 movq 24544(%rbx), %r15 vmovhpd (%r15), %xmm1, %xmm1 movq 26592(%rbx), %rax vmovsd (%rax), %xmm0 movq 26464(%rbx), %rax vmovhpd (%rax), %xmm0, %xmm0 vinsertf128 $1, %xmm1, %ymm0, %ymm1 vmulpd 26144(%rbx), %ymm1, %ymm0 vmulpd %ymm15, %ymm0, %ymm0 vaddpd %ymm0, %ymm6, %ymm6 vmulpd %ymm11, %ymm7, %ymm0 vsubpd %ymm0, %ymm4, %ymm0 vmulpd 18080(%rbx), %ymm14, %ymm4 vsubpd %ymm4, %ymm0, %ymm4 vmulpd %ymm13, %ymm3, %ymm7 vmulpd %ymm5, %ymm9, %ymm0 vmulpd %ymm0, %ymm8, %ymm0 vsubpd %ymm0, %ymm4, %ymm3 vmulpd %ymm15, %ymm7, %ymm0 vsubpd %ymm0, %ymm6, %ymm0 vmulpd 18144(%rbx), %ymm12, %ymm4 vmovapd %ymm12, %ymm6 vsubpd %ymm4, %ymm0, %ymm0 vmulpd %ymm1, %ymm10, %ymm1 vmovapd %ymm10, %ymm4 vmulpd %ymm1, %ymm2, %ymm1 vmovapd .LCPI1_22(%rip), %ymm5 vmulpd %ymm5, %ymm3, %ymm2 movq 16576(%rbx), %rax vmovlpd %xmm2, (%rax) movq 16160(%rbx), %rax vmovhpd %xmm2, (%rax) vextractf128 $1, %ymm2, %xmm2 movq 21984(%rbx), %rax vmovlpd %xmm2, (%rax) movq 21728(%rbx), %rax vmovhpd %xmm2, (%rax) vsubpd %ymm1, %ymm0, %ymm0 vmulpd %ymm5, %ymm0, %ymm0 movq 15648(%rbx), %r13 vmovlpd %xmm0, (%r13) movq 15520(%rbx), %r14 vmovhpd %xmm0, (%r14) vextractf128 $1, %ymm0, %xmm0 movq 15328(%rbx), %rcx vmovlpd %xmm0, (%rcx) movq 15200(%rbx), %r10 vmovhpd %xmm0, (%r10) movl 32960(%rbx), %r12d andb $1, %r12b movq 27136(%rbx), %rax cmovneq %r10, %rax movq %rax, 27136(%rbx) movq 27520(%rbx), %rax cmovneq %rdi, %rax movq %rax, 27520(%rbx) movq 28320(%rbx), %rax cmovneq %rsi, %rax movq %rax, 28320(%rbx) movq 28512(%rbx), %rax cmovneq %r11, %rax movq %rax, 28512(%rbx) movq 27840(%rbx), %rax cmovneq %rdx, %rax movq %rax, 27840(%rbx) movq 28704(%rbx), %rax cmovneq 20352(%rbx), %rax movq %rax, 28704(%rbx) movq 29472(%rbx), %rax cmovneq 20320(%rbx), %rax movq %rax, 29472(%rbx) movq 28832(%rbx), %rax cmovneq 20288(%rbx), %rax movq %rax, 28832(%rbx) movq 29344(%rbx), %rax cmovneq 20256(%rbx), %rax movq %rax, 29344(%rbx) movq 29856(%rbx), %rax cmovneq 20224(%rbx), %rax movq %rax, 29856(%rbx) movq 29664(%rbx), %rax cmovneq 20160(%rbx), %rax movq %rax, 29664(%rbx) movq 29728(%rbx), %rax cmovneq 20096(%rbx), %rax movq %rax, 29728(%rbx) movq 30144(%rbx), %rax cmovneq 26272(%rbx), %rax movq %rax, 30144(%rbx) movq 30400(%rbx), %rax cmovneq 20032(%rbx), %rax movq %rax, 30400(%rbx) movq 23584(%rbx), %rax cmovneq 20064(%rbx), %rax movq %rax, 23584(%rbx) movq 23936(%rbx), %rax cmovneq %r15, %rax movq %rax, 23936(%rbx) movq 22528(%rbx), %rax cmovneq 20128(%rbx), %rax movq %rax, 22528(%rbx) movq 22848(%rbx), %rax cmovneq 24576(%rbx), %rax movq %rax, 22848(%rbx) movq 23360(%rbx), %rax cmovneq 20192(%rbx), %rax movq %rax, 23360(%rbx) movq 25088(%rbx), %rax movq 26176(%rbx), %rdx cmovneq %rdx, %rax movq %rax, 25088(%rbx) movq 23456(%rbx), %rax cmovneq %rdx, %rax movq %rax, 23456(%rbx) movq 32672(%rbx), %rax cmovneq 32224(%rbx), %rax movq %rax, 32672(%rbx) movq 25248(%rbx), %rax cmovneq 32384(%rbx), %rax movq %rax, 25248(%rbx) testb %r12b, %r12b movq 25696(%rbx), %rax cmovneq %r8, %rax movq %rax, 25696(%rbx) movl 32832(%rbx), %edx andb $1, %dl movq 27168(%rbx), %rax cmovneq %rcx, %rax movq %rax, 27168(%rbx) movq 27552(%rbx), %rax cmovneq %r9, %rax movq %rax, 27552(%rbx) movq 28352(%rbx), %rax cmovneq 20736(%rbx), %rax movq %rax, 28352(%rbx) movq 28544(%rbx), %rax cmovneq 20704(%rbx), %rax movq %rax, 28544(%rbx) movq 27872(%rbx), %rax cmovneq 20672(%rbx), %rax movq %rax, 27872(%rbx) movq 28736(%rbx), %rax cmovneq 20640(%rbx), %rax movq %rax, 28736(%rbx) movq 29504(%rbx), %rax cmovneq 15264(%rbx), %rax movq %rax, 29504(%rbx) movq 28864(%rbx), %rax cmovneq 20608(%rbx), %rax movq %rax, 28864(%rbx) movq 29376(%rbx), %rax cmovneq 15232(%rbx), %rax movq %rax, 29376(%rbx) movq 29888(%rbx), %rax cmovneq 20576(%rbx), %rax movq %rax, 29888(%rbx) movq 29696(%rbx), %rax cmovneq 20512(%rbx), %rax movq %rax, 29696(%rbx) movq 29760(%rbx), %rax cmovneq 20448(%rbx), %rax movq %rax, 29760(%rbx) movq 30176(%rbx), %rax cmovneq 26368(%rbx), %rax movq %rax, 30176(%rbx) movq 30432(%rbx), %rax cmovneq 20384(%rbx), %rax movq %rax, 30432(%rbx) movq 23616(%rbx), %rax cmovneq 20416(%rbx), %rax movq %rax, 23616(%rbx) movq 23968(%rbx), %rax cmovneq 26336(%rbx), %rax movq %rax, 23968(%rbx) movq 22560(%rbx), %rax cmovneq 20480(%rbx), %rax movq %rax, 22560(%rbx) movq 23712(%rbx), %rax cmovneq 26400(%rbx), %rax movq %rax, 23712(%rbx) movq 23392(%rbx), %rax cmovneq 20544(%rbx), %rax movq %rax, 23392(%rbx) movq 25120(%rbx), %rax movq 26208(%rbx), %rcx cmovneq %rcx, %rax movq %rax, 25120(%rbx) movq 23488(%rbx), %rax cmovneq %rcx, %rax movq %rax, 23488(%rbx) movq 32128(%rbx), %rax cmovneq 32192(%rbx), %rax movq %rax, 32128(%rbx) movq 25280(%rbx), %rax cmovneq 32352(%rbx), %rax movq %rax, 25280(%rbx) testb %dl, %dl movq 25728(%rbx), %rax cmovneq 26432(%rbx), %rax movq %rax, 25728(%rbx) movl 32928(%rbx), %ecx andb $1, %cl movq 27328(%rbx), %rax cmovneq %r14, %rax movq %rax, 27328(%rbx) movq 27712(%rbx), %rax cmovneq 21056(%rbx), %rax movq %rax, 27712(%rbx) movq 28576(%rbx), %rax cmovneq 21024(%rbx), %rax movq %rax, 28576(%rbx) movq 28768(%rbx), %rax cmovneq 20992(%rbx), %rax movq %rax, 28768(%rbx) movq 27968(%rbx), %rax cmovneq 15488(%rbx), %rax movq %rax, 27968(%rbx) movq 28896(%rbx), %rax cmovneq 20960(%rbx), %rax movq %rax, 28896(%rbx) movq 29600(%rbx), %rax cmovneq 15456(%rbx), %rax movq %rax, 29600(%rbx) movq 28960(%rbx), %rax cmovneq 20928(%rbx), %rax movq %rax, 28960(%rbx) movq 29536(%rbx), %rax cmovneq 15424(%rbx), %rax movq %rax, 29536(%rbx) movq 29984(%rbx), %rax cmovneq 20896(%rbx), %rax movq %rax, 29984(%rbx) movq 29792(%rbx), %rax cmovneq 20832(%rbx), %rax movq %rax, 29792(%rbx) movq 29920(%rbx), %rax cmovneq 15392(%rbx), %rax movq %rax, 29920(%rbx) movq 30208(%rbx), %rax cmovneq 26496(%rbx), %rax movq %rax, 30208(%rbx) movq 30464(%rbx), %rax cmovneq 15360(%rbx), %rax movq %rax, 30464(%rbx) movq 32256(%rbx), %rax cmovneq 20768(%rbx), %rax movq %rax, 32256(%rbx) movq 24000(%rbx), %rax cmovneq 26464(%rbx), %rax movq %rax, 24000(%rbx) movq 32416(%rbx), %rax cmovneq 20800(%rbx), %rax movq %rax, 32416(%rbx) movq 23776(%rbx), %rax cmovneq 26528(%rbx), %rax movq %rax, 23776(%rbx) movq 23520(%rbx), %rax cmovneq 20864(%rbx), %rax movq %rax, 23520(%rbx) movq 25136(%rbx), %rax movq 26240(%rbx), %rdx cmovneq %rdx, %rax movq %rax, 25136(%rbx) movq 23296(%rbx), %rax cmovneq %rdx, %rax movq %rax, 23296(%rbx) movq 25408(%rbx), %rax cmovneq 32544(%rbx), %rax movq %rax, 25408(%rbx) movq 25312(%rbx), %rax cmovneq 32320(%rbx), %rax movq %rax, 25312(%rbx) testb %cl, %cl movq 32704(%rbx), %rax cmovneq 26560(%rbx), %rax movq %rax, 32704(%rbx) movl 32896(%rbx), %ecx andb $1, %cl movq 27360(%rbx), %rax cmovneq %r13, %rax movq %rax, 27360(%rbx) movq 27744(%rbx), %rax cmovneq 15616(%rbx), %rax movq %rax, 27744(%rbx) movq 28608(%rbx), %rax cmovneq 21440(%rbx), %rax movq %rax, 28608(%rbx) movq 28800(%rbx), %rax cmovneq 21408(%rbx), %rax movq %rax, 28800(%rbx) movq 28000(%rbx), %rax cmovneq 21376(%rbx), %rax movq %rax, 28000(%rbx) movq 28928(%rbx), %rax cmovneq 21344(%rbx), %rax movq %rax, 28928(%rbx) movq 29632(%rbx), %rax cmovneq 21312(%rbx), %rax movq %rax, 29632(%rbx) movq 28992(%rbx), %rax cmovneq 21280(%rbx), %rax movq %rax, 28992(%rbx) movq 29568(%rbx), %rax cmovneq 21248(%rbx), %rax movq %rax, 29568(%rbx) movq 30016(%rbx), %rax cmovneq 21216(%rbx), %rax movq %rax, 30016(%rbx) movq 29824(%rbx), %rax cmovneq 21152(%rbx), %rax movq %rax, 29824(%rbx) movq 29952(%rbx), %rax cmovneq 15584(%rbx), %rax movq %rax, 29952(%rbx) movq 30240(%rbx), %rax cmovneq 24704(%rbx), %rax movq %rax, 30240(%rbx) movq 30496(%rbx), %rax cmovneq 15552(%rbx), %rax movq %rax, 30496(%rbx) movq 23424(%rbx), %rax cmovneq 21088(%rbx), %rax movq %rax, 23424(%rbx) movq 24032(%rbx), %rax cmovneq 26592(%rbx), %rax movq %rax, 24032(%rbx) movq 25664(%rbx), %r14 cmovneq 21120(%rbx), %r14 movq 23808(%rbx), %rax cmovneq 24736(%rbx), %rax movq %rax, 23808(%rbx) movq 23552(%rbx), %rax cmovneq 21184(%rbx), %rax movq %rax, 23552(%rbx) movq 25152(%rbx), %rax movq 24608(%rbx), %rdx cmovneq %rdx, %rax movq %rax, 25152(%rbx) movq 23328(%rbx), %rax cmovneq %rdx, %rax movq %rax, 23328(%rbx) movq 25440(%rbx), %rax cmovneq 32160(%rbx), %rax movq %rax, 25440(%rbx) movq 25344(%rbx), %rax cmovneq 32288(%rbx), %rax movq %rax, 25344(%rbx) testb %cl, %cl movq 25760(%rbx), %rax cmovneq 31488(%rbx), %rax movq %rax, 25760(%rbx) movl 32992(%rbx), %ecx andb $1, %cl movq 27008(%rbx), %rax cmovneq 21728(%rbx), %rax movq %rax, 27008(%rbx) movq 27200(%rbx), %rax cmovneq 21712(%rbx), %rax movq %rax, 27200(%rbx) movq 27456(%rbx), %rax cmovneq 21696(%rbx), %rax movq %rax, 27456(%rbx) movq 27904(%rbx), %rax cmovneq 21680(%rbx), %rax movq %rax, 27904(%rbx) movq 26944(%rbx), %rax cmovneq 15776(%rbx), %rax movq %rax, 26944(%rbx) movq 27584(%rbx), %rax cmovneq 21664(%rbx), %rax movq %rax, 27584(%rbx) movq 28192(%rbx), %rax cmovneq 15744(%rbx), %rax movq %rax, 28192(%rbx) movq 28384(%rbx), %rax cmovneq 21632(%rbx), %rax movq %rax, 28384(%rbx) movq 28096(%rbx), %rax cmovneq 15712(%rbx), %rax movq %rax, 28096(%rbx) movq 29216(%rbx), %rax cmovneq 21600(%rbx), %rax movq %rax, 29216(%rbx) movq 29024(%rbx), %rax cmovneq 24800(%rbx), %rax movq %rax, 29024(%rbx) movq 29088(%rbx), %rax cmovneq 21504(%rbx), %rax movq %rax, 29088(%rbx) movq 30048(%rbx), %rax cmovneq 26656(%rbx), %rax movq %rax, 30048(%rbx) movq 30272(%rbx), %rax cmovneq 15680(%rbx), %rax movq %rax, 30272(%rbx) movq 22912(%rbx), %rax cmovneq 21472(%rbx), %rax movq %rax, 22912(%rbx) movq 23840(%rbx), %rax cmovneq 26624(%rbx), %rax movq %rax, 23840(%rbx) movq 22464(%rbx), %rax cmovneq 21536(%rbx), %rax movq %rax, 22464(%rbx) movq 23648(%rbx), %rax cmovneq 26688(%rbx), %rax movq %rax, 23648(%rbx) movq 22976(%rbx), %rax cmovneq 21568(%rbx), %rax movq %rax, 22976(%rbx) movq 25184(%rbx), %rax movq 24640(%rbx), %rdx cmovneq %rdx, %rax movq %rax, 25184(%rbx) movq 23168(%rbx), %rax cmovneq %rdx, %rax movq %rax, 23168(%rbx) movq 25456(%rbx), %rax movq 31776(%rbx), %r12 cmovneq %r12, %rax movq %rax, 25456(%rbx) movq 25392(%rbx), %rax movq 31872(%rbx), %r13 cmovneq %r13, %rax movq %rax, 25392(%rbx) testb %cl, %cl movq 32576(%rbx), %r9 cmovneq 32480(%rbx), %r9 movl 32800(%rbx), %ecx andb $1, %cl movq 27040(%rbx), %rax cmovneq 21984(%rbx), %rax movq %rax, 27040(%rbx) movq 27232(%rbx), %rax cmovneq 15968(%rbx), %rax movq %rax, 27232(%rbx) movq 27488(%rbx), %rax cmovneq 15936(%rbx), %rax movq %rax, 27488(%rbx) movq 27936(%rbx), %rax cmovneq 21952(%rbx), %rax movq %rax, 27936(%rbx) movq 26976(%rbx), %rax cmovneq 21920(%rbx), %rax movq %rax, 26976(%rbx) movq 27616(%rbx), %rax cmovneq 21888(%rbx), %rax movq %rax, 27616(%rbx) movq 28224(%rbx), %rax cmovneq 21856(%rbx), %rax movq %rax, 28224(%rbx) movq 28416(%rbx), %rax cmovneq 15904(%rbx), %rax movq %rax, 28416(%rbx) movq 28128(%rbx), %rax cmovneq 15872(%rbx), %rax movq %rax, 28128(%rbx) movq 29248(%rbx), %rax cmovneq 21824(%rbx), %rax movq %rax, 29248(%rbx) movq 29056(%rbx), %rax cmovneq 15840(%rbx), %rax movq %rax, 29056(%rbx) movq 29120(%rbx), %rax cmovneq 15808(%rbx), %rax movq %rax, 29120(%rbx) movq 30080(%rbx), %rax cmovneq 26752(%rbx), %rax movq %rax, 30080(%rbx) movq 30304(%rbx), %rax cmovneq 21744(%rbx), %rax movq %rax, 30304(%rbx) movq 22944(%rbx), %rax cmovneq 21760(%rbx), %rax movq %rax, 22944(%rbx) movq 23872(%rbx), %rax cmovneq 26720(%rbx), %rax movq %rax, 23872(%rbx) movq 22496(%rbx), %rax cmovneq 21776(%rbx), %rax movq %rax, 22496(%rbx) movq 23680(%rbx), %rax cmovneq 26784(%rbx), %rax movq %rax, 23680(%rbx) movq 23008(%rbx), %rax cmovneq 21792(%rbx), %rax movq %rax, 23008(%rbx) movq 25216(%rbx), %rax movq 24672(%rbx), %rdx cmovneq %rdx, %rax movq %rax, 25216(%rbx) movq 23200(%rbx), %rax cmovneq %rdx, %rax movq %rax, 23200(%rbx) movq 25472(%rbx), %rax movq 31712(%rbx), %r8 cmovneq %r8, %rax movq %rax, 25472(%rbx) movq 24992(%rbx), %rax movq 31808(%rbx), %rdx cmovneq %rdx, %rax movq %rax, 24992(%rbx) testb %cl, %cl movq 25568(%rbx), %rax cmovneq 31520(%rbx), %rax movq %rax, 25568(%rbx) movl 32864(%rbx), %ecx andb $1, %cl movq 27264(%rbx), %rax cmovneq 16160(%rbx), %rax movq %rax, 27264(%rbx) movq 27392(%rbx), %rax cmovneq 22304(%rbx), %rax movq %rax, 27392(%rbx) movq 27648(%rbx), %rax cmovneq 16128(%rbx), %rax movq %rax, 27648(%rbx) movq 28032(%rbx), %rax cmovneq 22272(%rbx), %rax movq %rax, 28032(%rbx) movq 27072(%rbx), %rax cmovneq 22240(%rbx), %rax movq %rax, 27072(%rbx) movq 27776(%rbx), %rax cmovneq 22208(%rbx), %rax movq %rax, 27776(%rbx) movq 28448(%rbx), %rax cmovneq 16096(%rbx), %rax movq %rax, 28448(%rbx) movq 28640(%rbx), %rax cmovneq 16064(%rbx), %rax movq %rax, 28640(%rbx) movq 28256(%rbx), %rax cmovneq 22176(%rbx), %rax movq %rax, 28256(%rbx) movq 29408(%rbx), %rax cmovneq 22144(%rbx), %rax movq %rax, 29408(%rbx) movq 29152(%rbx), %rax cmovneq 16032(%rbx), %rax movq %rax, 29152(%rbx) movq 29280(%rbx), %rax cmovneq 16000(%rbx), %rax movq %rax, 29280(%rbx) movq 30112(%rbx), %rax cmovneq 24864(%rbx), %rax movq %rax, 30112(%rbx) movq 30336(%rbx), %rax cmovneq 22016(%rbx), %rax movq %rax, 30336(%rbx) movq 23040(%rbx), %rax cmovneq 22048(%rbx), %rax movq %rax, 23040(%rbx) movq 23904(%rbx), %rax cmovneq 26816(%rbx), %rax movq %rax, 23904(%rbx) movq 22592(%rbx), %rax cmovneq 22080(%rbx), %rax movq %rax, 22592(%rbx) movq 23744(%rbx), %rax cmovneq 26848(%rbx), %rax movq %rax, 23744(%rbx) movq 23104(%rbx), %rax cmovneq 22112(%rbx), %rax movq %rax, 23104(%rbx) movq 24928(%rbx), %rax movq 24768(%rbx), %rsi cmovneq %rsi, %rax movq %rax, 24928(%rbx) movq 23232(%rbx), %rax cmovneq %rsi, %rax movq %rax, 23232(%rbx) movq 25504(%rbx), %rax movq 31744(%rbx), %r11 cmovneq %r11, %rax movq %rax, 25504(%rbx) movq 25040(%rbx), %rax movq 31840(%rbx), %rsi cmovneq %rsi, %rax movq %rax, 25040(%rbx) testb %cl, %cl movq 25600(%rbx), %rax cmovneq 32064(%rbx), %rax movq %rax, 25600(%rbx) movl 32736(%rbx), %r15d andb $1, %r15b movq 27296(%rbx), %rax cmovneq 16576(%rbx), %rax movq %rax, 27296(%rbx) movq 27424(%rbx), %rax cmovneq 16544(%rbx), %rax movq %rax, 27424(%rbx) movq 27680(%rbx), %rax cmovneq 16512(%rbx), %rax movq %rax, 27680(%rbx) movq 28064(%rbx), %rax cmovneq 16480(%rbx), %rax movq %rax, 28064(%rbx) movq 27104(%rbx), %rax cmovneq 16448(%rbx), %rax movq %rax, 27104(%rbx) movq 27808(%rbx), %rax cmovneq 16416(%rbx), %rax movq %rax, 27808(%rbx) movq 28480(%rbx), %rax cmovneq 16384(%rbx), %rax movq %rax, 28480(%rbx) movq 28672(%rbx), %rax cmovneq 16352(%rbx), %rax movq %rax, 28672(%rbx) movq 28288(%rbx), %rax cmovneq 16320(%rbx), %rax movq %rax, 28288(%rbx) movq 29440(%rbx), %rax cmovneq 16288(%rbx), %rax movq %rax, 29440(%rbx) movq 29184(%rbx), %rax cmovneq 16256(%rbx), %rax movq %rax, 29184(%rbx) movq 29312(%rbx), %rax cmovneq 16224(%rbx), %rax movq %rax, 29312(%rbx) movq 28160(%rbx), %rax cmovneq 24896(%rbx), %rax movq %rax, 28160(%rbx) movq 30368(%rbx), %rax cmovneq 16192(%rbx), %rax movq %rax, 30368(%rbx) movq 23072(%rbx), %rax cmovneq 22336(%rbx), %rax movq %rax, 23072(%rbx) movq 31104(%rbx), %rax cmovneq 26880(%rbx), %rax movq %rax, 31104(%rbx) movq 32096(%rbx), %rcx cmovneq 22368(%rbx), %rcx movq 22880(%rbx), %rax cmovneq 26912(%rbx), %rax movq %rax, 22880(%rbx) movq 23136(%rbx), %rax cmovneq 22400(%rbx), %rax movq %rax, 23136(%rbx) movq 24976(%rbx), %rax movq 24832(%rbx), %rdi cmovneq %rdi, %rax movq %rax, 24976(%rbx) movq 23264(%rbx), %rax cmovneq %rdi, %rax movq %rax, 23264(%rbx) movq 25536(%rbx), %rax movq 31040(%rbx), %rdi cmovneq %rdi, %rax movq %rax, 25536(%rbx) movq 25056(%rbx), %rax movq 31136(%rbx), %r10 cmovneq %r10, %rax movq %rax, 25056(%rbx) testb %r15b, %r15b vmovapd 16928(%rbx), %ymm0 vinsertf128 $1, 16960(%rbx), %ymm0, %ymm12 vmovapd %ymm12, 26112(%rbx) vmovapd 16992(%rbx), %ymm0 vinsertf128 $1, 17152(%rbx), %ymm0, %ymm11 vmovapd %ymm11, 24480(%rbx) vmovapd 17216(%rbx), %ymm0 vinsertf128 $1, 17248(%rbx), %ymm0, %ymm15 vmovapd %ymm15, 26144(%rbx) vmovapd 17408(%rbx), %ymm0 vinsertf128 $1, 17504(%rbx), %ymm0, %ymm5 vmovapd %ymm5, 31424(%rbx) vmovapd 17536(%rbx), %ymm0 vinsertf128 $1, 17664(%rbx), %ymm0, %ymm9 vmovapd %ymm9, 26080(%rbx) vmovapd 17280(%rbx), %ymm0 vinsertf128 $1, 17472(%rbx), %ymm0, %ymm10 vmovapd %ymm10, 24448(%rbx) movq 25632(%rbx), %rax cmovneq 32640(%rbx), %rax movq %rax, 25632(%rbx) vmulpd %ymm12, %ymm4, %ymm0 vmulpd %ymm0, %ymm12, %ymm0 vmovapd .LCPI1_23(%rip), %ymm14 vaddpd %ymm14, %ymm0, %ymm0 vmovapd 32448(%rbx), %ymm1 vmulpd %ymm5, %ymm1, %ymm1 vmulpd %ymm1, %ymm5, %ymm1 vaddpd %ymm14, %ymm1, %ymm1 vmovapd 24384(%rbx), %ymm2 vmulpd %ymm15, %ymm2, %ymm2 vmulpd %ymm2, %ymm15, %ymm2 vaddpd %ymm2, %ymm1, %ymm1 vmovapd %ymm1, 32864(%rbx) vmulpd %ymm11, %ymm6, %ymm1 vmulpd %ymm1, %ymm11, %ymm1 vaddpd %ymm1, %ymm0, %ymm0 vmovapd %ymm0, 32576(%rbx) vmovsd (%rdi), %xmm0 vmovhpd (%r11), %xmm0, %xmm0 vmovapd %ymm0, 32992(%rbx) movq 32160(%rbx), %rax vmovsd (%rax), %xmm0 movq 32544(%rbx), %rax vmovhpd (%rax), %xmm0, %xmm0 vmovapd %ymm0, 32960(%rbx) vmovsd (%r10), %xmm0 vmovhpd (%rsi), %xmm0, %xmm13 movq 24256(%rbx), %rax vmovsd (%rax), %xmm0 movq 24288(%rbx), %rax vmovhpd (%rax), %xmm0, %xmm6 movq 32288(%rbx), %rax vmovsd (%rax), %xmm0 movq 32320(%rbx), %rax vmovhpd (%rax), %xmm0, %xmm8 vmovsd (%r8), %xmm0 vmovhpd (%r12), %xmm0, %xmm0 vmovapd %xmm0, 32832(%rbx) movq 32192(%rbx), %rax vmovsd (%rax), %xmm0 movq 32224(%rbx), %rax vmovhpd (%rax), %xmm0, %xmm7 vmovsd (%rdx), %xmm0 vmovhpd (%r13), %xmm0, %xmm0 movq 32704(%rbx), %rdx movq %rcx, %r8 movq 32672(%rbx), %r10 movq 32256(%rbx), %r11 movq 32416(%rbx), %rcx movq 32128(%rbx), %rsi movq 24192(%rbx), %rax vmovsd (%rax), %xmm1 movq 24224(%rbx), %rax vmovhpd (%rax), %xmm1, %xmm1 movq 32352(%rbx), %rax vmovsd (%rax), %xmm2 movq 32384(%rbx), %rax vmovhpd (%rax), %xmm2, %xmm3 movq 24064(%rbx), %rax vmovsd (%rax), %xmm2 movq 24096(%rbx), %rax vmovhpd (%rax), %xmm2, %xmm2 movq 24128(%rbx), %rax vmovsd (%rax), %xmm4 movq 24160(%rbx), %rax vmovhpd (%rax), %xmm4, %xmm4 vinsertf128 $1, %xmm2, %ymm4, %ymm4 vmovapd %ymm4, 32928(%rbx) vinsertf128 $1, %xmm3, %ymm8, %ymm14 vmovapd %ymm14, 16832(%rbx) vinsertf128 $1, %xmm1, %ymm6, %ymm1 vmovapd %ymm1, 32800(%rbx) vinsertf128 $1, %xmm0, %ymm13, %ymm6 vmovapd %ymm6, 32896(%rbx) vmovapd 32960(%rbx), %ymm0 vinsertf128 $1, %xmm7, %ymm0, %ymm13 vmovapd %ymm13, 32736(%rbx) vmovapd 32992(%rbx), %ymm0 vinsertf128 $1, 32832(%rbx), %ymm0, %ymm8 vmovapd %ymm8, 32832(%rbx) movq 31168(%rbx), %rax vmovsd (%rax), %xmm0 movq 31072(%rbx), %rax vmovhpd (%rax), %xmm0, %xmm2 movq 32000(%rbx), %rax vmovsd (%rax), %xmm0 movq 32032(%rbx), %rax vmovhpd (%rax), %xmm0, %xmm3 vmulpd %ymm1, %ymm12, %ymm0 vmulpd %ymm0, %ymm10, %ymm0 vmulpd %ymm14, %ymm12, %ymm1 vmulpd %ymm1, %ymm11, %ymm1 vaddpd %ymm0, %ymm1, %ymm0 vmulpd %ymm4, %ymm5, %ymm1 vmulpd %ymm1, %ymm9, %ymm1 vmulpd %ymm6, %ymm5, %ymm4 vmulpd %ymm4, %ymm15, %ymm4 vaddpd %ymm1, %ymm4, %ymm4 movq 31200(%rbx), %rax vmovsd (%rax), %xmm1 movq 31232(%rbx), %rax vmovhpd (%rax), %xmm1, %xmm1 movq 31264(%rbx), %rax vmovsd (%rax), %xmm5 movq 31296(%rbx), %rax vmovhpd (%rax), %xmm5, %xmm5 vinsertf128 $1, %xmm2, %ymm3, %ymm7 vmovapd %ymm7, 32992(%rbx) vmulpd %ymm8, %ymm15, %ymm2 vmulpd %ymm2, %ymm9, %ymm2 vaddpd %ymm2, %ymm4, %ymm2 vmulpd %ymm13, %ymm11, %ymm3 vmulpd %ymm3, %ymm10, %ymm3 vaddpd %ymm3, %ymm0, %ymm0 vinsertf128 $1, %xmm1, %ymm5, %ymm4 vmovapd %ymm4, 32960(%rbx) movq 30816(%rbx), %rax vmovsd (%rax), %xmm1 movq 30976(%rbx), %rax vmovhpd (%rax), %xmm1, %xmm3 movq 30848(%rbx), %rax vmovsd (%rax), %xmm1 movq 31008(%rbx), %rax vmovhpd (%rax), %xmm1, %xmm6 vmulpd %ymm10, %ymm7, %ymm1 vmulpd %ymm1, %ymm10, %ymm1 vmovapd 32576(%rbx), %ymm5 vaddpd %ymm1, %ymm5, %ymm1 vmulpd %ymm9, %ymm4, %ymm4 vmulpd %ymm4, %ymm9, %ymm4 vmovapd 32864(%rbx), %ymm5 vaddpd %ymm4, %ymm5, %ymm4 vmovapd .LCPI1_24(%rip), %ymm7 vmulpd %ymm7, %ymm0, %ymm5 vmulpd %ymm7, %ymm2, %ymm0 vinsertf128 $1, %xmm3, %ymm6, %ymm2 movq 30656(%rbx), %rax vmovsd (%rax), %xmm3 movq 30688(%rbx), %rax vmovhpd (%rax), %xmm3, %xmm3 movq 30720(%rbx), %rax vmovsd (%rax), %xmm6 movq 30752(%rbx), %rax vmovhpd (%rax), %xmm6, %xmm6 vinsertf128 $1, %xmm3, %ymm6, %ymm3 vaddpd %ymm0, %ymm4, %ymm0 vaddpd %ymm5, %ymm1, %ymm1 vmovapd .LCPI1_25(%rip), %ymm4 vxorpd %ymm4, %ymm3, %ymm3 vxorpd %ymm4, %ymm2, %ymm5 movq 17760(%rbx), %rax leaq 33024(%rbx,%rax,8), %rax movq %rax, 17152(%rbx) movq 17728(%rbx), %rax leaq 33024(%rbx,%rax,8), %rax movq %rax, 17216(%rbx) movq 17792(%rbx), %rax leaq 33024(%rbx,%rax,8), %rax movq %rax, 17248(%rbx) movq 17888(%rbx), %rax leaq 33024(%rbx,%rax,8), %rax movq %rax, 17280(%rbx) movq 18240(%rbx), %rax leaq 33024(%rbx,%rax,8), %rax movq %rax, 17408(%rbx) movq 18208(%rbx), %rax leaq 33024(%rbx,%rax,8), %rax movq %rax, 17472(%rbx) movq 18272(%rbx), %rax leaq 33024(%rbx,%rax,8), %rax movq %rax, 17504(%rbx) movq 18304(%rbx), %rax leaq 33024(%rbx,%rax,8), %rax movq %rax, 17536(%rbx) movq 18464(%rbx), %rax leaq 33024(%rbx,%rax,8), %rax movq %rax, 17664(%rbx) movq 18496(%rbx), %rax leaq 33024(%rbx,%rax,8), %rax movq %rax, 17728(%rbx) movq 18528(%rbx), %rax leaq 33024(%rbx,%rax,8), %rax movq %rax, 17760(%rbx) movq 18560(%rbx), %rax leaq 33024(%rbx,%rax,8), %rax movq %rax, 17792(%rbx) movq 18720(%rbx), %rax leaq 33024(%rbx,%rax,8), %rax movq %rax, 17888(%rbx) movq 18752(%rbx), %rax leaq 33024(%rbx,%rax,8), %rax movq %rax, 17952(%rbx) movq 18784(%rbx), %rax leaq 33024(%rbx,%rax,8), %rax movq %rax, 18016(%rbx) movq 18816(%rbx), %rax leaq 33024(%rbx,%rax,8), %rax movq %rax, 18048(%rbx) movq 17184(%rbx), %rax leaq 33024(%rbx,%rax,8), %rax movq %rax, 18208(%rbx) movq 17344(%rbx), %rax leaq 33024(%rbx,%rax,8), %rax movq %rax, 18240(%rbx) movq 17312(%rbx), %rax leaq 33024(%rbx,%rax,8), %rax movq %rax, 18272(%rbx) movq 17440(%rbx), %rax leaq 33024(%rbx,%rax,8), %rax movq %rax, 18304(%rbx) movq 18848(%rbx), %rax leaq 33024(%rbx,%rax,8), %rax movq %rax, 18464(%rbx) movq 17600(%rbx), %rax leaq 33024(%rbx,%rax,8), %rax movq %rax, 18496(%rbx) movq 18880(%rbx), %rax leaq 33024(%rbx,%rax,8), %rax movq %rax, 18528(%rbx) movq 17376(%rbx), %rax leaq 33024(%rbx,%rax,8), %rax movq %rax, 18560(%rbx) movq 18912(%rbx), %rax leaq 33024(%rbx,%rax,8), %rax movq %rax, 18720(%rbx) movq 17568(%rbx), %rax leaq 33024(%rbx,%rax,8), %rax movq %rax, 18752(%rbx) movq 18944(%rbx), %rax leaq 33024(%rbx,%rax,8), %rax movq %rax, 18784(%rbx) movq 17632(%rbx), %rax leaq 33024(%rbx,%rax,8), %rax movq %rax, 18816(%rbx) movq 17856(%rbx), %rax leaq 33024(%rbx,%rax,8), %rax movq %rax, 18848(%rbx) movq 17920(%rbx), %rax leaq 33024(%rbx,%rax,8), %rax movq %rax, 18880(%rbx) movq 17824(%rbx), %rax leaq 33024(%rbx,%rax,8), %rax movq %rax, 18912(%rbx) movq 17696(%rbx), %rax leaq 33024(%rbx,%rax,8), %rax movq %rax, 18944(%rbx) movq 18656(%rbx), %rax leaq 33024(%rbx,%rax,8), %rax movq %rax, 16928(%rbx) movq 18688(%rbx), %rax leaq 33024(%rbx,%rax,8), %rax movq %rax, 16960(%rbx) movq 17024(%rbx), %rax leaq 33024(%rbx,%rax,8), %rax movq %rax, 16992(%rbx) movq 13248(%rbx), %rax leaq 33024(%rbx,%rax,8), %rax movq %rax, 17024(%rbx) movq 17056(%rbx), %rax leaq 33024(%rbx,%rax,8), %rax movq %rax, 17056(%rbx) movq 17088(%rbx), %rax leaq 33024(%rbx,%rax,8), %rax movq %rax, 17088(%rbx) movq 17120(%rbx), %rax leaq 33024(%rbx,%rax,8), %rax movq %rax, 17120(%rbx) movq 13280(%rbx), %rax leaq 33024(%rbx,%rax,8), %rax movq %rax, 17184(%rbx) movq 13312(%rbx), %rax leaq 33024(%rbx,%rax,8), %rax movq %rax, 17312(%rbx) movq 13344(%rbx), %rax leaq 33024(%rbx,%rax,8), %rax movq %rax, 17344(%rbx) movq 18336(%rbx), %rax leaq 33024(%rbx,%rax,8), %rax movq %rax, 17376(%rbx) movq 18368(%rbx), %rax leaq 33024(%rbx,%rax,8), %rax movq %rax, 17440(%rbx) movq 18400(%rbx), %rax leaq 33024(%rbx,%rax,8), %rax movq %rax, 17568(%rbx) movq 18432(%rbx), %rax leaq 33024(%rbx,%rax,8), %rax movq %rax, 17600(%rbx) movq 18592(%rbx), %rax leaq 33024(%rbx,%rax,8), %rax movq %rax, 17632(%rbx) movq 18624(%rbx), %rax leaq 33024(%rbx,%rax,8), %rax movq %rax, 17696(%rbx) movq 13376(%rbx), %rax leaq 33024(%rbx,%rax,8), %rax movq %rax, 17824(%rbx) movq 14272(%rbx), %rax leaq 33024(%rbx,%rax,8), %rax movq %rax, 17856(%rbx) movq 14304(%rbx), %rax leaq 33024(%rbx,%rax,8), %rax movq %rax, 17920(%rbx) movq 14368(%rbx), %rax leaq 33024(%rbx,%rax,8), %rax movq %rax, 17984(%rbx) movq 14336(%rbx), %rax leaq 33024(%rbx,%rax,8), %rax movq %rax, 18144(%rbx) movq 30912(%rbx), %rax vmovsd (%rax), %xmm11 movq 30880(%rbx), %rax vmovsd (%rax), %xmm7 movq 30944(%rbx), %rax vmovsd (%rax), %xmm6 movq 30784(%rbx), %rax vmovsd (%rax), %xmm2 movq 30560(%rbx), %rax vmovsd (%rax), %xmm8 movq 30528(%rbx), %rax vmovsd (%rax), %xmm12 movq 30624(%rbx), %rax vmovsd (%rax), %xmm9 movq 30592(%rbx), %rax vmovsd (%rax), %xmm10 movq 14496(%rbx), %rax leaq 33024(%rbx,%rax,8), %rax movq %rax, 18080(%rbx) movq 14400(%rbx), %rax leaq 33024(%rbx,%rax,8), %rax movq %rax, 18112(%rbx) movq 14528(%rbx), %rax leaq 33024(%rbx,%rax,8), %rax movq %rax, 18176(%rbx) movq 14432(%rbx), %rax leaq 33024(%rbx,%rax,8), %rax movq %rax, 18336(%rbx) movq 14560(%rbx), %rax leaq 33024(%rbx,%rax,8), %rax movq %rax, 18368(%rbx) movq 14464(%rbx), %rax leaq 33024(%rbx,%rax,8), %rax movq %rax, 18400(%rbx) movq 16672(%rbx), %rax leaq 33024(%rbx,%rax,8), %rax movq %rax, 18432(%rbx) movq 16736(%rbx), %rax leaq 33024(%rbx,%rax,8), %rax movq %rax, 18592(%rbx) movq 16704(%rbx), %rax leaq 33024(%rbx,%rax,8), %rax movq %rax, 18624(%rbx) movq 16768(%rbx), %rax leaq 33024(%rbx,%rax,8), %rax movq %rax, 18656(%rbx) movq 16800(%rbx), %rax leaq 33024(%rbx,%rax,8), %rax movq %rax, 18688(%rbx) vsqrtpd %ymm1, %ymm1 vsqrtpd %ymm0, %ymm4 vsqrtpd %ymm5, %ymm5 vsqrtpd %ymm3, %ymm14 jmp .LBB1_4628 .align 16, 0x90 .LBB1_3959: vmovapd %ymm2, 31424(%rbx) vmovapd %ymm5, 26112(%rbx) vmovsd (%r13), %xmm2 .LBB1_3961: vmovapd %xmm2, 14592(%rbx) jne .LBB1_3963 vxorps %xmm0, %xmm0, %xmm0 .LBB1_3963: vmovaps %xmm0, 16672(%rbx) movq 24576(%rbx), %rax movq 20128(%rbx), %rdx jne .LBB1_3965 vxorps %xmm1, %xmm1, %xmm1 .LBB1_3965: vmovaps %xmm1, 14624(%rbx) movq 31072(%rbx), %rcx movq 24544(%rbx), %rsi jne .LBB1_3967 vxorps %xmm6, %xmm6, %xmm6 .LBB1_3967: vmovaps %xmm6, 13056(%rbx) vmovsd (%rdx), %xmm9 movq 32224(%rbx), %rdx vmovsd (%rdx), %xmm10 vmovsd (%rsi), %xmm11 vmovsd (%rcx), %xmm6 movq 31968(%rbx), %rcx vmovsd (%rcx), %xmm5 vmovsd (%rax), %xmm0 movq 20064(%rbx), %rax vmovsd (%rax), %xmm2 movq 22816(%rbx), %rcx vmovsd (%rcx), %xmm1 movq 20160(%rbx), %rax jne .LBB1_3969 vxorps %xmm3, %xmm3, %xmm3 .LBB1_3969: movq 29824(%rbx), %r15 jne .LBB1_3971 vxorps %xmm7, %xmm7, %xmm7 .LBB1_3971: vmovaps %xmm3, 31360(%rbx) jne .LBB1_3973 vxorps %xmm4, %xmm4, %xmm4 .LBB1_3973: vmovaps %xmm7, 31392(%rbx) jne .LBB1_3975 vxorps %xmm12, %xmm12, %xmm12 .LBB1_3975: movl 32960(%rbx), %ecx movb %cl, %dl andb $1, %dl movq 29664(%rbx), %rcx cmovneq %rax, %rcx movq %rcx, 29664(%rbx) movq 16032(%rbx), %r8 jne .LBB1_3977 vxorps %xmm1, %xmm1, %xmm1 .LBB1_3977: vmovaps %xmm4, 13312(%rbx) jne .LBB1_3979 vxorps %xmm2, %xmm2, %xmm2 .LBB1_3979: vmovaps %xmm12, 16896(%rbx) vmovaps %xmm1, 14400(%rbx) movq 29792(%rbx), %r13 jne .LBB1_3981 vxorps %xmm0, %xmm0, %xmm0 .LBB1_3981: vmovaps %xmm2, 14368(%rbx) jne .LBB1_3983 vxorps %xmm5, %xmm5, %xmm5 .LBB1_3983: vmovaps %xmm0, 14432(%rbx) movl %r9d, %r14d jne .LBB1_3985 vxorps %xmm6, %xmm6, %xmm6 .LBB1_3985: movq 26528(%rbx), %r9 movq 20768(%rbx), %rax jne .LBB1_3987 vxorps %xmm11, %xmm11, %xmm11 .LBB1_3987: vmovaps %xmm5, 24416(%rbx) movq 21120(%rbx), %rsi jne .LBB1_3989 vxorps %xmm10, %xmm10, %xmm10 .LBB1_3989: vmovaps %xmm6, 13280(%rbx) jne .LBB1_3991 vxorps %xmm9, %xmm9, %xmm9 .LBB1_3991: vmovaps %xmm11, 32512(%rbx) movl 32896(%rbx), %ecx andb $1, %cl movq 22624(%rbx), %rdi vmovsd (%rdi), %xmm0 movq 32160(%rbx), %rdi vmovsd (%rdi), %xmm4 movq 26592(%rbx), %rdi vmovsd (%rdi), %xmm2 vmovsd (%rsi), %xmm3 movq 31904(%rbx), %rdi vmovsd (%rdi), %xmm5 movq 24736(%rbx), %rsi vmovsd (%rsi), %xmm1 vmovaps %xmm1, 31328(%rbx) movq 32000(%rbx), %rdi vmovsd (%rdi), %xmm12 cmovneq 21152(%rbx), %r15 jne .LBB1_3992 vxorps %xmm1, %xmm1, %xmm1 jmp .LBB1_3994 .align 16, 0x90 .LBB1_3992: movq 21088(%rbx), %rsi vmovsd (%rsi), %xmm1 .LBB1_3994: vmovaps %xmm1, 14304(%rbx) vmovaps %xmm10, 32448(%rbx) movq 31488(%rbx), %rsi vmovsd (%rsi), %xmm13 jne .LBB1_3996 vxorps %xmm5, %xmm5, %xmm5 .LBB1_3996: vmovaps %xmm5, 12992(%rbx) vmovaps %xmm9, 13344(%rbx) jne .LBB1_3998 vxorps %xmm3, %xmm3, %xmm3 .LBB1_3998: vmovaps %xmm3, 13024(%rbx) jne .LBB1_4000 vxorps %xmm2, %xmm2, %xmm2 .LBB1_4000: jne .LBB1_4002 vxorpd %xmm4, %xmm4, %xmm4 .LBB1_4002: vmovaps %xmm2, 13120(%rbx) jne .LBB1_4004 vxorps %xmm12, %xmm12, %xmm12 .LBB1_4004: jne .LBB1_4006 vxorps %xmm0, %xmm0, %xmm0 .LBB1_4006: vmovaps %xmm12, 13216(%rbx) jne .LBB1_4008 vxorps %xmm2, %xmm2, %xmm2 vmovaps %xmm2, 31328(%rbx) .LBB1_4008: testb %cl, %cl vmovsd (%r9), %xmm14 movq 32544(%rbx), %rcx vmovsd (%rcx), %xmm9 movq 26464(%rbx), %rcx vmovsd (%rcx), %xmm8 vmovsd (%rax), %xmm2 movq 22656(%rbx), %rax vmovsd (%rax), %xmm15 movq 32032(%rbx), %rcx vmovsd (%rcx), %xmm12 movq 31936(%rbx), %rcx vmovsd (%rcx), %xmm10 movq 20800(%rbx), %rax vmovsd (%rax), %xmm1 jne .LBB1_4010 vxorpd %xmm13, %xmm13, %xmm13 .LBB1_4010: vmovaps %xmm0, 14336(%rbx) movl 32928(%rbx), %eax movb %al, %cl andb $1, %cl jne .LBB1_4012 vxorps %xmm2, %xmm2, %xmm2 .LBB1_4012: vmovaps %xmm2, 13248(%rbx) movq 26560(%rbx), %rsi vmovsd (%rsi), %xmm11 cmovneq 20832(%rbx), %r13 jne .LBB1_4014 vxorps %xmm1, %xmm1, %xmm1 .LBB1_4014: vmovaps %xmm1, 12832(%rbx) jne .LBB1_4016 vxorpd %xmm8, %xmm8, %xmm8 .LBB1_4016: jne .LBB1_4018 vxorps %xmm9, %xmm9, %xmm9 .LBB1_4018: jne .LBB1_4020 vxorpd %xmm10, %xmm10, %xmm10 .LBB1_4020: vmovaps %xmm9, 12896(%rbx) jne .LBB1_4022 vxorps %xmm12, %xmm12, %xmm12 .LBB1_4022: jne .LBB1_4024 vxorps %xmm15, %xmm15, %xmm15 .LBB1_4024: vmovaps %xmm12, 12768(%rbx) jne .LBB1_4026 vxorps %xmm14, %xmm14, %xmm14 .LBB1_4026: testb %cl, %cl movq 26432(%rbx), %rax vmovsd (%rax), %xmm0 jne .LBB1_4028 vxorpd %xmm11, %xmm11, %xmm11 .LBB1_4028: vmovaps %xmm15, 13184(%rbx) testb %r11b, %r11b movq 26304(%rbx), %rax vmovsd (%rax), %xmm3 movq 31744(%rbx), %rax jne .LBB1_4030 vxorps %xmm0, %xmm0, %xmm0 .LBB1_4030: vmovaps %xmm0, 12640(%rbx) vmovaps %xmm14, 12704(%rbx) testb %dl, %dl movq 31584(%rbx), %rcx vmovsd (%rcx), %xmm15 vmovsd (%rax), %xmm0 vmovaps %xmm0, 26048(%rbx) movq 31296(%rbx), %rax vmovsd (%rax), %xmm0 vmovaps %xmm0, 16864(%rbx) movq 22048(%rbx), %rax vmovsd (%rax), %xmm0 vmovaps %xmm0, 32864(%rbx) movq 22752(%rbx), %rax vmovsd (%rax), %xmm2 movq 26848(%rbx), %rax vmovsd (%rax), %xmm0 movq 22080(%rbx), %rax vmovsd (%rax), %xmm1 vmovaps %xmm1, 29792(%rbx) movq 26816(%rbx), %rax vmovsd (%rax), %xmm1 vmovaps %xmm1, 24384(%rbx) movq 32064(%rbx), %rax vmovsd (%rax), %xmm1 movq 21776(%rbx), %rdi jne .LBB1_4032 vxorpd %xmm3, %xmm3, %xmm3 .LBB1_4032: vmovapd %xmm3, %xmm9 movb %r10b, %al andb $1, %al movq 29056(%rbx), %r9 jne .LBB1_4034 vxorps %xmm7, %xmm7, %xmm7 vmovaps %xmm7, 16864(%rbx) .LBB1_4034: jne .LBB1_4036 vxorps %xmm7, %xmm7, %xmm7 vmovaps %xmm7, 24384(%rbx) .LBB1_4036: jne .LBB1_4038 vxorps %xmm7, %xmm7, %xmm7 vmovaps %xmm7, 29792(%rbx) .LBB1_4038: jne .LBB1_4040 vxorps %xmm7, %xmm7, %xmm7 vmovaps %xmm7, 26048(%rbx) .LBB1_4040: jne .LBB1_4042 vxorpd %xmm15, %xmm15, %xmm15 .LBB1_4042: jne .LBB1_4044 vxorps %xmm0, %xmm0, %xmm0 .LBB1_4044: movq 29152(%rbx), %rcx movq 15840(%rbx), %r11 jne .LBB1_4046 vxorps %xmm2, %xmm2, %xmm2 .LBB1_4046: vmovaps %xmm0, 13376(%rbx) jne .LBB1_4048 vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 32864(%rbx) .LBB1_4048: cmovneq %r8, %rcx movq %rcx, 29152(%rbx) testb %al, %al jne .LBB1_4050 vxorps %xmm1, %xmm1, %xmm1 .LBB1_4050: vmovaps %xmm2, 14272(%rbx) movl 32800(%rbx), %eax andb $1, %al vmovsd (%r12), %xmm14 movq 22688(%rbx), %rcx vmovsd (%rcx), %xmm0 movq 31712(%rbx), %rcx vmovsd (%rcx), %xmm6 movq 31616(%rbx), %rcx vmovsd (%rcx), %xmm3 movq 26784(%rbx), %rcx vmovsd (%rcx), %xmm7 movq 31200(%rbx), %rcx vmovsd (%rcx), %xmm5 vmovsd (%rdi), %xmm12 vmovaps %xmm12, 16800(%rbx) movq 31520(%rbx), %rcx vmovsd (%rcx), %xmm12 jne .LBB1_4051 vxorps %xmm2, %xmm2, %xmm2 jmp .LBB1_4053 .align 16, 0x90 .LBB1_4051: movq 26720(%rbx), %rcx vmovsd (%rcx), %xmm2 .LBB1_4053: movq 24800(%rbx), %r12 vmovaps %xmm2, 12608(%rbx) vmovaps %xmm1, 13088(%rbx) movq %r15, 29824(%rbx) jne .LBB1_4055 vxorps %xmm3, %xmm3, %xmm3 .LBB1_4055: vmovaps %xmm3, 12864(%rbx) movq 29024(%rbx), %rcx movq 26688(%rbx), %r15 movq 21536(%rbx), %rsi movq 21472(%rbx), %rdx movq 26624(%rbx), %rdi jne .LBB1_4057 vxorps %xmm1, %xmm1, %xmm1 vmovaps %xmm1, 16800(%rbx) .LBB1_4057: jne .LBB1_4059 vxorps %xmm6, %xmm6, %xmm6 .LBB1_4059: jne .LBB1_4061 vxorps %xmm5, %xmm5, %xmm5 .LBB1_4061: vmovaps %xmm6, 12736(%rbx) jne .LBB1_4063 vxorps %xmm7, %xmm7, %xmm7 .LBB1_4063: vmovaps %xmm5, 12800(%rbx) jne .LBB1_4065 vxorps %xmm0, %xmm0, %xmm0 .LBB1_4065: vmovaps %xmm7, 12928(%rbx) jne .LBB1_4067 vxorps %xmm14, %xmm14, %xmm14 .LBB1_4067: cmovneq %r11, %r9 testb %al, %al movq 31776(%rbx), %rax vmovsd (%rax), %xmm5 vmovsd (%rsi), %xmm2 movq 22720(%rbx), %rax vmovsd (%rax), %xmm1 vmovaps %xmm1, 16768(%rbx) vmovsd (%r15), %xmm3 movq 31648(%rbx), %rax vmovsd (%rax), %xmm7 movq 31232(%rbx), %rax vmovsd (%rax), %xmm6 vmovsd (%rdi), %xmm1 vmovaps %xmm1, 16736(%rbx) vmovsd (%rdx), %xmm1 vmovaps %xmm1, 16832(%rbx) vmovapd %xmm13, %xmm1 jne .LBB1_4069 vxorps %xmm12, %xmm12, %xmm12 .LBB1_4069: vmovaps %xmm0, 12960(%rbx) movb %r14b, %al andb $1, %al cmovneq %r12, %rcx movq 32480(%rbx), %rdi vmovsd (%rdi), %xmm0 vmovaps %xmm0, 16704(%rbx) movq 26912(%rbx), %rsi movq 22368(%rbx), %rdi movl 32736(%rbx), %r15d jne .LBB1_4071 vxorps %xmm2, %xmm2, %xmm2 .LBB1_4071: vmovaps %xmm2, 12544(%rbx) vmovaps %xmm14, 13152(%rbx) jne .LBB1_4073 vxorpd %xmm5, %xmm5, %xmm5 .LBB1_4073: vmovaps %xmm12, 12672(%rbx) jne .LBB1_4075 vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 16736(%rbx) .LBB1_4075: jne .LBB1_4077 vxorps %xmm6, %xmm6, %xmm6 .LBB1_4077: vmovapd %xmm4, %xmm2 jne .LBB1_4079 vxorps %xmm7, %xmm7, %xmm7 .LBB1_4079: vmovaps %xmm6, 12512(%rbx) vmovapd 13056(%rbx), %xmm4 jne .LBB1_4081 vxorps %xmm3, %xmm3, %xmm3 .LBB1_4081: vmovaps %xmm7, 12480(%rbx) vmovapd %xmm5, %xmm14 vmovaps %xmm3, 12576(%rbx) jne .LBB1_4083 vxorps %xmm3, %xmm3, %xmm3 vmovaps %xmm3, 16768(%rbx) .LBB1_4083: movq %rcx, 29024(%rbx) jne .LBB1_4085 vxorps %xmm6, %xmm6, %xmm6 vmovaps %xmm6, 16832(%rbx) .LBB1_4085: testb %al, %al vmovapd 12992(%rbx), %xmm6 vunpcklpd %xmm10, %xmm6, %xmm13 vunpcklpd %xmm11, %xmm1, %xmm11 vmovapd 13024(%rbx), %xmm1 vunpcklpd 12832(%rbx), %xmm1, %xmm10 vmovapd 13120(%rbx), %xmm1 vunpcklpd %xmm8, %xmm1, %xmm8 vunpcklpd 12896(%rbx), %xmm2, %xmm2 vunpcklpd 32448(%rbx), %xmm4, %xmm4 vmovapd 31360(%rbx), %xmm3 vunpcklpd 32512(%rbx), %xmm3, %xmm7 vmovapd 31392(%rbx), %xmm6 vunpcklpd 13344(%rbx), %xmm6, %xmm1 vmovapd 12640(%rbx), %xmm3 vunpcklpd %xmm9, %xmm3, %xmm6 vmovapd 13312(%rbx), %xmm3 vunpcklpd 24416(%rbx), %xmm3, %xmm5 vmovapd 16896(%rbx), %xmm3 vunpcklpd 13280(%rbx), %xmm3, %xmm3 vmovapd 13216(%rbx), %xmm9 vunpcklpd 12768(%rbx), %xmm9, %xmm12 jne .LBB1_4087 vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 16704(%rbx) .LBB1_4087: vinsertf128 $1, %xmm3, %ymm12, %ymm3 vmovapd %ymm3, 31360(%rbx) vinsertf128 $1, %xmm5, %ymm13, %ymm3 vmovapd %ymm3, 16896(%rbx) vinsertf128 $1, %xmm6, %ymm11, %ymm3 vmovapd %ymm3, 32448(%rbx) vinsertf128 $1, %xmm1, %ymm10, %ymm1 vmovapd %ymm1, 31392(%rbx) vinsertf128 $1, %xmm7, %ymm8, %ymm1 vmovapd %ymm1, 32512(%rbx) vinsertf128 $1, %xmm4, %ymm2, %ymm1 vmovapd %ymm1, 24416(%rbx) movb %r15b, %al andb $1, %al vmovapd %xmm15, %xmm2 jne .LBB1_4088 vxorpd %xmm1, %xmm1, %xmm1 jmp .LBB1_4090 .align 16, 0x90 .LBB1_4088: movq 31264(%rbx), %rcx vmovsd (%rcx), %xmm1 .LBB1_4090: vunpcklpd 16864(%rbx), %xmm1, %xmm0 vmovapd %ymm0, 16864(%rbx) vmovapd 14304(%rbx), %xmm1 vunpcklpd 13248(%rbx), %xmm1, %xmm0 vmovapd %ymm0, 14304(%rbx) vmovapd 31328(%rbx), %xmm1 vunpcklpd 12704(%rbx), %xmm1, %xmm0 vmovapd %ymm0, 31328(%rbx) vmovapd 14336(%rbx), %xmm1 vunpcklpd 13184(%rbx), %xmm1, %xmm12 jne .LBB1_4091 vxorpd %xmm1, %xmm1, %xmm1 jmp .LBB1_4093 .align 16, 0x90 .LBB1_4091: movq 26880(%rbx), %rcx vmovsd (%rcx), %xmm1 .LBB1_4093: vunpcklpd 24384(%rbx), %xmm1, %xmm0 vmovapd %ymm0, 24384(%rbx) vmovapd %xmm14, %xmm0 jne .LBB1_4094 vxorpd %xmm1, %xmm1, %xmm1 jmp .LBB1_4096 .align 16, 0x90 .LBB1_4094: movq 31040(%rbx), %rcx vmovsd (%rcx), %xmm1 .LBB1_4096: vunpcklpd 26048(%rbx), %xmm1, %xmm14 jne .LBB1_4097 vxorpd %xmm1, %xmm1, %xmm1 jmp .LBB1_4099 .align 16, 0x90 .LBB1_4097: vmovsd (%rdi), %xmm1 .LBB1_4099: movl 32832(%rbx), %edi movq %r9, 29056(%rbx) vunpcklpd 29792(%rbx), %xmm1, %xmm15 jne .LBB1_4100 vxorpd %xmm1, %xmm1, %xmm1 jmp .LBB1_4102 .align 16, 0x90 .LBB1_4100: movq 32640(%rbx), %rcx vmovsd (%rcx), %xmm1 .LBB1_4102: vunpcklpd 13088(%rbx), %xmm1, %xmm11 jne .LBB1_4103 vxorpd %xmm1, %xmm1, %xmm1 jmp .LBB1_4105 .align 16, 0x90 .LBB1_4103: movq 31552(%rbx), %rcx vmovsd (%rcx), %xmm1 .LBB1_4105: movq %r13, 29792(%rbx) vunpcklpd %xmm2, %xmm1, %xmm7 vmovapd 12608(%rbx), %xmm1 vunpcklpd 16736(%rbx), %xmm1, %xmm3 vmovapd 12736(%rbx), %xmm1 vunpcklpd %xmm0, %xmm1, %xmm6 vmovapd 16800(%rbx), %xmm1 vunpcklpd 12544(%rbx), %xmm1, %xmm4 vmovapd 12672(%rbx), %xmm1 vunpcklpd 16704(%rbx), %xmm1, %xmm1 vmovapd 12864(%rbx), %xmm0 vunpcklpd 12480(%rbx), %xmm0, %xmm5 vmovapd 12800(%rbx), %xmm0 vunpcklpd 12512(%rbx), %xmm0, %xmm2 vmovapd 14624(%rbx), %xmm0 vunpcklpd 14368(%rbx), %xmm0, %xmm9 vmovapd 16672(%rbx), %xmm0 vunpcklpd 14432(%rbx), %xmm0, %xmm8 vmovapd 14592(%rbx), %xmm0 vunpcklpd 14400(%rbx), %xmm0, %xmm13 vmovapd 32512(%rbx), %ymm0 vmulpd 24416(%rbx), %ymm0, %ymm0 vmulpd 31392(%rbx), %ymm0, %ymm0 vmovapd 32448(%rbx), %ymm10 vmulpd 16896(%rbx), %ymm10, %ymm10 vmulpd 31360(%rbx), %ymm10, %ymm10 vaddpd %ymm0, %ymm10, %ymm0 vinsertf128 $1, %xmm13, %ymm12, %ymm13 vmovapd 31328(%rbx), %ymm10 vinsertf128 $1, %xmm8, %ymm10, %ymm8 vmovapd 14304(%rbx), %ymm10 vinsertf128 $1, %xmm9, %ymm10, %ymm9 vmovapd %ymm9, 26048(%rbx) vmovapd 16864(%rbx), %ymm9 vinsertf128 $1, %xmm2, %ymm9, %ymm2 vmovapd %ymm2, 31328(%rbx) vinsertf128 $1, %xmm5, %ymm7, %ymm12 vinsertf128 $1, %xmm1, %ymm11, %ymm10 vinsertf128 $1, %xmm4, %ymm15, %ymm9 vinsertf128 $1, %xmm6, %ymm14, %ymm7 vmovapd 24384(%rbx), %ymm1 vinsertf128 $1, %xmm3, %ymm1, %ymm11 vmovapd 12928(%rbx), %xmm1 vunpcklpd 12576(%rbx), %xmm1, %xmm1 movq 16608(%rbx), %rcx jne .LBB1_4106 vxorpd %xmm2, %xmm2, %xmm2 jmp .LBB1_4108 .align 16, 0x90 .LBB1_4106: vmovsd (%rsi), %xmm2 .LBB1_4108: movq 21824(%rbx), %rsi vunpcklpd 13376(%rbx), %xmm2, %xmm2 vmovapd 12960(%rbx), %xmm3 vunpcklpd 16768(%rbx), %xmm3, %xmm3 jne .LBB1_4109 vxorpd %xmm4, %xmm4, %xmm4 jmp .LBB1_4111 .align 16, 0x90 .LBB1_4109: vmovsd (%rcx), %xmm4 .LBB1_4111: vunpcklpd 14272(%rbx), %xmm4, %xmm5 vmovapd %ymm8, 14400(%rbx) vmovapd 26048(%rbx), %ymm4 vmulpd %ymm8, %ymm4, %ymm4 vmovapd %ymm13, 16672(%rbx) vmulpd %ymm13, %ymm4, %ymm4 vaddpd %ymm4, %ymm0, %ymm0 vmovapd 32448(%rbx), %ymm4 vmulpd 24416(%rbx), %ymm4, %ymm4 vmulpd %ymm13, %ymm4, %ymm4 vsubpd %ymm4, %ymm0, %ymm0 vmovapd 32512(%rbx), %ymm4 vmulpd %ymm8, %ymm4, %ymm4 vmovapd 31360(%rbx), %ymm6 vmulpd %ymm4, %ymm6, %ymm4 vsubpd %ymm4, %ymm0, %ymm0 vmulpd %ymm7, %ymm11, %ymm4 vmulpd %ymm9, %ymm4, %ymm4 vmulpd %ymm12, %ymm10, %ymm6 vmulpd 31328(%rbx), %ymm6, %ymm6 vaddpd %ymm4, %ymm6, %ymm4 vinsertf128 $1, %xmm3, %ymm5, %ymm6 vinsertf128 $1, %xmm1, %ymm2, %ymm3 vmovapd 13152(%rbx), %xmm1 vunpcklpd 16832(%rbx), %xmm1, %xmm1 movq 16256(%rbx), %rdx jne .LBB1_4112 vxorpd %xmm2, %xmm2, %xmm2 jmp .LBB1_4114 .align 16, 0x90 .LBB1_4112: movq 22336(%rbx), %rcx vmovsd (%rcx), %xmm2 .LBB1_4114: vunpcklpd 32864(%rbx), %xmm2, %xmm2 vinsertf128 $1, %xmm1, %ymm2, %ymm5 vmovapd %ymm5, 14304(%rbx) vmovapd %ymm3, 14336(%rbx) vmulpd %ymm3, %ymm5, %ymm1 vmovapd %ymm6, 14592(%rbx) vmulpd %ymm6, %ymm1, %ymm1 vaddpd %ymm1, %ymm4, %ymm1 vmulpd %ymm7, %ymm10, %ymm2 vmulpd %ymm6, %ymm2, %ymm2 vsubpd %ymm2, %ymm1, %ymm1 vmovapd 16896(%rbx), %ymm2 vmulpd 26048(%rbx), %ymm2, %ymm2 movq 29184(%rbx), %rcx cmovneq %rdx, %rcx movq %rcx, 29184(%rbx) testb %al, %al vmulpd %ymm3, %ymm11, %ymm3 vmovapd 31328(%rbx), %ymm4 vmulpd %ymm3, %ymm4, %ymm3 vsubpd %ymm3, %ymm1, %ymm1 vmulpd %ymm5, %ymm12, %ymm3 vmulpd %ymm3, %ymm9, %ymm3 vsubpd %ymm3, %ymm1, %ymm1 vmulpd .LCPI1_22(%rip), %ymm1, %ymm1 je .LBB1_4116 vmovlpd %xmm1, (%rdx) .LBB1_4116: vmovapd %ymm11, 14624(%rbx) vmovapd %ymm12, 14272(%rbx) vmovapd %ymm7, 14368(%rbx) vmovapd 31392(%rbx), %ymm3 vmulpd %ymm2, %ymm3, %ymm2 testb $1, %r10b movq 21152(%rbx), %rax je .LBB1_4118 vunpckhpd %xmm1, %xmm1, %xmm3 vmovsd %xmm3, (%r8) .LBB1_4118: vsubpd %ymm2, %ymm0, %ymm0 vextractf128 $1, %ymm1, %xmm1 movl 32800(%rbx), %ecx testb $1, %cl je .LBB1_4120 vmovsd %xmm1, (%r11) .LBB1_4120: vmulpd .LCPI1_22(%rip), %ymm0, %ymm0 testb $1, %r14b je .LBB1_4122 vunpckhpd %xmm1, %xmm1, %xmm1 vmovsd %xmm1, (%r12) .LBB1_4122: vmovapd %ymm9, 16864(%rbx) movl 32896(%rbx), %ecx testb $1, %cl movq %rsi, %r13 je .LBB1_4124 vmovsd %xmm0, (%rax) .LBB1_4124: movl %r15d, %edx movl 32928(%rbx), %eax testb $1, %al movq 21184(%rbx), %rsi movq 20832(%rbx), %rax je .LBB1_4126 vunpckhpd %xmm0, %xmm0, %xmm1 vmovsd %xmm1, (%rax) .LBB1_4126: vmovapd %ymm10, 24384(%rbx) vextractf128 $1, %ymm0, %xmm0 testb $1, %dil movl %edi, %r9d movq 32288(%rbx), %rcx movq 21792(%rbx), %rdi movq 20896(%rbx), %r8 movq 20512(%rbx), %rax movl %edx, %r15d je .LBB1_4128 vmovsd %xmm0, (%rax) .LBB1_4128: movl 32960(%rbx), %eax testb $1, %al je .LBB1_4130 vunpckhpd %xmm0, %xmm0, %xmm0 movq 20160(%rbx), %rax vmovsd %xmm0, (%rax) .LBB1_4130: movl 32992(%rbx), %eax andb $1, %al movq 29216(%rbx), %rax cmovneq 21600(%rbx), %rax movq %rax, 29216(%rbx) vmovsd (%rsi), %xmm6 movq 20544(%rbx), %rax vmovsd (%rax), %xmm7 movl 32800(%rbx), %eax andb $1, %al jne .LBB1_4131 vxorpd %xmm0, %xmm0, %xmm0 jmp .LBB1_4133 .align 16, 0x90 .LBB1_4131: vmovsd (%rdi), %xmm0 .LBB1_4133: vmovapd %xmm0, 16832(%rbx) movl %r10d, 32864(%rbx) movl %r9d, %r11d movb %r11b, %al andb $1, %al jne .LBB1_4135 vxorpd %xmm7, %xmm7, %xmm7 .LBB1_4135: movl 32896(%rbx), %eax movb %al, %r10b andb $1, %r10b jne .LBB1_4137 vxorpd %xmm6, %xmm6, %xmm6 .LBB1_4137: movq %r12, 24800(%rbx) movq 30016(%rbx), %rax cmovneq 21216(%rbx), %rax movq %rax, 30016(%rbx) movq 31872(%rbx), %rdx jne .LBB1_4138 vxorpd %xmm0, %xmm0, %xmm0 jmp .LBB1_4140 .align 16, 0x90 .LBB1_4138: vmovsd (%rcx), %xmm0 .LBB1_4140: vmovapd %xmm0, 16800(%rbx) movl 32992(%rbx), %eax andb $1, %al movq 29984(%rbx), %rcx jne .LBB1_4141 vxorpd %xmm0, %xmm0, %xmm0 jmp .LBB1_4143 .align 16, 0x90 .LBB1_4141: vmovsd (%rdx), %xmm0 .LBB1_4143: vmovapd %xmm0, 16704(%rbx) movl 32928(%rbx), %eax andb $1, %al cmovneq %r8, %rcx movq %rcx, 29984(%rbx) movl 32800(%rbx), %eax movb %al, %r9b andb $1, %r9b movq 21568(%rbx), %rdi jne .LBB1_4144 vxorpd %xmm0, %xmm0, %xmm0 jmp .LBB1_4146 .align 16, 0x90 .LBB1_4144: movq 31808(%rbx), %rax vmovsd (%rax), %xmm0 .LBB1_4146: vmovapd %xmm0, 14432(%rbx) movq 29248(%rbx), %rax cmovneq %r13, %rax movq %rax, 29248(%rbx) movb %r11b, %al andb $1, %al jne .LBB1_4147 vxorpd %xmm13, %xmm13, %xmm13 jmp .LBB1_4149 .align 16, 0x90 .LBB1_4147: movq 32352(%rbx), %rax vmovsd (%rax), %xmm13 .LBB1_4149: movl 32992(%rbx), %eax movb %al, %dl andb $1, %dl movq 29888(%rbx), %rcx movq 20864(%rbx), %rsi jne .LBB1_4150 vxorpd %xmm0, %xmm0, %xmm0 jmp .LBB1_4152 .align 16, 0x90 .LBB1_4150: vmovsd (%rdi), %xmm0 .LBB1_4152: movb %r11b, %al andb $1, %al cmovneq 20576(%rbx), %rcx movq %rcx, 29888(%rbx) movl 32928(%rbx), %ecx andb $1, %cl movq 32320(%rbx), %rdi vmovsd (%rdi), %xmm1 movq 24192(%rbx), %rdi vmovsd (%rdi), %xmm3 movq 24288(%rbx), %rdi vmovsd (%rdi), %xmm11 movq 24256(%rbx), %rdi vmovsd (%rdi), %xmm15 jne .LBB1_4153 vxorpd %xmm14, %xmm14, %xmm14 jmp .LBB1_4155 .align 16, 0x90 .LBB1_4153: vmovsd (%rsi), %xmm14 .LBB1_4155: jne .LBB1_4157 vxorpd %xmm1, %xmm1, %xmm1 .LBB1_4157: movq 32384(%rbx), %rsi vmovsd (%rsi), %xmm2 movq 20192(%rbx), %rsi vmovsd (%rsi), %xmm10 testb %r10b, %r10b jne .LBB1_4159 vxorpd %xmm15, %xmm15, %xmm15 .LBB1_4159: testb %cl, %cl movq 16288(%rbx), %r10 jne .LBB1_4161 vxorpd %xmm11, %xmm11, %xmm11 .LBB1_4161: testb %al, %al movq 29856(%rbx), %rcx jne .LBB1_4163 vxorpd %xmm3, %xmm3, %xmm3 .LBB1_4163: movl 32960(%rbx), %eax andb $1, %al cmovneq 20224(%rbx), %rcx movq 24096(%rbx), %rdi vmovsd (%rdi), %xmm4 movq 24064(%rbx), %rdi vmovsd (%rdi), %xmm8 movq 24224(%rbx), %rdi vmovsd (%rdi), %xmm9 jne .LBB1_4165 vxorpd %xmm10, %xmm10, %xmm10 .LBB1_4165: movq %rcx, 29856(%rbx) movq 24128(%rbx), %rdi jne .LBB1_4167 vxorpd %xmm2, %xmm2, %xmm2 .LBB1_4167: testb %al, %al movq 22112(%rbx), %rax vmovsd (%rax), %xmm12 jne .LBB1_4169 vxorpd %xmm9, %xmm9, %xmm9 .LBB1_4169: testb %r9b, %r9b jne .LBB1_4171 vxorpd %xmm8, %xmm8, %xmm8 .LBB1_4171: testb %dl, %dl movq 31840(%rbx), %rdx movq 24160(%rbx), %rcx movq 22400(%rbx), %rsi movl 32960(%rbx), %r9d jne .LBB1_4173 vxorpd %xmm4, %xmm4, %xmm4 .LBB1_4173: movl 32864(%rbx), %eax andb $1, %al vunpcklpd %xmm11, %xmm15, %xmm15 vunpcklpd %xmm14, %xmm6, %xmm11 movl 32800(%rbx), %r14d jne .LBB1_4175 vxorpd %xmm12, %xmm12, %xmm12 .LBB1_4175: vunpcklpd %xmm10, %xmm7, %xmm7 vunpcklpd %xmm9, %xmm3, %xmm5 vmovsd (%rcx), %xmm6 movq 29440(%rbx), %rcx jne .LBB1_4176 vxorpd %xmm3, %xmm3, %xmm3 jmp .LBB1_4178 .align 16, 0x90 .LBB1_4176: vmovsd (%rdx), %xmm3 .LBB1_4178: vmovapd 24384(%rbx), %ymm10 movq 29408(%rbx), %rdx cmovneq 22144(%rbx), %rdx movq %rdx, 29408(%rbx) testb %al, %al jne .LBB1_4180 vxorpd %xmm6, %xmm6, %xmm6 .LBB1_4180: vinsertf128 $1, %xmm5, %ymm15, %ymm15 vinsertf128 $1, %xmm7, %ymm11, %ymm11 vunpcklpd %xmm2, %xmm13, %xmm2 vmovapd 16800(%rbx), %xmm5 vunpcklpd %xmm1, %xmm5, %xmm1 vmovapd 16832(%rbx), %xmm5 vunpcklpd %xmm0, %xmm5, %xmm0 movb %r15b, %al andb $1, %al movq 31136(%rbx), %rdx jne .LBB1_4181 vxorpd %xmm5, %xmm5, %xmm5 jmp .LBB1_4183 .align 16, 0x90 .LBB1_4181: vmovsd (%rsi), %xmm5 .LBB1_4183: vunpcklpd %xmm12, %xmm5, %xmm5 vunpcklpd %xmm4, %xmm8, %xmm4 jne .LBB1_4184 vxorpd %xmm7, %xmm7, %xmm7 jmp .LBB1_4186 .align 16, 0x90 .LBB1_4184: vmovsd (%rdi), %xmm7 .LBB1_4186: vunpcklpd %xmm6, %xmm7, %xmm7 vmovapd 32512(%rbx), %ymm6 vmulpd %ymm11, %ymm6, %ymm12 vmulpd 31360(%rbx), %ymm12, %ymm6 vmovapd 32448(%rbx), %ymm8 vmulpd %ymm15, %ymm8, %ymm8 vmovapd %ymm8, 16768(%rbx) vmulpd 16672(%rbx), %ymm8, %ymm8 vaddpd %ymm6, %ymm8, %ymm6 vinsertf128 $1, %xmm4, %ymm7, %ymm14 vinsertf128 $1, %xmm0, %ymm5, %ymm4 vmovapd %ymm4, 16832(%rbx) vinsertf128 $1, %xmm2, %ymm1, %ymm0 vmovapd %ymm0, 16800(%rbx) vmovapd 26048(%rbx), %ymm1 vmulpd %ymm0, %ymm1, %ymm13 vmulpd 31392(%rbx), %ymm13, %ymm0 vaddpd %ymm0, %ymm6, %ymm0 vmovapd 14624(%rbx), %ymm1 vmulpd %ymm4, %ymm1, %ymm5 vmulpd 31328(%rbx), %ymm5, %ymm1 vmulpd %ymm14, %ymm10, %ymm2 vmovapd %ymm2, 16736(%rbx) vmulpd 14592(%rbx), %ymm2, %ymm2 vaddpd %ymm1, %ymm2, %ymm1 vmovapd 14432(%rbx), %xmm2 vunpcklpd 16704(%rbx), %xmm2, %xmm2 movl %r11d, %edi jne .LBB1_4187 vxorpd %xmm4, %xmm4, %xmm4 jmp .LBB1_4189 .align 16, 0x90 .LBB1_4187: vmovsd (%rdx), %xmm4 .LBB1_4189: vunpcklpd %xmm3, %xmm4, %xmm3 vinsertf128 $1, %xmm2, %ymm3, %ymm3 vmovapd %ymm3, 13376(%rbx) vmovapd 14304(%rbx), %ymm7 vmulpd %ymm3, %ymm7, %ymm8 vmovapd 16864(%rbx), %ymm4 vmulpd %ymm4, %ymm8, %ymm2 vaddpd %ymm2, %ymm1, %ymm1 vmulpd %ymm3, %ymm10, %ymm9 vmovapd %ymm10, 24384(%rbx) vmovapd 31328(%rbx), %ymm2 vmulpd %ymm9, %ymm2, %ymm2 vsubpd %ymm2, %ymm1, %ymm1 vmovapd 32448(%rbx), %ymm2 vmulpd 16800(%rbx), %ymm2, %ymm10 vmovapd 31360(%rbx), %ymm2 vmulpd %ymm10, %ymm2, %ymm2 vsubpd %ymm2, %ymm0, %ymm0 vmulpd 32512(%rbx), %ymm15, %ymm6 vmulpd 31392(%rbx), %ymm6, %ymm2 vsubpd %ymm2, %ymm0, %ymm0 vmulpd 26048(%rbx), %ymm11, %ymm2 vmovapd %ymm2, 16704(%rbx) vmovapd %ymm11, 14432(%rbx) vmovapd 16672(%rbx), %ymm3 vmulpd %ymm2, %ymm3, %ymm2 vsubpd %ymm2, %ymm0, %ymm0 vmulpd 14624(%rbx), %ymm14, %ymm11 vmovapd %ymm14, 13088(%rbx) vmulpd %ymm4, %ymm11, %ymm2 vsubpd %ymm2, %ymm1, %ymm1 vmovapd 16832(%rbx), %ymm2 vmulpd %ymm7, %ymm2, %ymm2 vmovapd %ymm2, 16672(%rbx) vmovapd 14592(%rbx), %ymm3 vmulpd %ymm2, %ymm3, %ymm2 cmovneq %r10, %rcx movq %rcx, 29440(%rbx) testb %al, %al vsubpd %ymm2, %ymm1, %ymm1 vmulpd .LCPI1_22(%rip), %ymm1, %ymm14 vextractf128 $1, %ymm14, %xmm1 vunpckhpd %xmm14, %xmm14, %xmm3 je .LBB1_4191 vmovsd %xmm14, (%r10) .LBB1_4191: vmovapd %ymm15, 14624(%rbx) movl %r15d, %r12d vmulpd .LCPI1_22(%rip), %ymm0, %ymm0 vunpckhpd %xmm1, %xmm1, %xmm2 movl 32864(%rbx), %eax testb $1, %al movq 29536(%rbx), %r10 movq 22144(%rbx), %rax je .LBB1_4193 vmovsd %xmm3, (%rax) .LBB1_4193: testb $1, %r14b movq 15872(%rbx), %r15 je .LBB1_4195 vmovsd %xmm1, (%r13) .LBB1_4195: vunpckhpd %xmm0, %xmm0, %xmm4 movl 32992(%rbx), %eax testb $1, %al je .LBB1_4197 movq 21600(%rbx), %rax vmovsd %xmm2, (%rax) .LBB1_4197: vextractf128 $1, %ymm0, %xmm7 movl 32896(%rbx), %eax testb $1, %al movq 15712(%rbx), %rcx je .LBB1_4199 movq 21216(%rbx), %rax vmovsd %xmm0, (%rax) .LBB1_4199: vmovapd %ymm0, 12960(%rbx) movl %r14d, %r8d vunpckhpd %xmm7, %xmm7, %xmm0 movl 32928(%rbx), %eax testb $1, %al movq 16320(%rbx), %rsi movq 15232(%rbx), %r11 movq 20576(%rbx), %rdx je .LBB1_4201 movq 20896(%rbx), %rax vmovsd %xmm4, (%rax) .LBB1_4201: vmovapd %xmm3, 13120(%rbx) testb $1, %dil movq 29568(%rbx), %rax movq 15424(%rbx), %r14 je .LBB1_4203 vmovsd %xmm7, (%rdx) .LBB1_4203: vmovapd %xmm7, 13024(%rbx) vmovapd %xmm4, 13056(%rbx) vmovapd %xmm2, 14592(%rbx) vmovapd %xmm1, 32512(%rbx) testb $1, %r9b movq 20224(%rbx), %rdx je .LBB1_4205 vmovsd %xmm0, (%rdx) .LBB1_4205: vmovapd %xmm0, 12992(%rbx) vmovapd 14336(%rbx), %ymm7 vmulpd %ymm7, %ymm11, %ymm11 vmovapd 14368(%rbx), %ymm1 vmulpd %ymm1, %ymm9, %ymm9 vaddpd %ymm11, %ymm9, %ymm9 vmovapd 16672(%rbx), %ymm2 vmovapd 14272(%rbx), %ymm3 vmulpd %ymm3, %ymm2, %ymm11 vaddpd %ymm11, %ymm9, %ymm9 vmovapd 16736(%rbx), %ymm2 vmulpd %ymm3, %ymm2, %ymm11 vmovapd 14400(%rbx), %ymm3 vmulpd %ymm3, %ymm6, %ymm6 vmovapd 24416(%rbx), %ymm15 vmulpd %ymm15, %ymm10, %ymm10 vaddpd %ymm6, %ymm10, %ymm6 vsubpd %ymm11, %ymm9, %ymm9 vmovapd 16704(%rbx), %ymm2 vmovapd 16896(%rbx), %ymm4 vmulpd %ymm4, %ymm2, %ymm10 vmulpd %ymm5, %ymm1, %ymm5 vsubpd %ymm5, %ymm9, %ymm9 vaddpd %ymm10, %ymm6, %ymm5 vmulpd %ymm8, %ymm7, %ymm6 vmovapd 16768(%rbx), %ymm1 vmulpd %ymm4, %ymm1, %ymm8 vsubpd %ymm8, %ymm5, %ymm5 vsubpd %ymm6, %ymm9, %ymm8 vmulpd %ymm12, %ymm15, %ymm6 testb $1, %r9b movq 29344(%rbx), %rdx cmovneq 20256(%rbx), %rdx movq %rdx, 29344(%rbx) testb $1, %dil movq 29376(%rbx), %rdx cmovneq %r11, %rdx movq %rdx, 29376(%rbx) movl 32928(%rbx), %edx testb $1, %dl cmovneq %r14, %r10 movl 32896(%rbx), %edx testb $1, %dl cmovneq 21248(%rbx), %rax movq %rax, 29568(%rbx) movl 32992(%rbx), %eax testb $1, %al movq 28096(%rbx), %rax cmovneq %rcx, %rax movq %rax, 28096(%rbx) testb $1, %r8b movq 28128(%rbx), %rax cmovneq %r15, %rax movq %rax, 28128(%rbx) movl 32864(%rbx), %eax testb $1, %al vmulpd .LCPI1_22(%rip), %ymm8, %ymm7 movq 28256(%rbx), %rax cmovneq 22176(%rbx), %rax movq %rax, 28256(%rbx) movb %r12b, %al andb $1, %al vextractf128 $1, %ymm7, %xmm1 vsubpd %ymm6, %ymm5, %ymm5 vmulpd %ymm13, %ymm3, %ymm6 vsubpd %ymm6, %ymm5, %ymm5 movq 28288(%rbx), %rdx cmovneq %rsi, %rdx movq %rdx, 28288(%rbx) testb %al, %al vunpckhpd %xmm7, %xmm7, %xmm6 je .LBB1_4207 vmovsd %xmm7, (%rsi) .LBB1_4207: vmulpd .LCPI1_22(%rip), %ymm5, %ymm3 vunpckhpd %xmm1, %xmm1, %xmm5 movl 32864(%rbx), %eax testb $1, %al movq 28960(%rbx), %r9 movq 22176(%rbx), %rax je .LBB1_4209 vmovsd %xmm6, (%rax) .LBB1_4209: testb $1, %r8b je .LBB1_4211 vmovsd %xmm1, (%r15) .LBB1_4211: movl %edi, %r13d vunpckhpd %xmm3, %xmm3, %xmm2 movl 32992(%rbx), %r15d testb $1, %r15b movq 16352(%rbx), %rsi movq 21248(%rbx), %rax je .LBB1_4213 vmovsd %xmm5, (%rcx) .LBB1_4213: vextractf128 $1, %ymm3, %xmm4 movl 32896(%rbx), %ecx testb $1, %cl movq 20256(%rbx), %rdi je .LBB1_4215 vmovsd %xmm3, (%rax) .LBB1_4215: vmovapd %ymm7, 13280(%rbx) vunpckhpd %xmm4, %xmm4, %xmm7 movl 32928(%rbx), %eax testb $1, %al je .LBB1_4217 vmovsd %xmm2, (%r14) .LBB1_4217: vmovapd %xmm2, 13184(%rbx) movq %r10, 29536(%rbx) testb $1, %r13b movq 28992(%rbx), %rax je .LBB1_4219 vmovsd %xmm4, (%r11) .LBB1_4219: vmovapd %xmm4, 13152(%rbx) movl 32960(%rbx), %ecx testb $1, %cl movq 16064(%rbx), %rcx movl %r8d, %r14d je .LBB1_4221 vmovsd %xmm7, (%rdi) .LBB1_4221: vmovapd %xmm5, 13248(%rbx) movl 32960(%rbx), %edx testb $1, %dl movq 28832(%rbx), %rdi cmovneq 20288(%rbx), %rdi movq %rdi, 28832(%rbx) testb $1, %r13b movq 28864(%rbx), %rdi cmovneq 20608(%rbx), %rdi movq %rdi, 28864(%rbx) movl 32928(%rbx), %edi testb $1, %dil cmovneq 20928(%rbx), %r9 movl 32896(%rbx), %edi testb $1, %dil cmovneq 21280(%rbx), %rax movq %rax, 28992(%rbx) testb $1, %r15b movq 28384(%rbx), %rax cmovneq 21632(%rbx), %rax movq %rax, 28384(%rbx) testb $1, %r14b movq 28416(%rbx), %rax movq 15904(%rbx), %rdx cmovneq %rdx, %rax movq %rax, 28416(%rbx) movl 32864(%rbx), %eax testb $1, %al movq 28640(%rbx), %rax cmovneq %rcx, %rax movq %rax, 28640(%rbx) movb %r12b, %al andb $1, %al movq 28672(%rbx), %rdi cmovneq %rsi, %rdi movq %rdi, 28672(%rbx) testb %al, %al je .LBB1_4223 movabsq $-9223372036854775808, %rax movq %rax, (%rsi) .LBB1_4223: vmovapd %xmm6, 13216(%rbx) movl 32864(%rbx), %eax testb $1, %al movq 16384(%rbx), %r11 je .LBB1_4225 movabsq $-9223372036854775808, %rax movq %rax, (%rcx) .LBB1_4225: vmovapd %xmm1, 13344(%rbx) testb $1, %r14b movq 21632(%rbx), %rax movl %r13d, %esi je .LBB1_4227 movabsq $-9223372036854775808, %rcx movq %rcx, (%rdx) .LBB1_4227: testb $1, %r15b je .LBB1_4229 movabsq $-9223372036854775808, %rcx movq %rcx, (%rax) .LBB1_4229: vmovapd %ymm3, 13312(%rbx) movl 32896(%rbx), %eax testb $1, %al movq 21280(%rbx), %rax je .LBB1_4231 movabsq $-9223372036854775808, %rcx movq %rcx, (%rax) .LBB1_4231: movl 32928(%rbx), %eax testb $1, %al movq 14112(%rbx), %r8 movq 20928(%rbx), %rax movq 20608(%rbx), %rcx vmovaps 32512(%rbx), %xmm1 vmovapd 13120(%rbx), %xmm3 je .LBB1_4233 movabsq $-9223372036854775808, %rdx movq %rdx, (%rax) .LBB1_4233: movl 32928(%rbx), %r12d testb $1, %sil movq 29632(%rbx), %rax je .LBB1_4235 movabsq $-9223372036854775808, %rdx movq %rdx, (%rcx) .LBB1_4235: movq %r9, 28960(%rbx) movl 32960(%rbx), %r13d testb $1, %r13b movq 20288(%rbx), %rcx vmovapd 14592(%rbx), %xmm2 je .LBB1_4237 movabsq $-9223372036854775808, %rdx movq %rdx, (%rcx) .LBB1_4237: testb $1, %r13b movl %r13d, %r10d movq 29472(%rbx), %rdx cmovneq 20320(%rbx), %rdx movq %rdx, 29472(%rbx) testb $1, %sil movl %esi, %r9d movq 29504(%rbx), %rdx movq 15264(%rbx), %r13 cmovneq %r13, %rdx movq %rdx, 29504(%rbx) testb $1, %r12b movq 15456(%rbx), %rdi movq 29600(%rbx), %rcx cmovneq %rdi, %rcx movq %rcx, 29600(%rbx) movl 32896(%rbx), %ecx testb $1, %cl cmovneq 21312(%rbx), %rax movq %rax, 29632(%rbx) testb $1, %r15b movq 28192(%rbx), %rax movq 15744(%rbx), %rsi cmovneq %rsi, %rax movq %rax, 28192(%rbx) testb $1, %r14b movq 28224(%rbx), %rax cmovneq 21856(%rbx), %rax movq %rax, 28224(%rbx) movl 32864(%rbx), %eax testb $1, %al movq 28448(%rbx), %rax movq 16096(%rbx), %rcx cmovneq %rcx, %rax movq %rax, 28448(%rbx) movl 32736(%rbx), %eax andb $1, %al movq 28480(%rbx), %rdx cmovneq %r11, %rdx testb %al, %al je .LBB1_4239 vmovsd %xmm14, (%r11) .LBB1_4239: movl 32864(%rbx), %eax testb $1, %al je .LBB1_4241 vmovsd %xmm3, (%rcx) .LBB1_4241: movq %rdx, 28480(%rbx) testb $1, %r14b movq 21856(%rbx), %rax movl 32896(%rbx), %edx je .LBB1_4243 vmovsd %xmm1, (%rax) .LBB1_4243: vmovapd %xmm7, 13120(%rbx) testb $1, %r15b movq 27616(%rbx), %r11 movq 21312(%rbx), %rax movq 20320(%rbx), %rcx vmovaps 13056(%rbx), %xmm1 vmovaps 12960(%rbx), %ymm0 je .LBB1_4245 vmovsd %xmm2, (%rsi) .LBB1_4245: testb $1, %dl je .LBB1_4247 vmovsd %xmm0, (%rax) .LBB1_4247: testb $1, %r12b vmovaps 13024(%rbx), %xmm0 je .LBB1_4249 vmovsd %xmm1, (%rdi) .LBB1_4249: testb $1, %r9b movq 14080(%rbx), %rax vmovapd 12992(%rbx), %xmm1 je .LBB1_4251 vmovsd %xmm0, (%r13) .LBB1_4251: movl %r9d, %edi testb $1, %r10b je .LBB1_4253 vmovsd %xmm1, (%rcx) .LBB1_4253: movq 26208(%rbx), %rcx vmovsd (%rcx), %xmm8 vmovsd (%rax), %xmm10 movl 32864(%rbx), %eax andb $1, %al movq 27776(%rbx), %rax cmovneq 22208(%rbx), %rax movq %rax, 27776(%rbx) movq 14208(%rbx), %rsi jne .LBB1_4254 vxorps %xmm0, %xmm0, %xmm0 jmp .LBB1_4256 .align 16, 0x90 .LBB1_4254: vmovsd (%r8), %xmm0 .LBB1_4256: vmovaps %xmm0, 16896(%rbx) movb %r15b, %al andb $1, %al jne .LBB1_4258 vxorpd %xmm10, %xmm10, %xmm10 .LBB1_4258: movb %dil, %al andb $1, %al jne .LBB1_4260 vxorpd %xmm8, %xmm8, %xmm8 .LBB1_4260: movq 24672(%rbx), %rax vmovsd (%rax), %xmm14 movb %r14b, %r9b andb $1, %r9b cmovneq 21888(%rbx), %r11 movq 14048(%rbx), %rax jne .LBB1_4261 vxorpd %xmm13, %xmm13, %xmm13 jmp .LBB1_4263 .align 16, 0x90 .LBB1_4261: vmovsd (%rax), %xmm13 .LBB1_4263: jne .LBB1_4265 vxorpd %xmm14, %xmm14, %xmm14 .LBB1_4265: movb %r15b, %r13b andb $1, %r13b movq 27584(%rbx), %rax jne .LBB1_4266 vxorpd %xmm15, %xmm15, %xmm15 jmp .LBB1_4268 .align 16, 0x90 .LBB1_4266: movq 24640(%rbx), %rcx vmovsd (%rcx), %xmm15 .LBB1_4268: cmovneq 21664(%rbx), %rax movq %rax, 27584(%rbx) movb %dil, %al andb $1, %al jne .LBB1_4269 vxorpd %xmm9, %xmm9, %xmm9 jmp .LBB1_4271 .align 16, 0x90 .LBB1_4269: movq 14144(%rbx), %rax vmovsd (%rax), %xmm9 .LBB1_4271: movb %dl, %al andb $1, %al movq 28928(%rbx), %rax cmovneq 21344(%rbx), %rax movq %rax, 28928(%rbx) movq 14240(%rbx), %rcx jne .LBB1_4272 vxorpd %xmm11, %xmm11, %xmm11 jmp .LBB1_4274 .align 16, 0x90 .LBB1_4272: vmovsd (%rsi), %xmm11 .LBB1_4274: movl %r10d, %esi movq %r11, 27616(%rbx) movb %r12b, %r10b andb $1, %r10b movq 28896(%rbx), %rax cmovneq 20960(%rbx), %rax movq %rax, 28896(%rbx) jne .LBB1_4275 vxorpd %xmm6, %xmm6, %xmm6 jmp .LBB1_4277 .align 16, 0x90 .LBB1_4275: movq 26240(%rbx), %rax vmovsd (%rax), %xmm6 .LBB1_4277: jne .LBB1_4278 vxorpd %xmm4, %xmm4, %xmm4 jmp .LBB1_4280 .align 16, 0x90 .LBB1_4278: vmovsd (%rcx), %xmm4 .LBB1_4280: movb %dl, %al movl %r14d, %r11d andb $1, %al jne .LBB1_4281 vxorpd %xmm1, %xmm1, %xmm1 jmp .LBB1_4283 .align 16, 0x90 .LBB1_4281: movq 24608(%rbx), %rcx vmovsd (%rcx), %xmm1 .LBB1_4283: movl 32864(%rbx), %ecx movb %cl, %r14b andb $1, %r14b movq 14176(%rbx), %rcx jne .LBB1_4284 vxorpd %xmm3, %xmm3, %xmm3 jmp .LBB1_4286 .align 16, 0x90 .LBB1_4284: movq 24768(%rbx), %rdx vmovsd (%rdx), %xmm3 .LBB1_4286: movb %dil, %dl andb $1, %dl vmovsd (%rcx), %xmm5 movq 28736(%rbx), %rcx cmovneq 20640(%rbx), %rcx movq %rcx, 28736(%rbx) movl %r15d, %r8d testb %r10b, %r10b jne .LBB1_4287 vxorpd %xmm7, %xmm7, %xmm7 jmp .LBB1_4289 .align 16, 0x90 .LBB1_4287: movq 25984(%rbx), %rcx vmovsd (%rcx), %xmm7 .LBB1_4289: movl 32864(%rbx), %r10d movl %edi, %r15d movb %sil, %cl andb $1, %cl jne .LBB1_4291 vxorpd %xmm5, %xmm5, %xmm5 .LBB1_4291: movq 26016(%rbx), %rdi vmovsd (%rdi), %xmm0 movq 28704(%rbx), %rdi cmovneq 20352(%rbx), %rdi movq %rdi, 28704(%rbx) jne .LBB1_4292 vxorpd %xmm2, %xmm2, %xmm2 jmp .LBB1_4294 .align 16, 0x90 .LBB1_4292: movq 26176(%rbx), %rdi vmovsd (%rdi), %xmm2 .LBB1_4294: testb %cl, %cl jne .LBB1_4296 vxorpd %xmm0, %xmm0, %xmm0 .LBB1_4296: testb %al, %al jne .LBB1_4297 vxorpd %xmm12, %xmm12, %xmm12 jmp .LBB1_4299 .align 16, 0x90 .LBB1_4297: movq 25920(%rbx), %rax vmovsd (%rax), %xmm12 .LBB1_4299: vunpcklpd %xmm7, %xmm12, %xmm7 vunpcklpd %xmm6, %xmm1, %xmm1 testb %dl, %dl jne .LBB1_4300 vxorpd %xmm6, %xmm6, %xmm6 jmp .LBB1_4302 .align 16, 0x90 .LBB1_4300: movq 25952(%rbx), %rax vmovsd (%rax), %xmm6 .LBB1_4302: vunpcklpd %xmm2, %xmm8, %xmm2 vunpcklpd %xmm0, %xmm6, %xmm0 vinsertf128 $1, %xmm0, %ymm7, %ymm0 vmovapd %ymm0, 32512(%rbx) vinsertf128 $1, %xmm2, %ymm1, %ymm0 vmovapd %ymm0, 14272(%rbx) testb %r9b, %r9b movq 25856(%rbx), %rax vmovsd (%rax), %xmm1 vmulpd 14624(%rbx), %ymm0, %ymm2 jne .LBB1_4303 vxorpd %xmm0, %xmm0, %xmm0 jmp .LBB1_4305 .align 16, 0x90 .LBB1_4303: movq 25824(%rbx), %rax vmovsd (%rax), %xmm0 .LBB1_4305: vmovapd %ymm2, 13056(%rbx) vmulpd 31392(%rbx), %ymm2, %ymm2 vmovapd 32448(%rbx), %ymm6 vmulpd 32512(%rbx), %ymm6, %ymm8 testb %r13b, %r13b movq 27808(%rbx), %r13 jne .LBB1_4306 vxorpd %xmm6, %xmm6, %xmm6 jmp .LBB1_4308 .align 16, 0x90 .LBB1_4306: movq 25888(%rbx), %rax vmovsd (%rax), %xmm6 .LBB1_4308: movq 16640(%rbx), %r9 vunpcklpd %xmm5, %xmm9, %xmm5 vunpcklpd %xmm4, %xmm11, %xmm4 testb %r14b, %r14b vmulpd 31360(%rbx), %ymm8, %ymm7 jne .LBB1_4310 vxorpd %xmm1, %xmm1, %xmm1 .LBB1_4310: vaddpd %ymm2, %ymm7, %ymm2 vinsertf128 $1, %xmm5, %ymm4, %ymm7 vunpcklpd %xmm6, %xmm0, %xmm0 movl 32736(%rbx), %eax andb $1, %al movq 16416(%rbx), %rsi vmovapd 14432(%rbx), %ymm6 vmovapd 16864(%rbx), %ymm11 jne .LBB1_4311 vxorpd %xmm4, %xmm4, %xmm4 jmp .LBB1_4313 .align 16, 0x90 .LBB1_4311: movq 25792(%rbx), %rdx vmovsd (%rdx), %xmm4 .LBB1_4313: movq 24352(%rbx), %rdx vunpcklpd %xmm1, %xmm4, %xmm1 vunpcklpd %xmm15, %xmm14, %xmm4 jne .LBB1_4314 vxorpd %xmm5, %xmm5, %xmm5 jmp .LBB1_4316 .align 16, 0x90 .LBB1_4314: movq 24832(%rbx), %rdi vmovsd (%rdi), %xmm5 .LBB1_4316: movl %r15d, %edi vunpcklpd %xmm3, %xmm5, %xmm3 vmovapd %ymm7, 14624(%rbx) vmovapd 16704(%rbx), %ymm5 vmulpd %ymm7, %ymm5, %ymm5 vaddpd %ymm5, %ymm2, %ymm2 vmovapd 16768(%rbx), %ymm5 vmulpd %ymm7, %ymm5, %ymm5 vsubpd %ymm5, %ymm2, %ymm2 vinsertf128 $1, %xmm4, %ymm3, %ymm4 vinsertf128 $1, %xmm0, %ymm1, %ymm1 vmovapd %ymm1, 32448(%rbx) vmovapd 14272(%rbx), %ymm0 vmulpd %ymm6, %ymm0, %ymm3 vmovapd %ymm3, 32864(%rbx) vmovapd 31360(%rbx), %ymm0 vmulpd %ymm3, %ymm0, %ymm0 vsubpd %ymm0, %ymm2, %ymm0 vmovapd 24384(%rbx), %ymm2 vmulpd %ymm1, %ymm2, %ymm14 vmulpd 13088(%rbx), %ymm4, %ymm15 vmulpd %ymm11, %ymm15, %ymm1 vmulpd 31328(%rbx), %ymm14, %ymm2 vaddpd %ymm1, %ymm2, %ymm1 vunpcklpd %xmm10, %xmm13, %xmm2 movl %r8d, %ecx jne .LBB1_4317 vxorpd %xmm3, %xmm3, %xmm3 jmp .LBB1_4319 .align 16, 0x90 .LBB1_4317: vmovsd (%rdx), %xmm3 .LBB1_4319: vunpcklpd 16896(%rbx), %xmm3, %xmm3 vinsertf128 $1, %xmm2, %ymm3, %ymm3 vmovapd %ymm3, 14592(%rbx) vmovapd 16672(%rbx), %ymm2 vmulpd %ymm3, %ymm2, %ymm2 vaddpd %ymm2, %ymm1, %ymm1 vmovapd 32512(%rbx), %ymm2 vmulpd 26048(%rbx), %ymm2, %ymm10 vmovapd 16736(%rbx), %ymm2 vmulpd %ymm3, %ymm2, %ymm2 vmulpd 16832(%rbx), %ymm4, %ymm5 vmovapd %ymm5, 31360(%rbx) vmovapd 32448(%rbx), %ymm3 vmulpd 14304(%rbx), %ymm3, %ymm9 cmovneq %rsi, %r13 testb %al, %al vsubpd %ymm2, %ymm1, %ymm1 vmovapd 31328(%rbx), %ymm2 vmulpd %ymm5, %ymm2, %ymm2 vsubpd %ymm2, %ymm1, %ymm1 vmulpd %ymm9, %ymm11, %ymm2 vsubpd %ymm2, %ymm1, %ymm1 vmulpd .LCPI1_22(%rip), %ymm1, %ymm1 je .LBB1_4321 vmovlpd %xmm1, (%rsi) .LBB1_4321: vmovapd %ymm4, 31328(%rbx) vmovapd 31392(%rbx), %ymm2 vmulpd %ymm10, %ymm2, %ymm2 testb $1, %r10b movq 22208(%rbx), %rax je .LBB1_4323 vunpckhpd %xmm1, %xmm1, %xmm3 vmovsd %xmm3, (%rax) .LBB1_4323: vsubpd %ymm2, %ymm0, %ymm0 vextractf128 $1, %ymm1, %xmm1 testb $1, %r11b movq 21888(%rbx), %rax je .LBB1_4325 vmovsd %xmm1, (%rax) .LBB1_4325: movq %rdx, 24352(%rbx) vmulpd .LCPI1_22(%rip), %ymm0, %ymm0 testb $1, %cl movq 15776(%rbx), %r8 movq 21344(%rbx), %rax je .LBB1_4327 vunpckhpd %xmm1, %xmm1, %xmm1 movq 21664(%rbx), %rdx vmovsd %xmm1, (%rdx) .LBB1_4327: movl %ecx, 32992(%rbx) movl 32896(%rbx), %edx testb $1, %dl je .LBB1_4329 vmovsd %xmm0, (%rax) .LBB1_4329: testb $1, %r12b movq 15488(%rbx), %r15 movq 20960(%rbx), %rax movq 20640(%rbx), %rsi je .LBB1_4331 vunpckhpd %xmm0, %xmm0, %xmm1 vmovsd %xmm1, (%rax) .LBB1_4331: vextractf128 $1, %ymm0, %xmm0 testb $1, %dil movq 28000(%rbx), %rax movq 27072(%rbx), %rdx je .LBB1_4333 vmovsd %xmm0, (%rsi) .LBB1_4333: movq %r13, 27808(%rbx) movl 32960(%rbx), %ecx testb $1, %cl je .LBB1_4335 vunpckhpd %xmm0, %xmm0, %xmm0 movq 20352(%rbx), %rcx vmovsd %xmm0, (%rcx) .LBB1_4335: movl 32992(%rbx), %ecx movb %cl, %sil andb $1, %sil movq 26944(%rbx), %rcx cmovneq %r8, %rcx movq %rcx, 26944(%rbx) movb %r10b, %r14b movl %r10d, %r13d andb $1, %r14b cmovneq 22240(%rbx), %rdx movq %rdx, 27072(%rbx) movb %r11b, %r10b andb $1, %r10b movq 26976(%rbx), %rcx cmovneq 21920(%rbx), %rcx movq %rcx, 26976(%rbx) movl 32896(%rbx), %ecx andb $1, %cl cmovneq 21376(%rbx), %rax movq %rax, 28000(%rbx) movb %r12b, %al andb $1, %al movq 27968(%rbx), %rdx cmovneq %r15, %rdx movq %rdx, 27968(%rbx) movb %dil, %dl andb $1, %dl movq 27872(%rbx), %rdi cmovneq 20672(%rbx), %rdi movq %rdi, 27872(%rbx) vmovsd (%r9), %xmm4 movq 13952(%rbx), %rdi vmovsd (%rdi), %xmm3 movq 13856(%rbx), %rdi vmovsd (%rdi), %xmm5 movq 13920(%rbx), %rdi vmovsd (%rdi), %xmm1 movq 14016(%rbx), %rdi vmovsd (%rdi), %xmm6 movq 13984(%rbx), %rdi vmovsd (%rdi), %xmm7 testb %dl, %dl jne .LBB1_4336 vxorpd %xmm0, %xmm0, %xmm0 movq 24320(%rbx), %rdx jmp .LBB1_4338 .align 16, 0x90 .LBB1_4336: movq 24320(%rbx), %rdx vmovsd (%rdx), %xmm0 .LBB1_4338: movq %rdx, 24320(%rbx) testb %cl, %cl jne .LBB1_4340 vxorpd %xmm7, %xmm7, %xmm7 .LBB1_4340: testb %al, %al movq 27840(%rbx), %rcx movq 27104(%rbx), %rdx movq 13728(%rbx), %r9 jne .LBB1_4342 vxorpd %xmm6, %xmm6, %xmm6 .LBB1_4342: testb %r14b, %r14b movq 13888(%rbx), %rax vmovsd (%rax), %xmm2 jne .LBB1_4344 vxorpd %xmm1, %xmm1, %xmm1 .LBB1_4344: testb %r10b, %r10b jne .LBB1_4346 vxorpd %xmm5, %xmm5, %xmm5 .LBB1_4346: testb %sil, %sil movl 32896(%rbx), %edi movl %r13d, %r10d jne .LBB1_4348 vxorpd %xmm2, %xmm2, %xmm2 .LBB1_4348: movl 32960(%rbx), %eax andb $1, %al cmovneq %r9, %rcx testb %al, %al movq 16448(%rbx), %rsi movl %r12d, %r13d jne .LBB1_4350 vxorpd %xmm3, %xmm3, %xmm3 .LBB1_4350: movl 32736(%rbx), %eax andb $1, %al jne .LBB1_4352 vxorpd %xmm4, %xmm4, %xmm4 .LBB1_4352: vunpcklpd %xmm6, %xmm7, %xmm6 vunpcklpd %xmm1, %xmm4, %xmm1 vunpcklpd %xmm2, %xmm5, %xmm2 vunpcklpd %xmm3, %xmm0, %xmm0 vinsertf128 $1, %xmm0, %ymm6, %ymm11 vmovapd %ymm11, 16896(%rbx) vinsertf128 $1, %xmm2, %ymm1, %ymm12 vmovapd %ymm12, 16864(%rbx) vmovapd 14400(%rbx), %ymm0 vmovapd 13056(%rbx), %ymm1 vmulpd %ymm0, %ymm1, %ymm1 vmulpd %ymm0, %ymm10, %ymm5 vmovapd 24416(%rbx), %ymm0 vmulpd %ymm8, %ymm0, %ymm6 vmovapd 32864(%rbx), %ymm2 vmulpd %ymm0, %ymm2, %ymm7 vmovapd 14336(%rbx), %ymm2 vmulpd %ymm2, %ymm15, %ymm0 vmulpd %ymm2, %ymm9, %ymm2 vmovapd 14368(%rbx), %ymm4 vmulpd %ymm14, %ymm4, %ymm3 vmovapd 31360(%rbx), %ymm8 vmulpd %ymm4, %ymm8, %ymm4 vmovapd 16768(%rbx), %ymm8 vmulpd %ymm11, %ymm8, %ymm8 vaddpd %ymm7, %ymm8, %ymm7 vaddpd %ymm5, %ymm7, %ymm5 vsubpd %ymm6, %ymm5, %ymm5 vsubpd %ymm1, %ymm5, %ymm1 vmulpd 16704(%rbx), %ymm11, %ymm6 cmovneq %rsi, %rdx vmulpd 16672(%rbx), %ymm12, %ymm5 testb %al, %al vsubpd %ymm6, %ymm1, %ymm1 vmovapd 16736(%rbx), %ymm6 vmulpd %ymm12, %ymm6, %ymm6 vaddpd %ymm4, %ymm6, %ymm4 vaddpd %ymm2, %ymm4, %ymm2 vsubpd %ymm3, %ymm2, %ymm2 vsubpd %ymm0, %ymm2, %ymm0 vsubpd %ymm5, %ymm0, %ymm0 vmulpd .LCPI1_22(%rip), %ymm0, %ymm15 vextractf128 $1, %ymm15, %xmm12 vunpckhpd %xmm15, %xmm15, %xmm9 je .LBB1_4354 vmovsd %xmm15, (%rsi) .LBB1_4354: vmulpd .LCPI1_22(%rip), %ymm1, %ymm14 vunpckhpd %xmm12, %xmm12, %xmm8 testb $1, %r10b movq 22240(%rbx), %rax je .LBB1_4356 vmovsd %xmm9, (%rax) .LBB1_4356: testb $1, %r11b movq 21920(%rbx), %rax je .LBB1_4358 vmovsd %xmm12, (%rax) .LBB1_4358: vunpckhpd %xmm14, %xmm14, %xmm10 movl 32992(%rbx), %eax testb $1, %al movq 21376(%rbx), %rax je .LBB1_4360 vmovsd %xmm8, (%r8) .LBB1_4360: vextractf128 $1, %ymm14, %xmm13 testb $1, %dil je .LBB1_4362 vmovsd %xmm14, (%rax) .LBB1_4362: movq %rdx, 27104(%rbx) movq %rcx, 27840(%rbx) vunpckhpd %xmm13, %xmm13, %xmm11 testb $1, %r13b movq 20672(%rbx), %rsi movq 15168(%rbx), %r8 movq 16480(%rbx), %r12 je .LBB1_4364 vmovsd %xmm10, (%r15) .LBB1_4364: movl 32832(%rbx), %eax testb $1, %al movq 28800(%rbx), %rdx movq 28768(%rbx), %rcx movq 28544(%rbx), %rax movq 20704(%rbx), %rdi je .LBB1_4366 vmovsd %xmm13, (%rsi) .LBB1_4366: movl 32960(%rbx), %esi testb $1, %sil je .LBB1_4368 vmovsd %xmm11, (%r9) .LBB1_4368: movl 32960(%rbx), %esi movb %sil, %r15b andb $1, %r15b movq 28512(%rbx), %rsi cmovneq %r8, %rsi movq %rsi, 28512(%rbx) movl 32832(%rbx), %esi movb %sil, %r14b andb $1, %r14b cmovneq %rdi, %rax movq %rax, 28544(%rbx) movb %r13b, %al movl %r13d, %r8d andb $1, %al cmovneq 20992(%rbx), %rcx movq %rcx, 28768(%rbx) movl 32896(%rbx), %ecx andb $1, %cl cmovneq 21408(%rbx), %rdx movq %rdx, 28800(%rbx) movl 32992(%rbx), %edx andb $1, %dl movq 27904(%rbx), %rsi cmovneq 21680(%rbx), %rsi movq %rsi, 27904(%rbx) movb %r11b, %sil andb $1, %sil movq 27936(%rbx), %rdi cmovneq 21952(%rbx), %rdi movq %rdi, 27936(%rbx) movq 24864(%rbx), %rdi vmovsd (%rdi), %xmm0 movq 26752(%rbx), %rdi vmovsd (%rdi), %xmm6 movq 26656(%rbx), %rdi vmovsd (%rdi), %xmm1 movq 24704(%rbx), %rdi vmovsd (%rdi), %xmm7 movq 26496(%rbx), %rdi vmovsd (%rdi), %xmm3 movq 26368(%rbx), %rdi vmovsd (%rdi), %xmm2 movl %r10d, %edi movl %edi, %r9d andb $1, %r10b movq 28032(%rbx), %rdi cmovneq 22272(%rbx), %rdi movq %rdi, 28032(%rbx) movl 32736(%rbx), %edi movb %dil, %r13b andb $1, %r13b movq 28064(%rbx), %rdi cmovneq %r12, %rdi movq %rdi, 28064(%rbx) testb %r15b, %r15b jne .LBB1_4369 vxorpd %xmm5, %xmm5, %xmm5 jmp .LBB1_4371 .align 16, 0x90 .LBB1_4369: movq 26272(%rbx), %rdi vmovsd (%rdi), %xmm5 .LBB1_4371: testb %r14b, %r14b movl 32736(%rbx), %r15d jne .LBB1_4373 vxorps %xmm2, %xmm2, %xmm2 .LBB1_4373: testb %al, %al jne .LBB1_4375 vxorps %xmm3, %xmm3, %xmm3 .LBB1_4375: testb %cl, %cl movq 24896(%rbx), %rax jne .LBB1_4377 vxorps %xmm7, %xmm7, %xmm7 .LBB1_4377: testb %dl, %dl jne .LBB1_4379 vxorps %xmm1, %xmm1, %xmm1 .LBB1_4379: testb %sil, %sil jne .LBB1_4381 vxorps %xmm6, %xmm6, %xmm6 .LBB1_4381: testb %r10b, %r10b movq 27680(%rbx), %r14 jne .LBB1_4383 vxorps %xmm0, %xmm0, %xmm0 .LBB1_4383: testb %r13b, %r13b movq 16512(%rbx), %r10 movl %r9d, %edi je .LBB1_4385 vmovsd (%rax), %xmm4 vmovsd %xmm4, (%r12) .LBB1_4385: testb $1, %dil movq 16128(%rbx), %rcx movq 22272(%rbx), %rax movq 15936(%rbx), %r9 je .LBB1_4387 vmovsd %xmm0, (%rax) .LBB1_4387: testb $1, %r11b movq 21952(%rbx), %rax je .LBB1_4389 vmovsd %xmm6, (%rax) .LBB1_4389: movl 32992(%rbx), %eax testb $1, %al movq 21680(%rbx), %rax je .LBB1_4391 vmovsd %xmm1, (%rax) .LBB1_4391: movl 32896(%rbx), %eax testb $1, %al movq 21408(%rbx), %rax vmovaps 13216(%rbx), %xmm4 je .LBB1_4393 vmovsd %xmm7, (%rax) .LBB1_4393: testb $1, %r8b movq 20992(%rbx), %rax vmovaps 13344(%rbx), %xmm0 je .LBB1_4395 vmovsd %xmm3, (%rax) .LBB1_4395: movl 32832(%rbx), %eax testb $1, %al movq 28608(%rbx), %rax vmovapd 13280(%rbx), %ymm3 vmovaps 13120(%rbx), %xmm6 je .LBB1_4397 movq 20704(%rbx), %rdx vmovsd %xmm2, (%rdx) .LBB1_4397: movl 32960(%rbx), %edx testb $1, %dl vmovaps 13312(%rbx), %ymm1 je .LBB1_4399 movq 15168(%rbx), %rdx vmovsd %xmm5, (%rdx) .LBB1_4399: movl 32960(%rbx), %edx testb $1, %dl movq 13760(%rbx), %rdx movq 28320(%rbx), %rsi cmovneq %rdx, %rsi movq %rsi, 28320(%rbx) movl 32832(%rbx), %esi testb $1, %sil movq 28352(%rbx), %rsi cmovneq 20736(%rbx), %rsi movq %rsi, 28352(%rbx) testb $1, %r8b movq 28576(%rbx), %rsi cmovneq 21024(%rbx), %rsi movq %rsi, 28576(%rbx) movl 32896(%rbx), %esi testb $1, %sil cmovneq 21440(%rbx), %rax movq %rax, 28608(%rbx) movl 32992(%rbx), %eax testb $1, %al movq 27456(%rbx), %rax cmovneq 21696(%rbx), %rax movq %rax, 27456(%rbx) testb $1, %r11b movq 27488(%rbx), %rax cmovneq %r9, %rax movq %rax, 27488(%rbx) testb $1, %dil movq 27648(%rbx), %rax cmovneq %rcx, %rax movq %rax, 27648(%rbx) movb %r15b, %al andb $1, %al cmovneq %r10, %r14 testb %al, %al je .LBB1_4401 vmovsd %xmm3, (%r10) .LBB1_4401: testb $1, %dil movl %edi, %r13d vmovaps 13248(%rbx), %xmm2 je .LBB1_4403 vmovsd %xmm4, (%rcx) .LBB1_4403: movl %r15d, %r10d testb $1, %r11b movq 21696(%rbx), %rax movl 32832(%rbx), %ecx je .LBB1_4405 vmovsd %xmm0, (%r9) .LBB1_4405: movq %rdx, %r15 movl 32992(%rbx), %edx testb $1, %dl je .LBB1_4407 vmovsd %xmm2, (%rax) .LBB1_4407: movl 32896(%rbx), %eax testb $1, %al movq 21440(%rbx), %rax movq 20736(%rbx), %rdx movq 13792(%rbx), %r9 je .LBB1_4409 vmovsd %xmm1, (%rax) .LBB1_4409: testb $1, %r8b movq 21024(%rbx), %rax je .LBB1_4411 vmovaps 13184(%rbx), %xmm0 vmovsd %xmm0, (%rax) .LBB1_4411: testb $1, %cl movl %ecx, %r12d movq 27744(%rbx), %rax movq 15968(%rbx), %rcx movq 15616(%rbx), %rdi je .LBB1_4413 vmovaps 13152(%rbx), %xmm0 vmovsd %xmm0, (%rdx) .LBB1_4413: movq %r14, 27680(%rbx) movl 32960(%rbx), %edx testb $1, %dl je .LBB1_4415 vmovsd %xmm6, (%r15) .LBB1_4415: movl 32960(%rbx), %edx testb $1, %dl movq 27520(%rbx), %rsi cmovneq %r9, %rsi movq %rsi, 27520(%rbx) testb $1, %r12b movq 27552(%rbx), %rsi cmovneq 15296(%rbx), %rsi movq %rsi, 27552(%rbx) testb $1, %r8b movq 27712(%rbx), %rsi cmovneq 21056(%rbx), %rsi movq %rsi, 27712(%rbx) movl 32896(%rbx), %edx testb $1, %dl cmovneq %rdi, %rax movq %rax, 27744(%rbx) movl 32992(%rbx), %eax testb $1, %al movq 27200(%rbx), %rax cmovneq 21712(%rbx), %rax movq %rax, 27200(%rbx) testb $1, %r11b movq 27232(%rbx), %rax cmovneq %rcx, %rax movq %rax, 27232(%rbx) testb $1, %r13b movq 27392(%rbx), %rax cmovneq 22304(%rbx), %rax movq %rax, 27392(%rbx) movl %r10d, %r15d movb %r15b, %al andb $1, %al movq 27424(%rbx), %rsi movq 16544(%rbx), %rdx cmovneq %rdx, %rsi movq %rsi, 27424(%rbx) testb %al, %al je .LBB1_4417 vmovsd %xmm15, (%rdx) .LBB1_4417: movl %r13d, %r14d testb $1, %r14b movq 26784(%rbx), %rdx movq 26720(%rbx), %r10 je .LBB1_4419 movq 22304(%rbx), %rax vmovsd %xmm9, (%rax) .LBB1_4419: testb $1, %r11b movl %r8d, %esi je .LBB1_4421 vmovsd %xmm12, (%rcx) .LBB1_4421: movl 32992(%rbx), %eax testb $1, %al movq 24736(%rbx), %r8 movq 21056(%rbx), %rax je .LBB1_4423 movq 21712(%rbx), %rcx vmovsd %xmm8, (%rcx) .LBB1_4423: movl 32896(%rbx), %ecx testb $1, %cl movq 27040(%rbx), %rcx je .LBB1_4425 vmovsd %xmm14, (%rdi) .LBB1_4425: testb $1, %sil movq 15648(%rbx), %rdi je .LBB1_4427 vmovsd %xmm10, (%rax) .LBB1_4427: testb $1, %r12b movq 15296(%rbx), %rax je .LBB1_4429 vmovsd %xmm13, (%rax) .LBB1_4429: movl 32960(%rbx), %eax testb $1, %al je .LBB1_4431 vmovsd %xmm11, (%r9) .LBB1_4431: movb %r11b, %al andb $1, %al cmovneq 21984(%rbx), %rcx movl 32992(%rbx), %eax andb $1, %al jne .LBB1_4432 vxorps %xmm0, %xmm0, %xmm0 jmp .LBB1_4434 .align 16, 0x90 .LBB1_4432: movq 26688(%rbx), %rax vmovsd (%rax), %xmm0 .LBB1_4434: vmovaps %xmm0, 24416(%rbx) movq 27008(%rbx), %rax cmovneq 21728(%rbx), %rax movq %rax, 27008(%rbx) jne .LBB1_4435 vxorps %xmm0, %xmm0, %xmm0 jmp .LBB1_4437 .align 16, 0x90 .LBB1_4435: movq 26624(%rbx), %rax vmovsd (%rax), %xmm0 .LBB1_4437: vmovaps %xmm0, 26048(%rbx) movq %rcx, 27040(%rbx) movb %r11b, %al andb $1, %al movq 26464(%rbx), %rax vmovsd (%rax), %xmm0 vmovapd %xmm0, 31392(%rbx) movq 26592(%rbx), %rax vmovsd (%rax), %xmm2 vmovsd (%rdx), %xmm1 jne .LBB1_4438 vxorpd %xmm0, %xmm0, %xmm0 jmp .LBB1_4440 .align 16, 0x90 .LBB1_4438: vmovsd (%r10), %xmm0 .LBB1_4440: vmovapd %xmm0, 24384(%rbx) jne .LBB1_4442 vxorps %xmm1, %xmm1, %xmm1 .LBB1_4442: vmovaps %xmm1, 16768(%rbx) movl 32896(%rbx), %eax andb $1, %al jne .LBB1_4444 vxorpd %xmm2, %xmm2, %xmm2 .LBB1_4444: vmovapd %xmm2, 16704(%rbx) movl %esi, 32928(%rbx) movb %sil, %r13b andb $1, %r13b movq 27360(%rbx), %rcx jne .LBB1_4446 vxorpd %xmm0, %xmm0, %xmm0 vmovapd %xmm0, 31392(%rbx) .LBB1_4446: movq 27328(%rbx), %rax cmovneq 15520(%rbx), %rax movq %rax, 27328(%rbx) jne .LBB1_4447 vxorpd %xmm0, %xmm0, %xmm0 jmp .LBB1_4449 .align 16, 0x90 .LBB1_4447: movq 26528(%rbx), %rax vmovsd (%rax), %xmm0 .LBB1_4449: vmovapd %xmm0, 16736(%rbx) jne .LBB1_4450 vxorpd %xmm2, %xmm2, %xmm2 jmp .LBB1_4452 .align 16, 0x90 .LBB1_4450: movq 31936(%rbx), %rax vmovsd (%rax), %xmm2 .LBB1_4452: movl 32896(%rbx), %eax movb %al, %r9b andb $1, %r9b jne .LBB1_4453 vxorpd %xmm0, %xmm0, %xmm0 jmp .LBB1_4455 .align 16, 0x90 .LBB1_4453: vmovsd (%r8), %xmm0 .LBB1_4455: jne .LBB1_4456 vxorpd %xmm5, %xmm5, %xmm5 jmp .LBB1_4458 .align 16, 0x90 .LBB1_4456: movq 31904(%rbx), %rax vmovsd (%rax), %xmm5 .LBB1_4458: cmovneq %rdi, %rcx movl 32992(%rbx), %eax movb %al, %r10b andb $1, %r10b jne .LBB1_4459 vxorps %xmm1, %xmm1, %xmm1 jmp .LBB1_4461 .align 16, 0x90 .LBB1_4459: movq 31648(%rbx), %rax vmovsd (%rax), %xmm1 .LBB1_4461: vmovaps %xmm1, 16672(%rbx) movb %r11b, %sil andb $1, %sil movq 26400(%rbx), %rax vmovsd (%rax), %xmm4 movq 26336(%rbx), %rdx jne .LBB1_4462 vxorps %xmm1, %xmm1, %xmm1 jmp .LBB1_4464 .align 16, 0x90 .LBB1_4462: movq 31616(%rbx), %rax vmovsd (%rax), %xmm1 .LBB1_4464: vmovaps %xmm1, 14400(%rbx) movb %r12b, %al andb $1, %al movq 27168(%rbx), %rdi cmovneq 15328(%rbx), %rdi movq %rdi, 27168(%rbx) jne .LBB1_4466 vxorpd %xmm4, %xmm4, %xmm4 .LBB1_4466: movq 31968(%rbx), %rdi vmovsd (%rdi), %xmm10 movq 24576(%rbx), %rdi vmovsd (%rdi), %xmm14 vmovsd (%rdx), %xmm9 jne .LBB1_4467 vxorpd %xmm11, %xmm11, %xmm11 jmp .LBB1_4469 .align 16, 0x90 .LBB1_4467: movq 31680(%rbx), %rdi vmovsd (%rdi), %xmm11 .LBB1_4469: movq %rcx, 27360(%rbx) jne .LBB1_4471 vxorpd %xmm9, %xmm9, %xmm9 .LBB1_4471: movl 32960(%rbx), %ecx andb $1, %cl movq 27136(%rbx), %rdi cmovneq 15200(%rbx), %rdi movq %rdi, 27136(%rbx) jne .LBB1_4473 vxorpd %xmm14, %xmm14, %xmm14 .LBB1_4473: jne .LBB1_4475 vxorpd %xmm10, %xmm10, %xmm10 .LBB1_4475: movq 26304(%rbx), %rdx vmovsd (%rdx), %xmm15 movq 26432(%rbx), %rdi vmovsd (%rdi), %xmm7 movq 26560(%rbx), %rdi vmovsd (%rdi), %xmm1 jne .LBB1_4476 vxorpd %xmm12, %xmm12, %xmm12 jmp .LBB1_4478 .align 16, 0x90 .LBB1_4476: movq 24544(%rbx), %rdx vmovsd (%rdx), %xmm12 .LBB1_4478: testb %r13b, %r13b jne .LBB1_4480 vxorpd %xmm1, %xmm1, %xmm1 .LBB1_4480: testb %al, %al movq 32640(%rbx), %r13 movq 31520(%rbx), %rax movq 32480(%rbx), %rdi jne .LBB1_4482 vxorpd %xmm7, %xmm7, %xmm7 .LBB1_4482: testb %cl, %cl jne .LBB1_4484 vxorpd %xmm15, %xmm15, %xmm15 .LBB1_4484: testb %r9b, %r9b jne .LBB1_4485 vxorpd %xmm3, %xmm3, %xmm3 jmp .LBB1_4487 .align 16, 0x90 .LBB1_4485: movq 31488(%rbx), %rcx vmovsd (%rcx), %xmm3 .LBB1_4487: vunpcklpd %xmm1, %xmm3, %xmm1 testb %sil, %sil vmovsd (%rdi), %xmm13 jne .LBB1_4488 vxorpd %xmm8, %xmm8, %xmm8 jmp .LBB1_4490 .align 16, 0x90 .LBB1_4488: vmovsd (%rax), %xmm8 .LBB1_4490: testb %r10b, %r10b movq 31584(%rbx), %rax vmovsd (%rax), %xmm6 jne .LBB1_4492 vxorpd %xmm13, %xmm13, %xmm13 .LBB1_4492: vunpcklpd %xmm15, %xmm7, %xmm3 movb %r14b, %al andb $1, %al vmovapd 16704(%rbx), %xmm7 vunpcklpd 31392(%rbx), %xmm7, %xmm15 movq 30688(%rbx), %r10 movq 31232(%rbx), %r8 movq 16576(%rbx), %r9 movq 26912(%rbx), %rdx movq 16160(%rbx), %rcx jne .LBB1_4494 vxorpd %xmm6, %xmm6, %xmm6 .LBB1_4494: vinsertf128 $1, %xmm3, %ymm1, %ymm1 vunpcklpd %xmm10, %xmm11, %xmm3 vunpcklpd %xmm2, %xmm5, %xmm2 vinsertf128 $1, %xmm3, %ymm2, %ymm2 vmovapd %ymm2, 31392(%rbx) vmulpd 32512(%rbx), %ymm1, %ymm10 vunpcklpd %xmm12, %xmm9, %xmm3 movq 26816(%rbx), %rsi vmovsd (%rsi), %xmm5 movq 32064(%rbx), %rsi vmovsd (%rsi), %xmm2 jne .LBB1_4495 vxorpd %xmm7, %xmm7, %xmm7 jmp .LBB1_4497 .align 16, 0x90 .LBB1_4495: movq 26848(%rbx), %rsi vmovsd (%rsi), %xmm7 .LBB1_4497: vmovapd 14272(%rbx), %ymm9 vmulpd 16800(%rbx), %ymm9, %ymm9 movl 32960(%rbx), %edi jne .LBB1_4499 vxorpd %xmm5, %xmm5, %xmm5 .LBB1_4499: movq 27264(%rbx), %rsi cmovneq %rcx, %rsi movq %rsi, 27264(%rbx) testb %al, %al vmulpd 31392(%rbx), %ymm10, %ymm10 vunpcklpd %xmm14, %xmm4, %xmm4 vunpcklpd 16736(%rbx), %xmm0, %xmm0 vinsertf128 $1, %xmm4, %ymm0, %ymm12 vmulpd %ymm12, %ymm9, %ymm0 jne .LBB1_4501 vxorpd %xmm2, %xmm2, %xmm2 .LBB1_4501: vmulpd 16800(%rbx), %ymm1, %ymm11 vinsertf128 $1, %xmm3, %ymm15, %ymm4 vaddpd %ymm0, %ymm10, %ymm9 vmovapd 14400(%rbx), %xmm0 vunpcklpd 16672(%rbx), %xmm0, %xmm1 movb %r15b, %al andb $1, %al jne .LBB1_4502 vxorpd %xmm0, %xmm0, %xmm0 jmp .LBB1_4504 .align 16, 0x90 .LBB1_4502: movq 31552(%rbx), %rsi vmovsd (%rsi), %xmm0 .LBB1_4504: vunpcklpd %xmm6, %xmm0, %xmm10 vmovapd 16768(%rbx), %xmm0 vunpcklpd 24416(%rbx), %xmm0, %xmm0 movq 26880(%rbx), %rsi jne .LBB1_4505 vxorpd %xmm3, %xmm3, %xmm3 jmp .LBB1_4507 .align 16, 0x90 .LBB1_4505: vmovsd (%rdx), %xmm3 .LBB1_4507: vunpcklpd %xmm7, %xmm3, %xmm14 vmulpd 14432(%rbx), %ymm4, %ymm3 vmovapd 16896(%rbx), %ymm6 vmulpd %ymm6, %ymm3, %ymm15 vmulpd %ymm6, %ymm11, %ymm6 vmovapd 24384(%rbx), %xmm3 vunpcklpd 26048(%rbx), %xmm3, %xmm3 jne .LBB1_4508 vxorpd %xmm7, %xmm7, %xmm7 jmp .LBB1_4510 .align 16, 0x90 .LBB1_4508: vmovsd (%rsi), %xmm7 .LBB1_4510: vunpcklpd %xmm5, %xmm7, %xmm7 vaddpd %ymm15, %ymm9, %ymm9 vinsertf128 $1, %xmm0, %ymm14, %ymm5 vinsertf128 $1, %xmm1, %ymm10, %ymm11 vunpcklpd %xmm13, %xmm8, %xmm0 jne .LBB1_4511 vxorpd %xmm1, %xmm1, %xmm1 jmp .LBB1_4513 .align 16, 0x90 .LBB1_4511: vmovsd (%r13), %xmm1 .LBB1_4513: vunpcklpd %xmm2, %xmm1, %xmm1 vinsertf128 $1, %xmm0, %ymm1, %ymm2 vmovapd 13376(%rbx), %ymm13 vmovapd 31328(%rbx), %ymm0 vmulpd %ymm13, %ymm0, %ymm0 vmovapd 32448(%rbx), %ymm10 vmulpd %ymm10, %ymm2, %ymm1 vmovapd %ymm11, 24384(%rbx) vmulpd %ymm11, %ymm1, %ymm1 vmulpd %ymm5, %ymm0, %ymm0 vaddpd %ymm0, %ymm1, %ymm8 vsubpd %ymm6, %ymm9, %ymm0 vinsertf128 $1, %xmm3, %ymm7, %ymm3 vmovapd 32512(%rbx), %ymm1 vmulpd %ymm4, %ymm1, %ymm1 vmulpd 16832(%rbx), %ymm3, %ymm6 vmulpd %ymm3, %ymm10, %ymm4 vmovapd 31392(%rbx), %ymm3 vmulpd 32864(%rbx), %ymm3, %ymm3 vmulpd %ymm4, %ymm5, %ymm4 vmovapd 16864(%rbx), %ymm7 vmulpd %ymm7, %ymm6, %ymm5 vaddpd %ymm5, %ymm8, %ymm5 movq 27296(%rbx), %rsi cmovneq %r9, %rsi movq %rsi, 27296(%rbx) testb %al, %al vmulpd %ymm13, %ymm2, %ymm2 vmulpd %ymm7, %ymm2, %ymm2 vsubpd %ymm2, %ymm5, %ymm2 vmulpd 31360(%rbx), %ymm11, %ymm5 vsubpd %ymm5, %ymm2, %ymm2 vsubpd %ymm4, %ymm2, %ymm2 vmulpd .LCPI1_22(%rip), %ymm2, %ymm2 movl 32928(%rbx), %edx je .LBB1_4515 vmovlpd %xmm2, (%r9) .LBB1_4515: vsubpd %ymm3, %ymm0, %ymm0 vmulpd %ymm1, %ymm12, %ymm1 testb $1, %r14b movq 31840(%rbx), %rsi movq 21984(%rbx), %rax je .LBB1_4517 vunpckhpd %xmm2, %xmm2, %xmm3 vmovsd %xmm3, (%rcx) .LBB1_4517: vsubpd %ymm1, %ymm0, %ymm0 vextractf128 $1, %ymm2, %xmm1 testb $1, %r11b movq 31040(%rbx), %rcx je .LBB1_4519 vmovsd %xmm1, (%rax) .LBB1_4519: vmulpd .LCPI1_22(%rip), %ymm0, %ymm0 movl 32992(%rbx), %eax testb $1, %al movq 21728(%rbx), %rax je .LBB1_4521 vunpckhpd %xmm1, %xmm1, %xmm1 vmovsd %xmm1, (%rax) .LBB1_4521: movl 32896(%rbx), %eax testb $1, %al je .LBB1_4523 movq 15648(%rbx), %rax vmovsd %xmm0, (%rax) .LBB1_4523: testb $1, %dl movq 15520(%rbx), %rax je .LBB1_4525 vunpckhpd %xmm0, %xmm0, %xmm1 vmovsd %xmm1, (%rax) .LBB1_4525: vextractf128 $1, %ymm0, %xmm0 testb $1, %r12b movq 15328(%rbx), %rax je .LBB1_4527 vmovsd %xmm0, (%rax) .LBB1_4527: testb $1, %dil movq 15200(%rbx), %rax je .LBB1_4529 vunpckhpd %xmm0, %xmm0, %xmm0 vmovsd %xmm0, (%rax) .LBB1_4529: movq 30752(%rbx), %rax vmovsd (%rax), %xmm2 movq 31744(%rbx), %rax vmovsd (%rax), %xmm1 andb $1, %r14b vmovsd (%rsi), %xmm3 movq 24160(%rbx), %rax vmovsd (%rax), %xmm12 jne .LBB1_4530 vxorpd %xmm0, %xmm0, %xmm0 jmp .LBB1_4532 .align 16, 0x90 .LBB1_4530: movq 30624(%rbx), %rax vmovsd (%rax), %xmm0 .LBB1_4532: vmovapd %xmm0, 16800(%rbx) movq 32576(%rbx), %r9 jne .LBB1_4534 vxorps %xmm1, %xmm1, %xmm1 .LBB1_4534: vmovaps %xmm1, 31360(%rbx) jne .LBB1_4536 vxorps %xmm2, %xmm2, %xmm2 .LBB1_4536: vmovaps %xmm2, 13184(%rbx) movq 31136(%rbx), %rax vmovsd (%rax), %xmm4 movq 24128(%rbx), %rax vmovsd (%rax), %xmm7 movq 30560(%rbx), %rax vmovsd (%rax), %xmm14 movq 30720(%rbx), %rax vmovsd (%rax), %xmm6 vmovsd (%rcx), %xmm2 movq 30592(%rbx), %rax vmovsd (%rax), %xmm1 jne .LBB1_4538 vxorpd %xmm12, %xmm12, %xmm12 .LBB1_4538: jne .LBB1_4540 vxorps %xmm3, %xmm3, %xmm3 .LBB1_4540: andb $1, %r15b movq 31296(%rbx), %rax vmovsd (%rax), %xmm9 vmovsd (%r8), %xmm13 movq 31072(%rbx), %rax vmovsd (%rax), %xmm8 jne .LBB1_4542 vxorps %xmm1, %xmm1, %xmm1 .LBB1_4542: vmovaps %xmm3, 13024(%rbx) vmovaps %xmm1, 16736(%rbx) movq 30656(%rbx), %r8 movq 24288(%rbx), %rcx jne .LBB1_4544 vxorps %xmm2, %xmm2, %xmm2 .LBB1_4544: vmovaps %xmm2, 32736(%rbx) jne .LBB1_4546 vxorps %xmm7, %xmm7, %xmm7 .LBB1_4546: jne .LBB1_4548 vxorps %xmm4, %xmm4, %xmm4 .LBB1_4548: vmovaps %xmm7, 14336(%rbx) jne .LBB1_4550 vxorps %xmm6, %xmm6, %xmm6 .LBB1_4550: vmovaps %xmm4, 13376(%rbx) movl 32992(%rbx), %eax andb $1, %al movl %eax, 32992(%rbx) vmovsd (%r10), %xmm7 movq 31776(%rbx), %rax vmovsd (%rax), %xmm2 movq 24096(%rbx), %rax vmovsd (%rax), %xmm0 movq 31872(%rbx), %rax vmovsd (%rax), %xmm5 jne .LBB1_4552 vxorps %xmm14, %xmm14, %xmm14 .LBB1_4552: vmovaps %xmm6, 16832(%rbx) movq 32224(%rbx), %rax vmovsd (%rax), %xmm10 movq 30976(%rbx), %rax vmovsd (%rax), %xmm6 movq 32384(%rbx), %rax vmovsd (%rax), %xmm3 movq 24224(%rbx), %rax vmovsd (%rax), %xmm4 movq 30912(%rbx), %rax vmovsd (%rax), %xmm1 movq 24192(%rbx), %rsi jne .LBB1_4554 vxorps %xmm5, %xmm5, %xmm5 .LBB1_4554: vmovaps %xmm5, 13248(%rbx) jne .LBB1_4556 vxorps %xmm0, %xmm0, %xmm0 .LBB1_4556: vmovaps %xmm0, 13056(%rbx) vmovaps %xmm14, 16768(%rbx) jne .LBB1_4558 vxorps %xmm2, %xmm2, %xmm2 .LBB1_4558: vmovaps %xmm2, 14368(%rbx) jne .LBB1_4560 vxorps %xmm7, %xmm7, %xmm7 .LBB1_4560: movl 32992(%rbx), %eax testb %al, %al movq 31168(%rbx), %r10 jne .LBB1_4562 vxorps %xmm13, %xmm13, %xmm13 .LBB1_4562: vmovaps %xmm7, 14272(%rbx) testb %r14b, %r14b jne .LBB1_4564 vxorps %xmm9, %xmm9, %xmm9 .LBB1_4564: andb $1, %dil jne .LBB1_4566 vxorps %xmm1, %xmm1, %xmm1 .LBB1_4566: jne .LBB1_4568 vxorps %xmm4, %xmm4, %xmm4 .LBB1_4568: vmovaps %xmm13, 24416(%rbx) vmovaps %xmm1, 16704(%rbx) jne .LBB1_4570 vxorps %xmm3, %xmm3, %xmm3 .LBB1_4570: vmovaps %xmm9, 31328(%rbx) jne .LBB1_4572 vxorps %xmm6, %xmm6, %xmm6 .LBB1_4572: vmovaps %xmm4, 13280(%rbx) jne .LBB1_4574 vxorps %xmm10, %xmm10, %xmm10 .LBB1_4574: vmovaps %xmm3, 13312(%rbx) testb %dil, %dil movq 30944(%rbx), %rax vmovsd (%rax), %xmm1 movq 32544(%rbx), %rax vmovsd (%rax), %xmm0 vmovsd (%rcx), %xmm5 movq 31008(%rbx), %rax vmovsd (%rax), %xmm3 movq 32320(%rbx), %rax vmovsd (%rax), %xmm4 jne .LBB1_4576 vxorps %xmm8, %xmm8, %xmm8 .LBB1_4576: vmovaps %xmm6, 13344(%rbx) andb $1, %dl movq 32032(%rbx), %rax vmovsd (%rax), %xmm2 vmovaps %xmm2, 32992(%rbx) movq 30848(%rbx), %rcx movq 24256(%rbx), %rdi movl %r11d, %r14d jne .LBB1_4578 vxorpd %xmm4, %xmm4, %xmm4 .LBB1_4578: vmovapd %xmm4, 13120(%rbx) jne .LBB1_4580 vxorps %xmm3, %xmm3, %xmm3 .LBB1_4580: vmovaps %xmm3, 13152(%rbx) vmovaps %xmm10, 14304(%rbx) jne .LBB1_4582 vxorps %xmm5, %xmm5, %xmm5 .LBB1_4582: vmovaps %xmm5, 12992(%rbx) jne .LBB1_4584 vxorps %xmm0, %xmm0, %xmm0 .LBB1_4584: jne .LBB1_4586 vxorps %xmm1, %xmm1, %xmm1 .LBB1_4586: vmovaps %xmm0, 13216(%rbx) vmovaps %xmm8, 26048(%rbx) testb %dl, %dl movq 30880(%rbx), %rax vmovsd (%rax), %xmm11 movq 32192(%rbx), %rax vmovsd (%rax), %xmm13 movq 30816(%rbx), %rax vmovsd (%rax), %xmm10 movq 32352(%rbx), %rax vmovsd (%rax), %xmm6 vmovsd (%rsi), %xmm7 movq 31200(%rbx), %rax vmovsd (%rax), %xmm5 movq 30784(%rbx), %rax vmovsd (%rax), %xmm0 vmovaps %xmm0, 32864(%rbx) vmovsd (%rdi), %xmm15 vmovsd (%rcx), %xmm8 movq 32288(%rbx), %rax vmovsd (%rax), %xmm9 vmovsd (%r8), %xmm2 movq 30528(%rbx), %rax vmovsd (%rax), %xmm3 movq 31712(%rbx), %rax vmovsd (%rax), %xmm0 jne .LBB1_4588 vxorpd %xmm4, %xmm4, %xmm4 vmovapd %xmm4, 32992(%rbx) .LBB1_4588: vmovaps %xmm1, 16672(%rbx) andb $1, %r14b vmovsd (%r10), %xmm1 movq 31808(%rbx), %rax vmovsd (%rax), %xmm14 movq 24064(%rbx), %rax jne .LBB1_4589 vxorpd %xmm4, %xmm4, %xmm4 jmp .LBB1_4591 .align 16, 0x90 .LBB1_4589: vmovsd (%rax), %xmm4 .LBB1_4591: movq 32000(%rbx), %rcx jne .LBB1_4593 vxorpd %xmm14, %xmm14, %xmm14 .LBB1_4593: jne .LBB1_4595 vxorps %xmm0, %xmm0, %xmm0 .LBB1_4595: jne .LBB1_4597 vxorps %xmm3, %xmm3, %xmm3 .LBB1_4597: vmovaps %xmm0, 12928(%rbx) jne .LBB1_4599 vxorps %xmm2, %xmm2, %xmm2 .LBB1_4599: vmovaps %xmm3, 14400(%rbx) testb %r14b, %r14b jne .LBB1_4601 vxorps %xmm5, %xmm5, %xmm5 .LBB1_4601: vmovaps %xmm2, 12864(%rbx) andb $1, %r12b movl 32896(%rbx), %esi jne .LBB1_4603 vxorps %xmm7, %xmm7, %xmm7 .LBB1_4603: jne .LBB1_4605 vxorps %xmm6, %xmm6, %xmm6 .LBB1_4605: vmovaps %xmm5, 13088(%rbx) jne .LBB1_4607 vxorpd %xmm10, %xmm10, %xmm10 .LBB1_4607: vmovaps %xmm7, 12896(%rbx) jne .LBB1_4609 vxorpd %xmm13, %xmm13, %xmm13 .LBB1_4609: vmovaps %xmm6, 12960(%rbx) jne .LBB1_4611 vxorps %xmm11, %xmm11, %xmm11 .LBB1_4611: testb %r12b, %r12b movq 32160(%rbx), %rax vmovsd (%rax), %xmm0 vmovaps %xmm0, 32800(%rbx) movq 31264(%rbx), %rax vmovsd (%rax), %xmm0 vmovaps %xmm0, 32832(%rbx) vmovsd (%rcx), %xmm0 vmovaps %xmm0, 32960(%rbx) jne .LBB1_4613 vxorpd %xmm1, %xmm1, %xmm1 .LBB1_4613: vmovapd %xmm10, %xmm0 andb $1, %sil movq 32128(%rbx), %r13 jne .LBB1_4615 vxorpd %xmm9, %xmm9, %xmm9 .LBB1_4615: movq 25664(%rbx), %rdi movq 32416(%rbx), %rdx jne .LBB1_4617 vxorpd %xmm8, %xmm8, %xmm8 .LBB1_4617: vmovaps %xmm11, 14432(%rbx) movq 32096(%rbx), %rcx jne .LBB1_4619 vxorpd %xmm15, %xmm15, %xmm15 .LBB1_4619: vmovapd %xmm1, %xmm10 movq 32672(%rbx), %r14 movq 32704(%rbx), %rax jne .LBB1_4621 vxorpd %xmm1, %xmm1, %xmm1 vmovapd %xmm1, 32800(%rbx) .LBB1_4621: jne .LBB1_4623 vxorpd %xmm1, %xmm1, %xmm1 vmovapd %xmm1, 32864(%rbx) .LBB1_4623: testb %sil, %sil vmovapd 14336(%rbx), %xmm1 vunpcklpd %xmm12, %xmm1, %xmm2 vunpcklpd 13056(%rbx), %xmm4, %xmm3 vmovapd .LCPI1_19(%rip), %ymm4 vmovapd 14496(%rbx), %ymm1 vcmpltpd %ymm4, %ymm1, %ymm1 vinsertf128 $1, %xmm3, %ymm2, %ymm5 vmovapd %ymm5, 32928(%rbx) vmovapd 13376(%rbx), %xmm2 vunpcklpd 13024(%rbx), %xmm2, %xmm11 vmovapd 14464(%rbx), %ymm2 vcmpltpd %ymm4, %ymm2, %ymm7 vunpcklpd 13248(%rbx), %xmm14, %xmm3 vextractf128 $1, %ymm1, %xmm6 vmovapd 14528(%rbx), %ymm2 vcmpltpd %ymm4, %ymm2, %ymm14 vextractf128 $1, %ymm7, %xmm2 vmovapd 31424(%rbx), %ymm12 vmulpd %ymm5, %ymm12, %ymm4 vpshufd $8, %xmm2, %xmm5 vextractf128 $1, %ymm14, %xmm2 vpshufd $8, %xmm6, %xmm6 vinsertf128 $1, %xmm3, %ymm11, %ymm11 vmovapd %ymm11, 32896(%rbx) vpshufd $8, %xmm7, %xmm3 vpshufd $8, %xmm1, %xmm7 vmulpd %ymm11, %ymm12, %ymm11 movq 32256(%rbx), %r11 jne .LBB1_4625 vxorpd %xmm1, %xmm1, %xmm1 vmovapd %xmm1, 32960(%rbx) .LBB1_4625: vmovapd 16832(%rbx), %xmm1 vunpcklpd 13184(%rbx), %xmm1, %xmm1 vmovapd %ymm1, 14336(%rbx) vmovapd 26080(%rbx), %ymm1 vmulpd %ymm4, %ymm1, %ymm1 vunpcklpd 13120(%rbx), %xmm9, %xmm4 vmovapd %ymm4, 16832(%rbx) vunpcklpd 13152(%rbx), %xmm8, %xmm4 vmovapd %ymm4, 13376(%rbx) vmovlhps %xmm5, %xmm3, %xmm4 vunpcklpd 12992(%rbx), %xmm15, %xmm3 vmovapd %ymm3, 13248(%rbx) vmovlhps %xmm6, %xmm7, %xmm5 vpshufd $8, %xmm2, %xmm7 vmovapd 26112(%rbx), %ymm9 vmovapd 32512(%rbx), %ymm2 vmulpd %ymm9, %ymm2, %ymm15 vmovapd 26144(%rbx), %ymm2 vmulpd %ymm11, %ymm2, %ymm12 testb %r15b, %r15b movq %rcx, %r8 jne .LBB1_4627 vxorpd %xmm2, %xmm2, %xmm2 vmovapd %xmm2, 32832(%rbx) .LBB1_4627: vpshufd $8, %xmm14, %xmm2 vmovapd 12864(%rbx), %xmm3 vunpcklpd 14272(%rbx), %xmm3, %xmm3 vmovapd %xmm3, 14272(%rbx) vmovapd 12896(%rbx), %xmm3 vunpcklpd 13280(%rbx), %xmm3, %xmm3 vmovapd %xmm3, 13280(%rbx) vmovapd 12960(%rbx), %xmm3 vunpcklpd 13312(%rbx), %xmm3, %xmm3 vmovapd %xmm3, 13152(%rbx) vunpcklpd 13344(%rbx), %xmm0, %xmm0 vmovapd %xmm0, 13120(%rbx) vmovlhps %xmm7, %xmm2, %xmm0 vaddpd %ymm1, %ymm12, %ymm1 vmovapd %ymm1, 13344(%rbx) vmovapd 12928(%rbx), %xmm1 vunpcklpd 14368(%rbx), %xmm1, %xmm1 vmovapd %xmm1, 13184(%rbx) vmovdqa .LCPI1_21(%rip), %xmm1 vmovdqa %xmm1, %xmm3 vpshufb %xmm3, %xmm5, %xmm5 vmovdqa .LCPI1_20(%rip), %xmm1 vpshufb %xmm1, %xmm4, %xmm4 vmulpd %ymm15, %ymm9, %ymm7 vmovapd 24480(%rbx), %ymm14 vmovapd 31392(%rbx), %ymm2 vmulpd %ymm14, %ymm2, %ymm2 vmovapd %ymm9, %ymm11 vmulpd %ymm2, %ymm14, %ymm9 vmovapd .LCPI1_23(%rip), %ymm8 vaddpd %ymm8, %ymm7, %ymm2 vunpcklpd 14304(%rbx), %xmm13, %xmm6 vmovapd %xmm6, 14304(%rbx) vmovapd 32800(%rbx), %xmm6 vunpcklpd 13216(%rbx), %xmm6, %xmm6 vmovapd %ymm6, 13312(%rbx) vmovapd 13088(%rbx), %xmm6 vunpcklpd 24416(%rbx), %xmm6, %xmm6 vmovapd %xmm6, 13216(%rbx) vmovapd 32832(%rbx), %xmm6 vunpcklpd 31328(%rbx), %xmm6, %xmm15 vunpcklpd 26048(%rbx), %xmm10, %xmm13 vmovapd 32960(%rbx), %xmm6 vunpcklpd 32992(%rbx), %xmm6, %xmm10 vmovapd 16832(%rbx), %ymm6 vinsertf128 $1, 13152(%rbx), %ymm6, %ymm6 vmovapd %ymm6, 16832(%rbx) vmovapd 13248(%rbx), %ymm7 vinsertf128 $1, 13280(%rbx), %ymm7, %ymm7 vmovapd %ymm7, 32800(%rbx) vmovaps 13376(%rbx), %ymm12 vinsertf128 $1, 13120(%rbx), %ymm12, %ymm12 vmovaps %ymm12, 26048(%rbx) vmovaps 14336(%rbx), %ymm12 vinsertf128 $1, 14272(%rbx), %ymm12, %ymm12 vmovaps %ymm12, 24416(%rbx) vpshufb %xmm1, %xmm0, %xmm0 vmovdqa %xmm0, 14336(%rbx) vpor %xmm4, %xmm5, %xmm0 vmovdqa %xmm0, 14368(%rbx) vaddpd %ymm9, %ymm2, %ymm0 vmovapd %ymm0, 31328(%rbx) vmovapd 32736(%rbx), %xmm0 vunpcklpd 31360(%rbx), %xmm0, %xmm0 vinsertf128 $1, 13184(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 32832(%rbx) vmovapd 26144(%rbx), %ymm12 vmulpd %ymm0, %ymm12, %ymm0 vmovapd 26080(%rbx), %ymm9 vmulpd %ymm0, %ymm9, %ymm0 vmovapd 13344(%rbx), %ymm1 vaddpd %ymm0, %ymm1, %ymm0 vmovapd %ymm0, 31360(%rbx) vinsertf128 $1, %xmm13, %ymm10, %ymm13 vmovapd %ymm13, 32992(%rbx) vinsertf128 $1, 13216(%rbx), %ymm15, %ymm4 vmovapd %ymm4, 32960(%rbx) vmovapd 13312(%rbx), %ymm0 vinsertf128 $1, 14304(%rbx), %ymm0, %ymm10 vmovapd %ymm10, 32736(%rbx) vmovapd %ymm8, %ymm5 vmovapd .LCPI1_19(%rip), %ymm15 vmovapd 14560(%rbx), %ymm0 vcmpltpd %ymm15, %ymm0, %ymm0 vextractf128 $1, %ymm0, %xmm1 vpshufd $8, %xmm1, %xmm1 vpshufd $8, %xmm0, %xmm0 vmovlhps %xmm1, %xmm0, %xmm0 vmovapd 31424(%rbx), %ymm2 vmovapd 32448(%rbx), %ymm1 vmulpd %ymm2, %ymm1, %ymm1 vmulpd %ymm1, %ymm2, %ymm2 vmovapd 24384(%rbx), %ymm1 vmulpd %ymm12, %ymm1, %ymm1 vmulpd %ymm1, %ymm12, %ymm1 vmulpd %ymm7, %ymm11, %ymm7 vmovapd 24448(%rbx), %ymm12 vmulpd %ymm7, %ymm12, %ymm7 vmulpd %ymm6, %ymm11, %ymm8 vmulpd %ymm8, %ymm14, %ymm8 vaddpd %ymm7, %ymm8, %ymm7 vaddpd %ymm5, %ymm2, %ymm2 vmulpd %ymm10, %ymm14, %ymm8 vmulpd %ymm8, %ymm12, %ymm8 vaddpd %ymm8, %ymm7, %ymm10 vpshufb %xmm3, %xmm0, %xmm0 vmulpd %ymm9, %ymm4, %ymm7 vmulpd %ymm7, %ymm9, %ymm7 vmulpd %ymm12, %ymm13, %ymm8 vmulpd %ymm8, %ymm12, %ymm8 vpor 14336(%rbx), %xmm0, %xmm0 vaddpd %ymm1, %ymm2, %ymm12 vmovapd .LCPI1_24(%rip), %ymm1 vmulpd %ymm1, %ymm10, %ymm6 vmovapd 31360(%rbx), %ymm2 vmulpd %ymm1, %ymm2, %ymm5 vmovapd .LCPI1_25(%rip), %ymm1 vmovapd 24416(%rbx), %ymm2 vxorpd %ymm1, %ymm2, %ymm13 vmovapd 26048(%rbx), %ymm2 vxorpd %ymm1, %ymm2, %ymm2 vmovdqa 14368(%rbx), %xmm1 vpsllw $15, %xmm1, %xmm1 vpsraw $15, %xmm1, %xmm4 vpunpcklbw %xmm0, %xmm4, %xmm1 vpslld $31, %xmm1, %xmm3 vpmovsxdq %xmm3, %xmm1 vmovhlps %xmm3, %xmm3, %xmm3 vpmovsxdq %xmm3, %xmm3 vinsertf128 $1, %xmm3, %ymm1, %ymm1 vpunpckhbw %xmm0, %xmm4, %xmm3 vpslld $31, %xmm3, %xmm3 vpmovsxdq %xmm3, %xmm4 vmovhlps %xmm3, %xmm3, %xmm3 vpmovsxdq %xmm3, %xmm3 vinsertf128 $1, %xmm3, %ymm4, %ymm4 vmovapd 31328(%rbx), %ymm3 vaddpd %ymm8, %ymm3, %ymm8 vaddpd %ymm7, %ymm12, %ymm10 vpsllw $15, %xmm0, %xmm0 vpsraw $15, %xmm0, %xmm7 vpunpckhbw %xmm0, %xmm7, %xmm0 vpslld $31, %xmm0, %xmm3 vpmovsxdq %xmm3, %xmm0 vmovhlps %xmm3, %xmm3, %xmm3 vpmovsxdq %xmm3, %xmm3 vinsertf128 $1, %xmm3, %ymm0, %ymm9 vaddpd %ymm5, %ymm10, %ymm0 vaddpd %ymm6, %ymm8, %ymm5 vmovapd 14464(%rbx), %ymm3 vblendvpd %ymm4, %ymm15, %ymm3, %ymm3 vmovapd %ymm3, 31360(%rbx) vmovapd 14496(%rbx), %ymm3 vblendvpd %ymm1, %ymm15, %ymm3, %ymm1 vmovapd %ymm1, 31328(%rbx) vpunpcklbw %xmm0, %xmm7, %xmm1 vpslld $31, %xmm1, %xmm3 vpmovsxdq %xmm3, %xmm1 vmovhlps %xmm3, %xmm3, %xmm3 vpmovsxdq %xmm3, %xmm3 vinsertf128 $1, %xmm3, %ymm1, %ymm6 vmovapd 14528(%rbx), %ymm1 vblendvpd %ymm9, %ymm15, %ymm1, %ymm1 vmovapd %ymm1, 26048(%rbx) vsqrtpd %ymm5, %ymm1 vsqrtpd %ymm0, %ymm4 vsqrtpd %ymm2, %ymm5 vsqrtpd %ymm13, %ymm14 vmovapd 14560(%rbx), %ymm0 vblendvpd %ymm6, %ymm15, %ymm0, %ymm0 vmovapd %ymm0, 24416(%rbx) movq %r14, %r10 movq %r13, %rsi movq %rdx, %rcx movq %rdi, %r14 vmovapd 16800(%rbx), %xmm9 vmovapd 16768(%rbx), %xmm8 vmovapd 16736(%rbx), %xmm10 vmovapd 16704(%rbx), %xmm11 vmovapd 16672(%rbx), %xmm6 vmovapd 14432(%rbx), %xmm7 vmovapd 32864(%rbx), %xmm2 vmovapd 14400(%rbx), %xmm12 movq %rax, %rdx .LBB1_4628: vunpcklpd %xmm11, %xmm7, %xmm0 vunpcklpd %xmm6, %xmm2, %xmm2 vinsertf128 $1, %xmm0, %ymm2, %ymm13 vmulpd %ymm1, %ymm13, %ymm0 vmovapd .LCPI1_23(%rip), %ymm6 vdivpd %ymm5, %ymm6, %ymm15 vmulpd %ymm15, %ymm0, %ymm0 vunpcklpd %xmm8, %xmm12, %xmm2 vunpcklpd %xmm9, %xmm10, %xmm3 vinsertf128 $1, %xmm2, %ymm3, %ymm12 vmulpd %ymm4, %ymm12, %ymm3 vmovapd 26112(%rbx), %ymm2 vsubpd %ymm0, %ymm2, %ymm5 vdivpd %ymm14, %ymm6, %ymm2 vxorpd %xmm0, %xmm0, %xmm0 vmulpd %ymm2, %ymm3, %ymm3 vxorpd %ymm7, %ymm7, %ymm7 vcmpltpd %ymm5, %ymm7, %ymm5 vextractf128 $1, %ymm5, %xmm6 vpshufd $8, %xmm6, %xmm6 vpshufd $8, %xmm5, %xmm5 vmovlhps %xmm6, %xmm5, %xmm5 vmovapd 31424(%rbx), %ymm6 vsubpd %ymm3, %ymm6, %ymm6 vpshufb .LCPI1_20(%rip), %xmm5, %xmm3 vcmpltpd %ymm6, %ymm7, %ymm5 vextractf128 $1, %ymm5, %xmm6 vpshufd $8, %xmm6, %xmm6 vpshufd $8, %xmm5, %xmm5 vmovlhps %xmm6, %xmm5, %xmm5 vpshufb .LCPI1_21(%rip), %xmm5, %xmm5 vpor %xmm3, %xmm5, %xmm3 vpsllw $15, %xmm3, %xmm3 vpsraw $15, %xmm3, %xmm5 vmovdqa %xmm5, 32864(%rbx) vmovdqa 14848(%rbx), %xmm3 vpand %xmm5, %xmm3, %xmm7 vpxor .LCPI1_17(%rip), %xmm7, %xmm3 vpmovzxwd %xmm3, %xmm5 vpslld $31, %xmm5, %xmm5 vpsrad $31, %xmm5, %xmm5 vpunpckhwd %xmm0, %xmm3, %xmm3 vpslld $31, %xmm3, %xmm3 vpsrad $31, %xmm3, %xmm3 vinsertf128 $1, %xmm3, %ymm5, %ymm3 vmovdqa 12192(%rbx), %ymm5 vptest %ymm5, %ymm3 jb .LBB1_4651 vmulpd %ymm12, %ymm2, %ymm6 vmovapd %ymm6, 16800(%rbx) vmovapd 32448(%rbx), %ymm0 vmulpd %ymm6, %ymm0, %ymm2 vmovapd 26144(%rbx), %ymm0 vdivpd %ymm4, %ymm0, %ymm11 vmulpd 32896(%rbx), %ymm6, %ymm0 vmulpd %ymm11, %ymm0, %ymm0 vmulpd %ymm2, %ymm6, %ymm3 vmovapd 24480(%rbx), %ymm2 vdivpd %ymm1, %ymm2, %ymm12 vmulpd %ymm13, %ymm15, %ymm15 vmulpd 16832(%rbx), %ymm15, %ymm2 vmulpd %ymm12, %ymm2, %ymm2 vmovapd 32512(%rbx), %ymm5 vmulpd %ymm15, %ymm5, %ymm5 vmulpd %ymm5, %ymm15, %ymm5 vaddpd %ymm2, %ymm5, %ymm2 vaddpd %ymm0, %ymm3, %ymm0 vmovapd 26080(%rbx), %ymm3 vdivpd %ymm4, %ymm3, %ymm14 vmovapd 24448(%rbx), %ymm3 vdivpd %ymm1, %ymm3, %ymm8 vmulpd 32800(%rbx), %ymm15, %ymm3 vmulpd %ymm8, %ymm3, %ymm3 vmulpd 32928(%rbx), %ymm6, %ymm4 vmulpd %ymm14, %ymm4, %ymm4 vaddpd %ymm4, %ymm0, %ymm0 vaddpd %ymm3, %ymm2, %ymm2 vmulpd 16864(%rbx), %ymm11, %ymm3 vmulpd %ymm3, %ymm6, %ymm5 vmulpd 16896(%rbx), %ymm12, %ymm3 vmulpd %ymm3, %ymm15, %ymm3 vaddpd %ymm3, %ymm2, %ymm3 vaddpd %ymm5, %ymm0, %ymm0 vmulpd 31392(%rbx), %ymm12, %ymm2 vmulpd %ymm2, %ymm12, %ymm5 vmulpd 24384(%rbx), %ymm11, %ymm2 vmulpd %ymm2, %ymm11, %ymm2 vaddpd %ymm2, %ymm0, %ymm2 vaddpd %ymm5, %ymm3, %ymm0 vmulpd 32832(%rbx), %ymm11, %ymm3 vmulpd %ymm3, %ymm14, %ymm3 movq 16608(%rbx), %rax vmovsd (%rax), %xmm9 vmulpd 32736(%rbx), %ymm12, %ymm4 vmulpd %ymm4, %ymm8, %ymm4 vaddpd %ymm4, %ymm0, %ymm0 vaddpd %ymm3, %ymm2, %ymm2 vmulpd 14624(%rbx), %ymm8, %ymm3 vmulpd %ymm3, %ymm15, %ymm3 vmulpd 14592(%rbx), %ymm14, %ymm4 vmulpd %ymm4, %ymm6, %ymm5 vpmovzxwd %xmm7, %xmm4 vpslld $31, %xmm4, %xmm4 vaddpd %ymm5, %ymm2, %ymm1 vmovapd %ymm1, 32896(%rbx) vpsrad $31, %xmm4, %xmm2 vaddpd %ymm3, %ymm0, %ymm0 vmovapd %ymm0, 32928(%rbx) vpunpckhwd %xmm0, %xmm7, %xmm0 vpslld $31, %xmm0, %xmm0 vpsrad $31, %xmm0, %xmm0 vinsertf128 $1, %xmm0, %ymm2, %ymm0 vmovdqa 12160(%rbx), %ymm1 vptest %ymm1, %ymm0 jb .LBB1_4630 movq %r8, 32096(%rbx) movq %rcx, %r13 movq 31104(%rbx), %r8 movq %rdx, 32704(%rbx) movq %r9, 32576(%rbx) movq %r10, 32672(%rbx) movq %rsi, %r12 vpextrb $14, %xmm7, %edx vpextrb $10, %xmm7, %eax vpextrb $0, %xmm7, %ecx movl %ecx, 32832(%rbx) vpextrb $2, %xmm7, %ecx movl %ecx, 32800(%rbx) vpextrb $4, %xmm7, %r10d vpextrb $6, %xmm7, %r9d vpextrb $8, %xmm7, %edi vpextrb $12, %xmm7, %ecx movq 22656(%rbx), %rsi vmovsd (%rsi), %xmm3 movq 22784(%rbx), %r15 vmovsd (%r15), %xmm5 testb $1, %dl jne .LBB1_4632 vxorpd %xmm6, %xmm6, %xmm6 jmp .LBB1_4634 .align 16, 0x90 .LBB1_4630: movq 22816(%rbx), %rax vmovsd (%rax), %xmm6 movq 22784(%rbx), %rax vmovsd (%rax), %xmm5 movq 22656(%rbx), %rax vmovsd (%rax), %xmm3 movq 22624(%rbx), %rax vmovsd (%rax), %xmm2 movq 22720(%rbx), %rax vmovsd (%rax), %xmm10 movq 22688(%rbx), %rax vmovsd (%rax), %xmm13 movq 22752(%rbx), %rax vmovsd (%rax), %xmm0 jmp .LBB1_4650 .LBB1_4632: movq 22816(%rbx), %rdx vmovsd (%rdx), %xmm6 .LBB1_4634: testb $1, %cl movq 22624(%rbx), %rdx jne .LBB1_4636 vxorpd %xmm5, %xmm5, %xmm5 .LBB1_4636: testb $1, %al movq 22720(%rbx), %rcx jne .LBB1_4638 vxorpd %xmm3, %xmm3, %xmm3 .LBB1_4638: movq 22752(%rbx), %rax vmovsd (%rax), %xmm0 movq 22688(%rbx), %rax vmovsd (%rax), %xmm13 vmovsd (%rcx), %xmm10 testb $1, %dil jne .LBB1_4639 vpxor %xmm2, %xmm2, %xmm2 jmp .LBB1_4641 .LBB1_4639: vmovsd (%rdx), %xmm2 .LBB1_4641: movq %r8, 31104(%rbx) testb $1, %r9b jne .LBB1_4643 vxorpd %xmm10, %xmm10, %xmm10 .LBB1_4643: testb $1, %r10b movq 32672(%rbx), %rax movq 32096(%rbx), %r8 jne .LBB1_4645 vxorpd %xmm13, %xmm13, %xmm13 .LBB1_4645: movl 32800(%rbx), %ecx testb $1, %cl movq 32704(%rbx), %rdx jne .LBB1_4647 vxorpd %xmm0, %xmm0, %xmm0 .LBB1_4647: movl 32832(%rbx), %ecx testb $1, %cl movq %r13, %rcx jne .LBB1_4649 vxorpd %xmm9, %xmm9, %xmm9 .LBB1_4649: movq 32576(%rbx), %r9 movq %rax, %r10 movq %r12, %rsi .LBB1_4650: vunpcklpd %xmm10, %xmm13, %xmm4 vunpcklpd %xmm0, %xmm9, %xmm0 vinsertf128 $1, %xmm4, %ymm0, %ymm0 vmulpd %ymm0, %ymm14, %ymm9 vunpcklpd %xmm6, %xmm5, %xmm0 vunpcklpd %xmm3, %xmm2, %xmm2 vinsertf128 $1, %xmm0, %ymm2, %ymm0 vmulpd %ymm9, %ymm11, %ymm2 vmulpd 32960(%rbx), %ymm14, %ymm3 vmulpd %ymm3, %ymm14, %ymm3 vmovapd 32896(%rbx), %ymm1 vaddpd %ymm2, %ymm1, %ymm2 vaddpd %ymm3, %ymm2, %ymm2 vmulpd %ymm0, %ymm8, %ymm0 vmulpd %ymm0, %ymm12, %ymm0 vmovapd 32928(%rbx), %ymm1 vaddpd %ymm0, %ymm1, %ymm0 vmulpd 32992(%rbx), %ymm8, %ymm3 vmulpd %ymm3, %ymm8, %ymm3 vaddpd %ymm3, %ymm0, %ymm0 vmovapd .LCPI1_56(%rip), %ymm10 vandpd %ymm10, %ymm2, %ymm3 vmovapd .LCPI1_55(%rip), %ymm9 vcmpltpd %ymm9, %ymm3, %ymm3 vextractf128 $1, %ymm3, %xmm4 vpshufd $8, %xmm4, %xmm4 vpshufd $8, %xmm3, %xmm3 vmovlhps %xmm4, %xmm3, %xmm3 vandpd %ymm10, %ymm0, %ymm4 vcmpltpd %ymm9, %ymm4, %ymm5 vextractf128 $1, %ymm5, %xmm4 vpshufd $8, %xmm4, %xmm4 vpshufd $8, %xmm5, %xmm5 vmovlhps %xmm4, %xmm5, %xmm4 vmovdqa .LCPI1_20(%rip), %xmm1 vpshufb %xmm1, %xmm4, %xmm4 vmovdqa .LCPI1_21(%rip), %xmm6 vpshufb %xmm6, %xmm3, %xmm3 vpor %xmm4, %xmm3, %xmm3 vpsllw $15, %xmm3, %xmm3 vpsraw $15, %xmm3, %xmm3 vpunpckhbw %xmm0, %xmm3, %xmm4 vpslld $31, %xmm4, %xmm4 vpmovsxdq %xmm4, %xmm5 vmovhlps %xmm4, %xmm4, %xmm4 vpmovsxdq %xmm4, %xmm4 vinsertf128 $1, %xmm4, %ymm5, %ymm4 vblendvpd %ymm4, %ymm9, %ymm0, %ymm0 vpunpcklbw %xmm0, %xmm3, %xmm3 vpslld $31, %xmm3, %xmm4 vpmovsxdq %xmm4, %xmm3 vmovhlps %xmm4, %xmm4, %xmm4 vpmovsxdq %xmm4, %xmm4 vinsertf128 $1, %xmm4, %ymm3, %ymm3 vblendvpd %ymm3, %ymm9, %ymm2, %ymm2 vandpd %ymm10, %ymm0, %ymm3 vmovapd .LCPI1_23(%rip), %ymm9 vcmpnlepd %ymm3, %ymm9, %ymm3 vextractf128 $1, %ymm3, %xmm4 vpshufd $8, %xmm4, %xmm4 vpshufd $8, %xmm3, %xmm3 vmovlhps %xmm4, %xmm3, %xmm3 vpshufb %xmm1, %xmm3, %xmm3 vandpd %ymm10, %ymm2, %ymm4 vcmpnlepd %ymm4, %ymm9, %ymm5 vextractf128 $1, %ymm5, %xmm4 vpshufd $8, %xmm4, %xmm4 vpshufd $8, %xmm5, %xmm5 vmovlhps %xmm4, %xmm5, %xmm4 vpshufb %xmm6, %xmm4, %xmm4 vpor %xmm3, %xmm4, %xmm3 vpsllw $15, %xmm3, %xmm3 vpsraw $15, %xmm3, %xmm4 vpunpcklbw %xmm0, %xmm4, %xmm3 vpslld $31, %xmm3, %xmm3 vpunpckhbw %xmm0, %xmm4, %xmm4 vpslld $31, %xmm4, %xmm4 vpmovsxdq %xmm4, %xmm5 vmovhlps %xmm4, %xmm4, %xmm4 vpmovsxdq %xmm4, %xmm4 vinsertf128 $1, %xmm4, %ymm5, %ymm5 vpmovsxdq %xmm3, %xmm6 vmovhlps %xmm3, %xmm3, %xmm3 vpmovsxdq %xmm3, %xmm3 vinsertf128 $1, %xmm3, %ymm6, %ymm3 vmovapd .LCPI1_57(%rip), %ymm1 vblendvpd %ymm3, %ymm2, %ymm1, %ymm2 vsubpd %ymm2, %ymm9, %ymm2 vblendvpd %ymm5, %ymm0, %ymm1, %ymm0 vsubpd %ymm0, %ymm9, %ymm0 vsqrtpd %ymm0, %ymm0 vdivpd %ymm0, %ymm9, %ymm0 vmulpd %ymm8, %ymm0, %ymm5 vsqrtpd %ymm2, %ymm1 vdivpd %ymm1, %ymm9, %ymm1 vmulpd %ymm14, %ymm1, %ymm3 vmulpd %ymm12, %ymm0, %ymm14 vmulpd %ymm11, %ymm1, %ymm11 vmulpd %ymm15, %ymm0, %ymm6 vmulpd 16800(%rbx), %ymm1, %ymm8 vmovdqa %xmm7, %xmm0 .LBB1_4651: movq %rdx, %r13 movq %r8, 32096(%rbx) movq %rcx, 32416(%rbx) movq %r14, 25664(%rbx) movq %r10, 32672(%rbx) movq %rsi, 32128(%rbx) vmovapd 24416(%rbx), %ymm2 vextractf128 $1, %ymm2, %xmm7 vmovapd %xmm7, 16704(%rbx) vmovapd 31328(%rbx), %ymm1 vmovapd %ymm3, %ymm12 vextractf128 $1, %ymm1, %xmm3 vmovapd %xmm3, 16736(%rbx) vmovapd 26048(%rbx), %ymm4 vmovapd %ymm5, %ymm15 vextractf128 $1, %ymm4, %xmm5 vmovapd %xmm5, 16832(%rbx) vunpckhpd %xmm7, %xmm7, %xmm7 vmovapd %xmm7, 16800(%rbx) vunpckhpd %xmm2, %xmm2, %xmm2 vmovapd %xmm2, 16672(%rbx) vmovapd 31360(%rbx), %ymm2 vextractf128 $1, %ymm2, %xmm7 vmovapd %xmm7, 32448(%rbx) vunpckhpd %xmm3, %xmm3, %xmm3 vmovapd %xmm3, 24384(%rbx) vunpckhpd %xmm1, %xmm1, %xmm1 vmovapd %xmm1, 16896(%rbx) vunpckhpd %xmm2, %xmm2, %xmm1 vmovapd %xmm1, 31392(%rbx) vunpckhpd %xmm7, %xmm7, %xmm1 vmovapd %xmm1, 32512(%rbx) vunpckhpd %xmm4, %xmm4, %xmm1 vmovapd %xmm1, 16768(%rbx) vunpckhpd %xmm5, %xmm5, %xmm1 vmovapd %xmm1, 16864(%rbx) vmovdqa 32864(%rbx), %xmm2 vpxor .LCPI1_17(%rip), %xmm2, %xmm2 vmovdqa 14848(%rbx), %xmm3 vpand %xmm2, %xmm3, %xmm7 vpunpcklbw %xmm0, %xmm0, %xmm2 vpunpckhbw %xmm0, %xmm0, %xmm3 vpshufd $50, %xmm3, %xmm4 vpmovzxdq %xmm3, %xmm3 vpsllq $63, %xmm3, %xmm9 vpsllq $63, %xmm4, %xmm10 vpmovzxdq %xmm2, %xmm3 vpsllq $63, %xmm3, %xmm4 vpshufd $50, %xmm2, %xmm2 vpsllq $63, %xmm2, %xmm2 vinsertf128 $1, %xmm2, %ymm4, %ymm13 vinsertf128 $1, %xmm10, %ymm9, %ymm2 vpor %xmm7, %xmm0, %xmm1 vmovapd 24448(%rbx), %ymm3 vblendvpd %ymm2, %ymm15, %ymm3, %ymm7 vmovapd %ymm7, 24448(%rbx) vmovapd 24480(%rbx), %ymm3 vblendvpd %ymm2, %ymm14, %ymm3, %ymm9 vmovapd 26080(%rbx), %ymm3 vblendvpd %ymm13, %ymm12, %ymm3, %ymm0 vmovapd %ymm0, 26080(%rbx) vmovapd 31424(%rbx), %ymm3 vblendvpd %ymm13, %ymm8, %ymm3, %ymm5 vmovapd 26112(%rbx), %ymm3 vblendvpd %ymm2, %ymm6, %ymm3, %ymm8 vmovapd %ymm8, 31424(%rbx) vpmovzxwd %xmm1, %xmm2 vpslld $31, %xmm2, %xmm2 vpsrad $31, %xmm2, %xmm2 vpunpckhwd %xmm0, %xmm1, %xmm3 vpslld $31, %xmm3, %xmm3 vpsrad $31, %xmm3, %xmm3 vmovapd 26144(%rbx), %ymm4 vblendvpd %ymm13, %ymm11, %ymm4, %ymm4 vinsertf128 $1, %xmm3, %ymm2, %ymm2 vmovaps %ymm2, 32832(%rbx) vextractf128 $1, %ymm7, %xmm2 vmovapd %xmm2, 32992(%rbx) vextractf128 $1, %ymm0, %xmm6 vmovapd %xmm6, 32928(%rbx) vextractf128 $1, %ymm9, %xmm12 vmovapd %xmm12, 26144(%rbx) vextractf128 $1, %ymm4, %xmm3 vmovapd %xmm3, 32736(%rbx) vextractf128 $1, %ymm8, %xmm11 vextractf128 $1, %ymm5, %xmm13 vunpckhpd %xmm2, %xmm2, %xmm2 vmovapd %xmm2, 32960(%rbx) vunpckhpd %xmm7, %xmm7, %xmm2 vmovapd %xmm2, 32896(%rbx) vunpckhpd %xmm6, %xmm6, %xmm2 vmovapd %xmm2, 32864(%rbx) vunpckhpd %xmm0, %xmm0, %xmm0 vmovapd %xmm0, 32800(%rbx) vunpckhpd %xmm13, %xmm13, %xmm15 vunpckhpd %xmm8, %xmm8, %xmm10 vunpckhpd %xmm11, %xmm11, %xmm8 vunpckhpd %xmm4, %xmm4, %xmm6 vunpckhpd %xmm3, %xmm3, %xmm7 vunpckhpd %xmm9, %xmm9, %xmm14 vunpckhpd %xmm12, %xmm12, %xmm3 vunpckhpd %xmm5, %xmm5, %xmm0 vmovdqa 12128(%rbx), %ymm2 vmovdqa 32832(%rbx), %ymm12 vptest %ymm2, %ymm12 movq 20000(%rbx), %r8 movq 14816(%rbx), %r14 movq 14784(%rbx), %rdx movq 14752(%rbx), %rax movq 14720(%rbx), %rcx movq 14688(%rbx), %rsi movq 14656(%rbx), %rdi jb .LBB1_4652 vmovapd %xmm0, 14432(%rbx) vmovaps 16672(%rbx), %xmm0 vmovapd %xmm13, 14464(%rbx) vmovaps 16704(%rbx), %xmm2 vmovapd %xmm15, 14496(%rbx) vmovapd %xmm10, 14528(%rbx) vmovapd %xmm8, 14560(%rbx) vmovapd %xmm11, 14592(%rbx) vmovapd %xmm6, 14624(%rbx) vmovapd %xmm7, 14848(%rbx) vmovaps 16736(%rbx), %xmm7 vmovapd %xmm14, 24480(%rbx) vmovapd %xmm3, 26112(%rbx) vmovapd %ymm9, %ymm10 vmovaps 26144(%rbx), %xmm13 vmovapd 26080(%rbx), %ymm8 vmovaps 24416(%rbx), %ymm11 vmovapd 26048(%rbx), %ymm14 vmovapd 31328(%rbx), %ymm15 vmovdqa 31360(%rbx), %ymm12 movq %r11, 32256(%rbx) movq %r9, 32576(%rbx) vpextrb $0, %xmm1, %r11d vpextrb $2, %xmm1, %r15d vpextrb $4, %xmm1, %r12d testb $1, %r11b je .LBB1_4655 vmovsd %xmm11, 33024(%rbx,%rdi,8) .LBB1_4655: movq %r13, 32704(%rbx) vpextrb $6, %xmm1, %r9d testb $1, %r15b vmovaps %xmm0, %xmm9 je .LBB1_4657 vmovsd %xmm9, 33024(%rbx,%rsi,8) .LBB1_4657: vpextrb $8, %xmm1, %r10d testb $1, %r12b vmovsd 19904(%rbx), %xmm11 je .LBB1_4659 vmovsd %xmm2, 33024(%rbx,%rcx,8) .LBB1_4659: vpextrb $10, %xmm1, %r13d testb $1, %r9b vmovaps 16800(%rbx), %xmm2 je .LBB1_4661 vmovsd %xmm2, 33024(%rbx,%rax,8) .LBB1_4661: vpextrb $12, %xmm1, %eax testb $1, %r10b vmovaps 16768(%rbx), %xmm6 je .LBB1_4663 vmovsd %xmm14, 33024(%rbx,%rdx,8) .LBB1_4663: vpextrb $14, %xmm1, %edx testb $1, %r13b vmovaps 16832(%rbx), %xmm2 je .LBB1_4665 vmovsd %xmm6, 33024(%rbx,%r14,8) .LBB1_4665: testb $1, %al je .LBB1_4667 movq 19968(%rbx), %r14 vmovsd %xmm2, 33024(%rbx,%r14,8) .LBB1_4667: vmovdqa %xmm1, 32832(%rbx) testb $1, %dl movq 18944(%rbx), %rcx vmovaps 16864(%rbx), %xmm1 je .LBB1_4669 vmovsd %xmm1, 33024(%rbx,%r8,8) .LBB1_4669: testb $1, %r11b vmovaps 16896(%rbx), %xmm1 je .LBB1_4671 vmovsd %xmm15, (%rcx) .LBB1_4671: testb $1, %r15b vmovaps %xmm7, %xmm2 je .LBB1_4673 movq 18912(%rbx), %rcx vmovsd %xmm1, (%rcx) .LBB1_4673: testb $1, %r12b vmovaps 24384(%rbx), %xmm1 je .LBB1_4675 movq 18880(%rbx), %rcx vmovsd %xmm2, (%rcx) .LBB1_4675: testb $1, %r9b je .LBB1_4677 movq 18848(%rbx), %rcx vmovsd %xmm1, (%rcx) .LBB1_4677: testb $1, %r10b vmovaps 31392(%rbx), %xmm1 je .LBB1_4679 movq 18688(%rbx), %rcx vmovsd %xmm12, (%rcx) .LBB1_4679: testb $1, %r13b vmovaps 32448(%rbx), %xmm2 je .LBB1_4681 movq 18656(%rbx), %rcx vmovsd %xmm1, (%rcx) .LBB1_4681: testb $1, %al vmovaps 32512(%rbx), %xmm1 je .LBB1_4683 movq 18624(%rbx), %rcx vmovsd %xmm2, (%rcx) .LBB1_4683: testb $1, %dl movq 18816(%rbx), %rcx je .LBB1_4685 movq 18592(%rbx), %rsi vmovsd %xmm1, (%rsi) .LBB1_4685: testb $1, %r11b vmovaps 14432(%rbx), %xmm2 je .LBB1_4687 vmovsd %xmm5, (%rcx) .LBB1_4687: testb $1, %r15b vmovaps 14464(%rbx), %xmm1 je .LBB1_4689 movq 18784(%rbx), %rcx vmovsd %xmm2, (%rcx) .LBB1_4689: testb $1, %r12b vmovsd 19712(%rbx), %xmm7 vmovaps 14496(%rbx), %xmm2 je .LBB1_4691 movq 18752(%rbx), %rcx vmovsd %xmm1, (%rcx) .LBB1_4691: testb $1, %r9b vmovsd 19872(%rbx), %xmm3 vmovaps 31424(%rbx), %ymm1 je .LBB1_4693 movq 18720(%rbx), %rcx vmovsd %xmm2, (%rcx) .LBB1_4693: testb $1, %r10b vmovsd 19680(%rbx), %xmm5 vmovaps 14528(%rbx), %xmm2 je .LBB1_4695 movq 18432(%rbx), %rcx vmovsd %xmm1, (%rcx) .LBB1_4695: testb $1, %r13b vmovaps 14592(%rbx), %xmm1 je .LBB1_4697 movq 18400(%rbx), %rcx vmovsd %xmm2, (%rcx) .LBB1_4697: testb $1, %al je .LBB1_4699 movq 18368(%rbx), %rcx vmovsd %xmm1, (%rcx) .LBB1_4699: testb $1, %dl movq 18560(%rbx), %rcx vmovapd %ymm4, %ymm2 vmovaps 14560(%rbx), %xmm1 je .LBB1_4701 movq 18336(%rbx), %rsi vmovsd %xmm1, (%rsi) .LBB1_4701: testb $1, %r11b vmovaps 14624(%rbx), %xmm1 je .LBB1_4703 vmovsd %xmm2, (%rcx) .LBB1_4703: testb $1, %r15b vmovaps 32736(%rbx), %xmm2 je .LBB1_4705 movq 18528(%rbx), %rcx vmovsd %xmm1, (%rcx) .LBB1_4705: testb $1, %r12b vmovsd 19456(%rbx), %xmm6 vmovaps 14848(%rbx), %xmm1 je .LBB1_4707 movq 18496(%rbx), %rcx vmovsd %xmm2, (%rcx) .LBB1_4707: testb $1, %r9b vmovapd %ymm10, %ymm0 je .LBB1_4709 movq 18464(%rbx), %rcx vmovsd %xmm1, (%rcx) .LBB1_4709: testb $1, %r10b je .LBB1_4711 movq 18176(%rbx), %rcx vmovsd %xmm0, (%rcx) .LBB1_4711: testb $1, %r13b vmovaps 24480(%rbx), %xmm0 je .LBB1_4713 movq 18112(%rbx), %rcx vmovsd %xmm0, (%rcx) .LBB1_4713: testb $1, %al vmovsd 19072(%rbx), %xmm9 vmovaps 26112(%rbx), %xmm0 je .LBB1_4715 movq 18080(%rbx), %rcx vmovsd %xmm13, (%rcx) .LBB1_4715: testb $1, %dl movq 18304(%rbx), %rcx vmovapd %ymm8, %ymm13 je .LBB1_4717 movq 18144(%rbx), %rsi vmovsd %xmm0, (%rsi) .LBB1_4717: testb $1, %r11b vmovaps 32800(%rbx), %xmm0 je .LBB1_4719 vmovsd %xmm13, (%rcx) .LBB1_4719: testb $1, %r15b vmovaps 32928(%rbx), %xmm1 je .LBB1_4721 movq 18272(%rbx), %rcx vmovsd %xmm0, (%rcx) .LBB1_4721: testb $1, %r12b je .LBB1_4723 movq 18240(%rbx), %rcx vmovsd %xmm1, (%rcx) .LBB1_4723: testb $1, %r9b vmovaps 32864(%rbx), %xmm1 je .LBB1_4725 movq 18208(%rbx), %rcx vmovsd %xmm1, (%rcx) .LBB1_4725: testb $1, %r10b je .LBB1_4727 movq 17984(%rbx), %rcx vmovaps 24448(%rbx), %ymm0 vmovsd %xmm0, (%rcx) .LBB1_4727: testb $1, %r13b vmovaps 32992(%rbx), %xmm1 vmovaps 32896(%rbx), %xmm4 je .LBB1_4729 movq 17920(%rbx), %rcx vmovsd %xmm4, (%rcx) .LBB1_4729: testb $1, %al je .LBB1_4731 movq 17856(%rbx), %rcx vmovsd %xmm1, (%rcx) .LBB1_4731: testb $1, %dl movq 18048(%rbx), %rcx vmovaps 32960(%rbx), %xmm1 je .LBB1_4733 movq 17824(%rbx), %rsi vmovsd %xmm1, (%rsi) .LBB1_4733: testb $1, %r11b vmovsd 19936(%rbx), %xmm1 je .LBB1_4735 vmovsd %xmm11, (%rcx) .LBB1_4735: testb $1, %r15b je .LBB1_4737 movq 18016(%rbx), %rcx vmovsd %xmm1, (%rcx) .LBB1_4737: testb $1, %r12b je .LBB1_4739 vmovsd 19840(%rbx), %xmm1 movq 17952(%rbx), %rcx vmovsd %xmm1, (%rcx) .LBB1_4739: testb $1, %r9b vmovsd 19808(%rbx), %xmm1 je .LBB1_4741 movq 17888(%rbx), %rcx vmovsd %xmm3, (%rcx) .LBB1_4741: testb $1, %r10b je .LBB1_4743 movq 17696(%rbx), %rcx vmovsd %xmm7, (%rcx) .LBB1_4743: testb $1, %r13b vmovsd 19616(%rbx), %xmm2 je .LBB1_4745 movq 17632(%rbx), %rcx vmovsd %xmm1, (%rcx) .LBB1_4745: testb $1, %al vmovsd 19200(%rbx), %xmm4 je .LBB1_4747 movq 17600(%rbx), %rcx vmovsd %xmm2, (%rcx) .LBB1_4747: testb $1, %dl movq 17792(%rbx), %rcx je .LBB1_4749 vmovsd 19744(%rbx), %xmm1 movq 17568(%rbx), %rsi vmovsd %xmm1, (%rsi) .LBB1_4749: testb $1, %r11b vmovsd 19424(%rbx), %xmm2 je .LBB1_4751 vmovsd %xmm5, (%rcx) .LBB1_4751: testb $1, %r15b je .LBB1_4753 vmovsd 19776(%rbx), %xmm1 movq 17760(%rbx), %rcx vmovsd %xmm1, (%rcx) .LBB1_4753: testb $1, %r12b je .LBB1_4755 vmovsd 19584(%rbx), %xmm1 movq 17728(%rbx), %rcx vmovsd %xmm1, (%rcx) .LBB1_4755: testb $1, %r9b je .LBB1_4757 movq 17664(%rbx), %rcx vmovsd 19648(%rbx), %xmm0 vmovsd %xmm0, (%rcx) .LBB1_4757: testb $1, %r10b je .LBB1_4759 movq 17440(%rbx), %rcx vmovsd %xmm6, (%rcx) .LBB1_4759: testb $1, %r13b vmovsd 19232(%rbx), %xmm3 vmovsd 19168(%rbx), %xmm5 je .LBB1_4761 vmovsd 19552(%rbx), %xmm1 movq 17376(%rbx), %rcx vmovsd %xmm1, (%rcx) .LBB1_4761: testb $1, %al je .LBB1_4763 vmovsd 19392(%rbx), %xmm1 movq 17344(%rbx), %rcx vmovsd %xmm1, (%rcx) .LBB1_4763: testb $1, %dl movq 17536(%rbx), %rcx je .LBB1_4765 vmovsd 19488(%rbx), %xmm1 movq 17312(%rbx), %rsi vmovsd %xmm1, (%rsi) .LBB1_4765: testb $1, %r11b je .LBB1_4767 vmovsd 24512(%rbx), %xmm1 vmovsd %xmm1, (%rcx) .LBB1_4767: testb $1, %r15b je .LBB1_4769 vmovsd 19520(%rbx), %xmm1 movq 17504(%rbx), %rcx vmovsd %xmm1, (%rcx) .LBB1_4769: testb $1, %r12b je .LBB1_4771 vmovsd 19360(%rbx), %xmm1 movq 17472(%rbx), %rcx vmovsd %xmm1, (%rcx) .LBB1_4771: testb $1, %r9b je .LBB1_4773 movq 17408(%rbx), %rcx vmovsd %xmm2, (%rcx) .LBB1_4773: testb $1, %r10b je .LBB1_4775 movq 17184(%rbx), %rcx vmovsd %xmm3, (%rcx) .LBB1_4775: testb $1, %r13b je .LBB1_4777 vmovsd 19328(%rbx), %xmm1 movq 17120(%rbx), %rcx vmovsd %xmm1, (%rcx) .LBB1_4777: testb $1, %al vmovsd 18976(%rbx), %xmm3 je .LBB1_4779 vmovsd 19136(%rbx), %xmm1 movq 17088(%rbx), %rcx vmovsd %xmm1, (%rcx) .LBB1_4779: testb $1, %dl movq 17280(%rbx), %rcx je .LBB1_4781 vmovsd 19264(%rbx), %xmm1 movq 17056(%rbx), %rsi vmovsd %xmm1, (%rsi) .LBB1_4781: testb $1, %r11b je .LBB1_4783 vmovsd %xmm4, (%rcx) .LBB1_4783: testb $1, %r15b je .LBB1_4785 vmovsd 19296(%rbx), %xmm1 movq 17248(%rbx), %rcx vmovsd %xmm1, (%rcx) .LBB1_4785: testb $1, %r12b je .LBB1_4787 vmovsd 19104(%rbx), %xmm1 movq 17216(%rbx), %rcx vmovsd %xmm1, (%rcx) .LBB1_4787: testb $1, %r9b je .LBB1_4789 movq 17152(%rbx), %rcx vmovsd %xmm5, (%rcx) .LBB1_4789: testb $1, %r10b vmovsd 19040(%rbx), %xmm1 je .LBB1_4791 vmovsd 19008(%rbx), %xmm2 movq 17024(%rbx), %rcx vmovsd %xmm2, (%rcx) .LBB1_4791: testb $1, %r13b movq 32640(%rbx), %rsi je .LBB1_4793 movq 16992(%rbx), %rcx vmovsd %xmm9, (%rcx) .LBB1_4793: testb $1, %al je .LBB1_4795 movq 16960(%rbx), %rax vmovsd %xmm3, (%rax) .LBB1_4795: testb $1, %dl movq 16928(%rbx), %rax je .LBB1_4797 vmovsd %xmm1, (%rax) jmp .LBB1_4797 .align 16, 0x90 .LBB1_4652: vmovdqa %xmm1, 32832(%rbx) movq %r11, 32256(%rbx) movq %r9, 32576(%rbx) movq %r13, 32704(%rbx) vmovaps 24416(%rbx), %ymm1 vmovsd %xmm1, 33024(%rbx,%rdi,8) vmovaps 16672(%rbx), %xmm1 vmovsd %xmm1, 33024(%rbx,%rsi,8) vmovaps 16704(%rbx), %xmm1 vmovsd %xmm1, 33024(%rbx,%rcx,8) vmovaps 16800(%rbx), %xmm1 vmovsd %xmm1, 33024(%rbx,%rax,8) vmovaps 26048(%rbx), %ymm1 vmovsd %xmm1, 33024(%rbx,%rdx,8) vmovaps 16768(%rbx), %xmm1 vmovsd %xmm1, 33024(%rbx,%r14,8) movq 19968(%rbx), %rax vmovaps 16832(%rbx), %xmm1 vmovsd %xmm1, 33024(%rbx,%rax,8) vmovaps 16864(%rbx), %xmm1 vmovsd %xmm1, 33024(%rbx,%r8,8) movq 18944(%rbx), %rax vmovaps 31328(%rbx), %ymm1 vmovsd %xmm1, (%rax) movq 18912(%rbx), %rax vmovaps 16896(%rbx), %xmm1 vmovsd %xmm1, (%rax) movq 18880(%rbx), %rax vmovaps 16736(%rbx), %xmm1 vmovsd %xmm1, (%rax) movq 18848(%rbx), %rax vmovaps 24384(%rbx), %xmm1 vmovsd %xmm1, (%rax) movq 18688(%rbx), %rax vmovaps 31360(%rbx), %ymm1 vmovsd %xmm1, (%rax) movq 18656(%rbx), %rax vmovaps 31392(%rbx), %xmm1 vmovsd %xmm1, (%rax) movq 18624(%rbx), %rax vmovaps 32448(%rbx), %xmm1 vmovsd %xmm1, (%rax) movq 18592(%rbx), %rax vmovaps 32512(%rbx), %xmm1 vmovsd %xmm1, (%rax) movq 18816(%rbx), %rax vmovsd %xmm5, (%rax) movq 18784(%rbx), %rax vmovsd %xmm0, (%rax) movq 18752(%rbx), %rax vmovsd %xmm13, (%rax) movq 18720(%rbx), %rax vmovsd %xmm15, (%rax) movq 18432(%rbx), %rax vmovaps 31424(%rbx), %ymm0 vmovsd %xmm0, (%rax) movq 18400(%rbx), %rax vmovsd %xmm10, (%rax) movq 18368(%rbx), %rax vmovsd %xmm11, (%rax) movq 18336(%rbx), %rax vmovsd %xmm8, (%rax) movq 18560(%rbx), %rax vmovsd %xmm4, (%rax) movq 18528(%rbx), %rax vmovsd %xmm6, (%rax) movq 18496(%rbx), %rax vmovaps 32736(%rbx), %xmm0 vmovsd %xmm0, (%rax) movq 18464(%rbx), %rax vmovsd %xmm7, (%rax) movq 18176(%rbx), %rax vmovsd %xmm9, (%rax) movq 18112(%rbx), %rax vmovsd %xmm14, (%rax) movq 18080(%rbx), %rax vmovaps 26144(%rbx), %xmm0 vmovsd %xmm0, (%rax) movq 18144(%rbx), %rax vmovsd %xmm3, (%rax) movq 18304(%rbx), %rax vmovaps 26080(%rbx), %ymm0 vmovsd %xmm0, (%rax) movq 18272(%rbx), %rax vmovaps 32800(%rbx), %xmm0 vmovsd %xmm0, (%rax) movq 18240(%rbx), %rax vmovaps 32928(%rbx), %xmm0 vmovsd %xmm0, (%rax) movq 18208(%rbx), %rax vmovaps 32864(%rbx), %xmm0 vmovsd %xmm0, (%rax) movq 17984(%rbx), %rax vmovaps 24448(%rbx), %ymm0 vmovsd %xmm0, (%rax) movq 17920(%rbx), %rax vmovaps 32896(%rbx), %xmm0 vmovsd %xmm0, (%rax) movq 17856(%rbx), %rax vmovaps 32992(%rbx), %xmm0 vmovsd %xmm0, (%rax) movq 17824(%rbx), %rax vmovaps 32960(%rbx), %xmm0 vmovsd %xmm0, (%rax) vmovsd 19904(%rbx), %xmm1 movq 18048(%rbx), %rax vmovsd %xmm1, (%rax) vmovsd 19936(%rbx), %xmm1 movq 18016(%rbx), %rax vmovsd %xmm1, (%rax) vmovsd 19840(%rbx), %xmm1 movq 17952(%rbx), %rax vmovsd %xmm1, (%rax) vmovsd 19872(%rbx), %xmm1 movq 17888(%rbx), %rax vmovsd %xmm1, (%rax) vmovsd 19712(%rbx), %xmm1 movq 17696(%rbx), %rax vmovsd %xmm1, (%rax) vmovsd 19808(%rbx), %xmm1 movq 17632(%rbx), %rax vmovsd %xmm1, (%rax) vmovsd 19616(%rbx), %xmm1 movq 17600(%rbx), %rax vmovsd %xmm1, (%rax) vmovsd 19744(%rbx), %xmm1 movq 17568(%rbx), %rax vmovsd %xmm1, (%rax) vmovsd 19680(%rbx), %xmm1 movq 17792(%rbx), %rax vmovsd %xmm1, (%rax) vmovsd 19776(%rbx), %xmm1 movq 17760(%rbx), %rax vmovsd %xmm1, (%rax) vmovsd 19584(%rbx), %xmm1 movq 17728(%rbx), %rax vmovsd %xmm1, (%rax) vmovsd 19648(%rbx), %xmm1 movq 17664(%rbx), %rax vmovsd %xmm1, (%rax) vmovsd 19456(%rbx), %xmm1 movq 17440(%rbx), %rax vmovsd %xmm1, (%rax) vmovsd 19552(%rbx), %xmm1 movq 17376(%rbx), %rax vmovsd %xmm1, (%rax) vmovsd 19392(%rbx), %xmm1 movq 17344(%rbx), %rax vmovsd %xmm1, (%rax) vmovsd 19488(%rbx), %xmm1 movq 17312(%rbx), %rax vmovsd %xmm1, (%rax) vmovsd 24512(%rbx), %xmm1 movq 17536(%rbx), %rax vmovsd %xmm1, (%rax) vmovsd 19520(%rbx), %xmm1 movq 17504(%rbx), %rax vmovsd %xmm1, (%rax) vmovsd 19360(%rbx), %xmm1 movq 17472(%rbx), %rax vmovsd %xmm1, (%rax) vmovsd 19424(%rbx), %xmm1 movq 17408(%rbx), %rax vmovsd %xmm1, (%rax) vmovsd 19232(%rbx), %xmm1 movq 17184(%rbx), %rax vmovsd %xmm1, (%rax) vmovsd 19328(%rbx), %xmm1 movq 17120(%rbx), %rax vmovsd %xmm1, (%rax) vmovsd 19136(%rbx), %xmm1 movq 17088(%rbx), %rax vmovsd %xmm1, (%rax) vmovsd 19264(%rbx), %xmm1 movq 17056(%rbx), %rax vmovsd %xmm1, (%rax) vmovsd 19200(%rbx), %xmm1 movq 17280(%rbx), %rax vmovsd %xmm1, (%rax) vmovsd 19296(%rbx), %xmm1 movq 17248(%rbx), %rax vmovsd %xmm1, (%rax) vmovsd 19104(%rbx), %xmm1 movq 17216(%rbx), %rax vmovsd %xmm1, (%rax) vmovsd 19168(%rbx), %xmm1 movq 17152(%rbx), %rax vmovsd %xmm1, (%rax) vmovsd 19008(%rbx), %xmm1 movq 17024(%rbx), %rax vmovsd %xmm1, (%rax) vmovsd 19072(%rbx), %xmm1 movq 16992(%rbx), %rax vmovsd %xmm1, (%rax) vmovsd 18976(%rbx), %xmm1 movq 16960(%rbx), %rax vmovsd %xmm1, (%rax) vmovsd 19040(%rbx), %xmm1 movq 16928(%rbx), %rax vmovsd %xmm1, (%rax) movq 32640(%rbx), %rsi .LBB1_4797: movl 13440(%rbx), %ecx testl %ecx, %ecx setne %al movzbl %al, %eax vmovd %eax, %xmm1 vpunpcklwd %xmm1, %xmm1, %xmm1 vpshufd $0, %xmm1, %xmm1 decl %ecx movq 14880(%rbx), %rax incq %rax vmovdqa 32832(%rbx), %xmm0 vpand %xmm1, %xmm0, %xmm0 movl 13408(%rbx), %edx decl %edx jne .LBB1_3620 movq 32792(%rbx), %r11 movq %rsi, 32640(%rbx) vmovaps 12032(%rbx), %xmm10 vmovapd 11712(%rbx), %ymm5 vmovapd 11680(%rbx), %ymm2 movq 26208(%rbx), %r14 movq 26176(%rbx), %r13 movq 31456(%rbx), %r12 jmp .LBB1_3461 .align 16, 0x90 .LBB1_3460: vmovaps 1088(%r12,%r11), %ymm0 vmovapd 1120(%r12,%r11), %ymm1 vextractf128 $1, %ymm0, %xmm2 vextractf128 $1, %ymm1, %xmm3 vmovd %xmm3, %r9 vpextrq $1, %xmm2, %r8 vpextrq $1, %xmm1, %r14 vpextrq $1, %xmm3, %r10 sarq $32, %r10 sarq $32, %r14 vmovd %xmm1, %rax vmovd %xmm2, %rdi sarq $32, %rdi sarq $32, %r8 sarq $32, %r9 sarq $32, %rax vpextrq $1, %xmm0, %rdx vmovd %xmm0, %rcx sarq $32, %rcx sarq $32, %rdx leaq 10944(%r11,%r12), %rsi movq %rsi, 32640(%rbx) vmovd %r14, %xmm0 leaq 11072(%r11,%r12), %rsi movq %rsi, 32064(%rbx) vmovd %rax, %xmm1 leaq 11200(%r11,%r12), %rax movq %rax, 31520(%rbx) vmovd %r10, %xmm2 vmovd %r9, %xmm3 leaq 11328(%r11,%r12), %rax movq %rax, 32480(%rbx) vmovd %r8, %xmm4 vmovd %rdi, %xmm5 leaq 11456(%r11,%r12), %rax movq %rax, 31488(%rbx) vmovd %rdx, %xmm6 vmovd %rcx, %xmm7 leaq 11584(%r11,%r12), %rax movq %rax, 26560(%rbx) leaq 11712(%r11,%r12), %rax movq %rax, 26432(%rbx) leaq 11840(%r11,%r12), %rax movq %rax, 26304(%rbx) leaq 10976(%r11,%r12), %rax movq %rax, 22400(%rbx) leaq 11104(%r11,%r12), %rax movq %rax, 22112(%rbx) leaq 11232(%r11,%r12), %rax movq %rax, 21792(%rbx) leaq 11360(%r11,%r12), %rax movq %rax, 21568(%rbx) leaq 11488(%r11,%r12), %rax movq %rax, 21184(%rbx) leaq 11616(%r11,%r12), %rax movq %rax, 20864(%rbx) leaq 11744(%r11,%r12), %rax movq %rax, 20544(%rbx) leaq 11872(%r11,%r12), %rax movq %rax, 20192(%rbx) leaq 11008(%r11,%r12), %rax movq %rax, 26912(%rbx) leaq 11136(%r11,%r12), %rax movq %rax, 26848(%rbx) leaq 11264(%r11,%r12), %rax movq %rax, 26784(%rbx) leaq 11392(%r11,%r12), %rax movq %rax, 26688(%rbx) leaq 11520(%r11,%r12), %rax movq %rax, 24736(%rbx) leaq 11648(%r11,%r12), %rax movq %rax, 26528(%rbx) leaq 11776(%r11,%r12), %rax movq %rax, 26400(%rbx) leaq 11904(%r11,%r12), %rax movq %rax, 24576(%rbx) leaq 11040(%r11,%r12), %rax movq %rax, 22368(%rbx) leaq 11168(%r11,%r12), %rax movq %rax, 22080(%rbx) leaq 11296(%r11,%r12), %rax movq %rax, 21776(%rbx) leaq 11424(%r11,%r12), %rax movq %rax, 21536(%rbx) leaq 11552(%r11,%r12), %rax movq %rax, 21120(%rbx) leaq 11680(%r11,%r12), %rax movq %rax, 20800(%rbx) leaq 11808(%r11,%r12), %rax movq %rax, 20480(%rbx) leaq 11936(%r11,%r12), %rax movq %rax, 20128(%rbx) leaq 10960(%r11,%r12), %rax movq %rax, 26880(%rbx) leaq 11088(%r11,%r12), %rax movq %rax, 26816(%rbx) leaq 11216(%r11,%r12), %rax movq %rax, 26720(%rbx) leaq 11344(%r11,%r12), %rax movq %rax, 26624(%rbx) leaq 11472(%r11,%r12), %rax movq %rax, 26592(%rbx) leaq 11600(%r11,%r12), %rax movq %rax, 26464(%rbx) leaq 11728(%r11,%r12), %rax movq %rax, 26336(%rbx) leaq 11856(%r11,%r12), %rax movq %rax, 24544(%rbx) leaq 10968(%r11,%r12), %rax movq %rax, 22336(%rbx) leaq 11096(%r11,%r12), %rax movq %rax, 22048(%rbx) leaq 11224(%r11,%r12), %rax movq %rax, 21760(%rbx) leaq 11352(%r11,%r12), %rax movq %rax, 21472(%rbx) leaq 11480(%r11,%r12), %rax movq %rax, 21088(%rbx) leaq 11608(%r11,%r12), %rax movq %rax, 20768(%rbx) leaq 11736(%r11,%r12), %rax movq %rax, 20416(%rbx) leaq 11864(%r11,%r12), %rax movq %rax, 20064(%rbx) leaq 9936(%r11,%r12), %rax movq %rax, 16192(%rbx) leaq 10064(%r11,%r12), %rax movq %rax, 22016(%rbx) leaq 10192(%r11,%r12), %rax movq %rax, 21744(%rbx) leaq 10320(%r11,%r12), %rax movq %rax, 15680(%rbx) leaq 10448(%r11,%r12), %rax movq %rax, 15552(%rbx) leaq 10576(%r11,%r12), %rax movq %rax, 15360(%rbx) leaq 10704(%r11,%r12), %rax movq %rax, 20384(%rbx) leaq 10832(%r11,%r12), %rax movq %rax, 20032(%rbx) leaq 9944(%r11,%r12), %rax movq %rax, 24896(%rbx) leaq 10072(%r11,%r12), %rax movq %rax, 24864(%rbx) leaq 10200(%r11,%r12), %rax movq %rax, 26752(%rbx) leaq 10328(%r11,%r12), %rax movq %rax, 26656(%rbx) leaq 10456(%r11,%r12), %rax movq %rax, 24704(%rbx) leaq 10584(%r11,%r12), %rax movq %rax, 26496(%rbx) leaq 10712(%r11,%r12), %rax movq %rax, 26368(%rbx) leaq 10840(%r11,%r12), %rax movq %rax, 26272(%rbx) leaq 9952(%r11,%r12), %rax movq %rax, 16224(%rbx) leaq 10080(%r11,%r12), %rax movq %rax, 16000(%rbx) leaq 10208(%r11,%r12), %rax movq %rax, 15808(%rbx) leaq 10336(%r11,%r12), %rax movq %rax, 21504(%rbx) leaq 10464(%r11,%r12), %rax movq %rax, 15584(%rbx) leaq 10592(%r11,%r12), %rax movq %rax, 15392(%rbx) leaq 10720(%r11,%r12), %rax movq %rax, 20448(%rbx) leaq 10848(%r11,%r12), %rax movq %rax, 20096(%rbx) leaq 9960(%r11,%r12), %rax movq %rax, 16256(%rbx) leaq 10088(%r11,%r12), %rax movq %rax, 16032(%rbx) leaq 10216(%r11,%r12), %rax movq %rax, 15840(%rbx) leaq 10344(%r11,%r12), %rax movq %rax, 24800(%rbx) leaq 10472(%r11,%r12), %rax movq %rax, 21152(%rbx) leaq 10600(%r11,%r12), %rax movq %rax, 20832(%rbx) leaq 10728(%r11,%r12), %rax movq %rax, 20512(%rbx) leaq 10856(%r11,%r12), %rax movq %rax, 20160(%rbx) leaq 9968(%r11,%r12), %rax movq %rax, 16288(%rbx) leaq 10096(%r11,%r12), %rax movq %rax, 22144(%rbx) leaq 10224(%r11,%r12), %rax movq %rax, 21824(%rbx) leaq 10352(%r11,%r12), %rax movq %rax, 21600(%rbx) leaq 10480(%r11,%r12), %rax movq %rax, 21216(%rbx) leaq 10608(%r11,%r12), %rax movq %rax, 20896(%rbx) leaq 10736(%r11,%r12), %rax movq %rax, 20576(%rbx) leaq 10864(%r11,%r12), %rax movq %rax, 20224(%rbx) leaq 9976(%r11,%r12), %rax movq %rax, 16320(%rbx) leaq 10104(%r11,%r12), %rax movq %rax, 22176(%rbx) leaq 10232(%r11,%r12), %rax movq %rax, 15872(%rbx) leaq 10360(%r11,%r12), %rax movq %rax, 15712(%rbx) leaq 10488(%r11,%r12), %rax movq %rax, 21248(%rbx) leaq 10616(%r11,%r12), %rax movq %rax, 15424(%rbx) leaq 10744(%r11,%r12), %rax movq %rax, 15232(%rbx) leaq 10872(%r11,%r12), %rax movq %rax, 20256(%rbx) leaq 9984(%r11,%r12), %rax movq %rax, 16352(%rbx) leaq 10112(%r11,%r12), %rax movq %rax, 16064(%rbx) leaq 10240(%r11,%r12), %rax movq %rax, 15904(%rbx) leaq 10368(%r11,%r12), %rax movq %rax, 21632(%rbx) leaq 10496(%r11,%r12), %rax movq %rax, 21280(%rbx) leaq 10624(%r11,%r12), %rax movq %rax, 20928(%rbx) leaq 10752(%r11,%r12), %rax movq %rax, 20608(%rbx) leaq 10880(%r11,%r12), %rax movq %rax, 20288(%rbx) leaq 9992(%r11,%r12), %rax movq %rax, 16384(%rbx) leaq 10120(%r11,%r12), %rax movq %rax, 16096(%rbx) leaq 10248(%r11,%r12), %rax movq %rax, 21856(%rbx) leaq 10376(%r11,%r12), %rax movq %rax, 15744(%rbx) leaq 10504(%r11,%r12), %rax movq %rax, 21312(%rbx) leaq 10632(%r11,%r12), %rax movq %rax, 15456(%rbx) leaq 10760(%r11,%r12), %rax movq %rax, 15264(%rbx) leaq 10888(%r11,%r12), %rax movq %rax, 20320(%rbx) leaq 10000(%r11,%r12), %rax movq %rax, 16416(%rbx) leaq 10128(%r11,%r12), %rax movq %rax, 22208(%rbx) leaq 10256(%r11,%r12), %rax movq %rax, 21888(%rbx) leaq 10384(%r11,%r12), %rax movq %rax, 21664(%rbx) leaq 10512(%r11,%r12), %rax movq %rax, 21344(%rbx) leaq 10640(%r11,%r12), %rax movq %rax, 20960(%rbx) leaq 10768(%r11,%r12), %rax movq %rax, 20640(%rbx) leaq 10896(%r11,%r12), %rax movq %rax, 20352(%rbx) leaq 10008(%r11,%r12), %rax movq %rax, 16448(%rbx) leaq 10136(%r11,%r12), %rax movq %rax, 22240(%rbx) leaq 10264(%r11,%r12), %rax movq %rax, 21920(%rbx) leaq 10392(%r11,%r12), %rax movq %rax, 15776(%rbx) leaq 10520(%r11,%r12), %rax movq %rax, 21376(%rbx) leaq 10648(%r11,%r12), %rax movq %rax, 15488(%rbx) leaq 10776(%r11,%r12), %rax movq %rax, 20672(%rbx) leaq 10904(%r11,%r12), %rax movq %rax, 13728(%rbx) leaq 10016(%r11,%r12), %rax movq %rax, 16480(%rbx) leaq 10144(%r11,%r12), %rax movq %rax, 22272(%rbx) leaq 10272(%r11,%r12), %rax movq %rax, 21952(%rbx) leaq 10400(%r11,%r12), %rax movq %rax, 21680(%rbx) leaq 10528(%r11,%r12), %rax movq %rax, 21408(%rbx) leaq 10656(%r11,%r12), %rax movq %rax, 20992(%rbx) leaq 10784(%r11,%r12), %rax movq %rax, 20704(%rbx) leaq 10912(%r11,%r12), %rax movq %rax, 15168(%rbx) leaq 10024(%r11,%r12), %rax movq %rax, 16512(%rbx) leaq 10152(%r11,%r12), %rax movq %rax, 16128(%rbx) leaq 10280(%r11,%r12), %rax movq %rax, 15936(%rbx) leaq 10408(%r11,%r12), %rax movq %rax, 21696(%rbx) leaq 10536(%r11,%r12), %rax movq %rax, 21440(%rbx) leaq 10664(%r11,%r12), %rax movq %rax, 21024(%rbx) leaq 10792(%r11,%r12), %rax movq %rax, 20736(%rbx) leaq 10920(%r11,%r12), %rax movq %rax, 13760(%rbx) leaq 10032(%r11,%r12), %rax movq %rax, 16544(%rbx) leaq 10160(%r11,%r12), %rax movq %rax, 22304(%rbx) leaq 10288(%r11,%r12), %rax movq %rax, 15968(%rbx) leaq 10416(%r11,%r12), %rax movq %rax, 21712(%rbx) leaq 10544(%r11,%r12), %rax movq %rax, 15616(%rbx) leaq 10672(%r11,%r12), %rax movq %rax, 21056(%rbx) leaq 10800(%r11,%r12), %rax movq %rax, 15296(%rbx) leaq 10928(%r11,%r12), %rax movq %rax, 13792(%rbx) leaq 10040(%r11,%r12), %rax movq %rax, 16576(%rbx) leaq 10168(%r11,%r12), %rax movq %rax, 16160(%rbx) leaq 10296(%r11,%r12), %rax movq %rax, 21984(%rbx) leaq 10424(%r11,%r12), %rax movq %rax, 21728(%rbx) leaq 10552(%r11,%r12), %rax movq %rax, 15648(%rbx) leaq 10680(%r11,%r12), %rax movq %rax, 15520(%rbx) leaq 10808(%r11,%r12), %rax movq %rax, 15328(%rbx) leaq 10936(%r11,%r12), %rax movq %rax, 15200(%rbx) leaq 11848(%r11,%r12), %r13 leaq 11720(%r11,%r12), %r14 leaq 11592(%r11,%r12), %rax movq %rax, 26240(%rbx) leaq 11464(%r11,%r12), %rax movq %rax, 24608(%rbx) leaq 11336(%r11,%r12), %rax movq %rax, 24640(%rbx) leaq 11208(%r11,%r12), %rax movq %rax, 24672(%rbx) leaq 11080(%r11,%r12), %rax movq %rax, 24768(%rbx) leaq 10952(%r11,%r12), %rax movq %rax, 24832(%rbx) leaq 10984(%r12,%r11), %rax movq %rax, 25792(%rbx) leaq 11112(%r12,%r11), %rax movq %rax, 25856(%rbx) leaq 11240(%r12,%r11), %rax movq %rax, 25824(%rbx) leaq 11368(%r12,%r11), %rax movq %rax, 25888(%rbx) leaq 11496(%r12,%r11), %rax movq %rax, 25920(%rbx) leaq 11624(%r12,%r11), %rax movq %rax, 25984(%rbx) leaq 11752(%r12,%r11), %rax movq %rax, 25952(%rbx) leaq 11880(%r12,%r11), %rax movq %rax, 26016(%rbx) leaq 11024(%r12,%r11), %rax movq %rax, 31552(%rbx) leaq 11152(%r12,%r11), %rax movq %rax, 31584(%rbx) leaq 11280(%r12,%r11), %rax movq %rax, 31616(%rbx) leaq 11408(%r12,%r11), %rax movq %rax, 31648(%rbx) leaq 11536(%r12,%r11), %rax movq %rax, 31904(%rbx) leaq 11664(%r12,%r11), %rax movq %rax, 31936(%rbx) leaq 11792(%r12,%r11), %rax movq %rax, 31680(%rbx) leaq 11920(%r12,%r11), %rax movq %rax, 31968(%rbx) leaq 11064(%r12,%r11), %rax movq %rax, 31264(%rbx) leaq 11192(%r12,%r11), %rax movq %rax, 31296(%rbx) leaq 11320(%r12,%r11), %rax movq %rax, 31200(%rbx) leaq 11448(%r12,%r11), %rax movq %rax, 31232(%rbx) leaq 11576(%r12,%r11), %rax movq %rax, 32000(%rbx) leaq 11704(%r12,%r11), %rax movq %rax, 32032(%rbx) leaq 11832(%r12,%r11), %rax movq %rax, 31168(%rbx) leaq 11960(%r12,%r11), %rax movq %rax, 31072(%rbx) leaq 11048(%r12,%r11), %rax movq %rax, 24352(%rbx) leaq 11176(%r12,%r11), %rax movq %rax, 14112(%rbx) leaq 11304(%r12,%r11), %rax movq %rax, 14048(%rbx) leaq 11432(%r12,%r11), %rax movq %rax, 14080(%rbx) leaq 11560(%r12,%r11), %rax movq %rax, 14208(%rbx) leaq 11688(%r12,%r11), %rax movq %rax, 14240(%rbx) leaq 11816(%r12,%r11), %rax movq %rax, 14144(%rbx) leaq 11944(%r12,%r11), %rax movq %rax, 14176(%rbx) leaq 11000(%r12,%r11), %rax movq %rax, 24128(%rbx) leaq 11128(%r12,%r11), %rax movq %rax, 24160(%rbx) leaq 11256(%r12,%r11), %rax movq %rax, 24064(%rbx) leaq 11384(%r12,%r11), %rax movq %rax, 24096(%rbx) leaq 11512(%r12,%r11), %rax movq %rax, 24256(%rbx) leaq 11640(%r12,%r11), %rax movq %rax, 24288(%rbx) leaq 11768(%r12,%r11), %rax movq %rax, 24192(%rbx) leaq 11896(%r12,%r11), %rax movq %rax, 24224(%rbx) leaq 11016(%r12,%r11), %rax movq %rax, 16640(%rbx) leaq 11144(%r12,%r11), %rax movq %rax, 13920(%rbx) leaq 11272(%r12,%r11), %rax movq %rax, 13856(%rbx) leaq 11400(%r12,%r11), %rax movq %rax, 13888(%rbx) leaq 11528(%r12,%r11), %rax movq %rax, 13984(%rbx) leaq 11656(%r12,%r11), %rax movq %rax, 14016(%rbx) leaq 11784(%r12,%r11), %rax movq %rax, 24320(%rbx) leaq 11912(%r12,%r11), %rax movq %rax, 13952(%rbx) leaq 11056(%r12,%r11), %rax movq %rax, 16608(%rbx) leaq 11184(%r12,%r11), %rax movq %rax, 22752(%rbx) leaq 11312(%r12,%r11), %rax movq %rax, 22688(%rbx) leaq 11440(%r12,%r11), %rax movq %rax, 22720(%rbx) leaq 11568(%r12,%r11), %rax movq %rax, 22624(%rbx) leaq 11696(%r12,%r11), %rax movq %rax, 22656(%rbx) leaq 11824(%r12,%r11), %rax movq %rax, 22784(%rbx) leaq 11952(%r12,%r11), %rax movq %rax, 22816(%rbx) leaq 9920(%r12,%r11), %rax movq %rax, 30720(%rbx) leaq 10048(%r12,%r11), %rax movq %rax, 30752(%rbx) leaq 10176(%r12,%r11), %rax movq %rax, 30656(%rbx) leaq 10304(%r12,%r11), %rax movq %rax, 30688(%rbx) leaq 10432(%r12,%r11), %rax movq %rax, 30848(%rbx) leaq 10560(%r12,%r11), %rax movq %rax, 31008(%rbx) leaq 10688(%r12,%r11), %rax movq %rax, 30816(%rbx) leaq 10816(%r12,%r11), %rax movq %rax, 30976(%rbx) leaq 9928(%r12,%r11), %rax movq %rax, 30592(%rbx) leaq 10056(%r12,%r11), %rax movq %rax, 30624(%rbx) leaq 10184(%r12,%r11), %rax movq %rax, 30528(%rbx) leaq 10312(%r12,%r11), %rax movq %rax, 30560(%rbx) leaq 10440(%r12,%r11), %rax movq %rax, 30784(%rbx) leaq 10568(%r12,%r11), %rax movq %rax, 30944(%rbx) leaq 10696(%r12,%r11), %rax movq %rax, 30880(%rbx) leaq 10824(%r12,%r11), %rax movq %rax, 30912(%rbx) leaq 11928(%r12,%r11), %rax movq %rax, 32224(%rbx) leaq 11800(%r12,%r11), %rax movq %rax, 32192(%rbx) leaq 11672(%r12,%r11), %rax movq %rax, 32544(%rbx) leaq 11544(%r12,%r11), %rax movq %rax, 32160(%rbx) leaq 11416(%r12,%r11), %rax movq %rax, 31776(%rbx) leaq 11288(%r12,%r11), %rax movq %rax, 31712(%rbx) leaq 11160(%r12,%r11), %rax movq %rax, 31744(%rbx) leaq 11032(%r12,%r11), %rax movq %rax, 31040(%rbx) leaq 11888(%r12,%r11), %rax movq %rax, 32384(%rbx) leaq 11760(%r12,%r11), %rax movq %rax, 32352(%rbx) leaq 11632(%r12,%r11), %rax movq %rax, 32320(%rbx) leaq 11504(%r12,%r11), %rax movq %rax, 32288(%rbx) leaq 11376(%r12,%r11), %rax movq %rax, 31872(%rbx) leaq 11248(%r12,%r11), %rax movq %rax, 31808(%rbx) leaq 11120(%r12,%r11), %rax movq %rax, 31840(%rbx) leaq 10992(%r12,%r11), %rax movq %rax, 31136(%rbx) vpunpcklqdq %xmm6, %xmm7, %xmm6 vpunpcklqdq %xmm4, %xmm5, %xmm4 vpunpcklqdq %xmm2, %xmm3, %xmm2 vpunpcklqdq %xmm0, %xmm1, %xmm0 vinsertf128 $1, %xmm2, %ymm0, %ymm2 vinsertf128 $1, %xmm4, %ymm6, %ymm5 movq %rax, 27296(%rbx) movq %rax, 27264(%rbx) movq %rax, 27040(%rbx) movq %rax, 27008(%rbx) movq %rax, 27360(%rbx) movq %rax, 27328(%rbx) movq %rax, 27168(%rbx) movq %rax, 27136(%rbx) movq %rax, 27424(%rbx) movq %rax, 27392(%rbx) movq %rax, 27232(%rbx) movq %rax, 27200(%rbx) movq %rax, 27744(%rbx) movq %rax, 27712(%rbx) movq %rax, 27552(%rbx) movq %rax, 27520(%rbx) movq %rax, 27680(%rbx) movq %rax, 27648(%rbx) movq %rax, 27488(%rbx) movq %rax, 27456(%rbx) movq %rax, 28608(%rbx) movq %rax, 28576(%rbx) movq %rax, 28352(%rbx) movq %rax, 28320(%rbx) movq %rax, 28064(%rbx) movq %rax, 28032(%rbx) movq %rax, 27936(%rbx) movq %rax, 27904(%rbx) movq %rax, 28800(%rbx) movq %rax, 28768(%rbx) movq %rax, 28544(%rbx) movq %rax, 28512(%rbx) movq %rax, 27104(%rbx) movq %rax, 27072(%rbx) movq %rax, 26976(%rbx) movq %rax, 26944(%rbx) movq %rax, 28000(%rbx) movq %rax, 27968(%rbx) movq %rax, 27872(%rbx) movq %rax, 27840(%rbx) movq %rax, 27808(%rbx) movq %rax, 27776(%rbx) movq %rax, 27616(%rbx) movq %rax, 27584(%rbx) movq %rax, 28928(%rbx) movq %rax, 28896(%rbx) movq %rax, 28736(%rbx) movq %rax, 28704(%rbx) movq %rax, 28480(%rbx) movq %rax, 28448(%rbx) movq %rax, 28224(%rbx) movq %rax, 28192(%rbx) movq %rax, 29632(%rbx) movq %rax, 29600(%rbx) movq %rax, 29504(%rbx) movq %rax, 29472(%rbx) movq %rax, 28672(%rbx) movq %rax, 28640(%rbx) movq %rax, 28416(%rbx) movq %rax, 28384(%rbx) movq %rax, 28992(%rbx) movq %rax, 28960(%rbx) movq %rax, 28864(%rbx) movq %rax, 28832(%rbx) movq %rax, 28288(%rbx) movq %rax, 28256(%rbx) movq %rax, 28128(%rbx) movq %rax, 28096(%rbx) movq %rax, 29568(%rbx) movq %rax, 29536(%rbx) movq %rax, 29376(%rbx) movq %rax, 29344(%rbx) movq %rax, 29440(%rbx) movq %rax, 29408(%rbx) movq %rax, 29248(%rbx) movq %rax, 29216(%rbx) movq %rax, 30016(%rbx) movq %rax, 29984(%rbx) movq %rax, 29888(%rbx) movq %rax, 29856(%rbx) movq %rax, 29184(%rbx) movq %rax, 29152(%rbx) movq %rax, 29056(%rbx) movq %rax, 29024(%rbx) movq %rax, 29824(%rbx) movq %rax, 29792(%rbx) movq %rax, 29696(%rbx) movq %rax, 29664(%rbx) movq %rax, 29312(%rbx) movq %rax, 29280(%rbx) movq %rax, 29120(%rbx) movq %rax, 29088(%rbx) movq %rax, 29952(%rbx) movq %rax, 29920(%rbx) movq %rax, 29760(%rbx) movq %rax, 29728(%rbx) movq %rax, 28160(%rbx) movq %rax, 30112(%rbx) movq %rax, 30080(%rbx) movq %rax, 30048(%rbx) movq %rax, 30240(%rbx) movq %rax, 30208(%rbx) movq %rax, 30176(%rbx) movq %rax, 30144(%rbx) movq %rax, 30368(%rbx) movq %rax, 30336(%rbx) movq %rax, 30304(%rbx) movq %rax, 30272(%rbx) movq %rax, 30496(%rbx) movq %rax, 30464(%rbx) movq %rax, 30432(%rbx) movq %rax, 30400(%rbx) movq %rax, 23072(%rbx) movq %rax, 23040(%rbx) movq %rax, 22944(%rbx) movq %rax, 22912(%rbx) movq %rax, 23424(%rbx) movq %rax, 32256(%rbx) movq %rax, 23616(%rbx) movq %rax, 23584(%rbx) movq %rax, 31104(%rbx) movq %rax, 23904(%rbx) movq %rax, 23872(%rbx) movq %rax, 23840(%rbx) movq %rax, 24032(%rbx) movq %rax, 24000(%rbx) movq %rax, 23968(%rbx) movq %rax, 23936(%rbx) movq %rax, 32096(%rbx) movq %rax, 22592(%rbx) movq %rax, 22496(%rbx) movq %rax, 22464(%rbx) movq %rax, 25664(%rbx) movq %rax, 32416(%rbx) movq %rax, 22560(%rbx) movq %rax, 22528(%rbx) movq %rax, 22880(%rbx) movq %rax, 23744(%rbx) movq %rax, 23680(%rbx) movq %rax, 23648(%rbx) movq %rax, 23808(%rbx) movq %rax, 23776(%rbx) movq %rax, 23712(%rbx) movq %rax, 22848(%rbx) movq %rax, 23136(%rbx) movq %rax, 23104(%rbx) movq %rax, 23008(%rbx) movq %rax, 22976(%rbx) movq %rax, 23552(%rbx) movq %rax, 23520(%rbx) movq %rax, 23392(%rbx) movq %rax, 23360(%rbx) movq %rax, 25536(%rbx) movq %rax, 25504(%rbx) movq %rax, 25472(%rbx) movq %rax, 25456(%rbx) movq %rax, 25440(%rbx) movq %rax, 25408(%rbx) movq %rax, 32128(%rbx) movq %rax, 32672(%rbx) movq %rax, 25056(%rbx) movq %rax, 25040(%rbx) movq %rax, 24992(%rbx) movq %rax, 25392(%rbx) movq %rax, 25344(%rbx) movq %rax, 25312(%rbx) movq %rax, 25280(%rbx) movq %rax, 25248(%rbx) movq %rax, 24976(%rbx) movq %rax, 24928(%rbx) movq %rax, 25216(%rbx) movq %rax, 25184(%rbx) movq %rax, 25152(%rbx) movq %rax, 25136(%rbx) movq %rax, 25120(%rbx) movq %rax, 25088(%rbx) movq %rax, 23264(%rbx) movq %rax, 23232(%rbx) movq %rax, 23200(%rbx) movq %rax, 23168(%rbx) movq %rax, 23328(%rbx) movq %rax, 23296(%rbx) movq %rax, 23488(%rbx) movq %rax, 23456(%rbx) movq %rax, 25632(%rbx) movq %rax, 25600(%rbx) movq %rax, 25568(%rbx) movq %rax, 32576(%rbx) movq %rax, 25760(%rbx) movq %rax, 32704(%rbx) movq %rax, 25728(%rbx) movq %rax, 25696(%rbx) .LBB1_3461: vpunpckhbw %xmm0, %xmm10, %xmm0 vpslld $31, %xmm0, %xmm1 vpmovsxdq %xmm1, %xmm0 vmovhlps %xmm1, %xmm1, %xmm1 vpmovsxdq %xmm1, %xmm1 vinsertf128 $1, %xmm1, %ymm0, %ymm0 vblendvpd %ymm0, %ymm2, %ymm2, %ymm11 vpunpcklbw %xmm0, %xmm10, %xmm0 vpslld $31, %xmm0, %xmm0 vextractf128 $1, %ymm11, %xmm13 vmovdqa .LCPI1_58(%rip), %xmm4 vpaddq %xmm4, %xmm13, %xmm1 vpshufd $8, %xmm1, %xmm1 vpaddq %xmm4, %xmm11, %xmm2 vpshufd $8, %xmm2, %xmm3 vpmovsxdq %xmm0, %xmm2 vmovlhps %xmm1, %xmm3, %xmm1 vmovhlps %xmm0, %xmm0, %xmm0 vpmovsxdq %xmm0, %xmm0 vinsertf128 $1, %xmm0, %ymm2, %ymm0 vblendvpd %ymm0, %ymm5, %ymm5, %ymm14 vextractf128 $1, %ymm14, %xmm12 vpaddq %xmm4, %xmm12, %xmm2 vmovdqa .LCPI1_38(%rip), %xmm0 vmovdqa %xmm0, %xmm3 vpmulld %xmm3, %xmm1, %xmm0 vmovdqa %xmm3, %xmm6 vpshufd $8, %xmm2, %xmm1 vpaddq %xmm4, %xmm14, %xmm2 vpshufd $8, %xmm2, %xmm2 vmovaps 64(%r11,%r12), %ymm3 vmovaps %ymm3, 26208(%rbx) vmovaps 416(%r11,%r12), %ymm4 vmovaps %ymm4, 32992(%rbx) vmovlhps %xmm1, %xmm2, %xmm2 vextractf128 $1, %ymm4, %xmm3 vmovaps %xmm3, 32960(%rbx) vpaddd %xmm0, %xmm3, %xmm1 vmovdqa %xmm3, %xmm5 vpmovsxdq %xmm1, %xmm0 vpextrq $1, %xmm0, %r8 vmovd %xmm0, %r10 vpshufd $8, %xmm12, %xmm0 vpshufd $8, %xmm14, %xmm3 vmovlhps %xmm0, %xmm3, %xmm0 vpmulld %xmm6, %xmm2, %xmm2 vpaddd %xmm2, %xmm4, %xmm2 vpmovsxdq %xmm2, %xmm3 vpextrq $1, %xmm3, %r9 vmovd %xmm3, %rsi vmovhlps %xmm2, %xmm2, %xmm2 vpmovsxdq %xmm2, %xmm2 vmovd %xmm2, %rax vpextrq $1, %xmm2, %rdi vmovhlps %xmm1, %xmm1, %xmm1 vpmovsxdq %xmm1, %xmm1 vmovd %xmm1, %rdx vpextrq $1, %xmm1, %rcx vpshufd $8, %xmm13, %xmm1 vpshufd $8, %xmm11, %xmm2 vmovlhps %xmm1, %xmm2, %xmm1 vmovsd 33024(%rbx,%rdx,8), %xmm2 vmovhpd 33024(%rbx,%rcx,8), %xmm2, %xmm2 vmovsd 33024(%rbx,%r10,8), %xmm3 vmovhpd 33024(%rbx,%r8,8), %xmm3, %xmm3 vinsertf128 $1, %xmm2, %ymm3, %ymm8 vmovsd 33024(%rbx,%rax,8), %xmm2 vmovhpd 33024(%rbx,%rdi,8), %xmm2, %xmm2 vmovsd 33024(%rbx,%rsi,8), %xmm3 vmovhpd 33024(%rbx,%r9,8), %xmm3, %xmm3 vinsertf128 $1, %xmm2, %ymm3, %ymm10 vpmulld %xmm6, %xmm0, %xmm0 vpaddd %xmm0, %xmm4, %xmm0 vpmovsxdq %xmm0, %xmm2 vpextrq $1, %xmm2, %r8 vmovd %xmm2, %r9 vmovhlps %xmm0, %xmm0, %xmm0 vpmovsxdq %xmm0, %xmm0 vpextrq $1, %xmm0, %r10 vmovd %xmm0, %rsi vpmulld %xmm6, %xmm1, %xmm0 vpaddd %xmm0, %xmm5, %xmm0 vpmovsxdq %xmm0, %xmm1 vpextrq $1, %xmm1, %rdi vmovd %xmm1, %rax vmovhlps %xmm0, %xmm0, %xmm0 vpmovsxdq %xmm0, %xmm0 vmovd %xmm0, %rdx vpextrq $1, %xmm0, %rcx vmovapd .LCPI1_19(%rip), %ymm9 vcmpltpd %ymm9, %ymm10, %ymm0 vextractf128 $1, %ymm0, %xmm1 vpshufd $8, %xmm1, %xmm1 vpshufd $8, %xmm0, %xmm0 vmovlhps %xmm1, %xmm0, %xmm1 vcmpltpd %ymm9, %ymm8, %ymm0 vextractf128 $1, %ymm0, %xmm2 vpshufd $8, %xmm2, %xmm2 vpshufd $8, %xmm0, %xmm0 vmovlhps %xmm2, %xmm0, %xmm2 vmovsd 33024(%rbx,%rdx,8), %xmm0 vmovhpd 33024(%rbx,%rcx,8), %xmm0, %xmm0 vmovsd 33024(%rbx,%rax,8), %xmm3 vmovhpd 33024(%rbx,%rdi,8), %xmm3, %xmm3 vinsertf128 $1, %xmm0, %ymm3, %ymm0 vmovsd 33024(%rbx,%rsi,8), %xmm3 vmovhpd 33024(%rbx,%r10,8), %xmm3, %xmm3 vmovsd 33024(%rbx,%r9,8), %xmm4 vmovhpd 33024(%rbx,%r8,8), %xmm4, %xmm4 vinsertf128 $1, %xmm3, %ymm4, %ymm3 vmovdqa .LCPI1_20(%rip), %xmm4 vpshufb %xmm4, %xmm2, %xmm2 vmovdqa %xmm4, %xmm7 vmovdqa .LCPI1_21(%rip), %xmm4 vpshufb %xmm4, %xmm1, %xmm1 vmovdqa %xmm4, %xmm6 vpor %xmm2, %xmm1, %xmm1 vcmpltpd %ymm9, %ymm3, %ymm2 vextractf128 $1, %ymm2, %xmm4 vpshufd $8, %xmm4, %xmm4 vpshufd $8, %xmm2, %xmm2 vmovlhps %xmm4, %xmm2, %xmm2 vcmpltpd %ymm9, %ymm0, %ymm4 vextractf128 $1, %ymm4, %xmm5 vpshufd $8, %xmm5, %xmm5 vpshufd $8, %xmm4, %xmm4 vmovlhps %xmm5, %xmm4, %xmm4 vpshufb %xmm7, %xmm4, %xmm4 vpshufb %xmm6, %xmm2, %xmm2 vpor %xmm4, %xmm2, %xmm4 vpsllw $15, %xmm1, %xmm1 vpsraw $15, %xmm1, %xmm2 vpunpckhbw %xmm0, %xmm2, %xmm1 vpslld $31, %xmm1, %xmm5 vpmovsxdq %xmm5, %xmm1 vmovhlps %xmm5, %xmm5, %xmm5 vpmovsxdq %xmm5, %xmm5 vinsertf128 $1, %xmm5, %ymm1, %ymm1 vpsllw $15, %xmm4, %xmm4 vpsraw $15, %xmm4, %xmm5 vpunpckhbw %xmm0, %xmm5, %xmm4 vpslld $31, %xmm4, %xmm6 vpmovsxdq %xmm6, %xmm4 vmovhlps %xmm6, %xmm6, %xmm6 vpmovsxdq %xmm6, %xmm6 vinsertf128 $1, %xmm6, %ymm4, %ymm4 vpunpcklbw %xmm0, %xmm2, %xmm2 vpslld $31, %xmm2, %xmm6 vpmovsxdq %xmm6, %xmm2 vmovhlps %xmm6, %xmm6, %xmm6 vpmovsxdq %xmm6, %xmm6 vinsertf128 $1, %xmm6, %ymm2, %ymm2 vpunpcklbw %xmm0, %xmm5, %xmm5 vpslld $31, %xmm5, %xmm6 vpmovsxdq %xmm6, %xmm5 vmovhlps %xmm6, %xmm6, %xmm6 vpmovsxdq %xmm6, %xmm6 vinsertf128 $1, %xmm6, %ymm5, %ymm5 vblendvpd %ymm5, %ymm9, %ymm3, %ymm3 vmovapd %ymm3, 18592(%rbx) vblendvpd %ymm2, %ymm9, %ymm10, %ymm2 vmovapd %ymm2, 26144(%rbx) vblendvpd %ymm4, %ymm9, %ymm0, %ymm0 vmovapd %ymm0, 18560(%rbx) vblendvpd %ymm1, %ymm9, %ymm8, %ymm0 vmovapd %ymm0, 26176(%rbx) movl 11744(%rbx), %eax andb $1, %al movq 25088(%rbx), %rcx cmovneq %r13, %rcx movq %rcx, 25088(%rbx) movq 26016(%rbx), %rcx cmovneq %rcx, %rcx movq %rcx, 26016(%rbx) movq 31968(%rbx), %rcx cmovneq %rcx, %rcx movq %rcx, 31968(%rbx) movq 31072(%rbx), %rcx cmovneq %rcx, %rcx movq %rcx, 31072(%rbx) movq 30976(%rbx), %rcx cmovneq %rcx, %rcx movq %rcx, 30976(%rbx) movq 30912(%rbx), %rcx cmovneq %rcx, %rcx movq %rcx, 30912(%rbx) movq 30400(%rbx), %rcx cmovneq 20032(%rbx), %rcx movq %rcx, 30400(%rbx) movq 24224(%rbx), %rcx cmovneq %rcx, %rcx movq %rcx, 24224(%rbx) movq 23456(%rbx), %rcx cmovneq %r13, %rcx movq %rcx, 23456(%rbx) movq 32224(%rbx), %rcx movq 32672(%rbx), %rdx cmovneq %rcx, %rdx movq %rdx, 32672(%rbx) cmovneq %rcx, %rcx movq %rcx, 32224(%rbx) movq 23936(%rbx), %rcx cmovneq 24544(%rbx), %rcx movq %rcx, 23936(%rbx) movq 13952(%rbx), %rcx cmovneq %rcx, %rcx movq %rcx, 13952(%rbx) movq 32384(%rbx), %rcx movq 25248(%rbx), %rdx cmovneq %rcx, %rdx movq %rdx, 25248(%rbx) cmovneq %rcx, %rcx movq %rcx, 32384(%rbx) movq 23584(%rbx), %rcx cmovneq 20064(%rbx), %rcx movq %rcx, 23584(%rbx) movq 30144(%rbx), %rcx cmovneq 26272(%rbx), %rcx movq %rcx, 30144(%rbx) movq 29728(%rbx), %rcx cmovneq 20096(%rbx), %rcx movq %rcx, 29728(%rbx) movq 22528(%rbx), %rcx cmovneq 20128(%rbx), %rcx movq %rcx, 22528(%rbx) movq 22816(%rbx), %rcx cmovneq %rcx, %rcx movq %rcx, 22816(%rbx) movq 22848(%rbx), %rcx cmovneq 24576(%rbx), %rcx movq %rcx, 22848(%rbx) movq 29664(%rbx), %rcx cmovneq 20160(%rbx), %rcx movq %rcx, 29664(%rbx) movq 23360(%rbx), %rcx cmovneq 20192(%rbx), %rcx movq %rcx, 23360(%rbx) movq 29856(%rbx), %rcx cmovneq 20224(%rbx), %rcx movq %rcx, 29856(%rbx) movq 29344(%rbx), %rcx cmovneq 20256(%rbx), %rcx movq %rcx, 29344(%rbx) movq 28832(%rbx), %rcx cmovneq 20288(%rbx), %rcx movq %rcx, 28832(%rbx) movq 29472(%rbx), %rcx cmovneq 20320(%rbx), %rcx movq %rcx, 29472(%rbx) movq 14176(%rbx), %rcx cmovneq %rcx, %rcx movq %rcx, 14176(%rbx) movq 28704(%rbx), %rcx cmovneq 20352(%rbx), %rcx movq %rcx, 28704(%rbx) movq 27840(%rbx), %rcx cmovneq 13728(%rbx), %rcx movq %rcx, 27840(%rbx) movq 28512(%rbx), %rcx cmovneq 15168(%rbx), %rcx movq %rcx, 28512(%rbx) movq 28320(%rbx), %rcx cmovneq 13760(%rbx), %rcx movq %rcx, 28320(%rbx) movq 27520(%rbx), %rcx cmovneq 13792(%rbx), %rcx movq %rcx, 27520(%rbx) movq 27136(%rbx), %rcx cmovneq 15200(%rbx), %rcx movq %rcx, 27136(%rbx) testb %al, %al movq 25696(%rbx), %rax cmovneq 26304(%rbx), %rax movq %rax, 25696(%rbx) movl 11776(%rbx), %eax andb $1, %al movq 25120(%rbx), %rcx cmovneq %r14, %rcx movq %rcx, 25120(%rbx) movq 25952(%rbx), %rcx cmovneq %rcx, %rcx movq %rcx, 25952(%rbx) movq 31680(%rbx), %rcx cmovneq %rcx, %rcx movq %rcx, 31680(%rbx) movq 31168(%rbx), %rcx cmovneq %rcx, %rcx movq %rcx, 31168(%rbx) movq 30816(%rbx), %rcx cmovneq %rcx, %rcx movq %rcx, 30816(%rbx) movq 30880(%rbx), %rcx cmovneq %rcx, %rcx movq %rcx, 30880(%rbx) movq 30432(%rbx), %rcx cmovneq 20384(%rbx), %rcx movq %rcx, 30432(%rbx) movq 24192(%rbx), %rcx cmovneq %rcx, %rcx movq %rcx, 24192(%rbx) movq 23488(%rbx), %rcx cmovneq %r14, %rcx movq %rcx, 23488(%rbx) movq 32192(%rbx), %rcx movq 32128(%rbx), %rdx cmovneq %rcx, %rdx movq %rdx, 32128(%rbx) cmovneq %rcx, %rcx movq %rcx, 32192(%rbx) movq 23968(%rbx), %rcx cmovneq 26336(%rbx), %rcx movq %rcx, 23968(%rbx) movq 24320(%rbx), %rcx cmovneq %rcx, %rcx movq %rcx, 24320(%rbx) movq 32352(%rbx), %rcx movq 25280(%rbx), %rdx cmovneq %rcx, %rdx movq %rdx, 25280(%rbx) cmovneq %rcx, %rcx movq %rcx, 32352(%rbx) movq 23616(%rbx), %rcx cmovneq 20416(%rbx), %rcx movq %rcx, 23616(%rbx) movq 30176(%rbx), %rcx cmovneq 26368(%rbx), %rcx movq %rcx, 30176(%rbx) movq 29760(%rbx), %rcx cmovneq 20448(%rbx), %rcx movq %rcx, 29760(%rbx) movq 22560(%rbx), %rcx cmovneq 20480(%rbx), %rcx movq %rcx, 22560(%rbx) movq 22784(%rbx), %rcx cmovneq %rcx, %rcx movq %rcx, 22784(%rbx) movq 23712(%rbx), %rcx cmovneq 26400(%rbx), %rcx movq %rcx, 23712(%rbx) movq 29696(%rbx), %rcx cmovneq 20512(%rbx), %rcx movq %rcx, 29696(%rbx) movq 23392(%rbx), %rcx cmovneq 20544(%rbx), %rcx movq %rcx, 23392(%rbx) movq 29888(%rbx), %rcx cmovneq 20576(%rbx), %rcx movq %rcx, 29888(%rbx) movq 29376(%rbx), %rcx cmovneq 15232(%rbx), %rcx movq %rcx, 29376(%rbx) movq 28864(%rbx), %rcx cmovneq 20608(%rbx), %rcx movq %rcx, 28864(%rbx) movq 29504(%rbx), %rcx cmovneq 15264(%rbx), %rcx movq %rcx, 29504(%rbx) movq 14144(%rbx), %rcx cmovneq %rcx, %rcx movq %rcx, 14144(%rbx) movq 28736(%rbx), %rcx cmovneq 20640(%rbx), %rcx movq %rcx, 28736(%rbx) movq 27872(%rbx), %rcx cmovneq 20672(%rbx), %rcx movq %rcx, 27872(%rbx) movq 28544(%rbx), %rcx cmovneq 20704(%rbx), %rcx movq %rcx, 28544(%rbx) movq 28352(%rbx), %rcx cmovneq 20736(%rbx), %rcx movq %rcx, 28352(%rbx) movq 27552(%rbx), %rcx cmovneq 15296(%rbx), %rcx movq %rcx, 27552(%rbx) movq 27168(%rbx), %rcx cmovneq 15328(%rbx), %rcx movq %rcx, 27168(%rbx) testb %al, %al movq 25728(%rbx), %rax cmovneq 26432(%rbx), %rax movq %rax, 25728(%rbx) movl 11808(%rbx), %eax andb $1, %al movq 26240(%rbx), %r13 movq 25136(%rbx), %rcx cmovneq %r13, %rcx movq %rcx, 25136(%rbx) movq 25984(%rbx), %rcx cmovneq %rcx, %rcx movq %rcx, 25984(%rbx) movq 31936(%rbx), %rcx cmovneq %rcx, %rcx movq %rcx, 31936(%rbx) movq 32032(%rbx), %rcx cmovneq %rcx, %rcx movq %rcx, 32032(%rbx) movq 31008(%rbx), %rcx cmovneq %rcx, %rcx movq %rcx, 31008(%rbx) movq 30944(%rbx), %rcx cmovneq %rcx, %rcx movq %rcx, 30944(%rbx) movq 30464(%rbx), %rcx cmovneq 15360(%rbx), %rcx movq %rcx, 30464(%rbx) movq 24288(%rbx), %rcx cmovneq %rcx, %rcx movq %rcx, 24288(%rbx) movq 23296(%rbx), %rcx cmovneq %r13, %rcx movq %rcx, 23296(%rbx) movq 32544(%rbx), %rcx movq 25408(%rbx), %rdx cmovneq %rcx, %rdx movq %rdx, 25408(%rbx) cmovneq %rcx, %rcx movq %rcx, 32544(%rbx) movq 24000(%rbx), %rcx cmovneq 26464(%rbx), %rcx movq %rcx, 24000(%rbx) movq 14016(%rbx), %rcx cmovneq %rcx, %rcx movq %rcx, 14016(%rbx) movq 32320(%rbx), %rcx movq 25312(%rbx), %rdx cmovneq %rcx, %rdx movq %rdx, 25312(%rbx) cmovneq %rcx, %rcx movq %rcx, 32320(%rbx) movq 32256(%rbx), %rcx cmovneq 20768(%rbx), %rcx movq %rcx, 32256(%rbx) movq 30208(%rbx), %rcx cmovneq 26496(%rbx), %rcx movq %rcx, 30208(%rbx) movq 29920(%rbx), %rcx cmovneq 15392(%rbx), %rcx movq %rcx, 29920(%rbx) movq 32416(%rbx), %rcx cmovneq 20800(%rbx), %rcx movq %rcx, 32416(%rbx) movq 22656(%rbx), %rcx cmovneq %rcx, %rcx movq %rcx, 22656(%rbx) movq 23776(%rbx), %rcx cmovneq 26528(%rbx), %rcx movq %rcx, 23776(%rbx) movq 29792(%rbx), %rcx cmovneq 20832(%rbx), %rcx movq %rcx, 29792(%rbx) movq 23520(%rbx), %rcx cmovneq 20864(%rbx), %rcx movq %rcx, 23520(%rbx) movq 29984(%rbx), %rcx cmovneq 20896(%rbx), %rcx movq %rcx, 29984(%rbx) movq 29536(%rbx), %rcx cmovneq 15424(%rbx), %rcx movq %rcx, 29536(%rbx) movq 28960(%rbx), %rcx cmovneq 20928(%rbx), %rcx movq %rcx, 28960(%rbx) movq 29600(%rbx), %rcx cmovneq 15456(%rbx), %rcx movq %rcx, 29600(%rbx) movq 14240(%rbx), %rcx cmovneq %rcx, %rcx movq %rcx, 14240(%rbx) movq 28896(%rbx), %rcx cmovneq 20960(%rbx), %rcx movq %rcx, 28896(%rbx) movq 27968(%rbx), %rcx cmovneq 15488(%rbx), %rcx movq %rcx, 27968(%rbx) movq 28768(%rbx), %rcx cmovneq 20992(%rbx), %rcx movq %rcx, 28768(%rbx) movq 28576(%rbx), %rcx cmovneq 21024(%rbx), %rcx movq %rcx, 28576(%rbx) movq 27712(%rbx), %rcx cmovneq 21056(%rbx), %rcx movq %rcx, 27712(%rbx) movq 27328(%rbx), %rcx cmovneq 15520(%rbx), %rcx movq %rcx, 27328(%rbx) testb %al, %al movq 32704(%rbx), %rax cmovneq 26560(%rbx), %rax movq %rax, 32704(%rbx) movl 11840(%rbx), %eax andb $1, %al movq 24608(%rbx), %r13 movq 25152(%rbx), %rcx cmovneq %r13, %rcx movq %rcx, 25152(%rbx) movq 25920(%rbx), %rcx cmovneq %rcx, %rcx movq %rcx, 25920(%rbx) movq 31904(%rbx), %rcx cmovneq %rcx, %rcx movq %rcx, 31904(%rbx) movq 32000(%rbx), %rcx cmovneq %rcx, %rcx movq %rcx, 32000(%rbx) movq 30848(%rbx), %rcx cmovneq %rcx, %rcx movq %rcx, 30848(%rbx) movq 30784(%rbx), %rcx cmovneq %rcx, %rcx movq %rcx, 30784(%rbx) movq 30496(%rbx), %rcx cmovneq 15552(%rbx), %rcx movq %rcx, 30496(%rbx) movq 24256(%rbx), %rcx cmovneq %rcx, %rcx movq %rcx, 24256(%rbx) movq 23328(%rbx), %rcx cmovneq %r13, %rcx movq %rcx, 23328(%rbx) movq 32160(%rbx), %rcx movq 25440(%rbx), %rdx cmovneq %rcx, %rdx movq %rdx, 25440(%rbx) cmovneq %rcx, %rcx movq %rcx, 32160(%rbx) movq 24032(%rbx), %rcx cmovneq 26592(%rbx), %rcx movq %rcx, 24032(%rbx) movq 13984(%rbx), %rcx cmovneq %rcx, %rcx movq %rcx, 13984(%rbx) movq 32288(%rbx), %rcx movq 25344(%rbx), %rdx cmovneq %rcx, %rdx movq %rdx, 25344(%rbx) cmovneq %rcx, %rcx movq %rcx, 32288(%rbx) movq 23424(%rbx), %rcx cmovneq 21088(%rbx), %rcx movq %rcx, 23424(%rbx) movq 30240(%rbx), %rcx cmovneq 24704(%rbx), %rcx movq %rcx, 30240(%rbx) movq 29952(%rbx), %rcx cmovneq 15584(%rbx), %rcx movq %rcx, 29952(%rbx) movq 25664(%rbx), %rcx cmovneq 21120(%rbx), %rcx movq %rcx, 25664(%rbx) movq 22624(%rbx), %rcx cmovneq %rcx, %rcx movq %rcx, 22624(%rbx) movq 23808(%rbx), %rcx cmovneq 24736(%rbx), %rcx movq %rcx, 23808(%rbx) movq 29824(%rbx), %rcx cmovneq 21152(%rbx), %rcx movq %rcx, 29824(%rbx) movq 23552(%rbx), %rcx cmovneq 21184(%rbx), %rcx movq %rcx, 23552(%rbx) movq 30016(%rbx), %rcx cmovneq 21216(%rbx), %rcx movq %rcx, 30016(%rbx) movq 29568(%rbx), %rcx cmovneq 21248(%rbx), %rcx movq %rcx, 29568(%rbx) movq 28992(%rbx), %rcx cmovneq 21280(%rbx), %rcx movq %rcx, 28992(%rbx) movq 29632(%rbx), %rcx cmovneq 21312(%rbx), %rcx movq %rcx, 29632(%rbx) movq 14208(%rbx), %rcx cmovneq %rcx, %rcx movq %rcx, 14208(%rbx) movq 28928(%rbx), %rcx cmovneq 21344(%rbx), %rcx movq %rcx, 28928(%rbx) movq 28000(%rbx), %rcx cmovneq 21376(%rbx), %rcx movq %rcx, 28000(%rbx) movq 28800(%rbx), %rcx cmovneq 21408(%rbx), %rcx movq %rcx, 28800(%rbx) movq 28608(%rbx), %rcx cmovneq 21440(%rbx), %rcx movq %rcx, 28608(%rbx) movq 27744(%rbx), %rcx cmovneq 15616(%rbx), %rcx movq %rcx, 27744(%rbx) movq 27360(%rbx), %rcx cmovneq 15648(%rbx), %rcx movq %rcx, 27360(%rbx) testb %al, %al movq 25760(%rbx), %rax cmovneq 31488(%rbx), %rax movq %rax, 25760(%rbx) movl 11872(%rbx), %eax andb $1, %al movq 24640(%rbx), %r13 movq 25184(%rbx), %rcx cmovneq %r13, %rcx movq %rcx, 25184(%rbx) movq 25888(%rbx), %rcx cmovneq %rcx, %rcx movq %rcx, 25888(%rbx) movq 31648(%rbx), %rcx cmovneq %rcx, %rcx movq %rcx, 31648(%rbx) movq 31232(%rbx), %rcx cmovneq %rcx, %rcx movq %rcx, 31232(%rbx) movq 30688(%rbx), %rcx cmovneq %rcx, %rcx movq %rcx, 30688(%rbx) movq 30560(%rbx), %rcx cmovneq %rcx, %rcx movq %rcx, 30560(%rbx) movq 30272(%rbx), %rcx cmovneq 15680(%rbx), %rcx movq %rcx, 30272(%rbx) movq 24096(%rbx), %rcx cmovneq %rcx, %rcx movq %rcx, 24096(%rbx) movq 23168(%rbx), %rcx cmovneq %r13, %rcx movq %rcx, 23168(%rbx) movq 31776(%rbx), %rcx movq 25456(%rbx), %rdx cmovneq %rcx, %rdx movq %rdx, 25456(%rbx) cmovneq %rcx, %rcx movq %rcx, 31776(%rbx) movq 23840(%rbx), %rcx cmovneq 26624(%rbx), %rcx movq %rcx, 23840(%rbx) movq 13888(%rbx), %rcx cmovneq %rcx, %rcx movq %rcx, 13888(%rbx) movq 31872(%rbx), %rcx movq 25392(%rbx), %rdx cmovneq %rcx, %rdx movq %rdx, 25392(%rbx) cmovneq %rcx, %rcx movq %rcx, 31872(%rbx) movq 22912(%rbx), %rcx cmovneq 21472(%rbx), %rcx movq %rcx, 22912(%rbx) movq 30048(%rbx), %rcx cmovneq 26656(%rbx), %rcx movq %rcx, 30048(%rbx) movq 29088(%rbx), %rcx cmovneq 21504(%rbx), %rcx movq %rcx, 29088(%rbx) movq 22464(%rbx), %rcx cmovneq 21536(%rbx), %rcx movq %rcx, 22464(%rbx) movq 22720(%rbx), %rcx cmovneq %rcx, %rcx movq %rcx, 22720(%rbx) movq 23648(%rbx), %rcx cmovneq 26688(%rbx), %rcx movq %rcx, 23648(%rbx) movq 29024(%rbx), %rcx cmovneq 24800(%rbx), %rcx movq %rcx, 29024(%rbx) movq 22976(%rbx), %rcx cmovneq 21568(%rbx), %rcx movq %rcx, 22976(%rbx) movq 29216(%rbx), %rcx cmovneq 21600(%rbx), %rcx movq %rcx, 29216(%rbx) movq 28096(%rbx), %rcx cmovneq 15712(%rbx), %rcx movq %rcx, 28096(%rbx) movq 28384(%rbx), %rcx cmovneq 21632(%rbx), %rcx movq %rcx, 28384(%rbx) movq 28192(%rbx), %rcx cmovneq 15744(%rbx), %rcx movq %rcx, 28192(%rbx) movq 14080(%rbx), %rcx cmovneq %rcx, %rcx movq %rcx, 14080(%rbx) movq 27584(%rbx), %rcx cmovneq 21664(%rbx), %rcx movq %rcx, 27584(%rbx) movq 26944(%rbx), %rcx cmovneq 15776(%rbx), %rcx movq %rcx, 26944(%rbx) movq 27904(%rbx), %rcx cmovneq 21680(%rbx), %rcx movq %rcx, 27904(%rbx) movq 27456(%rbx), %rcx cmovneq 21696(%rbx), %rcx movq %rcx, 27456(%rbx) movq 27200(%rbx), %rcx cmovneq 21712(%rbx), %rcx movq %rcx, 27200(%rbx) movq 27008(%rbx), %rcx cmovneq 21728(%rbx), %rcx movq %rcx, 27008(%rbx) testb %al, %al movq 32576(%rbx), %rax cmovneq 32480(%rbx), %rax movq %rax, 32576(%rbx) movl 11904(%rbx), %eax andb $1, %al movq 24672(%rbx), %rcx movq 25216(%rbx), %rdx cmovneq %rcx, %rdx movq %rdx, 25216(%rbx) movq 25824(%rbx), %rdx cmovneq %rdx, %rdx movq %rdx, 25824(%rbx) movq 31616(%rbx), %rdx cmovneq %rdx, %rdx movq %rdx, 31616(%rbx) movq 31200(%rbx), %rdx cmovneq %rdx, %rdx movq %rdx, 31200(%rbx) movq 30656(%rbx), %rdx cmovneq %rdx, %rdx movq %rdx, 30656(%rbx) movq 30528(%rbx), %rdx cmovneq %rdx, %rdx movq %rdx, 30528(%rbx) movq 30304(%rbx), %rdx cmovneq 21744(%rbx), %rdx movq %rdx, 30304(%rbx) movq 24064(%rbx), %rdx cmovneq %rdx, %rdx movq %rdx, 24064(%rbx) movq 23200(%rbx), %rdx cmovneq %rcx, %rdx movq %rdx, 23200(%rbx) movq 31712(%rbx), %rcx movq 25472(%rbx), %rdx cmovneq %rcx, %rdx movq %rdx, 25472(%rbx) cmovneq %rcx, %rcx movq %rcx, 31712(%rbx) movq 23872(%rbx), %rcx cmovneq 26720(%rbx), %rcx movq %rcx, 23872(%rbx) movq 13856(%rbx), %rcx cmovneq %rcx, %rcx movq %rcx, 13856(%rbx) movq 31808(%rbx), %rcx movq 24992(%rbx), %r15 cmovneq %rcx, %r15 movq %r15, 24992(%rbx) cmovneq %rcx, %rcx movq %rcx, 31808(%rbx) movq 22944(%rbx), %rcx cmovneq 21760(%rbx), %rcx movq %rcx, 22944(%rbx) movq 30080(%rbx), %rcx cmovneq 26752(%rbx), %rcx movq %rcx, 30080(%rbx) movq 29120(%rbx), %rcx cmovneq 15808(%rbx), %rcx movq %rcx, 29120(%rbx) movq 22496(%rbx), %rcx cmovneq 21776(%rbx), %rcx movq %rcx, 22496(%rbx) movq 22688(%rbx), %rcx cmovneq %rcx, %rcx movq %rcx, 22688(%rbx) movq 23680(%rbx), %rcx cmovneq 26784(%rbx), %rcx movq %rcx, 23680(%rbx) movq 29056(%rbx), %rcx cmovneq 15840(%rbx), %rcx movq %rcx, 29056(%rbx) movq 23008(%rbx), %rcx cmovneq 21792(%rbx), %rcx movq %rcx, 23008(%rbx) movq 29248(%rbx), %rcx cmovneq 21824(%rbx), %rcx movq %rcx, 29248(%rbx) movq 28128(%rbx), %rcx cmovneq 15872(%rbx), %rcx movq %rcx, 28128(%rbx) movq 28416(%rbx), %rcx cmovneq 15904(%rbx), %rcx movq %rcx, 28416(%rbx) movq 14048(%rbx), %rcx cmovneq %rcx, %rcx movq %rcx, 14048(%rbx) movq 28224(%rbx), %rcx cmovneq 21856(%rbx), %rcx movq %rcx, 28224(%rbx) movq 27616(%rbx), %rcx cmovneq 21888(%rbx), %rcx movq %rcx, 27616(%rbx) movq 26976(%rbx), %rcx cmovneq 21920(%rbx), %rcx movq %rcx, 26976(%rbx) movq 27936(%rbx), %rcx cmovneq 21952(%rbx), %rcx movq %rcx, 27936(%rbx) movq 27488(%rbx), %rcx cmovneq 15936(%rbx), %rcx movq %rcx, 27488(%rbx) movq 27232(%rbx), %rcx cmovneq 15968(%rbx), %rcx movq %rcx, 27232(%rbx) movq 27040(%rbx), %rcx cmovneq 21984(%rbx), %rcx movq %rcx, 27040(%rbx) testb %al, %al movq 25568(%rbx), %rax cmovneq 31520(%rbx), %rax movq %rax, 25568(%rbx) movq %rax, %r8 movl 11936(%rbx), %eax andb $1, %al movq 24928(%rbx), %r14 movq 24768(%rbx), %rcx cmovneq %rcx, %r14 movq %r14, 24928(%rbx) movq 25856(%rbx), %rdx cmovneq %rdx, %rdx movq %rdx, 25856(%rbx) movq 31584(%rbx), %rdx cmovneq %rdx, %rdx movq %rdx, 31584(%rbx) movq 31296(%rbx), %rsi cmovneq %rsi, %rsi movq %rsi, 31296(%rbx) movq 30752(%rbx), %rsi cmovneq %rsi, %rsi movq %rsi, 30752(%rbx) movq 30624(%rbx), %rsi cmovneq %rsi, %rsi movq %rsi, 30624(%rbx) movq 30336(%rbx), %rsi cmovneq 22016(%rbx), %rsi movq %rsi, 30336(%rbx) movq 24160(%rbx), %rsi cmovneq %rsi, %rsi movq %rsi, 24160(%rbx) movq 23232(%rbx), %rsi cmovneq %rcx, %rsi movq %rsi, 23232(%rbx) movq 31744(%rbx), %rcx movq 25504(%rbx), %rdx cmovneq %rcx, %rdx movq %rdx, 25504(%rbx) cmovneq %rcx, %rcx movq %rcx, 31744(%rbx) movq 23904(%rbx), %rcx cmovneq 26816(%rbx), %rcx movq %rcx, 23904(%rbx) movq 13920(%rbx), %rcx cmovneq %rcx, %rcx movq %rcx, 13920(%rbx) movq 31840(%rbx), %rcx movq 25040(%rbx), %r12 cmovneq %rcx, %r12 movq %r12, 25040(%rbx) cmovneq %rcx, %rcx movq %rcx, 31840(%rbx) movq 23040(%rbx), %rcx cmovneq 22048(%rbx), %rcx movq %rcx, 23040(%rbx) movq 30112(%rbx), %rcx cmovneq 24864(%rbx), %rcx movq %rcx, 30112(%rbx) movq 29280(%rbx), %rcx cmovneq 16000(%rbx), %rcx movq %rcx, 29280(%rbx) movq 22592(%rbx), %rcx cmovneq 22080(%rbx), %rcx movq %rcx, 22592(%rbx) movq 22752(%rbx), %rcx cmovneq %rcx, %rcx movq %rcx, 22752(%rbx) movq 23744(%rbx), %rcx cmovneq 26848(%rbx), %rcx movq %rcx, 23744(%rbx) movq 29152(%rbx), %rcx cmovneq 16032(%rbx), %rcx movq %rcx, 29152(%rbx) movq 23104(%rbx), %rcx cmovneq 22112(%rbx), %rcx movq %rcx, 23104(%rbx) movq 29408(%rbx), %rcx cmovneq 22144(%rbx), %rcx movq %rcx, 29408(%rbx) movq 28256(%rbx), %rcx cmovneq 22176(%rbx), %rcx movq %rcx, 28256(%rbx) movq 28640(%rbx), %rcx cmovneq 16064(%rbx), %rcx movq %rcx, 28640(%rbx) movq 28448(%rbx), %rcx cmovneq 16096(%rbx), %rcx movq %rcx, 28448(%rbx) movq 14112(%rbx), %rcx cmovneq %rcx, %rcx movq %rcx, 14112(%rbx) movq 27776(%rbx), %rcx cmovneq 22208(%rbx), %rcx movq %rcx, 27776(%rbx) movq 27072(%rbx), %rcx cmovneq 22240(%rbx), %rcx movq %rcx, 27072(%rbx) movq 28032(%rbx), %rcx cmovneq 22272(%rbx), %rcx movq %rcx, 28032(%rbx) movq 27648(%rbx), %rcx cmovneq 16128(%rbx), %rcx movq %rcx, 27648(%rbx) movq 27392(%rbx), %rcx cmovneq 22304(%rbx), %rcx movq %rcx, 27392(%rbx) movq 27264(%rbx), %rcx cmovneq 16160(%rbx), %rcx movq %rcx, 27264(%rbx) testb %al, %al movq 25600(%rbx), %rax cmovneq 32064(%rbx), %rax movq %rax, 25600(%rbx) movq %rax, %r9 movl 11968(%rbx), %eax andb $1, %al movq 24832(%rbx), %rcx movq 24976(%rbx), %rsi cmovneq %rcx, %rsi movq %rsi, 24976(%rbx) movq 25792(%rbx), %rdx cmovneq %rdx, %rdx movq %rdx, 25792(%rbx) movq 31552(%rbx), %rdx cmovneq %rdx, %rdx movq %rdx, 31552(%rbx) movq 31264(%rbx), %rdi cmovneq %rdi, %rdi movq %rdi, 31264(%rbx) movq 30720(%rbx), %rdi cmovneq %rdi, %rdi movq %rdi, 30720(%rbx) movq 30592(%rbx), %rdi cmovneq %rdi, %rdi movq %rdi, 30592(%rbx) movq 30368(%rbx), %rdi cmovneq 16192(%rbx), %rdi movq %rdi, 30368(%rbx) movq 24128(%rbx), %rdi cmovneq %rdi, %rdi movq %rdi, 24128(%rbx) movq 23264(%rbx), %rdi cmovneq %rcx, %rdi movq %rdi, 23264(%rbx) movq 31040(%rbx), %rcx movq 25536(%rbx), %rdx cmovneq %rcx, %rdx movq %rdx, 25536(%rbx) cmovneq %rcx, %rcx movq %rcx, 31040(%rbx) movq 31104(%rbx), %rcx cmovneq 26880(%rbx), %rcx movq %rcx, 31104(%rbx) movq 16640(%rbx), %rcx cmovneq %rcx, %rcx movq %rcx, 16640(%rbx) movq 31136(%rbx), %rcx movq 25056(%rbx), %r13 cmovneq %rcx, %r13 movq %r13, 25056(%rbx) cmovneq %rcx, %rcx movq %rcx, 31136(%rbx) movq 23072(%rbx), %rcx cmovneq 22336(%rbx), %rcx movq %rcx, 23072(%rbx) movq 28160(%rbx), %rcx cmovneq 24896(%rbx), %rcx movq %rcx, 28160(%rbx) movq 29312(%rbx), %rcx cmovneq 16224(%rbx), %rcx movq %rcx, 29312(%rbx) movq 32096(%rbx), %rcx cmovneq 22368(%rbx), %rcx movq %rcx, 32096(%rbx) movq 16608(%rbx), %rcx cmovneq %rcx, %rcx movq %rcx, 16608(%rbx) movq 22880(%rbx), %rcx cmovneq 26912(%rbx), %rcx movq %rcx, 22880(%rbx) movq 29184(%rbx), %rcx cmovneq 16256(%rbx), %rcx movq %rcx, 29184(%rbx) movq 23136(%rbx), %rcx cmovneq 22400(%rbx), %rcx movq %rcx, 23136(%rbx) movq 29440(%rbx), %rcx cmovneq 16288(%rbx), %rcx movq %rcx, 29440(%rbx) movq 28288(%rbx), %rcx cmovneq 16320(%rbx), %rcx movq %rcx, 28288(%rbx) movq 28672(%rbx), %rcx cmovneq 16352(%rbx), %rcx movq %rcx, 28672(%rbx) movq 28480(%rbx), %rcx cmovneq 16384(%rbx), %rcx movq %rcx, 28480(%rbx) movq 24352(%rbx), %rcx cmovneq %rcx, %rcx movq %rcx, 24352(%rbx) movq 27808(%rbx), %rcx cmovneq 16416(%rbx), %rcx movq %rcx, 27808(%rbx) movq 27104(%rbx), %rcx cmovneq 16448(%rbx), %rcx movq %rcx, 27104(%rbx) movq 28064(%rbx), %rcx cmovneq 16480(%rbx), %rcx movq %rcx, 28064(%rbx) movq 27680(%rbx), %rcx cmovneq 16512(%rbx), %rcx movq %rcx, 27680(%rbx) movq 27424(%rbx), %rcx cmovneq 16544(%rbx), %rcx movq %rcx, 27424(%rbx) movq 27296(%rbx), %rcx cmovneq 16576(%rbx), %rcx movq %rcx, 27296(%rbx) testb %al, %al vmovdqa .LCPI1_59(%rip), %xmm2 vpaddq %xmm2, %xmm12, %xmm0 vpshufd $8, %xmm0, %xmm0 vpaddq %xmm2, %xmm14, %xmm1 vpshufd $8, %xmm1, %xmm1 vmovlhps %xmm0, %xmm1, %xmm0 vmovaps %xmm0, 32928(%rbx) vmovdqa .LCPI1_60(%rip), %xmm5 vpaddq %xmm5, %xmm13, %xmm0 vpshufd $8, %xmm0, %xmm0 vpaddq %xmm5, %xmm11, %xmm1 vpshufd $8, %xmm1, %xmm1 vmovlhps %xmm0, %xmm1, %xmm0 vmovaps %xmm0, 32896(%rbx) vmovdqa .LCPI1_61(%rip), %xmm3 vpaddq %xmm3, %xmm12, %xmm0 vpshufd $8, %xmm0, %xmm0 vpaddq %xmm3, %xmm14, %xmm1 vpshufd $8, %xmm1, %xmm1 vmovlhps %xmm0, %xmm1, %xmm0 vmovaps %xmm0, 32864(%rbx) vmovdqa .LCPI1_62(%rip), %xmm6 vpaddq %xmm6, %xmm12, %xmm0 vpshufd $8, %xmm0, %xmm0 vpaddq %xmm6, %xmm14, %xmm1 vpshufd $8, %xmm1, %xmm1 vmovlhps %xmm0, %xmm1, %xmm0 vmovaps %xmm0, 32832(%rbx) vmovdqa .LCPI1_63(%rip), %xmm4 vpaddq %xmm4, %xmm13, %xmm0 vpshufd $8, %xmm0, %xmm0 vpaddq %xmm4, %xmm11, %xmm1 vpshufd $8, %xmm1, %xmm1 vmovlhps %xmm0, %xmm1, %xmm0 vmovaps %xmm0, 32800(%rbx) vmovdqa .LCPI1_64(%rip), %xmm7 vpaddq %xmm7, %xmm12, %xmm0 vpshufd $8, %xmm0, %xmm0 vpaddq %xmm7, %xmm14, %xmm1 vpshufd $8, %xmm1, %xmm1 vmovlhps %xmm0, %xmm1, %xmm0 vmovaps %xmm0, 32736(%rbx) vpaddq %xmm4, %xmm12, %xmm0 vpshufd $8, %xmm0, %xmm0 vpaddq %xmm4, %xmm14, %xmm1 vpshufd $8, %xmm1, %xmm1 vmovlhps %xmm0, %xmm1, %xmm0 vmovaps %xmm0, 32512(%rbx) vpaddq %xmm6, %xmm11, %xmm0 vmovdqa %xmm0, 32480(%rbx) vpaddq %xmm6, %xmm13, %xmm6 vpaddq %xmm3, %xmm11, %xmm10 vpaddq %xmm3, %xmm13, %xmm15 vpaddq %xmm2, %xmm13, %xmm8 vpaddq %xmm2, %xmm11, %xmm9 vpaddq %xmm7, %xmm13, %xmm2 vpaddq %xmm7, %xmm11, %xmm3 vmovdqa .LCPI1_65(%rip), %xmm4 vpaddq %xmm4, %xmm11, %xmm1 vpaddq %xmm4, %xmm13, %xmm7 vpaddq %xmm5, %xmm14, %xmm0 vpaddq %xmm5, %xmm12, %xmm5 vpaddq %xmm4, %xmm12, %xmm13 vpaddq %xmm4, %xmm14, %xmm14 movq 25632(%rbx), %rax cmovneq 32640(%rbx), %rax movq %rax, 25632(%rbx) movq %rax, %rdx vpshufd $8, %xmm5, %xmm5 vpshufd $8, %xmm0, %xmm0 vmovlhps %xmm5, %xmm0, %xmm0 vmovaps %xmm0, 32640(%rbx) vpshufd $8, %xmm2, %xmm0 vpshufd $8, %xmm3, %xmm2 vmovlhps %xmm0, %xmm2, %xmm0 vmovaps %xmm0, 32448(%rbx) vpshufd $8, %xmm7, %xmm0 vpshufd $8, %xmm1, %xmm1 vmovlhps %xmm0, %xmm1, %xmm11 vpshufd $8, %xmm15, %xmm0 vpshufd $8, %xmm10, %xmm1 vmovlhps %xmm0, %xmm1, %xmm12 vpshufd $8, %xmm8, %xmm0 vpshufd $8, %xmm9, %xmm1 vmovlhps %xmm0, %xmm1, %xmm2 vpshufd $8, %xmm6, %xmm0 vpshufd $8, 32480(%rbx), %xmm1 vmovlhps %xmm0, %xmm1, %xmm5 vpshufd $8, %xmm13, %xmm0 vpshufd $8, %xmm14, %xmm1 vmovlhps %xmm0, %xmm1, %xmm0 vmovdqa .LCPI1_38(%rip), %xmm15 vmovdqa 32512(%rbx), %xmm1 vpmulld %xmm15, %xmm1, %xmm1 vmovdqa %xmm1, 32512(%rbx) vmovdqa 32736(%rbx), %xmm1 vpmulld %xmm15, %xmm1, %xmm1 vmovdqa %xmm1, 32736(%rbx) vmovdqa 32800(%rbx), %xmm1 vpmulld %xmm15, %xmm1, %xmm3 vmovdqa 32832(%rbx), %xmm1 vpmulld %xmm15, %xmm1, %xmm1 vmovdqa %xmm1, 32832(%rbx) vmovdqa 32864(%rbx), %xmm1 vpmulld %xmm15, %xmm1, %xmm13 vmovdqa 32896(%rbx), %xmm1 vpmulld %xmm15, %xmm1, %xmm1 vmovdqa 32928(%rbx), %xmm4 vpmulld %xmm15, %xmm4, %xmm4 vmovdqa %xmm4, 32928(%rbx) vpmulld %xmm15, %xmm0, %xmm10 vpmulld %xmm15, %xmm5, %xmm5 vpmulld %xmm15, %xmm2, %xmm2 vpmulld %xmm15, %xmm12, %xmm4 vpmulld %xmm15, %xmm11, %xmm6 vmovdqa 32448(%rbx), %xmm0 vpmulld %xmm15, %xmm0, %xmm0 vmovdqa 32640(%rbx), %xmm7 vpmulld %xmm15, %xmm7, %xmm11 vmovdqa 32960(%rbx), %xmm7 vpaddd %xmm0, %xmm7, %xmm0 vpaddd %xmm6, %xmm7, %xmm6 vpaddd %xmm3, %xmm7, %xmm3 vpaddd %xmm1, %xmm7, %xmm8 vpaddd %xmm4, %xmm7, %xmm9 vpaddd %xmm2, %xmm7, %xmm15 vpaddd %xmm5, %xmm7, %xmm12 vmovdqa 32992(%rbx), %ymm5 vpaddd %xmm13, %xmm5, %xmm14 vpaddd 32736(%rbx), %xmm5, %xmm1 vpaddd 32832(%rbx), %xmm5, %xmm4 vpaddd 32512(%rbx), %xmm5, %xmm2 vpaddd %xmm10, %xmm5, %xmm7 vpaddd 32928(%rbx), %xmm5, %xmm13 vpaddd %xmm11, %xmm5, %xmm5 vmovdqa %xmm5, 32864(%rbx) vpmovsxdq %xmm0, %xmm5 vmovdqa %xmm0, %xmm11 vpextrq $1, %xmm5, %rax vmovd %xmm5, %rcx vmovsd 33024(%rbx,%rcx,8), %xmm5 vmovhpd 33024(%rbx,%rax,8), %xmm5, %xmm0 vmovapd %ymm0, 32448(%rbx) vpmovsxdq %xmm14, %xmm5 vpextrq $1, %xmm5, %rax vmovd %xmm5, %rcx vmovsd 33024(%rbx,%rcx,8), %xmm5 vmovhpd 33024(%rbx,%rax,8), %xmm5, %xmm5 vmovapd %ymm5, 32992(%rbx) vpmovsxdq %xmm3, %xmm5 vpextrq $1, %xmm5, %rax vmovd %xmm5, %rcx vmovsd 33024(%rbx,%rcx,8), %xmm5 vmovhpd 33024(%rbx,%rax,8), %xmm5, %xmm0 vmovapd %ymm0, 32480(%rbx) vpmovsxdq %xmm6, %xmm5 vpextrq $1, %xmm5, %rax vmovd %xmm5, %rcx vmovsd 33024(%rbx,%rcx,8), %xmm5 vmovhpd 33024(%rbx,%rax,8), %xmm5, %xmm5 vmovapd %ymm5, 32960(%rbx) vpmovsxdq %xmm4, %xmm5 vpextrq $1, %xmm5, %rax vmovd %xmm5, %rcx vmovsd 33024(%rbx,%rcx,8), %xmm5 vmovhpd 33024(%rbx,%rax,8), %xmm5, %xmm0 vmovapd %ymm0, 32896(%rbx) vpmovsxdq %xmm1, %xmm5 vpextrq $1, %xmm5, %rax vmovd %xmm5, %rcx vmovsd 33024(%rbx,%rcx,8), %xmm5 vmovhpd 33024(%rbx,%rax,8), %xmm5, %xmm0 vmovapd %ymm0, 32832(%rbx) vpmovsxdq %xmm9, %xmm5 vpextrq $1, %xmm5, %rax vmovd %xmm5, %rcx vmovsd 33024(%rbx,%rcx,8), %xmm5 vmovhpd 33024(%rbx,%rax,8), %xmm5, %xmm0 vmovapd %ymm0, 32928(%rbx) vpmovsxdq %xmm8, %xmm5 vpextrq $1, %xmm5, %rax vmovd %xmm5, %rcx vmovsd 33024(%rbx,%rcx,8), %xmm5 vmovhpd 33024(%rbx,%rax,8), %xmm5, %xmm0 vmovapd %ymm0, 32736(%rbx) vpmovsxdq %xmm15, %xmm5 vpextrq $1, %xmm5, %rax vmovd %xmm5, %rcx vmovsd 33024(%rbx,%rcx,8), %xmm5 vmovhpd 33024(%rbx,%rax,8), %xmm5, %xmm5 vmovapd %ymm5, 26240(%rbx) vpmovsxdq %xmm2, %xmm5 vpextrq $1, %xmm5, %rax vmovd %xmm5, %rcx vmovsd 33024(%rbx,%rcx,8), %xmm5 vmovhpd 33024(%rbx,%rax,8), %xmm5, %xmm0 vmovapd %ymm0, 32800(%rbx) vpmovsxdq %xmm12, %xmm5 vpextrq $1, %xmm5, %rax vmovd %xmm5, %rcx vmovsd 33024(%rbx,%rcx,8), %xmm5 vmovhpd 33024(%rbx,%rax,8), %xmm5, %xmm0 vmovapd %ymm0, 32640(%rbx) vpmovsxdq %xmm7, %xmm5 vpextrq $1, %xmm5, %rax vmovd %xmm5, %rcx vmovsd 33024(%rbx,%rcx,8), %xmm5 vmovhpd 33024(%rbx,%rax,8), %xmm5, %xmm0 vmovapd %ymm0, 32512(%rbx) vmovhlps %xmm15, %xmm15, %xmm5 vpmovsxdq %xmm5, %xmm5 vpextrq $1, %xmm5, %rax vmovd %xmm5, %rcx vmovsd 33024(%rbx,%rcx,8), %xmm5 vmovhpd 33024(%rbx,%rax,8), %xmm5, %xmm5 vmovapd %xmm5, 26112(%rbx) vmovhlps %xmm13, %xmm13, %xmm5 vpmovsxdq %xmm5, %xmm5 vpextrq $1, %xmm5, %rax vmovd %xmm5, %rcx vmovsd 33024(%rbx,%rcx,8), %xmm5 vmovhpd 33024(%rbx,%rax,8), %xmm5, %xmm5 vmovapd %xmm5, 26080(%rbx) vpmovsxdq %xmm13, %xmm5 vpextrq $1, %xmm5, %rax vmovd %xmm5, %rcx vmovsd 33024(%rbx,%rcx,8), %xmm5 vmovhpd 33024(%rbx,%rax,8), %xmm5, %xmm5 vmovapd %ymm5, 26048(%rbx) vmovhlps %xmm2, %xmm2, %xmm2 vpmovsxdq %xmm2, %xmm2 vpextrq $1, %xmm2, %rax vmovd %xmm2, %rcx vmovsd 33024(%rbx,%rcx,8), %xmm2 vmovhpd 33024(%rbx,%rax,8), %xmm2, %xmm0 vmovapd %xmm0, 32064(%rbx) vmovhlps %xmm3, %xmm3, %xmm2 vpmovsxdq %xmm2, %xmm2 vpextrq $1, %xmm2, %rax vmovd %xmm2, %rcx vmovsd 33024(%rbx,%rcx,8), %xmm2 vmovhpd 33024(%rbx,%rax,8), %xmm2, %xmm15 vmovhlps %xmm12, %xmm12, %xmm2 vpmovsxdq %xmm2, %xmm2 vpextrq $1, %xmm2, %rax vmovd %xmm2, %rcx vmovsd 33024(%rbx,%rcx,8), %xmm2 vmovhpd 33024(%rbx,%rax,8), %xmm2, %xmm12 vmovhlps %xmm6, %xmm6, %xmm2 vpmovsxdq %xmm2, %xmm2 vpextrq $1, %xmm2, %rax vmovd %xmm2, %rcx vmovsd 33024(%rbx,%rcx,8), %xmm2 vmovhpd 33024(%rbx,%rax,8), %xmm2, %xmm13 vmovhlps %xmm4, %xmm4, %xmm2 vpmovsxdq %xmm2, %xmm2 vpextrq $1, %xmm2, %rax vmovd %xmm2, %rcx vmovsd 33024(%rbx,%rcx,8), %xmm2 vmovhpd 33024(%rbx,%rax,8), %xmm2, %xmm10 vmovhlps %xmm7, %xmm7, %xmm0 vpmovsxdq %xmm0, %xmm0 vpextrq $1, %xmm0, %rax vmovd %xmm0, %rcx vmovsd 33024(%rbx,%rcx,8), %xmm0 vmovhpd 33024(%rbx,%rax,8), %xmm0, %xmm6 vmovhlps %xmm1, %xmm1, %xmm0 vpmovsxdq %xmm0, %xmm0 vpextrq $1, %xmm0, %rax vmovd %xmm0, %rcx vmovsd 33024(%rbx,%rcx,8), %xmm0 vmovhpd 33024(%rbx,%rax,8), %xmm0, %xmm1 vmovhlps %xmm9, %xmm9, %xmm0 vpmovsxdq %xmm0, %xmm0 vpextrq $1, %xmm0, %rax vmovd %xmm0, %rcx vmovsd 33024(%rbx,%rcx,8), %xmm0 vmovhpd 33024(%rbx,%rax,8), %xmm0, %xmm4 vmovhlps %xmm8, %xmm8, %xmm0 vpmovsxdq %xmm0, %xmm0 vpextrq $1, %xmm0, %rax vmovd %xmm0, %rcx vmovsd 33024(%rbx,%rcx,8), %xmm0 vmovhpd 33024(%rbx,%rax,8), %xmm0, %xmm3 vmovhlps %xmm11, %xmm11, %xmm0 vpmovsxdq %xmm0, %xmm0 vpextrq $1, %xmm0, %rax vmovd %xmm0, %rcx vmovsd 33024(%rbx,%rcx,8), %xmm0 vmovhpd 33024(%rbx,%rax,8), %xmm0, %xmm0 vmovhlps %xmm14, %xmm14, %xmm2 vpmovsxdq %xmm2, %xmm2 vpextrq $1, %xmm2, %rax vmovd %xmm2, %rcx vmovsd 33024(%rbx,%rcx,8), %xmm2 vmovhpd 33024(%rbx,%rax,8), %xmm2, %xmm7 vmovaps 32864(%rbx), %xmm11 vmovhlps %xmm11, %xmm11, %xmm2 vpmovsxdq %xmm2, %xmm2 vpextrq $1, %xmm2, %rax vmovd %xmm2, %rcx vmovsd 33024(%rbx,%rcx,8), %xmm2 vmovhpd 33024(%rbx,%rax,8), %xmm2, %xmm2 vpmovsxdq %xmm11, %xmm5 vpextrq $1, %xmm5, %rax vmovd %xmm5, %rcx vmovsd 33024(%rbx,%rcx,8), %xmm5 vmovhpd 33024(%rbx,%rax,8), %xmm5, %xmm5 vinsertf128 $1, %xmm2, %ymm5, %ymm2 vmovapd %ymm2, 32864(%rbx) vmovapd 32992(%rbx), %ymm2 vinsertf128 $1, %xmm7, %ymm2, %ymm2 vmovapd %ymm2, 32992(%rbx) vmovapd 32448(%rbx), %ymm2 vinsertf128 $1, %xmm0, %ymm2, %ymm0 vmovapd %ymm0, 31360(%rbx) vmovapd 32736(%rbx), %ymm0 vinsertf128 $1, %xmm3, %ymm0, %ymm0 vmovapd %ymm0, 32736(%rbx) vmovapd 32928(%rbx), %ymm0 vinsertf128 $1, %xmm4, %ymm0, %ymm0 vmovapd %ymm0, 32928(%rbx) vmovapd 32832(%rbx), %ymm0 vinsertf128 $1, %xmm1, %ymm0, %ymm0 vmovapd %ymm0, 31328(%rbx) vmovapd 32512(%rbx), %ymm0 vinsertf128 $1, %xmm6, %ymm0, %ymm0 vmovapd %ymm0, 24864(%rbx) vmovapd 32896(%rbx), %ymm0 vinsertf128 $1, %xmm10, %ymm0, %ymm0 vmovapd %ymm0, 26848(%rbx) vmovapd 32960(%rbx), %ymm0 vinsertf128 $1, %xmm13, %ymm0, %ymm0 vmovapd %ymm0, 24832(%rbx) vmovapd 32640(%rbx), %ymm0 vinsertf128 $1, %xmm12, %ymm0, %ymm0 vmovapd %ymm0, 24800(%rbx) vmovapd 32480(%rbx), %ymm0 vinsertf128 $1, %xmm15, %ymm0, %ymm0 vmovapd %ymm0, 26880(%rbx) vmovaps 32800(%rbx), %ymm0 vinsertf128 $1, 32064(%rbx), %ymm0, %ymm0 vmovaps %ymm0, 26752(%rbx) movq 31456(%rbx), %rax vcvtsi2sdl 104(%r11,%rax), %xmm0, %xmm0 vmovsd %xmm0, 24896(%rbx) movabsq $-4616189618054758400, %r10 movq %r10, (%rdx) movq %r10, (%r9) movq %r10, (%r8) movq 32576(%rbx), %rax movq %r10, (%rax) movq 25760(%rbx), %rax movq %r10, (%rax) movq 32704(%rbx), %rax movq %r10, (%rax) movq 25728(%rbx), %rax movq %r10, (%rax) movq 25696(%rbx), %rax movq %r10, (%rax) vxorps %xmm0, %xmm0, %xmm0 vmovups %xmm0, 16(%rsi) vmovups %xmm0, (%rsi) vmovups %xmm0, 16(%r14) vmovups %xmm0, (%r14) movq 25216(%rbx), %rax vmovups %xmm0, 16(%rax) vmovups %xmm0, (%rax) movq 25184(%rbx), %rax vmovups %xmm0, 16(%rax) vmovups %xmm0, (%rax) movq 25152(%rbx), %rax vmovups %xmm0, 16(%rax) vmovups %xmm0, (%rax) movq 25136(%rbx), %rax vmovups %xmm0, 16(%rax) vmovups %xmm0, (%rax) movq 25120(%rbx), %rax vmovups %xmm0, 16(%rax) vmovups %xmm0, (%rax) movq 25088(%rbx), %rax vmovups %xmm0, 16(%rax) vmovups %xmm0, (%rax) movabsq $4607182418800017408, %rcx movq 25792(%rbx), %r8 movq %rcx, (%r8) movq 25856(%rbx), %rdx movq %rcx, (%rdx) movq 25824(%rbx), %rsi movq %rcx, (%rsi) movq 25888(%rbx), %r14 movq %rcx, (%r14) movq 25920(%rbx), %rax movq %rcx, (%rax) movq 25984(%rbx), %rax movq %rcx, (%rax) movq 25952(%rbx), %rax movq %rcx, (%rax) movq 26016(%rbx), %rax movq %rcx, (%rax) vmovups %xmm0, 16(%r13) vmovups %xmm0, (%r13) vmovups %xmm0, 16(%r12) vmovups %xmm0, (%r12) vmovups %xmm0, 16(%r15) vmovups %xmm0, (%r15) movq 25392(%rbx), %rax vmovups %xmm0, 16(%rax) vmovups %xmm0, (%rax) movq 25344(%rbx), %rax vmovups %xmm0, 16(%rax) vmovups %xmm0, (%rax) movq 25312(%rbx), %rax vmovups %xmm0, 16(%rax) vmovups %xmm0, (%rax) movq 25280(%rbx), %rax vmovups %xmm0, 16(%rax) vmovups %xmm0, (%rax) movq 25248(%rbx), %rax vmovups %xmm0, 16(%rax) vmovups %xmm0, (%rax) movq 31552(%rbx), %r9 movq %rcx, (%r9) movq 31584(%rbx), %r15 movq %rcx, (%r15) movq 31616(%rbx), %r12 movq %rcx, (%r12) movq 31648(%rbx), %r13 movq %rcx, (%r13) movq 31904(%rbx), %rax movq %rcx, (%rax) movq 31936(%rbx), %rax movq %rcx, (%rax) movq 31680(%rbx), %rax movq %rcx, (%rax) movq 31968(%rbx), %rdi movq %rcx, (%rdi) movq 25536(%rbx), %rdi vmovups %xmm0, 16(%rdi) vmovups %xmm0, (%rdi) movq 25504(%rbx), %rdi vmovups %xmm0, 16(%rdi) vmovups %xmm0, (%rdi) movq 25472(%rbx), %rdi vmovups %xmm0, 16(%rdi) vmovups %xmm0, (%rdi) movq 25456(%rbx), %rdi vmovups %xmm0, 16(%rdi) vmovups %xmm0, (%rdi) movq 25440(%rbx), %rdi vmovups %xmm0, 16(%rdi) vmovups %xmm0, (%rdi) movq 25408(%rbx), %rdi vmovups %xmm0, 16(%rdi) vmovups %xmm0, (%rdi) movq 32128(%rbx), %rdi vmovups %xmm0, 16(%rdi) vmovups %xmm0, (%rdi) movq 32672(%rbx), %rdi vmovups %xmm0, 16(%rdi) vmovups %xmm0, (%rdi) movq 31264(%rbx), %rdi movq %rcx, (%rdi) movq 31296(%rbx), %rdi movq %rcx, (%rdi) movq 31200(%rbx), %rdi movq %rcx, (%rdi) movq 31232(%rbx), %rdi movq %rcx, (%rdi) movq 32000(%rbx), %rdi movq %rcx, (%rdi) movq 32032(%rbx), %rdi movq %rcx, (%rdi) movq 31168(%rbx), %rdi movq %rcx, (%rdi) movq 31072(%rbx), %rdi movq %rcx, (%rdi) movq 30720(%rbx), %rcx movq %r10, (%rcx) movq 30752(%rbx), %rcx movq %r10, (%rcx) movq 30656(%rbx), %rcx movq %r10, (%rcx) movq 30688(%rbx), %rcx movq %r10, (%rcx) movq 30848(%rbx), %rcx movq %r10, (%rcx) movq 31008(%rbx), %rcx movq %r10, (%rcx) movq 30816(%rbx), %rcx movq %r10, (%rcx) movq 30976(%rbx), %rcx movq %r10, (%rcx) movabsq $-9223372036854775808, %r10 movq 30592(%rbx), %rcx movq %r10, (%rcx) movq 30624(%rbx), %rcx movq %r10, (%rcx) movq 30528(%rbx), %rcx movq %r10, (%rcx) movq 30560(%rbx), %rcx movq %r10, (%rcx) movq 30784(%rbx), %rcx movq %r10, (%rcx) movq 30944(%rbx), %rcx movq %r10, (%rcx) movq 30880(%rbx), %rcx movq %r10, (%rcx) movq 30912(%rbx), %rcx movq %r10, (%rcx) movq 30368(%rbx), %rcx movq %r10, (%rcx) movq 30336(%rbx), %rcx movq %r10, (%rcx) movq 30304(%rbx), %rcx movq %r10, (%rcx) movq 30272(%rbx), %rcx movq %r10, (%rcx) movq 30496(%rbx), %rcx movq %r10, (%rcx) movq 30464(%rbx), %rcx movq %r10, (%rcx) movq 30432(%rbx), %rcx movq %r10, (%rcx) movq 30400(%rbx), %rcx movq %r10, (%rcx) vmovsd (%r12), %xmm0 vmovhpd (%r13), %xmm0, %xmm0 vmovsd (%r9), %xmm1 vmovhpd (%r15), %xmm1, %xmm1 vinsertf128 $1, %xmm0, %ymm1, %ymm6 vmovapd %ymm6, 31520(%rbx) movq 24064(%rbx), %rcx vmovsd (%rcx), %xmm0 movq 24096(%rbx), %rcx vmovhpd (%rcx), %xmm0, %xmm0 movq 24128(%rbx), %rcx vmovsd (%rcx), %xmm1 movq 24160(%rbx), %rcx vmovhpd (%rcx), %xmm1, %xmm1 vinsertf128 $1, %xmm0, %ymm1, %ymm4 vmovapd %ymm4, 26656(%rbx) movq 23200(%rbx), %rcx vmovsd (%rcx), %xmm0 movq 23168(%rbx), %rcx vmovhpd (%rcx), %xmm0, %xmm0 movq 23264(%rbx), %rcx vmovsd (%rcx), %xmm1 movq 23232(%rbx), %rcx vmovhpd (%rcx), %xmm1, %xmm1 vinsertf128 $1, %xmm0, %ymm1, %ymm2 vmovapd %ymm2, 26720(%rbx) movq 31712(%rbx), %r13 vmovsd (%r13), %xmm0 movq 31776(%rbx), %r15 vmovhpd (%r15), %xmm0, %xmm0 movq 31040(%rbx), %r12 vmovsd (%r12), %xmm1 movq 31744(%rbx), %rcx vmovhpd (%rcx), %xmm1, %xmm1 vinsertf128 $1, %xmm0, %ymm1, %ymm3 vmovapd %ymm3, 32960(%rbx) vmovsd (%rsi), %xmm0 vmovhpd (%r14), %xmm0, %xmm0 vmovsd (%r8), %xmm1 vmovhpd (%rdx), %xmm1, %xmm1 vinsertf128 $1, %xmm0, %ymm1, %ymm5 vmovapd %ymm5, 26400(%rbx) movq 23872(%rbx), %rcx vmovsd (%rcx), %xmm0 movq 23840(%rbx), %rcx vmovhpd (%rcx), %xmm0, %xmm0 movq 31104(%rbx), %rcx vmovsd (%rcx), %xmm1 movq 23904(%rbx), %rcx vmovhpd (%rcx), %xmm1, %xmm1 vinsertf128 $1, %xmm0, %ymm1, %ymm1 vmovapd %ymm1, 32448(%rbx) vmulpd %ymm5, %ymm1, %ymm0 vmovapd %ymm5, %ymm10 vmovapd %ymm1, %ymm7 vmulpd %ymm3, %ymm0, %ymm0 vmovapd %ymm3, %ymm11 vmulpd %ymm4, %ymm2, %ymm1 vmovapd %ymm1, 32800(%rbx) vmovapd %ymm4, %ymm9 vmovapd %ymm2, %ymm4 vmulpd %ymm6, %ymm1, %ymm1 vmovapd %ymm6, %ymm8 vaddpd %ymm0, %ymm1, %ymm0 movq 13856(%rbx), %rcx vmovsd (%rcx), %xmm1 movq 13888(%rbx), %rcx vmovhpd (%rcx), %xmm1, %xmm1 movq 16640(%rbx), %rcx vmovsd (%rcx), %xmm2 movq 13920(%rbx), %rcx vmovhpd (%rcx), %xmm2, %xmm2 vinsertf128 $1, %xmm1, %ymm2, %ymm3 vmovapd %ymm3, 32640(%rbx) movq 31808(%rbx), %rcx vmovsd (%rcx), %xmm1 movq 31872(%rbx), %rcx vmovhpd (%rcx), %xmm1, %xmm1 movq 31136(%rbx), %rcx vmovsd (%rcx), %xmm2 movq 31840(%rbx), %rcx vmovhpd (%rcx), %xmm2, %xmm2 vinsertf128 $1, %xmm1, %ymm2, %ymm5 vmovapd %ymm5, 26784(%rbx) movq 22944(%rbx), %rcx vmovsd (%rcx), %xmm1 movq 22912(%rbx), %rcx vmovhpd (%rcx), %xmm1, %xmm1 movq 23072(%rbx), %rcx vmovsd (%rcx), %xmm2 movq 23040(%rbx), %rcx vmovhpd (%rcx), %xmm2, %xmm2 vinsertf128 $1, %xmm1, %ymm2, %ymm1 vmovapd %ymm1, 32480(%rbx) vmulpd %ymm5, %ymm1, %ymm2 vmovapd %ymm2, 26688(%rbx) vmovapd %ymm1, %ymm14 vmulpd %ymm3, %ymm2, %ymm1 vaddpd %ymm1, %ymm0, %ymm0 vmulpd %ymm5, %ymm4, %ymm1 vmulpd %ymm1, %ymm11, %ymm1 vsubpd %ymm1, %ymm0, %ymm0 vmulpd %ymm7, %ymm9, %ymm1 vmovapd %ymm1, 32896(%rbx) vmovapd %ymm7, %ymm11 vmulpd %ymm3, %ymm1, %ymm1 vsubpd %ymm1, %ymm0, %ymm0 vmovsd (%rax), %xmm1 movq 31968(%rbx), %rax vmovhpd (%rax), %xmm1, %xmm1 movq 31904(%rbx), %rax vmovsd (%rax), %xmm2 movq 31936(%rbx), %rax vmovhpd (%rax), %xmm2, %xmm2 vinsertf128 $1, %xmm1, %ymm2, %ymm5 vmovapd %ymm5, 24704(%rbx) movq 24192(%rbx), %rax vmovsd (%rax), %xmm1 movq 24224(%rbx), %rax vmovhpd (%rax), %xmm1, %xmm1 movq 24256(%rbx), %rax vmovsd (%rax), %xmm2 movq 24288(%rbx), %rax vmovhpd (%rax), %xmm2, %xmm2 vinsertf128 $1, %xmm1, %ymm2, %ymm6 vmovapd %ymm6, 26464(%rbx) movq 23488(%rbx), %rax vmovsd (%rax), %xmm1 movq 23456(%rbx), %rax vmovhpd (%rax), %xmm1, %xmm1 movq 23328(%rbx), %rax vmovsd (%rax), %xmm2 movq 23296(%rbx), %rax vmovhpd (%rax), %xmm2, %xmm2 vinsertf128 $1, %xmm1, %ymm2, %ymm4 vmovapd %ymm4, 26592(%rbx) movq 32192(%rbx), %rcx vmovsd (%rcx), %xmm1 movq 32224(%rbx), %rax vmovhpd (%rax), %xmm1, %xmm1 movq 32160(%rbx), %r8 vmovsd (%r8), %xmm2 movq 32544(%rbx), %rdx vmovhpd (%rdx), %xmm2, %xmm2 vinsertf128 $1, %xmm1, %ymm2, %ymm7 vmovapd %ymm7, 24736(%rbx) movq 25952(%rbx), %rdx vmovsd (%rdx), %xmm1 movq 26016(%rbx), %rdx vmovhpd (%rdx), %xmm1, %xmm1 movq 25920(%rbx), %rdx vmovsd (%rdx), %xmm2 movq 25984(%rbx), %rdx vmovhpd (%rdx), %xmm2, %xmm2 vinsertf128 $1, %xmm1, %ymm2, %ymm12 vmovapd %ymm12, 26368(%rbx) movq 23968(%rbx), %rdx vmovsd (%rdx), %xmm1 movq 23936(%rbx), %rsi vmovhpd (%rsi), %xmm1, %xmm1 movq 24032(%rbx), %rdx vmovsd (%rdx), %xmm2 movq 24000(%rbx), %rdx vmovhpd (%rdx), %xmm2, %xmm2 vinsertf128 $1, %xmm1, %ymm2, %ymm9 vmovapd %ymm9, 24640(%rbx) vmulpd %ymm14, %ymm10, %ymm1 vmovapd %ymm1, 26624(%rbx) vmulpd %ymm1, %ymm8, %ymm1 vsubpd %ymm1, %ymm0, %ymm3 vmulpd %ymm12, %ymm9, %ymm0 vmovapd %ymm12, %ymm15 vmulpd %ymm7, %ymm0, %ymm0 vmovapd %ymm7, %ymm13 vmulpd %ymm6, %ymm4, %ymm1 vmovapd %ymm1, 26432(%rbx) vmovapd %ymm6, %ymm7 vmovapd %ymm4, %ymm6 vmulpd %ymm5, %ymm1, %ymm1 vmovapd %ymm5, %ymm10 vaddpd %ymm0, %ymm1, %ymm4 movq 24320(%rbx), %rdx vmovsd (%rdx), %xmm0 movq 13952(%rbx), %rdx vmovhpd (%rdx), %xmm0, %xmm0 movq 13984(%rbx), %rdx vmovsd (%rdx), %xmm1 movq 14016(%rbx), %rdx vmovhpd (%rdx), %xmm1, %xmm1 vinsertf128 $1, %xmm0, %ymm1, %ymm5 vmovapd %ymm5, 26816(%rbx) movq 32352(%rbx), %rdx vmovsd (%rdx), %xmm0 movq 32384(%rbx), %rdx vmovhpd (%rdx), %xmm0, %xmm0 movq 32288(%rbx), %rdx vmovsd (%rdx), %xmm1 movq 32320(%rbx), %rdx vmovhpd (%rdx), %xmm1, %xmm1 vinsertf128 $1, %xmm0, %ymm1, %ymm2 vmovapd %ymm2, 26336(%rbx) movq 23616(%rbx), %rdx vmovsd (%rdx), %xmm0 movq 23584(%rbx), %rdx vmovhpd (%rdx), %xmm0, %xmm0 movq 23424(%rbx), %rdx vmovsd (%rdx), %xmm1 movq 32256(%rbx), %rdx vmovhpd (%rdx), %xmm1, %xmm1 vinsertf128 $1, %xmm0, %ymm1, %ymm1 vmovapd %ymm1, 26304(%rbx) vmulpd %ymm2, %ymm1, %ymm0 vmovapd %ymm2, %ymm8 vmovapd %ymm1, %ymm12 vmovapd %ymm0, 26528(%rbx) vmulpd %ymm5, %ymm0, %ymm0 vaddpd %ymm0, %ymm4, %ymm1 vmovapd .LCPI1_22(%rip), %ymm0 vmovapd %ymm0, %ymm2 vmulpd %ymm2, %ymm3, %ymm0 vmovapd %ymm2, %ymm3 movq 28160(%rbx), %r9 vmovlpd %xmm0, (%r9) movq 30112(%rbx), %rdx vmovhpd %xmm0, (%rdx) vmulpd %ymm8, %ymm6, %ymm2 vmulpd %ymm2, %ymm13, %ymm2 vsubpd %ymm2, %ymm1, %ymm1 vmulpd %ymm9, %ymm7, %ymm2 vmovapd %ymm2, 32832(%rbx) vmovapd %ymm9, %ymm4 vmulpd %ymm5, %ymm2, %ymm2 vsubpd %ymm2, %ymm1, %ymm1 vextractf128 $1, %ymm0, %xmm0 movq 30080(%rbx), %rdx vmovlpd %xmm0, (%rdx) movq 30048(%rbx), %rdx vmovhpd %xmm0, (%rdx) vmulpd %ymm12, %ymm15, %ymm0 vmovapd %ymm0, 26496(%rbx) vmulpd %ymm0, %ymm10, %ymm0 vmovapd %ymm10, %ymm5 vsubpd %ymm0, %ymm1, %ymm0 vmulpd %ymm3, %ymm0, %ymm0 movq 30240(%rbx), %rdx vmovlpd %xmm0, (%rdx) movq 30208(%rbx), %rdx vmovhpd %xmm0, (%rdx) vextractf128 $1, %ymm0, %xmm0 movq 30176(%rbx), %rdx vmovlpd %xmm0, (%rdx) movq 30144(%rbx), %rdx vmovhpd %xmm0, (%rdx) movq 29312(%rbx), %rdx movq %r10, (%rdx) movq 29280(%rbx), %rdx movq %r10, (%rdx) movq 29120(%rbx), %rdx movq %r10, (%rdx) movq 29088(%rbx), %rdx movq %r10, (%rdx) movq 29952(%rbx), %rdx movq %r10, (%rdx) movq 29920(%rbx), %rdx movq %r10, (%rdx) movq 29760(%rbx), %rdx movq %r10, (%rdx) movq 29728(%rbx), %rdx movq %r10, (%rdx) movq 31200(%rbx), %rdx vmovsd (%rdx), %xmm0 movq 31232(%rbx), %rdx vmovhpd (%rdx), %xmm0, %xmm0 movq 31264(%rbx), %rdx vmovsd (%rdx), %xmm1 movq 31296(%rbx), %rdx vmovhpd (%rdx), %xmm1, %xmm1 vinsertf128 $1, %xmm0, %ymm1, %ymm2 vmovapd %ymm2, 31392(%rbx) movq 25568(%rbx), %rdx vmovsd (%rdx), %xmm0 movq 32576(%rbx), %rdx vmovhpd (%rdx), %xmm0, %xmm0 movq 25632(%rbx), %rdx vmovsd (%rdx), %xmm1 movq 25600(%rbx), %rdx vmovhpd (%rdx), %xmm1, %xmm1 vinsertf128 $1, %xmm0, %ymm1, %ymm14 vmovapd %ymm14, 32512(%rbx) movq 22496(%rbx), %rdx vmovsd (%rdx), %xmm0 movq 22464(%rbx), %rdx vmovhpd (%rdx), %xmm0, %xmm0 movq 32096(%rbx), %rdx vmovsd (%rdx), %xmm1 movq 22592(%rbx), %rdx vmovhpd (%rdx), %xmm1, %xmm1 vinsertf128 $1, %xmm0, %ymm1, %ymm1 vmovapd %ymm1, 31424(%rbx) vmulpd 32960(%rbx), %ymm11, %ymm0 vmulpd %ymm1, %ymm0, %ymm0 vmovapd 31520(%rbx), %ymm7 vmulpd %ymm7, %ymm14, %ymm1 vmulpd %ymm2, %ymm1, %ymm1 vaddpd %ymm0, %ymm1, %ymm3 movq 31168(%rbx), %rdx vmovsd (%rdx), %xmm0 movq %rdi, %rdx vmovhpd (%rdx), %xmm0, %xmm0 movq 32000(%rbx), %rdx vmovsd (%rdx), %xmm1 movq 32032(%rbx), %rdx vmovhpd (%rdx), %xmm1, %xmm1 vinsertf128 $1, %xmm0, %ymm1, %ymm12 vmovapd %ymm12, 24608(%rbx) movq 25728(%rbx), %rdx vmovsd (%rdx), %xmm0 movq 25696(%rbx), %rdx vmovhpd (%rdx), %xmm0, %xmm0 movq 25760(%rbx), %rdx vmovsd (%rdx), %xmm1 movq 32704(%rbx), %rdx vmovhpd (%rdx), %xmm1, %xmm1 vinsertf128 $1, %xmm0, %ymm1, %ymm11 vmovapd %ymm11, 26560(%rbx) movq 22560(%rbx), %rdx vmovsd (%rdx), %xmm0 movq 22528(%rbx), %rsi vmovhpd (%rsi), %xmm0, %xmm0 movq 25664(%rbx), %rdx vmovsd (%rdx), %xmm1 movq 32416(%rbx), %rdx vmovhpd (%rdx), %xmm1, %xmm1 vinsertf128 $1, %xmm0, %ymm1, %ymm8 vmovapd %ymm8, 26912(%rbx) movq 22688(%rbx), %rdx vmovsd (%rdx), %xmm0 movq 22720(%rbx), %rdx vmovhpd (%rdx), %xmm0, %xmm0 movq 16608(%rbx), %rdx vmovsd (%rdx), %xmm1 movq 22752(%rbx), %rdx vmovhpd (%rdx), %xmm1, %xmm1 vinsertf128 $1, %xmm0, %ymm1, %ymm2 vmovapd %ymm2, 24768(%rbx) movq 23680(%rbx), %rdx vmovsd (%rdx), %xmm0 movq 23648(%rbx), %rdx vmovhpd (%rdx), %xmm0, %xmm0 movq 22880(%rbx), %r14 vmovsd (%r14), %xmm1 movq 23744(%rbx), %rdx vmovhpd (%rdx), %xmm1, %xmm1 vinsertf128 $1, %xmm0, %ymm1, %ymm1 vmovapd %ymm1, 31488(%rbx) vmovapd 32480(%rbx), %ymm6 vmulpd %ymm1, %ymm6, %ymm0 vmovapd %ymm1, %ymm15 vmulpd %ymm2, %ymm0, %ymm0 vmovapd %ymm2, %ymm10 vaddpd %ymm0, %ymm3, %ymm3 vmovapd %ymm4, %ymm9 vmulpd %ymm13, %ymm9, %ymm0 vmulpd %ymm8, %ymm0, %ymm0 vmulpd %ymm5, %ymm11, %ymm1 vmulpd %ymm12, %ymm1, %ymm1 vaddpd %ymm0, %ymm1, %ymm1 movq 22784(%rbx), %rdx vmovsd (%rdx), %xmm0 movq 22816(%rbx), %rdx vmovhpd (%rdx), %xmm0, %xmm0 movq 22624(%rbx), %rdx vmovsd (%rdx), %xmm5 movq 22656(%rbx), %rdx vmovhpd (%rdx), %xmm5, %xmm5 vinsertf128 $1, %xmm0, %ymm5, %ymm8 vmovapd %ymm8, 26272(%rbx) movq 23712(%rbx), %rdx vmovsd (%rdx), %xmm0 movq 22848(%rbx), %rdx vmovhpd (%rdx), %xmm0, %xmm0 movq 23808(%rbx), %rsi vmovsd (%rsi), %xmm2 movq 23776(%rbx), %rsi vmovhpd (%rsi), %xmm2, %xmm2 vinsertf128 $1, %xmm0, %ymm2, %ymm4 vmovapd %ymm4, 32064(%rbx) vmovapd 26304(%rbx), %ymm5 vmulpd %ymm4, %ymm5, %ymm0 vmovapd %ymm8, %ymm2 vmulpd %ymm2, %ymm0, %ymm0 vaddpd %ymm0, %ymm1, %ymm0 vmovapd %ymm11, %ymm8 vmulpd %ymm13, %ymm8, %ymm1 vmulpd %ymm2, %ymm1, %ymm1 vsubpd %ymm1, %ymm0, %ymm1 vmovapd %ymm14, %ymm11 vmovapd 32960(%rbx), %ymm14 vmulpd %ymm14, %ymm11, %ymm0 vmulpd %ymm10, %ymm0, %ymm0 vsubpd %ymm0, %ymm3, %ymm0 vmovapd %ymm15, %ymm3 vmovapd 32448(%rbx), %ymm2 vmulpd %ymm3, %ymm2, %ymm2 vmovapd 31392(%rbx), %ymm15 vmulpd %ymm2, %ymm15, %ymm2 vsubpd %ymm2, %ymm0, %ymm0 vmulpd %ymm6, %ymm7, %ymm2 vmovapd 31424(%rbx), %ymm6 vmulpd %ymm2, %ymm6, %ymm2 vsubpd %ymm2, %ymm0, %ymm10 vmulpd %ymm4, %ymm9, %ymm0 vmulpd %ymm0, %ymm12, %ymm0 vsubpd %ymm0, %ymm1, %ymm1 vmulpd 26336(%rbx), %ymm8, %ymm2 vmovapd %ymm2, 26336(%rbx) vmovapd 32832(%rbx), %ymm0 vmulpd %ymm4, %ymm0, %ymm0 vmulpd %ymm13, %ymm2, %ymm2 vaddpd %ymm0, %ymm2, %ymm4 vmulpd 26784(%rbx), %ymm11, %ymm2 vmovapd %ymm2, 24672(%rbx) vmovapd 32896(%rbx), %ymm0 vmulpd %ymm3, %ymm0, %ymm0 vmulpd %ymm14, %ymm2, %ymm2 vaddpd %ymm0, %ymm2, %ymm13 vmovapd 32800(%rbx), %ymm0 vmulpd %ymm6, %ymm0, %ymm0 vmulpd 26400(%rbx), %ymm11, %ymm2 vmulpd %ymm15, %ymm2, %ymm2 vaddpd %ymm0, %ymm2, %ymm0 vmovapd %ymm0, 26400(%rbx) vmovapd 26432(%rbx), %ymm0 vmovapd 26912(%rbx), %ymm3 vmulpd %ymm3, %ymm0, %ymm0 vmulpd 26368(%rbx), %ymm8, %ymm2 vmovapd %ymm8, %ymm14 vmulpd %ymm12, %ymm2, %ymm2 vaddpd %ymm0, %ymm2, %ymm0 vmovapd %ymm0, 26432(%rbx) vmovapd .LCPI1_22(%rip), %ymm2 vmulpd %ymm2, %ymm10, %ymm0 movq 29184(%rbx), %rsi vmovlpd %xmm0, (%rsi) movq 29152(%rbx), %rsi vmovhpd %xmm0, (%rsi) vextractf128 $1, %ymm0, %xmm0 movq 29056(%rbx), %rsi vmovlpd %xmm0, (%rsi) movq 29024(%rbx), %rsi vmovhpd %xmm0, (%rsi) vmovapd 24704(%rbx), %ymm7 vmovapd %ymm5, %ymm9 vmulpd %ymm9, %ymm7, %ymm0 vmulpd %ymm0, %ymm3, %ymm0 vsubpd %ymm0, %ymm1, %ymm0 vmulpd %ymm2, %ymm0, %ymm0 movq 29824(%rbx), %rsi vmovlpd %xmm0, (%rsi) movq 29792(%rbx), %rsi vmovhpd %xmm0, (%rsi) vextractf128 $1, %ymm0, %xmm0 movq 29696(%rbx), %rsi vmovlpd %xmm0, (%rsi) movq 29664(%rbx), %rsi vmovhpd %xmm0, (%rsi) movq 23008(%rbx), %rsi vmovsd (%rsi), %xmm0 movq 22976(%rbx), %rsi vmovhpd (%rsi), %xmm0, %xmm0 movq 23136(%rbx), %rsi vmovsd (%rsi), %xmm1 movq 23104(%rbx), %rsi vmovhpd (%rsi), %xmm1, %xmm1 vinsertf128 $1, %xmm0, %ymm1, %ymm2 vmovapd %ymm2, 32800(%rbx) movq 23392(%rbx), %rsi vmovsd (%rsi), %xmm0 movq 23360(%rbx), %rsi vmovhpd (%rsi), %xmm0, %xmm0 movq 23552(%rbx), %rsi vmovsd (%rsi), %xmm1 movq 23520(%rbx), %rsi vmovhpd (%rsi), %xmm1, %xmm1 vinsertf128 $1, %xmm0, %ymm1, %ymm8 vmovapd %ymm8, 26784(%rbx) vmulpd 26656(%rbx), %ymm11, %ymm3 vmovapd %ymm3, 26368(%rbx) vmovapd 32448(%rbx), %ymm0 vmulpd %ymm2, %ymm0, %ymm5 vmovapd %ymm5, 32448(%rbx) vmovapd 24768(%rbx), %ymm1 vmulpd %ymm1, %ymm3, %ymm0 vmovapd %ymm3, %ymm6 vmulpd %ymm15, %ymm5, %ymm3 vaddpd %ymm3, %ymm0, %ymm0 vmovapd %ymm0, 26656(%rbx) vmulpd 32480(%rbx), %ymm2, %ymm3 vmovapd 31520(%rbx), %ymm2 vmulpd %ymm2, %ymm3, %ymm0 vmovapd %ymm3, %ymm15 vaddpd %ymm0, %ymm13, %ymm11 vmulpd %ymm9, %ymm8, %ymm5 vmulpd %ymm7, %ymm5, %ymm3 vmovapd %ymm5, %ymm0 vmovapd %ymm7, %ymm13 vaddpd %ymm3, %ymm4, %ymm3 vmulpd 26464(%rbx), %ymm14, %ymm5 vmovapd %ymm5, 32480(%rbx) vmovapd 24640(%rbx), %ymm4 vmulpd %ymm8, %ymm4, %ymm7 vmovapd %ymm8, %ymm10 vmovapd 26272(%rbx), %ymm12 vmulpd %ymm12, %ymm5, %ymm8 vmovapd 24608(%rbx), %ymm4 vmulpd %ymm4, %ymm7, %ymm14 vaddpd %ymm14, %ymm8, %ymm8 vmulpd %ymm13, %ymm5, %ymm14 vsubpd %ymm14, %ymm3, %ymm3 vmulpd %ymm2, %ymm6, %ymm14 vsubpd %ymm14, %ymm11, %ymm6 vmovapd 32896(%rbx), %ymm2 vmovapd 31424(%rbx), %ymm5 vmulpd %ymm5, %ymm2, %ymm14 vmulpd 26624(%rbx), %ymm5, %ymm2 vmovapd %ymm2, 32896(%rbx) vmovapd 26688(%rbx), %ymm2 vmulpd %ymm5, %ymm2, %ymm9 vmovapd 26656(%rbx), %ymm5 vaddpd %ymm9, %ymm5, %ymm9 vmovapd 31392(%rbx), %ymm13 vmulpd 24672(%rbx), %ymm13, %ymm11 vsubpd %ymm11, %ymm9, %ymm9 vsubpd %ymm14, %ymm9, %ymm11 vmovapd 24736(%rbx), %ymm5 vmulpd %ymm7, %ymm5, %ymm9 vmovapd 32960(%rbx), %ymm5 vmulpd 32448(%rbx), %ymm5, %ymm7 vmulpd %ymm15, %ymm1, %ymm1 vsubpd %ymm1, %ymm11, %ymm1 vsubpd %ymm7, %ymm6, %ymm7 vsubpd %ymm9, %ymm3, %ymm11 vmovapd 32832(%rbx), %ymm3 vmovapd 26912(%rbx), %ymm5 vmulpd %ymm5, %ymm3, %ymm3 vmulpd 26496(%rbx), %ymm5, %ymm6 vmovapd %ymm6, 32960(%rbx) vmovapd 26528(%rbx), %ymm9 vmulpd %ymm5, %ymm9, %ymm6 vaddpd %ymm6, %ymm8, %ymm6 vmovapd %ymm4, %ymm14 vmulpd 26336(%rbx), %ymm14, %ymm8 vsubpd %ymm8, %ymm6, %ymm6 vsubpd %ymm3, %ymm6, %ymm3 vmulpd %ymm0, %ymm12, %ymm5 vmovapd %ymm0, %ymm12 vsubpd %ymm5, %ymm3, %ymm5 vmovapd 32064(%rbx), %ymm3 vmulpd %ymm9, %ymm3, %ymm3 vsubpd %ymm3, %ymm11, %ymm6 vmovapd 31488(%rbx), %ymm0 vmulpd %ymm2, %ymm0, %ymm0 vsubpd %ymm0, %ymm7, %ymm0 vmovapd 26720(%rbx), %ymm2 vmovapd 32800(%rbx), %ymm4 vmulpd %ymm4, %ymm2, %ymm3 vmovapd %ymm4, %ymm11 vmulpd %ymm3, %ymm13, %ymm7 vmovapd 26592(%rbx), %ymm2 vmulpd %ymm10, %ymm2, %ymm3 vmulpd %ymm3, %ymm14, %ymm3 vmovapd .LCPI1_22(%rip), %ymm4 vmulpd %ymm4, %ymm1, %ymm8 movq 29440(%rbx), %rsi vmovlpd %xmm8, (%rsi) movq 29408(%rbx), %rsi vmovhpd %xmm8, (%rsi) vextractf128 $1, %ymm8, %xmm1 movq 29248(%rbx), %rsi vmovlpd %xmm1, (%rsi) movq 29216(%rbx), %rsi vmovhpd %xmm1, (%rsi) vmulpd %ymm4, %ymm0, %ymm2 vmovapd %ymm2, 26624(%rbx) vmulpd %ymm4, %ymm6, %ymm0 vmovapd %ymm0, 31424(%rbx) vmulpd %ymm4, %ymm5, %ymm9 vmovapd %ymm4, %ymm13 movq 30016(%rbx), %rsi vmovlpd %xmm9, (%rsi) vextractf128 $1, %ymm0, %xmm4 vmovapd %xmm4, 26656(%rbx) vextractf128 $1, %ymm2, %xmm5 vmovapd %xmm5, 26592(%rbx) movq 29984(%rbx), %rsi vmovhpd %xmm9, (%rsi) vextractf128 $1, %ymm9, %xmm6 movq 29888(%rbx), %rsi vmovlpd %xmm6, (%rsi) movq 29856(%rbx), %rsi vmovhpd %xmm6, (%rsi) movq 28288(%rbx), %rsi vmovlpd %xmm2, (%rsi) movq 28256(%rbx), %rsi vmovhpd %xmm2, (%rsi) movq 28128(%rbx), %rsi vmovlpd %xmm5, (%rsi) movq 28096(%rbx), %rsi vmovhpd %xmm5, (%rsi) movq 29568(%rbx), %rsi vmovlpd %xmm0, (%rsi) movq 29536(%rbx), %rsi vmovhpd %xmm0, (%rsi) movq 29376(%rbx), %rsi vmovlpd %xmm4, (%rsi) movq 29344(%rbx), %rsi vmovhpd %xmm4, (%rsi) movq 28672(%rbx), %rsi movq %r10, (%rsi) movq 28640(%rbx), %rsi movq %r10, (%rsi) movq 28416(%rbx), %rsi movq %r10, (%rsi) movq 28384(%rbx), %rsi movq %r10, (%rsi) movq 28992(%rbx), %rsi movq %r10, (%rsi) movq 28960(%rbx), %rsi movq %r10, (%rsi) movq 28864(%rbx), %rsi movq %r10, (%rsi) movq 28832(%rbx), %rsi movq %r10, (%rsi) movq 28480(%rbx), %rsi vmovlpd %xmm8, (%rsi) movq 28448(%rbx), %rsi vmovhpd %xmm8, (%rsi) movq 28224(%rbx), %rsi vmovlpd %xmm1, (%rsi) movq 28192(%rbx), %rsi vmovhpd %xmm1, (%rsi) movq 29632(%rbx), %rsi vmovlpd %xmm9, (%rsi) movq 29600(%rbx), %rsi vmovhpd %xmm9, (%rsi) movq 29504(%rbx), %rsi vmovlpd %xmm6, (%rsi) movq 29472(%rbx), %rsi vmovhpd %xmm6, (%rsi) movq 14048(%rbx), %rsi vmovsd (%rsi), %xmm0 movq 14080(%rbx), %rsi vmovhpd (%rsi), %xmm0, %xmm0 movq 24352(%rbx), %rsi vmovsd (%rsi), %xmm1 movq 14112(%rbx), %rsi vmovhpd (%rsi), %xmm1, %xmm1 vinsertf128 $1, %xmm0, %ymm1, %ymm1 vmovapd %ymm1, 26272(%rbx) vmulpd %ymm1, %ymm15, %ymm0 vmovapd 26400(%rbx), %ymm2 vaddpd %ymm0, %ymm2, %ymm0 vmovapd 26368(%rbx), %ymm2 vmulpd %ymm1, %ymm2, %ymm1 vsubpd %ymm1, %ymm0, %ymm0 vsubpd %ymm7, %ymm0, %ymm0 movq 14144(%rbx), %rsi vmovsd (%rsi), %xmm1 movq 14176(%rbx), %rsi vmovhpd (%rsi), %xmm1, %xmm1 movq 14208(%rbx), %rsi vmovsd (%rsi), %xmm2 movq 14240(%rbx), %rsi vmovhpd (%rsi), %xmm2, %xmm2 vinsertf128 $1, %xmm1, %ymm2, %ymm2 vmovapd %ymm2, 24768(%rbx) vmulpd %ymm2, %ymm12, %ymm1 vmovapd 26432(%rbx), %ymm4 vaddpd %ymm1, %ymm4, %ymm1 vsubpd 32896(%rbx), %ymm0, %ymm0 vmulpd %ymm13, %ymm0, %ymm0 movq 27808(%rbx), %rsi vmovlpd %xmm0, (%rsi) movq 27776(%rbx), %rsi vmovhpd %xmm0, (%rsi) vmovapd 32480(%rbx), %ymm4 vmulpd %ymm2, %ymm4, %ymm2 vsubpd %ymm2, %ymm1, %ymm1 vsubpd %ymm3, %ymm1, %ymm1 vextractf128 $1, %ymm0, %xmm0 movq 27616(%rbx), %rsi vmovlpd %xmm0, (%rsi) movq 27584(%rbx), %rsi vmovhpd %xmm0, (%rsi) vsubpd 32960(%rbx), %ymm1, %ymm0 vmulpd %ymm13, %ymm0, %ymm0 movq 28928(%rbx), %rsi vmovlpd %xmm0, (%rsi) movq 28896(%rbx), %rsi vmovhpd %xmm0, (%rsi) vextractf128 $1, %ymm0, %xmm0 movq 28736(%rbx), %rsi vmovlpd %xmm0, (%rsi) movq 28704(%rbx), %rsi vmovhpd %xmm0, (%rsi) vmovsd (%r13), %xmm0 vmovhpd (%r15), %xmm0, %xmm0 vmovsd (%r12), %xmm1 movq 31744(%rbx), %rsi vmovhpd (%rsi), %xmm1, %xmm1 vinsertf128 $1, %xmm0, %ymm1, %ymm3 vmovapd %ymm3, 32832(%rbx) movq 23200(%rbx), %rsi vmovsd (%rsi), %xmm0 movq 23168(%rbx), %rsi vmovhpd (%rsi), %xmm0, %xmm0 movq 23264(%rbx), %rsi vmovsd (%rsi), %xmm1 movq 23232(%rbx), %rsi vmovhpd (%rsi), %xmm1, %xmm1 vinsertf128 $1, %xmm0, %ymm1, %ymm2 vmovapd %ymm2, 32448(%rbx) movq 24064(%rbx), %rsi vmovsd (%rsi), %xmm0 movq 24096(%rbx), %rsi vmovhpd (%rsi), %xmm0, %xmm0 movq 24128(%rbx), %rsi vmovsd (%rsi), %xmm1 movq 24160(%rbx), %rsi vmovhpd (%rsi), %xmm1, %xmm1 vinsertf128 $1, %xmm0, %ymm1, %ymm1 vmovapd %ymm1, 32960(%rbx) vmovapd 32512(%rbx), %ymm0 vmulpd %ymm1, %ymm0, %ymm0 vmulpd 32640(%rbx), %ymm0, %ymm0 vmulpd %ymm11, %ymm2, %ymm1 vmovapd %ymm1, 26528(%rbx) vmovapd %ymm2, %ymm4 vmulpd %ymm3, %ymm1, %ymm1 vaddpd %ymm1, %ymm0, %ymm0 vmovsd (%rcx), %xmm1 vmovhpd (%rax), %xmm1, %xmm1 vmovsd (%r8), %xmm2 movq 32544(%rbx), %rcx vmovhpd (%rcx), %xmm2, %xmm2 vinsertf128 $1, %xmm1, %ymm2, %ymm8 vmovapd %ymm8, 26912(%rbx) movq 23488(%rbx), %rdi vmovsd (%rdi), %xmm1 movq 23456(%rbx), %rdi vmovhpd (%rdi), %xmm1, %xmm1 movq 23328(%rbx), %rdi vmovsd (%rdi), %xmm2 movq 23296(%rbx), %rdi vmovhpd (%rdi), %xmm2, %xmm2 vinsertf128 $1, %xmm1, %ymm2, %ymm3 vmovapd %ymm3, 32480(%rbx) movq 24192(%rbx), %rdi vmovsd (%rdi), %xmm1 movq 24224(%rbx), %rdi vmovhpd (%rdi), %xmm1, %xmm1 movq 24256(%rbx), %rdi vmovsd (%rdi), %xmm2 movq 24288(%rbx), %rdi vmovhpd (%rdi), %xmm2, %xmm2 vinsertf128 $1, %xmm1, %ymm2, %ymm6 vmovapd %ymm6, 31520(%rbx) movq 25824(%rbx), %rax vmovsd (%rax), %xmm1 movq 25888(%rbx), %rax vmovhpd (%rax), %xmm1, %xmm1 movq 25792(%rbx), %rax vmovsd (%rax), %xmm2 movq 25856(%rbx), %rax vmovhpd (%rax), %xmm2, %xmm2 vinsertf128 $1, %xmm1, %ymm2, %ymm5 vmovapd %ymm5, 32896(%rbx) movq 22944(%rbx), %rsi vmovsd (%rsi), %xmm1 movq 22912(%rbx), %rdi vmovhpd (%rdi), %xmm1, %xmm1 movq 23072(%rbx), %rax vmovsd (%rax), %xmm2 movq 23040(%rbx), %rax vmovhpd (%rax), %xmm2, %xmm2 vinsertf128 $1, %xmm1, %ymm2, %ymm2 vmovapd %ymm2, 26720(%rbx) vmulpd %ymm5, %ymm2, %ymm1 vmovapd %ymm5, %ymm10 vmovapd %ymm2, %ymm5 vmovapd 31488(%rbx), %ymm15 vmulpd %ymm15, %ymm1, %ymm1 vaddpd %ymm1, %ymm0, %ymm1 vmovapd 26560(%rbx), %ymm7 vmulpd %ymm6, %ymm7, %ymm0 vmovapd %ymm6, %ymm9 vmovapd 26816(%rbx), %ymm11 vmulpd %ymm11, %ymm0, %ymm0 vmovapd 26784(%rbx), %ymm13 vmulpd %ymm13, %ymm3, %ymm2 vmovapd %ymm2, 26464(%rbx) vmovapd %ymm3, %ymm6 vmulpd %ymm8, %ymm2, %ymm2 vmovapd %ymm8, %ymm14 vaddpd %ymm2, %ymm0, %ymm2 movq 25952(%rbx), %rax vmovsd (%rax), %xmm0 movq 26016(%rbx), %rax vmovhpd (%rax), %xmm0, %xmm0 movq 25920(%rbx), %rax vmovsd (%rax), %xmm3 movq 25984(%rbx), %rdi vmovhpd (%rdi), %xmm3, %xmm3 vinsertf128 $1, %xmm0, %ymm3, %ymm8 vmovapd %ymm8, 31392(%rbx) movq 23616(%rbx), %rdi vmovsd (%rdi), %xmm0 movq 23584(%rbx), %rdi vmovhpd (%rdi), %xmm0, %xmm0 movq 23424(%rbx), %rdi vmovsd (%rdi), %xmm3 movq 32256(%rbx), %rdi vmovhpd (%rdi), %xmm3, %xmm3 vinsertf128 $1, %xmm0, %ymm3, %ymm3 vmovapd %ymm3, 26688(%rbx) vmulpd %ymm8, %ymm3, %ymm0 vmovapd 32064(%rbx), %ymm12 vmulpd %ymm12, %ymm0, %ymm0 vaddpd %ymm0, %ymm2, %ymm0 vmovapd 32512(%rbx), %ymm2 vmulpd %ymm10, %ymm2, %ymm2 vmovapd 32832(%rbx), %ymm10 vmulpd %ymm2, %ymm10, %ymm2 vsubpd %ymm2, %ymm1, %ymm1 vmovapd 32960(%rbx), %ymm2 vmulpd %ymm4, %ymm2, %ymm2 vmulpd %ymm15, %ymm2, %ymm2 vsubpd %ymm2, %ymm1, %ymm1 vmovapd 32800(%rbx), %ymm2 vmulpd %ymm5, %ymm2, %ymm2 vmovapd 32640(%rbx), %ymm4 vmulpd %ymm2, %ymm4, %ymm2 vsubpd %ymm2, %ymm1, %ymm1 vmulpd %ymm8, %ymm7, %ymm2 vmulpd %ymm2, %ymm14, %ymm2 vsubpd %ymm2, %ymm0, %ymm0 vmulpd %ymm6, %ymm9, %ymm2 vmulpd %ymm12, %ymm2, %ymm2 vsubpd %ymm2, %ymm0, %ymm0 vmulpd %ymm3, %ymm13, %ymm2 vmulpd %ymm2, %ymm11, %ymm2 vsubpd %ymm2, %ymm0, %ymm0 vmovapd .LCPI1_22(%rip), %ymm2 vmulpd %ymm2, %ymm1, %ymm1 movq 27104(%rbx), %rax vmovlpd %xmm1, (%rax) movq 27072(%rbx), %rsi vmovhpd %xmm1, (%rsi) vextractf128 $1, %ymm1, %xmm10 movq 26976(%rbx), %rdi vmovlpd %xmm10, (%rdi) movq 26944(%rbx), %rdi vmovhpd %xmm10, (%rdi) vmulpd %ymm2, %ymm0, %ymm3 movq 28000(%rbx), %rdi vmovlpd %xmm3, (%rdi) movq 27968(%rbx), %rdi vmovhpd %xmm3, (%rdi) vextractf128 $1, %ymm3, %xmm4 movq 27872(%rbx), %rdi vmovlpd %xmm4, (%rdi) movq 27840(%rbx), %rdi vmovhpd %xmm4, (%rdi) movq 30144(%rbx), %rdi vmovsd (%rdi), %xmm14 movq 30176(%rbx), %rdi vmovsd (%rdi), %xmm0 movq 30208(%rbx), %rdi vmovsd (%rdi), %xmm5 movq 30240(%rbx), %rdi vmovsd (%rdi), %xmm7 movq 30048(%rbx), %rdi vmovsd (%rdi), %xmm2 movq 30080(%rbx), %rdi vmovsd (%rdi), %xmm6 movq 30112(%rbx), %rsi vmovsd (%rsi), %xmm8 vmovsd (%r9), %xmm9 movq 28064(%rbx), %rax vmovsd %xmm9, (%rax) movq 28032(%rbx), %rsi vmovsd %xmm8, (%rsi) movq 27936(%rbx), %rdi vmovsd %xmm6, (%rdi) movq 27904(%rbx), %rdi vmovsd %xmm2, (%rdi) movq 28800(%rbx), %rdi vmovsd %xmm7, (%rdi) movq 28768(%rbx), %rdi vmovsd %xmm5, (%rdi) movq 28544(%rbx), %rdi vmovsd %xmm0, (%rdi) movq 28512(%rbx), %rdi vmovsd %xmm14, (%rdi) vunpcklpd %xmm14, %xmm0, %xmm0 vunpcklpd %xmm5, %xmm7, %xmm5 vunpcklpd %xmm2, %xmm6, %xmm2 vunpcklpd %xmm8, %xmm9, %xmm6 movq 27680(%rbx), %rax vmovapd 26624(%rbx), %ymm7 vmovlpd %xmm7, (%rax) movq 27648(%rbx), %rsi vmovhpd %xmm7, (%rsi) vinsertf128 $1, %xmm2, %ymm6, %ymm2 vmovapd %ymm2, 24704(%rbx) vinsertf128 $1, %xmm0, %ymm5, %ymm0 vmovapd %ymm0, 24736(%rbx) movq 27488(%rbx), %rdi vmovapd 26592(%rbx), %xmm0 vmovlpd %xmm0, (%rdi) movq 27456(%rbx), %rdi vmovhpd %xmm0, (%rdi) movq 28608(%rbx), %rdi vmovapd 31424(%rbx), %ymm0 vmovlpd %xmm0, (%rdi) movq 28576(%rbx), %rdi vmovhpd %xmm0, (%rdi) movq 28352(%rbx), %rdi vmovapd 26656(%rbx), %xmm0 vmovlpd %xmm0, (%rdi) movq 28320(%rbx), %rdi vmovhpd %xmm0, (%rdi) movq 27424(%rbx), %rax vmovlpd %xmm1, (%rax) movq 27392(%rbx), %rsi vmovhpd %xmm1, (%rsi) movq 27232(%rbx), %rdi vmovlpd %xmm10, (%rdi) movq 27200(%rbx), %rdi vmovhpd %xmm10, (%rdi) movq 27744(%rbx), %rdi vmovlpd %xmm3, (%rdi) movq 27712(%rbx), %rdi vmovhpd %xmm3, (%rdi) movq 27552(%rbx), %rdi vmovlpd %xmm4, (%rdi) movq 27520(%rbx), %rdi vmovhpd %xmm4, (%rdi) movq 31616(%rbx), %r13 vmovsd (%r13), %xmm0 movq 31648(%rbx), %r9 vmovhpd (%r9), %xmm0, %xmm0 movq 31552(%rbx), %r15 vmovsd (%r15), %xmm1 movq 31584(%rbx), %r12 vmovhpd (%r12), %xmm1, %xmm1 vinsertf128 $1, %xmm0, %ymm1, %ymm4 vmovapd %ymm4, 24672(%rbx) movq 25568(%rbx), %rax vmovsd (%rax), %xmm0 movq 32576(%rbx), %rax vmovhpd (%rax), %xmm0, %xmm0 movq 25632(%rbx), %rax vmovsd (%rax), %xmm1 movq 25600(%rbx), %rax vmovhpd (%rax), %xmm1, %xmm1 vinsertf128 $1, %xmm0, %ymm1, %ymm2 vmovapd %ymm2, 26656(%rbx) movq 23680(%rbx), %rdi vmovsd (%rdi), %xmm0 movq 23648(%rbx), %rdi vmovhpd (%rdi), %xmm0, %xmm0 vmovsd (%r14), %xmm1 movq 23744(%rbx), %rdi vmovhpd (%rdi), %xmm1, %xmm1 vinsertf128 $1, %xmm0, %ymm1, %ymm3 vmovapd %ymm3, 32064(%rbx) movq 31808(%rbx), %rdi vmovsd (%rdi), %xmm0 movq 31872(%rbx), %rdi vmovhpd (%rdi), %xmm0, %xmm0 movq 31136(%rbx), %rdi vmovsd (%rdi), %xmm1 movq 31840(%rbx), %rdi vmovhpd (%rdi), %xmm1, %xmm1 vinsertf128 $1, %xmm0, %ymm1, %ymm1 vmovapd %ymm1, 26624(%rbx) vmovapd 32448(%rbx), %ymm0 vmulpd %ymm1, %ymm0, %ymm0 vmovapd %ymm1, %ymm5 vmulpd %ymm3, %ymm0, %ymm0 vmulpd 32896(%rbx), %ymm2, %ymm1 vmovapd %ymm2, %ymm3 vmulpd %ymm4, %ymm1, %ymm1 vmovapd %ymm4, %ymm6 vaddpd %ymm0, %ymm1, %ymm1 movq 13856(%rbx), %rdi vmovsd (%rdi), %xmm0 movq 13888(%rbx), %rdi vmovhpd (%rdi), %xmm0, %xmm0 movq 16640(%rbx), %rdi vmovsd (%rdi), %xmm2 movq 13920(%rbx), %rdi vmovhpd (%rdi), %xmm2, %xmm2 vinsertf128 $1, %xmm0, %ymm2, %ymm4 vmovapd %ymm4, 26816(%rbx) movq 23872(%rbx), %rdi vmovsd (%rdi), %xmm0 movq 23840(%rbx), %rdi vmovhpd (%rdi), %xmm0, %xmm0 movq 31104(%rbx), %rdi vmovsd (%rdi), %xmm2 movq 23904(%rbx), %rdi vmovhpd (%rdi), %xmm2, %xmm2 vinsertf128 $1, %xmm0, %ymm2, %ymm0 vmovapd %ymm0, 31488(%rbx) vmulpd 32800(%rbx), %ymm0, %ymm0 vmulpd %ymm4, %ymm0, %ymm0 vaddpd %ymm0, %ymm1, %ymm0 movq 32352(%rbx), %rdi vmovsd (%rdi), %xmm1 movq 32384(%rbx), %rdi vmovhpd (%rdi), %xmm1, %xmm1 movq 32288(%rbx), %rdi vmovsd (%rdi), %xmm2 movq 32320(%rbx), %rdi vmovhpd (%rdi), %xmm2, %xmm2 vinsertf128 $1, %xmm1, %ymm2, %ymm13 vmovapd %ymm13, 26592(%rbx) vmulpd %ymm5, %ymm3, %ymm1 vmovapd %ymm5, %ymm8 vmulpd %ymm4, %ymm1, %ymm1 vsubpd %ymm1, %ymm0, %ymm2 movq 31680(%rbx), %r14 vmovsd (%r14), %xmm0 movq 31968(%rbx), %rsi vmovhpd (%rsi), %xmm0, %xmm0 movq 31904(%rbx), %rax vmovsd (%rax), %xmm1 movq 31936(%rbx), %r8 vmovhpd (%r8), %xmm1, %xmm1 vinsertf128 $1, %xmm0, %ymm1, %ymm0 vmovapd %ymm0, 32800(%rbx) vmovapd %ymm0, %ymm15 movq 25728(%rbx), %rdi vmovsd (%rdi), %xmm0 movq 25696(%rbx), %rdi vmovhpd (%rdi), %xmm0, %xmm0 movq 25760(%rbx), %rdi vmovsd (%rdi), %xmm1 movq 32704(%rbx), %rdi vmovhpd (%rdi), %xmm1, %xmm1 vinsertf128 $1, %xmm0, %ymm1, %ymm5 vmovapd %ymm5, 31424(%rbx) movq 23712(%rbx), %rdi vmovsd (%rdi), %xmm0 vmovhpd (%rdx), %xmm0, %xmm0 movq 23808(%rbx), %rdx vmovsd (%rdx), %xmm1 movq 23776(%rbx), %rdx vmovhpd (%rdx), %xmm1, %xmm1 vinsertf128 $1, %xmm0, %ymm1, %ymm14 vmovapd %ymm14, 26560(%rbx) vmovapd 32928(%rbx), %ymm1 vmulpd 31520(%rbx), %ymm1, %ymm0 vmovapd 32736(%rbx), %ymm9 vmulpd %ymm0, %ymm9, %ymm0 vmulpd %ymm13, %ymm1, %ymm1 vmovapd 31360(%rbx), %ymm12 vmulpd %ymm1, %ymm12, %ymm1 vaddpd %ymm0, %ymm1, %ymm0 vmovapd %ymm0, 32640(%rbx) vmovapd 32992(%rbx), %ymm1 vmulpd 32960(%rbx), %ymm1, %ymm0 vmovapd 32864(%rbx), %ymm7 vmulpd %ymm0, %ymm7, %ymm0 vmulpd %ymm8, %ymm1, %ymm3 vmovapd 31328(%rbx), %ymm8 vmulpd %ymm3, %ymm8, %ymm3 vaddpd %ymm0, %ymm3, %ymm3 vmovapd %ymm6, %ymm10 vmulpd 26528(%rbx), %ymm10, %ymm0 vsubpd %ymm0, %ymm2, %ymm6 vmovapd 32480(%rbx), %ymm0 vmulpd %ymm13, %ymm0, %ymm0 vmovapd %ymm13, %ymm2 vmulpd %ymm14, %ymm0, %ymm0 vmovapd 31392(%rbx), %ymm11 vmulpd %ymm11, %ymm5, %ymm4 vmulpd %ymm15, %ymm4, %ymm4 vaddpd %ymm0, %ymm4, %ymm4 movq 24320(%rbx), %rdx vmovsd (%rdx), %xmm0 movq 13952(%rbx), %rdx vmovhpd (%rdx), %xmm0, %xmm0 movq 13984(%rbx), %rdx vmovsd (%rdx), %xmm5 movq 14016(%rbx), %rdx vmovhpd (%rdx), %xmm5, %xmm5 vinsertf128 $1, %xmm0, %ymm5, %ymm1 vmovapd %ymm1, 26496(%rbx) movq 23968(%rbx), %rdx vmovsd (%rdx), %xmm0 movq 23936(%rbx), %rdx vmovhpd (%rdx), %xmm0, %xmm0 movq 24032(%rbx), %rdx vmovsd (%rdx), %xmm5 movq 24000(%rbx), %rdx vmovhpd (%rdx), %xmm5, %xmm5 vinsertf128 $1, %xmm0, %ymm5, %ymm15 vmovapd %ymm15, 26528(%rbx) vmovapd 32896(%rbx), %ymm14 vmulpd 31488(%rbx), %ymm14, %ymm0 vmovapd 32064(%rbx), %ymm5 vmulpd %ymm0, %ymm5, %ymm0 vsubpd %ymm0, %ymm6, %ymm6 vmulpd 32832(%rbx), %ymm8, %ymm0 vmovapd %ymm8, %ymm13 vmulpd %ymm0, %ymm7, %ymm0 vaddpd %ymm0, %ymm3, %ymm0 vmovapd %ymm0, 32512(%rbx) vmovapd %ymm12, %ymm7 vmulpd 26912(%rbx), %ymm7, %ymm0 vmulpd %ymm0, %ymm9, %ymm0 vmovapd 32640(%rbx), %ymm3 vaddpd %ymm0, %ymm3, %ymm5 vmulpd 26784(%rbx), %ymm15, %ymm0 vmovapd %ymm1, %ymm8 vmulpd %ymm8, %ymm0, %ymm0 vaddpd %ymm0, %ymm4, %ymm4 vmovapd 32992(%rbx), %ymm1 vmulpd %ymm1, %ymm14, %ymm0 vmulpd %ymm0, %ymm1, %ymm0 vmovapd .LCPI1_23(%rip), %ymm12 vaddpd %ymm12, %ymm0, %ymm0 vmovapd %ymm13, %ymm3 vmulpd %ymm3, %ymm10, %ymm1 vmulpd %ymm1, %ymm3, %ymm1 vaddpd %ymm1, %ymm0, %ymm3 vmovapd 32928(%rbx), %ymm1 vmovapd %ymm11, %ymm10 vmulpd %ymm1, %ymm10, %ymm0 vmulpd %ymm0, %ymm1, %ymm0 vaddpd %ymm12, %ymm0, %ymm0 vmovapd 32800(%rbx), %ymm11 vmulpd %ymm7, %ymm11, %ymm1 vmulpd %ymm1, %ymm7, %ymm1 vaddpd %ymm1, %ymm0, %ymm1 vmovapd .LCPI1_22(%rip), %ymm7 vmulpd %ymm7, %ymm6, %ymm6 movq 27296(%rbx), %rdx vmovlpd %xmm6, (%rdx) movq 27264(%rbx), %rdx vmovhpd %xmm6, (%rdx) vmovapd 31424(%rbx), %ymm0 vmulpd %ymm2, %ymm0, %ymm0 vmulpd %ymm8, %ymm0, %ymm0 vsubpd %ymm0, %ymm4, %ymm0 vmulpd 26464(%rbx), %ymm11, %ymm4 vsubpd %ymm4, %ymm0, %ymm4 vmovapd .LCPI1_24(%rip), %ymm0 vmulpd %ymm0, %ymm5, %ymm14 vmovapd 32512(%rbx), %ymm2 vmulpd %ymm0, %ymm2, %ymm2 vextractf128 $1, %ymm6, %xmm5 movq 27040(%rbx), %rdx vmovlpd %xmm5, (%rdx) movq 27008(%rbx), %rdx vmovhpd %xmm5, (%rdx) vmulpd %ymm15, %ymm10, %ymm0 vmovapd 26560(%rbx), %ymm5 vmulpd %ymm0, %ymm5, %ymm0 vsubpd %ymm0, %ymm4, %ymm0 vmulpd %ymm7, %ymm0, %ymm4 movq 27360(%rbx), %rdx vmovlpd %xmm4, (%rdx) movq 27328(%rbx), %rdx vmovhpd %xmm4, (%rdx) vextractf128 $1, %ymm4, %xmm4 movq 27168(%rbx), %rdx vmovlpd %xmm4, (%rdx) movq 27136(%rbx), %rdx vmovhpd %xmm4, (%rdx) movq 30816(%rbx), %rdx vmovsd (%rdx), %xmm4 movq 30976(%rbx), %r10 vmovhpd (%r10), %xmm4, %xmm4 movq 30848(%rbx), %rdx vmovsd (%rdx), %xmm5 movq 31008(%rbx), %rdx vmovhpd (%rdx), %xmm5, %xmm5 vinsertf128 $1, %xmm4, %ymm5, %ymm4 movq 30656(%rbx), %rdx vmovsd (%rdx), %xmm5 movq 30688(%rbx), %rdx vmovhpd (%rdx), %xmm5, %xmm5 movq 30720(%rbx), %rdx vmovsd (%rdx), %xmm6 movq 30752(%rbx), %rdx vmovhpd (%rdx), %xmm6, %xmm6 vinsertf128 $1, %xmm5, %ymm6, %ymm5 movq 31200(%rbx), %rdx vmovsd (%rdx), %xmm6 movq 31232(%rbx), %rdx vmovhpd (%rdx), %xmm6, %xmm6 movq 31264(%rbx), %rdx vmovsd (%rdx), %xmm7 movq 31296(%rbx), %rdx vmovhpd (%rdx), %xmm7, %xmm7 vinsertf128 $1, %xmm6, %ymm7, %ymm8 vmovapd %ymm8, 26432(%rbx) movq 31168(%rbx), %rdx vmovsd (%rdx), %xmm6 movq 31072(%rbx), %rdx vmovhpd (%rdx), %xmm6, %xmm6 movq 32000(%rbx), %rdx vmovsd (%rdx), %xmm7 movq 32032(%rbx), %rdx vmovhpd (%rdx), %xmm7, %xmm7 vinsertf128 $1, %xmm6, %ymm7, %ymm0 vmovapd %ymm0, 26464(%rbx) vmovapd %ymm9, %ymm6 vmulpd %ymm6, %ymm0, %ymm0 vmulpd %ymm0, %ymm6, %ymm0 vaddpd %ymm0, %ymm1, %ymm7 vmovapd 32864(%rbx), %ymm1 vmulpd %ymm1, %ymm8, %ymm0 vmulpd %ymm0, %ymm1, %ymm0 vaddpd %ymm0, %ymm3, %ymm9 vmovapd .LCPI1_25(%rip), %ymm0 vxorpd %ymm0, %ymm5, %ymm3 vxorpd %ymm0, %ymm4, %ymm4 movq 22624(%rbx), %rdx vmovsd (%rdx), %xmm1 movq 22656(%rbx), %rdx vmovhpd (%rdx), %xmm1, %xmm5 movq 22496(%rbx), %rdx vmovsd (%rdx), %xmm1 movq 22464(%rbx), %rdx vmovhpd (%rdx), %xmm1, %xmm0 vmovapd %xmm0, 32640(%rbx) movq 32096(%rbx), %rdx vmovsd (%rdx), %xmm1 movq 22592(%rbx), %rdx vmovhpd (%rdx), %xmm1, %xmm15 movq 22688(%rbx), %rdx vmovsd (%rdx), %xmm1 movq 22720(%rbx), %rdx vmovhpd (%rdx), %xmm1, %xmm6 movq 16608(%rbx), %rdx vmovsd (%rdx), %xmm1 movq 22752(%rbx), %rdx vmovhpd (%rdx), %xmm1, %xmm11 movq 22560(%rbx), %rdx vmovsd (%rdx), %xmm1 movq 22528(%rbx), %rdx vmovhpd (%rdx), %xmm1, %xmm1 movq 25664(%rbx), %rdx vmovsd (%rdx), %xmm0 movq 32416(%rbx), %rdx vmovhpd (%rdx), %xmm0, %xmm10 movq 22784(%rbx), %rdx vmovsd (%rdx), %xmm0 movq 22816(%rbx), %rdx vmovhpd (%rdx), %xmm0, %xmm13 vaddpd %ymm2, %ymm9, %ymm0 vmovapd %ymm0, 32512(%rbx) vaddpd %ymm14, %ymm7, %ymm7 movq 30528(%rbx), %rdx vmovsd (%rdx), %xmm0 movq 30560(%rbx), %rdx vmovhpd (%rdx), %xmm0, %xmm0 movq 30592(%rbx), %rdx vmovsd (%rdx), %xmm2 movq 30624(%rbx), %rdx vmovhpd (%rdx), %xmm2, %xmm2 vinsertf128 $1, %xmm0, %ymm2, %ymm0 vmovapd %ymm0, 32416(%rbx) vsqrtpd %ymm4, %ymm0 vsqrtpd %ymm3, %ymm2 vdivpd %ymm2, %ymm12, %ymm14 vdivpd %ymm0, %ymm12, %ymm9 movq 30880(%rbx), %rdx vmovsd (%rdx), %xmm0 movq 30912(%rbx), %rdx vmovhpd (%rdx), %xmm0, %xmm0 movq 30784(%rbx), %rdx vmovsd (%rdx), %xmm2 movq 30944(%rbx), %rdx vmovhpd (%rdx), %xmm2, %xmm2 vinsertf128 $1, %xmm0, %ymm2, %ymm4 movq 23392(%rbx), %rdx vmovsd (%rdx), %xmm0 movq 23360(%rbx), %rdx vmovhpd (%rdx), %xmm0, %xmm0 movq 23552(%rbx), %rdx vmovsd (%rdx), %xmm2 movq 23520(%rbx), %rdx vmovhpd (%rdx), %xmm2, %xmm2 vinsertf128 $1, %xmm0, %ymm2, %ymm8 vmovapd %ymm8, 24416(%rbx) movq 23008(%rbx), %rdx vmovsd (%rdx), %xmm0 movq 22976(%rbx), %rdx vmovhpd (%rdx), %xmm0, %xmm0 movq 23136(%rbx), %rdx vmovsd (%rdx), %xmm2 movq 23104(%rbx), %rdx vmovhpd (%rdx), %xmm2, %xmm2 vinsertf128 $1, %xmm0, %ymm2, %ymm3 vmovapd %ymm3, 24480(%rbx) movq 30304(%rbx), %rdx vmovsd (%rdx), %xmm0 movq 30272(%rbx), %rdx vmovhpd (%rdx), %xmm0, %xmm0 movq 30368(%rbx), %rdx vmovsd (%rdx), %xmm2 movq 30336(%rbx), %rdx vmovhpd (%rdx), %xmm2, %xmm2 vinsertf128 $1, %xmm0, %ymm2, %ymm0 vmovapd %ymm0, 24448(%rbx) movq 30432(%rbx), %rdx vmovsd (%rdx), %xmm0 movq 30400(%rbx), %rdx vmovhpd (%rdx), %xmm0, %xmm0 movq 30496(%rbx), %rdx vmovsd (%rdx), %xmm2 movq 30464(%rbx), %rdx vmovhpd (%rdx), %xmm2, %xmm2 vinsertf128 $1, %xmm0, %ymm2, %ymm12 vinsertf128 $1, %xmm13, %ymm5, %ymm0 vmovapd %ymm0, 26336(%rbx) vinsertf128 $1, %xmm1, %ymm10, %ymm0 vmovapd %ymm0, 26304(%rbx) vinsertf128 $1, %xmm6, %ymm11, %ymm0 vmovapd %ymm0, 26400(%rbx) vinsertf128 $1, 32640(%rbx), %ymm15, %ymm0 vmovapd %ymm0, 26368(%rbx) movq 14144(%rbx), %rdx vmovsd (%rdx), %xmm1 movq 14176(%rbx), %rdx vmovhpd (%rdx), %xmm1, %xmm1 movq 14208(%rbx), %rdx vmovsd (%rdx), %xmm5 movq 14240(%rbx), %rdx vmovhpd (%rdx), %xmm5, %xmm5 vinsertf128 $1, %xmm1, %ymm5, %ymm0 vmovapd %ymm0, 24512(%rbx) movq 14048(%rbx), %rdx vmovsd (%rdx), %xmm1 movq 14080(%rbx), %rdx vmovhpd (%rdx), %xmm1, %xmm1 movq 24352(%rbx), %rdx vmovsd (%rdx), %xmm5 movq 14112(%rbx), %rdx vmovhpd (%rdx), %xmm5, %xmm5 vinsertf128 $1, %xmm1, %ymm5, %ymm0 vmovapd %ymm0, 24576(%rbx) vmovsd (%r14), %xmm1 vmovhpd (%rsi), %xmm1, %xmm1 vmovsd (%rax), %xmm5 vmovhpd (%r8), %xmm5, %xmm5 vinsertf128 $1, %xmm1, %ymm5, %ymm0 vmovapd %ymm0, 24544(%rbx) vmovsd (%r13), %xmm1 vmovhpd (%r9), %xmm1, %xmm1 vmovsd (%r15), %xmm5 vmovhpd (%r12), %xmm5, %xmm5 vinsertf128 $1, %xmm1, %ymm5, %ymm0 vmovapd %ymm0, 25664(%rbx) movq 32192(%rbx), %rax vmovsd (%rax), %xmm1 movq 32224(%rbx), %rax vmovhpd (%rax), %xmm1, %xmm1 movq 32160(%rbx), %rax vmovsd (%rax), %xmm5 vmovhpd (%rcx), %xmm5, %xmm5 vinsertf128 $1, %xmm1, %ymm5, %ymm0 vmovapd %ymm0, 24608(%rbx) movq 31712(%rbx), %rax vmovsd (%rax), %xmm1 movq 31776(%rbx), %rax vmovhpd (%rax), %xmm1, %xmm1 movq 31040(%rbx), %rax vmovsd (%rax), %xmm5 movq 31744(%rbx), %rax vmovhpd (%rax), %xmm5, %xmm5 vinsertf128 $1, %xmm1, %ymm5, %ymm0 vmovapd %ymm0, 24640(%rbx) vsqrtpd %ymm7, %ymm1 vmulpd %ymm1, %ymm4, %ymm4 vmulpd %ymm9, %ymm4, %ymm4 vmovapd 32928(%rbx), %ymm0 vsubpd %ymm4, %ymm0, %ymm15 vmovapd %ymm15, 32640(%rbx) vsqrtpd 32512(%rbx), %ymm5 vmovapd 32416(%rbx), %ymm0 vmulpd %ymm5, %ymm0, %ymm4 vmulpd %ymm14, %ymm4, %ymm4 vmovapd 32992(%rbx), %ymm0 vsubpd %ymm4, %ymm0, %ymm7 vmovapd %ymm7, 32512(%rbx) vdivpd %ymm14, %ymm5, %ymm2 vmovapd %ymm2, 32992(%rbx) vmulpd %ymm2, %ymm3, %ymm4 vmovapd 32896(%rbx), %ymm0 vmulpd %ymm7, %ymm0, %ymm6 vaddpd %ymm6, %ymm4, %ymm4 vdivpd %ymm9, %ymm1, %ymm0 vmovapd %ymm0, 26784(%rbx) vmulpd %ymm0, %ymm8, %ymm10 vmovapd %ymm0, %ymm8 vmovapd 31392(%rbx), %ymm0 vmulpd %ymm15, %ymm0, %ymm11 vaddpd %ymm11, %ymm10, %ymm10 vmovapd 32064(%rbx), %ymm0 vmulpd %ymm2, %ymm0, %ymm11 vmovapd 26816(%rbx), %ymm0 vmulpd %ymm7, %ymm0, %ymm13 vmovapd %ymm7, %ymm0 vaddpd %ymm13, %ymm11, %ymm11 vmulpd %ymm1, %ymm12, %ymm12 vmulpd %ymm9, %ymm12, %ymm12 vmovapd 31360(%rbx), %ymm2 vsubpd %ymm12, %ymm2, %ymm13 vmovapd %ymm13, 32096(%rbx) vmovapd 24704(%rbx), %ymm2 vmulpd %ymm5, %ymm2, %ymm12 vmovapd 24448(%rbx), %ymm2 vmulpd %ymm5, %ymm2, %ymm3 vmulpd %ymm14, %ymm3, %ymm3 vmovapd 31328(%rbx), %ymm2 vsubpd %ymm3, %ymm2, %ymm7 vmovapd %ymm7, 32416(%rbx) vmovapd 24672(%rbx), %ymm2 vmulpd %ymm7, %ymm2, %ymm3 vaddpd %ymm3, %ymm11, %ymm3 vmulpd %ymm14, %ymm12, %ymm11 vmovapd 26592(%rbx), %ymm2 vmulpd %ymm13, %ymm2, %ymm5 vaddpd %ymm5, %ymm10, %ymm5 vmovapd 26624(%rbx), %ymm2 vmulpd %ymm7, %ymm2, %ymm10 vmovapd %ymm7, %ymm2 vaddpd %ymm10, %ymm4, %ymm4 vmovapd 24768(%rbx), %ymm10 vmulpd %ymm15, %ymm10, %ymm10 vmovapd 26304(%rbx), %ymm6 vmulpd %ymm8, %ymm6, %ymm12 vaddpd %ymm10, %ymm12, %ymm10 vmovapd 24736(%rbx), %ymm7 vmulpd %ymm1, %ymm7, %ymm1 vmulpd %ymm9, %ymm1, %ymm1 vmovapd 32736(%rbx), %ymm6 vsubpd %ymm1, %ymm6, %ymm12 vmovapd %ymm12, 32928(%rbx) vmovapd 32864(%rbx), %ymm1 vsubpd %ymm11, %ymm1, %ymm11 vmovapd %ymm11, 32864(%rbx) vmovapd 26336(%rbx), %ymm1 vmulpd %ymm13, %ymm1, %ymm1 vaddpd %ymm1, %ymm10, %ymm1 vmovapd 32960(%rbx), %ymm9 vmulpd %ymm11, %ymm9, %ymm9 vaddpd %ymm9, %ymm4, %ymm14 vmovapd %ymm14, 31360(%rbx) vmovapd 32832(%rbx), %ymm4 vmulpd %ymm11, %ymm4, %ymm4 vaddpd %ymm4, %ymm3, %ymm6 vmovapd %ymm6, 24768(%rbx) vmovapd 31520(%rbx), %ymm3 vmulpd %ymm12, %ymm3, %ymm3 vaddpd %ymm3, %ymm5, %ymm5 vmovapd %ymm5, 32832(%rbx) vmovapd 26560(%rbx), %ymm9 vmulpd %ymm8, %ymm9, %ymm3 vmovapd 26496(%rbx), %ymm4 vmulpd %ymm15, %ymm4, %ymm4 vmovapd %ymm15, %ymm7 vaddpd %ymm4, %ymm3, %ymm3 vmovapd 32800(%rbx), %ymm4 vmulpd %ymm13, %ymm4, %ymm4 vaddpd %ymm4, %ymm3, %ymm3 vmovapd 26912(%rbx), %ymm4 vmulpd %ymm12, %ymm4, %ymm4 vaddpd %ymm4, %ymm3, %ymm3 vmovapd %ymm3, 31328(%rbx) vmovapd 24800(%rbx), %ymm8 vmulpd %ymm3, %ymm8, %ymm3 vmovapd 24832(%rbx), %ymm15 vmulpd %ymm5, %ymm15, %ymm4 vaddpd %ymm3, %ymm4, %ymm3 vmovapd 26848(%rbx), %ymm4 vmulpd %ymm6, %ymm4, %ymm4 vmovapd 24864(%rbx), %ymm10 vmulpd %ymm14, %ymm10, %ymm5 vaddpd %ymm4, %ymm5, %ymm4 vmovapd 26464(%rbx), %ymm5 vmulpd %ymm12, %ymm5, %ymm5 vaddpd %ymm5, %ymm1, %ymm14 vmovapd %ymm14, 32800(%rbx) vmovapd 26272(%rbx), %ymm1 vmulpd %ymm0, %ymm1, %ymm1 vmovapd 26368(%rbx), %ymm5 vmulpd 32992(%rbx), %ymm5, %ymm5 vaddpd %ymm1, %ymm5, %ymm1 vmovapd %ymm2, %ymm6 vmovapd 26400(%rbx), %ymm2 vmulpd %ymm6, %ymm2, %ymm5 vaddpd %ymm5, %ymm1, %ymm1 vmovapd 26432(%rbx), %ymm2 vmulpd %ymm11, %ymm2, %ymm5 vaddpd %ymm5, %ymm1, %ymm2 vmovapd %ymm2, 26912(%rbx) vmovapd 26752(%rbx), %ymm1 vmulpd %ymm2, %ymm1, %ymm1 vaddpd %ymm1, %ymm4, %ymm11 vmovapd %ymm11, 26272(%rbx) vmovapd 26880(%rbx), %ymm1 vmulpd %ymm14, %ymm1, %ymm1 vaddpd %ymm1, %ymm3, %ymm14 vmovapd %ymm14, 24448(%rbx) vmulpd %ymm7, %ymm14, %ymm1 vaddpd %ymm1, %ymm15, %ymm3 vmovapd 26304(%rbx), %ymm1 vmulpd %ymm14, %ymm1, %ymm1 vmovapd 26784(%rbx), %ymm12 vdivpd %ymm12, %ymm3, %ymm15 vmovapd %ymm15, 32736(%rbx) vmovapd 24512(%rbx), %ymm2 vmulpd %ymm15, %ymm2, %ymm2 vaddpd %ymm2, %ymm1, %ymm1 vmulpd %ymm0, %ymm11, %ymm2 vaddpd %ymm2, %ymm10, %ymm3 vmulpd %ymm13, %ymm14, %ymm2 vaddpd %ymm2, %ymm8, %ymm4 vmovapd 24416(%rbx), %ymm0 vmulpd %ymm14, %ymm0, %ymm2 vmovapd 31392(%rbx), %ymm0 vmulpd %ymm15, %ymm0, %ymm5 vaddpd %ymm5, %ymm2, %ymm2 vmulpd %ymm14, %ymm9, %ymm5 vmovapd 26496(%rbx), %ymm0 vmulpd %ymm15, %ymm0, %ymm7 vaddpd %ymm7, %ymm5, %ymm7 vmovapd 31424(%rbx), %ymm0 vmulpd %ymm14, %ymm0, %ymm5 vmovapd 32480(%rbx), %ymm0 vmulpd %ymm15, %ymm0, %ymm10 vaddpd %ymm10, %ymm5, %ymm5 vdivpd %ymm12, %ymm4, %ymm13 vmovapd %ymm13, 31392(%rbx) vmovapd 26336(%rbx), %ymm0 vmulpd %ymm13, %ymm0, %ymm4 vaddpd %ymm4, %ymm1, %ymm0 vmovapd %ymm0, 26560(%rbx) vmovapd 32992(%rbx), %ymm8 vdivpd %ymm8, %ymm3, %ymm9 vmovapd %ymm9, 26496(%rbx) vmovapd 26656(%rbx), %ymm0 vmulpd %ymm11, %ymm0, %ymm3 vmovapd 32448(%rbx), %ymm0 vmulpd %ymm9, %ymm0, %ymm4 vaddpd %ymm4, %ymm3, %ymm0 vmovapd %ymm0, 26336(%rbx) vmulpd %ymm6, %ymm11, %ymm4 vmovapd 26848(%rbx), %ymm0 vaddpd %ymm4, %ymm0, %ymm1 vmovapd 26368(%rbx), %ymm0 vmulpd %ymm11, %ymm0, %ymm0 vmovapd 24576(%rbx), %ymm3 vmulpd %ymm9, %ymm3, %ymm4 vaddpd %ymm4, %ymm0, %ymm0 vmovapd 32064(%rbx), %ymm4 vmulpd %ymm11, %ymm4, %ymm4 vmovapd 26816(%rbx), %ymm6 vmulpd %ymm9, %ymm6, %ymm10 vaddpd %ymm10, %ymm4, %ymm4 vmovapd 26528(%rbx), %ymm6 vmulpd %ymm13, %ymm6, %ymm10 vaddpd %ymm10, %ymm5, %ymm5 vmovapd 24544(%rbx), %ymm3 vmulpd %ymm13, %ymm3, %ymm10 vaddpd %ymm10, %ymm7, %ymm7 vmovapd 24480(%rbx), %ymm3 vmulpd %ymm11, %ymm3, %ymm10 vmovapd %ymm11, %ymm15 vmovapd 32896(%rbx), %ymm6 vmulpd %ymm9, %ymm6, %ymm11 vaddpd %ymm11, %ymm10, %ymm10 vmovapd 26592(%rbx), %ymm6 vmulpd %ymm13, %ymm6, %ymm11 vaddpd %ymm11, %ymm2, %ymm2 vmulpd 32928(%rbx), %ymm14, %ymm11 vmovapd 26880(%rbx), %ymm6 vaddpd %ymm11, %ymm6, %ymm11 vdivpd %ymm12, %ymm11, %ymm12 vmovapd %ymm12, 24736(%rbx) vmovapd 31520(%rbx), %ymm3 vmulpd %ymm12, %ymm3, %ymm11 vaddpd %ymm11, %ymm2, %ymm13 vmovapd %ymm13, 26848(%rbx) vmovapd %ymm8, %ymm6 vdivpd %ymm6, %ymm1, %ymm11 vmovapd %ymm11, 32896(%rbx) vmovapd 26624(%rbx), %ymm2 vmulpd %ymm11, %ymm2, %ymm2 vaddpd %ymm2, %ymm10, %ymm1 vmovapd %ymm1, 26592(%rbx) vmovapd 31488(%rbx), %ymm8 vmulpd %ymm11, %ymm8, %ymm8 vmovapd 26336(%rbx), %ymm1 vaddpd %ymm8, %ymm1, %ymm9 vmovapd 26464(%rbx), %ymm8 vmulpd %ymm12, %ymm8, %ymm8 vmovapd 26560(%rbx), %ymm1 vaddpd %ymm8, %ymm1, %ymm8 vmovapd %ymm8, 26816(%rbx) vmovapd 24608(%rbx), %ymm1 vmulpd %ymm12, %ymm1, %ymm1 vaddpd %ymm1, %ymm7, %ymm7 vmovapd %ymm7, 31520(%rbx) vmovapd 26688(%rbx), %ymm1 vmulpd %ymm12, %ymm1, %ymm1 vmovapd %ymm12, %ymm2 vaddpd %ymm1, %ymm5, %ymm3 vmovapd %ymm3, 26880(%rbx) vmovapd 25664(%rbx), %ymm1 vmulpd %ymm11, %ymm1, %ymm1 vaddpd %ymm1, %ymm4, %ymm1 vmovapd 26400(%rbx), %ymm4 vmulpd %ymm11, %ymm4, %ymm4 vmovapd %ymm11, %ymm10 vaddpd %ymm4, %ymm0, %ymm0 vmulpd 32864(%rbx), %ymm15, %ymm4 vmovapd 26752(%rbx), %ymm5 vaddpd %ymm4, %ymm5, %ymm4 vdivpd %ymm6, %ymm4, %ymm5 vmovapd %ymm5, 26752(%rbx) vmovapd 26432(%rbx), %ymm4 vmulpd %ymm5, %ymm4, %ymm4 vaddpd %ymm4, %ymm0, %ymm6 vmovapd %ymm6, 32064(%rbx) vmovapd 24640(%rbx), %ymm0 vmulpd %ymm5, %ymm0, %ymm0 vaddpd %ymm0, %ymm1, %ymm12 vmovapd %ymm12, 24704(%rbx) vmovapd 26720(%rbx), %ymm0 vmulpd %ymm5, %ymm0, %ymm0 vaddpd %ymm0, %ymm9, %ymm11 vmovapd %ymm11, 26624(%rbx) vmovapd 32960(%rbx), %ymm0 vmulpd %ymm5, %ymm0, %ymm0 vmovapd 26592(%rbx), %ymm1 vaddpd %ymm0, %ymm1, %ymm9 vmovapd %ymm9, 32960(%rbx) vmovapd 32736(%rbx), %ymm0 vmulpd %ymm13, %ymm0, %ymm0 vmovapd %ymm0, 24672(%rbx) vmulpd %ymm3, %ymm14, %ymm1 vmovapd %ymm1, 26464(%rbx) vaddpd %ymm0, %ymm1, %ymm1 vmovapd 31392(%rbx), %ymm0 vmulpd %ymm7, %ymm0, %ymm0 vmovapd %ymm0, 24832(%rbx) vaddpd %ymm0, %ymm1, %ymm1 vmulpd %ymm8, %ymm2, %ymm0 vmovapd %ymm0, 25664(%rbx) vaddpd %ymm0, %ymm1, %ymm1 vmovapd .LCPI1_26(%rip), %ymm8 vcmpltpd %ymm8, %ymm1, %ymm2 vextractf128 $1, %ymm2, %xmm3 vpshufd $8, %xmm3, %xmm3 vpshufd $8, %xmm2, %xmm2 vmovlhps %xmm3, %xmm2, %xmm2 vpshufb .LCPI1_20(%rip), %xmm2, %xmm4 vmovapd 26496(%rbx), %ymm0 vmulpd %ymm9, %ymm0, %ymm0 vmovapd %ymm0, 24640(%rbx) vmulpd %ymm11, %ymm15, %ymm2 vaddpd %ymm0, %ymm2, %ymm3 vmulpd %ymm12, %ymm10, %ymm0 vmovapd %ymm0, 24800(%rbx) vaddpd %ymm0, %ymm3, %ymm3 vmulpd %ymm6, %ymm5, %ymm0 vmovapd %ymm0, 24864(%rbx) vaddpd %ymm0, %ymm3, %ymm3 vcmpltpd %ymm8, %ymm3, %ymm5 vextractf128 $1, %ymm5, %xmm7 vpshufd $8, %xmm7, %xmm7 vpshufd $8, %xmm5, %xmm5 vmovlhps %xmm7, %xmm5, %xmm5 vpshufb .LCPI1_21(%rip), %xmm5, %xmm5 vpor %xmm4, %xmm5, %xmm4 vpsllw $15, %xmm4, %xmm4 vpsraw $15, %xmm4, %xmm5 vpunpckhbw %xmm0, %xmm5, %xmm4 vpslld $31, %xmm4, %xmm7 vpmovsxdq %xmm7, %xmm4 vmovhlps %xmm7, %xmm7, %xmm7 vpmovsxdq %xmm7, %xmm7 vinsertf128 $1, %xmm7, %ymm4, %ymm4 vpunpcklbw %xmm0, %xmm5, %xmm5 vpslld $31, %xmm5, %xmm7 vpmovsxdq %xmm7, %xmm5 vmovhlps %xmm7, %xmm7, %xmm7 vpmovsxdq %xmm7, %xmm7 vinsertf128 $1, %xmm7, %ymm5, %ymm5 vblendvpd %ymm5, %ymm8, %ymm3, %ymm3 vblendvpd %ymm4, %ymm8, %ymm1, %ymm14 vmovapd %ymm14, 24608(%rbx) vmovaps 26208(%rbx), %ymm4 vextractf128 $1, %ymm4, %xmm1 vcvtdq2pd %xmm4, %ymm4 vmovapd .LCPI1_28(%rip), %ymm8 vaddpd %ymm8, %ymm4, %ymm4 vcvtdq2pd %xmm1, %ymm1 vaddpd %ymm8, %ymm1, %ymm1 vmovapd .LCPI1_66(%rip), %ymm5 vmulpd %ymm5, %ymm1, %ymm0 vmovapd %ymm0, 26368(%rbx) vmulpd %ymm5, %ymm4, %ymm0 vmovapd %ymm0, 26304(%rbx) vmovsd 24896(%rbx), %xmm1 vaddsd .LCPI1_67(%rip), %xmm1, %xmm1 vmulsd .LCPI1_68(%rip), %xmm1, %xmm1 vaddsd .LCPI1_87, %xmm1, %xmm1 vmovaps 26048(%rbx), %ymm4 vinsertf128 $1, 26080(%rbx), %ymm4, %ymm0 vmovaps %ymm0, 26592(%rbx) vmovaps 26240(%rbx), %ymm4 vinsertf128 $1, 26112(%rbx), %ymm4, %ymm0 vmovaps %ymm0, 26560(%rbx) vmovapd 26784(%rbx), %ymm15 vmovapd 31424(%rbx), %ymm0 vmulpd %ymm15, %ymm0, %ymm4 vmovapd 32640(%rbx), %ymm6 vmovapd 32480(%rbx), %ymm0 vmulpd %ymm6, %ymm0, %ymm5 vaddpd %ymm5, %ymm4, %ymm4 vmovapd 26528(%rbx), %ymm5 vmulpd 32096(%rbx), %ymm5, %ymm5 vaddpd %ymm5, %ymm4, %ymm4 vmovapd 26656(%rbx), %ymm5 vmovapd 32992(%rbx), %ymm10 vmulpd %ymm10, %ymm5, %ymm5 vmovapd 32448(%rbx), %ymm7 vmulpd 32512(%rbx), %ymm7, %ymm7 vaddpd %ymm7, %ymm5, %ymm5 vmovapd 31488(%rbx), %ymm7 vmulpd 32416(%rbx), %ymm7, %ymm7 vaddpd %ymm7, %ymm5, %ymm5 vmovapd 26720(%rbx), %ymm7 vmulpd 32864(%rbx), %ymm7, %ymm7 vaddpd %ymm7, %ymm5, %ymm12 vmovapd %ymm12, 32480(%rbx) vmovapd 26688(%rbx), %ymm5 vmulpd 32928(%rbx), %ymm5, %ymm5 vaddpd %ymm5, %ymm4, %ymm0 vmovapd %ymm0, 26528(%rbx) vmovapd 26144(%rbx), %ymm5 vmovapd 18592(%rbx), %ymm4 vaddpd %ymm5, %ymm4, %ymm4 vmovapd .LCPI1_27(%rip), %ymm7 vmulpd %ymm7, %ymm5, %ymm9 vmovapd %ymm9, 18144(%rbx) vaddpd %ymm4, %ymm9, %ymm4 vmulpd %ymm8, %ymm3, %ymm5 vaddpd %ymm5, %ymm9, %ymm11 vmovapd %ymm11, 26336(%rbx) vaddpd %ymm4, %ymm3, %ymm4 vmovapd %ymm4, 26656(%rbx) vmulpd %ymm4, %ymm10, %ymm5 vmovapd %ymm5, 24416(%rbx) vmulpd %ymm5, %ymm12, %ymm4 vmovapd %ymm12, %ymm13 vmovapd %ymm5, %ymm9 vaddpd %ymm4, %ymm11, %ymm4 vsubpd %ymm2, %ymm4, %ymm2 vmovapd %ymm2, 32448(%rbx) vmovapd 26176(%rbx), %ymm5 vmulpd %ymm7, %ymm5, %ymm7 vmovapd %ymm7, 18112(%rbx) vmovapd 18560(%rbx), %ymm2 vaddpd %ymm5, %ymm2, %ymm2 vaddpd %ymm2, %ymm7, %ymm2 vmulpd %ymm8, %ymm14, %ymm5 vaddpd %ymm5, %ymm7, %ymm8 vmovapd %ymm8, 26432(%rbx) vaddpd %ymm2, %ymm14, %ymm5 vmovapd %ymm5, 22752(%rbx) vmulpd %ymm5, %ymm15, %ymm2 vmovapd %ymm5, %ymm4 vmulpd %ymm2, %ymm0, %ymm5 vaddpd %ymm5, %ymm8, %ymm5 vsubpd 26464(%rbx), %ymm5, %ymm5 vmovapd %ymm5, 26240(%rbx) vmovapd 32832(%rbx), %ymm12 vmulpd %ymm2, %ymm12, %ymm7 vxorpd %ymm5, %ymm5, %ymm5 vmulpd %ymm5, %ymm8, %ymm5 vmovapd %ymm5, 26400(%rbx) vaddpd %ymm7, %ymm5, %ymm7 vmovapd 24448(%rbx), %ymm14 vmulpd 26848(%rbx), %ymm14, %ymm8 vsubpd %ymm8, %ymm7, %ymm7 vmovapd %ymm7, 31488(%rbx) vmovapd 31328(%rbx), %ymm15 vmulpd %ymm2, %ymm15, %ymm7 vaddpd %ymm7, %ymm5, %ymm7 vmulpd 31520(%rbx), %ymm14, %ymm8 vmovapd %ymm14, %ymm10 vsubpd %ymm8, %ymm7, %ymm7 vmovapd %ymm7, 26208(%rbx) vmovapd 32800(%rbx), %ymm11 vmulpd %ymm2, %ymm11, %ymm2 vaddpd %ymm2, %ymm5, %ymm2 vmulpd 26816(%rbx), %ymm10, %ymm7 vsubpd %ymm7, %ymm2, %ymm2 vmovapd %ymm2, 31424(%rbx) vsqrtpd %ymm3, %ymm8 vmovapd %ymm8, 26688(%rbx) vmovapd 26272(%rbx), %ymm7 vmovapd 26592(%rbx), %ymm3 vmulpd %ymm3, %ymm7, %ymm2 vdivpd %ymm8, %ymm2, %ymm2 vmovapd %ymm2, 26720(%rbx) vmovapd %ymm8, %ymm14 vmulpd %ymm2, %ymm13, %ymm2 vmovapd 32448(%rbx), %ymm8 vaddpd %ymm2, %ymm8, %ymm2 vmovapd %ymm2, 26144(%rbx) vmulpd %ymm4, %ymm6, %ymm2 vmovapd %ymm2, 32448(%rbx) vmulpd %ymm2, %ymm0, %ymm2 vaddpd %ymm2, %ymm5, %ymm2 vmovapd 26880(%rbx), %ymm6 vmovapd 32736(%rbx), %ymm8 vmulpd %ymm6, %ymm8, %ymm4 vsubpd %ymm4, %ymm2, %ymm2 vmovapd %ymm2, 26048(%rbx) vmovapd 26560(%rbx), %ymm5 vmulpd %ymm5, %ymm10, %ymm2 vsqrtpd 24608(%rbx), %ymm4 vmovapd %ymm4, 26464(%rbx) vdivpd %ymm4, %ymm2, %ymm4 vmulpd %ymm4, %ymm0, %ymm2 vmovapd 26240(%rbx), %ymm0 vaddpd %ymm2, %ymm0, %ymm0 vmovapd %ymm0, 26080(%rbx) vmovapd 26304(%rbx), %ymm0 vxorpd %ymm2, %ymm2, %ymm2 vaddpd %ymm2, %ymm0, %ymm0 vmovapd %ymm0, 26240(%rbx) vmovapd 26368(%rbx), %ymm0 vaddpd %ymm2, %ymm0, %ymm0 vmovapd %ymm0, 26304(%rbx) vmovapd 26336(%rbx), %ymm13 vmulpd %ymm2, %ymm13, %ymm0 vmovapd 26912(%rbx), %ymm10 vmulpd %ymm9, %ymm10, %ymm2 vaddpd %ymm2, %ymm0, %ymm2 vmulpd 32064(%rbx), %ymm7, %ymm9 vsubpd %ymm9, %ymm2, %ymm2 vmovapd %ymm2, 26176(%rbx) vmulpd %ymm4, %ymm15, %ymm2 vmovapd 26208(%rbx), %ymm7 vaddpd %ymm2, %ymm7, %ymm2 vmovapd %ymm2, 26112(%rbx) vmovapd %ymm12, %ymm15 vmulpd %ymm4, %ymm15, %ymm2 vmovapd 31488(%rbx), %ymm7 vaddpd %ymm2, %ymm7, %ymm2 vmovapd %ymm2, 24608(%rbx) vmovapd 26624(%rbx), %ymm12 vmulpd %ymm3, %ymm12, %ymm2 vdivpd %ymm14, %ymm2, %ymm2 vmovapd %ymm2, 26208(%rbx) vmovapd 32992(%rbx), %ymm7 vmulpd %ymm2, %ymm7, %ymm2 vmovapd 26144(%rbx), %ymm3 vaddpd %ymm2, %ymm3, %ymm2 vmovapd %ymm2, 24576(%rbx) vmovapd %ymm5, %ymm7 vmulpd %ymm7, %ymm6, %ymm2 vmovapd 26464(%rbx), %ymm3 vdivpd %ymm3, %ymm2, %ymm2 vmovapd %ymm2, 31488(%rbx) vmovapd 26784(%rbx), %ymm14 vmulpd %ymm2, %ymm14, %ymm2 vmovapd 26080(%rbx), %ymm5 vaddpd %ymm2, %ymm5, %ymm2 vmulpd %ymm4, %ymm11, %ymm4 vmovapd 31424(%rbx), %ymm5 vaddpd %ymm4, %ymm5, %ymm4 vmovapd %ymm4, 26080(%rbx) vmulpd %ymm7, %ymm8, %ymm9 vdivpd %ymm3, %ymm9, %ymm6 vmovapd %ymm6, 31424(%rbx) vmovapd 26528(%rbx), %ymm4 vmulpd %ymm6, %ymm4, %ymm9 vmovapd 26048(%rbx), %ymm5 vaddpd %ymm9, %ymm5, %ymm5 vmovapd %ymm5, 26144(%rbx) vmovapd 32512(%rbx), %ymm5 vmulpd 26656(%rbx), %ymm5, %ymm5 vmovapd %ymm5, 26368(%rbx) vmovapd 31360(%rbx), %ymm11 vmulpd %ymm5, %ymm11, %ymm8 vaddpd %ymm8, %ymm13, %ymm8 vsubpd 24640(%rbx), %ymm8, %ymm5 vmovapd %ymm5, 24896(%rbx) vmulpd 32448(%rbx), %ymm15, %ymm9 vmovapd 26432(%rbx), %ymm5 vaddpd %ymm9, %ymm5, %ymm9 vsubpd 24672(%rbx), %ymm9, %ymm5 vmovapd %ymm5, 24640(%rbx) movq 31456(%rbx), %rax vmovapd %ymm2, 12000(%r11,%rax) vmovaps 24576(%rbx), %ymm2 vmovaps %ymm2, 11968(%r11,%rax) movq %rax, %rdx vmovapd 26848(%rbx), %ymm8 vmovapd %ymm7, %ymm5 vmulpd %ymm5, %ymm8, %ymm2 vdivpd %ymm3, %ymm2, %ymm2 vmovapd %ymm2, 24544(%rbx) vmovapd %ymm14, %ymm6 vmulpd %ymm2, %ymm6, %ymm2 vmovapd 24608(%rbx), %ymm7 vaddpd %ymm2, %ymm7, %ymm2 vmovapd %ymm2, 22784(%rbx) vmovapd 31520(%rbx), %ymm15 vmulpd %ymm5, %ymm15, %ymm2 vdivpd %ymm3, %ymm2, %ymm2 vmovapd %ymm2, 26048(%rbx) vmulpd %ymm2, %ymm6, %ymm2 vmovapd 26112(%rbx), %ymm7 vaddpd %ymm2, %ymm7, %ymm2 vmovapd %ymm2, 24384(%rbx) vmovapd 26816(%rbx), %ymm2 vmulpd %ymm5, %ymm2, %ymm2 vdivpd %ymm3, %ymm2, %ymm2 vmovapd %ymm2, 26112(%rbx) vmulpd %ymm2, %ymm6, %ymm2 vmovapd 26080(%rbx), %ymm3 vaddpd %ymm2, %ymm3, %ymm2 vmovapd %ymm2, 24480(%rbx) vmulpd 26720(%rbx), %ymm10, %ymm2 vmovapd 26176(%rbx), %ymm3 vaddpd %ymm2, %ymm3, %ymm2 vmovapd %ymm2, 26080(%rbx) vmovapd 22752(%rbx), %ymm3 vmovapd 32096(%rbx), %ymm2 vmulpd %ymm3, %ymm2, %ymm5 vmovapd %ymm5, 22720(%rbx) vmulpd %ymm5, %ymm4, %ymm2 vmovapd %ymm5, %ymm6 vmovapd 26400(%rbx), %ymm5 vaddpd %ymm2, %ymm5, %ymm2 vmovapd 31392(%rbx), %ymm10 vmulpd 26880(%rbx), %ymm10, %ymm4 vsubpd %ymm4, %ymm2, %ymm2 vmovapd %ymm2, 26784(%rbx) vmovapd 32480(%rbx), %ymm13 vmulpd 26368(%rbx), %ymm13, %ymm2 vaddpd %ymm2, %ymm0, %ymm2 vmovapd 26496(%rbx), %ymm7 vmulpd %ymm12, %ymm7, %ymm4 vmovapd %ymm12, %ymm14 vsubpd %ymm4, %ymm2, %ymm2 vmovapd %ymm2, 26176(%rbx) vmulpd 26592(%rbx), %ymm7, %ymm2 vmovapd %ymm7, %ymm12 vdivpd 26688(%rbx), %ymm2, %ymm2 vmovapd %ymm2, 22816(%rbx) vmovapd %ymm11, %ymm9 vmulpd %ymm2, %ymm9, %ymm2 vmovapd 24896(%rbx), %ymm4 vaddpd %ymm2, %ymm4, %ymm2 vmovapd %ymm2, 24672(%rbx) vmovapd 32640(%rbx), %ymm2 vmulpd 31488(%rbx), %ymm2, %ymm2 vmovapd 26144(%rbx), %ymm4 vaddpd %ymm2, %ymm4, %ymm2 vmovapd %ymm2, 24576(%rbx) vmovapd 32832(%rbx), %ymm7 vmovapd %ymm6, %ymm11 vmulpd %ymm11, %ymm7, %ymm2 vaddpd %ymm2, %ymm5, %ymm2 vmulpd %ymm8, %ymm10, %ymm4 vsubpd %ymm4, %ymm2, %ymm2 vmovapd %ymm2, 24896(%rbx) vmovapd 31328(%rbx), %ymm8 vmulpd 32448(%rbx), %ymm8, %ymm2 vaddpd %ymm2, %ymm5, %ymm2 vmovapd 32736(%rbx), %ymm4 vmulpd %ymm15, %ymm4, %ymm4 vsubpd %ymm4, %ymm2, %ymm2 vmovapd %ymm2, 26144(%rbx) vmulpd 31424(%rbx), %ymm7, %ymm2 vmovapd 24640(%rbx), %ymm4 vaddpd %ymm2, %ymm4, %ymm2 vmovapd %ymm2, 24640(%rbx) vmovapd 32416(%rbx), %ymm2 vmovapd 26656(%rbx), %ymm6 vmulpd %ymm6, %ymm2, %ymm4 vmulpd %ymm4, %ymm9, %ymm2 vaddpd %ymm2, %ymm0, %ymm2 vmovapd 32896(%rbx), %ymm5 vmulpd 32960(%rbx), %ymm5, %ymm7 vsubpd %ymm7, %ymm2, %ymm2 vmovapd %ymm2, 24608(%rbx) vmulpd %ymm4, %ymm13, %ymm2 vaddpd %ymm2, %ymm0, %ymm2 vmulpd %ymm14, %ymm5, %ymm7 vsubpd %ymm7, %ymm2, %ymm2 vmovapd %ymm2, 24512(%rbx) vmovapd 32928(%rbx), %ymm2 vmulpd %ymm3, %ymm2, %ymm2 vmovapd %ymm2, 22656(%rbx) vmulpd %ymm11, %ymm8, %ymm7 vmovapd 26432(%rbx), %ymm3 vaddpd %ymm7, %ymm3, %ymm7 vmovapd %ymm7, 22752(%rbx) vmovapd 32800(%rbx), %ymm10 vmulpd %ymm2, %ymm10, %ymm7 vmovapd %ymm2, %ymm14 vaddpd %ymm7, %ymm3, %ymm7 vmovapd %ymm7, 26432(%rbx) vmovapd 32864(%rbx), %ymm7 vmulpd %ymm6, %ymm7, %ymm3 vmovapd %ymm3, 22688(%rbx) vmovapd 24768(%rbx), %ymm15 vmulpd %ymm4, %ymm15, %ymm7 vmovapd 26336(%rbx), %ymm11 vaddpd %ymm7, %ymm11, %ymm2 vmovapd %ymm2, 22624(%rbx) vmovapd 26912(%rbx), %ymm9 vmulpd %ymm3, %ymm9, %ymm8 vmovapd %ymm3, %ymm2 vaddpd %ymm8, %ymm11, %ymm7 vmovapd %ymm7, 26656(%rbx) vmovapd 26368(%rbx), %ymm6 vmulpd %ymm6, %ymm9, %ymm8 vmovapd %ymm9, %ymm3 vaddpd %ymm8, %ymm0, %ymm8 vmovapd 32064(%rbx), %ymm7 vmulpd %ymm7, %ymm12, %ymm9 vsubpd %ymm9, %ymm8, %ymm8 vmovapd %ymm8, 26336(%rbx) vmovapd 26816(%rbx), %ymm11 vmovapd 32736(%rbx), %ymm5 vmulpd %ymm11, %ymm5, %ymm8 vmulpd 32448(%rbx), %ymm10, %ymm9 vmovapd 26400(%rbx), %ymm5 vaddpd %ymm9, %ymm5, %ymm9 vsubpd %ymm8, %ymm9, %ymm8 vmovapd %ymm8, 24448(%rbx) vmovapd 24704(%rbx), %ymm10 vmulpd %ymm10, %ymm12, %ymm8 vmulpd %ymm6, %ymm15, %ymm9 vaddpd %ymm9, %ymm0, %ymm9 vsubpd %ymm8, %ymm9, %ymm8 vmovapd %ymm8, 26496(%rbx) vmovapd 24736(%rbx), %ymm12 vmulpd 26848(%rbx), %ymm12, %ymm8 vmovapd 32832(%rbx), %ymm6 vmulpd %ymm14, %ymm6, %ymm9 vaddpd %ymm9, %ymm5, %ymm9 vsubpd %ymm8, %ymm9, %ymm8 vmovapd %ymm8, 32448(%rbx) vmovapd 26752(%rbx), %ymm8 vmulpd 26624(%rbx), %ymm8, %ymm8 vmulpd %ymm2, %ymm13, %ymm9 vaddpd %ymm9, %ymm0, %ymm9 vsubpd %ymm8, %ymm9, %ymm8 vmovapd %ymm8, 26848(%rbx) vmulpd %ymm4, %ymm3, %ymm4 vaddpd %ymm4, %ymm0, %ymm4 vmovapd 32896(%rbx), %ymm2 vmulpd %ymm7, %ymm2, %ymm8 vsubpd %ymm8, %ymm4, %ymm4 vmovapd %ymm4, 26624(%rbx) vmulpd 26880(%rbx), %ymm12, %ymm2 vmovapd %ymm2, 26368(%rbx) vmulpd 31520(%rbx), %ymm12, %ymm3 vmovapd %ymm3, 26880(%rbx) vmovapd 26560(%rbx), %ymm3 vmulpd %ymm3, %ymm12, %ymm8 vmovapd 31392(%rbx), %ymm4 vmulpd %ymm11, %ymm4, %ymm6 vmovapd %ymm6, 31520(%rbx) vmulpd %ymm3, %ymm4, %ymm9 vmovapd 26464(%rbx), %ymm3 vdivpd %ymm3, %ymm9, %ymm2 vmovapd %ymm2, 24736(%rbx) vdivpd %ymm3, %ymm8, %ymm3 vmovapd %ymm3, 26464(%rbx) vmovaps 22784(%rbx), %ymm3 vmovaps %ymm3, 12064(%r11,%rdx) vmovapd 31360(%rbx), %ymm3 vmovapd 24416(%rbx), %ymm12 vmulpd %ymm12, %ymm3, %ymm8 vaddpd %ymm8, %ymm0, %ymm8 vmovapd 32960(%rbx), %ymm2 vmovapd 26272(%rbx), %ymm7 vmulpd %ymm2, %ymm7, %ymm9 vsubpd %ymm9, %ymm8, %ymm8 vmovapd 26720(%rbx), %ymm14 vmulpd %ymm14, %ymm3, %ymm9 vaddpd %ymm9, %ymm8, %ymm8 vmovapd 26592(%rbx), %ymm6 vmulpd %ymm6, %ymm2, %ymm9 vmovapd 26688(%rbx), %ymm11 vdivpd %ymm11, %ymm9, %ymm4 vmovapd %ymm4, 32736(%rbx) vmovapd 32992(%rbx), %ymm3 vmulpd %ymm4, %ymm3, %ymm9 vaddpd %ymm9, %ymm8, %ymm8 vmovapd %ymm8, 12032(%r11,%rdx) vmovaps 24384(%rbx), %ymm4 vmovaps %ymm4, 12128(%r11,%rdx) vmovapd %ymm10, %ymm4 vmulpd %ymm4, %ymm7, %ymm8 vmovapd %ymm15, %ymm10 vmulpd %ymm12, %ymm10, %ymm9 vaddpd %ymm9, %ymm0, %ymm9 vsubpd %ymm8, %ymm9, %ymm8 vmulpd %ymm14, %ymm10, %ymm9 vaddpd %ymm9, %ymm8, %ymm8 vmulpd %ymm6, %ymm4, %ymm9 vmovapd %ymm6, %ymm12 vdivpd %ymm11, %ymm9, %ymm6 vmovapd %ymm6, 26816(%rbx) vmulpd %ymm6, %ymm3, %ymm14 vaddpd %ymm14, %ymm8, %ymm8 vmovapd %ymm8, 12096(%r11,%rdx) vmovaps 24480(%rbx), %ymm6 vmovaps %ymm6, 12192(%r11,%rdx) vmovapd 22624(%rbx), %ymm2 vsubpd 24800(%rbx), %ymm2, %ymm2 vmovapd %ymm2, 26272(%rbx) vmovapd 22752(%rbx), %ymm6 vsubpd 24832(%rbx), %ymm6, %ymm8 vmovapd 26528(%rbx), %ymm14 vmovapd 22656(%rbx), %ymm2 vmulpd %ymm2, %ymm14, %ymm7 vaddpd %ymm7, %ymm5, %ymm15 vmovapd 31328(%rbx), %ymm13 vmulpd %ymm2, %ymm13, %ymm2 vmovapd 32800(%rbx), %ymm6 vmulpd 22720(%rbx), %ymm6, %ymm6 vaddpd %ymm6, %ymm5, %ymm6 vmovapd %ymm6, 31392(%rbx) vaddpd %ymm2, %ymm5, %ymm2 vmovapd %ymm2, 26720(%rbx) vmovapd 22688(%rbx), %ymm5 vmulpd %ymm5, %ymm10, %ymm2 vmovapd 31360(%rbx), %ymm9 vmulpd %ymm5, %ymm9, %ymm5 vaddpd %ymm5, %ymm0, %ymm5 vmovapd %ymm5, 24832(%rbx) vaddpd %ymm2, %ymm0, %ymm0 vmovapd %ymm0, 24800(%rbx) vsubpd 26368(%rbx), %ymm15, %ymm0 vmovapd %ymm0, 26400(%rbx) vmovapd 32064(%rbx), %ymm0 vmulpd %ymm12, %ymm0, %ymm6 vmovapd 26752(%rbx), %ymm7 vmulpd 32960(%rbx), %ymm7, %ymm0 vmulpd %ymm4, %ymm7, %ymm2 vmovapd %ymm2, 24704(%rbx) vmulpd %ymm12, %ymm7, %ymm15 vmovapd 32896(%rbx), %ymm2 vmulpd %ymm12, %ymm2, %ymm4 vmovapd %ymm11, %ymm2 vdivpd %ymm2, %ymm4, %ymm4 vdivpd %ymm2, %ymm15, %ymm15 vdivpd %ymm2, %ymm6, %ymm6 vmulpd %ymm6, %ymm3, %ymm12 vmovapd 26080(%rbx), %ymm2 vaddpd %ymm12, %ymm2, %ymm12 vmovapd %ymm12, 12160(%r11,%rdx) vmovaps 24576(%rbx), %ymm2 vmovaps %ymm2, 12256(%r11,%rdx) vmovapd %ymm13, %ymm2 vmovapd 24736(%rbx), %ymm11 vmulpd %ymm11, %ymm2, %ymm12 vaddpd %ymm12, %ymm8, %ymm3 vmovapd %ymm3, 32992(%rbx) vmulpd %ymm4, %ymm10, %ymm8 vmovapd 26272(%rbx), %ymm3 vaddpd %ymm8, %ymm3, %ymm3 vmovapd %ymm3, 32064(%rbx) vmovapd 32512(%rbx), %ymm3 vmulpd 32736(%rbx), %ymm3, %ymm8 vmovapd 24672(%rbx), %ymm3 vaddpd %ymm8, %ymm3, %ymm3 vmovapd %ymm3, 26752(%rbx) vmovapd 32480(%rbx), %ymm12 vmovapd 22816(%rbx), %ymm7 vmulpd %ymm7, %ymm12, %ymm8 vmovapd 26176(%rbx), %ymm3 vaddpd %ymm8, %ymm3, %ymm3 vmovapd %ymm3, 26368(%rbx) vmulpd %ymm11, %ymm14, %ymm8 vmovapd %ymm14, %ymm3 vmovapd 26784(%rbx), %ymm14 vaddpd %ymm8, %ymm14, %ymm5 vmovapd %ymm5, 32960(%rbx) vmulpd %ymm4, %ymm12, %ymm8 vmovapd 24512(%rbx), %ymm5 vaddpd %ymm8, %ymm5, %ymm5 vmovapd %ymm5, 26784(%rbx) vmovapd 32832(%rbx), %ymm14 vmulpd %ymm11, %ymm14, %ymm8 vmovapd 24896(%rbx), %ymm12 vaddpd %ymm8, %ymm12, %ymm5 vmovapd %ymm5, 26688(%rbx) vmulpd %ymm4, %ymm9, %ymm8 vmovapd 24608(%rbx), %ymm5 vaddpd %ymm8, %ymm5, %ymm5 vmovapd %ymm5, 26272(%rbx) vmovapd 24544(%rbx), %ymm8 vmovapd 32640(%rbx), %ymm5 vmulpd %ymm8, %ymm5, %ymm12 vmovapd 24640(%rbx), %ymm5 vaddpd %ymm12, %ymm5, %ymm5 vmovapd %ymm5, 24896(%rbx) vmovapd 26720(%rbx), %ymm5 vsubpd 26880(%rbx), %ymm5, %ymm5 vmovapd %ymm5, 32896(%rbx) vmovapd 24832(%rbx), %ymm5 vsubpd %ymm0, %ymm5, %ymm0 vmovapd %ymm0, 26880(%rbx) vmovapd 31424(%rbx), %ymm13 vmulpd %ymm13, %ymm2, %ymm0 vmovapd %ymm2, %ymm12 vmovapd 26144(%rbx), %ymm2 vaddpd %ymm0, %ymm2, %ymm0 vmovapd %ymm0, 26720(%rbx) vmulpd %ymm7, %ymm10, %ymm0 vmovapd 26496(%rbx), %ymm2 vaddpd %ymm0, %ymm2, %ymm0 vmovapd %ymm0, 26496(%rbx) vmovapd 32800(%rbx), %ymm5 vmulpd %ymm13, %ymm5, %ymm0 vmovapd 24448(%rbx), %ymm2 vaddpd %ymm0, %ymm2, %ymm0 vmovapd %ymm0, 26176(%rbx) vmovapd 26912(%rbx), %ymm13 vmulpd %ymm7, %ymm13, %ymm0 vmovapd 26336(%rbx), %ymm2 vaddpd %ymm0, %ymm2, %ymm0 vmovapd %ymm0, 26080(%rbx) vmovapd 26656(%rbx), %ymm0 vsubpd 24864(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 31424(%rbx) vmovapd 26432(%rbx), %ymm0 vsubpd 25664(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 26656(%rbx) vmovapd 24800(%rbx), %ymm0 vsubpd 24704(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 26432(%rbx) vmovapd 32480(%rbx), %ymm0 vmulpd %ymm15, %ymm0, %ymm0 vmulpd %ymm4, %ymm13, %ymm2 vmulpd %ymm15, %ymm13, %ymm4 vmovapd %ymm4, 26336(%rbx) vmulpd %ymm15, %ymm10, %ymm4 vmovapd %ymm4, 26144(%rbx) vmulpd %ymm15, %ymm9, %ymm4 vmovapd %ymm4, 25664(%rbx) vmovapd 26624(%rbx), %ymm4 vaddpd %ymm2, %ymm4, %ymm2 vmovapd %ymm2, 32480(%rbx) vmovapd 26464(%rbx), %ymm7 vmulpd %ymm7, %ymm3, %ymm2 vmovapd 26400(%rbx), %ymm3 vaddpd %ymm2, %ymm3, %ymm2 vmovapd %ymm2, 31360(%rbx) vmovapd 26848(%rbx), %ymm2 vaddpd %ymm0, %ymm2, %ymm0 vmovapd %ymm0, 26912(%rbx) vmulpd %ymm7, %ymm14, %ymm0 vmovapd 32448(%rbx), %ymm2 vaddpd %ymm0, %ymm2, %ymm0 vmovapd %ymm0, 32448(%rbx) vmovapd 31392(%rbx), %ymm0 vsubpd 31520(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 31520(%rbx) vmulpd %ymm7, %ymm12, %ymm2 vmovapd %ymm5, %ymm4 vmulpd %ymm7, %ymm4, %ymm0 vmulpd %ymm11, %ymm4, %ymm3 vmovapd %ymm3, 26848(%rbx) vmovapd 32416(%rbx), %ymm15 vmovapd 32736(%rbx), %ymm3 vmulpd %ymm3, %ymm15, %ymm4 vmovapd 32864(%rbx), %ymm5 vmulpd %ymm3, %ymm5, %ymm3 vmovapd %ymm3, 32832(%rbx) vmovapd 26816(%rbx), %ymm7 vmulpd %ymm7, %ymm15, %ymm13 vmovapd 32512(%rbx), %ymm3 vmulpd %ymm7, %ymm3, %ymm14 vmulpd %ymm7, %ymm5, %ymm7 vmovapd %ymm7, 32800(%rbx) vmovapd %ymm5, %ymm11 vmovapd 26208(%rbx), %ymm7 vmulpd %ymm7, %ymm15, %ymm5 vmulpd %ymm6, %ymm15, %ymm9 vmovapd %ymm9, 32416(%rbx) vmulpd %ymm6, %ymm3, %ymm9 vmulpd %ymm6, %ymm11, %ymm6 vmovapd %ymm6, 31392(%rbx) vmulpd %ymm7, %ymm11, %ymm6 vmovapd %ymm6, 31328(%rbx) vmulpd %ymm7, %ymm3, %ymm3 vmovapd 26368(%rbx), %ymm6 vaddpd %ymm3, %ymm6, %ymm3 vmovapd %ymm3, 12224(%r11,%rdx) vmovaps 24896(%rbx), %ymm3 vmovaps %ymm3, 12320(%r11,%rdx) vmovaps 26752(%rbx), %ymm3 vmovaps %ymm3, 12288(%r11,%rdx) vmovapd 32064(%rbx), %ymm3 vaddpd %ymm13, %ymm3, %ymm3 vmovapd %ymm3, 32864(%rbx) vmovapd 32096(%rbx), %ymm6 vmovapd 26048(%rbx), %ymm11 vmulpd %ymm11, %ymm6, %ymm3 vmovapd 32992(%rbx), %ymm7 vaddpd %ymm3, %ymm7, %ymm3 vmovapd %ymm3, 32992(%rbx) vmovapd 26272(%rbx), %ymm3 vaddpd %ymm4, %ymm3, %ymm3 vmovapd %ymm3, 32736(%rbx) vmovapd %ymm8, %ymm10 vmulpd %ymm10, %ymm6, %ymm3 vmovapd 26688(%rbx), %ymm4 vaddpd %ymm3, %ymm4, %ymm3 vmovapd %ymm3, 32512(%rbx) vmovapd 26784(%rbx), %ymm3 vaddpd %ymm5, %ymm3, %ymm3 vmovapd %ymm3, 32064(%rbx) vmovapd 31488(%rbx), %ymm7 vmulpd %ymm7, %ymm6, %ymm3 vmovapd %ymm6, %ymm4 vmovapd 32960(%rbx), %ymm5 vaddpd %ymm3, %ymm5, %ymm3 vmovapd %ymm3, 32960(%rbx) vmovapd 26080(%rbx), %ymm3 vaddpd %ymm9, %ymm3, %ymm3 vmovapd %ymm3, 26816(%rbx) vmovapd 32640(%rbx), %ymm5 vmovapd 26112(%rbx), %ymm12 vmulpd %ymm12, %ymm5, %ymm3 vmovapd 26176(%rbx), %ymm6 vaddpd %ymm3, %ymm6, %ymm3 vmovapd %ymm3, 26784(%rbx) vmovapd 26496(%rbx), %ymm3 vaddpd %ymm14, %ymm3, %ymm9 vmulpd %ymm11, %ymm5, %ymm3 vmovapd %ymm11, %ymm6 vmovapd 26720(%rbx), %ymm5 vaddpd %ymm3, %ymm5, %ymm13 vmovapd 26880(%rbx), %ymm3 vaddpd 25664(%rbx), %ymm3, %ymm8 vmovapd 32896(%rbx), %ymm3 vaddpd %ymm2, %ymm3, %ymm2 vmovapd 26432(%rbx), %ymm3 vaddpd 26144(%rbx), %ymm3, %ymm15 vmovapd 26656(%rbx), %ymm3 vaddpd %ymm0, %ymm3, %ymm0 vmovapd 31424(%rbx), %ymm3 vaddpd 26336(%rbx), %ymm3, %ymm3 vmovapd 31520(%rbx), %ymm5 vaddpd 26848(%rbx), %ymm5, %ymm11 vmovapd 32928(%rbx), %ymm5 vmulpd %ymm6, %ymm5, %ymm14 vmulpd %ymm12, %ymm4, %ymm4 vmulpd %ymm12, %ymm5, %ymm12 vmulpd %ymm7, %ymm5, %ymm6 vmulpd %ymm10, %ymm5, %ymm5 vmovapd 32448(%rbx), %ymm7 vaddpd %ymm5, %ymm7, %ymm5 vmovapd 26912(%rbx), %ymm7 vaddpd 31328(%rbx), %ymm7, %ymm10 vmovapd 31360(%rbx), %ymm7 vaddpd %ymm6, %ymm7, %ymm6 vmovapd %ymm6, 31424(%rbx) vmovapd 32480(%rbx), %ymm6 vaddpd 32416(%rbx), %ymm6, %ymm6 vmovapd %ymm6, 31360(%rbx) vaddpd %ymm4, %ymm11, %ymm11 vaddpd 31392(%rbx), %ymm3, %ymm6 vaddpd %ymm12, %ymm0, %ymm0 vmovapd %ymm0, 31488(%rbx) vaddpd 32800(%rbx), %ymm15, %ymm0 vmovapd %ymm0, 31392(%rbx) vmovapd 26240(%rbx), %ymm15 vaddpd %ymm14, %ymm2, %ymm14 vaddpd 32832(%rbx), %ymm8, %ymm3 vmovapd %ymm13, 12384(%r11,%rdx) vmovapd %ymm9, 12352(%r11,%rdx) vmovaps 26784(%rbx), %ymm0 vmovaps %ymm0, 12448(%r11,%rdx) vmovaps 26816(%rbx), %ymm0 vmovaps %ymm0, 12416(%r11,%rdx) vmovaps 32960(%rbx), %ymm0 vmovaps %ymm0, 12512(%r11,%rdx) vmovaps 32064(%rbx), %ymm0 vmovaps %ymm0, 12480(%r11,%rdx) vmovaps 32512(%rbx), %ymm0 vmovaps %ymm0, 12576(%r11,%rdx) vmovaps 32736(%rbx), %ymm0 vmovaps %ymm0, 12544(%r11,%rdx) vmovaps 32992(%rbx), %ymm0 vmovaps %ymm0, 12640(%r11,%rdx) vmovaps 32864(%rbx), %ymm0 vmovaps %ymm0, 12608(%r11,%rdx) movq %r11, %rax movl $4, %r11d movq 11312(%rbx), %rcx leaq (%rcx,%rdx), %rsi leaq 9888(%rax,%rdx), %rcx movq %rcx, 21776(%rbx) leaq 9856(%rax,%rdx), %rcx movq %rcx, 21760(%rbx) leaq 9824(%rax,%rdx), %rcx movq %rcx, 21744(%rbx) leaq 9792(%rax,%rdx), %rcx movq %rcx, 21728(%rbx) leaq 9760(%rax,%rdx), %rcx movq %rcx, 21712(%rbx) leaq 9728(%rax,%rdx), %rcx movq %rcx, 21696(%rbx) leaq 9696(%rax,%rdx), %rcx movq %rcx, 21680(%rbx) leaq 9664(%rax,%rdx), %rcx movq %rcx, 21664(%rbx) movq %rdx, %rdi leaq 8896(%rax,%rdi), %rcx movq %rcx, 32928(%rbx) leaq 8384(%rax,%rdi), %rcx movq %rcx, 32992(%rbx) leaq 7872(%rax,%rdi), %rcx movq %rcx, 32960(%rbx) leaq 7360(%rax,%rdi), %r8 movq %r8, 32896(%rbx) leaq 6848(%rax,%rdi), %rcx movq %rcx, 32864(%rbx) leaq 6336(%rax,%rdi), %r13 movq %r13, 32416(%rbx) leaq 5824(%rax,%rdi), %rcx movq %rcx, 32096(%rbx) leaq 5312(%rax,%rdi), %rcx movq %rcx, 32832(%rbx) leaq 4800(%rax,%rdi), %rcx movq %rcx, 31520(%rbx) leaq 4288(%rax,%rdi), %rcx movq %rcx, 32512(%rbx) leaq 3776(%rax,%rdi), %rcx movq %rcx, 32480(%rbx) leaq 3264(%rax,%rdi), %rdx movq %rdx, 32800(%rbx) leaq 2752(%rax,%rdi), %rcx movq %rcx, 32736(%rbx) leaq 2240(%rax,%rdi), %rcx movq %rcx, 32448(%rbx) leaq 1728(%rax,%rdi), %rcx movq %rcx, 32064(%rbx) leaq 1216(%rax,%rdi), %rcx movq %rcx, 32640(%rbx) vmovapd 26304(%rbx), %ymm0 vextractf128 $1, %ymm0, %xmm13 vextractf128 $1, %ymm15, %xmm4 vunpckhpd %xmm13, %xmm13, %xmm9 vunpckhpd %xmm0, %xmm0, %xmm12 vunpckhpd %xmm4, %xmm4, %xmm7 vunpckhpd %xmm15, %xmm15, %xmm2 vmovapd %ymm11, 12704(%rax,%rdi) vmovaps 31360(%rbx), %ymm8 vmovaps %ymm8, 12672(%rax,%rdi) vmovapd 31424(%rbx), %ymm8 vmovapd %ymm8, 12768(%rax,%rdi) vmovapd %ymm10, 12736(%rax,%rdi) vmovapd %ymm5, 12832(%rax,%rdi) vmovapd %ymm3, 12800(%rax,%rdi) vmovapd %ymm14, 12896(%rax,%rdi) vmovapd %ymm0, %ymm14 vmovaps 31392(%rbx), %ymm0 vmovaps %ymm0, 12864(%rax,%rdi) vmovapd 31488(%rbx), %ymm0 vmovapd %ymm0, 12960(%rax,%rdi) vmovapd %ymm6, 12928(%rax,%rdi) movq 12016(%rbx), %r14 xorl %edi, %edi .align 16, 0x90 .LBB1_3462: movq 32792(%rbx), %rax movq 31456(%rbx), %r15 movq $0, 9664(%rax,%r15) movq $0, 9696(%rax,%r15) movq $0, 9728(%rax,%r15) movq $0, 9760(%rax,%r15) movq $0, 9792(%rax,%r15) movq $0, 9824(%rax,%r15) leaq 8(%r14), %rdx leaq 1(%rdi), %rcx decl %r11d movq $0, 9856(%rax,%r15) movq $0, 9888(%rax,%r15) vmovsd %xmm15, 9672(%rax,%r15) vmovsd %xmm2, 9704(%rax,%r15) vmovsd %xmm4, 9736(%rax,%r15) vmovsd %xmm7, 9768(%rax,%r15) vmovsd %xmm14, 9800(%rax,%r15) vmovsd %xmm12, 9832(%rax,%r15) vmovsd %xmm13, 9864(%rax,%r15) vmovsd %xmm9, 9896(%rax,%r15) vmovsd %xmm1, 9680(%rax,%r15) vmovsd %xmm1, 9712(%rax,%r15) vmovsd %xmm1, 9744(%rax,%r15) vmovsd %xmm1, 9776(%rax,%r15) vmovsd %xmm1, 9808(%rax,%r15) vmovsd %xmm1, 9840(%rax,%r15) vmovsd %xmm1, 9872(%rax,%r15) vmovsd %xmm1, 9904(%rax,%r15) movq $0, 9688(%rax,%r15) movq $0, 9720(%rax,%r15) movq $0, 9752(%rax,%r15) movq $0, 9784(%rax,%r15) movq $0, 9816(%rax,%r15) movq $0, 9848(%rax,%r15) movq $0, 9880(%rax,%r15) movq $0, 9912(%rax,%r15) movq $0, 9408(%rax,%r15) movq $0, 9440(%rax,%r15) movq $0, 9472(%rax,%r15) movq $0, 9504(%rax,%r15) movq $0, 9536(%rax,%r15) movq $0, 9568(%rax,%r15) movq $0, 9600(%rax,%r15) movq $0, 9632(%rax,%r15) vmovsd %xmm15, 9416(%rax,%r15) vmovsd %xmm2, 9448(%rax,%r15) vmovsd %xmm4, 9480(%rax,%r15) vmovsd %xmm7, 9512(%rax,%r15) vmovsd %xmm14, 9544(%rax,%r15) vmovsd %xmm12, 9576(%rax,%r15) vmovsd %xmm13, 9608(%rax,%r15) vmovsd %xmm9, 9640(%rax,%r15) vmovsd %xmm1, 9424(%rax,%r15) vmovsd %xmm1, 9456(%rax,%r15) vmovsd %xmm1, 9488(%rax,%r15) vmovsd %xmm1, 9520(%rax,%r15) vmovsd %xmm1, 9552(%rax,%r15) vmovsd %xmm1, 9584(%rax,%r15) vmovsd %xmm1, 9616(%rax,%r15) vmovsd %xmm1, 9648(%rax,%r15) movq $0, 9432(%rax,%r15) movq $0, 9464(%rax,%r15) movq $0, 9496(%rax,%r15) movq $0, 9528(%rax,%r15) movq $0, 9560(%rax,%r15) movq $0, 9592(%rax,%r15) movq $0, 9624(%rax,%r15) movq $0, 9656(%rax,%r15) vmovsd (%r14), %xmm0 vmovhpd -192(%rsi,%rdi,8), %xmm0, %xmm3 vmovsd -160(%rsi,%rdi,8), %xmm0 vmovhpd -128(%rsi,%rdi,8), %xmm0, %xmm0 vinsertf128 $1, %xmm0, %ymm3, %ymm0 vmovapd .LCPI1_69(%rip), %ymm8 vaddpd %ymm8, %ymm0, %ymm3 vmovsd -32(%rsi,%rdi,8), %xmm0 vmovhpd (%rsi,%rdi,8), %xmm0, %xmm5 vmovsd -96(%rsi,%rdi,8), %xmm0 vmovhpd -64(%rsi,%rdi,8), %xmm0, %xmm6 vmovlpd %xmm3, (%r14) vmovhpd %xmm3, -192(%rsi,%rdi,8) vextractf128 $1, %ymm3, %xmm0 vmovlpd %xmm0, -160(%rsi,%rdi,8) vmovhpd %xmm0, -128(%rsi,%rdi,8) vinsertf128 $1, %xmm5, %ymm6, %ymm0 vaddpd %ymm8, %ymm0, %ymm5 vmovlpd %xmm5, -96(%rsi,%rdi,8) vmovhpd %xmm5, -64(%rsi,%rdi,8) vextractf128 $1, %ymm5, %xmm0 vmovlpd %xmm0, -32(%rsi,%rdi,8) vmovhpd %xmm0, (%rsi,%rdi,8) vmovsd -416(%rsi,%rdi,8), %xmm0 vmovhpd -384(%rsi,%rdi,8), %xmm0, %xmm6 vmovsd -480(%rsi,%rdi,8), %xmm0 vmovhpd -448(%rsi,%rdi,8), %xmm0, %xmm0 vinsertf128 $1, %xmm6, %ymm0, %ymm0 vmovapd .LCPI1_70(%rip), %ymm11 vaddpd %ymm11, %ymm0, %ymm8 vmovsd -288(%rsi,%rdi,8), %xmm0 vmovhpd -256(%rsi,%rdi,8), %xmm0, %xmm6 vmovsd -352(%rsi,%rdi,8), %xmm0 vmovhpd -320(%rsi,%rdi,8), %xmm0, %xmm10 vmovlpd %xmm8, -480(%rsi,%rdi,8) vmovhpd %xmm8, -448(%rsi,%rdi,8) vextractf128 $1, %ymm8, %xmm0 vmovlpd %xmm0, -416(%rsi,%rdi,8) vmovhpd %xmm0, -384(%rsi,%rdi,8) vinsertf128 $1, %xmm6, %ymm10, %ymm0 vaddpd %ymm11, %ymm0, %ymm10 vmovlpd %xmm10, -352(%rsi,%rdi,8) vmovhpd %xmm10, -320(%rsi,%rdi,8) vsubpd %ymm3, %ymm8, %ymm6 vsubpd %ymm5, %ymm10, %ymm0 vextractf128 $1, %ymm10, %xmm3 vmovlpd %xmm3, -288(%rsi,%rdi,8) vxorpd %ymm5, %ymm5, %ymm5 vdivpd %ymm0, %ymm5, %ymm8 vmovhpd %xmm3, -256(%rsi,%rdi,8) vextractf128 $1, %ymm8, %xmm3 vdivpd %ymm6, %ymm5, %ymm10 vextractf128 $1, %ymm10, %xmm5 vmovlpd %xmm10, -4576(%rsi,%rdi,8) vmovhpd %xmm10, -4064(%rsi,%rdi,8) vmovlpd %xmm5, -3552(%rsi,%rdi,8) vmovhpd %xmm5, -3040(%rsi,%rdi,8) vmovlpd %xmm8, -2528(%rsi,%rdi,8) vmovhpd %xmm8, -2016(%rsi,%rdi,8) vmovlpd %xmm3, -1504(%rsi,%rdi,8) vmovhpd %xmm3, -992(%rsi,%rdi,8) vmovlpd %xmm10, -4544(%rsi,%rdi,8) vmovhpd %xmm10, -4032(%rsi,%rdi,8) vmovlpd %xmm5, -3520(%rsi,%rdi,8) vmovhpd %xmm5, -3008(%rsi,%rdi,8) vmovlpd %xmm8, -2496(%rsi,%rdi,8) vmovhpd %xmm8, -1984(%rsi,%rdi,8) vmovlpd %xmm3, -1472(%rsi,%rdi,8) vmovhpd %xmm3, -960(%rsi,%rdi,8) vmovlpd %xmm10, -4512(%rsi,%rdi,8) vmovhpd %xmm10, -4000(%rsi,%rdi,8) vmovlpd %xmm5, -3488(%rsi,%rdi,8) vmovhpd %xmm5, -2976(%rsi,%rdi,8) vmovlpd %xmm8, -2464(%rsi,%rdi,8) vmovhpd %xmm8, -1952(%rsi,%rdi,8) vmovlpd %xmm3, -1440(%rsi,%rdi,8) vmovhpd %xmm3, -928(%rsi,%rdi,8) vmovlpd %xmm10, -4480(%rsi,%rdi,8) vmovhpd %xmm10, -3968(%rsi,%rdi,8) vmovlpd %xmm5, -3456(%rsi,%rdi,8) vmovhpd %xmm5, -2944(%rsi,%rdi,8) vmovlpd %xmm8, -2432(%rsi,%rdi,8) vmovhpd %xmm8, -1920(%rsi,%rdi,8) vmovlpd %xmm3, -1408(%rsi,%rdi,8) vmovhpd %xmm3, -896(%rsi,%rdi,8) vmovlpd %xmm10, -4448(%rsi,%rdi,8) vmovhpd %xmm10, -3936(%rsi,%rdi,8) vmovlpd %xmm5, -3424(%rsi,%rdi,8) vmovhpd %xmm5, -2912(%rsi,%rdi,8) vmovlpd %xmm8, -2400(%rsi,%rdi,8) vmovhpd %xmm8, -1888(%rsi,%rdi,8) vmovlpd %xmm3, -1376(%rsi,%rdi,8) vmovhpd %xmm3, -864(%rsi,%rdi,8) vmovlpd %xmm10, -4416(%rsi,%rdi,8) vmovhpd %xmm10, -3904(%rsi,%rdi,8) vmovlpd %xmm5, -3392(%rsi,%rdi,8) vmovhpd %xmm5, -2880(%rsi,%rdi,8) vmovlpd %xmm8, -2368(%rsi,%rdi,8) vmovhpd %xmm8, -1856(%rsi,%rdi,8) vmovlpd %xmm3, -1344(%rsi,%rdi,8) vmovhpd %xmm3, -832(%rsi,%rdi,8) vmovlpd %xmm10, -4384(%rsi,%rdi,8) vmovhpd %xmm10, -3872(%rsi,%rdi,8) vmovlpd %xmm5, -3360(%rsi,%rdi,8) vmovhpd %xmm5, -2848(%rsi,%rdi,8) vmovlpd %xmm8, -2336(%rsi,%rdi,8) vmovhpd %xmm8, -1824(%rsi,%rdi,8) vmovlpd %xmm3, -1312(%rsi,%rdi,8) vmovhpd %xmm3, -800(%rsi,%rdi,8) vmovlpd %xmm10, -4352(%rsi,%rdi,8) vmovhpd %xmm10, -3840(%rsi,%rdi,8) vmovlpd %xmm5, -3328(%rsi,%rdi,8) vmovhpd %xmm5, -2816(%rsi,%rdi,8) vmovlpd %xmm8, -2304(%rsi,%rdi,8) vmovhpd %xmm8, -1792(%rsi,%rdi,8) vmovlpd %xmm3, -1280(%rsi,%rdi,8) vmovhpd %xmm3, -768(%rsi,%rdi,8) vmovlpd %xmm10, -4320(%rsi,%rdi,8) vmovhpd %xmm10, -3808(%rsi,%rdi,8) vmovlpd %xmm5, -3296(%rsi,%rdi,8) vmovhpd %xmm5, -2784(%rsi,%rdi,8) vmovlpd %xmm8, -2272(%rsi,%rdi,8) vmovhpd %xmm8, -1760(%rsi,%rdi,8) vmovlpd %xmm3, -1248(%rsi,%rdi,8) vmovhpd %xmm3, -736(%rsi,%rdi,8) vmovlpd %xmm10, -4288(%rsi,%rdi,8) vmovhpd %xmm10, -3776(%rsi,%rdi,8) vmovlpd %xmm5, -3264(%rsi,%rdi,8) vmovhpd %xmm5, -2752(%rsi,%rdi,8) vmovlpd %xmm8, -2240(%rsi,%rdi,8) vmovhpd %xmm8, -1728(%rsi,%rdi,8) vmovlpd %xmm3, -1216(%rsi,%rdi,8) vmovhpd %xmm3, -704(%rsi,%rdi,8) vmovlpd %xmm10, -4256(%rsi,%rdi,8) vmovhpd %xmm10, -3744(%rsi,%rdi,8) vmovlpd %xmm5, -3232(%rsi,%rdi,8) vmovhpd %xmm5, -2720(%rsi,%rdi,8) vmovlpd %xmm8, -2208(%rsi,%rdi,8) vmovhpd %xmm8, -1696(%rsi,%rdi,8) vmovlpd %xmm3, -1184(%rsi,%rdi,8) vmovhpd %xmm3, -672(%rsi,%rdi,8) vmovlpd %xmm10, -4224(%rsi,%rdi,8) vmovhpd %xmm10, -3712(%rsi,%rdi,8) vmovlpd %xmm5, -3200(%rsi,%rdi,8) vmovhpd %xmm5, -2688(%rsi,%rdi,8) vmovlpd %xmm8, -2176(%rsi,%rdi,8) vmovhpd %xmm8, -1664(%rsi,%rdi,8) vmovlpd %xmm3, -1152(%rsi,%rdi,8) vmovhpd %xmm3, -640(%rsi,%rdi,8) vmovlpd %xmm10, -4192(%rsi,%rdi,8) vmovhpd %xmm10, -3680(%rsi,%rdi,8) vmovlpd %xmm5, -3168(%rsi,%rdi,8) vmovhpd %xmm5, -2656(%rsi,%rdi,8) vmovlpd %xmm8, -2144(%rsi,%rdi,8) vmovhpd %xmm8, -1632(%rsi,%rdi,8) vmovlpd %xmm3, -1120(%rsi,%rdi,8) vmovhpd %xmm3, -608(%rsi,%rdi,8) vmovlpd %xmm10, -4160(%rsi,%rdi,8) vmovhpd %xmm10, -3648(%rsi,%rdi,8) vmovlpd %xmm5, -3136(%rsi,%rdi,8) vmovhpd %xmm5, -2624(%rsi,%rdi,8) vmovlpd %xmm8, -2112(%rsi,%rdi,8) vmovhpd %xmm8, -1600(%rsi,%rdi,8) vmovlpd %xmm3, -1088(%rsi,%rdi,8) vmovhpd %xmm3, -576(%rsi,%rdi,8) vmovlpd %xmm10, -4128(%rsi,%rdi,8) vmovhpd %xmm10, -3616(%rsi,%rdi,8) vmovlpd %xmm5, -3104(%rsi,%rdi,8) vmovhpd %xmm5, -2592(%rsi,%rdi,8) vmovlpd %xmm8, -2080(%rsi,%rdi,8) vmovhpd %xmm8, -1568(%rsi,%rdi,8) vmovlpd %xmm3, -1056(%rsi,%rdi,8) vmovhpd %xmm3, -544(%rsi,%rdi,8) vmovlpd %xmm10, -4096(%rsi,%rdi,8) vmovhpd %xmm10, -3584(%rsi,%rdi,8) vmovlpd %xmm5, -3072(%rsi,%rdi,8) vmovhpd %xmm5, -2560(%rsi,%rdi,8) vmovlpd %xmm8, -2048(%rsi,%rdi,8) vmovhpd %xmm8, -1536(%rsi,%rdi,8) vmovlpd %xmm3, -1024(%rsi,%rdi,8) vmovhpd %xmm3, -512(%rsi,%rdi,8) movq %rdx, %r14 movq %rcx, %rdi movl $0, %r15d jne .LBB1_3462 .align 16, 0x90 .LBB1_3463: vmovsd (%r8,%r15,8), %xmm1 movq %r15, %r14 shlq $5, %r14 vmovsd (%r8,%r14), %xmm2 movq 32992(%rbx), %r10 vmovsd (%r10,%r14), %xmm5 vmovsd (%r10,%r15,8), %xmm4 movq %r13, %r12 vmovsd (%r12,%r14), %xmm3 movq 32832(%rbx), %r13 vmovsd (%r13,%r14), %xmm0 vmovsd (%r12,%r15,8), %xmm6 movq %r12, %rsi movq 32096(%rbx), %r9 vmovhpd (%r9,%r14), %xmm0, %xmm0 movq 32960(%rbx), %rcx vmovhpd (%rcx,%r15,8), %xmm1, %xmm1 vmovhpd (%rcx,%r14), %xmm2, %xmm2 leaq 1(%r15), %rdx movq %rdx, 31488(%rbx) movq %r15, %r11 shlq $7, %r11 cmpl $4, %edx movq 32928(%rbx), %rax vmovhpd (%rax,%r14), %xmm5, %xmm5 vmovhpd (%rax,%r15,8), %xmm4, %xmm4 movq 32864(%rbx), %rdx vmovhpd (%rdx,%r14), %xmm3, %xmm3 vmovhpd (%rdx,%r15,8), %xmm6, %xmm6 movq %rdx, %r12 vmovsd (%r13,%r15,8), %xmm7 vmovhpd (%r9,%r15,8), %xmm7, %xmm7 vinsertf128 $1, %xmm6, %ymm7, %ymm6 vinsertf128 $1, %xmm3, %ymm0, %ymm3 vinsertf128 $1, %xmm4, %ymm1, %ymm0 vinsertf128 $1, %xmm5, %ymm2, %ymm1 vaddpd %ymm3, %ymm3, %ymm2 vsubpd %ymm6, %ymm2, %ymm2 vmovapd .LCPI1_28(%rip), %ymm9 vmulpd %ymm9, %ymm2, %ymm2 movq 32640(%rbx), %rdx vmovlpd %xmm2, (%rdx,%r11) movq %rdx, %r8 movq 32064(%rbx), %rdx vmovhpd %xmm2, (%rdx,%r11) vextractf128 $1, %ymm2, %xmm2 movq 32448(%rbx), %rdx vmovlpd %xmm2, (%rdx,%r11) vaddpd %ymm1, %ymm1, %ymm1 movq 32736(%rbx), %rdx vmovhpd %xmm2, (%rdx,%r11) vsubpd %ymm0, %ymm1, %ymm0 vmulpd %ymm9, %ymm0, %ymm0 movq 32800(%rbx), %rdx vmovlpd %xmm0, (%rdx,%r11) movq 32480(%rbx), %rdx vmovhpd %xmm0, (%rdx,%r11) vextractf128 $1, %ymm0, %xmm0 movq 32512(%rbx), %rdx vmovlpd %xmm0, (%rdx,%r11) movq 31520(%rbx), %rdi vmovhpd %xmm0, (%rdi,%r11) movq %rsi, %rdi vmovsd 8(%rdi,%r14), %xmm0 vmovsd 128(%rdi,%r14), %xmm1 vmovhpd 128(%r12,%r14), %xmm1, %xmm2 vmovsd 8(%r13,%r14), %xmm1 vmovsd 128(%r13,%r14), %xmm3 vmovhpd 128(%r9,%r14), %xmm3, %xmm3 vinsertf128 $1, %xmm2, %ymm3, %ymm2 vmovhpd 8(%r12,%r14), %xmm0, %xmm0 vmovhpd 8(%r9,%r14), %xmm1, %xmm1 vinsertf128 $1, %xmm0, %ymm1, %ymm1 vmovsd 128(%rdi,%r15,8), %xmm0 vaddpd %ymm2, %ymm1, %ymm12 vmovhpd 128(%r12,%r15,8), %xmm0, %xmm0 vmovsd 128(%r13,%r15,8), %xmm1 vmovhpd 128(%r9,%r15,8), %xmm1, %xmm1 vinsertf128 $1, %xmm0, %ymm1, %ymm0 vsubpd %ymm0, %ymm12, %ymm0 vmovsd 8(%r10,%r14), %xmm6 vmovsd 128(%r10,%r14), %xmm3 movq 32896(%rbx), %rsi vmovsd 8(%rsi,%r14), %xmm7 vmovsd 128(%rsi,%r14), %xmm5 vmovsd 128(%rsi,%r15,8), %xmm2 vmovsd 128(%r10,%r15,8), %xmm4 vmulpd %ymm9, %ymm0, %ymm1 vmovhpd 128(%rax,%r15,8), %xmm4, %xmm0 vmovhpd 128(%rcx,%r15,8), %xmm2, %xmm2 vmovhpd 8(%rax,%r14), %xmm6, %xmm6 vmovhpd 8(%rcx,%r14), %xmm7, %xmm7 vmovhpd 128(%rax,%r14), %xmm3, %xmm3 vmovhpd 128(%rcx,%r14), %xmm5, %xmm5 vmovlpd %xmm1, 8(%r8,%r11) movq 32064(%rbx), %rcx vmovhpd %xmm1, 8(%rcx,%r11) vinsertf128 $1, %xmm3, %ymm5, %ymm3 vinsertf128 $1, %xmm6, %ymm7, %ymm4 vaddpd %ymm3, %ymm4, %ymm5 vextractf128 $1, %ymm1, %xmm1 vinsertf128 $1, %xmm0, %ymm2, %ymm0 movq 32448(%rbx), %rax vmovlpd %xmm1, 8(%rax,%r11) movq 32736(%rbx), %r8 vmovhpd %xmm1, 8(%r8,%r11) vsubpd %ymm0, %ymm5, %ymm0 vmulpd %ymm9, %ymm0, %ymm0 movq 32800(%rbx), %rsi vmovlpd %xmm0, 8(%rsi,%r11) movq 32480(%rbx), %rsi vmovhpd %xmm0, 8(%rsi,%r11) vextractf128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 8(%rdx,%r11) movq 31520(%rbx), %rdx vmovhpd %xmm0, 8(%rdx,%r11) vmovsd 16(%rdi,%r14), %xmm0 vmovsd 256(%rdi,%r14), %xmm1 vmovhpd 256(%r12,%r14), %xmm1, %xmm2 vmovsd 16(%r13,%r14), %xmm1 vmovsd 256(%r13,%r14), %xmm3 vmovhpd 256(%r9,%r14), %xmm3, %xmm3 vinsertf128 $1, %xmm2, %ymm3, %ymm2 vmovhpd 16(%r12,%r14), %xmm0, %xmm0 vmovhpd 16(%r9,%r14), %xmm1, %xmm1 vinsertf128 $1, %xmm0, %ymm1, %ymm1 vmovsd 256(%rdi,%r15,8), %xmm0 vaddpd %ymm2, %ymm1, %ymm11 vmovhpd 256(%r12,%r15,8), %xmm0, %xmm0 vmovsd 256(%r13,%r15,8), %xmm1 vmovhpd 256(%r9,%r15,8), %xmm1, %xmm1 vinsertf128 $1, %xmm0, %ymm1, %ymm0 vsubpd %ymm0, %ymm11, %ymm0 movq %r10, %rdx vmovsd 16(%rdx,%r14), %xmm7 vmovsd 256(%rdx,%r14), %xmm3 movq 32896(%rbx), %r10 vmovsd 16(%r10,%r14), %xmm2 vmovsd 256(%r10,%r14), %xmm6 vmovsd 256(%rdx,%r15,8), %xmm4 vmulpd %ymm9, %ymm0, %ymm1 movq 32928(%rbx), %rdx vmovhpd 256(%rdx,%r15,8), %xmm4, %xmm0 vmovsd 256(%r10,%r15,8), %xmm4 movq 32960(%rbx), %r10 vmovhpd 256(%r10,%r15,8), %xmm4, %xmm8 vmovhpd 16(%rdx,%r14), %xmm7, %xmm7 vmovhpd 16(%r10,%r14), %xmm2, %xmm2 vmovhpd 256(%rdx,%r14), %xmm3, %xmm3 vmovhpd 256(%r10,%r14), %xmm6, %xmm6 movq 32640(%rbx), %rdx vmovlpd %xmm1, 16(%rdx,%r11) vmovhpd %xmm1, 16(%rcx,%r11) vinsertf128 $1, %xmm3, %ymm6, %ymm3 vinsertf128 $1, %xmm7, %ymm2, %ymm2 vaddpd %ymm3, %ymm2, %ymm14 vextractf128 $1, %ymm1, %xmm1 vinsertf128 $1, %xmm0, %ymm8, %ymm0 vmovlpd %xmm1, 16(%rax,%r11) vmovhpd %xmm1, 16(%r8,%r11) vsubpd %ymm0, %ymm14, %ymm0 vmulpd %ymm9, %ymm0, %ymm0 movq 32800(%rbx), %rax vmovlpd %xmm0, 16(%rax,%r11) vmovhpd %xmm0, 16(%rsi,%r11) vextractf128 $1, %ymm0, %xmm0 movq 32512(%rbx), %rax vmovlpd %xmm0, 16(%rax,%r11) movq 31520(%rbx), %rax vmovhpd %xmm0, 16(%rax,%r11) movq %rax, %rsi vmovsd 24(%r13,%r14), %xmm0 vmovsd 384(%r13,%r14), %xmm1 vmovhpd 24(%r9,%r14), %xmm0, %xmm0 vmovsd 24(%rdi,%r14), %xmm2 vmovsd 384(%rdi,%r14), %xmm3 vmovhpd 24(%r12,%r14), %xmm2, %xmm2 vmovhpd 384(%r12,%r14), %xmm3, %xmm3 vmovhpd 384(%r9,%r14), %xmm1, %xmm1 vinsertf128 $1, %xmm3, %ymm1, %ymm1 vinsertf128 $1, %xmm2, %ymm0, %ymm0 vmovsd 384(%rdi,%r15,8), %xmm2 vmovhpd 384(%r12,%r15,8), %xmm2, %xmm2 vmovsd 384(%r13,%r15,8), %xmm3 movq %r13, %r8 vmovhpd 384(%r9,%r15,8), %xmm3, %xmm3 vaddpd %ymm1, %ymm0, %ymm4 vmovapd %ymm4, 31424(%rbx) vinsertf128 $1, %xmm2, %ymm3, %ymm0 movq 32896(%rbx), %rax vmovsd 24(%rax,%r14), %xmm7 vmovsd 384(%rax,%r14), %xmm1 movq 32992(%rbx), %rcx vmovsd 24(%rcx,%r14), %xmm3 vmovsd 384(%rcx,%r14), %xmm2 vsubpd %ymm0, %ymm4, %ymm0 vmovsd 384(%rcx,%r15,8), %xmm4 vmulpd %ymm9, %ymm0, %ymm8 movq 32928(%rbx), %rcx vmovhpd 384(%rcx,%r15,8), %xmm4, %xmm6 vmovsd 384(%rax,%r15,8), %xmm0 vmovhpd 384(%r10,%r15,8), %xmm0, %xmm0 vmovhpd 24(%rcx,%r14), %xmm3, %xmm3 vmovhpd 24(%r10,%r14), %xmm7, %xmm7 vmovhpd 384(%rcx,%r14), %xmm2, %xmm2 vmovhpd 384(%r10,%r14), %xmm1, %xmm1 vmovlpd %xmm8, 24(%rdx,%r11) movq 32064(%rbx), %r10 vmovhpd %xmm8, 24(%r10,%r11) vinsertf128 $1, %xmm2, %ymm1, %ymm1 vinsertf128 $1, %xmm3, %ymm7, %ymm2 vaddpd %ymm1, %ymm2, %ymm10 vextractf128 $1, %ymm8, %xmm1 vinsertf128 $1, %xmm6, %ymm0, %ymm0 movq 32448(%rbx), %rdx vmovlpd %xmm1, 24(%rdx,%r11) movq 32736(%rbx), %rdi vmovhpd %xmm1, 24(%rdi,%r11) vsubpd %ymm0, %ymm10, %ymm0 vmulpd %ymm9, %ymm0, %ymm0 movq 32800(%rbx), %r13 vmovlpd %xmm0, 24(%r13,%r11) movq 32480(%rbx), %rcx vmovhpd %xmm0, 24(%rcx,%r11) vextractf128 $1, %ymm0, %xmm0 movq 32512(%rbx), %rax vmovlpd %xmm0, 24(%rax,%r11) movq %rsi, %r12 vmovhpd %xmm0, 24(%r12,%r11) movq 32416(%rbx), %rsi vmovsd 32(%rsi,%r15,8), %xmm0 movq 32864(%rbx), %rsi vmovhpd 32(%rsi,%r15,8), %xmm0, %xmm0 vmovsd 32(%r8,%r15,8), %xmm1 vmovhpd 32(%r9,%r15,8), %xmm1, %xmm1 vinsertf128 $1, %xmm0, %ymm1, %ymm0 vsubpd %ymm0, %ymm12, %ymm0 vmulpd %ymm9, %ymm0, %ymm0 movq 32992(%rbx), %r8 vmovsd 32(%r8,%r15,8), %xmm1 movq 32928(%rbx), %rsi vmovhpd 32(%rsi,%r15,8), %xmm1, %xmm1 movq 32896(%rbx), %rsi vmovsd 32(%rsi,%r15,8), %xmm2 movq 32960(%rbx), %rsi vmovhpd 32(%rsi,%r15,8), %xmm2, %xmm2 movq 32640(%rbx), %r8 vmovlpd %xmm0, 32(%r8,%r11) vmovhpd %xmm0, 32(%r10,%r11) vextractf128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 32(%rdx,%r11) vinsertf128 $1, %xmm1, %ymm2, %ymm1 vmovhpd %xmm0, 32(%rdi,%r11) vsubpd %ymm1, %ymm5, %ymm0 vmulpd %ymm9, %ymm0, %ymm0 movq %r13, %rdi vmovlpd %xmm0, 32(%rdi,%r11) vmovhpd %xmm0, 32(%rcx,%r11) vextractf128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 32(%rax,%r11) vmovhpd %xmm0, 32(%r12,%r11) movq 32416(%rbx), %rax vmovsd 160(%rax,%r15,8), %xmm1 vmovsd 136(%rax,%r14), %xmm0 movq 32864(%rbx), %rax vmovhpd 160(%rax,%r15,8), %xmm1, %xmm1 movq 32832(%rbx), %rcx vmovsd 160(%rcx,%r15,8), %xmm2 vmovhpd 160(%r9,%r15,8), %xmm2, %xmm2 vinsertf128 $1, %xmm1, %ymm2, %ymm1 vmovhpd 136(%rax,%r14), %xmm0, %xmm0 vmovsd 136(%rcx,%r14), %xmm2 vmovhpd 136(%r9,%r14), %xmm2, %xmm2 vinsertf128 $1, %xmm0, %ymm2, %ymm0 vaddpd %ymm0, %ymm0, %ymm0 vsubpd %ymm1, %ymm0, %ymm0 movq 32896(%rbx), %rax vmovsd 136(%rax,%r14), %xmm1 movq 32992(%rbx), %rdx vmovsd 136(%rdx,%r14), %xmm3 vmulpd %ymm9, %ymm0, %ymm2 movq 32928(%rbx), %rsi vmovhpd 136(%rsi,%r14), %xmm3, %xmm0 movq 32960(%rbx), %rcx vmovhpd 136(%rcx,%r14), %xmm1, %xmm1 vmovsd 160(%rdx,%r15,8), %xmm3 vmovhpd 160(%rsi,%r15,8), %xmm3, %xmm3 vmovsd 160(%rax,%r15,8), %xmm4 movq %rax, %r8 vmovhpd 160(%rcx,%r15,8), %xmm4, %xmm4 movq 32640(%rbx), %rax vmovlpd %xmm2, 40(%rax,%r11) vmovhpd %xmm2, 40(%r10,%r11) vextractf128 $1, %ymm2, %xmm2 vinsertf128 $1, %xmm3, %ymm4, %ymm3 vinsertf128 $1, %xmm0, %ymm1, %ymm0 movq 32448(%rbx), %r10 vmovlpd %xmm2, 40(%r10,%r11) vaddpd %ymm0, %ymm0, %ymm0 movq 32736(%rbx), %r13 vmovhpd %xmm2, 40(%r13,%r11) vsubpd %ymm3, %ymm0, %ymm0 vmulpd %ymm9, %ymm0, %ymm0 vmovlpd %xmm0, 40(%rdi,%r11) movq 32480(%rbx), %rax vmovhpd %xmm0, 40(%rax,%r11) vextractf128 $1, %ymm0, %xmm0 movq 32512(%rbx), %rdx vmovlpd %xmm0, 40(%rdx,%r11) vmovhpd %xmm0, 40(%r12,%r11) movq %r12, %rsi movq 32832(%rbx), %r12 vmovsd 144(%r12,%r14), %xmm0 vmovsd 264(%r12,%r14), %xmm1 vmovhpd 144(%r9,%r14), %xmm0, %xmm0 movq 32416(%rbx), %rcx vmovsd 144(%rcx,%r14), %xmm2 vmovsd 264(%rcx,%r14), %xmm3 movq 32864(%rbx), %rax vmovhpd 144(%rax,%r14), %xmm2, %xmm2 vmovhpd 264(%rax,%r14), %xmm3, %xmm3 vmovhpd 264(%r9,%r14), %xmm1, %xmm1 vinsertf128 $1, %xmm3, %ymm1, %ymm1 vinsertf128 $1, %xmm2, %ymm0, %ymm0 vmovsd 288(%rcx,%r15,8), %xmm2 vmovhpd 288(%rax,%r15,8), %xmm2, %xmm2 vmovsd 288(%r12,%r15,8), %xmm3 vmovhpd 288(%r9,%r15,8), %xmm3, %xmm3 vaddpd %ymm1, %ymm0, %ymm6 vinsertf128 $1, %xmm2, %ymm3, %ymm0 movq %r8, %rcx vmovsd 144(%rcx,%r14), %xmm7 vmovsd 264(%rcx,%r14), %xmm4 movq 32992(%rbx), %rcx vmovsd 144(%rcx,%r14), %xmm2 vmovsd 264(%rcx,%r14), %xmm1 vsubpd %ymm0, %ymm6, %ymm0 vmovsd 288(%rcx,%r15,8), %xmm3 vmulpd %ymm9, %ymm0, %ymm8 movq 32928(%rbx), %rcx vmovhpd 288(%rcx,%r15,8), %xmm3, %xmm5 vmovsd 288(%r8,%r15,8), %xmm0 movq 32960(%rbx), %rdi vmovhpd 288(%rdi,%r15,8), %xmm0, %xmm0 vmovhpd 144(%rcx,%r14), %xmm2, %xmm2 vmovhpd 144(%rdi,%r14), %xmm7, %xmm3 vmovhpd 264(%rcx,%r14), %xmm1, %xmm1 vmovhpd 264(%rdi,%r14), %xmm4, %xmm4 movq 32640(%rbx), %rdi vmovlpd %xmm8, 48(%rdi,%r11) movq 32064(%rbx), %rcx vmovhpd %xmm8, 48(%rcx,%r11) vinsertf128 $1, %xmm1, %ymm4, %ymm1 vinsertf128 $1, %xmm2, %ymm3, %ymm2 vaddpd %ymm1, %ymm2, %ymm7 vextractf128 $1, %ymm8, %xmm1 vinsertf128 $1, %xmm5, %ymm0, %ymm0 vmovlpd %xmm1, 48(%r10,%r11) vmovhpd %xmm1, 48(%r13,%r11) vsubpd %ymm0, %ymm7, %ymm0 vmulpd %ymm9, %ymm0, %ymm0 movq 32800(%rbx), %r13 vmovlpd %xmm0, 48(%r13,%r11) movq 32480(%rbx), %rcx vmovhpd %xmm0, 48(%rcx,%r11) vextractf128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 48(%rdx,%r11) vmovhpd %xmm0, 48(%rsi,%r11) movq %r12, %rcx vmovsd 152(%rcx,%r14), %xmm0 vmovsd 392(%rcx,%r14), %xmm1 movq %rcx, %rdx movq 32416(%rbx), %rcx vmovsd 152(%rcx,%r14), %xmm2 vmovsd 392(%rcx,%r14), %xmm3 vmovhpd 392(%rax,%r14), %xmm3, %xmm3 vmovhpd 392(%r9,%r14), %xmm1, %xmm1 vinsertf128 $1, %xmm3, %ymm1, %ymm1 vmovhpd 152(%rax,%r14), %xmm2, %xmm2 vmovhpd 152(%r9,%r14), %xmm0, %xmm0 vinsertf128 $1, %xmm2, %ymm0, %ymm2 vmovsd 416(%rcx,%r15,8), %xmm0 movq %rcx, %r10 vmovhpd 416(%rax,%r15,8), %xmm0, %xmm0 vaddpd %ymm1, %ymm2, %ymm13 vmovsd 416(%rdx,%r15,8), %xmm1 vmovhpd 416(%r9,%r15,8), %xmm1, %xmm1 vinsertf128 $1, %xmm0, %ymm1, %ymm1 movq %r8, %rdx vmovsd 152(%rdx,%r14), %xmm0 vmovsd 392(%rdx,%r14), %xmm5 movq 32992(%rbx), %rax vmovsd 152(%rax,%r14), %xmm3 vmovsd 392(%rax,%r14), %xmm2 vsubpd %ymm1, %ymm13, %ymm1 vmovsd 416(%rax,%r15,8), %xmm4 movq %rax, %r12 vmulpd %ymm9, %ymm1, %ymm8 movq 32928(%rbx), %rcx vmovhpd 416(%rcx,%r15,8), %xmm4, %xmm1 vmovsd 416(%rdx,%r15,8), %xmm4 movq 32960(%rbx), %rax vmovhpd 416(%rax,%r15,8), %xmm4, %xmm12 vmovhpd 152(%rcx,%r14), %xmm3, %xmm3 vmovhpd 152(%rax,%r14), %xmm0, %xmm0 vmovhpd 392(%rcx,%r14), %xmm2, %xmm2 vmovhpd 392(%rax,%r14), %xmm5, %xmm4 vmovlpd %xmm8, 56(%rdi,%r11) movq 32064(%rbx), %rax vmovhpd %xmm8, 56(%rax,%r11) vinsertf128 $1, %xmm2, %ymm4, %ymm2 vinsertf128 $1, %xmm3, %ymm0, %ymm0 vaddpd %ymm2, %ymm0, %ymm15 vinsertf128 $1, %xmm1, %ymm12, %ymm0 vextractf128 $1, %ymm8, %xmm1 movq 32448(%rbx), %rsi vmovlpd %xmm1, 56(%rsi,%r11) movq 32736(%rbx), %rcx vmovhpd %xmm1, 56(%rcx,%r11) vsubpd %ymm0, %ymm15, %ymm0 vmulpd %ymm9, %ymm0, %ymm0 vmovlpd %xmm0, 56(%r13,%r11) movq 32480(%rbx), %rcx vmovhpd %xmm0, 56(%rcx,%r11) vextractf128 $1, %ymm0, %xmm0 movq 32512(%rbx), %r8 vmovlpd %xmm0, 56(%r8,%r11) movq 31520(%rbx), %r9 vmovhpd %xmm0, 56(%r9,%r11) vmovsd 64(%r10,%r15,8), %xmm0 movq 32864(%rbx), %rdx vmovhpd 64(%rdx,%r15,8), %xmm0, %xmm0 movq 32832(%rbx), %r13 vmovsd 64(%r13,%r15,8), %xmm1 movq 32096(%rbx), %r10 vmovhpd 64(%r10,%r15,8), %xmm1, %xmm1 vinsertf128 $1, %xmm0, %ymm1, %ymm0 vsubpd %ymm0, %ymm11, %ymm0 vmulpd %ymm9, %ymm0, %ymm0 vmovsd 64(%r12,%r15,8), %xmm1 movq 32928(%rbx), %rdx vmovhpd 64(%rdx,%r15,8), %xmm1, %xmm1 movq 32896(%rbx), %rdi vmovsd 64(%rdi,%r15,8), %xmm2 movq 32960(%rbx), %r12 vmovhpd 64(%r12,%r15,8), %xmm2, %xmm2 movq 32640(%rbx), %rdi vmovlpd %xmm0, 64(%rdi,%r11) vmovhpd %xmm0, 64(%rax,%r11) vinsertf128 $1, %xmm1, %ymm2, %ymm1 vextractf128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 64(%rsi,%r11) movq 32736(%rbx), %rsi vmovhpd %xmm0, 64(%rsi,%r11) vsubpd %ymm1, %ymm14, %ymm0 vmulpd %ymm9, %ymm0, %ymm0 movq 32800(%rbx), %rax vmovlpd %xmm0, 64(%rax,%r11) vmovhpd %xmm0, 64(%rcx,%r11) vextractf128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 64(%r8,%r11) movq %r8, %rax vmovhpd %xmm0, 64(%r9,%r11) movq 32416(%rbx), %r9 vmovsd 192(%r9,%r15,8), %xmm0 movq 32864(%rbx), %rdi vmovhpd 192(%rdi,%r15,8), %xmm0, %xmm0 vmovsd 192(%r13,%r15,8), %xmm1 vmovhpd 192(%r10,%r15,8), %xmm1, %xmm1 vinsertf128 $1, %xmm0, %ymm1, %ymm0 vsubpd %ymm0, %ymm6, %ymm0 vmulpd %ymm9, %ymm0, %ymm0 movq 32992(%rbx), %rcx vmovsd 192(%rcx,%r15,8), %xmm1 vmovhpd 192(%rdx,%r15,8), %xmm1, %xmm1 movq 32896(%rbx), %r10 vmovsd 192(%r10,%r15,8), %xmm2 vmovhpd 192(%r12,%r15,8), %xmm2, %xmm2 movq 32640(%rbx), %r8 vmovlpd %xmm0, 72(%r8,%r11) movq 32064(%rbx), %rcx vmovhpd %xmm0, 72(%rcx,%r11) vextractf128 $1, %ymm0, %xmm0 movq 32448(%rbx), %rdx vmovlpd %xmm0, 72(%rdx,%r11) vinsertf128 $1, %xmm1, %ymm2, %ymm1 vmovhpd %xmm0, 72(%rsi,%r11) vsubpd %ymm1, %ymm7, %ymm0 vmulpd %ymm9, %ymm0, %ymm0 movq 32800(%rbx), %rsi vmovlpd %xmm0, 72(%rsi,%r11) movq 32480(%rbx), %rdx vmovhpd %xmm0, 72(%rdx,%r11) movq %rdx, %r13 vextractf128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 72(%rax,%r11) movq 31520(%rbx), %r12 vmovhpd %xmm0, 72(%r12,%r11) movq %r9, %rax vmovsd 320(%rax,%r15,8), %xmm1 vmovsd 272(%rax,%r14), %xmm0 vmovhpd 320(%rdi,%r15,8), %xmm1, %xmm1 movq 32832(%rbx), %rax vmovsd 320(%rax,%r15,8), %xmm2 movq 32096(%rbx), %r9 vmovhpd 320(%r9,%r15,8), %xmm2, %xmm2 vinsertf128 $1, %xmm1, %ymm2, %ymm1 vmovhpd 272(%rdi,%r14), %xmm0, %xmm0 vmovsd 272(%rax,%r14), %xmm2 vmovhpd 272(%r9,%r14), %xmm2, %xmm2 vinsertf128 $1, %xmm0, %ymm2, %ymm0 vaddpd %ymm0, %ymm0, %ymm0 vsubpd %ymm1, %ymm0, %ymm0 movq %r10, %rsi vmovsd 272(%rsi,%r14), %xmm1 movq 32992(%rbx), %rdi vmovsd 272(%rdi,%r14), %xmm3 vmulpd %ymm9, %ymm0, %ymm2 movq 32928(%rbx), %rdx vmovhpd 272(%rdx,%r14), %xmm3, %xmm0 movq 32960(%rbx), %rax vmovhpd 272(%rax,%r14), %xmm1, %xmm1 vmovsd 320(%rdi,%r15,8), %xmm3 vmovhpd 320(%rdx,%r15,8), %xmm3, %xmm3 vmovsd 320(%rsi,%r15,8), %xmm4 vmovhpd 320(%rax,%r15,8), %xmm4, %xmm4 vmovlpd %xmm2, 80(%r8,%r11) vmovhpd %xmm2, 80(%rcx,%r11) movq %rcx, %r8 vextractf128 $1, %ymm2, %xmm2 vinsertf128 $1, %xmm3, %ymm4, %ymm3 vinsertf128 $1, %xmm0, %ymm1, %ymm0 movq 32448(%rbx), %rax vmovlpd %xmm2, 80(%rax,%r11) vaddpd %ymm0, %ymm0, %ymm0 movq 32736(%rbx), %rcx vmovhpd %xmm2, 80(%rcx,%r11) vsubpd %ymm3, %ymm0, %ymm0 vmulpd %ymm9, %ymm0, %ymm0 movq 32800(%rbx), %rdi vmovlpd %xmm0, 80(%rdi,%r11) vmovhpd %xmm0, 80(%r13,%r11) vextractf128 $1, %ymm0, %xmm0 movq 32512(%rbx), %rcx vmovlpd %xmm0, 80(%rcx,%r11) vmovhpd %xmm0, 80(%r12,%r11) movq %r12, %r10 movq 32832(%rbx), %rcx vmovsd 280(%rcx,%r14), %xmm0 vmovsd 400(%rcx,%r14), %xmm1 movq %rcx, %rdx vmovhpd 280(%r9,%r14), %xmm0, %xmm0 movq 32416(%rbx), %rcx vmovsd 280(%rcx,%r14), %xmm2 vmovsd 400(%rcx,%r14), %xmm3 movq %rcx, %rsi movq 32864(%rbx), %rcx vmovhpd 280(%rcx,%r14), %xmm2, %xmm2 vmovhpd 400(%rcx,%r14), %xmm3, %xmm3 vmovhpd 400(%r9,%r14), %xmm1, %xmm1 vinsertf128 $1, %xmm3, %ymm1, %ymm1 vinsertf128 $1, %xmm2, %ymm0, %ymm0 vmovsd 448(%rsi,%r15,8), %xmm2 movq %rsi, %r12 vmovhpd 448(%rcx,%r15,8), %xmm2, %xmm3 vmovsd 448(%rdx,%r15,8), %xmm2 vmovhpd 448(%r9,%r15,8), %xmm2, %xmm4 vaddpd %ymm1, %ymm0, %ymm2 vinsertf128 $1, %xmm3, %ymm4, %ymm1 movq 32896(%rbx), %rcx vmovsd 280(%rcx,%r14), %xmm0 vmovsd 400(%rcx,%r14), %xmm3 movq %rcx, %rdx movq 32992(%rbx), %rcx vmovsd 280(%rcx,%r14), %xmm5 vmovsd 400(%rcx,%r14), %xmm4 vsubpd %ymm1, %ymm2, %ymm1 vmovsd 448(%rcx,%r15,8), %xmm6 vmulpd %ymm9, %ymm1, %ymm1 movq 32928(%rbx), %rsi vmovhpd 448(%rsi,%r15,8), %xmm6, %xmm6 vmovsd 448(%rdx,%r15,8), %xmm7 movq 32960(%rbx), %rcx vmovhpd 448(%rcx,%r15,8), %xmm7, %xmm7 vmovhpd 280(%rsi,%r14), %xmm5, %xmm5 vmovhpd 280(%rcx,%r14), %xmm0, %xmm0 vmovhpd 400(%rsi,%r14), %xmm4, %xmm4 movq %rsi, %rdx vmovhpd 400(%rcx,%r14), %xmm3, %xmm3 movq 32640(%rbx), %rcx vmovlpd %xmm1, 88(%rcx,%r11) vmovhpd %xmm1, 88(%r8,%r11) vinsertf128 $1, %xmm4, %ymm3, %ymm3 vinsertf128 $1, %xmm5, %ymm0, %ymm0 vaddpd %ymm3, %ymm0, %ymm3 vextractf128 $1, %ymm1, %xmm0 vinsertf128 $1, %xmm6, %ymm7, %ymm1 vmovlpd %xmm0, 88(%rax,%r11) movq %rax, %r13 movq 32736(%rbx), %rax vmovhpd %xmm0, 88(%rax,%r11) vsubpd %ymm1, %ymm3, %ymm0 vmulpd %ymm9, %ymm0, %ymm0 vmovlpd %xmm0, 88(%rdi,%r11) movq 32480(%rbx), %r8 vmovhpd %xmm0, 88(%r8,%r11) vextractf128 $1, %ymm0, %xmm0 movq 32512(%rbx), %rsi vmovlpd %xmm0, 88(%rsi,%r11) vmovhpd %xmm0, 88(%r10,%r11) vmovsd 96(%r12,%r15,8), %xmm0 movq 32864(%rbx), %r10 vmovhpd 96(%r10,%r15,8), %xmm0, %xmm0 movq 32832(%rbx), %rdi vmovsd 96(%rdi,%r15,8), %xmm1 vmovhpd 96(%r9,%r15,8), %xmm1, %xmm1 vinsertf128 $1, %xmm0, %ymm1, %ymm0 vmovapd 31424(%rbx), %ymm1 vsubpd %ymm0, %ymm1, %ymm0 vmulpd %ymm9, %ymm0, %ymm0 movq 32992(%rbx), %r9 vmovsd 96(%r9,%r15,8), %xmm1 vmovhpd 96(%rdx,%r15,8), %xmm1, %xmm1 movq 32896(%rbx), %rdx vmovsd 96(%rdx,%r15,8), %xmm4 movq 32960(%rbx), %rdx vmovhpd 96(%rdx,%r15,8), %xmm4, %xmm4 vmovlpd %xmm0, 96(%rcx,%r11) movq 32064(%rbx), %rdx vmovhpd %xmm0, 96(%rdx,%r11) vextractf128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 96(%r13,%r11) vinsertf128 $1, %xmm1, %ymm4, %ymm1 vmovhpd %xmm0, 96(%rax,%r11) vsubpd %ymm1, %ymm10, %ymm0 vmulpd %ymm9, %ymm0, %ymm0 movq 32800(%rbx), %rcx vmovlpd %xmm0, 96(%rcx,%r11) movq %r8, %rax vmovhpd %xmm0, 96(%rax,%r11) vextractf128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 96(%rsi,%r11) movq 31520(%rbx), %r8 vmovhpd %xmm0, 96(%r8,%r11) vmovsd 224(%r12,%r15,8), %xmm0 vmovhpd 224(%r10,%r15,8), %xmm0, %xmm0 vmovsd 224(%rdi,%r15,8), %xmm1 movq 32096(%rbx), %rsi vmovhpd 224(%rsi,%r15,8), %xmm1, %xmm1 vinsertf128 $1, %xmm0, %ymm1, %ymm0 vsubpd %ymm0, %ymm13, %ymm0 vmulpd %ymm9, %ymm0, %ymm0 vmovsd 224(%r9,%r15,8), %xmm1 movq 32928(%rbx), %r10 vmovhpd 224(%r10,%r15,8), %xmm1, %xmm1 movq 32896(%rbx), %rsi vmovsd 224(%rsi,%r15,8), %xmm4 movq 32960(%rbx), %r9 vmovhpd 224(%r9,%r15,8), %xmm4, %xmm4 movq 32640(%rbx), %rsi vmovlpd %xmm0, 104(%rsi,%r11) vmovhpd %xmm0, 104(%rdx,%r11) vextractf128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 104(%r13,%r11) vinsertf128 $1, %xmm1, %ymm4, %ymm1 movq 32736(%rbx), %r12 vmovhpd %xmm0, 104(%r12,%r11) vsubpd %ymm1, %ymm15, %ymm0 vmulpd %ymm9, %ymm0, %ymm0 vmovlpd %xmm0, 104(%rcx,%r11) vmovhpd %xmm0, 104(%rax,%r11) vextractf128 $1, %ymm0, %xmm0 movq 32512(%rbx), %rdi vmovlpd %xmm0, 104(%rdi,%r11) movq %r8, %rcx vmovhpd %xmm0, 104(%rcx,%r11) movq 32416(%rbx), %rax vmovsd 352(%rax,%r15,8), %xmm0 movq 32864(%rbx), %rax vmovhpd 352(%rax,%r15,8), %xmm0, %xmm0 movq 32832(%rbx), %rax vmovsd 352(%rax,%r15,8), %xmm1 movq 32096(%rbx), %rdx vmovhpd 352(%rdx,%r15,8), %xmm1, %xmm1 vinsertf128 $1, %xmm0, %ymm1, %ymm0 vsubpd %ymm0, %ymm2, %ymm0 vmulpd %ymm9, %ymm0, %ymm0 movq 32992(%rbx), %r8 vmovsd 352(%r8,%r15,8), %xmm1 vmovhpd 352(%r10,%r15,8), %xmm1, %xmm1 movq 32896(%rbx), %r13 vmovsd 352(%r13,%r15,8), %xmm2 vmovhpd 352(%r9,%r15,8), %xmm2, %xmm2 vmovlpd %xmm0, 112(%rsi,%r11) movq 32064(%rbx), %rsi vmovhpd %xmm0, 112(%rsi,%r11) vextractf128 $1, %ymm0, %xmm0 movq 32448(%rbx), %rdx vmovlpd %xmm0, 112(%rdx,%r11) vinsertf128 $1, %xmm1, %ymm2, %ymm1 vmovhpd %xmm0, 112(%r12,%r11) vsubpd %ymm1, %ymm3, %ymm0 vmulpd %ymm9, %ymm0, %ymm0 movq 32800(%rbx), %r9 vmovlpd %xmm0, 112(%r9,%r11) movq 32480(%rbx), %r12 vmovhpd %xmm0, 112(%r12,%r11) vextractf128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 112(%rdi,%r11) vmovhpd %xmm0, 112(%rcx,%r11) movq %rcx, %rdi vmovsd 480(%rax,%r15,8), %xmm4 vmovsd 408(%rax,%r14), %xmm3 vmovsd 408(%r8,%r14), %xmm0 vmovsd 480(%r8,%r15,8), %xmm1 movq %r10, %rax vmovhpd 408(%rax,%r14), %xmm0, %xmm0 vmovhpd 480(%rax,%r15,8), %xmm1, %xmm1 movq %r13, %rax vmovsd 408(%rax,%r14), %xmm6 vmovsd 480(%rax,%r15,8), %xmm2 movq %rax, %r8 movq 32096(%rbx), %rdx vmovhpd 480(%rdx,%r15,8), %xmm4, %xmm5 vmovhpd 408(%rdx,%r14), %xmm3, %xmm4 movq 32416(%rbx), %rax vmovsd 408(%rax,%r14), %xmm7 movq 32960(%rbx), %rdx vmovhpd 408(%rdx,%r14), %xmm6, %xmm3 movq 32864(%rbx), %rcx vmovhpd 408(%rcx,%r14), %xmm7, %xmm6 vmovsd 480(%rax,%r15,8), %xmm7 movq %rax, %r13 vmovhpd 480(%rcx,%r15,8), %xmm7, %xmm7 vinsertf128 $1, %xmm7, %ymm5, %ymm5 vinsertf128 $1, %xmm6, %ymm4, %ymm4 vaddpd %ymm4, %ymm4, %ymm4 vsubpd %ymm5, %ymm4, %ymm4 vmulpd %ymm9, %ymm4, %ymm4 vmovhpd 480(%rdx,%r15,8), %xmm2, %xmm5 movq 32640(%rbx), %rax vmovlpd %xmm4, 120(%rax,%r11) vmovhpd %xmm4, 120(%rsi,%r11) vextractf128 $1, %ymm4, %xmm2 vinsertf128 $1, %xmm1, %ymm5, %ymm1 vinsertf128 $1, %xmm0, %ymm3, %ymm0 movq 32448(%rbx), %rax vmovlpd %xmm2, 120(%rax,%r11) vaddpd %ymm0, %ymm0, %ymm0 movq 32736(%rbx), %rax vmovhpd %xmm2, 120(%rax,%r11) vsubpd %ymm1, %ymm0, %ymm0 vmulpd %ymm9, %ymm0, %ymm0 vmovlpd %xmm0, 120(%r9,%r11) vmovhpd %xmm0, 120(%r12,%r11) vextractf128 $1, %ymm0, %xmm0 movq 32512(%rbx), %rax vmovlpd %xmm0, 120(%rax,%r11) vmovhpd %xmm0, 120(%rdi,%r11) movq 31488(%rbx), %r15 jne .LBB1_3463 movq 32792(%rbx), %rax movq 31456(%rbx), %rsi leaq 10816(%rsi,%rax), %rdi movq %rdi, 32512(%rbx) leaq 10688(%rsi,%rax), %rdi movq %rdi, 32480(%rbx) leaq 10560(%rsi,%rax), %rdi movq %rdi, 32448(%rbx) leaq 10432(%rsi,%rax), %rdi movq %rdi, 32800(%rbx) leaq 10304(%rsi,%rax), %rdi movq %rdi, 32064(%rbx) leaq 10176(%rsi,%rax), %rdi movq %rdi, 31520(%rbx) leaq 10048(%rsi,%rax), %rdi movq %rdi, 31488(%rbx) leaq 9920(%rsi,%rax), %rdi movq %rdi, 32736(%rbx) xorl %r11d, %r11d vxorpd %ymm12, %ymm12, %ymm12 movq %r13, %rdi movq 32096(%rbx), %r15 movq %rdi, %r12 movq 32864(%rbx), %r13 movq %rsi, %r10 .align 16, 0x90 .LBB1_3465: movq %r11, 32640(%rbx) movq %rax, %rsi movq 32640(%rbx), %r11 shlq $5, %r11 movq 31520(%rbx), %rax vmovsd (%rax,%r11), %xmm8 vmovsd 8(%rax,%r11), %xmm6 movq %rax, %rcx movq 32736(%rbx), %rax vmovsd (%rax,%r11), %xmm1 vmovsd 8(%rax,%r11), %xmm0 movq %rax, %rdx vmovsd 2368(%rsi,%r10), %xmm7 movq 31488(%rbx), %rax vmovhpd 8(%rax,%r11), %xmm0, %xmm2 vmovsd 2240(%rsi,%r10), %xmm4 vmovsd 1216(%rsi,%r10), %xmm3 vmovsd 1344(%rsi,%r10), %xmm0 vmovsd 1472(%rsi,%r10), %xmm5 vmovhpd 1728(%rsi,%r10), %xmm3, %xmm3 movq 32064(%rbx), %rdi vmovhpd 8(%rdi,%r11), %xmm6, %xmm6 vmovhpd 2880(%rsi,%r10), %xmm7, %xmm7 vmovhpd 1856(%rsi,%r10), %xmm0, %xmm9 vmovsd 2496(%rsi,%r10), %xmm0 vinsertf128 $1, %xmm7, %ymm9, %ymm7 vinsertf128 $1, %xmm6, %ymm2, %ymm11 vmovhpd 2752(%rsi,%r10), %xmm4, %xmm4 vmovhpd 1984(%rsi,%r10), %xmm5, %xmm5 vmovsd 16(%rdx,%r11), %xmm2 movq %rdx, %r8 vmovhpd 16(%rax,%r11), %xmm2, %xmm6 vmovsd 16(%rcx,%r11), %xmm2 movq %rcx, %r14 vmovhpd 16(%rdi,%r11), %xmm2, %xmm2 vmovhpd 3008(%rsi,%r10), %xmm0, %xmm0 vmulpd %ymm7, %ymm11, %ymm7 vinsertf128 $1, %xmm4, %ymm3, %ymm3 vmovhpd (%rdi,%r11), %xmm8, %xmm4 movq %rdi, %rcx vmovhpd (%rax,%r11), %xmm1, %xmm1 movq %rax, %rdx vinsertf128 $1, %xmm4, %ymm1, %ymm14 vmulpd %ymm3, %ymm14, %ymm1 vaddpd %ymm12, %ymm1, %ymm1 vaddpd %ymm7, %ymm1, %ymm7 vinsertf128 $1, %xmm0, %ymm5, %ymm8 vinsertf128 $1, %xmm2, %ymm6, %ymm10 movq 32800(%rbx), %rax vmovsd (%rax,%r11), %xmm3 vmovsd 8(%rax,%r11), %xmm0 movq 32480(%rbx), %rax vmovsd (%rax,%r11), %xmm1 vmovsd 8(%rax,%r11), %xmm5 movq %rax, %r9 vmulpd %ymm8, %ymm10, %ymm2 vaddpd %ymm2, %ymm7, %ymm6 vmovsd 4288(%rsi,%r10), %xmm2 vmovhpd 4800(%rsi,%r10), %xmm2, %xmm2 vmovsd 3264(%rsi,%r10), %xmm7 vmovhpd 3776(%rsi,%r10), %xmm7, %xmm7 vinsertf128 $1, %xmm2, %ymm7, %ymm8 movq 32512(%rbx), %rax vmovhpd (%rax,%r11), %xmm1, %xmm1 movq %rax, %rdi movq 32448(%rbx), %rax vmovhpd (%rax,%r11), %xmm3, %xmm2 vinsertf128 $1, %xmm1, %ymm2, %ymm13 vmovsd 4416(%rsi,%r10), %xmm1 vmovhpd 4928(%rsi,%r10), %xmm1, %xmm1 vmovsd 3392(%rsi,%r10), %xmm2 vmovhpd 3904(%rsi,%r10), %xmm2, %xmm2 vinsertf128 $1, %xmm1, %ymm2, %ymm9 vmovhpd 8(%rdi,%r11), %xmm5, %xmm1 vmovhpd 8(%rax,%r11), %xmm0, %xmm0 vinsertf128 $1, %xmm1, %ymm0, %ymm5 vmovsd 2624(%rsi,%r10), %xmm0 vmovhpd 3136(%rsi,%r10), %xmm0, %xmm0 vmovsd 1600(%rsi,%r10), %xmm1 vmovhpd 2112(%rsi,%r10), %xmm1, %xmm1 vinsertf128 $1, %xmm0, %ymm1, %ymm1 vmovsd 24(%r14,%r11), %xmm0 vmovhpd 24(%rcx,%r11), %xmm0, %xmm0 vmovsd 24(%r8,%r11), %xmm2 vmovhpd 24(%rdx,%r11), %xmm2, %xmm2 vinsertf128 $1, %xmm0, %ymm2, %ymm0 vmulpd %ymm1, %ymm0, %ymm1 vaddpd %ymm1, %ymm6, %ymm7 vmulpd %ymm9, %ymm5, %ymm1 vmulpd %ymm8, %ymm13, %ymm2 vaddpd %ymm12, %ymm2, %ymm2 vaddpd %ymm1, %ymm2, %ymm8 vmovsd 4544(%rsi,%r10), %xmm1 vmovhpd 5056(%rsi,%r10), %xmm1, %xmm1 vmovsd 3520(%rsi,%r10), %xmm2 vmovhpd 4032(%rsi,%r10), %xmm2, %xmm2 vinsertf128 $1, %xmm1, %ymm2, %ymm9 movq %r9, %rcx vmovsd 16(%rcx,%r11), %xmm1 vmovhpd 16(%rdi,%r11), %xmm1, %xmm1 movq 32800(%rbx), %rdx vmovsd 16(%rdx,%r11), %xmm2 vmovhpd 16(%rax,%r11), %xmm2, %xmm2 vinsertf128 $1, %xmm1, %ymm2, %ymm6 vmovsd 4672(%rsi,%r10), %xmm3 vmovsd 24(%rdx,%r11), %xmm2 vmovsd 24(%rcx,%r11), %xmm1 vmovhpd 24(%rdi,%r11), %xmm1, %xmm1 vmovhpd 24(%rax,%r11), %xmm2, %xmm2 vmovhpd 5184(%rsi,%r10), %xmm3, %xmm3 vmovsd 3648(%rsi,%r10), %xmm4 vxorpd %ymm15, %ymm15, %ymm15 vmovhpd 4160(%rsi,%r10), %xmm4, %xmm12 movq 32640(%rbx), %r14 shlq $7, %r14 movq 32832(%rbx), %r9 vmovlpd %xmm7, (%r9,%r14) vmovhpd %xmm7, (%r15,%r14) vextractf128 $1, %ymm7, %xmm4 movq %r12, %rcx vmovlpd %xmm4, (%rcx,%r14) movq %r13, %rdx vmovhpd %xmm4, (%rdx,%r14) vmulpd %ymm9, %ymm6, %ymm4 vaddpd %ymm4, %ymm8, %ymm8 vinsertf128 $1, %xmm3, %ymm12, %ymm3 vinsertf128 $1, %xmm1, %ymm2, %ymm7 vmulpd %ymm3, %ymm7, %ymm1 vaddpd %ymm1, %ymm8, %ymm1 movq 32896(%rbx), %r8 vmovlpd %xmm1, (%r8,%r14) movq 32960(%rbx), %r13 vmovhpd %xmm1, (%r13,%r14) vextractf128 $1, %ymm1, %xmm1 movq 32992(%rbx), %r12 vmovlpd %xmm1, (%r12,%r14) movq 32928(%rbx), %rdi vmovhpd %xmm1, (%rdi,%r14) vmovsd 1224(%rsi,%r10), %xmm2 vmovsd 1352(%rsi,%r10), %xmm1 vmovsd 2248(%rsi,%r10), %xmm3 vmovhpd 2760(%rsi,%r10), %xmm3, %xmm3 vmovhpd 1736(%rsi,%r10), %xmm2, %xmm2 vinsertf128 $1, %xmm3, %ymm2, %ymm2 vmovsd 2376(%rsi,%r10), %xmm3 vmovhpd 2888(%rsi,%r10), %xmm3, %xmm3 vmovhpd 1864(%rsi,%r10), %xmm1, %xmm1 vinsertf128 $1, %xmm3, %ymm1, %ymm1 vmulpd %ymm1, %ymm11, %ymm1 vmulpd %ymm2, %ymm14, %ymm2 vaddpd %ymm15, %ymm2, %ymm2 vaddpd %ymm1, %ymm2, %ymm1 vmovsd 2504(%rsi,%r10), %xmm2 vmovhpd 3016(%rsi,%r10), %xmm2, %xmm2 vmovsd 1480(%rsi,%r10), %xmm3 vmovhpd 1992(%rsi,%r10), %xmm3, %xmm3 vinsertf128 $1, %xmm2, %ymm3, %ymm2 vmulpd %ymm2, %ymm10, %ymm2 vaddpd %ymm2, %ymm1, %ymm8 vmovsd 4296(%rsi,%r10), %xmm1 vmovhpd 4808(%rsi,%r10), %xmm1, %xmm1 vmovsd 3272(%rsi,%r10), %xmm2 vmovhpd 3784(%rsi,%r10), %xmm2, %xmm2 vinsertf128 $1, %xmm1, %ymm2, %ymm9 vmovsd 4424(%rsi,%r10), %xmm1 vmovhpd 4936(%rsi,%r10), %xmm1, %xmm1 vmovsd 3400(%rsi,%r10), %xmm2 vmovhpd 3912(%rsi,%r10), %xmm2, %xmm2 vinsertf128 $1, %xmm1, %ymm2, %ymm1 vmovsd 2632(%rsi,%r10), %xmm2 vmovhpd 3144(%rsi,%r10), %xmm2, %xmm2 vmovsd 1608(%rsi,%r10), %xmm3 vmovhpd 2120(%rsi,%r10), %xmm3, %xmm3 vinsertf128 $1, %xmm2, %ymm3, %ymm2 vmulpd %ymm2, %ymm0, %ymm2 vaddpd %ymm2, %ymm8, %ymm8 vmulpd %ymm1, %ymm5, %ymm1 vmulpd %ymm9, %ymm13, %ymm2 vaddpd %ymm15, %ymm2, %ymm2 vaddpd %ymm1, %ymm2, %ymm9 vmovsd 4552(%rsi,%r10), %xmm1 vmovhpd 5064(%rsi,%r10), %xmm1, %xmm1 vmovsd 3528(%rsi,%r10), %xmm2 vmovhpd 4040(%rsi,%r10), %xmm2, %xmm2 vinsertf128 $1, %xmm1, %ymm2, %ymm1 vmovsd 4680(%rsi,%r10), %xmm2 vmovhpd 5192(%rsi,%r10), %xmm2, %xmm2 vmovsd 3656(%rsi,%r10), %xmm3 vmovhpd 4168(%rsi,%r10), %xmm3, %xmm3 vmovlpd %xmm8, 8(%r9,%r14) vmovhpd %xmm8, 8(%r15,%r14) vextractf128 $1, %ymm8, %xmm4 vmovlpd %xmm4, 8(%rcx,%r14) vmovhpd %xmm4, 8(%rdx,%r14) vmulpd %ymm1, %ymm6, %ymm1 vaddpd %ymm1, %ymm9, %ymm1 vinsertf128 $1, %xmm2, %ymm3, %ymm2 vmulpd %ymm2, %ymm7, %ymm2 vaddpd %ymm2, %ymm1, %ymm1 vmovlpd %xmm1, 8(%r8,%r14) vmovhpd %xmm1, 8(%r13,%r14) vextractf128 $1, %ymm1, %xmm1 vmovlpd %xmm1, 8(%r12,%r14) vmovhpd %xmm1, 8(%rdi,%r14) vmovsd 1232(%rsi,%r10), %xmm2 vmovsd 1360(%rsi,%r10), %xmm1 vmovsd 2256(%rsi,%r10), %xmm3 vmovhpd 2768(%rsi,%r10), %xmm3, %xmm3 vmovhpd 1744(%rsi,%r10), %xmm2, %xmm2 vinsertf128 $1, %xmm3, %ymm2, %ymm2 vmovsd 2384(%rsi,%r10), %xmm3 vmovhpd 2896(%rsi,%r10), %xmm3, %xmm3 vmovhpd 1872(%rsi,%r10), %xmm1, %xmm1 vinsertf128 $1, %xmm3, %ymm1, %ymm1 vmulpd %ymm1, %ymm11, %ymm1 vmulpd %ymm2, %ymm14, %ymm2 vaddpd %ymm15, %ymm2, %ymm2 vaddpd %ymm1, %ymm2, %ymm1 vmovsd 2512(%rsi,%r10), %xmm2 vmovhpd 3024(%rsi,%r10), %xmm2, %xmm2 vmovsd 1488(%rsi,%r10), %xmm3 vmovhpd 2000(%rsi,%r10), %xmm3, %xmm3 vinsertf128 $1, %xmm2, %ymm3, %ymm2 vmulpd %ymm2, %ymm10, %ymm2 vaddpd %ymm2, %ymm1, %ymm8 vmovsd 4304(%rsi,%r10), %xmm1 vmovhpd 4816(%rsi,%r10), %xmm1, %xmm1 vmovsd 3280(%rsi,%r10), %xmm2 vmovhpd 3792(%rsi,%r10), %xmm2, %xmm2 vinsertf128 $1, %xmm1, %ymm2, %ymm9 vmovsd 4432(%rsi,%r10), %xmm1 vmovhpd 4944(%rsi,%r10), %xmm1, %xmm1 vmovsd 3408(%rsi,%r10), %xmm2 vmovhpd 3920(%rsi,%r10), %xmm2, %xmm2 vinsertf128 $1, %xmm1, %ymm2, %ymm1 vmovsd 2640(%rsi,%r10), %xmm2 vmovhpd 3152(%rsi,%r10), %xmm2, %xmm2 vmovsd 1616(%rsi,%r10), %xmm3 vmovhpd 2128(%rsi,%r10), %xmm3, %xmm3 vinsertf128 $1, %xmm2, %ymm3, %ymm2 vmulpd %ymm2, %ymm0, %ymm2 vaddpd %ymm2, %ymm8, %ymm8 vmulpd %ymm1, %ymm5, %ymm1 vmulpd %ymm9, %ymm13, %ymm2 vaddpd %ymm15, %ymm2, %ymm2 vaddpd %ymm1, %ymm2, %ymm9 vmovsd 4560(%rsi,%r10), %xmm1 vmovhpd 5072(%rsi,%r10), %xmm1, %xmm1 vmovsd 3536(%rsi,%r10), %xmm2 vmovhpd 4048(%rsi,%r10), %xmm2, %xmm2 vinsertf128 $1, %xmm1, %ymm2, %ymm1 vmovsd 4688(%rsi,%r10), %xmm2 vmovhpd 5200(%rsi,%r10), %xmm2, %xmm2 vmovsd 3664(%rsi,%r10), %xmm3 vmovhpd 4176(%rsi,%r10), %xmm3, %xmm3 vmovlpd %xmm8, 16(%r9,%r14) vmovhpd %xmm8, 16(%r15,%r14) vextractf128 $1, %ymm8, %xmm4 vmovlpd %xmm4, 16(%rcx,%r14) vmovhpd %xmm4, 16(%rdx,%r14) vmulpd %ymm1, %ymm6, %ymm1 vaddpd %ymm1, %ymm9, %ymm1 vinsertf128 $1, %xmm2, %ymm3, %ymm2 vmulpd %ymm2, %ymm7, %ymm2 vaddpd %ymm2, %ymm1, %ymm1 vmovlpd %xmm1, 16(%r8,%r14) vmovhpd %xmm1, 16(%r13,%r14) vextractf128 $1, %ymm1, %xmm1 vmovlpd %xmm1, 16(%r12,%r14) vmovhpd %xmm1, 16(%rdi,%r14) vmovsd 1240(%rsi,%r10), %xmm2 vmovsd 1368(%rsi,%r10), %xmm1 vmovsd 2264(%rsi,%r10), %xmm3 vmovhpd 2776(%rsi,%r10), %xmm3, %xmm3 vmovhpd 1752(%rsi,%r10), %xmm2, %xmm2 vinsertf128 $1, %xmm3, %ymm2, %ymm2 vmovsd 2392(%rsi,%r10), %xmm3 vmovhpd 2904(%rsi,%r10), %xmm3, %xmm3 vmovhpd 1880(%rsi,%r10), %xmm1, %xmm1 vinsertf128 $1, %xmm3, %ymm1, %ymm1 vmulpd %ymm1, %ymm11, %ymm1 vmulpd %ymm2, %ymm14, %ymm2 vaddpd %ymm15, %ymm2, %ymm2 vaddpd %ymm1, %ymm2, %ymm1 vmovsd 2520(%rsi,%r10), %xmm2 vmovhpd 3032(%rsi,%r10), %xmm2, %xmm2 vmovsd 1496(%rsi,%r10), %xmm3 vmovhpd 2008(%rsi,%r10), %xmm3, %xmm3 vinsertf128 $1, %xmm2, %ymm3, %ymm2 vmulpd %ymm2, %ymm10, %ymm2 vaddpd %ymm2, %ymm1, %ymm8 vmovsd 4312(%rsi,%r10), %xmm1 vmovhpd 4824(%rsi,%r10), %xmm1, %xmm1 vmovsd 3288(%rsi,%r10), %xmm2 vmovhpd 3800(%rsi,%r10), %xmm2, %xmm2 vinsertf128 $1, %xmm1, %ymm2, %ymm9 vmovsd 4440(%rsi,%r10), %xmm1 vmovhpd 4952(%rsi,%r10), %xmm1, %xmm1 vmovsd 3416(%rsi,%r10), %xmm2 vmovhpd 3928(%rsi,%r10), %xmm2, %xmm2 vinsertf128 $1, %xmm1, %ymm2, %ymm1 vmovsd 2648(%rsi,%r10), %xmm2 vmovhpd 3160(%rsi,%r10), %xmm2, %xmm2 vmovsd 1624(%rsi,%r10), %xmm3 vmovhpd 2136(%rsi,%r10), %xmm3, %xmm3 vinsertf128 $1, %xmm2, %ymm3, %ymm2 vmulpd %ymm2, %ymm0, %ymm2 vaddpd %ymm2, %ymm8, %ymm8 vmulpd %ymm1, %ymm5, %ymm1 vmulpd %ymm9, %ymm13, %ymm2 vaddpd %ymm15, %ymm2, %ymm2 vaddpd %ymm1, %ymm2, %ymm9 vmovsd 4568(%rsi,%r10), %xmm1 vmovhpd 5080(%rsi,%r10), %xmm1, %xmm1 vmovsd 3544(%rsi,%r10), %xmm2 vmovhpd 4056(%rsi,%r10), %xmm2, %xmm2 vinsertf128 $1, %xmm1, %ymm2, %ymm1 vmovsd 4696(%rsi,%r10), %xmm2 vmovhpd 5208(%rsi,%r10), %xmm2, %xmm2 vmovsd 3672(%rsi,%r10), %xmm3 vmovhpd 4184(%rsi,%r10), %xmm3, %xmm3 vmovlpd %xmm8, 24(%r9,%r14) vmovhpd %xmm8, 24(%r15,%r14) vextractf128 $1, %ymm8, %xmm4 vmovlpd %xmm4, 24(%rcx,%r14) vmovhpd %xmm4, 24(%rdx,%r14) vmulpd %ymm1, %ymm6, %ymm1 vaddpd %ymm1, %ymm9, %ymm1 vinsertf128 $1, %xmm2, %ymm3, %ymm2 vmulpd %ymm2, %ymm7, %ymm2 vaddpd %ymm2, %ymm1, %ymm1 vmovlpd %xmm1, 24(%r8,%r14) vmovhpd %xmm1, 24(%r13,%r14) vextractf128 $1, %ymm1, %xmm1 vmovlpd %xmm1, 24(%r12,%r14) vmovhpd %xmm1, 24(%rdi,%r14) vmovsd 1248(%rsi,%r10), %xmm2 vmovsd 1376(%rsi,%r10), %xmm1 vmovsd 2272(%rsi,%r10), %xmm3 vmovhpd 2784(%rsi,%r10), %xmm3, %xmm3 vmovhpd 1760(%rsi,%r10), %xmm2, %xmm2 vinsertf128 $1, %xmm3, %ymm2, %ymm2 vmovsd 2400(%rsi,%r10), %xmm3 vmovhpd 2912(%rsi,%r10), %xmm3, %xmm3 vmovhpd 1888(%rsi,%r10), %xmm1, %xmm1 vinsertf128 $1, %xmm3, %ymm1, %ymm1 vmulpd %ymm1, %ymm11, %ymm1 vmulpd %ymm2, %ymm14, %ymm2 vaddpd %ymm15, %ymm2, %ymm2 vaddpd %ymm1, %ymm2, %ymm1 vmovsd 2528(%rsi,%r10), %xmm2 vmovhpd 3040(%rsi,%r10), %xmm2, %xmm2 vmovsd 1504(%rsi,%r10), %xmm3 vmovhpd 2016(%rsi,%r10), %xmm3, %xmm3 vinsertf128 $1, %xmm2, %ymm3, %ymm2 vmulpd %ymm2, %ymm10, %ymm2 vaddpd %ymm2, %ymm1, %ymm8 vmovsd 4320(%rsi,%r10), %xmm1 vmovhpd 4832(%rsi,%r10), %xmm1, %xmm1 vmovsd 3296(%rsi,%r10), %xmm2 vmovhpd 3808(%rsi,%r10), %xmm2, %xmm2 vinsertf128 $1, %xmm1, %ymm2, %ymm9 vmovsd 4448(%rsi,%r10), %xmm1 vmovhpd 4960(%rsi,%r10), %xmm1, %xmm1 vmovsd 3424(%rsi,%r10), %xmm2 vmovhpd 3936(%rsi,%r10), %xmm2, %xmm2 vinsertf128 $1, %xmm1, %ymm2, %ymm1 vmovsd 2656(%rsi,%r10), %xmm2 vmovhpd 3168(%rsi,%r10), %xmm2, %xmm2 vmovsd 1632(%rsi,%r10), %xmm3 vmovhpd 2144(%rsi,%r10), %xmm3, %xmm3 vinsertf128 $1, %xmm2, %ymm3, %ymm2 vmulpd %ymm2, %ymm0, %ymm2 vaddpd %ymm2, %ymm8, %ymm8 vmulpd %ymm1, %ymm5, %ymm1 vmulpd %ymm9, %ymm13, %ymm2 vaddpd %ymm15, %ymm2, %ymm2 vaddpd %ymm1, %ymm2, %ymm9 vmovsd 4576(%rsi,%r10), %xmm1 vmovhpd 5088(%rsi,%r10), %xmm1, %xmm1 vmovsd 3552(%rsi,%r10), %xmm2 vmovhpd 4064(%rsi,%r10), %xmm2, %xmm2 vinsertf128 $1, %xmm1, %ymm2, %ymm1 vmovsd 4704(%rsi,%r10), %xmm2 vmovhpd 5216(%rsi,%r10), %xmm2, %xmm2 vmovsd 3680(%rsi,%r10), %xmm3 vmovhpd 4192(%rsi,%r10), %xmm3, %xmm3 vmovlpd %xmm8, 32(%r9,%r14) vmovhpd %xmm8, 32(%r15,%r14) vextractf128 $1, %ymm8, %xmm4 vmovlpd %xmm4, 32(%rcx,%r14) vmovhpd %xmm4, 32(%rdx,%r14) vmulpd %ymm1, %ymm6, %ymm1 vaddpd %ymm1, %ymm9, %ymm1 vinsertf128 $1, %xmm2, %ymm3, %ymm2 vmulpd %ymm2, %ymm7, %ymm2 vaddpd %ymm2, %ymm1, %ymm1 vmovlpd %xmm1, 32(%r8,%r14) vmovhpd %xmm1, 32(%r13,%r14) vextractf128 $1, %ymm1, %xmm1 vmovlpd %xmm1, 32(%r12,%r14) vmovhpd %xmm1, 32(%rdi,%r14) vmovsd 1256(%rsi,%r10), %xmm2 vmovsd 1384(%rsi,%r10), %xmm1 vmovsd 2280(%rsi,%r10), %xmm3 vmovhpd 2792(%rsi,%r10), %xmm3, %xmm3 vmovhpd 1768(%rsi,%r10), %xmm2, %xmm2 vinsertf128 $1, %xmm3, %ymm2, %ymm2 vmovsd 2408(%rsi,%r10), %xmm3 vmovhpd 2920(%rsi,%r10), %xmm3, %xmm3 vmovhpd 1896(%rsi,%r10), %xmm1, %xmm1 vinsertf128 $1, %xmm3, %ymm1, %ymm1 vmulpd %ymm1, %ymm11, %ymm1 vmulpd %ymm2, %ymm14, %ymm2 vaddpd %ymm15, %ymm2, %ymm2 vaddpd %ymm1, %ymm2, %ymm1 vmovsd 2664(%rsi,%r10), %xmm2 vmovhpd 3176(%rsi,%r10), %xmm2, %xmm2 vmovsd 1640(%rsi,%r10), %xmm3 vmovhpd 2152(%rsi,%r10), %xmm3, %xmm3 vinsertf128 $1, %xmm2, %ymm3, %ymm2 vmovsd 2536(%rsi,%r10), %xmm3 vmovhpd 3048(%rsi,%r10), %xmm3, %xmm3 vmovsd 1512(%rsi,%r10), %xmm4 vmovhpd 2024(%rsi,%r10), %xmm4, %xmm4 vinsertf128 $1, %xmm3, %ymm4, %ymm3 vmulpd %ymm3, %ymm10, %ymm3 vaddpd %ymm3, %ymm1, %ymm1 vmulpd %ymm2, %ymm0, %ymm0 vmovsd 4328(%rsi,%r10), %xmm2 vmovhpd 4840(%rsi,%r10), %xmm2, %xmm2 vmovsd 3304(%rsi,%r10), %xmm3 vmovhpd 3816(%rsi,%r10), %xmm3, %xmm3 vinsertf128 $1, %xmm2, %ymm3, %ymm2 vmovsd 4456(%rsi,%r10), %xmm3 vmovhpd 4968(%rsi,%r10), %xmm3, %xmm3 vmovsd 3432(%rsi,%r10), %xmm4 vmovhpd 3944(%rsi,%r10), %xmm4, %xmm4 vinsertf128 $1, %xmm3, %ymm4, %ymm3 vaddpd %ymm0, %ymm1, %ymm0 vmulpd %ymm3, %ymm5, %ymm1 vmulpd %ymm2, %ymm13, %ymm2 vaddpd %ymm15, %ymm2, %ymm2 vaddpd %ymm1, %ymm2, %ymm8 vmovsd 4584(%rsi,%r10), %xmm1 vmovhpd 5096(%rsi,%r10), %xmm1, %xmm1 vmovsd 3560(%rsi,%r10), %xmm2 vmovhpd 4072(%rsi,%r10), %xmm2, %xmm2 vinsertf128 $1, %xmm1, %ymm2, %ymm1 vmovsd 4712(%rsi,%r10), %xmm2 vmovhpd 5224(%rsi,%r10), %xmm2, %xmm2 vmovsd 3688(%rsi,%r10), %xmm3 vmovhpd 4200(%rsi,%r10), %xmm3, %xmm3 vmovlpd %xmm0, 40(%r9,%r14) vmovhpd %xmm0, 40(%r15,%r14) vextractf128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 40(%rcx,%r14) vmovhpd %xmm0, 40(%rdx,%r14) vmulpd %ymm1, %ymm6, %ymm0 vaddpd %ymm0, %ymm8, %ymm0 vinsertf128 $1, %xmm2, %ymm3, %ymm1 vmulpd %ymm1, %ymm7, %ymm1 vaddpd %ymm1, %ymm0, %ymm0 vmovlpd %xmm0, 40(%r8,%r14) vmovhpd %xmm0, 40(%r13,%r14) vextractf128 $1, %ymm0, %xmm0 vmovlpd %xmm0, 40(%r12,%r14) vmovhpd %xmm0, 40(%rdi,%r14) vmovsd 1264(%rsi,%r10), %xmm0 vmovsd 1392(%rsi,%r10), %xmm1 vmovsd 2416(%rsi,%r10), %xmm2 vmovhpd 2928(%rsi,%r10), %xmm2, %xmm2 vmovhpd 1904(%rsi,%r10), %xmm1, %xmm1 vinsertf128 $1, %xmm2, %ymm1, %ymm1 vmovsd 2288(%rsi,%r10), %xmm2 vmulpd %ymm1, %ymm11, %ymm1 vmovhpd 2800(%rsi,%r10), %xmm2, %xmm2 vmovhpd 1776(%rsi,%r10), %xmm0, %xmm0 vinsertf128 $1, %xmm2, %ymm0, %ymm0 vmulpd %ymm0, %ymm14, %ymm0 vaddpd %ymm15, %ymm0, %ymm0 vmovsd 2544(%rsi,%r10), %xmm2 vaddpd %ymm1, %ymm0, %ymm0 vmovhpd 3056(%rsi,%r10), %xmm2, %xmm1 vmovsd 1520(%rsi,%r10), %xmm2 vmovhpd 2032(%rsi,%r10), %xmm2, %xmm2 vinsertf128 $1, %xmm1, %ymm2, %ymm1 vmulpd %ymm1, %ymm10, %ymm2 vmovsd 4336(%rsi,%r10), %xmm1 vmovhpd 4848(%rsi,%r10), %xmm1, %xmm1 vaddpd %ymm2, %ymm0, %ymm7 vmovsd 3312(%rsi,%r10), %xmm0 vmovhpd 3824(%rsi,%r10), %xmm0, %xmm0 vinsertf128 $1, %xmm1, %ymm0, %ymm8 vmovsd 4464(%rsi,%r10), %xmm0 vmovhpd 4976(%rsi,%r10), %xmm0, %xmm0 vmovsd 3440(%rsi,%r10), %xmm1 vmovhpd 3952(%rsi,%r10), %xmm1, %xmm1 vinsertf128 $1, %xmm0, %ymm1, %ymm1 vmovsd 2672(%rsi,%r10), %xmm0 vmovhpd 3184(%rsi,%r10), %xmm0, %xmm0 vmovsd 1648(%rsi,%r10), %xmm2 vmovhpd 2160(%rsi,%r10), %xmm2, %xmm2 vinsertf128 $1, %xmm0, %ymm2, %ymm2 movq 31520(%rbx), %rax vmovsd 24(%rax,%r11), %xmm0 movq 32064(%rbx), %rax vmovhpd 24(%rax,%r11), %xmm0, %xmm0 movq 32736(%rbx), %rax vmovsd 24(%rax,%r11), %xmm3 movq 31488(%rbx), %rax vmovhpd 24(%rax,%r11), %xmm3, %xmm3 vinsertf128 $1, %xmm0, %ymm3, %ymm0 vmulpd %ymm2, %ymm0, %ymm2 vaddpd %ymm2, %ymm7, %ymm7 vmulpd %ymm1, %ymm5, %ymm1 vmulpd %ymm8, %ymm13, %ymm2 vaddpd %ymm15, %ymm2, %ymm2 vaddpd %ymm1, %ymm2, %ymm8 vmovsd 4592(%rsi,%r10), %xmm1 vmovhpd 5104(%rsi,%r10), %xmm1, %xmm1 vmovsd 3568(%rsi,%r10), %xmm2 vmovhpd 4080(%rsi,%r10), %xmm2, %xmm2 vinsertf128 $1, %xmm1, %ymm2, %ymm1 movq 32800(%rbx), %rax vmovsd 24(%rax,%r11), %xmm3 movq 32480(%rbx), %rax vmovsd 24(%rax,%r11), %xmm2 movq 32512(%rbx), %rax vmovhpd 24(%rax,%r11), %xmm2, %xmm2 movq 32448(%rbx), %rax vmovhpd 24(%rax,%r11), %xmm3, %xmm9 vmovsd 4720(%rsi,%r10), %xmm3 vmovhpd 5232(%rsi,%r10), %xmm3, %xmm3 vmovsd 3696(%rsi,%r10), %xmm4 vmovhpd 4208(%rsi,%r10), %xmm4, %xmm12 vmovlpd %xmm7, 48(%r9,%r14) vmovhpd %xmm7, 48(%r15,%r14) vextractf128 $1, %ymm7, %xmm4 vmovlpd %xmm4, 48(%rcx,%r14) vmovhpd %xmm4, 48(%rdx,%r14) vmulpd %ymm1, %ymm6, %ymm1 vaddpd %ymm1, %ymm8, %ymm1 vinsertf128 $1, %xmm3, %ymm12, %ymm3 vinsertf128 $1, %xmm2, %ymm9, %ymm12 vmulpd %ymm3, %ymm12, %ymm2 vaddpd %ymm2, %ymm1, %ymm1 vmovlpd %xmm1, 48(%r8,%r14) vmovhpd %xmm1, 48(%r13,%r14) vextractf128 $1, %ymm1, %xmm1 vmovlpd %xmm1, 48(%r12,%r14) vmovhpd %xmm1, 48(%rdi,%r14) vmovsd 1272(%rsi,%r10), %xmm2 vmovsd 1400(%rsi,%r10), %xmm1 vmovsd 2296(%rsi,%r10), %xmm3 vmovhpd 2808(%rsi,%r10), %xmm3, %xmm3 vmovhpd 1784(%rsi,%r10), %xmm2, %xmm2 vinsertf128 $1, %xmm3, %ymm2, %ymm2 vmovsd 2424(%rsi,%r10), %xmm3 vmovhpd 2936(%rsi,%r10), %xmm3, %xmm3 vmovhpd 1912(%rsi,%r10), %xmm1, %xmm1 vinsertf128 $1, %xmm3, %ymm1, %ymm1 vmulpd %ymm1, %ymm11, %ymm1 vmulpd %ymm2, %ymm14, %ymm2 vaddpd %ymm15, %ymm2, %ymm2 vaddpd %ymm1, %ymm2, %ymm1 vmovsd 2552(%rsi,%r10), %xmm2 vmovhpd 3064(%rsi,%r10), %xmm2, %xmm2 vmovsd 1528(%rsi,%r10), %xmm3 vmovhpd 2040(%rsi,%r10), %xmm3, %xmm3 vinsertf128 $1, %xmm2, %ymm3, %ymm2 vmulpd %ymm2, %ymm10, %ymm2 vaddpd %ymm2, %ymm1, %ymm8 vmovsd 4344(%rsi,%r10), %xmm1 vmovhpd 4856(%rsi,%r10), %xmm1, %xmm1 vmovsd 3320(%rsi,%r10), %xmm2 vmovhpd 3832(%rsi,%r10), %xmm2, %xmm2 vinsertf128 $1, %xmm1, %ymm2, %ymm9 vmovsd 4472(%rsi,%r10), %xmm1 vmovhpd 4984(%rsi,%r10), %xmm1, %xmm1 vmovsd 3448(%rsi,%r10), %xmm2 vmovhpd 3960(%rsi,%r10), %xmm2, %xmm2 vinsertf128 $1, %xmm1, %ymm2, %ymm1 vmovsd 2680(%rsi,%r10), %xmm2 vmovhpd 3192(%rsi,%r10), %xmm2, %xmm2 vmovsd 1656(%rsi,%r10), %xmm3 vmovhpd 2168(%rsi,%r10), %xmm3, %xmm3 vinsertf128 $1, %xmm2, %ymm3, %ymm2 vmulpd %ymm2, %ymm0, %ymm2 vaddpd %ymm2, %ymm8, %ymm8 vmulpd %ymm1, %ymm5, %ymm1 vmulpd %ymm9, %ymm13, %ymm2 vaddpd %ymm15, %ymm2, %ymm2 vaddpd %ymm1, %ymm2, %ymm9 vmovsd 4600(%rsi,%r10), %xmm1 vmovhpd 5112(%rsi,%r10), %xmm1, %xmm1 vmovsd 3576(%rsi,%r10), %xmm2 vmovhpd 4088(%rsi,%r10), %xmm2, %xmm2 vinsertf128 $1, %xmm1, %ymm2, %ymm1 vmovsd 4728(%rsi,%r10), %xmm2 vmovhpd 5240(%rsi,%r10), %xmm2, %xmm2 vmovsd 3704(%rsi,%r10), %xmm3 vmovhpd 4216(%rsi,%r10), %xmm3, %xmm3 vmovlpd %xmm8, 56(%r9,%r14) vmovhpd %xmm8, 56(%r15,%r14) vextractf128 $1, %ymm8, %xmm4 vmovlpd %xmm4, 56(%rcx,%r14) vmovhpd %xmm4, 56(%rdx,%r14) vmulpd %ymm1, %ymm6, %ymm1 vaddpd %ymm1, %ymm9, %ymm1 vinsertf128 $1, %xmm2, %ymm3, %ymm2 vmulpd %ymm2, %ymm12, %ymm2 vaddpd %ymm2, %ymm1, %ymm1 vmovlpd %xmm1, 56(%r8,%r14) vmovhpd %xmm1, 56(%r13,%r14) vextractf128 $1, %ymm1, %xmm1 vmovlpd %xmm1, 56(%r12,%r14) vmovhpd %xmm1, 56(%rdi,%r14) vmovsd 1280(%rsi,%r10), %xmm2 vmovsd 1408(%rsi,%r10), %xmm1 vmovsd 2304(%rsi,%r10), %xmm3 vmovhpd 2816(%rsi,%r10), %xmm3, %xmm3 vmovhpd 1792(%rsi,%r10), %xmm2, %xmm2 vinsertf128 $1, %xmm3, %ymm2, %ymm2 vmovsd 2432(%rsi,%r10), %xmm3 vmovhpd 2944(%rsi,%r10), %xmm3, %xmm3 vmovhpd 1920(%rsi,%r10), %xmm1, %xmm1 vinsertf128 $1, %xmm3, %ymm1, %ymm1 vmulpd %ymm1, %ymm11, %ymm1 vmulpd %ymm2, %ymm14, %ymm2 vaddpd %ymm15, %ymm2, %ymm2 vaddpd %ymm1, %ymm2, %ymm1 vmovsd 2560(%rsi,%r10), %xmm2 vmovhpd 3072(%rsi,%r10), %xmm2, %xmm2 vmovsd 1536(%rsi,%r10), %xmm3 vmovhpd 2048(%rsi,%r10), %xmm3, %xmm3 vinsertf128 $1, %xmm2, %ymm3, %ymm2 vmulpd %ymm2, %ymm10, %ymm2 vaddpd %ymm2, %ymm1, %ymm8 vmovsd 4352(%rsi,%r10), %xmm1 vmovhpd 4864(%rsi,%r10), %xmm1, %xmm1 vmovsd 3328(%rsi,%r10), %xmm2 vmovhpd 3840(%rsi,%r10), %xmm2, %xmm2 vinsertf128 $1, %xmm1, %ymm2, %ymm9 vmovsd 4480(%rsi,%r10), %xmm1 vmovhpd 4992(%rsi,%r10), %xmm1, %xmm1 vmovsd 3456(%rsi,%r10), %xmm2 vmovhpd 3968(%rsi,%r10), %xmm2, %xmm2 vinsertf128 $1, %xmm1, %ymm2, %ymm1 vmovsd 2688(%rsi,%r10), %xmm2 vmovhpd 3200(%rsi,%r10), %xmm2, %xmm2 vmovsd 1664(%rsi,%r10), %xmm3 vmovhpd 2176(%rsi,%r10), %xmm3, %xmm3 vinsertf128 $1, %xmm2, %ymm3, %ymm2 vmulpd %ymm2, %ymm0, %ymm2 vaddpd %ymm2, %ymm8, %ymm8 vmulpd %ymm1, %ymm5, %ymm1 vmulpd %ymm9, %ymm13, %ymm2 vaddpd %ymm15, %ymm2, %ymm2 vaddpd %ymm1, %ymm2, %ymm9 vmovsd 4608(%rsi,%r10), %xmm1 vmovhpd 5120(%rsi,%r10), %xmm1, %xmm1 vmovsd 3584(%rsi,%r10), %xmm2 vmovhpd 4096(%rsi,%r10), %xmm2, %xmm2 vinsertf128 $1, %xmm1, %ymm2, %ymm1 vmovsd 4736(%rsi,%r10), %xmm2 vmovhpd 5248(%rsi,%r10), %xmm2, %xmm2 vmovsd 3712(%rsi,%r10), %xmm3 vmovhpd 4224(%rsi,%r10), %xmm3, %xmm3 vmovlpd %xmm8, 64(%r9,%r14) vmovhpd %xmm8, 64(%r15,%r14) vextractf128 $1, %ymm8, %xmm4 vmovlpd %xmm4, 64(%rcx,%r14) vmovhpd %xmm4, 64(%rdx,%r14) vmulpd %ymm1, %ymm6, %ymm1 vaddpd %ymm1, %ymm9, %ymm1 vinsertf128 $1, %xmm2, %ymm3, %ymm2 vmulpd %ymm2, %ymm12, %ymm2 vaddpd %ymm2, %ymm1, %ymm1 vmovlpd %xmm1, 64(%r8,%r14) vmovhpd %xmm1, 64(%r13,%r14) vextractf128 $1, %ymm1, %xmm1 vmovlpd %xmm1, 64(%r12,%r14) vmovhpd %xmm1, 64(%rdi,%r14) vmovsd 1288(%rsi,%r10), %xmm2 vmovsd 1416(%rsi,%r10), %xmm1 vmovsd 2312(%rsi,%r10), %xmm3 vmovhpd 2824(%rsi,%r10), %xmm3, %xmm3 vmovhpd 1800(%rsi,%r10), %xmm2, %xmm2 vinsertf128 $1, %xmm3, %ymm2, %ymm2 vmovsd 2440(%rsi,%r10), %xmm3 vmovhpd 2952(%rsi,%r10), %xmm3, %xmm3 vmovhpd 1928(%rsi,%r10), %xmm1, %xmm1 vinsertf128 $1, %xmm3, %ymm1, %ymm1 vmulpd %ymm1, %ymm11, %ymm1 vmulpd %ymm2, %ymm14, %ymm2 vaddpd %ymm15, %ymm2, %ymm2 vaddpd %ymm1, %ymm2, %ymm1 vmovsd 2568(%rsi,%r10), %xmm2 vmovhpd 3080(%rsi,%r10), %xmm2, %xmm2 vmovsd 1544(%rsi,%r10), %xmm3 vmovhpd 2056(%rsi,%r10), %xmm3, %xmm3 vinsertf128 $1, %xmm2, %ymm3, %ymm2 vmulpd %ymm2, %ymm10, %ymm2 vaddpd %ymm2, %ymm1, %ymm8 vmovsd 4360(%rsi,%r10), %xmm1 vmovhpd 4872(%rsi,%r10), %xmm1, %xmm1 vmovsd 3336(%rsi,%r10), %xmm2 vmovhpd 3848(%rsi,%r10), %xmm2, %xmm2 vinsertf128 $1, %xmm1, %ymm2, %ymm9 vmovsd 4488(%rsi,%r10), %xmm1 vmovhpd 5000(%rsi,%r10), %xmm1, %xmm1 vmovsd 3464(%rsi,%r10), %xmm2 vmovhpd 3976(%rsi,%r10), %xmm2, %xmm2 vinsertf128 $1, %xmm1, %ymm2, %ymm1 vmovsd 2696(%rsi,%r10), %xmm2 vmovhpd 3208(%rsi,%r10), %xmm2, %xmm2 vmovsd 1672(%rsi,%r10), %xmm3 vmovhpd 2184(%rsi,%r10), %xmm3, %xmm3 vinsertf128 $1, %xmm2, %ymm3, %ymm2 vmulpd %ymm2, %ymm0, %ymm2 vaddpd %ymm2, %ymm8, %ymm8 vmulpd %ymm1, %ymm5, %ymm1 vmulpd %ymm9, %ymm13, %ymm2 vaddpd %ymm15, %ymm2, %ymm2 vaddpd %ymm1, %ymm2, %ymm9 vmovsd 4616(%rsi,%r10), %xmm1 vmovhpd 5128(%rsi,%r10), %xmm1, %xmm1 vmovsd 3592(%rsi,%r10), %xmm2 vmovhpd 4104(%rsi,%r10), %xmm2, %xmm2 vinsertf128 $1, %xmm1, %ymm2, %ymm1 vmovsd 4744(%rsi,%r10), %xmm2 vmovhpd 5256(%rsi,%r10), %xmm2, %xmm2 vmovsd 3720(%rsi,%r10), %xmm3 vmovhpd 4232(%rsi,%r10), %xmm3, %xmm3 vmovlpd %xmm8, 72(%r9,%r14) vmovhpd %xmm8, 72(%r15,%r14) vextractf128 $1, %ymm8, %xmm4 vmovlpd %xmm4, 72(%rcx,%r14) movq %rdx, %rax vmovhpd %xmm4, 72(%rax,%r14) vmulpd %ymm1, %ymm6, %ymm1 vaddpd %ymm1, %ymm9, %ymm1 vinsertf128 $1, %xmm2, %ymm3, %ymm2 vmulpd %ymm2, %ymm12, %ymm2 vaddpd %ymm2, %ymm1, %ymm1 vmovlpd %xmm1, 72(%r8,%r14) vmovhpd %xmm1, 72(%r13,%r14) vextractf128 $1, %ymm1, %xmm1 vmovlpd %xmm1, 72(%r12,%r14) vmovhpd %xmm1, 72(%rdi,%r14) vmovsd 1296(%rsi,%r10), %xmm2 vmovsd 1424(%rsi,%r10), %xmm1 vmovsd 2320(%rsi,%r10), %xmm3 vmovhpd 2832(%rsi,%r10), %xmm3, %xmm3 vmovhpd 1808(%rsi,%r10), %xmm2, %xmm2 vinsertf128 $1, %xmm3, %ymm2, %ymm3 vmovsd 2448(%rsi,%r10), %xmm2 vmovhpd 2960(%rsi,%r10), %xmm2, %xmm2 vmovhpd 1936(%rsi,%r10), %xmm1, %xmm1 vinsertf128 $1, %xmm2, %ymm1, %ymm1 vmulpd %ymm1, %ymm11, %ymm2 vmulpd %ymm3, %ymm14, %ymm4 vmovsd 4368(%rsi,%r10), %xmm1 vmovhpd 4880(%rsi,%r10), %xmm1, %xmm1 vmovsd 3344(%rsi,%r10), %xmm3 vmovhpd 3856(%rsi,%r10), %xmm3, %xmm3 vinsertf128 $1, %xmm1, %ymm3, %ymm8 vmovsd 2576(%rsi,%r10), %xmm1 vmovhpd 3088(%rsi,%r10), %xmm1, %xmm1 vmovsd 1552(%rsi,%r10), %xmm3 vmovhpd 2064(%rsi,%r10), %xmm3, %xmm3 vinsertf128 $1, %xmm1, %ymm3, %ymm3 vmovsd 4496(%rsi,%r10), %xmm1 vmovhpd 5008(%rsi,%r10), %xmm1, %xmm1 vmovsd 3472(%rsi,%r10), %xmm7 vmovhpd 3984(%rsi,%r10), %xmm7, %xmm7 vinsertf128 $1, %xmm1, %ymm7, %ymm1 vaddpd %ymm15, %ymm4, %ymm4 vaddpd %ymm2, %ymm4, %ymm2 vmulpd %ymm1, %ymm5, %ymm1 vmulpd %ymm3, %ymm10, %ymm3 vmulpd %ymm8, %ymm13, %ymm4 vmovsd 2704(%rsi,%r10), %xmm5 vmovhpd 3216(%rsi,%r10), %xmm5, %xmm5 vmovsd 1680(%rsi,%r10), %xmm7 vmovhpd 2192(%rsi,%r10), %xmm7, %xmm7 vaddpd %ymm15, %ymm4, %ymm4 vinsertf128 $1, %xmm5, %ymm7, %ymm5 vmovsd 4624(%rsi,%r10), %xmm7 vaddpd %ymm3, %ymm2, %ymm2 vmulpd %ymm5, %ymm0, %ymm3 vmovsd 4752(%rsi,%r10), %xmm5 vmovhpd 5136(%rsi,%r10), %xmm7, %xmm7 vaddpd %ymm1, %ymm4, %ymm1 vmovsd 3600(%rsi,%r10), %xmm4 vmovhpd 4112(%rsi,%r10), %xmm4, %xmm4 vinsertf128 $1, %xmm7, %ymm4, %ymm7 vmovhpd 5264(%rsi,%r10), %xmm5, %xmm4 vmovsd 3728(%rsi,%r10), %xmm5 vmovhpd 4240(%rsi,%r10), %xmm5, %xmm5 vaddpd %ymm3, %ymm2, %ymm2 vmovlpd %xmm2, 80(%r9,%r14) movq %r9, %rdx vextractf128 $1, %ymm2, %xmm3 vmulpd %ymm7, %ymm6, %ymm6 vmovhpd %xmm2, 80(%r15,%r14) vmovlpd %xmm3, 80(%rcx,%r14) vmovhpd %xmm3, 80(%rax,%r14) vaddpd %ymm6, %ymm1, %ymm1 vinsertf128 $1, %xmm4, %ymm5, %ymm2 vmulpd %ymm2, %ymm12, %ymm2 vaddpd %ymm2, %ymm1, %ymm1 vmovlpd %xmm1, 80(%r8,%r14) vmovhpd %xmm1, 80(%r13,%r14) vextractf128 $1, %ymm1, %xmm1 vmovlpd %xmm1, 80(%r12,%r14) vmovhpd %xmm1, 80(%rdi,%r14) vmovsd 1304(%rsi,%r10), %xmm4 vmovsd 1432(%rsi,%r10), %xmm1 movq 32736(%rbx), %rax vmovsd (%rax,%r11), %xmm3 vmovsd 8(%rax,%r11), %xmm2 movq %rax, %rcx movq 31488(%rbx), %r15 vmovhpd (%r15,%r11), %xmm3, %xmm5 movq 31520(%rbx), %rdi vmovsd (%rdi,%r11), %xmm6 vmovsd 8(%rdi,%r11), %xmm3 movq %rdi, %rax movq 32064(%rbx), %r8 vmovhpd (%r8,%r11), %xmm6, %xmm6 vmovsd 2328(%rsi,%r10), %xmm7 vmovhpd 2840(%rsi,%r10), %xmm7, %xmm7 vmovhpd 1816(%rsi,%r10), %xmm4, %xmm4 vinsertf128 $1, %xmm7, %ymm4, %ymm4 vinsertf128 $1, %xmm6, %ymm5, %ymm11 vmovsd 2456(%rsi,%r10), %xmm5 vmovhpd 2968(%rsi,%r10), %xmm5, %xmm5 vmovhpd 1944(%rsi,%r10), %xmm1, %xmm6 vmulpd %ymm4, %ymm11, %ymm1 vinsertf128 $1, %xmm5, %ymm6, %ymm5 vmovhpd 8(%r8,%r11), %xmm3, %xmm3 vmovhpd 8(%r15,%r11), %xmm2, %xmm2 vinsertf128 $1, %xmm3, %ymm2, %ymm13 vmovsd 2712(%rsi,%r10), %xmm4 vmulpd %ymm5, %ymm13, %ymm3 vaddpd %ymm15, %ymm1, %ymm5 vmovsd 2584(%rsi,%r10), %xmm2 vmovsd 16(%rax,%r11), %xmm1 vmovhpd 3096(%rsi,%r10), %xmm2, %xmm2 vmovhpd 3224(%rsi,%r10), %xmm4, %xmm4 vaddpd %ymm3, %ymm5, %ymm5 vmovsd 1688(%rsi,%r10), %xmm3 vmovhpd 2200(%rsi,%r10), %xmm3, %xmm3 vinsertf128 $1, %xmm4, %ymm3, %ymm8 vmovsd 1560(%rsi,%r10), %xmm3 vmovhpd 2072(%rsi,%r10), %xmm3, %xmm3 vinsertf128 $1, %xmm2, %ymm3, %ymm6 vmovhpd 16(%r8,%r11), %xmm1, %xmm1 vmovsd 16(%rcx,%r11), %xmm2 vmovhpd 16(%r15,%r11), %xmm2, %xmm2 vinsertf128 $1, %xmm1, %ymm2, %ymm14 movq 32800(%rbx), %r12 vmovsd (%r12,%r11), %xmm7 vmovsd 8(%r12,%r11), %xmm4 movq 32480(%rbx), %r13 vmovsd (%r13,%r11), %xmm2 vmovsd 8(%r13,%r11), %xmm1 vmulpd %ymm6, %ymm14, %ymm3 vaddpd %ymm3, %ymm5, %ymm6 vmulpd %ymm8, %ymm0, %ymm8 vmovsd 4376(%rsi,%r10), %xmm0 vmovhpd 4888(%rsi,%r10), %xmm0, %xmm0 vmovsd 3352(%rsi,%r10), %xmm3 vmovhpd 3864(%rsi,%r10), %xmm3, %xmm3 vinsertf128 $1, %xmm0, %ymm3, %ymm9 movq 32512(%rbx), %rdi vmovhpd (%rdi,%r11), %xmm2, %xmm0 movq 32448(%rbx), %r9 vmovhpd (%r9,%r11), %xmm7, %xmm2 vinsertf128 $1, %xmm0, %ymm2, %ymm5 vmovsd 4504(%rsi,%r10), %xmm0 vmovhpd 5016(%rsi,%r10), %xmm0, %xmm0 vmovsd 3480(%rsi,%r10), %xmm2 vmovhpd 3992(%rsi,%r10), %xmm2, %xmm2 vinsertf128 $1, %xmm0, %ymm2, %ymm2 vmovhpd 8(%rdi,%r11), %xmm1, %xmm0 vmovhpd 8(%r9,%r11), %xmm4, %xmm1 vinsertf128 $1, %xmm0, %ymm1, %ymm0 vaddpd %ymm8, %ymm6, %ymm6 vmulpd %ymm2, %ymm0, %ymm1 vmulpd %ymm9, %ymm5, %ymm2 vaddpd %ymm15, %ymm2, %ymm2 vaddpd %ymm1, %ymm2, %ymm8 vmovsd 4632(%rsi,%r10), %xmm1 vmovhpd 5144(%rsi,%r10), %xmm1, %xmm1 vmovsd 3608(%rsi,%r10), %xmm2 vmovhpd 4120(%rsi,%r10), %xmm2, %xmm2 vinsertf128 $1, %xmm1, %ymm2, %ymm1 vmovsd 16(%r13,%r11), %xmm2 vmovhpd 16(%rdi,%r11), %xmm2, %xmm2 vmovsd 16(%r12,%r11), %xmm3 vmovhpd 16(%r9,%r11), %xmm3, %xmm3 vinsertf128 $1, %xmm2, %ymm3, %ymm15 vmovsd 4760(%rsi,%r10), %xmm2 vmovhpd 5272(%rsi,%r10), %xmm2, %xmm2 vmovsd 3736(%rsi,%r10), %xmm3 vmovhpd 4248(%rsi,%r10), %xmm3, %xmm3 vmovlpd %xmm6, 88(%rdx,%r14) movq 32096(%rbx), %rcx vmovhpd %xmm6, 88(%rcx,%r14) vextractf128 $1, %ymm6, %xmm4 movq 32416(%rbx), %rcx vmovlpd %xmm4, 88(%rcx,%r14) movq 32864(%rbx), %rdx vmovhpd %xmm4, 88(%rdx,%r14) vmulpd %ymm1, %ymm15, %ymm1 vaddpd %ymm1, %ymm8, %ymm1 vinsertf128 $1, %xmm2, %ymm3, %ymm2 vmulpd %ymm2, %ymm12, %ymm2 vxorpd %ymm12, %ymm12, %ymm12 vaddpd %ymm2, %ymm1, %ymm1 movq 32896(%rbx), %rdx vmovlpd %xmm1, 88(%rdx,%r14) movq 32960(%rbx), %rdx vmovhpd %xmm1, 88(%rdx,%r14) vextractf128 $1, %ymm1, %xmm1 movq 32992(%rbx), %rdx vmovlpd %xmm1, 88(%rdx,%r14) movq 32928(%rbx), %rdx vmovhpd %xmm1, 88(%rdx,%r14) movq 32736(%rbx), %rdx vmovsd 24(%rdx,%r11), %xmm1 vmovsd 24(%rax,%r11), %xmm2 vmovhpd 24(%r8,%r11), %xmm2, %xmm6 vmovhpd 24(%r15,%r11), %xmm1, %xmm9 vmovsd 24(%r13,%r11), %xmm1 vmovhpd 24(%rdi,%r11), %xmm1, %xmm7 vmovsd 24(%r12,%r11), %xmm1 vmovhpd 24(%r9,%r11), %xmm1, %xmm8 movq 32640(%rbx), %r11 movq %rsi, %rax incq %r11 cmpl $4, %r11d vmovsd 1312(%rax,%r10), %xmm2 vmovsd 1440(%rax,%r10), %xmm1 vmovsd 2336(%rax,%r10), %xmm3 vmovhpd 2848(%rax,%r10), %xmm3, %xmm3 vmovhpd 1824(%rax,%r10), %xmm2, %xmm2 vinsertf128 $1, %xmm3, %ymm2, %ymm2 vmovsd 2464(%rax,%r10), %xmm3 vmovhpd 2976(%rax,%r10), %xmm3, %xmm3 vmovhpd 1952(%rax,%r10), %xmm1, %xmm1 vinsertf128 $1, %xmm3, %ymm1, %ymm1 vmulpd %ymm1, %ymm13, %ymm1 vmulpd %ymm2, %ymm11, %ymm2 vaddpd %ymm12, %ymm2, %ymm2 vaddpd %ymm1, %ymm2, %ymm1 vmovsd 2592(%rax,%r10), %xmm2 vmovhpd 3104(%rax,%r10), %xmm2, %xmm2 vmovsd 1568(%rax,%r10), %xmm3 vmovhpd 2080(%rax,%r10), %xmm3, %xmm3 vinsertf128 $1, %xmm2, %ymm3, %ymm2 vmulpd %ymm2, %ymm14, %ymm2 vaddpd %ymm2, %ymm1, %ymm10 vmovsd 4384(%rax,%r10), %xmm1 vmovhpd 4896(%rax,%r10), %xmm1, %xmm1 vmovsd 3360(%rax,%r10), %xmm2 vmovhpd 3872(%rax,%r10), %xmm2, %xmm2 vinsertf128 $1, %xmm1, %ymm2, %ymm1 vmovsd 4512(%rax,%r10), %xmm2 vmovhpd 5024(%rax,%r10), %xmm2, %xmm2 vmovsd 3488(%rax,%r10), %xmm3 vmovhpd 4000(%rax,%r10), %xmm3, %xmm3 vinsertf128 $1, %xmm2, %ymm3, %ymm2 vmovsd 2720(%rax,%r10), %xmm3 vmovhpd 3232(%rax,%r10), %xmm3, %xmm3 vmovsd 1696(%rax,%r10), %xmm4 vmovhpd 2208(%rax,%r10), %xmm4, %xmm4 vinsertf128 $1, %xmm3, %ymm4, %ymm3 vinsertf128 $1, %xmm6, %ymm9, %ymm6 vmulpd %ymm3, %ymm6, %ymm3 vaddpd %ymm3, %ymm10, %ymm9 vmulpd %ymm2, %ymm0, %ymm2 vmulpd %ymm1, %ymm5, %ymm1 vaddpd %ymm12, %ymm1, %ymm1 vaddpd %ymm2, %ymm1, %ymm1 vmovsd 4640(%rax,%r10), %xmm2 vmovhpd 5152(%rax,%r10), %xmm2, %xmm2 vmovsd 3616(%rax,%r10), %xmm3 vmovhpd 4128(%rax,%r10), %xmm3, %xmm3 vinsertf128 $1, %xmm2, %ymm3, %ymm2 vmovsd 4768(%rax,%r10), %xmm3 vmovhpd 5280(%rax,%r10), %xmm3, %xmm3 vmovsd 3744(%rax,%r10), %xmm4 vmovhpd 4256(%rax,%r10), %xmm4, %xmm10 movq 32832(%rbx), %r9 vmovlpd %xmm9, 96(%r9,%r14) movq 32096(%rbx), %rdi vmovhpd %xmm9, 96(%rdi,%r14) vextractf128 $1, %ymm9, %xmm4 vmovlpd %xmm4, 96(%rcx,%r14) movq 32864(%rbx), %rdx vmovhpd %xmm4, 96(%rdx,%r14) vmulpd %ymm2, %ymm15, %ymm2 vaddpd %ymm2, %ymm1, %ymm1 vinsertf128 $1, %xmm3, %ymm10, %ymm2 vinsertf128 $1, %xmm7, %ymm8, %ymm10 vmulpd %ymm2, %ymm10, %ymm2 vaddpd %ymm2, %ymm1, %ymm1 movq 32896(%rbx), %r8 vmovlpd %xmm1, 96(%r8,%r14) movq 32960(%rbx), %r12 vmovhpd %xmm1, 96(%r12,%r14) vextractf128 $1, %ymm1, %xmm1 movq 32992(%rbx), %r15 vmovlpd %xmm1, 96(%r15,%r14) movq 32928(%rbx), %rsi vmovhpd %xmm1, 96(%rsi,%r14) vmovsd 1320(%rax,%r10), %xmm2 vmovsd 1448(%rax,%r10), %xmm1 vmovsd 2344(%rax,%r10), %xmm3 vmovhpd 2856(%rax,%r10), %xmm3, %xmm3 vmovhpd 1832(%rax,%r10), %xmm2, %xmm2 vinsertf128 $1, %xmm3, %ymm2, %ymm2 vmovsd 2472(%rax,%r10), %xmm3 vmovhpd 2984(%rax,%r10), %xmm3, %xmm3 vmovhpd 1960(%rax,%r10), %xmm1, %xmm1 vinsertf128 $1, %xmm3, %ymm1, %ymm1 vmulpd %ymm1, %ymm13, %ymm1 vmulpd %ymm2, %ymm11, %ymm2 vaddpd %ymm12, %ymm2, %ymm2 vaddpd %ymm1, %ymm2, %ymm1 vmovsd 2600(%rax,%r10), %xmm2 vmovhpd 3112(%rax,%r10), %xmm2, %xmm2 vmovsd 1576(%rax,%r10), %xmm3 vmovhpd 2088(%rax,%r10), %xmm3, %xmm3 vinsertf128 $1, %xmm2, %ymm3, %ymm2 vmulpd %ymm2, %ymm14, %ymm2 vaddpd %ymm2, %ymm1, %ymm1 vmovsd 4392(%rax,%r10), %xmm2 vmovhpd 4904(%rax,%r10), %xmm2, %xmm2 vmovsd 3368(%rax,%r10), %xmm3 vmovhpd 3880(%rax,%r10), %xmm3, %xmm3 vinsertf128 $1, %xmm2, %ymm3, %ymm8 vmovsd 4520(%rax,%r10), %xmm2 vmovhpd 5032(%rax,%r10), %xmm2, %xmm2 vmovsd 3496(%rax,%r10), %xmm3 vmovhpd 4008(%rax,%r10), %xmm3, %xmm3 vinsertf128 $1, %xmm2, %ymm3, %ymm2 vmovsd 2728(%rax,%r10), %xmm3 vmovhpd 3240(%rax,%r10), %xmm3, %xmm3 vmovsd 1704(%rax,%r10), %xmm4 vmovhpd 2216(%rax,%r10), %xmm4, %xmm4 vinsertf128 $1, %xmm3, %ymm4, %ymm3 vmulpd %ymm3, %ymm6, %ymm3 vaddpd %ymm3, %ymm1, %ymm1 vmulpd %ymm2, %ymm0, %ymm2 vmulpd %ymm8, %ymm5, %ymm3 vaddpd %ymm12, %ymm3, %ymm3 vaddpd %ymm2, %ymm3, %ymm8 vmovsd 4648(%rax,%r10), %xmm2 vmovhpd 5160(%rax,%r10), %xmm2, %xmm2 vmovsd 3624(%rax,%r10), %xmm3 vmovhpd 4136(%rax,%r10), %xmm3, %xmm3 vinsertf128 $1, %xmm2, %ymm3, %ymm2 vmovsd 4776(%rax,%r10), %xmm3 vmovhpd 5288(%rax,%r10), %xmm3, %xmm3 vmovsd 3752(%rax,%r10), %xmm4 vmovhpd 4264(%rax,%r10), %xmm4, %xmm9 vmovlpd %xmm1, 104(%r9,%r14) vmovhpd %xmm1, 104(%rdi,%r14) vextractf128 $1, %ymm1, %xmm1 vmovlpd %xmm1, 104(%rcx,%r14) vmovhpd %xmm1, 104(%rdx,%r14) movq %rdx, %r13 vmulpd %ymm2, %ymm15, %ymm1 vaddpd %ymm1, %ymm8, %ymm1 vinsertf128 $1, %xmm3, %ymm9, %ymm2 vmulpd %ymm2, %ymm10, %ymm2 vaddpd %ymm2, %ymm1, %ymm1 vmovlpd %xmm1, 104(%r8,%r14) vmovhpd %xmm1, 104(%r12,%r14) movq %r12, %r9 vextractf128 $1, %ymm1, %xmm1 vmovlpd %xmm1, 104(%r15,%r14) vmovhpd %xmm1, 104(%rsi,%r14) vmovsd 1328(%rax,%r10), %xmm2 vmovsd 1456(%rax,%r10), %xmm1 vmovsd 2352(%rax,%r10), %xmm3 vmovhpd 2864(%rax,%r10), %xmm3, %xmm3 vmovhpd 1840(%rax,%r10), %xmm2, %xmm2 vinsertf128 $1, %xmm3, %ymm2, %ymm2 vmovsd 2480(%rax,%r10), %xmm3 vmovhpd 2992(%rax,%r10), %xmm3, %xmm3 vmovhpd 1968(%rax,%r10), %xmm1, %xmm1 vinsertf128 $1, %xmm3, %ymm1, %ymm1 vmulpd %ymm1, %ymm13, %ymm1 vmulpd %ymm2, %ymm11, %ymm2 vaddpd %ymm12, %ymm2, %ymm2 vaddpd %ymm1, %ymm2, %ymm1 vmovsd 2608(%rax,%r10), %xmm2 vmovhpd 3120(%rax,%r10), %xmm2, %xmm2 vmovsd 1584(%rax,%r10), %xmm3 vmovhpd 2096(%rax,%r10), %xmm3, %xmm3 vinsertf128 $1, %xmm2, %ymm3, %ymm2 vmulpd %ymm2, %ymm14, %ymm2 vaddpd %ymm2, %ymm1, %ymm1 vmovsd 4400(%rax,%r10), %xmm2 vmovhpd 4912(%rax,%r10), %xmm2, %xmm2 vmovsd 3376(%rax,%r10), %xmm3 vmovhpd 3888(%rax,%r10), %xmm3, %xmm3 vinsertf128 $1, %xmm2, %ymm3, %ymm8 vmovsd 4528(%rax,%r10), %xmm2 vmovhpd 5040(%rax,%r10), %xmm2, %xmm2 vmovsd 3504(%rax,%r10), %xmm3 vmovhpd 4016(%rax,%r10), %xmm3, %xmm3 vinsertf128 $1, %xmm2, %ymm3, %ymm2 vmovsd 2736(%rax,%r10), %xmm3 vmovhpd 3248(%rax,%r10), %xmm3, %xmm3 vmovsd 1712(%rax,%r10), %xmm4 vmovhpd 2224(%rax,%r10), %xmm4, %xmm4 vinsertf128 $1, %xmm3, %ymm4, %ymm3 vmulpd %ymm3, %ymm6, %ymm3 vaddpd %ymm3, %ymm1, %ymm1 vmulpd %ymm2, %ymm0, %ymm2 vmulpd %ymm8, %ymm5, %ymm3 vaddpd %ymm12, %ymm3, %ymm3 vaddpd %ymm2, %ymm3, %ymm8 vmovsd 4656(%rax,%r10), %xmm2 vmovhpd 5168(%rax,%r10), %xmm2, %xmm2 vmovsd 3632(%rax,%r10), %xmm3 vmovhpd 4144(%rax,%r10), %xmm3, %xmm3 vinsertf128 $1, %xmm2, %ymm3, %ymm2 vmovsd 4784(%rax,%r10), %xmm3 vmovhpd 5296(%rax,%r10), %xmm3, %xmm3 vmovsd 3760(%rax,%r10), %xmm4 vmovhpd 4272(%rax,%r10), %xmm4, %xmm9 movq 32832(%rbx), %rdx vmovlpd %xmm1, 112(%rdx,%r14) vmovhpd %xmm1, 112(%rdi,%r14) vextractf128 $1, %ymm1, %xmm1 vmovlpd %xmm1, 112(%rcx,%r14) vmovhpd %xmm1, 112(%r13,%r14) vmulpd %ymm2, %ymm15, %ymm1 vaddpd %ymm1, %ymm8, %ymm1 vinsertf128 $1, %xmm3, %ymm9, %ymm2 vmulpd %ymm2, %ymm10, %ymm2 vaddpd %ymm2, %ymm1, %ymm1 vmovlpd %xmm1, 112(%r8,%r14) vmovhpd %xmm1, 112(%r9,%r14) vextractf128 $1, %ymm1, %xmm1 vmovlpd %xmm1, 112(%r15,%r14) vmovhpd %xmm1, 112(%rsi,%r14) vmovsd 1336(%rax,%r10), %xmm2 vmovsd 1464(%rax,%r10), %xmm1 vmovsd 2360(%rax,%r10), %xmm3 vmovhpd 2872(%rax,%r10), %xmm3, %xmm3 vmovhpd 1848(%rax,%r10), %xmm2, %xmm2 vinsertf128 $1, %xmm3, %ymm2, %ymm2 vmovsd 2488(%rax,%r10), %xmm3 vmovhpd 3000(%rax,%r10), %xmm3, %xmm3 vmovhpd 1976(%rax,%r10), %xmm1, %xmm1 vinsertf128 $1, %xmm3, %ymm1, %ymm1 vmulpd %ymm1, %ymm13, %ymm1 vmulpd %ymm2, %ymm11, %ymm2 vmovsd 2616(%rax,%r10), %xmm3 vmovhpd 3128(%rax,%r10), %xmm3, %xmm3 vmovsd 1592(%rax,%r10), %xmm4 vmovhpd 2104(%rax,%r10), %xmm4, %xmm4 vinsertf128 $1, %xmm3, %ymm4, %ymm8 vmovsd 4408(%rax,%r10), %xmm3 vmovhpd 4920(%rax,%r10), %xmm3, %xmm3 vmovsd 3384(%rax,%r10), %xmm4 vmovhpd 3896(%rax,%r10), %xmm4, %xmm4 vinsertf128 $1, %xmm3, %ymm4, %ymm3 vaddpd %ymm12, %ymm2, %ymm2 vaddpd %ymm1, %ymm2, %ymm2 vmulpd %ymm3, %ymm5, %ymm1 vmovsd 2744(%rax,%r10), %xmm3 vmovhpd 3256(%rax,%r10), %xmm3, %xmm4 vmulpd %ymm8, %ymm14, %ymm3 vmovsd 1720(%rax,%r10), %xmm5 vmovhpd 2232(%rax,%r10), %xmm5, %xmm5 vinsertf128 $1, %xmm4, %ymm5, %ymm8 vmovsd 4536(%rax,%r10), %xmm4 vmovhpd 5048(%rax,%r10), %xmm4, %xmm4 vmovsd 3512(%rax,%r10), %xmm5 vmovhpd 4024(%rax,%r10), %xmm5, %xmm5 vinsertf128 $1, %xmm4, %ymm5, %ymm5 vaddpd %ymm3, %ymm2, %ymm2 vmovsd 3768(%rax,%r10), %xmm4 vmulpd %ymm5, %ymm0, %ymm3 vaddpd %ymm12, %ymm1, %ymm5 vmulpd %ymm8, %ymm6, %ymm6 vmovsd 4664(%rax,%r10), %xmm7 vmovsd 4792(%rax,%r10), %xmm0 vmovhpd 5304(%rax,%r10), %xmm0, %xmm0 vmovhpd 4280(%rax,%r10), %xmm4, %xmm1 vmovhpd 5176(%rax,%r10), %xmm7, %xmm4 vmovsd 3640(%rax,%r10), %xmm7 vmovhpd 4152(%rax,%r10), %xmm7, %xmm8 vaddpd %ymm6, %ymm2, %ymm2 vmovlpd %xmm2, 120(%rdx,%r14) vaddpd %ymm3, %ymm5, %ymm3 vextractf128 $1, %ymm2, %xmm5 vinsertf128 $1, %xmm4, %ymm8, %ymm4 vmulpd %ymm4, %ymm15, %ymm4 movq %rdi, %rdx vmovhpd %xmm2, 120(%rdx,%r14) movq %rdx, %r15 vmovlpd %xmm5, 120(%rcx,%r14) movq %rcx, %r12 movq %r13, %rcx vmovhpd %xmm5, 120(%rcx,%r14) vaddpd %ymm4, %ymm3, %ymm2 vinsertf128 $1, %xmm0, %ymm1, %ymm0 vmulpd %ymm0, %ymm10, %ymm0 vaddpd %ymm0, %ymm2, %ymm0 vmovlpd %xmm0, 120(%r8,%r14) vmovhpd %xmm0, 120(%r9,%r14) vextractf128 $1, %ymm0, %xmm0 movq 32992(%rbx), %rcx vmovlpd %xmm0, 120(%rcx,%r14) vmovhpd %xmm0, 120(%rsi,%r14) jne .LBB1_3465 vmovapd 800(%r10,%rax), %ymm0 vmovapd 768(%r10,%rax), %ymm1 vmovapd 736(%r10,%rax), %ymm10 vmovapd 704(%r10,%rax), %ymm5 vmovapd 576(%r10,%rax), %ymm6 vmovapd 608(%r10,%rax), %ymm7 vmovapd 640(%r10,%rax), %ymm11 vmovapd 672(%r10,%rax), %ymm9 movl $128, %r8d movq 12024(%rbx), %rcx movq 12008(%rbx), %rdx movq 12000(%rbx), %rsi movq 11336(%rbx), %r9 vmovapd 13824(%rbx), %ymm12 movq 11328(%rbx), %r14 movq 11320(%rbx), %r11 movq %r10, %r12 .align 16, 0x90 .LBB1_3467: vmovapd %ymm10, 31392(%rbx) vmovapd %ymm9, 31424(%rbx) vmovapd %ymm5, 31360(%rbx) vmovapd %ymm6, 31488(%rbx) vmovapd %ymm1, 26912(%rbx) vmovapd %ymm0, 31328(%rbx) vmovapd %ymm7, 31520(%rbx) vmovsd -1824(%rsi), %xmm2 vmovsd -3872(%rsi), %xmm1 vmovsd -1856(%rsi), %xmm0 vmovsd -864(%rsi), %xmm5 vmovsd -1888(%rsi), %xmm3 vmovhpd -1376(%rsi), %xmm3, %xmm3 vmovhpd -1312(%rsi), %xmm2, %xmm2 vmovhpd -3360(%rsi), %xmm1, %xmm10 vmovhpd -1344(%rsi), %xmm0, %xmm9 vmovsd -2848(%rsi), %xmm6 vmovsd -800(%rsi), %xmm0 vmovsd -2816(%rsi), %xmm7 vmovsd -2912(%rsi), %xmm1 vmovhpd -2400(%rsi), %xmm1, %xmm4 vmovhpd -352(%rsi), %xmm5, %xmm1 vmovsd -832(%rsi), %xmm5 vmovhpd -320(%rsi), %xmm5, %xmm5 vmovhpd -2336(%rsi), %xmm6, %xmm6 vmovhpd -288(%rsi), %xmm0, %xmm0 vmovhpd -2304(%rsi), %xmm7, %xmm7 vinsertf128 $1, %xmm1, %ymm3, %ymm3 vmovsd -3936(%rsi), %xmm1 vmovhpd -3424(%rsi), %xmm1, %xmm1 vinsertf128 $1, %xmm4, %ymm1, %ymm4 vmovsd -3840(%rsi), %xmm1 vmovhpd -3328(%rsi), %xmm1, %xmm1 vinsertf128 $1, %xmm7, %ymm1, %ymm8 vmovsd -2880(%rsi), %xmm7 vinsertf128 $1, %xmm0, %ymm2, %ymm0 vinsertf128 $1, %xmm6, %ymm10, %ymm1 vinsertf128 $1, %xmm5, %ymm9, %ymm2 vmovhpd -2368(%rsi), %xmm7, %xmm5 vmovsd -3904(%rsi), %xmm6 vmovhpd -3392(%rsi), %xmm6, %xmm6 vinsertf128 $1, %xmm5, %ymm6, %ymm6 vmovapd (%r14,%rcx), %ymm5 vmovapd 32(%r14,%rcx), %ymm15 vmulpd %ymm6, %ymm5, %ymm10 vmulpd %ymm2, %ymm15, %ymm2 vmovapd %ymm2, 32928(%rbx) vmulpd %ymm1, %ymm5, %ymm1 vmovapd %ymm1, 32896(%rbx) vmulpd %ymm0, %ymm15, %ymm0 vmovapd %ymm0, 32864(%rbx) vmulpd %ymm8, %ymm5, %ymm0 vmovapd %ymm0, 32832(%rbx) vmulpd %ymm4, %ymm5, %ymm0 vmovapd %ymm0, 32992(%rbx) vmulpd %ymm3, %ymm15, %ymm0 vmovapd %ymm0, 32960(%rbx) vmovsd -4032(%rsi), %xmm0 vmovsd -4000(%rsi), %xmm4 vmovsd -3040(%rsi), %xmm1 vmovhpd -2528(%rsi), %xmm1, %xmm1 movq %rax, %rdi subq %rdx, %rdi vmovsd (%rdi), %xmm2 vmovhpd -3552(%rsi), %xmm2, %xmm2 vinsertf128 $1, %xmm1, %ymm2, %ymm1 vmovsd -992(%rsi), %xmm2 vmovhpd -480(%rsi), %xmm2, %xmm2 vmovsd -2016(%rsi), %xmm3 vmovhpd -1504(%rsi), %xmm3, %xmm3 vinsertf128 $1, %xmm2, %ymm3, %ymm2 vmovsd -960(%rsi), %xmm3 vmovhpd -448(%rsi), %xmm3, %xmm3 vmovsd -1984(%rsi), %xmm5 vmovhpd -1472(%rsi), %xmm5, %xmm5 vinsertf128 $1, %xmm3, %ymm5, %ymm3 vmovsd -2976(%rsi), %xmm5 vmovhpd -2464(%rsi), %xmm5, %xmm5 vmovhpd -3488(%rsi), %xmm4, %xmm4 vinsertf128 $1, %xmm5, %ymm4, %ymm4 vmovsd -928(%rsi), %xmm5 vmovhpd -416(%rsi), %xmm5, %xmm5 vmovsd -1952(%rsi), %xmm6 vmovhpd -1440(%rsi), %xmm6, %xmm6 vinsertf128 $1, %xmm5, %ymm6, %ymm5 vmovsd -2944(%rsi), %xmm6 vmovhpd -2432(%rsi), %xmm6, %xmm6 vmovsd -3968(%rsi), %xmm7 vmovhpd -3456(%rsi), %xmm7, %xmm7 vinsertf128 $1, %xmm6, %ymm7, %ymm6 vmovsd -3008(%rsi), %xmm7 vmovhpd -2496(%rsi), %xmm7, %xmm7 vmovhpd -3520(%rsi), %xmm0, %xmm0 vinsertf128 $1, %xmm7, %ymm0, %ymm7 vmovapd (%r11,%rcx), %ymm8 vmovapd 32(%r11,%rcx), %ymm0 vmulpd %ymm7, %ymm8, %ymm7 vmovapd %ymm7, 32416(%rbx) vmulpd %ymm6, %ymm8, %ymm6 vmovapd %ymm6, 32512(%rbx) vmulpd %ymm5, %ymm0, %ymm5 vmovapd %ymm5, 32480(%rbx) vmulpd %ymm4, %ymm8, %ymm4 vmovapd %ymm4, 32448(%rbx) vmulpd %ymm3, %ymm0, %ymm3 vmovapd %ymm3, 32096(%rbx) vmulpd %ymm2, %ymm0, %ymm2 vmovapd %ymm2, 32736(%rbx) vmulpd %ymm1, %ymm8, %ymm1 vmovapd %ymm1, 32640(%rbx) vmovsd -896(%rsi), %xmm1 vmovhpd -384(%rsi), %xmm1, %xmm1 vmovsd -1920(%rsi), %xmm2 vmovhpd -1408(%rsi), %xmm2, %xmm2 vinsertf128 $1, %xmm1, %ymm2, %ymm1 vmulpd %ymm1, %ymm0, %ymm0 vmovapd %ymm0, 32800(%rbx) vmovsd -576(%rsi), %xmm0 vmovhpd -64(%rsi), %xmm0, %xmm0 vmovsd -1600(%rsi), %xmm1 vmovhpd -1088(%rsi), %xmm1, %xmm1 vinsertf128 $1, %xmm0, %ymm1, %ymm4 vmovsd -2624(%rsi), %xmm0 vmovhpd -2112(%rsi), %xmm0, %xmm0 vmovsd -3648(%rsi), %xmm1 vmovhpd -3136(%rsi), %xmm1, %xmm1 vinsertf128 $1, %xmm0, %ymm1, %ymm0 vmovsd -2656(%rsi), %xmm1 vmovhpd -2144(%rsi), %xmm1, %xmm1 vmovsd -3680(%rsi), %xmm2 vmovhpd -3168(%rsi), %xmm2, %xmm2 vinsertf128 $1, %xmm1, %ymm2, %ymm1 vmovsd -512(%rsi), %xmm2 vmovhpd (%rsi), %xmm2, %xmm2 vmovsd -1536(%rsi), %xmm3 vmovhpd -1024(%rsi), %xmm3, %xmm3 vinsertf128 $1, %xmm2, %ymm3, %ymm6 vmovsd -2560(%rsi), %xmm2 vmovhpd -2048(%rsi), %xmm2, %xmm2 vmovsd -3584(%rsi), %xmm3 vmovhpd -3072(%rsi), %xmm3, %xmm3 vinsertf128 $1, %xmm2, %ymm3, %ymm2 vmovsd -544(%rsi), %xmm3 vmovhpd -32(%rsi), %xmm3, %xmm3 vmovsd -1568(%rsi), %xmm5 vmovhpd -1056(%rsi), %xmm5, %xmm5 vinsertf128 $1, %xmm3, %ymm5, %ymm3 vmovsd -2592(%rsi), %xmm5 vmovhpd -2080(%rsi), %xmm5, %xmm5 vmovsd -3616(%rsi), %xmm7 vmovhpd -3104(%rsi), %xmm7, %xmm7 vinsertf128 $1, %xmm5, %ymm7, %ymm7 vmovapd (%rax,%rcx), %ymm5 vmovapd 32(%rax,%rcx), %ymm8 vmulpd %ymm7, %ymm5, %ymm7 vmovapd %ymm7, 26848(%rbx) vmulpd %ymm3, %ymm8, %ymm3 vmovapd %ymm3, 26816(%rbx) vmulpd %ymm2, %ymm5, %ymm2 vmovapd %ymm2, 26752(%rbx) vmulpd %ymm6, %ymm8, %ymm2 vmovapd %ymm2, 26720(%rbx) vmulpd %ymm1, %ymm5, %ymm1 vmovapd %ymm1, 32064(%rbx) vmulpd %ymm0, %ymm5, %ymm0 vmovapd %ymm0, 26880(%rbx) vmulpd %ymm4, %ymm8, %ymm0 vmovapd %ymm0, 26784(%rbx) vmovsd -640(%rsi), %xmm0 vmovhpd -128(%rsi), %xmm0, %xmm0 vmovsd -1664(%rsi), %xmm1 vmovhpd -1152(%rsi), %xmm1, %xmm1 vmovapd %ymm11, %ymm6 vinsertf128 $1, %xmm0, %ymm1, %ymm11 vmovsd -736(%rsi), %xmm0 vmovhpd -224(%rsi), %xmm0, %xmm0 vmovsd -1760(%rsi), %xmm1 vmovhpd -1248(%rsi), %xmm1, %xmm1 vinsertf128 $1, %xmm0, %ymm1, %ymm9 vmovsd -2752(%rsi), %xmm0 vmovhpd -2240(%rsi), %xmm0, %xmm0 vmovsd -3776(%rsi), %xmm1 vmovhpd -3264(%rsi), %xmm1, %xmm1 vinsertf128 $1, %xmm0, %ymm1, %ymm0 vmovsd -704(%rsi), %xmm1 vmovhpd -192(%rsi), %xmm1, %xmm1 vmovsd -1728(%rsi), %xmm2 vmovhpd -1216(%rsi), %xmm2, %xmm2 vinsertf128 $1, %xmm1, %ymm2, %ymm14 vmovsd -2720(%rsi), %xmm1 vmovhpd -2208(%rsi), %xmm1, %xmm1 vmovsd -3744(%rsi), %xmm2 vmovhpd -3232(%rsi), %xmm2, %xmm2 vinsertf128 $1, %xmm1, %ymm2, %ymm2 vmovsd -672(%rsi), %xmm1 vmovhpd -160(%rsi), %xmm1, %xmm1 vmovsd -1696(%rsi), %xmm3 vmovhpd -1184(%rsi), %xmm3, %xmm3 vinsertf128 $1, %xmm1, %ymm3, %ymm3 vmovsd -2688(%rsi), %xmm1 vmovhpd -2176(%rsi), %xmm1, %xmm1 vmovsd -3712(%rsi), %xmm4 vmovhpd -3200(%rsi), %xmm4, %xmm4 vinsertf128 $1, %xmm1, %ymm4, %ymm5 vmovapd (%r9,%rcx), %ymm1 vmovapd 32(%r9,%rcx), %ymm4 vmulpd %ymm5, %ymm1, %ymm5 vmovapd %ymm5, 26656(%rbx) vmulpd %ymm3, %ymm4, %ymm7 vmulpd %ymm2, %ymm1, %ymm13 vmulpd %ymm14, %ymm4, %ymm14 vmulpd %ymm0, %ymm1, %ymm0 vmulpd %ymm9, %ymm4, %ymm2 vmovapd %ymm2, 26688(%rbx) vmulpd %ymm11, %ymm4, %ymm11 vmovsd -768(%rsi), %xmm2 vmovhpd -256(%rsi), %xmm2, %xmm2 vmovsd -1792(%rsi), %xmm3 vmovhpd -1280(%rsi), %xmm3, %xmm3 vinsertf128 $1, %xmm2, %ymm3, %ymm2 vmulpd %ymm2, %ymm15, %ymm15 vmovsd -608(%rsi), %xmm2 vmovhpd -96(%rsi), %xmm2, %xmm2 vmovsd -1632(%rsi), %xmm3 vmovhpd -1120(%rsi), %xmm3, %xmm3 vinsertf128 $1, %xmm2, %ymm3, %ymm2 vmulpd %ymm2, %ymm8, %ymm2 vmovapd %ymm2, 26624(%rbx) vmovsd -2784(%rsi), %xmm2 vmovhpd -2272(%rsi), %xmm2, %xmm2 vmovsd -3808(%rsi), %xmm3 vmovhpd -3296(%rsi), %xmm3, %xmm3 vinsertf128 $1, %xmm2, %ymm3, %ymm2 vmulpd %ymm2, %ymm1, %ymm8 vmovapd 32416(%rbx), %ymm1 vmulpd %ymm12, %ymm1, %ymm1 vmovapd 31360(%rbx), %ymm2 vsubpd %ymm1, %ymm2, %ymm1 vmovapd 32096(%rbx), %ymm2 vmulpd %ymm12, %ymm2, %ymm2 vmovapd 31392(%rbx), %ymm3 vsubpd %ymm2, %ymm3, %ymm3 vmovapd 32448(%rbx), %ymm2 vmulpd %ymm12, %ymm2, %ymm2 vsubpd %ymm2, %ymm6, %ymm5 vmovapd 32480(%rbx), %ymm2 vmulpd %ymm12, %ymm2, %ymm2 vmovapd 31424(%rbx), %ymm4 vsubpd %ymm2, %ymm4, %ymm4 vmovapd 32512(%rbx), %ymm2 vmulpd %ymm12, %ymm2, %ymm2 vmovapd 31488(%rbx), %ymm6 vsubpd %ymm2, %ymm6, %ymm2 vmovapd 32832(%rbx), %ymm6 vmulpd %ymm12, %ymm6, %ymm6 vsubpd %ymm6, %ymm2, %ymm2 vmovapd 32864(%rbx), %ymm6 vmulpd %ymm12, %ymm6, %ymm6 vsubpd %ymm6, %ymm4, %ymm4 vmovapd 32896(%rbx), %ymm6 vmulpd %ymm12, %ymm6, %ymm6 vsubpd %ymm6, %ymm5, %ymm5 vmovapd 32928(%rbx), %ymm6 vmulpd %ymm12, %ymm6, %ymm6 vsubpd %ymm6, %ymm3, %ymm6 vmulpd %ymm12, %ymm10, %ymm3 vsubpd %ymm3, %ymm1, %ymm1 vmovapd 32640(%rbx), %ymm3 vmulpd %ymm12, %ymm3, %ymm3 vmovapd 26912(%rbx), %ymm9 vsubpd %ymm3, %ymm9, %ymm3 vmovapd 32736(%rbx), %ymm9 vmulpd %ymm12, %ymm9, %ymm9 vmovapd 31328(%rbx), %ymm10 vsubpd %ymm9, %ymm10, %ymm9 vmulpd %ymm12, %ymm0, %ymm0 vsubpd %ymm0, %ymm1, %ymm0 vmovapd 32960(%rbx), %ymm1 vmulpd %ymm12, %ymm1, %ymm1 vsubpd %ymm1, %ymm9, %ymm1 vmovapd 32992(%rbx), %ymm9 vmulpd %ymm12, %ymm9, %ymm9 vsubpd %ymm9, %ymm3, %ymm3 vmulpd %ymm12, %ymm14, %ymm9 vsubpd %ymm9, %ymm6, %ymm14 vmulpd %ymm12, %ymm13, %ymm6 vsubpd %ymm6, %ymm5, %ymm5 vmulpd %ymm12, %ymm7, %ymm6 vsubpd %ymm6, %ymm4, %ymm4 vmovapd 26656(%rbx), %ymm6 vmulpd %ymm12, %ymm6, %ymm6 vsubpd %ymm6, %ymm2, %ymm2 vmovapd 32800(%rbx), %ymm6 vmulpd %ymm12, %ymm6, %ymm6 vmovapd 31520(%rbx), %ymm7 vsubpd %ymm6, %ymm7, %ymm6 vmulpd %ymm12, %ymm15, %ymm9 vsubpd %ymm9, %ymm6, %ymm6 vmulpd %ymm12, %ymm11, %ymm9 vsubpd %ymm9, %ymm6, %ymm6 vmovapd 26720(%rbx), %ymm7 vmulpd %ymm12, %ymm7, %ymm9 vsubpd %ymm9, %ymm6, %ymm7 vmovapd 26752(%rbx), %ymm6 vmulpd %ymm12, %ymm6, %ymm6 vsubpd %ymm6, %ymm2, %ymm6 vmovapd 26816(%rbx), %ymm2 vmulpd %ymm12, %ymm2, %ymm2 vsubpd %ymm2, %ymm4, %ymm9 vmovapd 26848(%rbx), %ymm2 vmulpd %ymm12, %ymm2, %ymm2 vsubpd %ymm2, %ymm5, %ymm11 vmovapd 26784(%rbx), %ymm2 vmulpd %ymm12, %ymm2, %ymm2 vsubpd %ymm2, %ymm14, %ymm10 vmulpd %ymm12, %ymm8, %ymm2 vsubpd %ymm2, %ymm3, %ymm2 vmovapd 26688(%rbx), %ymm3 vmulpd %ymm12, %ymm3, %ymm3 vsubpd %ymm3, %ymm1, %ymm1 vmovapd 26880(%rbx), %ymm3 vmulpd %ymm12, %ymm3, %ymm5 vmovapd 32064(%rbx), %ymm3 vmulpd %ymm12, %ymm3, %ymm3 vmovapd 26624(%rbx), %ymm4 vmulpd %ymm12, %ymm4, %ymm4 vsubpd %ymm5, %ymm0, %ymm5 addq $256, %rcx addq $-8, %rdx addq $8, %rsi addl $-32, %r8d vsubpd %ymm4, %ymm1, %ymm0 vsubpd %ymm3, %ymm2, %ymm1 jne .LBB1_3467 vmovapd %ymm1, 26912(%rbx) vmovapd %ymm0, 31328(%rbx) vmovapd %ymm5, 31360(%rbx) vmovapd %ymm10, 31392(%rbx) vmovapd %ymm11, 18688(%rbx) vmovapd %ymm9, 31424(%rbx) vmovapd %ymm6, 31488(%rbx) vmovapd %ymm7, 31520(%rbx) vmovaps 26592(%rbx), %ymm0 vmovapd .LCPI1_24(%rip), %ymm12 vmovapd %ymm12, %ymm1 movq %rax, %r14 callq __ocl_svml_e9_pow4 vmovaps %ymm0, 18080(%rbx) vmovaps 26560(%rbx), %ymm0 vmovapd %ymm12, %ymm1 callq __ocl_svml_e9_pow4 vmovaps %ymm0, 17984(%rbx) vmovaps 512(%r14,%r12), %ymm0 vmovaps %ymm0, 18048(%rbx) vmovaps 544(%r14,%r12), %ymm0 vmovaps %ymm0, 18016(%rbx) imull $12, 232(%r14,%r12), %edx leal 24(%rdx), %eax vmovd %eax, %xmm0 vpshufd $0, %xmm0, %xmm2 vmovdqa %ymm2, 32736(%rbx) vmovdqa 192(%r14,%r12), %ymm1 vmovdqa .LCPI1_34(%rip), %xmm4 vpaddd %xmm4, %xmm1, %xmm0 vpaddd %xmm2, %xmm0, %xmm2 vmovd %xmm2, %ecx movslq %ecx, %rsi movq %rsi, 26272(%rbx) vextractf128 $1, %ymm1, %xmm2 vmovd %xmm1, %ecx vmovupd 33024(%rbx,%rsi,8), %xmm3 vpaddd %xmm4, %xmm2, %xmm1 vinsertf128 $1, 33040(%rbx,%rsi,8), %ymm3, %ymm3 vmovapd %ymm3, 26816(%rbx) vmovupd 33056(%rbx,%rsi,8), %xmm2 vinsertf128 $1, 33072(%rbx,%rsi,8), %ymm2, %ymm4 vmovapd %ymm4, 26784(%rbx) leal 24(%rcx,%rdx), %ecx movslq %ecx, %rcx vmovupd 33024(%rbx,%rcx,8), %xmm2 vinsertf128 $1, 33040(%rbx,%rcx,8), %ymm2, %ymm8 vmovupd 33056(%rbx,%rcx,8), %xmm2 vinsertf128 $1, 33072(%rbx,%rcx,8), %ymm2, %ymm9 addl 416(%r14,%r12), %eax movslq %eax, %rax movq %rax, 26880(%rbx) vmovupd 33024(%rbx,%rax,8), %xmm2 vinsertf128 $1, 33040(%rbx,%rax,8), %ymm2, %ymm10 vmovupd 33056(%rbx,%rax,8), %xmm2 vinsertf128 $1, 33072(%rbx,%rax,8), %ymm2, %ymm11 vinsertf128 $1, %xmm1, %ymm0, %ymm0 vmovaps %ymm0, 32992(%rbx) vsubpd %ymm9, %ymm4, %ymm0 vmulpd %ymm12, %ymm0, %ymm14 vsubpd %ymm8, %ymm3, %ymm0 vsubpd %ymm4, %ymm11, %ymm1 vmulpd %ymm12, %ymm1, %ymm2 vmovapd %ymm2, 32896(%rbx) vsubpd %ymm3, %ymm10, %ymm1 vmulpd %ymm12, %ymm0, %ymm5 vmulpd %ymm12, %ymm1, %ymm1 vmovapd %ymm1, 32928(%rbx) vmulpd %ymm2, %ymm14, %ymm0 vxorpd %ymm3, %ymm3, %ymm3 vcmpnlepd %ymm3, %ymm0, %ymm12 vextractf128 $1, %ymm12, %xmm0 vpshufd $8, %xmm0, %xmm7 vpshufd $8, %xmm12, %xmm0 vmovlhps %xmm7, %xmm0, %xmm0 vmulpd %ymm1, %ymm5, %ymm2 vcmpnlepd %ymm3, %ymm2, %ymm1 vmovapd %ymm1, 32960(%rbx) vmovdqa .LCPI1_20(%rip), %xmm3 vpshufb %xmm3, %xmm0, %xmm0 vextractf128 $1, %ymm1, %xmm3 vpshufd $8, %xmm3, %xmm15 vpshufd $8, %xmm1, %xmm3 vmovlhps %xmm15, %xmm3, %xmm3 vmovdqa .LCPI1_21(%rip), %xmm4 vpshufb %xmm4, %xmm3, %xmm3 vpor %xmm0, %xmm3, %xmm0 vmovdqa .LCPI1_17(%rip), %xmm3 vpxor %xmm3, %xmm0, %xmm0 vpmovzxwd %xmm0, %xmm3 vpslld $31, %xmm3, %xmm3 vpsrad $31, %xmm3, %xmm3 vpunpckhwd %xmm0, %xmm0, %xmm0 vpslld $31, %xmm0, %xmm0 vpsrad $31, %xmm0, %xmm0 vinsertf128 $1, %xmm0, %ymm3, %ymm0 vmovdqa 11168(%rbx), %ymm3 vptest %ymm3, %ymm0 vmovapd 11200(%rbx), %ymm0 vmovapd %ymm0, %ymm3 vmovapd %ymm0, %ymm1 jb .LBB1_3470 vsubpd %ymm9, %ymm11, %ymm0 vmovapd .LCPI1_28(%rip), %ymm13 vmulpd %ymm13, %ymm0, %ymm1 vmovapd %ymm1, 32800(%rbx) vsubpd %ymm8, %ymm10, %ymm0 vmulpd %ymm13, %ymm0, %ymm2 vmovapd %ymm2, 32864(%rbx) vmovaps %xmm7, %xmm8 vmovapd .LCPI1_56(%rip), %ymm7 vandpd %ymm7, %ymm1, %ymm10 vmovaps %xmm15, %xmm6 vmovapd %ymm14, 32640(%rbx) vandpd %ymm7, %ymm14, %ymm15 vcmpltpd %ymm10, %ymm15, %ymm0 vextractf128 $1, %ymm0, %xmm3 vpshufd $8, %xmm3, %xmm3 vpshufd $8, %xmm0, %xmm0 vmovdqa %ymm12, %ymm1 vandpd %ymm7, %ymm2, %ymm12 vmovlhps %xmm3, %xmm0, %xmm0 vandpd %ymm7, %ymm5, %ymm4 vcmpltpd %ymm12, %ymm4, %ymm3 vmovapd %ymm5, 32832(%rbx) vextractf128 $1, %ymm3, %xmm5 vpshufd $8, %xmm5, %xmm5 vpshufd $8, %xmm3, %xmm3 vmovlhps %xmm5, %xmm3, %xmm3 vmovapd 32896(%rbx), %ymm14 vandpd %ymm7, %ymm14, %ymm11 vcmpltpd %ymm11, %ymm15, %ymm5 vmovaps %xmm6, %xmm15 vextractf128 $1, %ymm5, %xmm6 vpshufd $8, %xmm6, %xmm6 vpshufd $8, %xmm5, %xmm5 vmovlhps %xmm6, %xmm5, %xmm5 vmovapd 32928(%rbx), %ymm9 vandpd %ymm7, %ymm9, %ymm6 vcmpltpd %ymm6, %ymm4, %ymm4 vextractf128 $1, %ymm4, %xmm7 vpshufd $8, %xmm7, %xmm7 vpshufd $8, %xmm4, %xmm4 vmovlhps %xmm7, %xmm4, %xmm4 vcmpltpd %ymm12, %ymm6, %ymm6 vmovdqa %ymm1, %ymm12 vmovdqa .LCPI1_21(%rip), %xmm2 vpshufb %xmm2, %xmm4, %xmm4 vmovdqa .LCPI1_20(%rip), %xmm1 vpshufb %xmm1, %xmm5, %xmm5 vpor %xmm5, %xmm4, %xmm4 vpshufb %xmm2, %xmm3, %xmm3 vpshufb %xmm1, %xmm0, %xmm0 vpor %xmm0, %xmm3, %xmm7 vextractf128 $1, %ymm6, %xmm0 vpshufd $8, %xmm0, %xmm0 vpshufd $8, %xmm6, %xmm3 vmovlhps %xmm0, %xmm3, %xmm0 vmovdqa 32960(%rbx), %ymm3 vpshufd $8, %xmm3, %xmm3 vmovlhps %xmm15, %xmm3, %xmm3 vcmpltpd %ymm10, %ymm11, %ymm5 vpsllw $15, %xmm7, %xmm6 vpsraw $15, %xmm6, %xmm6 vmovdqa .LCPI1_17(%rip), %xmm7 vpxor %xmm7, %xmm6, %xmm6 vpsllw $15, %xmm4, %xmm4 vpsraw $15, %xmm4, %xmm4 vpxor %xmm7, %xmm4, %xmm4 vmovaps %xmm8, %xmm7 vpor %xmm6, %xmm4, %xmm4 vextractf128 $1, %ymm5, %xmm6 vpshufd $8, %xmm6, %xmm6 vpshufd $8, %xmm5, %xmm5 vmovlhps %xmm6, %xmm5, %xmm6 vpshufb %xmm2, %xmm0, %xmm5 vpshufb %xmm2, %xmm3, %xmm0 vpshufd $8, %xmm12, %xmm3 vmovlhps %xmm7, %xmm3, %xmm3 vpshufb %xmm1, %xmm3, %xmm3 vpor %xmm3, %xmm0, %xmm0 vpsllw $15, %xmm0, %xmm0 vpsraw $15, %xmm0, %xmm0 vpand %xmm4, %xmm0, %xmm0 vpshufb %xmm1, %xmm6, %xmm3 vpunpckhbw %xmm0, %xmm0, %xmm4 vpor %xmm3, %xmm5, %xmm3 vpslld $31, %xmm4, %xmm4 vpsllw $15, %xmm3, %xmm3 vpsraw $15, %xmm3, %xmm3 vpmovsxdq %xmm4, %xmm5 vmovhlps %xmm4, %xmm4, %xmm4 vpmovsxdq %xmm4, %xmm4 vinsertf128 $1, %xmm4, %ymm5, %ymm4 vpunpckhbw %xmm0, %xmm3, %xmm5 vpslld $31, %xmm5, %xmm6 vpmovsxdq %xmm6, %xmm5 vmovhlps %xmm6, %xmm6, %xmm6 vpmovsxdq %xmm6, %xmm6 vinsertf128 $1, %xmm6, %ymm5, %ymm5 vpunpcklbw %xmm0, %xmm0, %xmm0 vpslld $31, %xmm0, %xmm6 vpmovsxdq %xmm6, %xmm0 vmovhlps %xmm6, %xmm6, %xmm6 vpmovsxdq %xmm6, %xmm6 vpunpcklbw %xmm0, %xmm3, %xmm3 vmovapd 32800(%rbx), %ymm1 vblendvpd %ymm5, %ymm14, %ymm1, %ymm5 vmovapd 32640(%rbx), %ymm1 vblendvpd %ymm4, %ymm5, %ymm1, %ymm4 vmulpd %ymm13, %ymm4, %ymm1 vinsertf128 $1, %xmm6, %ymm0, %ymm0 vpslld $31, %xmm3, %xmm4 vpmovsxdq %xmm4, %xmm3 vmovhlps %xmm4, %xmm4, %xmm4 vpmovsxdq %xmm4, %xmm4 vinsertf128 $1, %xmm4, %ymm3, %ymm3 vmovapd 32864(%rbx), %ymm2 vblendvpd %ymm3, %ymm9, %ymm2, %ymm3 vmovapd 32832(%rbx), %ymm2 vblendvpd %ymm0, %ymm3, %ymm2, %ymm0 vmulpd %ymm13, %ymm0, %ymm3 .LBB1_3470: vmovapd %ymm3, 32640(%rbx) vmovapd %ymm1, 32800(%rbx) leal 168(%rdx), %eax movl 416(%r14,%r12), %ecx addl %eax, %ecx movslq %ecx, %rsi movq %rsi, 32064(%rbx) movl 192(%r14,%r12), %ecx addl %eax, %ecx movslq %ecx, %rcx vmovupd 33024(%rbx,%rcx,8), %xmm4 vmovupd 33056(%rbx,%rcx,8), %xmm3 vmovupd 33056(%rbx,%rsi,8), %xmm0 vmovupd 33024(%rbx,%rsi,8), %xmm5 vmovdqa 32960(%rbx), %ymm1 vpshufd $8, %xmm1, %xmm6 vmovupd 33072(%rbx,%rsi,8), %xmm2 vmovlhps %xmm15, %xmm6, %xmm6 vpshufd $8, %xmm12, %xmm1 vinsertf128 $1, 33040(%rbx,%rcx,8), %ymm4, %ymm10 vinsertf128 $1, 33040(%rbx,%rsi,8), %ymm5, %ymm12 vinsertf128 $1, 33072(%rbx,%rcx,8), %ymm3, %ymm9 vinsertf128 $1, %xmm2, %ymm0, %ymm11 vmovdqa .LCPI1_21(%rip), %xmm14 vpshufb %xmm14, %xmm6, %xmm0 vmovlhps %xmm7, %xmm1, %xmm1 vmovd %eax, %xmm2 vpshufd $0, %xmm2, %xmm3 vmovdqa %ymm3, 26848(%rbx) vmovdqa 32992(%rbx), %ymm2 vpaddd %xmm3, %xmm2, %xmm2 vmovd %xmm2, %eax vmovdqa .LCPI1_20(%rip), %xmm5 vmovdqa %xmm5, %xmm7 vpshufb %xmm7, %xmm1, %xmm1 vpor %xmm1, %xmm0, %xmm1 movslq %eax, %rax movq %rax, 26592(%rbx) vmovupd 33056(%rbx,%rax,8), %xmm0 vinsertf128 $1, 33072(%rbx,%rax,8), %ymm0, %ymm2 vmovapd %ymm2, 26752(%rbx) vsubpd %ymm2, %ymm11, %ymm0 vmovapd .LCPI1_24(%rip), %ymm3 vmulpd %ymm3, %ymm0, %ymm4 vmovapd %ymm4, 32448(%rbx) vsubpd %ymm9, %ymm2, %ymm0 vmulpd %ymm3, %ymm0, %ymm0 vmovapd %ymm0, 32864(%rbx) vmulpd %ymm4, %ymm0, %ymm0 vxorpd %ymm4, %ymm4, %ymm4 vcmpnlepd %ymm4, %ymm0, %ymm6 vmovapd %ymm6, 32928(%rbx) vextractf128 $1, %ymm6, %xmm0 vpshufd $8, %xmm0, %xmm2 vmovdqa %xmm2, 32960(%rbx) vpshufd $8, %xmm6, %xmm0 vmovlhps %xmm2, %xmm0, %xmm0 vpsllw $15, %xmm1, %xmm1 vpsraw $15, %xmm1, %xmm1 vpunpckhbw %xmm0, %xmm1, %xmm2 vpslld $31, %xmm2, %xmm2 vmovdqa %xmm2, 32832(%rbx) vpmovsxdq %xmm2, %xmm2 vmovdqa %ymm2, 32512(%rbx) vpunpcklbw %xmm0, %xmm1, %xmm1 vpslld $31, %xmm1, %xmm1 vmovdqa %xmm1, 32480(%rbx) vpmovsxdq %xmm1, %xmm1 vmovdqa %ymm1, 26432(%rbx) vmovupd 33024(%rbx,%rax,8), %xmm1 vinsertf128 $1, 33040(%rbx,%rax,8), %ymm1, %ymm2 vmovapd %ymm2, 26720(%rbx) vsubpd %ymm2, %ymm12, %ymm1 vmulpd %ymm3, %ymm1, %ymm6 vsubpd %ymm10, %ymm2, %ymm1 vmulpd %ymm3, %ymm1, %ymm5 vpshufb %xmm7, %xmm0, %xmm0 vmulpd %ymm6, %ymm5, %ymm1 vmovapd %ymm6, %ymm7 vcmpnlepd %ymm4, %ymm1, %ymm8 vextractf128 $1, %ymm8, %xmm1 vpshufd $8, %xmm1, %xmm2 vmovdqa %xmm2, 32896(%rbx) vpshufd $8, %xmm8, %xmm1 vmovlhps %xmm2, %xmm1, %xmm1 vpshufb %xmm14, %xmm1, %xmm1 vmovdqa %xmm14, %xmm15 vpor %xmm0, %xmm1, %xmm0 vpxor .LCPI1_17(%rip), %xmm0, %xmm1 vpunpckhwd %xmm0, %xmm1, %xmm0 vpslld $31, %xmm0, %xmm0 vpsrad $31, %xmm0, %xmm0 vpmovzxwd %xmm1, %xmm1 vpslld $31, %xmm1, %xmm1 vpsrad $31, %xmm1, %xmm1 vinsertf128 $1, %xmm0, %ymm1, %ymm0 vmovdqa 11104(%rbx), %ymm1 vptest %ymm1, %ymm0 vmovapd 11136(%rbx), %ymm0 vmovapd %ymm0, %ymm1 vmovapd %ymm0, %ymm3 jb .LBB1_3472 vsubpd %ymm9, %ymm11, %ymm0 vmovapd .LCPI1_28(%rip), %ymm13 vmulpd %ymm13, %ymm0, %ymm1 vmovapd %ymm1, 26688(%rbx) vsubpd %ymm10, %ymm12, %ymm0 vmulpd %ymm13, %ymm0, %ymm4 vmovapd %ymm4, 32416(%rbx) vmovapd .LCPI1_56(%rip), %ymm10 vandpd %ymm10, %ymm1, %ymm1 vmovapd 32864(%rbx), %ymm0 vandpd %ymm10, %ymm0, %ymm14 vcmpltpd %ymm1, %ymm14, %ymm0 vextractf128 $1, %ymm0, %xmm2 vpshufd $8, %xmm2, %xmm3 vpshufd $8, %xmm0, %xmm0 vandpd %ymm10, %ymm4, %ymm12 vmovlhps %xmm3, %xmm0, %xmm0 vmovapd %ymm5, 32096(%rbx) vandpd %ymm10, %ymm5, %ymm3 vcmpltpd %ymm12, %ymm3, %ymm5 vextractf128 $1, %ymm5, %xmm2 vpshufd $8, %xmm2, %xmm6 vpshufd $8, %xmm5, %xmm2 vmovlhps %xmm6, %xmm2, %xmm5 vmovapd 32448(%rbx), %ymm11 vandpd %ymm10, %ymm11, %ymm9 vcmpltpd %ymm9, %ymm14, %ymm6 vextractf128 $1, %ymm6, %xmm2 vpshufd $8, %xmm2, %xmm2 vpshufd $8, %xmm6, %xmm6 vmovlhps %xmm2, %xmm6, %xmm6 vmovapd %ymm7, %ymm4 vandpd %ymm10, %ymm4, %ymm14 vcmpltpd %ymm14, %ymm3, %ymm3 vextractf128 $1, %ymm3, %xmm2 vpshufd $8, %xmm2, %xmm2 vpshufd $8, %xmm3, %xmm3 vmovlhps %xmm2, %xmm3, %xmm2 vcmpltpd %ymm12, %ymm14, %ymm12 vpshufb %xmm15, %xmm2, %xmm2 vmovdqa .LCPI1_20(%rip), %xmm7 vpshufb %xmm7, %xmm6, %xmm3 vpor %xmm3, %xmm2, %xmm3 vpshufb %xmm15, %xmm5, %xmm2 vpshufb %xmm7, %xmm0, %xmm0 vpor %xmm0, %xmm2, %xmm6 vextractf128 $1, %ymm12, %xmm0 vpshufd $8, %xmm0, %xmm0 vpshufd $8, %xmm12, %xmm2 vmovlhps %xmm0, %xmm2, %xmm0 vpshufd $8, %xmm8, %xmm2 vmovaps 32896(%rbx), %xmm5 vmovlhps %xmm5, %xmm2, %xmm5 vcmpltpd %ymm1, %ymm9, %ymm9 vpsllw $15, %xmm6, %xmm1 vpsraw $15, %xmm1, %xmm1 vmovdqa .LCPI1_17(%rip), %xmm6 vpxor %xmm6, %xmm1, %xmm1 vpsllw $15, %xmm3, %xmm2 vpsraw $15, %xmm2, %xmm2 vpxor %xmm6, %xmm2, %xmm2 vpor %xmm1, %xmm2, %xmm1 vextractf128 $1, %ymm9, %xmm2 vpshufd $8, %xmm2, %xmm2 vpshufd $8, %xmm9, %xmm3 vmovlhps %xmm2, %xmm3, %xmm6 vpshufb %xmm15, %xmm0, %xmm3 vpshufb %xmm15, %xmm5, %xmm0 vmovdqa 32928(%rbx), %ymm2 vpshufd $8, %xmm2, %xmm2 vmovaps 32960(%rbx), %xmm5 vmovlhps %xmm5, %xmm2, %xmm2 vpshufb %xmm7, %xmm2, %xmm2 vpor %xmm2, %xmm0, %xmm0 vpsllw $15, %xmm0, %xmm0 vpsraw $15, %xmm0, %xmm0 vpand %xmm1, %xmm0, %xmm0 vpshufb %xmm7, %xmm6, %xmm1 vpunpckhbw %xmm0, %xmm0, %xmm2 vpor %xmm1, %xmm3, %xmm1 vpslld $31, %xmm2, %xmm3 vpsllw $15, %xmm1, %xmm1 vpsraw $15, %xmm1, %xmm1 vpmovsxdq %xmm3, %xmm5 vmovhlps %xmm3, %xmm3, %xmm2 vpmovsxdq %xmm2, %xmm2 vinsertf128 $1, %xmm2, %ymm5, %ymm3 vpunpckhbw %xmm0, %xmm1, %xmm2 vpslld $31, %xmm2, %xmm2 vpmovsxdq %xmm2, %xmm5 vmovhlps %xmm2, %xmm2, %xmm2 vpmovsxdq %xmm2, %xmm2 vinsertf128 $1, %xmm2, %ymm5, %ymm5 vpunpcklbw %xmm0, %xmm0, %xmm0 vpslld $31, %xmm0, %xmm2 vpmovsxdq %xmm2, %xmm0 vmovhlps %xmm2, %xmm2, %xmm2 vpmovsxdq %xmm2, %xmm6 vpunpcklbw %xmm0, %xmm1, %xmm1 vmovapd 26688(%rbx), %ymm2 vblendvpd %ymm5, %ymm11, %ymm2, %ymm2 vmovapd 32864(%rbx), %ymm5 vblendvpd %ymm3, %ymm2, %ymm5, %ymm2 vmulpd %ymm13, %ymm2, %ymm3 vinsertf128 $1, %xmm6, %ymm0, %ymm0 vpslld $31, %xmm1, %xmm2 vpmovsxdq %xmm2, %xmm1 vmovhlps %xmm2, %xmm2, %xmm2 vpmovsxdq %xmm2, %xmm2 vinsertf128 $1, %xmm2, %ymm1, %ymm1 vmovapd 32416(%rbx), %ymm2 vblendvpd %ymm1, %ymm4, %ymm2, %ymm1 vmovapd 32096(%rbx), %ymm2 vblendvpd %ymm0, %ymm1, %ymm2, %ymm0 vmulpd %ymm13, %ymm0, %ymm1 .LBB1_3472: vmovapd %ymm1, 26400(%rbx) vmovapd %ymm3, 26624(%rbx) leal 312(%rdx), %eax movl 416(%r14,%r12), %ecx addl %eax, %ecx movslq %ecx, %rsi movq %rsi, 32096(%rbx) movl 192(%r14,%r12), %ecx addl %eax, %ecx movslq %ecx, %rcx vmovupd 33024(%rbx,%rcx,8), %xmm3 vmovupd 33056(%rbx,%rcx,8), %xmm1 vmovupd 33056(%rbx,%rsi,8), %xmm0 vmovupd 33024(%rbx,%rsi,8), %xmm5 vpshufd $8, %xmm8, %xmm2 vmovupd 33072(%rbx,%rsi,8), %xmm4 vmovaps 32896(%rbx), %xmm6 vmovlhps %xmm6, %xmm2, %xmm6 vmovdqa 32928(%rbx), %ymm2 vpshufd $8, %xmm2, %xmm2 vinsertf128 $1, 33040(%rbx,%rcx,8), %ymm3, %ymm12 vinsertf128 $1, 33040(%rbx,%rsi,8), %ymm5, %ymm14 vinsertf128 $1, 33072(%rbx,%rcx,8), %ymm1, %ymm9 vinsertf128 $1, %xmm4, %ymm0, %ymm13 vpshufb %xmm15, %xmm6, %xmm0 vmovaps 32960(%rbx), %xmm1 vmovlhps %xmm1, %xmm2, %xmm1 vmovd %eax, %xmm2 vpshufd $0, %xmm2, %xmm2 vmovdqa %ymm2, 24512(%rbx) vmovdqa 32992(%rbx), %ymm3 vpaddd %xmm2, %xmm3, %xmm2 vmovd %xmm2, %eax vmovdqa .LCPI1_20(%rip), %xmm7 vpshufb %xmm7, %xmm1, %xmm1 vpor %xmm1, %xmm0, %xmm2 movslq %eax, %rax movq %rax, 26560(%rbx) vmovupd 33056(%rbx,%rax,8), %xmm0 vinsertf128 $1, 33072(%rbx,%rax,8), %ymm0, %ymm1 vmovapd %ymm1, 26688(%rbx) vsubpd %ymm1, %ymm13, %ymm0 vmovapd .LCPI1_24(%rip), %ymm3 vmulpd %ymm3, %ymm0, %ymm6 vsubpd %ymm9, %ymm1, %ymm0 vmulpd %ymm3, %ymm0, %ymm0 vmovapd %ymm0, 32416(%rbx) vmulpd %ymm6, %ymm0, %ymm0 vxorpd %ymm5, %ymm5, %ymm5 vcmpnlepd %ymm5, %ymm0, %ymm4 vmovapd %ymm4, 32928(%rbx) vextractf128 $1, %ymm4, %xmm0 vpshufd $8, %xmm0, %xmm1 vmovdqa %xmm1, 32960(%rbx) vpshufd $8, %xmm4, %xmm0 vmovlhps %xmm1, %xmm0, %xmm1 vpsllw $15, %xmm2, %xmm0 vpsraw $15, %xmm0, %xmm0 vpunpckhbw %xmm0, %xmm0, %xmm2 vpslld $31, %xmm2, %xmm2 vmovdqa %xmm2, 32864(%rbx) vpmovsxdq %xmm2, %xmm2 vmovdqa %ymm2, 26144(%rbx) vpunpcklbw %xmm0, %xmm0, %xmm0 vpslld $31, %xmm0, %xmm0 vmovdqa %xmm0, 32448(%rbx) vpmovsxdq %xmm0, %xmm0 vmovdqa %ymm0, 26112(%rbx) vmovupd 33024(%rbx,%rax,8), %xmm0 vinsertf128 $1, 33040(%rbx,%rax,8), %ymm0, %ymm2 vmovapd %ymm2, 26656(%rbx) vsubpd %ymm2, %ymm14, %ymm0 vmulpd %ymm3, %ymm0, %ymm4 vsubpd %ymm12, %ymm2, %ymm0 vmulpd %ymm3, %ymm0, %ymm2 vpshufb %xmm7, %xmm1, %xmm0 vmulpd %ymm4, %ymm2, %ymm1 vmovapd %ymm2, %ymm7 vcmpnlepd %ymm5, %ymm1, %ymm11 vextractf128 $1, %ymm11, %xmm1 vpshufd $8, %xmm1, %xmm2 vmovdqa %xmm2, 32896(%rbx) vpshufd $8, %xmm11, %xmm1 vmovlhps %xmm2, %xmm1, %xmm1 vpshufb %xmm15, %xmm1, %xmm1 vmovdqa %xmm15, %xmm10 vpor %xmm0, %xmm1, %xmm0 vpxor .LCPI1_17(%rip), %xmm0, %xmm1 vpunpckhwd %xmm0, %xmm1, %xmm0 vpslld $31, %xmm0, %xmm0 vpsrad $31, %xmm0, %xmm0 vpmovzxwd %xmm1, %xmm1 vpslld $31, %xmm1, %xmm1 vpsrad $31, %xmm1, %xmm1 vinsertf128 $1, %xmm0, %ymm1, %ymm0 vmovdqa 11040(%rbx), %ymm1 vptest %ymm1, %ymm0 vmovapd 11072(%rbx), %ymm0 vmovapd %ymm0, %ymm1 vmovapd %ymm0, %ymm3 jb .LBB1_3474 vsubpd %ymm9, %ymm13, %ymm0 vmovapd .LCPI1_28(%rip), %ymm8 vmulpd %ymm8, %ymm0, %ymm1 vmovapd %ymm1, 26464(%rbx) vsubpd %ymm12, %ymm14, %ymm0 vmulpd %ymm8, %ymm0, %ymm3 vmovapd %ymm3, 26528(%rbx) vmovapd .LCPI1_56(%rip), %ymm12 vandpd %ymm12, %ymm1, %ymm1 vmovapd 32416(%rbx), %ymm13 vandpd %ymm12, %ymm13, %ymm15 vcmpltpd %ymm1, %ymm15, %ymm0 vextractf128 $1, %ymm0, %xmm2 vpshufd $8, %xmm2, %xmm2 vpshufd $8, %xmm0, %xmm0 vandpd %ymm12, %ymm3, %ymm14 vmovlhps %xmm2, %xmm0, %xmm2 vmovapd %ymm7, 26496(%rbx) vandpd %ymm12, %ymm7, %ymm0 vcmpltpd %ymm14, %ymm0, %ymm5 vextractf128 $1, %ymm5, %xmm3 vpshufd $8, %xmm3, %xmm7 vpshufd $8, %xmm5, %xmm3 vmovlhps %xmm7, %xmm3, %xmm5 vandpd %ymm12, %ymm6, %ymm9 vcmpltpd %ymm9, %ymm15, %ymm7 vextractf128 $1, %ymm7, %xmm3 vpshufd $8, %xmm3, %xmm3 vpshufd $8, %xmm7, %xmm7 vmovlhps %xmm3, %xmm7, %xmm7 vandpd %ymm12, %ymm4, %ymm15 vcmpltpd %ymm15, %ymm0, %ymm0 vextractf128 $1, %ymm0, %xmm3 vpshufd $8, %xmm3, %xmm3 vpshufd $8, %xmm0, %xmm0 vmovlhps %xmm3, %xmm0, %xmm0 vcmpltpd %ymm14, %ymm15, %ymm14 vpshufb %xmm10, %xmm0, %xmm0 vmovapd %ymm4, %ymm12 vmovdqa .LCPI1_20(%rip), %xmm4 vpshufb %xmm4, %xmm7, %xmm3 vpor %xmm3, %xmm0, %xmm0 vpshufb %xmm10, %xmm5, %xmm3 vpshufb %xmm4, %xmm2, %xmm2 vpor %xmm2, %xmm3, %xmm7 vextractf128 $1, %ymm14, %xmm2 vpshufd $8, %xmm2, %xmm2 vpshufd $8, %xmm14, %xmm3 vmovlhps %xmm2, %xmm3, %xmm2 vpshufd $8, %xmm11, %xmm3 vmovaps 32896(%rbx), %xmm5 vmovlhps %xmm5, %xmm3, %xmm5 vcmpltpd %ymm1, %ymm9, %ymm1 vpsllw $15, %xmm7, %xmm3 vpsraw $15, %xmm3, %xmm3 vmovapd %ymm6, %ymm9 vmovdqa .LCPI1_17(%rip), %xmm6 vpxor %xmm6, %xmm3, %xmm7 vpsllw $15, %xmm0, %xmm0 vpsraw $15, %xmm0, %xmm0 vpxor %xmm6, %xmm0, %xmm0 vpor %xmm7, %xmm0, %xmm0 vextractf128 $1, %ymm1, %xmm3 vpshufd $8, %xmm3, %xmm3 vpshufd $8, %xmm1, %xmm1 vmovlhps %xmm3, %xmm1, %xmm7 vpshufb %xmm10, %xmm2, %xmm2 vpshufb %xmm10, %xmm5, %xmm1 vmovdqa 32928(%rbx), %ymm3 vpshufd $8, %xmm3, %xmm3 vmovaps 32960(%rbx), %xmm5 vmovlhps %xmm5, %xmm3, %xmm3 vpshufb %xmm4, %xmm3, %xmm3 vpor %xmm3, %xmm1, %xmm1 vpsllw $15, %xmm1, %xmm1 vpsraw $15, %xmm1, %xmm1 vpand %xmm0, %xmm1, %xmm1 vpshufb %xmm4, %xmm7, %xmm0 vpunpckhbw %xmm0, %xmm1, %xmm3 vpor %xmm0, %xmm2, %xmm2 vpslld $31, %xmm3, %xmm0 vpsllw $15, %xmm2, %xmm2 vpsraw $15, %xmm2, %xmm2 vpmovsxdq %xmm0, %xmm5 vmovhlps %xmm0, %xmm0, %xmm0 vpmovsxdq %xmm0, %xmm0 vinsertf128 $1, %xmm0, %ymm5, %ymm0 vpunpckhbw %xmm0, %xmm2, %xmm3 vpslld $31, %xmm3, %xmm3 vpmovsxdq %xmm3, %xmm5 vmovhlps %xmm3, %xmm3, %xmm3 vpmovsxdq %xmm3, %xmm3 vinsertf128 $1, %xmm3, %ymm5, %ymm5 vpunpcklbw %xmm0, %xmm1, %xmm1 vpslld $31, %xmm1, %xmm3 vpmovsxdq %xmm3, %xmm1 vmovhlps %xmm3, %xmm3, %xmm3 vpmovsxdq %xmm3, %xmm7 vpunpcklbw %xmm0, %xmm2, %xmm2 vmovapd 26464(%rbx), %ymm3 vblendvpd %ymm5, %ymm9, %ymm3, %ymm3 vblendvpd %ymm0, %ymm3, %ymm13, %ymm0 vmulpd %ymm8, %ymm0, %ymm3 vinsertf128 $1, %xmm7, %ymm1, %ymm0 vpslld $31, %xmm2, %xmm2 vpmovsxdq %xmm2, %xmm1 vmovhlps %xmm2, %xmm2, %xmm2 vpmovsxdq %xmm2, %xmm2 vinsertf128 $1, %xmm2, %ymm1, %ymm1 vmovapd 26528(%rbx), %ymm2 vblendvpd %ymm1, %ymm12, %ymm2, %ymm1 vmovapd 26496(%rbx), %ymm2 vblendvpd %ymm0, %ymm1, %ymm2, %ymm0 vmulpd %ymm8, %ymm0, %ymm1 .LBB1_3474: vmovapd %ymm1, 26240(%rbx) vmovapd %ymm3, 26336(%rbx) leal 456(%rdx), %eax movl 416(%r14,%r12), %ecx addl %eax, %ecx movslq %ecx, %rsi movq %rsi, 32416(%rbx) movl 192(%r14,%r12), %ecx addl %eax, %ecx movslq %ecx, %rcx vmovupd 33024(%rbx,%rcx,8), %xmm2 vmovupd 33056(%rbx,%rcx,8), %xmm1 vmovupd 33056(%rbx,%rsi,8), %xmm0 vmovupd 33024(%rbx,%rsi,8), %xmm3 vpshufd $8, %xmm11, %xmm6 vmovupd 33072(%rbx,%rsi,8), %xmm5 vmovaps 32896(%rbx), %xmm4 vmovlhps %xmm4, %xmm6, %xmm6 vmovdqa 32928(%rbx), %ymm4 vpshufd $8, %xmm4, %xmm4 vinsertf128 $1, 33040(%rbx,%rcx,8), %ymm2, %ymm14 vinsertf128 $1, 33040(%rbx,%rsi,8), %ymm3, %ymm9 vinsertf128 $1, 33072(%rbx,%rcx,8), %ymm1, %ymm15 vinsertf128 $1, %xmm5, %ymm0, %ymm1 vpshufb %xmm10, %xmm6, %xmm0 vmovaps 32960(%rbx), %xmm2 vmovlhps %xmm2, %xmm4, %xmm2 vmovd %eax, %xmm3 vpshufd $0, %xmm3, %xmm3 vmovdqa %ymm3, 24480(%rbx) vmovdqa 32992(%rbx), %ymm4 vpaddd %xmm3, %xmm4, %xmm3 vmovd %xmm3, %eax vmovdqa .LCPI1_20(%rip), %xmm6 vpshufb %xmm6, %xmm2, %xmm2 vpor %xmm2, %xmm0, %xmm2 movslq %eax, %rax movq %rax, 26528(%rbx) vmovupd 33056(%rbx,%rax,8), %xmm0 vinsertf128 $1, 33072(%rbx,%rax,8), %ymm0, %ymm3 vmovapd %ymm3, 26368(%rbx) vsubpd %ymm3, %ymm1, %ymm0 vmovapd .LCPI1_24(%rip), %ymm4 vmulpd %ymm4, %ymm0, %ymm5 vmovapd %ymm5, 26464(%rbx) vsubpd %ymm15, %ymm3, %ymm0 vmulpd %ymm4, %ymm0, %ymm12 vmulpd %ymm5, %ymm12, %ymm0 vxorpd %ymm5, %ymm5, %ymm5 vcmpnlepd %ymm5, %ymm0, %ymm7 vmovapd %ymm7, 32928(%rbx) vextractf128 $1, %ymm7, %xmm0 vpshufd $8, %xmm0, %xmm3 vmovdqa %xmm3, 32960(%rbx) vpshufd $8, %xmm7, %xmm0 vmovlhps %xmm3, %xmm0, %xmm0 vpsllw $15, %xmm2, %xmm2 vpsraw $15, %xmm2, %xmm2 vpunpckhbw %xmm0, %xmm2, %xmm3 vpslld $31, %xmm3, %xmm3 vmovdqa %xmm3, 26496(%rbx) vpmovsxdq %xmm3, %xmm3 vmovdqa %ymm3, 24864(%rbx) vpunpcklbw %xmm0, %xmm2, %xmm2 vpslld $31, %xmm2, %xmm2 vmovdqa %xmm2, 26208(%rbx) vpmovsxdq %xmm2, %xmm2 vmovdqa %ymm2, 24832(%rbx) vmovupd 33024(%rbx,%rax,8), %xmm2 vinsertf128 $1, 33040(%rbx,%rax,8), %ymm2, %ymm3 vmovapd %ymm3, 26304(%rbx) vsubpd %ymm3, %ymm9, %ymm2 vmulpd %ymm4, %ymm2, %ymm13 vsubpd %ymm14, %ymm3, %ymm2 vmulpd %ymm4, %ymm2, %ymm4 vpshufb %xmm6, %xmm0, %xmm2 vmulpd %ymm13, %ymm4, %ymm0 vcmpnlepd %ymm5, %ymm0, %ymm8 vextractf128 $1, %ymm8, %xmm0 vpshufd $8, %xmm0, %xmm3 vmovdqa %xmm3, 32896(%rbx) vpshufd $8, %xmm8, %xmm0 vmovlhps %xmm3, %xmm0, %xmm0 vpshufb %xmm10, %xmm0, %xmm0 vpor %xmm2, %xmm0, %xmm0 vpxor .LCPI1_17(%rip), %xmm0, %xmm2 vpunpckhwd %xmm0, %xmm2, %xmm0 vpslld $31, %xmm0, %xmm0 vpsrad $31, %xmm0, %xmm0 vpmovzxwd %xmm2, %xmm2 vpslld $31, %xmm2, %xmm2 vpsrad $31, %xmm2, %xmm2 vinsertf128 $1, %xmm0, %ymm2, %ymm0 vmovdqa 10976(%rbx), %ymm2 vptest %ymm2, %ymm0 vmovapd 11008(%rbx), %ymm0 vmovapd %ymm0, %ymm2 vmovapd %ymm0, %ymm3 jb .LBB1_3476 vsubpd %ymm15, %ymm1, %ymm0 vmovapd .LCPI1_28(%rip), %ymm11 vmulpd %ymm11, %ymm0, %ymm1 vmovapd %ymm1, 26048(%rbx) vsubpd %ymm14, %ymm9, %ymm0 vmulpd %ymm11, %ymm0, %ymm5 vmovapd %ymm5, 26176(%rbx) vmovapd .LCPI1_56(%rip), %ymm7 vandpd %ymm7, %ymm1, %ymm1 vmovapd %ymm12, %ymm15 vandpd %ymm7, %ymm15, %ymm3 vcmpltpd %ymm1, %ymm3, %ymm0 vextractf128 $1, %ymm0, %xmm2 vpshufd $8, %xmm2, %xmm2 vpshufd $8, %xmm0, %xmm0 vandpd %ymm7, %ymm5, %ymm5 vmovlhps %xmm2, %xmm0, %xmm2 vmovapd %ymm4, 26080(%rbx) vandpd %ymm7, %ymm4, %ymm4 vcmpltpd %ymm5, %ymm4, %ymm0 vextractf128 $1, %ymm0, %xmm6 vpshufd $8, %xmm6, %xmm6 vpshufd $8, %xmm0, %xmm0 vmovlhps %xmm6, %xmm0, %xmm6 vmovapd 26464(%rbx), %ymm14 vandpd %ymm7, %ymm14, %ymm9 vcmpltpd %ymm9, %ymm3, %ymm0 vextractf128 $1, %ymm0, %xmm3 vpshufd $8, %xmm3, %xmm3 vpshufd $8, %xmm0, %xmm0 vmovlhps %xmm3, %xmm0, %xmm3 vmovapd %ymm13, %ymm12 vandpd %ymm7, %ymm12, %ymm0 vcmpltpd %ymm0, %ymm4, %ymm4 vextractf128 $1, %ymm4, %xmm7 vpshufd $8, %xmm7, %xmm7 vpshufd $8, %xmm4, %xmm4 vmovlhps %xmm7, %xmm4, %xmm7 vcmpltpd %ymm5, %ymm0, %ymm4 vpshufb %xmm10, %xmm7, %xmm0 vmovdqa .LCPI1_20(%rip), %xmm7 vpshufb %xmm7, %xmm3, %xmm3 vpor %xmm3, %xmm0, %xmm3 vpshufb %xmm10, %xmm6, %xmm0 vpshufb %xmm7, %xmm2, %xmm2 vpor %xmm2, %xmm0, %xmm6 vextractf128 $1, %ymm4, %xmm0 vpshufd $8, %xmm0, %xmm0 vpshufd $8, %xmm4, %xmm2 vmovlhps %xmm0, %xmm2, %xmm2 vpshufd $8, %xmm8, %xmm0 vmovaps 32896(%rbx), %xmm4 vmovlhps %xmm4, %xmm0, %xmm4 vcmpltpd %ymm1, %ymm9, %ymm5 vpsllw $15, %xmm6, %xmm0 vpsraw $15, %xmm0, %xmm0 vmovdqa .LCPI1_17(%rip), %xmm6 vpxor %xmm6, %xmm0, %xmm0 vpsllw $15, %xmm3, %xmm1 vpsraw $15, %xmm1, %xmm1 vpxor %xmm6, %xmm1, %xmm1 vpor %xmm0, %xmm1, %xmm1 vextractf128 $1, %ymm5, %xmm0 vpshufd $8, %xmm0, %xmm0 vpshufd $8, %xmm5, %xmm3 vmovlhps %xmm0, %xmm3, %xmm3 vpshufb %xmm10, %xmm2, %xmm2 vpshufb %xmm10, %xmm4, %xmm0 vmovdqa 32928(%rbx), %ymm4 vpshufd $8, %xmm4, %xmm4 vmovaps 32960(%rbx), %xmm5 vmovlhps %xmm5, %xmm4, %xmm4 vpshufb %xmm7, %xmm4, %xmm4 vpor %xmm4, %xmm0, %xmm0 vpsllw $15, %xmm0, %xmm0 vpsraw $15, %xmm0, %xmm0 vpand %xmm1, %xmm0, %xmm1 vpshufb %xmm7, %xmm3, %xmm0 vpunpckhbw %xmm0, %xmm1, %xmm3 vpor %xmm0, %xmm2, %xmm2 vpslld $31, %xmm3, %xmm0 vpsllw $15, %xmm2, %xmm2 vpsraw $15, %xmm2, %xmm2 vpmovsxdq %xmm0, %xmm3 vmovhlps %xmm0, %xmm0, %xmm0 vpmovsxdq %xmm0, %xmm0 vinsertf128 $1, %xmm0, %ymm3, %ymm3 vpunpckhbw %xmm0, %xmm2, %xmm0 vpslld $31, %xmm0, %xmm4 vpmovsxdq %xmm4, %xmm0 vmovhlps %xmm4, %xmm4, %xmm4 vpmovsxdq %xmm4, %xmm4 vinsertf128 $1, %xmm4, %ymm0, %ymm4 vpunpcklbw %xmm0, %xmm1, %xmm0 vpslld $31, %xmm0, %xmm0 vpmovsxdq %xmm0, %xmm1 vmovhlps %xmm0, %xmm0, %xmm0 vpmovsxdq %xmm0, %xmm0 vpunpcklbw %xmm0, %xmm2, %xmm2 vmovapd 26048(%rbx), %ymm5 vblendvpd %ymm4, %ymm14, %ymm5, %ymm4 vblendvpd %ymm3, %ymm4, %ymm15, %ymm3 vmulpd %ymm11, %ymm3, %ymm3 vinsertf128 $1, %xmm0, %ymm1, %ymm1 vpslld $31, %xmm2, %xmm2 vpmovsxdq %xmm2, %xmm0 vmovhlps %xmm2, %xmm2, %xmm2 vpmovsxdq %xmm2, %xmm2 vinsertf128 $1, %xmm2, %ymm0, %ymm0 vmovapd 26176(%rbx), %ymm2 vblendvpd %ymm0, %ymm12, %ymm2, %ymm0 vmovapd 26080(%rbx), %ymm2 vblendvpd %ymm1, %ymm0, %ymm2, %ymm0 vmulpd %ymm11, %ymm0, %ymm2 .LBB1_3476: vmovapd %ymm2, 26048(%rbx) vmovapd %ymm3, 26080(%rbx) vmovaps 32832(%rbx), %xmm0 vmovhlps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 32832(%rbx) vmovaps 32480(%rbx), %xmm0 vmovhlps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 32480(%rbx) vmovaps 32864(%rbx), %xmm0 vmovhlps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 26464(%rbx) vmovaps 32448(%rbx), %xmm0 vmovhlps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 25664(%rbx) vmovaps 26496(%rbx), %xmm0 vmovhlps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 24896(%rbx) vmovaps 26208(%rbx), %xmm0 vmovhlps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 24672(%rbx) leal 600(%rdx), %eax movl 416(%r14,%r12), %ecx addl %eax, %ecx movslq %ecx, %rsi movq %rsi, 32448(%rbx) movl 192(%r14,%r12), %ecx addl %eax, %ecx movslq %ecx, %rcx vmovupd 33024(%rbx,%rcx,8), %xmm2 vmovupd 33056(%rbx,%rcx,8), %xmm3 vmovupd 33056(%rbx,%rsi,8), %xmm1 vmovupd 33024(%rbx,%rsi,8), %xmm4 vpshufd $8, %xmm8, %xmm5 vmovupd 33072(%rbx,%rsi,8), %xmm0 vmovaps 32896(%rbx), %xmm6 vmovlhps %xmm6, %xmm5, %xmm7 vmovdqa 32928(%rbx), %ymm5 vpshufd $8, %xmm5, %xmm5 vinsertf128 $1, 33040(%rbx,%rcx,8), %ymm2, %ymm12 vinsertf128 $1, 33040(%rbx,%rsi,8), %ymm4, %ymm4 vinsertf128 $1, 33072(%rbx,%rcx,8), %ymm3, %ymm3 vinsertf128 $1, %xmm0, %ymm1, %ymm6 vpshufb %xmm10, %xmm7, %xmm0 vmovaps 32960(%rbx), %xmm1 vmovlhps %xmm1, %xmm5, %xmm1 vmovd %eax, %xmm5 vpshufd $0, %xmm5, %xmm2 vmovdqa %ymm2, 24448(%rbx) vmovdqa 32992(%rbx), %ymm5 vpaddd %xmm2, %xmm5, %xmm5 vmovd %xmm5, %eax vmovdqa .LCPI1_20(%rip), %xmm2 vpshufb %xmm2, %xmm1, %xmm1 vpor %xmm1, %xmm0, %xmm0 movslq %eax, %rax movq %rax, 26496(%rbx) vmovupd 33056(%rbx,%rax,8), %xmm1 vinsertf128 $1, 33072(%rbx,%rax,8), %ymm1, %ymm7 vmovapd %ymm7, 26208(%rbx) vsubpd %ymm7, %ymm6, %ymm1 vmovapd .LCPI1_24(%rip), %ymm5 vmulpd %ymm5, %ymm1, %ymm14 vsubpd %ymm3, %ymm7, %ymm1 vmulpd %ymm5, %ymm1, %ymm1 vmovapd %ymm1, 32896(%rbx) vmulpd %ymm14, %ymm1, %ymm1 vxorpd %ymm8, %ymm8, %ymm8 vcmpnlepd %ymm8, %ymm1, %ymm9 vmovapd %ymm9, 32928(%rbx) vextractf128 $1, %ymm9, %xmm1 vpshufd $8, %xmm1, %xmm7 vmovdqa %xmm7, 32960(%rbx) vpshufd $8, %xmm9, %xmm1 vmovlhps %xmm7, %xmm1, %xmm7 vpsllw $15, %xmm0, %xmm0 vpsraw $15, %xmm0, %xmm0 vpunpckhbw %xmm0, %xmm0, %xmm1 vpslld $31, %xmm1, %xmm1 vpmovsxdq %xmm1, %xmm9 vmovdqa %ymm9, 24736(%rbx) vmovhlps %xmm1, %xmm1, %xmm1 vmovaps %xmm1, 24640(%rbx) vpunpcklbw %xmm0, %xmm0, %xmm0 vpslld $31, %xmm0, %xmm0 vpmovsxdq %xmm0, %xmm1 vmovdqa %ymm1, 24704(%rbx) vmovhlps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 24416(%rbx) vmovupd 33024(%rbx,%rax,8), %xmm0 vinsertf128 $1, 33040(%rbx,%rax,8), %ymm0, %ymm1 vmovapd %ymm1, 26176(%rbx) vsubpd %ymm1, %ymm4, %ymm0 vmulpd %ymm5, %ymm0, %ymm11 vsubpd %ymm12, %ymm1, %ymm0 vmulpd %ymm5, %ymm0, %ymm15 vpshufb %xmm2, %xmm7, %xmm0 vmulpd %ymm11, %ymm15, %ymm1 vcmpnlepd %ymm8, %ymm1, %ymm2 vmovapd %ymm2, 32864(%rbx) vextractf128 $1, %ymm2, %xmm1 vpshufd $8, %xmm1, %xmm8 vpshufd $8, %xmm2, %xmm1 vmovlhps %xmm8, %xmm1, %xmm1 vpshufb %xmm10, %xmm1, %xmm1 vmovdqa %xmm10, %xmm9 vpor %xmm0, %xmm1, %xmm0 vpxor .LCPI1_17(%rip), %xmm0, %xmm1 vpunpckhwd %xmm0, %xmm1, %xmm0 vpslld $31, %xmm0, %xmm0 vpsrad $31, %xmm0, %xmm0 vpmovzxwd %xmm1, %xmm1 vpslld $31, %xmm1, %xmm1 vpsrad $31, %xmm1, %xmm1 vinsertf128 $1, %xmm0, %ymm1, %ymm0 vmovdqa 10912(%rbx), %ymm1 vptest %ymm1, %ymm0 vmovapd 10944(%rbx), %ymm0 vmovapd %ymm0, %ymm1 vmovapd %ymm0, %ymm7 jb .LBB1_3478 vsubpd %ymm3, %ymm6, %ymm0 vmovapd .LCPI1_28(%rip), %ymm13 vmulpd %ymm13, %ymm0, %ymm1 vmovapd %ymm1, 24768(%rbx) vsubpd %ymm12, %ymm4, %ymm0 vmulpd %ymm13, %ymm0, %ymm6 vmovapd %ymm6, 24800(%rbx) vmovaps %xmm8, %xmm3 vmovapd .LCPI1_56(%rip), %ymm8 vandpd %ymm8, %ymm1, %ymm5 vmovapd 32896(%rbx), %ymm0 vandpd %ymm8, %ymm0, %ymm1 vcmpltpd %ymm5, %ymm1, %ymm0 vextractf128 $1, %ymm0, %xmm2 vpshufd $8, %xmm2, %xmm4 vpshufd $8, %xmm0, %xmm0 vandpd %ymm8, %ymm6, %ymm12 vmovlhps %xmm4, %xmm0, %xmm10 vandpd %ymm8, %ymm15, %ymm4 vcmpltpd %ymm12, %ymm4, %ymm0 vextractf128 $1, %ymm0, %xmm2 vpshufd $8, %xmm2, %xmm6 vpshufd $8, %xmm0, %xmm0 vmovlhps %xmm6, %xmm0, %xmm0 vandpd %ymm8, %ymm14, %ymm6 vcmpltpd %ymm6, %ymm1, %ymm1 vextractf128 $1, %ymm1, %xmm2 vpshufd $8, %xmm2, %xmm7 vpshufd $8, %xmm1, %xmm1 vmovlhps %xmm7, %xmm1, %xmm1 vandpd %ymm8, %ymm11, %ymm7 vcmpltpd %ymm7, %ymm4, %ymm4 vextractf128 $1, %ymm4, %xmm2 vpshufd $8, %xmm2, %xmm8 vpshufd $8, %xmm4, %xmm2 vmovlhps %xmm8, %xmm2, %xmm2 vmovaps %xmm3, %xmm8 vcmpltpd %ymm12, %ymm7, %ymm4 vpshufb %xmm9, %xmm2, %xmm2 vmovdqa .LCPI1_20(%rip), %xmm3 vpshufb %xmm3, %xmm1, %xmm1 vpor %xmm1, %xmm2, %xmm1 vpshufb %xmm9, %xmm0, %xmm0 vpshufb %xmm3, %xmm10, %xmm2 vpor %xmm2, %xmm0, %xmm7 vextractf128 $1, %ymm4, %xmm0 vpshufd $8, %xmm0, %xmm0 vpshufd $8, %xmm4, %xmm2 vmovlhps %xmm0, %xmm2, %xmm0 vmovdqa 32864(%rbx), %ymm2 vpshufd $8, %xmm2, %xmm2 vmovlhps %xmm8, %xmm2, %xmm4 vcmpltpd %ymm5, %ymm6, %ymm5 vpsllw $15, %xmm7, %xmm2 vpsraw $15, %xmm2, %xmm2 vmovdqa .LCPI1_17(%rip), %xmm7 vpxor %xmm7, %xmm2, %xmm6 vpsllw $15, %xmm1, %xmm1 vpsraw $15, %xmm1, %xmm1 vpxor %xmm7, %xmm1, %xmm1 vpor %xmm6, %xmm1, %xmm1 vextractf128 $1, %ymm5, %xmm2 vpshufd $8, %xmm2, %xmm6 vpshufd $8, %xmm5, %xmm2 vmovlhps %xmm6, %xmm2, %xmm6 vpshufb %xmm9, %xmm0, %xmm5 vpshufb %xmm9, %xmm4, %xmm0 vmovdqa 32928(%rbx), %ymm2 vpshufd $8, %xmm2, %xmm2 vmovaps 32960(%rbx), %xmm4 vmovlhps %xmm4, %xmm2, %xmm2 vpshufb %xmm3, %xmm2, %xmm2 vpor %xmm2, %xmm0, %xmm0 vpsllw $15, %xmm0, %xmm0 vpsraw $15, %xmm0, %xmm0 vpand %xmm1, %xmm0, %xmm0 vpshufb %xmm3, %xmm6, %xmm1 vpunpckhbw %xmm0, %xmm0, %xmm2 vpor %xmm1, %xmm5, %xmm4 vpslld $31, %xmm2, %xmm1 vpsllw $15, %xmm4, %xmm2 vpsraw $15, %xmm2, %xmm5 vpmovsxdq %xmm1, %xmm4 vmovhlps %xmm1, %xmm1, %xmm1 vpmovsxdq %xmm1, %xmm1 vinsertf128 $1, %xmm1, %ymm4, %ymm1 vpunpckhbw %xmm0, %xmm5, %xmm2 vpslld $31, %xmm2, %xmm6 vpmovsxdq %xmm6, %xmm4 vmovhlps %xmm6, %xmm6, %xmm2 vpmovsxdq %xmm2, %xmm2 vinsertf128 $1, %xmm2, %ymm4, %ymm4 vpunpcklbw %xmm0, %xmm0, %xmm0 vpslld $31, %xmm0, %xmm6 vpmovsxdq %xmm6, %xmm0 vmovhlps %xmm6, %xmm6, %xmm2 vpmovsxdq %xmm2, %xmm6 vpunpcklbw %xmm0, %xmm5, %xmm5 vmovapd 24768(%rbx), %ymm2 vblendvpd %ymm4, %ymm14, %ymm2, %ymm2 vmovapd 32896(%rbx), %ymm3 vblendvpd %ymm1, %ymm2, %ymm3, %ymm1 vmulpd %ymm13, %ymm1, %ymm7 vinsertf128 $1, %xmm6, %ymm0, %ymm0 vpslld $31, %xmm5, %xmm3 vpmovsxdq %xmm3, %xmm1 vmovhlps %xmm3, %xmm3, %xmm2 vpmovsxdq %xmm2, %xmm2 vinsertf128 $1, %xmm2, %ymm1, %ymm1 vmovapd 24800(%rbx), %ymm2 vblendvpd %ymm1, %ymm11, %ymm2, %ymm1 vblendvpd %ymm0, %ymm1, %ymm15, %ymm0 vmulpd %ymm13, %ymm0, %ymm1 .LBB1_3478: vmovapd %ymm1, 24768(%rbx) vmovapd %ymm7, 24800(%rbx) vmovdqa 32832(%rbx), %xmm0 vpmovsxdq %xmm0, %xmm0 vmovdqa %xmm0, 24608(%rbx) vmovdqa 32480(%rbx), %xmm0 vpmovsxdq %xmm0, %xmm0 vmovdqa %xmm0, 24576(%rbx) vmovdqa 26464(%rbx), %xmm0 vpmovsxdq %xmm0, %xmm0 vmovdqa %xmm0, 24544(%rbx) vmovdqa 25664(%rbx), %xmm0 vpmovsxdq %xmm0, %xmm0 vmovdqa %xmm0, 24384(%rbx) vmovdqa 24896(%rbx), %xmm0 vpmovsxdq %xmm0, %xmm0 vmovdqa %xmm0, 22816(%rbx) vmovdqa 24672(%rbx), %xmm0 vpmovsxdq %xmm0, %xmm0 vmovdqa %xmm0, 22784(%rbx) vmovdqa 24640(%rbx), %xmm0 vpmovsxdq %xmm0, %xmm0 vmovdqa %xmm0, 22688(%rbx) vmovdqa 24416(%rbx), %xmm0 vpmovsxdq %xmm0, %xmm0 vmovdqa %xmm0, 22656(%rbx) leal 744(%rdx), %eax movl 416(%r14,%r12), %ecx addl %eax, %ecx movslq %ecx, %rsi movq %rsi, 32480(%rbx) movl 192(%r14,%r12), %ecx addl %eax, %ecx movslq %ecx, %rcx vmovupd 33024(%rbx,%rcx,8), %xmm2 vmovupd 33056(%rbx,%rcx,8), %xmm1 vmovupd 33056(%rbx,%rsi,8), %xmm0 vmovupd 33024(%rbx,%rsi,8), %xmm3 vmovdqa 32864(%rbx), %ymm4 vpshufd $8, %xmm4, %xmm5 vmovupd 33072(%rbx,%rsi,8), %xmm4 vmovlhps %xmm8, %xmm5, %xmm5 vmovdqa 32928(%rbx), %ymm6 vpshufd $8, %xmm6, %xmm6 vinsertf128 $1, 33040(%rbx,%rcx,8), %ymm2, %ymm13 vinsertf128 $1, 33040(%rbx,%rsi,8), %ymm3, %ymm15 vinsertf128 $1, 33072(%rbx,%rcx,8), %ymm1, %ymm2 vinsertf128 $1, %xmm4, %ymm0, %ymm7 vpshufb %xmm9, %xmm5, %xmm0 vmovaps 32960(%rbx), %xmm1 vmovlhps %xmm1, %xmm6, %xmm1 vmovd %eax, %xmm3 vpshufd $0, %xmm3, %xmm3 vmovdqa %ymm3, 24416(%rbx) vmovdqa 32992(%rbx), %ymm4 vpaddd %xmm3, %xmm4, %xmm3 vmovd %xmm3, %eax vmovdqa .LCPI1_20(%rip), %xmm6 vpshufb %xmm6, %xmm1, %xmm1 vpor %xmm1, %xmm0, %xmm1 movslq %eax, %rax movq %rax, 26464(%rbx) vmovupd 33056(%rbx,%rax,8), %xmm0 vinsertf128 $1, 33072(%rbx,%rax,8), %ymm0, %ymm3 vmovapd %ymm3, 25664(%rbx) vsubpd %ymm3, %ymm7, %ymm0 vmovapd .LCPI1_24(%rip), %ymm4 vmulpd %ymm4, %ymm0, %ymm10 vsubpd %ymm2, %ymm3, %ymm0 vmulpd %ymm4, %ymm0, %ymm0 vmovapd %ymm0, 32896(%rbx) vmulpd %ymm10, %ymm0, %ymm0 vxorpd %ymm12, %ymm12, %ymm12 vcmpnlepd %ymm12, %ymm0, %ymm3 vmovapd %ymm3, 32960(%rbx) vextractf128 $1, %ymm3, %xmm0 vpshufd $8, %xmm0, %xmm5 vmovdqa %xmm5, 32832(%rbx) vpshufd $8, %xmm3, %xmm0 vmovlhps %xmm5, %xmm0, %xmm0 vpsllw $15, %xmm1, %xmm1 vpsraw $15, %xmm1, %xmm1 vpunpckhbw %xmm0, %xmm1, %xmm3 vpslld $31, %xmm3, %xmm3 vpmovsxdq %xmm3, %xmm8 vmovdqa %ymm8, 22624(%rbx) vmovhlps %xmm3, %xmm3, %xmm3 vpmovsxdq %xmm3, %xmm3 vmovdqa %xmm3, 22592(%rbx) vpunpcklbw %xmm0, %xmm1, %xmm1 vpslld $31, %xmm1, %xmm1 vpmovsxdq %xmm1, %xmm3 vmovdqa %ymm3, 22560(%rbx) vmovhlps %xmm1, %xmm1, %xmm1 vpmovsxdq %xmm1, %xmm1 vmovdqa %xmm1, 22528(%rbx) vmovupd 33024(%rbx,%rax,8), %xmm1 vinsertf128 $1, 33040(%rbx,%rax,8), %ymm1, %ymm3 vmovapd %ymm3, 24896(%rbx) vsubpd %ymm3, %ymm15, %ymm1 vmulpd %ymm4, %ymm1, %ymm11 vsubpd %ymm13, %ymm3, %ymm1 vmulpd %ymm4, %ymm1, %ymm14 vpshufb %xmm6, %xmm0, %xmm0 vmulpd %ymm11, %ymm14, %ymm1 vcmpnlepd %ymm12, %ymm1, %ymm4 vmovapd %ymm4, 32864(%rbx) vextractf128 $1, %ymm4, %xmm1 vpshufd $8, %xmm1, %xmm3 vmovdqa %xmm3, 32928(%rbx) vpshufd $8, %xmm4, %xmm1 vmovlhps %xmm3, %xmm1, %xmm1 vpshufb %xmm9, %xmm1, %xmm1 vpor %xmm0, %xmm1, %xmm0 vmovdqa .LCPI1_17(%rip), %xmm3 vpxor %xmm3, %xmm0, %xmm1 vpunpckhwd %xmm0, %xmm1, %xmm0 vpslld $31, %xmm0, %xmm0 vpsrad $31, %xmm0, %xmm0 vpmovzxwd %xmm1, %xmm1 vpslld $31, %xmm1, %xmm1 vpsrad $31, %xmm1, %xmm1 vinsertf128 $1, %xmm0, %ymm1, %ymm0 vmovdqa 10848(%rbx), %ymm1 vptest %ymm1, %ymm0 vmovapd 10880(%rbx), %ymm0 vmovapd %ymm0, %ymm1 vmovapd %ymm0, %ymm8 vmovdqa %xmm3, %xmm6 jb .LBB1_3480 vsubpd %ymm2, %ymm7, %ymm0 vmovapd .LCPI1_28(%rip), %ymm12 vmulpd %ymm12, %ymm0, %ymm1 vmovapd %ymm1, 22752(%rbx) vsubpd %ymm13, %ymm15, %ymm0 vmulpd %ymm12, %ymm0, %ymm3 vmovapd %ymm3, 24672(%rbx) vmovapd .LCPI1_56(%rip), %ymm5 vandpd %ymm5, %ymm1, %ymm8 vmovapd 32896(%rbx), %ymm0 vandpd %ymm5, %ymm0, %ymm1 vcmpltpd %ymm8, %ymm1, %ymm0 vextractf128 $1, %ymm0, %xmm2 vpshufd $8, %xmm2, %xmm2 vpshufd $8, %xmm0, %xmm0 vandpd %ymm5, %ymm3, %ymm15 vmovlhps %xmm2, %xmm0, %xmm0 vmovapd %ymm14, 24640(%rbx) vandpd %ymm5, %ymm14, %ymm14 vcmpltpd %ymm15, %ymm14, %ymm2 vextractf128 $1, %ymm2, %xmm4 vpshufd $8, %xmm4, %xmm4 vpshufd $8, %xmm2, %xmm2 vmovlhps %xmm4, %xmm2, %xmm9 vandpd %ymm5, %ymm10, %ymm13 vcmpltpd %ymm13, %ymm1, %ymm1 vextractf128 $1, %ymm1, %xmm2 vpshufd $8, %xmm2, %xmm2 vpshufd $8, %xmm1, %xmm1 vmovlhps %xmm2, %xmm1, %xmm1 vandpd %ymm5, %ymm11, %ymm2 vcmpltpd %ymm2, %ymm14, %ymm4 vmovaps 32832(%rbx), %xmm14 vextractf128 $1, %ymm4, %xmm5 vpshufd $8, %xmm5, %xmm5 vpshufd $8, %xmm4, %xmm4 vmovlhps %xmm5, %xmm4, %xmm4 vcmpltpd %ymm15, %ymm2, %ymm2 vmovdqa .LCPI1_21(%rip), %xmm3 vpshufb %xmm3, %xmm4, %xmm4 vmovdqa .LCPI1_20(%rip), %xmm7 vpshufb %xmm7, %xmm1, %xmm1 vpor %xmm1, %xmm4, %xmm1 vpshufb %xmm3, %xmm9, %xmm4 vpshufb %xmm7, %xmm0, %xmm0 vpor %xmm0, %xmm4, %xmm5 vextractf128 $1, %ymm2, %xmm0 vpshufd $8, %xmm0, %xmm0 vpshufd $8, %xmm2, %xmm2 vmovlhps %xmm0, %xmm2, %xmm0 vmovdqa 32864(%rbx), %ymm2 vpshufd $8, %xmm2, %xmm2 vmovaps 32928(%rbx), %xmm4 vmovlhps %xmm4, %xmm2, %xmm4 vcmpltpd %ymm8, %ymm13, %ymm8 vpsllw $15, %xmm5, %xmm2 vpsraw $15, %xmm2, %xmm2 vpxor %xmm6, %xmm2, %xmm2 vpsllw $15, %xmm1, %xmm1 vpsraw $15, %xmm1, %xmm1 vpxor %xmm6, %xmm1, %xmm1 vpor %xmm2, %xmm1, %xmm1 vextractf128 $1, %ymm8, %xmm2 vpshufd $8, %xmm2, %xmm2 vpshufd $8, %xmm8, %xmm5 vmovlhps %xmm2, %xmm5, %xmm2 vpshufb %xmm3, %xmm0, %xmm5 vpshufb %xmm3, %xmm4, %xmm0 vmovdqa 32960(%rbx), %ymm3 vpshufd $8, %xmm3, %xmm4 vmovlhps %xmm14, %xmm4, %xmm4 vpshufb %xmm7, %xmm4, %xmm4 vpor %xmm4, %xmm0, %xmm0 vpsllw $15, %xmm0, %xmm0 vpsraw $15, %xmm0, %xmm0 vpand %xmm1, %xmm0, %xmm0 vpshufb %xmm7, %xmm2, %xmm1 vpunpckhbw %xmm0, %xmm0, %xmm2 vpor %xmm1, %xmm5, %xmm4 vpslld $31, %xmm2, %xmm1 vpsllw $15, %xmm4, %xmm2 vpsraw $15, %xmm2, %xmm7 vpmovsxdq %xmm1, %xmm2 vmovhlps %xmm1, %xmm1, %xmm1 vpmovsxdq %xmm1, %xmm1 vinsertf128 $1, %xmm1, %ymm2, %ymm1 vpunpckhbw %xmm0, %xmm7, %xmm2 vpslld $31, %xmm2, %xmm4 vpmovsxdq %xmm4, %xmm2 vmovhlps %xmm4, %xmm4, %xmm4 vpmovsxdq %xmm4, %xmm4 vinsertf128 $1, %xmm4, %ymm2, %ymm2 vpunpcklbw %xmm0, %xmm0, %xmm0 vpslld $31, %xmm0, %xmm4 vpmovsxdq %xmm4, %xmm0 vmovhlps %xmm4, %xmm4, %xmm4 vpmovsxdq %xmm4, %xmm4 vpunpcklbw %xmm0, %xmm7, %xmm5 vmovapd 22752(%rbx), %ymm3 vblendvpd %ymm2, %ymm10, %ymm3, %ymm2 vmovapd 32896(%rbx), %ymm3 vblendvpd %ymm1, %ymm2, %ymm3, %ymm1 vmulpd %ymm12, %ymm1, %ymm8 vinsertf128 $1, %xmm4, %ymm0, %ymm0 vpslld $31, %xmm5, %xmm2 vpmovsxdq %xmm2, %xmm1 vmovhlps %xmm2, %xmm2, %xmm2 vpmovsxdq %xmm2, %xmm2 vinsertf128 $1, %xmm2, %ymm1, %ymm1 vmovapd 24672(%rbx), %ymm2 vblendvpd %ymm1, %ymm11, %ymm2, %ymm1 vmovapd 24640(%rbx), %ymm2 vblendvpd %ymm0, %ymm1, %ymm2, %ymm0 vmulpd %ymm12, %ymm0, %ymm1 .LBB1_3480: vmovapd %ymm1, 24640(%rbx) vmovapd %ymm8, 24672(%rbx) vmovaps 32512(%rbx), %ymm0 vinsertf128 $1, 24608(%rbx), %ymm0, %ymm0 vmovaps %ymm0, 24608(%rbx) vmovaps 26432(%rbx), %ymm0 vinsertf128 $1, 24576(%rbx), %ymm0, %ymm0 vmovaps %ymm0, 22752(%rbx) vmovaps 26144(%rbx), %ymm0 vinsertf128 $1, 24544(%rbx), %ymm0, %ymm0 vmovaps %ymm0, 24576(%rbx) vmovaps 26112(%rbx), %ymm0 vinsertf128 $1, 24384(%rbx), %ymm0, %ymm0 vmovaps %ymm0, 22720(%rbx) vmovaps 24864(%rbx), %ymm0 vinsertf128 $1, 22816(%rbx), %ymm0, %ymm0 vmovaps %ymm0, 24544(%rbx) vmovaps 24832(%rbx), %ymm0 vinsertf128 $1, 22784(%rbx), %ymm0, %ymm0 vmovaps %ymm0, 24832(%rbx) vmovaps 24736(%rbx), %ymm0 vinsertf128 $1, 22688(%rbx), %ymm0, %ymm0 vmovaps %ymm0, 22816(%rbx) vmovaps 24704(%rbx), %ymm0 vinsertf128 $1, 22656(%rbx), %ymm0, %ymm0 vmovaps %ymm0, 22688(%rbx) vmovaps 22624(%rbx), %ymm0 vinsertf128 $1, 22592(%rbx), %ymm0, %ymm0 vmovaps %ymm0, 22784(%rbx) vmovaps 22560(%rbx), %ymm0 vinsertf128 $1, 22528(%rbx), %ymm0, %ymm0 vmovaps %ymm0, 22656(%rbx) leal 888(%rdx), %eax movl 416(%r14,%r12), %ecx addl %eax, %ecx movslq %ecx, %rsi movq %rsi, 32512(%rbx) movl 192(%r14,%r12), %ecx addl %eax, %ecx movslq %ecx, %rcx vmovupd 33024(%rbx,%rcx,8), %xmm2 vmovupd 33056(%rbx,%rcx,8), %xmm1 vmovupd 33056(%rbx,%rsi,8), %xmm0 vmovupd 33024(%rbx,%rsi,8), %xmm4 vmovdqa 32864(%rbx), %ymm3 vpshufd $8, %xmm3, %xmm3 vmovupd 33072(%rbx,%rsi,8), %xmm5 vmovaps 32928(%rbx), %xmm7 vmovlhps %xmm7, %xmm3, %xmm7 vmovdqa 32960(%rbx), %ymm3 vpshufd $8, %xmm3, %xmm3 vinsertf128 $1, 33040(%rbx,%rcx,8), %ymm2, %ymm10 vinsertf128 $1, 33040(%rbx,%rsi,8), %ymm4, %ymm15 vinsertf128 $1, 33072(%rbx,%rcx,8), %ymm1, %ymm12 vinsertf128 $1, %xmm5, %ymm0, %ymm5 vmovdqa .LCPI1_21(%rip), %xmm2 vpshufb %xmm2, %xmm7, %xmm0 vmovaps 32832(%rbx), %xmm1 vmovlhps %xmm1, %xmm3, %xmm1 vmovd %eax, %xmm3 vpshufd $0, %xmm3, %xmm3 vmovdqa %ymm3, 24384(%rbx) vmovdqa 32992(%rbx), %ymm4 vpaddd %xmm3, %xmm4, %xmm3 vmovd %xmm3, %eax vmovdqa .LCPI1_20(%rip), %xmm7 vpshufb %xmm7, %xmm1, %xmm1 vpor %xmm1, %xmm0, %xmm4 movslq %eax, %rax movq %rax, 26432(%rbx) vmovupd 33056(%rbx,%rax,8), %xmm0 vinsertf128 $1, 33072(%rbx,%rax,8), %ymm0, %ymm1 vmovapd %ymm1, 26144(%rbx) vsubpd %ymm1, %ymm5, %ymm0 vmovapd .LCPI1_24(%rip), %ymm8 vmulpd %ymm8, %ymm0, %ymm3 vmovapd %ymm3, 26112(%rbx) vsubpd %ymm12, %ymm1, %ymm0 vmulpd %ymm8, %ymm0, %ymm0 vmovapd %ymm0, 32864(%rbx) vmulpd %ymm3, %ymm0, %ymm0 vxorpd %ymm9, %ymm9, %ymm9 vcmpnlepd %ymm9, %ymm0, %ymm3 vmovapd %ymm3, 32928(%rbx) vextractf128 $1, %ymm3, %xmm0 vpshufd $8, %xmm0, %xmm1 vmovdqa %xmm1, 32960(%rbx) vpshufd $8, %xmm3, %xmm0 vmovlhps %xmm1, %xmm0, %xmm0 vpsllw $15, %xmm4, %xmm1 vpsraw $15, %xmm1, %xmm1 vpunpckhbw %xmm0, %xmm1, %xmm3 vpslld $31, %xmm3, %xmm4 vpmovsxdq %xmm4, %xmm3 vmovhlps %xmm4, %xmm4, %xmm4 vpmovsxdq %xmm4, %xmm4 vinsertf128 $1, %xmm4, %ymm3, %ymm3 vmovaps %ymm3, 22624(%rbx) vpunpcklbw %xmm0, %xmm1, %xmm1 vpslld $31, %xmm1, %xmm3 vpmovsxdq %xmm3, %xmm1 vmovhlps %xmm3, %xmm3, %xmm3 vpmovsxdq %xmm3, %xmm3 vinsertf128 $1, %xmm3, %ymm1, %ymm1 vmovaps %ymm1, 22592(%rbx) vmovupd 33024(%rbx,%rax,8), %xmm1 vinsertf128 $1, 33040(%rbx,%rax,8), %ymm1, %ymm3 vmovapd %ymm3, 24736(%rbx) vsubpd %ymm3, %ymm15, %ymm1 vmulpd %ymm8, %ymm1, %ymm4 vsubpd %ymm10, %ymm3, %ymm1 vmulpd %ymm8, %ymm1, %ymm8 vpshufb %xmm7, %xmm0, %xmm0 vmulpd %ymm4, %ymm8, %ymm1 vmovapd %ymm4, %ymm7 vcmpnlepd %ymm9, %ymm1, %ymm4 vmovapd %ymm4, 32832(%rbx) vextractf128 $1, %ymm4, %xmm1 vpshufd $8, %xmm1, %xmm3 vmovdqa %xmm3, 32896(%rbx) vpshufd $8, %xmm4, %xmm1 vmovlhps %xmm3, %xmm1, %xmm1 vpshufb %xmm2, %xmm1, %xmm1 vpor %xmm0, %xmm1, %xmm0 vpxor %xmm6, %xmm0, %xmm1 vpunpckhwd %xmm0, %xmm1, %xmm0 vpslld $31, %xmm0, %xmm0 vpsrad $31, %xmm0, %xmm0 vpmovzxwd %xmm1, %xmm1 vpslld $31, %xmm1, %xmm1 vpsrad $31, %xmm1, %xmm1 vinsertf128 $1, %xmm0, %ymm1, %ymm0 vmovdqa 10784(%rbx), %ymm1 vptest %ymm1, %ymm0 vmovapd 10816(%rbx), %ymm0 vmovapd %ymm0, %ymm14 vmovapd %ymm0, %ymm13 jb .LBB1_3482 vsubpd %ymm12, %ymm5, %ymm0 vmovapd .LCPI1_28(%rip), %ymm9 vmulpd %ymm9, %ymm0, %ymm1 vmovapd %ymm1, 24704(%rbx) vsubpd %ymm10, %ymm15, %ymm0 vmulpd %ymm9, %ymm0, %ymm2 vmovapd %ymm2, 24864(%rbx) vmovapd .LCPI1_56(%rip), %ymm10 vandpd %ymm10, %ymm1, %ymm13 vmovapd 32864(%rbx), %ymm0 vandpd %ymm10, %ymm0, %ymm12 vcmpltpd %ymm13, %ymm12, %ymm0 vextractf128 $1, %ymm0, %xmm1 vpshufd $8, %xmm1, %xmm1 vpshufd $8, %xmm0, %xmm0 vandpd %ymm10, %ymm2, %ymm14 vmovlhps %xmm1, %xmm0, %xmm15 vandpd %ymm10, %ymm8, %ymm1 vcmpltpd %ymm14, %ymm1, %ymm0 vextractf128 $1, %ymm0, %xmm3 vpshufd $8, %xmm3, %xmm3 vpshufd $8, %xmm0, %xmm0 vmovlhps %xmm3, %xmm0, %xmm4 vmovapd %ymm8, 22560(%rbx) vmovapd 26112(%rbx), %ymm8 vandpd %ymm10, %ymm8, %ymm3 vcmpltpd %ymm3, %ymm12, %ymm0 vextractf128 $1, %ymm0, %xmm5 vpshufd $8, %xmm5, %xmm5 vpshufd $8, %xmm0, %xmm0 vmovlhps %xmm5, %xmm0, %xmm0 vmovapd %ymm7, %ymm11 vandpd %ymm10, %ymm11, %ymm12 vcmpltpd %ymm12, %ymm1, %ymm1 vextractf128 $1, %ymm1, %xmm5 vpshufd $8, %xmm5, %xmm5 vpshufd $8, %xmm1, %xmm1 vmovlhps %xmm5, %xmm1, %xmm1 vcmpltpd %ymm14, %ymm12, %ymm12 vmovdqa .LCPI1_21(%rip), %xmm7 vpshufb %xmm7, %xmm1, %xmm1 vmovdqa .LCPI1_20(%rip), %xmm6 vpshufb %xmm6, %xmm0, %xmm0 vpor %xmm0, %xmm1, %xmm1 vpshufb %xmm7, %xmm4, %xmm0 vpshufb %xmm6, %xmm15, %xmm4 vpor %xmm4, %xmm0, %xmm0 vextractf128 $1, %ymm12, %xmm4 vpshufd $8, %xmm4, %xmm4 vpshufd $8, %xmm12, %xmm5 vmovlhps %xmm4, %xmm5, %xmm4 vmovdqa 32832(%rbx), %ymm2 vpshufd $8, %xmm2, %xmm5 vmovaps 32896(%rbx), %xmm2 vmovlhps %xmm2, %xmm5, %xmm5 vcmpltpd %ymm13, %ymm3, %ymm2 vpsllw $15, %xmm0, %xmm0 vpsraw $15, %xmm0, %xmm0 vmovdqa .LCPI1_17(%rip), %xmm3 vpxor %xmm3, %xmm0, %xmm0 vpsllw $15, %xmm1, %xmm1 vpsraw $15, %xmm1, %xmm1 vpxor %xmm3, %xmm1, %xmm1 vpor %xmm0, %xmm1, %xmm1 vextractf128 $1, %ymm2, %xmm0 vpshufd $8, %xmm0, %xmm0 vpshufd $8, %xmm2, %xmm2 vmovlhps %xmm0, %xmm2, %xmm0 vpshufb %xmm7, %xmm4, %xmm3 vpshufb %xmm7, %xmm5, %xmm2 vmovdqa 32928(%rbx), %ymm4 vpshufd $8, %xmm4, %xmm4 vmovaps 32960(%rbx), %xmm5 vmovlhps %xmm5, %xmm4, %xmm4 vpshufb %xmm6, %xmm4, %xmm4 vpor %xmm4, %xmm2, %xmm2 vpsllw $15, %xmm2, %xmm2 vpsraw $15, %xmm2, %xmm2 vpand %xmm1, %xmm2, %xmm2 vpshufb %xmm6, %xmm0, %xmm0 vpunpckhbw %xmm0, %xmm2, %xmm1 vpor %xmm0, %xmm3, %xmm3 vpslld $31, %xmm1, %xmm0 vpsllw $15, %xmm3, %xmm1 vpsraw $15, %xmm1, %xmm3 vpmovsxdq %xmm0, %xmm1 vmovhlps %xmm0, %xmm0, %xmm0 vpmovsxdq %xmm0, %xmm0 vinsertf128 $1, %xmm0, %ymm1, %ymm1 vpunpckhbw %xmm0, %xmm3, %xmm0 vpslld $31, %xmm0, %xmm4 vpmovsxdq %xmm4, %xmm0 vmovhlps %xmm4, %xmm4, %xmm4 vpmovsxdq %xmm4, %xmm4 vinsertf128 $1, %xmm4, %ymm0, %ymm0 vpunpcklbw %xmm0, %xmm2, %xmm2 vpslld $31, %xmm2, %xmm4 vpmovsxdq %xmm4, %xmm2 vmovhlps %xmm4, %xmm4, %xmm4 vpmovsxdq %xmm4, %xmm4 vpunpcklbw %xmm0, %xmm3, %xmm3 vmovapd 24704(%rbx), %ymm5 vblendvpd %ymm0, %ymm8, %ymm5, %ymm0 vmovapd 32864(%rbx), %ymm5 vblendvpd %ymm1, %ymm0, %ymm5, %ymm0 vmulpd %ymm9, %ymm0, %ymm13 vinsertf128 $1, %xmm4, %ymm2, %ymm0 vpslld $31, %xmm3, %xmm2 vpmovsxdq %xmm2, %xmm1 vmovhlps %xmm2, %xmm2, %xmm2 vpmovsxdq %xmm2, %xmm2 vinsertf128 $1, %xmm2, %ymm1, %ymm1 vmovapd 24864(%rbx), %ymm2 vblendvpd %ymm1, %ymm11, %ymm2, %ymm1 vmovapd 22560(%rbx), %ymm2 vblendvpd %ymm0, %ymm1, %ymm2, %ymm0 vmulpd %ymm9, %ymm0, %ymm14 .LBB1_3482: vxorpd %ymm9, %ymm9, %ymm9 vmovapd 22752(%rbx), %ymm0 vblendvpd %ymm0, 32640(%rbx), %ymm9, %ymm0 vmovapd %ymm0, 26112(%rbx) vmovapd 24608(%rbx), %ymm0 vblendvpd %ymm0, 32800(%rbx), %ymm9, %ymm0 vmovapd %ymm0, 24704(%rbx) vmovapd 22720(%rbx), %ymm0 vblendvpd %ymm0, 26400(%rbx), %ymm9, %ymm0 vmovapd %ymm0, 24864(%rbx) vmovapd 24576(%rbx), %ymm0 vblendvpd %ymm0, 26624(%rbx), %ymm9, %ymm0 vmovapd %ymm0, 26624(%rbx) vmovapd 24832(%rbx), %ymm0 vblendvpd %ymm0, 26240(%rbx), %ymm9, %ymm0 vmovapd %ymm0, 26240(%rbx) vmovapd 24544(%rbx), %ymm0 vblendvpd %ymm0, 26336(%rbx), %ymm9, %ymm0 vmovapd %ymm0, 24608(%rbx) vmovapd 22688(%rbx), %ymm0 vblendvpd %ymm0, 26048(%rbx), %ymm9, %ymm0 vmovapd %ymm0, 24832(%rbx) vmovapd 22816(%rbx), %ymm0 vblendvpd %ymm0, 26080(%rbx), %ymm9, %ymm0 vmovapd %ymm0, 24576(%rbx) vmovapd 22656(%rbx), %ymm0 vblendvpd %ymm0, 24768(%rbx), %ymm9, %ymm0 vmovapd %ymm0, 26080(%rbx) vmovapd 22784(%rbx), %ymm0 vblendvpd %ymm0, 24800(%rbx), %ymm9, %ymm0 vmovapd %ymm0, 24544(%rbx) vmovapd 22592(%rbx), %ymm0 vblendvpd %ymm0, 24640(%rbx), %ymm9, %ymm0 vmovapd %ymm0, 24768(%rbx) vmovapd 22624(%rbx), %ymm0 vblendvpd %ymm0, 24672(%rbx), %ymm9, %ymm0 vmovapd %ymm0, 24672(%rbx) leal 1032(%rdx), %eax movl 416(%r14,%r12), %ecx addl %eax, %ecx movslq %ecx, %rsi movq %rsi, 32640(%rbx) movl 192(%r14,%r12), %ecx addl %eax, %ecx movslq %ecx, %rcx vmovupd 33024(%rbx,%rcx,8), %xmm2 vmovupd 33056(%rbx,%rcx,8), %xmm3 vmovupd 33056(%rbx,%rsi,8), %xmm1 vmovupd 33024(%rbx,%rsi,8), %xmm4 vmovdqa 32832(%rbx), %ymm0 vpshufd $8, %xmm0, %xmm5 vmovupd 33072(%rbx,%rsi,8), %xmm0 vmovaps 32896(%rbx), %xmm6 vmovlhps %xmm6, %xmm5, %xmm7 vmovdqa 32928(%rbx), %ymm5 vpshufd $8, %xmm5, %xmm5 vinsertf128 $1, 33040(%rbx,%rcx,8), %ymm2, %ymm10 vinsertf128 $1, 33040(%rbx,%rsi,8), %ymm4, %ymm11 vinsertf128 $1, 33072(%rbx,%rcx,8), %ymm3, %ymm15 vinsertf128 $1, %xmm0, %ymm1, %ymm6 vmovdqa .LCPI1_21(%rip), %xmm2 vpshufb %xmm2, %xmm7, %xmm0 vmovaps 32960(%rbx), %xmm1 vmovlhps %xmm1, %xmm5, %xmm1 vmovd %eax, %xmm3 vpshufd $0, %xmm3, %xmm3 vmovdqa %ymm3, 22816(%rbx) vmovdqa 32992(%rbx), %ymm4 vpaddd %xmm3, %xmm4, %xmm3 vmovd %xmm3, %eax vmovdqa .LCPI1_20(%rip), %xmm7 vpshufb %xmm7, %xmm1, %xmm1 vpor %xmm1, %xmm0, %xmm0 movslq %eax, %rax movq %rax, 26336(%rbx) vmovupd 33056(%rbx,%rax,8), %xmm1 vinsertf128 $1, 33072(%rbx,%rax,8), %ymm1, %ymm3 vmovapd %ymm3, 26048(%rbx) vsubpd %ymm3, %ymm6, %ymm1 vmovapd .LCPI1_24(%rip), %ymm5 vmulpd %ymm5, %ymm1, %ymm4 vmovapd %ymm4, 32928(%rbx) vsubpd %ymm15, %ymm3, %ymm1 vmulpd %ymm5, %ymm1, %ymm1 vmovapd %ymm1, 32896(%rbx) vmulpd %ymm4, %ymm1, %ymm1 vcmpnlepd %ymm9, %ymm1, %ymm4 vmovapd %ymm4, 32864(%rbx) vextractf128 $1, %ymm4, %xmm1 vpshufd $8, %xmm1, %xmm3 vmovdqa %xmm3, 32960(%rbx) vpshufd $8, %xmm4, %xmm1 vmovlhps %xmm3, %xmm1, %xmm1 vpsllw $15, %xmm0, %xmm0 vpsraw $15, %xmm0, %xmm3 vpunpckhbw %xmm0, %xmm3, %xmm0 vpslld $31, %xmm0, %xmm4 vpmovsxdq %xmm4, %xmm0 vmovhlps %xmm4, %xmm4, %xmm4 vpmovsxdq %xmm4, %xmm4 vinsertf128 $1, %xmm4, %ymm0, %ymm0 vpunpcklbw %xmm0, %xmm3, %xmm3 vpslld $31, %xmm3, %xmm4 vpmovsxdq %xmm4, %xmm3 vmovhlps %xmm4, %xmm4, %xmm4 vpmovsxdq %xmm4, %xmm4 vinsertf128 $1, %xmm4, %ymm3, %ymm4 vmovupd 33024(%rbx,%rax,8), %xmm3 vinsertf128 $1, 33040(%rbx,%rax,8), %ymm3, %ymm8 vmovapd %ymm8, 24800(%rbx) vsubpd %ymm8, %ymm11, %ymm3 vmulpd %ymm5, %ymm3, %ymm12 vsubpd %ymm10, %ymm8, %ymm3 vmulpd %ymm5, %ymm3, %ymm8 vpshufb %xmm7, %xmm1, %xmm3 vblendvpd %ymm4, %ymm14, %ymm9, %ymm1 vmovapd %ymm1, 24640(%rbx) vblendvpd %ymm0, %ymm13, %ymm9, %ymm0 vmovapd %ymm0, 22784(%rbx) vmulpd %ymm12, %ymm8, %ymm0 vmovapd %ymm12, %ymm1 vcmpnlepd %ymm9, %ymm0, %ymm5 vmovapd %ymm5, 32800(%rbx) vextractf128 $1, %ymm5, %xmm0 vpshufd $8, %xmm0, %xmm4 vmovdqa %xmm4, 32832(%rbx) vpshufd $8, %xmm5, %xmm0 vmovlhps %xmm4, %xmm0, %xmm0 vpshufb %xmm2, %xmm0, %xmm0 vmovdqa %xmm2, %xmm13 vpor %xmm3, %xmm0, %xmm0 vpxor .LCPI1_17(%rip), %xmm0, %xmm3 vpunpckhwd %xmm0, %xmm3, %xmm0 vpslld $31, %xmm0, %xmm0 vpsrad $31, %xmm0, %xmm0 vpmovzxwd %xmm3, %xmm3 vpslld $31, %xmm3, %xmm3 vpsrad $31, %xmm3, %xmm3 vinsertf128 $1, %xmm0, %ymm3, %ymm0 vmovdqa 10720(%rbx), %ymm3 vptest %ymm3, %ymm0 vmovapd 10752(%rbx), %ymm0 vmovapd %ymm0, %ymm14 vmovapd %ymm0, %ymm4 jb .LBB1_3484 vsubpd %ymm15, %ymm6, %ymm0 vmovapd .LCPI1_28(%rip), %ymm15 vmulpd %ymm15, %ymm0, %ymm2 vmovapd %ymm2, 22752(%rbx) vsubpd %ymm10, %ymm11, %ymm0 vmulpd %ymm15, %ymm0, %ymm4 vmovapd %ymm4, 26400(%rbx) vmovapd .LCPI1_56(%rip), %ymm10 vandpd %ymm10, %ymm2, %ymm2 vmovapd 32896(%rbx), %ymm9 vandpd %ymm10, %ymm9, %ymm14 vcmpltpd %ymm2, %ymm14, %ymm0 vextractf128 $1, %ymm0, %xmm3 vpshufd $8, %xmm3, %xmm3 vpshufd $8, %xmm0, %xmm0 vandpd %ymm10, %ymm4, %ymm11 vmovlhps %xmm3, %xmm0, %xmm5 vandpd %ymm10, %ymm8, %ymm3 vcmpltpd %ymm11, %ymm3, %ymm0 vextractf128 $1, %ymm0, %xmm4 vpshufd $8, %xmm4, %xmm4 vpshufd $8, %xmm0, %xmm0 vmovlhps %xmm4, %xmm0, %xmm0 vmovapd %ymm8, 22720(%rbx) vmovapd 32928(%rbx), %ymm8 vandpd %ymm10, %ymm8, %ymm6 vcmpltpd %ymm6, %ymm14, %ymm4 vextractf128 $1, %ymm4, %xmm7 vpshufd $8, %xmm7, %xmm7 vpshufd $8, %xmm4, %xmm4 vmovlhps %xmm7, %xmm4, %xmm4 vmovapd %ymm1, %ymm12 vandpd %ymm10, %ymm12, %ymm14 vcmpltpd %ymm14, %ymm3, %ymm3 vextractf128 $1, %ymm3, %xmm7 vpshufd $8, %xmm7, %xmm7 vpshufd $8, %xmm3, %xmm3 vmovlhps %xmm7, %xmm3, %xmm3 vcmpltpd %ymm11, %ymm14, %ymm11 vpshufb %xmm13, %xmm3, %xmm3 vmovdqa .LCPI1_20(%rip), %xmm7 vpshufb %xmm7, %xmm4, %xmm4 vpor %xmm4, %xmm3, %xmm3 vpshufb %xmm13, %xmm0, %xmm0 vpshufb %xmm7, %xmm5, %xmm4 vpor %xmm4, %xmm0, %xmm4 vextractf128 $1, %ymm11, %xmm0 vpshufd $8, %xmm0, %xmm0 vpshufd $8, %xmm11, %xmm5 vmovlhps %xmm0, %xmm5, %xmm0 vmovdqa 32800(%rbx), %ymm1 vpshufd $8, %xmm1, %xmm5 vmovaps 32832(%rbx), %xmm1 vmovlhps %xmm1, %xmm5, %xmm5 vcmpltpd %ymm2, %ymm6, %ymm6 vpsllw $15, %xmm4, %xmm2 vpsraw $15, %xmm2, %xmm2 vmovdqa .LCPI1_17(%rip), %xmm4 vpxor %xmm4, %xmm2, %xmm2 vpsllw $15, %xmm3, %xmm3 vpsraw $15, %xmm3, %xmm3 vpxor %xmm4, %xmm3, %xmm3 vpor %xmm2, %xmm3, %xmm2 vextractf128 $1, %ymm6, %xmm3 vpshufd $8, %xmm3, %xmm3 vpshufd $8, %xmm6, %xmm4 vmovlhps %xmm3, %xmm4, %xmm6 vpshufb %xmm13, %xmm0, %xmm3 vpshufb %xmm13, %xmm5, %xmm0 vmovdqa 32864(%rbx), %ymm4 vpshufd $8, %xmm4, %xmm4 vmovaps 32960(%rbx), %xmm5 vmovlhps %xmm5, %xmm4, %xmm4 vpshufb %xmm7, %xmm4, %xmm4 vpor %xmm4, %xmm0, %xmm0 vpsllw $15, %xmm0, %xmm0 vpsraw $15, %xmm0, %xmm0 vpand %xmm2, %xmm0, %xmm0 vpshufb %xmm7, %xmm6, %xmm2 vpunpckhbw %xmm0, %xmm0, %xmm4 vpor %xmm2, %xmm3, %xmm2 vpslld $31, %xmm4, %xmm3 vpsllw $15, %xmm2, %xmm2 vpsraw $15, %xmm2, %xmm2 vpmovsxdq %xmm3, %xmm4 vmovhlps %xmm3, %xmm3, %xmm3 vpmovsxdq %xmm3, %xmm3 vinsertf128 $1, %xmm3, %ymm4, %ymm3 vpunpckhbw %xmm0, %xmm2, %xmm4 vpslld $31, %xmm4, %xmm5 vpmovsxdq %xmm5, %xmm4 vmovhlps %xmm5, %xmm5, %xmm5 vpmovsxdq %xmm5, %xmm5 vinsertf128 $1, %xmm5, %ymm4, %ymm4 vpunpcklbw %xmm0, %xmm0, %xmm0 vpslld $31, %xmm0, %xmm5 vpmovsxdq %xmm5, %xmm0 vmovhlps %xmm5, %xmm5, %xmm5 vpmovsxdq %xmm5, %xmm5 vpunpcklbw %xmm0, %xmm2, %xmm2 vmovapd 22752(%rbx), %ymm1 vblendvpd %ymm4, %ymm8, %ymm1, %ymm4 vblendvpd %ymm3, %ymm4, %ymm9, %ymm3 vmulpd %ymm15, %ymm3, %ymm4 vinsertf128 $1, %xmm5, %ymm0, %ymm0 vpslld $31, %xmm2, %xmm3 vpmovsxdq %xmm3, %xmm2 vmovhlps %xmm3, %xmm3, %xmm3 vpmovsxdq %xmm3, %xmm3 vinsertf128 $1, %xmm3, %ymm2, %ymm2 vmovapd 26400(%rbx), %ymm1 vblendvpd %ymm2, %ymm12, %ymm1, %ymm2 vmovapd 22720(%rbx), %ymm1 vblendvpd %ymm0, %ymm2, %ymm1, %ymm0 vmulpd %ymm15, %ymm0, %ymm14 .LBB1_3484: vmovapd %ymm4, 22688(%rbx) vmovaps 32736(%rbx), %ymm0 vinsertf128 $1, %xmm0, %ymm0, %ymm0 vmovaps %ymm0, 26400(%rbx) vmovapd 26784(%rbx), %ymm0 vaddpd 24704(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 26784(%rbx) vmovapd 26816(%rbx), %ymm0 vaddpd 26112(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 26816(%rbx) vmovapd 26752(%rbx), %ymm0 vaddpd 26624(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 26624(%rbx) vmovapd 26720(%rbx), %ymm0 vaddpd 24864(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 26752(%rbx) vmovapd 26688(%rbx), %ymm0 vaddpd 24608(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 32928(%rbx) vmovapd 26656(%rbx), %ymm0 vaddpd 26240(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 32896(%rbx) vmovapd 26368(%rbx), %ymm0 vaddpd 24576(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 22752(%rbx) vmovapd 26304(%rbx), %ymm0 vaddpd 24832(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 22720(%rbx) vmovapd 26208(%rbx), %ymm0 vaddpd 24544(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 24832(%rbx) vmovapd 26176(%rbx), %ymm0 vaddpd 26080(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 24864(%rbx) vmovapd 25664(%rbx), %ymm0 vaddpd 24672(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 26112(%rbx) vmovapd 24896(%rbx), %ymm0 vaddpd 24768(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 26080(%rbx) vmovapd 26144(%rbx), %ymm0 vaddpd 22784(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 26240(%rbx) vmovapd 24736(%rbx), %ymm0 vaddpd 24640(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 26208(%rbx) leal 1176(%rdx), %eax movl %edx, 18656(%rbx) movl 416(%r14,%r12), %ecx addl %eax, %ecx movslq %ecx, %rdx movq %rdx, 32736(%rbx) movl 192(%r14,%r12), %ecx addl %eax, %ecx movslq %ecx, %rcx vmovups 33024(%rbx,%rcx,8), %xmm0 vmovupd 33056(%rbx,%rcx,8), %xmm3 vmovupd 33056(%rbx,%rdx,8), %xmm2 vmovupd 33024(%rbx,%rdx,8), %xmm4 vmovdqa 32800(%rbx), %ymm1 vpshufd $8, %xmm1, %xmm1 vmovupd 33072(%rbx,%rdx,8), %xmm5 vmovaps 32832(%rbx), %xmm6 vmovlhps %xmm6, %xmm1, %xmm6 vmovdqa 32864(%rbx), %ymm1 vpshufd $8, %xmm1, %xmm7 vinsertf128 $1, 33040(%rbx,%rcx,8), %ymm0, %ymm0 vinsertf128 $1, 33040(%rbx,%rdx,8), %ymm4, %ymm1 vinsertf128 $1, 33072(%rbx,%rcx,8), %ymm3, %ymm15 vinsertf128 $1, %xmm5, %ymm2, %ymm2 vpshufb %xmm13, %xmm6, %xmm3 vmovaps 32960(%rbx), %xmm4 vmovlhps %xmm4, %xmm7, %xmm4 vmovd %eax, %xmm5 vpshufd $0, %xmm5, %xmm5 vmovdqa %ymm5, 22784(%rbx) vmovdqa 32992(%rbx), %ymm6 vpaddd %xmm5, %xmm6, %xmm5 vmovd %xmm5, %eax vmovdqa .LCPI1_20(%rip), %xmm10 vpshufb %xmm10, %xmm4, %xmm4 vpor %xmm4, %xmm3, %xmm5 movslq %eax, %rax movq %rax, 26304(%rbx) vmovupd 33056(%rbx,%rax,8), %xmm3 vinsertf128 $1, 33072(%rbx,%rax,8), %ymm3, %ymm4 vmovapd %ymm4, 32864(%rbx) vsubpd %ymm4, %ymm2, %ymm3 vmovapd .LCPI1_24(%rip), %ymm7 vmulpd %ymm7, %ymm3, %ymm6 vmovapd %ymm6, 32800(%rbx) vsubpd %ymm15, %ymm4, %ymm3 vmulpd %ymm7, %ymm3, %ymm11 vmulpd %ymm6, %ymm11, %ymm3 vxorpd %ymm12, %ymm12, %ymm12 vcmpnlepd %ymm12, %ymm3, %ymm6 vmovapd %ymm6, 32960(%rbx) vextractf128 $1, %ymm6, %xmm3 vpshufd $8, %xmm3, %xmm4 vmovdqa %xmm4, 32992(%rbx) vpshufd $8, %xmm6, %xmm3 vmovlhps %xmm4, %xmm3, %xmm4 vpsllw $15, %xmm5, %xmm3 vpsraw $15, %xmm3, %xmm3 vpunpckhbw %xmm0, %xmm3, %xmm5 vpslld $31, %xmm5, %xmm6 vpmovsxdq %xmm6, %xmm5 vmovhlps %xmm6, %xmm6, %xmm6 vpmovsxdq %xmm6, %xmm6 vinsertf128 $1, %xmm6, %ymm5, %ymm5 vpunpcklbw %xmm0, %xmm3, %xmm3 vpslld $31, %xmm3, %xmm6 vpmovsxdq %xmm6, %xmm3 vmovhlps %xmm6, %xmm6, %xmm6 vpmovsxdq %xmm6, %xmm6 vinsertf128 $1, %xmm6, %ymm3, %ymm3 vmovupd 33024(%rbx,%rax,8), %xmm6 vinsertf128 $1, 33040(%rbx,%rax,8), %ymm6, %ymm8 vmovapd %ymm8, 32832(%rbx) vsubpd %ymm8, %ymm1, %ymm6 vmulpd %ymm7, %ymm6, %ymm9 vsubpd %ymm0, %ymm8, %ymm6 vmulpd %ymm7, %ymm6, %ymm7 vpshufb %xmm10, %xmm4, %xmm4 vblendvpd %ymm3, %ymm14, %ymm12, %ymm3 vblendvpd %ymm5, 22688(%rbx), %ymm12, %ymm6 vmulpd %ymm9, %ymm7, %ymm5 vmovapd %ymm9, %ymm8 vcmpnlepd %ymm12, %ymm5, %ymm14 vextractf128 $1, %ymm14, %xmm5 vpshufd $8, %xmm5, %xmm12 vpshufd $8, %xmm14, %xmm5 vmovlhps %xmm12, %xmm5, %xmm5 vpshufb %xmm13, %xmm5, %xmm5 vpor %xmm4, %xmm5, %xmm4 vmovapd 26048(%rbx), %ymm5 vaddpd %ymm6, %ymm5, %ymm5 vmovapd %ymm5, 26176(%rbx) vmovapd 24800(%rbx), %ymm5 vaddpd %ymm3, %ymm5, %ymm3 vmovapd %ymm3, 26144(%rbx) vpxor .LCPI1_17(%rip), %xmm4, %xmm4 vpunpckhwd %xmm0, %xmm4, %xmm3 vpslld $31, %xmm3, %xmm3 vpsrad $31, %xmm3, %xmm3 vpmovzxwd %xmm4, %xmm4 vpslld $31, %xmm4, %xmm4 vpsrad $31, %xmm4, %xmm4 vinsertf128 $1, %xmm3, %ymm4, %ymm3 vmovdqa 10656(%rbx), %ymm4 vptest %ymm4, %ymm3 vmovapd 10688(%rbx), %ymm3 vmovapd %ymm3, %ymm10 vmovapd %ymm3, %ymm9 jb .LBB1_3486 vsubpd %ymm15, %ymm2, %ymm2 vmovapd .LCPI1_28(%rip), %ymm13 vmulpd %ymm13, %ymm2, %ymm10 vsubpd %ymm0, %ymm1, %ymm0 vmulpd %ymm13, %ymm0, %ymm3 vmovapd %ymm3, 26720(%rbx) vmovaps %xmm12, %xmm6 vmovapd .LCPI1_56(%rip), %ymm12 vandpd %ymm12, %ymm10, %ymm0 vmovdqa %ymm14, %ymm15 vandpd %ymm12, %ymm11, %ymm14 vcmpltpd %ymm0, %ymm14, %ymm1 vextractf128 $1, %ymm1, %xmm2 vpshufd $8, %xmm2, %xmm2 vpshufd $8, %xmm1, %xmm1 vandpd %ymm12, %ymm3, %ymm9 vmovlhps %xmm2, %xmm1, %xmm2 vandpd %ymm12, %ymm7, %ymm3 vcmpltpd %ymm9, %ymm3, %ymm1 vextractf128 $1, %ymm1, %xmm4 vpshufd $8, %xmm4, %xmm4 vpshufd $8, %xmm1, %xmm1 vmovlhps %xmm4, %xmm1, %xmm4 vmovapd %ymm11, 26656(%rbx) vmovapd 32800(%rbx), %ymm11 vandpd %ymm12, %ymm11, %ymm1 vcmpltpd %ymm1, %ymm14, %ymm5 vmovapd %ymm7, 26688(%rbx) vextractf128 $1, %ymm5, %xmm7 vpshufd $8, %xmm7, %xmm7 vpshufd $8, %xmm5, %xmm5 vmovlhps %xmm7, %xmm5, %xmm5 vandpd %ymm12, %ymm8, %ymm14 vmovaps %xmm6, %xmm12 vcmpltpd %ymm14, %ymm3, %ymm3 vextractf128 $1, %ymm3, %xmm7 vpshufd $8, %xmm7, %xmm7 vpshufd $8, %xmm3, %xmm3 vmovlhps %xmm7, %xmm3, %xmm3 vcmpltpd %ymm9, %ymm14, %ymm9 vmovdqa %ymm15, %ymm14 vmovdqa .LCPI1_21(%rip), %xmm7 vpshufb %xmm7, %xmm3, %xmm3 vmovdqa .LCPI1_20(%rip), %xmm6 vpshufb %xmm6, %xmm5, %xmm5 vpor %xmm5, %xmm3, %xmm3 vpshufb %xmm7, %xmm4, %xmm4 vpshufb %xmm6, %xmm2, %xmm2 vpor %xmm2, %xmm4, %xmm5 vextractf128 $1, %ymm9, %xmm2 vpshufd $8, %xmm2, %xmm2 vpshufd $8, %xmm9, %xmm4 vmovlhps %xmm2, %xmm4, %xmm2 vpshufd $8, %xmm14, %xmm4 vmovlhps %xmm12, %xmm4, %xmm4 vcmpltpd %ymm0, %ymm1, %ymm1 vpsllw $15, %xmm5, %xmm0 vpsraw $15, %xmm0, %xmm0 vmovdqa .LCPI1_17(%rip), %xmm5 vpxor %xmm5, %xmm0, %xmm0 vpsllw $15, %xmm3, %xmm3 vpsraw $15, %xmm3, %xmm3 vpxor %xmm5, %xmm3, %xmm3 vpor %xmm0, %xmm3, %xmm0 vextractf128 $1, %ymm1, %xmm3 vpshufd $8, %xmm3, %xmm3 vpshufd $8, %xmm1, %xmm1 vmovlhps %xmm3, %xmm1, %xmm3 vpshufb %xmm7, %xmm2, %xmm1 vpshufb %xmm7, %xmm4, %xmm2 vmovdqa 32960(%rbx), %ymm4 vpshufd $8, %xmm4, %xmm4 vmovaps 32992(%rbx), %xmm5 vmovlhps %xmm5, %xmm4, %xmm4 vpshufb %xmm6, %xmm4, %xmm4 vpor %xmm4, %xmm2, %xmm2 vpsllw $15, %xmm2, %xmm2 vpsraw $15, %xmm2, %xmm2 vpand %xmm0, %xmm2, %xmm0 vpshufb %xmm6, %xmm3, %xmm2 vpunpckhbw %xmm0, %xmm0, %xmm3 vpor %xmm2, %xmm1, %xmm1 vpslld $31, %xmm3, %xmm2 vpsllw $15, %xmm1, %xmm1 vpsraw $15, %xmm1, %xmm1 vpmovsxdq %xmm2, %xmm3 vmovhlps %xmm2, %xmm2, %xmm2 vpmovsxdq %xmm2, %xmm2 vinsertf128 $1, %xmm2, %ymm3, %ymm2 vpunpckhbw %xmm0, %xmm1, %xmm3 vpslld $31, %xmm3, %xmm4 vpmovsxdq %xmm4, %xmm3 vmovhlps %xmm4, %xmm4, %xmm4 vpmovsxdq %xmm4, %xmm4 vinsertf128 $1, %xmm4, %ymm3, %ymm3 vpunpcklbw %xmm0, %xmm0, %xmm0 vpslld $31, %xmm0, %xmm4 vpmovsxdq %xmm4, %xmm0 vmovhlps %xmm4, %xmm4, %xmm4 vpmovsxdq %xmm4, %xmm4 vpunpcklbw %xmm0, %xmm1, %xmm1 vblendvpd %ymm3, %ymm11, %ymm10, %ymm3 vmovapd 26656(%rbx), %ymm5 vblendvpd %ymm2, %ymm3, %ymm5, %ymm2 vmulpd %ymm13, %ymm2, %ymm9 vinsertf128 $1, %xmm4, %ymm0, %ymm0 vpslld $31, %xmm1, %xmm2 vpmovsxdq %xmm2, %xmm1 vmovhlps %xmm2, %xmm2, %xmm2 vpmovsxdq %xmm2, %xmm2 vinsertf128 $1, %xmm2, %ymm1, %ymm1 vmovapd 26720(%rbx), %ymm2 vblendvpd %ymm1, %ymm8, %ymm2, %ymm1 vmovapd 26688(%rbx), %ymm2 vblendvpd %ymm0, %ymm1, %ymm2, %ymm0 vmulpd %ymm13, %ymm0, %ymm10 .LBB1_3486: vmovaps 26848(%rbx), %ymm0 vinsertf128 $1, %xmm0, %ymm0, %ymm0 vmovaps %ymm0, 26368(%rbx) movq 25632(%rbx), %rcx movabsq $-4616189618054758400, %r13 movq %r13, (%rcx) movq 25600(%rbx), %r11 movq %r13, (%r11) movq 25568(%rbx), %r8 movq %r13, (%r8) movq 32576(%rbx), %r15 movq %r13, (%r15) movq 25760(%rbx), %r10 movq %r13, (%r10) movq 32704(%rbx), %rdi movq %r13, (%rdi) movq 25728(%rbx), %rdx movq %r13, (%rdx) movq 25696(%rbx), %rsi movq %r13, (%rsi) vxorps %xmm0, %xmm0, %xmm0 movq 24976(%rbx), %rax vmovups %xmm0, 16(%rax) vmovups %xmm0, (%rax) movq 24928(%rbx), %rax vmovups %xmm0, 16(%rax) vmovups %xmm0, (%rax) movq 25216(%rbx), %rax vmovups %xmm0, 16(%rax) vmovups %xmm0, (%rax) movq 25184(%rbx), %rax vmovups %xmm0, 16(%rax) vmovups %xmm0, (%rax) movq 25152(%rbx), %rax vmovups %xmm0, 16(%rax) vmovups %xmm0, (%rax) movq 25136(%rbx), %rax vmovups %xmm0, 16(%rax) vmovups %xmm0, (%rax) movq 25120(%rbx), %rax vmovups %xmm0, 16(%rax) vmovups %xmm0, (%rax) movq 25088(%rbx), %rax vmovups %xmm0, 16(%rax) vmovups %xmm0, (%rax) movabsq $4607182418800017408, %r9 movq 25792(%rbx), %rax movq %r9, (%rax) movq 25856(%rbx), %rax movq %r9, (%rax) movq 25824(%rbx), %rax movq %r9, (%rax) movq 25888(%rbx), %rax movq %r9, (%rax) movq 25920(%rbx), %rax movq %r9, (%rax) movq 25984(%rbx), %rax movq %r9, (%rax) movq 25952(%rbx), %rax movq %r9, (%rax) movq 26016(%rbx), %rax movq %r9, (%rax) movq 25056(%rbx), %rax vmovups %xmm0, 16(%rax) vmovups %xmm0, (%rax) movq 25040(%rbx), %rax vmovups %xmm0, 16(%rax) vmovups %xmm0, (%rax) movq 24992(%rbx), %rax vmovups %xmm0, 16(%rax) vmovups %xmm0, (%rax) movq 25392(%rbx), %rax vmovups %xmm0, 16(%rax) vmovups %xmm0, (%rax) movq 25344(%rbx), %rax vmovups %xmm0, 16(%rax) vmovups %xmm0, (%rax) movq 25312(%rbx), %rax vmovups %xmm0, 16(%rax) vmovups %xmm0, (%rax) movq 25280(%rbx), %rax vmovups %xmm0, 16(%rax) vmovups %xmm0, (%rax) movq 25248(%rbx), %rax vmovups %xmm0, 16(%rax) vmovups %xmm0, (%rax) movq 31552(%rbx), %rax movq %r9, (%rax) movq 31584(%rbx), %rax movq %r9, (%rax) movq 31616(%rbx), %rax movq %r9, (%rax) movq 31648(%rbx), %rax movq %r9, (%rax) movq 31904(%rbx), %rax movq %r9, (%rax) movq 31936(%rbx), %rax movq %r9, (%rax) movq 31680(%rbx), %rax movq %r9, (%rax) movq 31968(%rbx), %rax movq %r9, (%rax) movq 25536(%rbx), %rax vmovups %xmm0, 16(%rax) vmovups %xmm0, (%rax) movq 25504(%rbx), %rax vmovups %xmm0, 16(%rax) vmovups %xmm0, (%rax) movq 25472(%rbx), %rax vmovups %xmm0, 16(%rax) vmovups %xmm0, (%rax) movq 25456(%rbx), %rax vmovups %xmm0, 16(%rax) vmovups %xmm0, (%rax) movq 25440(%rbx), %rax vmovups %xmm0, 16(%rax) vmovups %xmm0, (%rax) movq 25408(%rbx), %rax vmovups %xmm0, 16(%rax) vmovups %xmm0, (%rax) movq 32128(%rbx), %rax vmovups %xmm0, 16(%rax) vmovups %xmm0, (%rax) movq 32672(%rbx), %rax vmovups %xmm0, 16(%rax) vmovups %xmm0, (%rax) vpshufd $8, %xmm14, %xmm1 vmovdqa 32960(%rbx), %ymm0 vpshufd $8, %xmm0, %xmm0 vmovapd .LCPI1_19(%rip), %ymm8 vmovapd 26752(%rbx), %ymm13 vcmpltpd %ymm8, %ymm13, %ymm2 vextractf128 $1, %ymm2, %xmm3 vpshufd $8, %xmm3, %xmm3 vpshufd $8, %xmm2, %xmm4 vmovaps 32992(%rbx), %xmm2 vmovlhps %xmm2, %xmm0, %xmm0 vmovapd 26624(%rbx), %ymm14 vcmpltpd %ymm8, %ymm14, %ymm2 vmovlhps %xmm12, %xmm1, %xmm1 vextractf128 $1, %ymm2, %xmm5 vpshufd $8, %xmm5, %xmm5 vpshufd $8, %xmm2, %xmm2 vmovlhps %xmm5, %xmm2, %xmm2 vmovlhps %xmm3, %xmm4, %xmm3 vmovapd 26784(%rbx), %ymm12 vcmpltpd %ymm8, %ymm12, %ymm4 vextractf128 $1, %ymm4, %xmm5 vpshufd $8, %xmm5, %xmm5 vpshufd $8, %xmm4, %xmm4 vmovlhps %xmm5, %xmm4, %xmm4 vmovapd 26816(%rbx), %ymm11 vcmpltpd %ymm8, %ymm11, %ymm5 vextractf128 $1, %ymm5, %xmm6 vpshufd $8, %xmm6, %xmm6 vpshufd $8, %xmm5, %xmm5 vmovlhps %xmm6, %xmm5, %xmm5 vmovdqa .LCPI1_21(%rip), %xmm6 vmovdqa %xmm6, %xmm7 vpshufb %xmm7, %xmm5, %xmm5 vmovdqa .LCPI1_20(%rip), %xmm6 vpshufb %xmm6, %xmm4, %xmm4 vpor %xmm4, %xmm5, %xmm4 vpshufb %xmm7, %xmm3, %xmm3 vpshufb %xmm6, %xmm2, %xmm2 vpor %xmm2, %xmm3, %xmm3 vpshufb %xmm7, %xmm1, %xmm1 vpshufb %xmm6, %xmm0, %xmm0 vpor %xmm0, %xmm1, %xmm0 vpsllw $15, %xmm4, %xmm1 vpsraw $15, %xmm1, %xmm2 vpunpcklbw %xmm0, %xmm2, %xmm1 vpslld $31, %xmm1, %xmm4 vpmovsxdq %xmm4, %xmm1 vmovhlps %xmm4, %xmm4, %xmm4 vpmovsxdq %xmm4, %xmm4 vinsertf128 $1, %xmm4, %ymm1, %ymm1 vpsllw $15, %xmm3, %xmm3 vpsraw $15, %xmm3, %xmm4 vpunpcklbw %xmm0, %xmm4, %xmm3 vpslld $31, %xmm3, %xmm5 vpmovsxdq %xmm5, %xmm3 vmovhlps %xmm5, %xmm5, %xmm5 vpmovsxdq %xmm5, %xmm5 vinsertf128 $1, %xmm5, %ymm3, %ymm3 vpunpckhbw %xmm0, %xmm4, %xmm4 vpslld $31, %xmm4, %xmm5 vpmovsxdq %xmm5, %xmm4 vmovhlps %xmm5, %xmm5, %xmm5 vpmovsxdq %xmm5, %xmm5 vinsertf128 $1, %xmm5, %ymm4, %ymm4 vpunpckhbw %xmm0, %xmm2, %xmm2 vpslld $31, %xmm2, %xmm5 vpmovsxdq %xmm5, %xmm2 vmovhlps %xmm5, %xmm5, %xmm5 vpmovsxdq %xmm5, %xmm5 vinsertf128 $1, %xmm5, %ymm2, %ymm2 vblendvpd %ymm2, %ymm8, %ymm12, %ymm2 vmovapd %ymm2, 25664(%rbx) vmovapd %ymm2, %ymm5 vblendvpd %ymm4, %ymm8, %ymm14, %ymm4 vmovapd %ymm4, 24640(%rbx) vblendvpd %ymm3, %ymm8, %ymm13, %ymm2 vmovapd %ymm2, 24672(%rbx) vpsllw $15, %xmm0, %xmm0 vpsraw $15, %xmm0, %xmm0 vblendvpd %ymm1, %ymm8, %ymm11, %ymm1 vmovapd %ymm1, 24896(%rbx) vpunpckhbw %xmm0, %xmm0, %xmm1 vpslld $31, %xmm1, %xmm2 vpmovsxdq %xmm2, %xmm1 vmovhlps %xmm2, %xmm2, %xmm2 vpmovsxdq %xmm2, %xmm2 vinsertf128 $1, %xmm2, %ymm1, %ymm1 vpunpcklbw %xmm0, %xmm0, %xmm0 vpslld $31, %xmm0, %xmm2 vpmovsxdq %xmm2, %xmm0 vmovhlps %xmm2, %xmm2, %xmm2 vpmovsxdq %xmm2, %xmm2 vinsertf128 $1, %xmm2, %ymm0, %ymm0 vxorpd %ymm11, %ymm11, %ymm11 vblendvpd %ymm0, %ymm10, %ymm11, %ymm0 vblendvpd %ymm1, %ymm9, %ymm11, %ymm1 vmovapd .LCPI1_74(%rip), %ymm2 vmulpd %ymm2, %ymm4, %ymm2 vmovapd %ymm2, 22688(%rbx) vaddpd %ymm2, %ymm5, %ymm2 vmovapd .LCPI1_73(%rip), %ymm3 vmulpd %ymm3, %ymm4, %ymm3 vdivpd %ymm2, %ymm3, %ymm2 vmovapd %ymm2, 22656(%rbx) vmovapd 32864(%rbx), %ymm2 vaddpd %ymm1, %ymm2, %ymm1 vmovapd %ymm1, 24736(%rbx) vmovapd 32832(%rbx), %ymm1 vaddpd %ymm0, %ymm1, %ymm0 vmovapd %ymm0, 24704(%rbx) movq 31264(%rbx), %rax movq %r9, (%rax) movq 31296(%rbx), %rax movq %r9, (%rax) movq 31200(%rbx), %rax movq %r9, (%rax) movq 31232(%rbx), %rax movq %r9, (%rax) movq 32000(%rbx), %rax movq %r9, (%rax) movq 32032(%rbx), %rax movq %r9, (%rax) movq 31168(%rbx), %rax movq %r9, (%rax) movq 31072(%rbx), %rax movq %r9, (%rax) movq 30720(%rbx), %rax movq %r13, (%rax) movq 30752(%rbx), %rax movq %r13, (%rax) movq 30656(%rbx), %rax movq %r13, (%rax) movq 30688(%rbx), %rax movq %r13, (%rax) movq 30848(%rbx), %rax movq %r13, (%rax) movq 31008(%rbx), %rax movq %r13, (%rax) movq 30816(%rbx), %rax movq %r13, (%rax) movq 30976(%rbx), %rax movq %r13, (%rax) movabsq $-9223372036854775808, %r13 movq 30592(%rbx), %rax movq %r13, (%rax) movq 30624(%rbx), %rax movq %r13, (%rax) movq 30528(%rbx), %rax movq %r13, (%rax) movq 30560(%rbx), %rax movq %r13, (%rax) movq 30784(%rbx), %rax movq %r13, (%rax) movq 30944(%rbx), %rax movq %r13, (%rax) movq 30880(%rbx), %rax movq %r13, (%rax) movq 30912(%rbx), %rax movq %r13, (%rax) movq 30368(%rbx), %rax movq %r13, (%rax) movq 30336(%rbx), %rax movq %r13, (%rax) movq 30304(%rbx), %rax movq %r13, (%rax) movq 30272(%rbx), %rax movq %r13, (%rax) movq 30496(%rbx), %rax movq %r13, (%rax) movq 30464(%rbx), %rax movq %r13, (%rax) movq 30432(%rbx), %rax movq %r13, (%rax) movq 30400(%rbx), %rax movq %r13, (%rax) movq 28160(%rbx), %rax movq %r13, (%rax) movq 30112(%rbx), %rax movq %r13, (%rax) movq 30080(%rbx), %rax movq %r13, (%rax) movq 30048(%rbx), %rax movq %r13, (%rax) movq 30240(%rbx), %rax movq %r13, (%rax) movq 30208(%rbx), %rax movq %r13, (%rax) movq 30176(%rbx), %rax movq %r13, (%rax) movq 30144(%rbx), %rax movq %r13, (%rax) movq 29312(%rbx), %rax movq %r13, (%rax) movq 29280(%rbx), %rax movq %r13, (%rax) movq 29120(%rbx), %rax movq %r13, (%rax) movq 29088(%rbx), %rax movq %r13, (%rax) movq 29952(%rbx), %rax movq %r13, (%rax) movq 29920(%rbx), %rax movq %r13, (%rax) movq 29760(%rbx), %rax movq %r13, (%rax) movq 29728(%rbx), %rax movq %r13, (%rax) movq 29184(%rbx), %rax movq %r9, (%rax) movq 29152(%rbx), %rax movq %r9, (%rax) movq 29056(%rbx), %rax movq %r9, (%rax) movq 29024(%rbx), %rax movq %r9, (%rax) movq 29824(%rbx), %rax movq %r9, (%rax) movq 29792(%rbx), %rax movq %r9, (%rax) movq 29696(%rbx), %rax movq %r9, (%rax) movq 29664(%rbx), %rax movq %r9, (%rax) movq 29440(%rbx), %rax movq %r13, (%rax) movq 29408(%rbx), %rax movq %r13, (%rax) movq 29248(%rbx), %rax movq %r13, (%rax) movq 29216(%rbx), %rax movq %r13, (%rax) movq 30016(%rbx), %rax movq %r13, (%rax) movq 29984(%rbx), %rax movq %r13, (%rax) movq 29888(%rbx), %rax movq %r13, (%rax) movq 29856(%rbx), %rax movq %r13, (%rax) movq 28288(%rbx), %rax movq %r13, (%rax) movq 28256(%rbx), %rax movq %r13, (%rax) movq 28128(%rbx), %rax movq %r13, (%rax) movq 28096(%rbx), %rax movq %r13, (%rax) movq 29568(%rbx), %rax movq %r13, (%rax) movq 29536(%rbx), %rax movq %r13, (%rax) movq 29376(%rbx), %rax movq %r13, (%rax) movq 29344(%rbx), %rax movq %r13, (%rax) movq 28672(%rbx), %rax movq %r13, (%rax) movq 28640(%rbx), %rax movq %r13, (%rax) movq 28416(%rbx), %rax movq %r13, (%rax) movq 28384(%rbx), %rax movq %r13, (%rax) movq 28992(%rbx), %rax movq %r13, (%rax) movq 28960(%rbx), %rax movq %r13, (%rax) movq 28864(%rbx), %rax movq %r13, (%rax) movq 28832(%rbx), %rax movq %r13, (%rax) movq 28480(%rbx), %rax movq %r13, (%rax) movq 28448(%rbx), %rax movq %r13, (%rax) movq 28224(%rbx), %rax movq %r13, (%rax) movq 28192(%rbx), %rax movq %r13, (%rax) movq 29632(%rbx), %rax movq %r13, (%rax) movq 29600(%rbx), %rax movq %r13, (%rax) movq 29504(%rbx), %rax movq %r13, (%rax) movq 29472(%rbx), %rax movq %r13, (%rax) vmovsd (%r8), %xmm0 vmovhpd (%r15), %xmm0, %xmm0 vmovsd (%rcx), %xmm1 vmovhpd (%r11), %xmm1, %xmm1 movq 22944(%rbx), %rax vmovsd (%rax), %xmm2 movq 22912(%rbx), %rax vmovhpd (%rax), %xmm2, %xmm2 movq 23072(%rbx), %rax vmovsd (%rax), %xmm3 movq 23040(%rbx), %rax vmovhpd (%rax), %xmm3, %xmm3 movq 23008(%rbx), %rax vmovsd (%rax), %xmm4 movq 22976(%rbx), %rax vmovhpd (%rax), %xmm4, %xmm4 movq 23136(%rbx), %rax vmovsd (%rax), %xmm5 movq 23104(%rbx), %rax vmovhpd (%rax), %xmm5, %xmm5 movq 14048(%rbx), %rax vmovsd (%rax), %xmm6 movq 14080(%rbx), %rax vmovhpd (%rax), %xmm6, %xmm6 movq 24352(%rbx), %rax vmovsd (%rax), %xmm7 movq 14112(%rbx), %rax vmovhpd (%rax), %xmm7, %xmm7 vinsertf128 $1, %xmm6, %ymm7, %ymm6 vmovapd %ymm6, 23136(%rbx) vinsertf128 $1, %xmm4, %ymm5, %ymm4 vmovapd %ymm4, 26752(%rbx) vinsertf128 $1, %xmm2, %ymm3, %ymm2 vmovapd %ymm2, 32800(%rbx) vinsertf128 $1, %xmm0, %ymm1, %ymm3 vmovapd %ymm3, 32832(%rbx) movq 23200(%rbx), %rax vmovsd (%rax), %xmm0 movq 23168(%rbx), %rax vmovhpd (%rax), %xmm0, %xmm0 movq 23264(%rbx), %rax vmovsd (%rax), %xmm1 movq 23232(%rbx), %rax vmovhpd (%rax), %xmm1, %xmm1 vinsertf128 $1, %xmm0, %ymm1, %ymm1 vmovapd %ymm1, 26624(%rbx) vmulpd %ymm11, %ymm1, %ymm0 vmovapd %ymm1, %ymm14 vmulpd %ymm11, %ymm0, %ymm0 vaddpd %ymm0, %ymm3, %ymm0 vmovapd %ymm3, %ymm15 vmulpd %ymm4, %ymm2, %ymm1 vmovapd %ymm1, 26816(%rbx) vmovapd %ymm4, %ymm13 vmovapd %ymm2, %ymm12 vmovapd %ymm6, %ymm3 vmulpd %ymm3, %ymm1, %ymm1 vaddpd %ymm1, %ymm0, %ymm4 movq 23328(%rbx), %rax vmovsd (%rax), %xmm0 movq 23296(%rbx), %rax vmovhpd (%rax), %xmm0, %xmm8 vmovsd (%r10), %xmm0 vmovhpd (%rdi), %xmm0, %xmm9 movq 23424(%rbx), %rax vmovsd (%rax), %xmm0 movq 32256(%rbx), %rax vmovhpd (%rax), %xmm0, %xmm10 movq 23392(%rbx), %rax vmovsd (%rax), %xmm0 movq 23360(%rbx), %rax vmovhpd (%rax), %xmm0, %xmm5 movq 23552(%rbx), %rax vmovsd (%rax), %xmm0 movq 23520(%rbx), %rax vmovhpd (%rax), %xmm0, %xmm7 movq 23488(%rbx), %rax vmovsd (%rax), %xmm0 movq 23456(%rbx), %rax vmovhpd (%rax), %xmm0, %xmm6 vmovsd (%rdx), %xmm0 vmovhpd (%rsi), %xmm0, %xmm0 movq 23616(%rbx), %rax vmovsd (%rax), %xmm1 movq 23584(%rbx), %rax vmovhpd (%rax), %xmm1, %xmm1 vmulpd %ymm11, %ymm15, %ymm2 vmulpd %ymm3, %ymm2, %ymm2 vsubpd %ymm2, %ymm4, %ymm4 movq 14144(%rbx), %rax vmovsd (%rax), %xmm2 movq 14176(%rbx), %rax vmovhpd (%rax), %xmm2, %xmm2 movq 14208(%rbx), %rax vmovsd (%rax), %xmm3 movq 14240(%rbx), %rax vmovhpd (%rax), %xmm3, %xmm3 vinsertf128 $1, %xmm2, %ymm3, %ymm15 vmovapd %ymm15, 23616(%rbx) vinsertf128 $1, %xmm5, %ymm7, %ymm7 vmovapd %ymm7, 24768(%rbx) vinsertf128 $1, %xmm1, %ymm10, %ymm5 vmovapd %ymm5, 32864(%rbx) vinsertf128 $1, %xmm0, %ymm9, %ymm9 vmovapd %ymm9, 32256(%rbx) vinsertf128 $1, %xmm6, %ymm8, %ymm3 vmovapd %ymm3, 32960(%rbx) vmulpd %ymm13, %ymm14, %ymm0 vmovapd %ymm0, 32992(%rbx) vsubpd %ymm0, %ymm4, %ymm0 vxorpd %ymm2, %ymm2, %ymm2 vmulpd %ymm2, %ymm12, %ymm1 vsubpd %ymm1, %ymm0, %ymm0 vmulpd %ymm2, %ymm3, %ymm1 vmovapd %ymm3, %ymm4 vmulpd %ymm2, %ymm1, %ymm1 vxorpd %ymm3, %ymm3, %ymm3 vaddpd %ymm1, %ymm9, %ymm1 vmulpd %ymm7, %ymm5, %ymm2 vmovapd %ymm2, 26048(%rbx) vmulpd %ymm15, %ymm2, %ymm2 vaddpd %ymm2, %ymm1, %ymm1 vmovapd .LCPI1_22(%rip), %ymm12 vmulpd %ymm12, %ymm0, %ymm0 movq 27808(%rbx), %rax vmovlpd %xmm0, (%rax) movq 27776(%rbx), %rax vmovhpd %xmm0, (%rax) vmulpd %ymm3, %ymm9, %ymm2 vmovapd %ymm9, %ymm13 vmulpd %ymm15, %ymm2, %ymm2 vsubpd %ymm2, %ymm1, %ymm1 vextractf128 $1, %ymm0, %xmm0 movq 27616(%rbx), %rax vmovlpd %xmm0, (%rax) movq 27584(%rbx), %rax vmovhpd %xmm0, (%rax) vmulpd %ymm7, %ymm4, %ymm2 vmovapd %ymm2, 23584(%rbx) vsubpd %ymm2, %ymm1, %ymm0 vmovapd %ymm2, %ymm10 vmulpd %ymm3, %ymm5, %ymm1 vsubpd %ymm1, %ymm0, %ymm0 vmulpd %ymm12, %ymm0, %ymm0 movq 28928(%rbx), %rax vmovlpd %xmm0, (%rax) movq 28896(%rbx), %rax vmovhpd %xmm0, (%rax) vextractf128 $1, %ymm0, %xmm0 movq 28736(%rbx), %rax vmovlpd %xmm0, (%rax) movq 28704(%rbx), %rax vmovhpd %xmm0, (%rax) movq 24064(%rbx), %rax vmovsd (%rax), %xmm0 movq 24096(%rbx), %rax vmovhpd (%rax), %xmm0, %xmm9 movq 24128(%rbx), %rax vmovsd (%rax), %xmm0 movq 24160(%rbx), %rax vmovhpd (%rax), %xmm0, %xmm3 movq 13856(%rbx), %rax vmovsd (%rax), %xmm0 movq 13888(%rbx), %rax vmovhpd (%rax), %xmm0, %xmm5 movq 16640(%rbx), %rax vmovsd (%rax), %xmm0 movq 13920(%rbx), %rax vmovhpd (%rax), %xmm0, %xmm7 movq 24192(%rbx), %rax vmovsd (%rax), %xmm0 movq 24224(%rbx), %rax vmovhpd (%rax), %xmm0, %xmm2 movq 24256(%rbx), %rax vmovsd (%rax), %xmm0 movq 24288(%rbx), %rax vmovhpd (%rax), %xmm0, %xmm4 movq 24320(%rbx), %rax vmovsd (%rax), %xmm0 movq 13952(%rbx), %rax vmovhpd (%rax), %xmm0, %xmm6 movq 13984(%rbx), %rax vmovsd (%rax), %xmm0 movq 14016(%rbx), %rax vmovhpd (%rax), %xmm0, %xmm8 movq 31712(%rbx), %rax vmovsd (%rax), %xmm0 movq 31776(%rbx), %rax vmovhpd (%rax), %xmm0, %xmm0 movq 31040(%rbx), %r11 vmovsd (%r11), %xmm1 movq 31648(%rbx), %rdx movq 31584(%rbx), %rsi movq 31552(%rbx), %r8 movq 31744(%rbx), %r15 vmovhpd (%r15), %xmm1, %xmm1 vinsertf128 $1, %xmm0, %ymm1, %ymm15 vmovapd %ymm15, 24320(%rbx) vinsertf128 $1, %xmm5, %ymm7, %ymm0 vmovapd %ymm0, 26688(%rbx) vmovapd %ymm0, %ymm12 vinsertf128 $1, %xmm9, %ymm3, %ymm9 vmovapd %ymm9, 24608(%rbx) movq 32192(%rbx), %rax vmovsd (%rax), %xmm0 movq 32224(%rbx), %rax vmovhpd (%rax), %xmm0, %xmm0 movq 32160(%rbx), %rax vmovsd (%rax), %xmm1 movq 32544(%rbx), %rax vmovhpd (%rax), %xmm1, %xmm1 vinsertf128 $1, %xmm0, %ymm1, %ymm11 vmovapd %ymm11, 24800(%rbx) vinsertf128 $1, %xmm6, %ymm8, %ymm8 vmovapd %ymm8, 26720(%rbx) vinsertf128 $1, %xmm2, %ymm4, %ymm5 vmovapd %ymm5, 26848(%rbx) movq 23680(%rbx), %rax vmovsd (%rax), %xmm0 movq 23648(%rbx), %rax vmovhpd (%rax), %xmm0, %xmm1 movq 22880(%rbx), %rax vmovsd (%rax), %xmm0 movq 23744(%rbx), %rax vmovhpd (%rax), %xmm0, %xmm2 movq 25952(%rbx), %rax vmovsd (%rax), %xmm0 movq 26016(%rbx), %rax vmovhpd (%rax), %xmm0, %xmm4 movq 25920(%rbx), %rax vmovsd (%rax), %xmm0 movq 25984(%rbx), %rax vmovhpd (%rax), %xmm0, %xmm0 movq 23712(%rbx), %rax vmovsd (%rax), %xmm3 movq 22848(%rbx), %rax vmovhpd (%rax), %xmm3, %xmm6 movq 23808(%rbx), %rax vmovsd (%rax), %xmm3 movq 23776(%rbx), %rax vmovhpd (%rax), %xmm3, %xmm7 vmulpd %ymm5, %ymm13, %ymm3 vmovapd %ymm5, %ymm14 vmulpd %ymm8, %ymm3, %ymm3 vmulpd %ymm11, %ymm10, %ymm5 vaddpd %ymm5, %ymm3, %ymm3 vmovapd 32832(%rbx), %ymm10 vmulpd %ymm9, %ymm10, %ymm5 vmulpd %ymm12, %ymm5, %ymm5 vmovapd 32992(%rbx), %ymm8 vmulpd %ymm15, %ymm8, %ymm8 vaddpd %ymm8, %ymm5, %ymm5 vinsertf128 $1, %xmm6, %ymm7, %ymm6 vmovapd %ymm6, 24544(%rbx) vinsertf128 $1, %xmm4, %ymm0, %ymm8 vmovapd %ymm8, 24576(%rbx) vinsertf128 $1, %xmm1, %ymm2, %ymm4 vmovapd %ymm4, 24256(%rbx) movq 25824(%rbx), %rax vmovsd (%rax), %xmm0 movq 25888(%rbx), %rax vmovhpd (%rax), %xmm0, %xmm0 movq 25792(%rbx), %rax vmovsd (%rax), %xmm1 movq 25856(%rbx), %rax vmovhpd (%rax), %xmm1, %xmm1 vinsertf128 $1, %xmm0, %ymm1, %ymm7 vmovapd %ymm7, 26656(%rbx) vmovapd 32800(%rbx), %ymm0 vmulpd %ymm7, %ymm0, %ymm0 vmulpd %ymm4, %ymm0, %ymm0 vaddpd %ymm0, %ymm5, %ymm0 vmovapd 32864(%rbx), %ymm1 vmulpd %ymm8, %ymm1, %ymm1 vmulpd %ymm6, %ymm1, %ymm1 vaddpd %ymm1, %ymm3, %ymm1 vmulpd %ymm8, %ymm13, %ymm2 vmovapd %ymm2, 26784(%rbx) vmovapd %ymm8, %ymm12 vmulpd %ymm2, %ymm11, %ymm2 vsubpd %ymm2, %ymm1, %ymm1 vmulpd 32960(%rbx), %ymm14, %ymm2 vmulpd %ymm6, %ymm2, %ymm2 vsubpd %ymm2, %ymm1, %ymm3 vmulpd %ymm7, %ymm10, %ymm1 vmovapd %ymm10, %ymm8 vmulpd %ymm1, %ymm15, %ymm2 vmovapd %ymm15, %ymm14 vsubpd %ymm2, %ymm0, %ymm0 vmovapd 26624(%rbx), %ymm10 vmulpd %ymm10, %ymm9, %ymm2 vmovapd %ymm9, %ymm11 vmulpd %ymm4, %ymm2, %ymm2 vmovapd %ymm4, %ymm15 vsubpd %ymm2, %ymm0, %ymm0 vmovapd 26688(%rbx), %ymm9 vmulpd 26816(%rbx), %ymm9, %ymm2 vsubpd %ymm2, %ymm0, %ymm4 vmovapd 26720(%rbx), %ymm0 vmulpd 26048(%rbx), %ymm0, %ymm0 vsubpd %ymm0, %ymm3, %ymm5 vmovapd 32928(%rbx), %ymm2 vmulpd %ymm2, %ymm12, %ymm0 vmulpd %ymm0, %ymm2, %ymm3 vmovapd 32896(%rbx), %ymm2 vmulpd %ymm2, %ymm7, %ymm0 vmulpd %ymm0, %ymm2, %ymm0 vmovapd .LCPI1_23(%rip), %ymm2 vaddpd %ymm2, %ymm0, %ymm0 vaddpd %ymm2, %ymm3, %ymm2 vmovapd %ymm2, 26816(%rbx) vmovapd .LCPI1_22(%rip), %ymm2 vmulpd %ymm2, %ymm4, %ymm4 movq 27104(%rbx), %rax vmovlpd %xmm4, (%rax) movq 27072(%rbx), %rax vmovhpd %xmm4, (%rax) vextractf128 $1, %ymm4, %xmm6 movq 26976(%rbx), %rax vmovlpd %xmm6, (%rax) movq 26944(%rbx), %rax vmovhpd %xmm6, (%rax) vmulpd %ymm2, %ymm5, %ymm5 movq 28000(%rbx), %rax vmovlpd %xmm5, (%rax) movq 27968(%rbx), %rax vmovhpd %xmm5, (%rax) vextractf128 $1, %ymm5, %xmm7 movq 27872(%rbx), %rax vmovlpd %xmm7, (%rax) movq 27840(%rbx), %rax vmovhpd %xmm7, (%rax) movq 28064(%rbx), %rax movq %r13, (%rax) movq 28032(%rbx), %rax movq %r13, (%rax) movq 27936(%rbx), %rax movq %r13, (%rax) movq 27904(%rbx), %rax movq %r13, (%rax) movq 28800(%rbx), %rax movq %r13, (%rax) movq 28768(%rbx), %rax movq %r13, (%rax) movq 28544(%rbx), %rax movq %r13, (%rax) movq 28512(%rbx), %rax movq %r13, (%rax) movq 27680(%rbx), %rax movq %r13, (%rax) movq 27648(%rbx), %rax movq %r13, (%rax) movq 27488(%rbx), %rax movq %r13, (%rax) movq 27456(%rbx), %rax movq %r13, (%rax) movq 28608(%rbx), %rax movq %r13, (%rax) movq 28576(%rbx), %rax movq %r13, (%rax) movq 28352(%rbx), %rax movq %r13, (%rax) movq 28320(%rbx), %rax movq %r13, (%rax) movq 27424(%rbx), %rax vmovlpd %xmm4, (%rax) movq 27392(%rbx), %rax vmovhpd %xmm4, (%rax) movq 27232(%rbx), %rax vmovlpd %xmm6, (%rax) movq 27200(%rbx), %rax vmovhpd %xmm6, (%rax) movq 27744(%rbx), %rax vmovlpd %xmm5, (%rax) movq 27712(%rbx), %rax vmovhpd %xmm5, (%rax) movq 27552(%rbx), %rax vmovlpd %xmm7, (%rax) movq 27520(%rbx), %rax vmovhpd %xmm7, (%rax) movq 31808(%rbx), %rax vmovsd (%rax), %xmm3 movq 31872(%rbx), %rax vmovhpd (%rax), %xmm3, %xmm3 movq 31136(%rbx), %rax vmovsd (%rax), %xmm4 movq 31840(%rbx), %rax vmovhpd (%rax), %xmm4, %xmm4 vinsertf128 $1, %xmm3, %ymm4, %ymm12 vmovapd %ymm12, 31840(%rbx) movq 31616(%rbx), %r10 vmovsd (%r10), %xmm3 vmovhpd (%rdx), %xmm3, %xmm3 vmovsd (%r8), %xmm4 vmovhpd (%rsi), %xmm4, %xmm4 vinsertf128 $1, %xmm3, %ymm4, %ymm2 vmovapd %ymm2, 31808(%rbx) vmulpd %ymm2, %ymm1, %ymm1 vmovapd %ymm2, %ymm7 vmulpd %ymm12, %ymm10, %ymm2 vmovapd %ymm15, %ymm10 vmulpd %ymm10, %ymm2, %ymm2 vaddpd %ymm2, %ymm1, %ymm1 movq 23872(%rbx), %rax vmovsd (%rax), %xmm3 movq 23840(%rbx), %rax vmovhpd (%rax), %xmm3, %xmm3 movq 31104(%rbx), %rax vmovsd (%rax), %xmm4 movq 23904(%rbx), %rax vmovhpd (%rax), %xmm4, %xmm4 vinsertf128 $1, %xmm3, %ymm4, %ymm2 vmovapd %ymm2, 31872(%rbx) vmulpd 26752(%rbx), %ymm2, %ymm2 vmovapd %ymm9, %ymm5 vmulpd %ymm5, %ymm2, %ymm2 vaddpd %ymm2, %ymm1, %ymm1 vmovapd 32896(%rbx), %ymm4 vmulpd %ymm11, %ymm4, %ymm2 vmovapd 24864(%rbx), %ymm11 vmulpd %ymm2, %ymm11, %ymm3 vmulpd %ymm12, %ymm4, %ymm2 vmovapd 22720(%rbx), %ymm15 vmulpd %ymm2, %ymm15, %ymm2 vaddpd %ymm3, %ymm2, %ymm6 vmulpd %ymm15, %ymm7, %ymm2 vmulpd %ymm2, %ymm15, %ymm2 vaddpd %ymm2, %ymm0, %ymm0 movq 32288(%rbx), %rax vmovsd (%rax), %xmm3 movq 32320(%rbx), %rax vmovhpd (%rax), %xmm3, %xmm4 vmulpd %ymm12, %ymm8, %ymm2 vmulpd %ymm5, %ymm2, %ymm2 vsubpd %ymm2, %ymm1, %ymm1 vmulpd %ymm11, %ymm11, %ymm2 vaddpd %ymm2, %ymm0, %ymm5 vmulpd %ymm14, %ymm15, %ymm0 vmulpd %ymm0, %ymm11, %ymm0 vaddpd %ymm0, %ymm6, %ymm6 movq 32352(%rbx), %rax vmovsd (%rax), %xmm0 movq 32384(%rbx), %rax vmovhpd (%rax), %xmm0, %xmm3 movq 31680(%rbx), %rdi vmovsd (%rdi), %xmm0 movq 31968(%rbx), %rcx vmovhpd (%rcx), %xmm0, %xmm0 movq 31904(%rbx), %r9 vmovsd (%r9), %xmm2 movq 31936(%rbx), %r13 vmovhpd (%r13), %xmm2, %xmm2 vinsertf128 $1, %xmm0, %ymm2, %ymm8 vmovapd %ymm8, 32384(%rbx) vinsertf128 $1, %xmm3, %ymm4, %ymm0 vmovapd %ymm0, 32352(%rbx) vmovapd .LCPI1_24(%rip), %ymm2 vmovapd %ymm2, %ymm3 vmulpd %ymm3, %ymm6, %ymm2 vmovapd %ymm3, %ymm12 vaddpd %ymm2, %ymm5, %ymm5 vmulpd 32992(%rbx), %ymm7, %ymm2 vsubpd %ymm2, %ymm1, %ymm1 vmovapd 32928(%rbx), %ymm4 vmulpd 26848(%rbx), %ymm4, %ymm2 vmovapd 24832(%rbx), %ymm6 vmulpd %ymm2, %ymm6, %ymm3 vmulpd %ymm0, %ymm4, %ymm2 vmovapd %ymm0, %ymm9 vmovapd 22752(%rbx), %ymm14 vmulpd %ymm2, %ymm14, %ymm2 vaddpd %ymm3, %ymm2, %ymm4 vmulpd %ymm14, %ymm8, %ymm2 vmovapd %ymm8, %ymm13 vmulpd %ymm2, %ymm14, %ymm2 vmovapd 26816(%rbx), %ymm0 vaddpd %ymm2, %ymm0, %ymm2 vmulpd %ymm6, %ymm6, %ymm3 vaddpd %ymm3, %ymm2, %ymm3 vmulpd 24800(%rbx), %ymm14, %ymm2 vmulpd %ymm2, %ymm6, %ymm2 vaddpd %ymm2, %ymm4, %ymm6 vmovapd 26656(%rbx), %ymm0 vmulpd 31872(%rbx), %ymm0, %ymm2 vmulpd %ymm2, %ymm10, %ymm2 vmovapd %ymm10, %ymm7 vsubpd %ymm2, %ymm1, %ymm0 vmovapd %ymm0, 32320(%rbx) vsqrtpd %ymm5, %ymm1 vmovapd .LCPI1_25(%rip), %ymm10 vmulpd %ymm10, %ymm1, %ymm2 vmovapd 12096(%rbx), %ymm8 vdivpd %ymm8, %ymm1, %ymm0 vmovapd %ymm0, 32992(%rbx) vmovapd %ymm0, %ymm11 vmulpd %ymm8, %ymm2, %ymm1 vmulpd %ymm12, %ymm6, %ymm2 vaddpd %ymm2, %ymm3, %ymm3 vmovapd 26784(%rbx), %ymm0 vmulpd %ymm13, %ymm0, %ymm5 vmovapd 32960(%rbx), %ymm0 vmulpd %ymm9, %ymm0, %ymm2 vmovapd 24544(%rbx), %ymm4 vmulpd %ymm4, %ymm2, %ymm2 vaddpd %ymm2, %ymm5, %ymm5 movq 23968(%rbx), %rax vmovsd (%rax), %xmm2 movq 23936(%rbx), %rax vmovhpd (%rax), %xmm2, %xmm6 movq 24032(%rbx), %rax vmovsd (%rax), %xmm2 movq 24000(%rbx), %rax vmovhpd (%rax), %xmm2, %xmm2 vinsertf128 $1, %xmm6, %ymm2, %ymm0 vmovapd %ymm0, 31136(%rbx) vmovapd 24768(%rbx), %ymm12 vmulpd %ymm12, %ymm0, %ymm2 vmovapd 26720(%rbx), %ymm13 vmulpd %ymm13, %ymm2, %ymm2 vaddpd %ymm2, %ymm5, %ymm5 vmovapd 32256(%rbx), %ymm0 vmulpd %ymm9, %ymm0, %ymm2 vmulpd %ymm13, %ymm2, %ymm2 vsubpd %ymm2, %ymm5, %ymm6 vsqrtpd %ymm3, %ymm2 vmulpd %ymm10, %ymm2, %ymm3 vdivpd %ymm8, %ymm2, %ymm2 vmovapd %ymm2, 26784(%rbx) vmovapd %ymm2, %ymm0 vmulpd %ymm8, %ymm3, %ymm3 vmovapd 32896(%rbx), %ymm2 vsubpd %ymm1, %ymm2, %ymm8 vmovapd %ymm8, 26816(%rbx) vmulpd %ymm11, %ymm7, %ymm2 vmovapd %ymm11, %ymm7 vmovapd 26688(%rbx), %ymm5 vmulpd %ymm8, %ymm5, %ymm5 vmovapd %ymm8, %ymm9 vaddpd %ymm5, %ymm2, %ymm2 vmovapd %ymm2, 32288(%rbx) vmovapd 32320(%rbx), %ymm2 vmulpd .LCPI1_22(%rip), %ymm2, %ymm8 movq 27296(%rbx), %rax vmovlpd %xmm8, (%rax) movq 27264(%rbx), %rax vmovhpd %xmm8, (%rax) vmovapd 32928(%rbx), %ymm2 vsubpd %ymm3, %ymm2, %ymm5 vmovapd %ymm5, 26048(%rbx) vmulpd %ymm0, %ymm4, %ymm2 vmovapd %ymm4, %ymm11 vmulpd %ymm5, %ymm13, %ymm4 vmovapd %ymm5, %ymm13 vaddpd %ymm4, %ymm2, %ymm5 vmovapd 32384(%rbx), %ymm4 vmulpd 23584(%rbx), %ymm4, %ymm2 vsubpd %ymm2, %ymm6, %ymm2 vmovapd %ymm2, 32896(%rbx) vsubpd %ymm1, %ymm15, %ymm6 vmovapd %ymm6, 23776(%rbx) vmovapd 31808(%rbx), %ymm2 vmulpd %ymm6, %ymm2, %ymm2 vmovapd %ymm6, %ymm10 vmovapd 32288(%rbx), %ymm6 vaddpd %ymm2, %ymm6, %ymm6 vmovapd 26752(%rbx), %ymm2 vmulpd %ymm7, %ymm2, %ymm2 vmovapd 26656(%rbx), %ymm7 vmulpd %ymm9, %ymm7, %ymm7 vaddpd %ymm7, %ymm2, %ymm7 vmovapd 24864(%rbx), %ymm2 vsubpd %ymm1, %ymm2, %ymm9 vmovapd %ymm9, 24864(%rbx) vextractf128 $1, %ymm8, %xmm1 movq 27040(%rbx), %rax vmovlpd %xmm1, (%rax) movq 27008(%rbx), %rax vmovhpd %xmm1, (%rax) vmovapd %ymm0, %ymm8 vmulpd %ymm8, %ymm12, %ymm1 vmovapd 24576(%rbx), %ymm12 vmulpd %ymm13, %ymm12, %ymm2 vaddpd %ymm2, %ymm1, %ymm1 vmovapd 31840(%rbx), %ymm0 vmulpd %ymm10, %ymm0, %ymm2 vaddpd %ymm2, %ymm7, %ymm7 vmovapd 24320(%rbx), %ymm0 vmulpd %ymm9, %ymm0, %ymm2 vaddpd %ymm2, %ymm6, %ymm15 vmovapd %ymm15, 32928(%rbx) vsubpd %ymm3, %ymm14, %ymm6 vmovapd %ymm6, 23744(%rbx) vmulpd %ymm6, %ymm4, %ymm0 vaddpd %ymm0, %ymm5, %ymm0 vmovapd 24832(%rbx), %ymm2 vsubpd %ymm3, %ymm2, %ymm5 vmovapd %ymm5, 24832(%rbx) vmovapd 31136(%rbx), %ymm14 vmulpd %ymm14, %ymm12, %ymm2 vmulpd %ymm2, %ymm11, %ymm2 vmovapd 32896(%rbx), %ymm3 vsubpd %ymm2, %ymm3, %ymm4 vmovapd 24608(%rbx), %ymm2 vmulpd %ymm9, %ymm2, %ymm2 vmovapd %ymm9, %ymm12 vaddpd %ymm2, %ymm7, %ymm9 vmovapd %ymm9, 32896(%rbx) vmovapd 32352(%rbx), %ymm2 vmulpd %ymm6, %ymm2, %ymm2 vmovapd %ymm6, %ymm7 vaddpd %ymm2, %ymm1, %ymm3 vmulpd .LCPI1_22(%rip), %ymm4, %ymm1 movq 27360(%rbx), %rax vmovlpd %xmm1, (%rax) movq 27328(%rbx), %rax vmovhpd %xmm1, (%rax) vmovapd 26848(%rbx), %ymm2 vmulpd %ymm5, %ymm2, %ymm2 vaddpd %ymm2, %ymm3, %ymm6 vmovapd %ymm6, 32288(%rbx) vmovapd 24800(%rbx), %ymm2 vmulpd %ymm5, %ymm2, %ymm2 vaddpd %ymm2, %ymm0, %ymm5 vmovapd %ymm5, 32320(%rbx) vmovapd 26208(%rbx), %ymm0 vmulpd %ymm15, %ymm0, %ymm0 vmovapd 26080(%rbx), %ymm2 vmulpd %ymm9, %ymm2, %ymm2 vaddpd %ymm0, %ymm2, %ymm15 vmovapd 32256(%rbx), %ymm0 vmulpd %ymm8, %ymm0, %ymm0 vmovapd %ymm8, %ymm3 vmovapd 32960(%rbx), %ymm2 vmulpd %ymm13, %ymm2, %ymm2 vaddpd %ymm2, %ymm0, %ymm4 vmovapd 26240(%rbx), %ymm0 vmulpd %ymm5, %ymm0, %ymm0 vmovapd 26112(%rbx), %ymm2 vmulpd %ymm6, %ymm2, %ymm2 vaddpd %ymm0, %ymm2, %ymm0 vextractf128 $1, %ymm1, %xmm1 movq 27168(%rbx), %rax vmovlpd %xmm1, (%rax) movq 27136(%rbx), %rax vmovhpd %xmm1, (%rax) vmovapd 32992(%rbx), %ymm11 vmovapd 32832(%rbx), %ymm1 vmulpd %ymm11, %ymm1, %ymm1 vmovapd 26624(%rbx), %ymm2 vmovapd 26816(%rbx), %ymm5 vmulpd %ymm5, %ymm2, %ymm2 vaddpd %ymm2, %ymm1, %ymm1 vmovapd %ymm1, 31808(%rbx) vmovapd 23136(%rbx), %ymm2 vmulpd %ymm5, %ymm2, %ymm2 vmovapd %ymm5, %ymm1 vxorpd %ymm8, %ymm8, %ymm8 vmulpd %ymm8, %ymm11, %ymm5 vaddpd %ymm2, %ymm5, %ymm2 vmovapd %ymm10, %ymm9 vmulpd %ymm8, %ymm9, %ymm6 vaddpd %ymm6, %ymm2, %ymm2 vaddpd %ymm12, %ymm2, %ymm2 vmovapd %ymm2, 32384(%rbx) vmovapd 26144(%rbx), %ymm10 vmulpd %ymm2, %ymm10, %ymm2 vaddpd %ymm2, %ymm15, %ymm15 vmovapd %ymm15, 21408(%rbx) vmulpd %ymm7, %ymm14, %ymm2 vaddpd %ymm2, %ymm4, %ymm2 vmovapd %ymm2, 31104(%rbx) vmovapd 23616(%rbx), %ymm2 vmulpd %ymm13, %ymm2, %ymm2 vmovapd %ymm3, %ymm14 vmulpd %ymm8, %ymm14, %ymm4 vaddpd %ymm2, %ymm4, %ymm2 vmulpd %ymm8, %ymm7, %ymm10 vaddpd %ymm10, %ymm2, %ymm2 vmovapd 24832(%rbx), %ymm3 vaddpd %ymm3, %ymm2, %ymm2 vmovapd %ymm2, 24288(%rbx) vmovapd 26176(%rbx), %ymm7 vmulpd %ymm2, %ymm7, %ymm2 vaddpd %ymm2, %ymm0, %ymm7 vmovapd %ymm7, 22400(%rbx) vmovapd %ymm1, %ymm12 vmulpd %ymm8, %ymm12, %ymm0 vaddpd %ymm0, %ymm11, %ymm0 vaddpd %ymm12, %ymm5, %ymm2 vaddpd %ymm6, %ymm2, %ymm1 vmovapd %ymm1, 24128(%rbx) vaddpd %ymm6, %ymm0, %ymm0 vmovapd %ymm0, 24096(%rbx) vmulpd %ymm8, %ymm13, %ymm0 vaddpd %ymm0, %ymm14, %ymm0 vmovapd %ymm14, %ymm8 vaddpd %ymm13, %ymm4, %ymm2 vmovapd %ymm13, %ymm4 vaddpd %ymm10, %ymm2, %ymm1 vmovapd %ymm1, 24320(%rbx) vaddpd %ymm10, %ymm0, %ymm13 vmovapd 31872(%rbx), %ymm0 vmulpd %ymm9, %ymm0, %ymm0 vmovapd 31808(%rbx), %ymm1 vaddpd %ymm0, %ymm1, %ymm6 vmovsd (%r10), %xmm0 vmovhpd (%rdx), %xmm0, %xmm0 vmovsd (%r8), %xmm1 vmovhpd (%rsi), %xmm1, %xmm5 vmovsd (%r9), %xmm1 vmovhpd (%r13), %xmm1, %xmm1 vmovapd %ymm3, %ymm14 vmovapd 32864(%rbx), %ymm2 vmulpd %ymm14, %ymm2, %ymm2 vmovapd 31104(%rbx), %ymm3 vaddpd %ymm2, %ymm3, %ymm2 vmovapd %ymm2, 31808(%rbx) vmovapd 32832(%rbx), %ymm2 vmulpd %ymm15, %ymm2, %ymm9 vmulpd %ymm12, %ymm15, %ymm2 vmovapd %ymm2, 19136(%rbx) vmovapd 26080(%rbx), %ymm3 vaddpd %ymm2, %ymm3, %ymm2 vdivpd %ymm11, %ymm2, %ymm3 vmovapd %ymm3, 32832(%rbx) vmovapd 26624(%rbx), %ymm2 vmulpd %ymm3, %ymm2, %ymm2 vmovapd %ymm3, %ymm10 vaddpd %ymm2, %ymm9, %ymm2 vmovapd %ymm2, 24192(%rbx) vinsertf128 $1, %xmm0, %ymm5, %ymm0 vmovapd %ymm0, 24160(%rbx) movq 31264(%rbx), %rax vmovsd (%rax), %xmm0 movq 31296(%rbx), %rax vmovhpd (%rax), %xmm0, %xmm0 vmovapd %ymm0, 24224(%rbx) vmovapd 32256(%rbx), %ymm0 vmulpd %ymm7, %ymm0, %ymm0 vmulpd %ymm4, %ymm7, %ymm2 vmovapd %ymm2, 19104(%rbx) vmovapd 26112(%rbx), %ymm3 vaddpd %ymm2, %ymm3, %ymm2 vdivpd %ymm8, %ymm2, %ymm3 vmovapd %ymm3, 24800(%rbx) vmovapd 32960(%rbx), %ymm2 vmulpd %ymm3, %ymm2, %ymm2 vmovapd %ymm3, %ymm9 vaddpd %ymm2, %ymm0, %ymm0 vmovapd %ymm0, 31104(%rbx) movq 32000(%rbx), %rax vmovsd (%rax), %xmm0 movq 32032(%rbx), %rax vmovhpd (%rax), %xmm0, %xmm0 vmovapd %ymm0, 32256(%rbx) vmovapd 24864(%rbx), %ymm3 vmovapd 32800(%rbx), %ymm0 vmulpd %ymm3, %ymm0, %ymm0 vaddpd %ymm0, %ymm6, %ymm0 vmovapd %ymm0, 32960(%rbx) vxorpd %ymm4, %ymm4, %ymm4 vmulpd %ymm4, %ymm14, %ymm0 vaddpd %ymm0, %ymm13, %ymm2 vmovapd %ymm2, 26080(%rbx) vmovapd 24320(%rbx), %ymm2 vaddpd %ymm0, %ymm2, %ymm0 vmovapd %ymm0, 24320(%rbx) vmulpd %ymm4, %ymm3, %ymm0 vxorpd %ymm6, %ymm6, %ymm6 vmovapd 24096(%rbx), %ymm2 vaddpd %ymm0, %ymm2, %ymm2 vmovapd %ymm2, 26624(%rbx) vmovapd 24128(%rbx), %ymm2 vaddpd %ymm0, %ymm2, %ymm0 vmovapd %ymm0, 26112(%rbx) movq 14048(%rbx), %rax vmovsd (%rax), %xmm0 movq 14080(%rbx), %rax vmovhpd (%rax), %xmm0, %xmm0 movq 24352(%rbx), %rax vmovsd (%rax), %xmm2 movq 14112(%rbx), %rax vmovhpd (%rax), %xmm2, %xmm2 vinsertf128 $1, %xmm0, %ymm2, %ymm0 movq 14144(%rbx), %rax vmovsd (%rax), %xmm2 movq 14176(%rbx), %rax vmovhpd (%rax), %xmm2, %xmm3 movq 14208(%rbx), %rax vmovsd (%rax), %xmm2 movq 14240(%rbx), %rax vmovhpd (%rax), %xmm2, %xmm2 vinsertf128 $1, %xmm3, %ymm2, %ymm4 vmovsd (%rdi), %xmm2 vmovhpd (%rcx), %xmm2, %xmm5 vmulpd %ymm10, %ymm0, %ymm0 vmulpd %ymm6, %ymm15, %ymm2 vxorpd %ymm8, %ymm8, %ymm8 vaddpd %ymm0, %ymm2, %ymm0 vmovapd %ymm0, 24352(%rbx) vmovapd 24256(%rbx), %ymm0 vmulpd %ymm15, %ymm0, %ymm0 vmovapd 26688(%rbx), %ymm2 vmulpd %ymm10, %ymm2, %ymm2 vaddpd %ymm2, %ymm0, %ymm14 vmovapd 26752(%rbx), %ymm0 vmulpd %ymm15, %ymm0, %ymm0 vmovapd 26656(%rbx), %ymm2 vmulpd %ymm10, %ymm2, %ymm2 vaddpd %ymm2, %ymm0, %ymm11 movq 31200(%rbx), %rax vmovsd (%rax), %xmm0 movq 31232(%rbx), %rax vmovhpd (%rax), %xmm0, %xmm3 movq 31712(%rbx), %rax vmovsd (%rax), %xmm0 movq 31776(%rbx), %rax vmovhpd (%rax), %xmm0, %xmm10 vmovsd (%r11), %xmm0 vmovhpd (%r15), %xmm0, %xmm0 vmulpd %ymm9, %ymm4, %ymm2 vmulpd %ymm8, %ymm7, %ymm4 vxorpd %ymm13, %ymm13, %ymm13 vaddpd %ymm2, %ymm4, %ymm2 vmovapd %ymm2, 26688(%rbx) vmovapd 24544(%rbx), %ymm2 vmulpd %ymm7, %ymm2, %ymm4 vmovapd 26720(%rbx), %ymm2 vmulpd %ymm9, %ymm2, %ymm8 vaddpd %ymm8, %ymm4, %ymm2 vmovapd %ymm2, 26752(%rbx) vmovapd 24768(%rbx), %ymm2 vmulpd %ymm7, %ymm2, %ymm8 vmovapd %ymm7, %ymm6 vmovapd 24576(%rbx), %ymm2 vmulpd %ymm9, %ymm2, %ymm9 vaddpd %ymm9, %ymm8, %ymm12 vinsertf128 $1, %xmm5, %ymm1, %ymm9 movq 32160(%rbx), %rax vmovsd (%rax), %xmm1 movq 32544(%rbx), %rax vmovhpd (%rax), %xmm1, %xmm8 vmulpd 23776(%rbx), %ymm15, %ymm1 vmovapd %ymm15, %ymm7 vmovapd %ymm1, 19072(%rbx) vmovapd 26208(%rbx), %ymm2 vaddpd %ymm1, %ymm2, %ymm1 vmovapd 32992(%rbx), %ymm4 vdivpd %ymm4, %ymm1, %ymm2 vmovapd %ymm2, 24768(%rbx) vmovapd 31840(%rbx), %ymm1 vmulpd %ymm2, %ymm1, %ymm1 vaddpd %ymm1, %ymm11, %ymm1 vmovapd %ymm1, 31840(%rbx) vmovapd 31872(%rbx), %ymm1 vmulpd %ymm2, %ymm1, %ymm5 vmovapd 24192(%rbx), %ymm1 vaddpd %ymm5, %ymm1, %ymm1 vmovapd %ymm1, 26720(%rbx) vmovapd 24160(%rbx), %ymm1 vmulpd %ymm2, %ymm1, %ymm11 vaddpd %ymm11, %ymm14, %ymm1 vmovapd %ymm1, 31872(%rbx) vmulpd %ymm13, %ymm2, %ymm11 vmovapd 24352(%rbx), %ymm1 vaddpd %ymm11, %ymm1, %ymm13 vinsertf128 $1, %xmm10, %ymm0, %ymm10 vmovapd 24224(%rbx), %ymm0 vinsertf128 $1, %xmm3, %ymm0, %ymm0 movq 31168(%rbx), %rax vmovsd (%rax), %xmm3 movq 31072(%rbx), %rax vmovhpd (%rax), %xmm3, %xmm14 movq 32192(%rbx), %rax vmovsd (%rax), %xmm3 movq 32224(%rbx), %rax vmovhpd (%rax), %xmm3, %xmm15 vmovapd %ymm6, %ymm5 vmulpd 23744(%rbx), %ymm5, %ymm3 vmovapd %ymm3, 19040(%rbx) vmovapd 26240(%rbx), %ymm1 vaddpd %ymm3, %ymm1, %ymm3 vmovapd 26784(%rbx), %ymm1 vdivpd %ymm1, %ymm3, %ymm2 vmovapd %ymm2, 22496(%rbx) vmovapd 32352(%rbx), %ymm3 vmulpd %ymm2, %ymm3, %ymm3 vaddpd %ymm3, %ymm12, %ymm3 vmovapd %ymm3, 26656(%rbx) vmovapd 31136(%rbx), %ymm3 vmulpd %ymm2, %ymm3, %ymm6 vmovapd 31104(%rbx), %ymm3 vaddpd %ymm6, %ymm3, %ymm6 vmulpd %ymm2, %ymm9, %ymm9 vmovapd 26752(%rbx), %ymm3 vaddpd %ymm9, %ymm3, %ymm11 vmulpd .LCPI1_88, %ymm2, %ymm9 vmovapd %ymm2, %ymm3 vmovapd 26688(%rbx), %ymm2 vaddpd %ymm9, %ymm2, %ymm2 vinsertf128 $1, %xmm15, %ymm8, %ymm8 vmovapd 32256(%rbx), %ymm9 vinsertf128 $1, %xmm14, %ymm9, %ymm9 vmovapd %ymm7, %ymm15 vmulpd 24864(%rbx), %ymm15, %ymm12 vmovapd %ymm12, 19008(%rbx) vmovapd 26144(%rbx), %ymm7 vaddpd %ymm12, %ymm7, %ymm12 vdivpd %ymm4, %ymm12, %ymm12 vmovapd %ymm12, 23712(%rbx) vmulpd %ymm12, %ymm0, %ymm0 vaddpd %ymm0, %ymm13, %ymm0 vmovapd %ymm0, 32352(%rbx) vmovapd %ymm0, %ymm14 vmulpd %ymm12, %ymm10, %ymm0 vmovapd 31872(%rbx), %ymm4 vaddpd %ymm0, %ymm4, %ymm7 vmovapd %ymm7, 31872(%rbx) vmovapd 32800(%rbx), %ymm0 vmulpd %ymm12, %ymm0, %ymm0 vmovapd 26720(%rbx), %ymm4 vaddpd %ymm0, %ymm4, %ymm0 vmovapd %ymm0, 32256(%rbx) vmovapd %ymm0, %ymm4 vmovapd 24608(%rbx), %ymm0 vmulpd %ymm12, %ymm0, %ymm0 vmovapd %ymm12, %ymm13 vmovapd 31840(%rbx), %ymm10 vaddpd %ymm0, %ymm10, %ymm0 vmovapd %ymm0, 31136(%rbx) vmovapd %ymm0, %ymm12 vmulpd 24832(%rbx), %ymm5, %ymm0 vmovapd %ymm0, 18976(%rbx) vmovapd 26176(%rbx), %ymm5 vaddpd %ymm0, %ymm5, %ymm0 vdivpd %ymm1, %ymm0, %ymm10 vmovapd %ymm10, 22464(%rbx) vmovapd %ymm1, %ymm5 vmulpd %ymm10, %ymm9, %ymm0 vaddpd %ymm0, %ymm2, %ymm9 vmovapd %ymm9, 31840(%rbx) vmulpd %ymm10, %ymm8, %ymm0 vaddpd %ymm0, %ymm11, %ymm8 vmovapd %ymm8, 32800(%rbx) vmovapd 32864(%rbx), %ymm0 vmulpd %ymm10, %ymm0, %ymm0 vaddpd %ymm0, %ymm6, %ymm6 vmovapd %ymm6, 26144(%rbx) vmovapd 26848(%rbx), %ymm0 vmulpd %ymm10, %ymm0, %ymm0 vmovapd %ymm10, %ymm11 vmovapd 26656(%rbx), %ymm1 vaddpd %ymm0, %ymm1, %ymm2 vmovapd %ymm2, 32864(%rbx) vmovapd 32832(%rbx), %ymm0 vmulpd %ymm12, %ymm0, %ymm0 vmovapd %ymm0, 26656(%rbx) vmulpd %ymm4, %ymm15, %ymm1 vmovapd %ymm1, 26688(%rbx) vaddpd %ymm0, %ymm1, %ymm0 vmovapd 24768(%rbx), %ymm1 vmulpd %ymm7, %ymm1, %ymm1 vmovapd %ymm1, 31104(%rbx) vaddpd %ymm1, %ymm0, %ymm0 vmulpd %ymm14, %ymm13, %ymm1 vmovapd %ymm1, 26240(%rbx) vaddpd %ymm1, %ymm0, %ymm1 vmovapd %ymm1, 26752(%rbx) vmovapd .LCPI1_26(%rip), %ymm7 vcmpltpd %ymm7, %ymm1, %ymm0 vmovapd %ymm1, %ymm10 vextractf128 $1, %ymm0, %xmm1 vpshufd $8, %xmm1, %xmm1 vpshufd $8, %xmm0, %xmm0 vmovlhps %xmm1, %xmm0, %xmm4 vmovapd 24800(%rbx), %ymm0 vmulpd %ymm2, %ymm0, %ymm0 vmovapd %ymm0, 24608(%rbx) vmovapd 22400(%rbx), %ymm12 vmulpd %ymm6, %ymm12, %ymm1 vaddpd %ymm0, %ymm1, %ymm0 vmulpd %ymm8, %ymm3, %ymm2 vmovapd %ymm2, 26176(%rbx) vaddpd %ymm2, %ymm0, %ymm0 vmulpd %ymm9, %ymm11, %ymm2 vmovapd %ymm2, 26208(%rbx) vaddpd %ymm2, %ymm0, %ymm0 vcmpltpd %ymm7, %ymm0, %ymm2 vextractf128 $1, %ymm2, %xmm6 vpshufd $8, %xmm6, %xmm6 vpshufd $8, %xmm2, %xmm2 vmovlhps %xmm6, %xmm2, %xmm2 vpshufb .LCPI1_20(%rip), %xmm2, %xmm2 vpshufb .LCPI1_21(%rip), %xmm4, %xmm4 vpor %xmm2, %xmm4, %xmm2 vmovapd 25664(%rbx), %ymm8 vaddpd %ymm0, %ymm8, %ymm4 vaddpd 22688(%rbx), %ymm4, %ymm4 vdivpd %ymm4, %ymm0, %ymm4 vmovapd 22656(%rbx), %ymm9 vmulpd %ymm9, %ymm4, %ymm6 vaddpd %ymm9, %ymm4, %ymm4 vsubpd %ymm6, %ymm4, %ymm4 vmovapd %ymm4, 26848(%rbx) vpsllw $15, %xmm2, %xmm2 vpsraw $15, %xmm2, %xmm4 vpunpckhbw %xmm0, %xmm4, %xmm2 vpslld $31, %xmm2, %xmm6 vpmovsxdq %xmm6, %xmm2 vmovhlps %xmm6, %xmm6, %xmm6 vpmovsxdq %xmm6, %xmm6 vinsertf128 $1, %xmm6, %ymm2, %ymm2 vblendvpd %ymm2, %ymm7, %ymm0, %ymm6 vpunpcklbw %xmm0, %xmm4, %xmm0 vpslld $31, %xmm0, %xmm2 vpmovsxdq %xmm2, %xmm0 vmovhlps %xmm2, %xmm2, %xmm2 vpmovsxdq %xmm2, %xmm2 vinsertf128 $1, %xmm2, %ymm0, %ymm0 vblendvpd %ymm0, %ymm7, %ymm10, %ymm0 vmovapd 24640(%rbx), %ymm4 vaddpd %ymm4, %ymm8, %ymm2 vmovapd .LCPI1_27(%rip), %ymm7 vmulpd %ymm7, %ymm4, %ymm8 vmovapd %ymm8, 18464(%rbx) vaddpd %ymm2, %ymm8, %ymm2 vmovapd .LCPI1_28(%rip), %ymm11 vmulpd %ymm11, %ymm6, %ymm4 vaddpd %ymm4, %ymm8, %ymm8 vaddpd %ymm2, %ymm6, %ymm9 vmulpd %ymm9, %ymm5, %ymm4 vmovapd 31808(%rbx), %ymm5 vmulpd %ymm4, %ymm5, %ymm2 vaddpd %ymm2, %ymm8, %ymm2 vsubpd %ymm1, %ymm2, %ymm1 vmovapd 24672(%rbx), %ymm10 vmovapd 24896(%rbx), %ymm2 vaddpd %ymm10, %ymm2, %ymm2 vmulpd %ymm7, %ymm10, %ymm10 vmovapd %ymm10, 18432(%rbx) vaddpd %ymm2, %ymm10, %ymm2 vmulpd %ymm11, %ymm0, %ymm7 vaddpd %ymm7, %ymm10, %ymm10 vaddpd %ymm2, %ymm0, %ymm7 vmovapd 32992(%rbx), %ymm2 vmulpd %ymm7, %ymm2, %ymm2 vmovapd %ymm2, 26720(%rbx) vmovapd 32960(%rbx), %ymm11 vmulpd %ymm2, %ymm11, %ymm2 vaddpd %ymm2, %ymm10, %ymm2 vsubpd 26688(%rbx), %ymm2, %ymm2 vsqrtpd %ymm0, %ymm3 vmovapd %ymm3, 23680(%rbx) vmulpd 24704(%rbx), %ymm15, %ymm0 vdivpd %ymm3, %ymm0, %ymm0 vmovapd %ymm0, 26688(%rbx) vmulpd %ymm0, %ymm11, %ymm0 vaddpd %ymm0, %ymm2, %ymm0 vmovapd %ymm0, 24128(%rbx) vsqrtpd %ymm6, %ymm2 vmovapd %ymm2, 23648(%rbx) vmovapd %ymm12, %ymm3 vmulpd 24736(%rbx), %ymm3, %ymm0 vdivpd %ymm2, %ymm0, %ymm0 vmovapd %ymm0, 23296(%rbx) vmulpd %ymm0, %ymm5, %ymm0 vaddpd %ymm0, %ymm1, %ymm0 vmovapd %ymm0, 24544(%rbx) vmovapd 32288(%rbx), %ymm12 vmulpd %ymm4, %ymm12, %ymm0 vmulpd .LCPI1_88, %ymm8, %ymm1 vaddpd %ymm0, %ymm1, %ymm0 vmulpd 32864(%rbx), %ymm3, %ymm2 vsubpd %ymm2, %ymm0, %ymm0 vmovapd %ymm0, 24096(%rbx) vmovapd 32320(%rbx), %ymm13 vmulpd %ymm4, %ymm13, %ymm0 vaddpd %ymm0, %ymm1, %ymm0 vmulpd 32800(%rbx), %ymm3, %ymm2 vsubpd %ymm2, %ymm0, %ymm0 vmovapd %ymm0, 23904(%rbx) vmovapd 24832(%rbx), %ymm0 vmulpd %ymm9, %ymm0, %ymm11 vmovapd 26048(%rbx), %ymm0 vmulpd %ymm9, %ymm0, %ymm3 vmovapd 23744(%rbx), %ymm0 vmulpd %ymm9, %ymm0, %ymm0 vmulpd %ymm0, %ymm13, %ymm2 vaddpd %ymm2, %ymm8, %ymm2 vmovapd %ymm2, 24352(%rbx) vmulpd %ymm3, %ymm12, %ymm2 vaddpd %ymm2, %ymm8, %ymm2 vmovapd %ymm2, 24064(%rbx) vmovapd 24288(%rbx), %ymm6 vmulpd %ymm11, %ymm6, %ymm2 vaddpd %ymm2, %ymm8, %ymm2 vmovapd %ymm2, 24576(%rbx) vmulpd %ymm3, %ymm5, %ymm8 vmulpd %ymm3, %ymm13, %ymm14 vmulpd %ymm3, %ymm6, %ymm2 vmulpd %ymm11, %ymm13, %ymm3 vmulpd %ymm11, %ymm5, %ymm9 vmulpd %ymm11, %ymm12, %ymm15 vmovapd %ymm12, %ymm13 vmulpd %ymm4, %ymm6, %ymm11 vmulpd %ymm0, %ymm6, %ymm4 vmulpd %ymm0, %ymm5, %ymm12 vmulpd %ymm0, %ymm13, %ymm0 vaddpd %ymm0, %ymm1, %ymm0 vmovapd %ymm0, 23616(%rbx) vaddpd %ymm2, %ymm1, %ymm0 vmovapd %ymm0, 23488(%rbx) vaddpd %ymm12, %ymm1, %ymm0 vmovapd %ymm0, 23424(%rbx) vaddpd %ymm14, %ymm1, %ymm0 vmovapd %ymm0, 23392(%rbx) vaddpd %ymm8, %ymm1, %ymm0 vmovapd %ymm0, 23328(%rbx) vaddpd %ymm11, %ymm1, %ymm0 vmovapd %ymm0, 24032(%rbx) vaddpd %ymm15, %ymm1, %ymm0 vmovapd %ymm0, 23808(%rbx) vaddpd %ymm4, %ymm1, %ymm0 vmovapd %ymm0, 23552(%rbx) vaddpd %ymm9, %ymm1, %ymm0 vmovapd %ymm0, 23456(%rbx) vaddpd %ymm3, %ymm1, %ymm0 vmovapd %ymm0, 23520(%rbx) vmovapd 24864(%rbx), %ymm0 vmulpd %ymm7, %ymm0, %ymm8 vmovapd %ymm8, 23360(%rbx) vmovapd 32896(%rbx), %ymm3 vmulpd %ymm8, %ymm3, %ymm0 vmulpd .LCPI1_88, %ymm10, %ymm4 vaddpd %ymm0, %ymm4, %ymm0 vmovapd 31136(%rbx), %ymm12 vmovapd 23712(%rbx), %ymm5 vmulpd %ymm12, %ymm5, %ymm1 vsubpd %ymm1, %ymm0, %ymm0 vmovapd %ymm0, 24224(%rbx) vmovapd 32384(%rbx), %ymm2 vmulpd %ymm8, %ymm2, %ymm0 vaddpd %ymm0, %ymm10, %ymm0 vsubpd 26240(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 23968(%rbx) vmovapd 32960(%rbx), %ymm14 vmulpd %ymm8, %ymm14, %ymm0 vaddpd %ymm0, %ymm4, %ymm0 vmovapd 32256(%rbx), %ymm15 vmulpd %ymm15, %ymm5, %ymm1 vsubpd %ymm1, %ymm0, %ymm0 vmovapd %ymm0, 24256(%rbx) vmovapd 23776(%rbx), %ymm0 vmulpd %ymm7, %ymm0, %ymm0 vmulpd %ymm0, %ymm2, %ymm1 vmovapd %ymm2, %ymm13 vaddpd %ymm1, %ymm4, %ymm1 vmovapd 32352(%rbx), %ymm11 vmovapd 24768(%rbx), %ymm5 vmulpd %ymm11, %ymm5, %ymm2 vsubpd %ymm2, %ymm1, %ymm1 vmovapd %ymm1, 24000(%rbx) vmovapd 32928(%rbx), %ymm8 vmulpd %ymm0, %ymm8, %ymm1 vaddpd %ymm1, %ymm10, %ymm1 vsubpd 31104(%rbx), %ymm1, %ymm1 vmovapd %ymm1, 24192(%rbx) vmulpd %ymm0, %ymm3, %ymm1 vmovapd %ymm3, %ymm9 vaddpd %ymm1, %ymm4, %ymm1 vmulpd %ymm12, %ymm5, %ymm2 vsubpd %ymm2, %ymm1, %ymm1 vmovapd %ymm1, 23936(%rbx) vmulpd %ymm0, %ymm14, %ymm0 vaddpd %ymm0, %ymm4, %ymm0 vmulpd %ymm15, %ymm5, %ymm1 vmovapd %ymm15, %ymm3 vsubpd %ymm1, %ymm0, %ymm0 vmovapd %ymm0, 24160(%rbx) vmovapd 26816(%rbx), %ymm0 vmulpd %ymm7, %ymm0, %ymm5 vmovapd %ymm5, 26240(%rbx) vmulpd %ymm5, %ymm13, %ymm0 vaddpd %ymm0, %ymm4, %ymm0 vmovapd 32832(%rbx), %ymm2 vmulpd %ymm11, %ymm2, %ymm1 vsubpd %ymm1, %ymm0, %ymm0 vmovapd %ymm0, 23872(%rbx) vmulpd 24704(%rbx), %ymm3, %ymm0 vdivpd 23680(%rbx), %ymm0, %ymm1 vmovapd %ymm1, 31104(%rbx) vmovapd 32992(%rbx), %ymm0 vmulpd %ymm1, %ymm0, %ymm0 vmovapd 24128(%rbx), %ymm1 vaddpd %ymm0, %ymm1, %ymm0 vmovapd %ymm0, 24128(%rbx) vmulpd %ymm5, %ymm8, %ymm0 vaddpd %ymm0, %ymm4, %ymm0 vmovapd 31872(%rbx), %ymm14 vmulpd %ymm14, %ymm2, %ymm1 vsubpd %ymm1, %ymm0, %ymm0 vmovapd %ymm0, 23840(%rbx) vmulpd %ymm5, %ymm9, %ymm0 vaddpd %ymm0, %ymm10, %ymm0 vmovapd %ymm0, 23584(%rbx) vmovapd 24736(%rbx), %ymm2 vmovapd 24800(%rbx), %ymm5 vmulpd %ymm2, %ymm5, %ymm0 vmovapd 23648(%rbx), %ymm7 vdivpd %ymm7, %ymm0, %ymm0 vmovapd 22496(%rbx), %ymm12 vmulpd %ymm2, %ymm12, %ymm1 vdivpd %ymm7, %ymm1, %ymm3 vmovapd 22464(%rbx), %ymm15 vmulpd %ymm2, %ymm15, %ymm1 vdivpd %ymm7, %ymm1, %ymm1 vmovapd 32288(%rbx), %ymm8 vmovapd 23296(%rbx), %ymm11 vmulpd %ymm11, %ymm8, %ymm9 vmovapd 32320(%rbx), %ymm10 vmulpd %ymm11, %ymm10, %ymm7 vmulpd %ymm11, %ymm6, %ymm11 vmovapd %ymm11, 23040(%rbx) vmulpd %ymm1, %ymm6, %ymm11 vmovapd %ymm11, 22944(%rbx) vmovapd 31808(%rbx), %ymm11 vmulpd %ymm1, %ymm11, %ymm13 vmovapd %ymm13, 23136(%rbx) vmulpd %ymm1, %ymm10, %ymm13 vmovapd %ymm13, 23072(%rbx) vmulpd %ymm1, %ymm8, %ymm1 vmovapd %ymm1, 22976(%rbx) vmulpd %ymm3, %ymm6, %ymm1 vmovapd %ymm1, 23008(%rbx) vmulpd %ymm0, %ymm6, %ymm1 vmovapd %ymm1, 23200(%rbx) vmulpd %ymm3, %ymm10, %ymm1 vmovapd %ymm1, 23168(%rbx) vmulpd %ymm3, %ymm8, %ymm1 vmovapd %ymm1, 23104(%rbx) vmulpd %ymm3, %ymm11, %ymm1 vmovapd %ymm1, 23232(%rbx) vmulpd %ymm0, %ymm11, %ymm1 vmovapd %ymm1, 31808(%rbx) vmulpd %ymm0, %ymm8, %ymm1 vmovapd %ymm1, 23264(%rbx) vmulpd %ymm0, %ymm10, %ymm0 vmovapd %ymm0, 23296(%rbx) vmovapd 23904(%rbx), %ymm0 vaddpd %ymm7, %ymm0, %ymm0 vmovapd %ymm0, 32320(%rbx) vmovapd 24096(%rbx), %ymm0 vaddpd %ymm9, %ymm0, %ymm0 vmovapd %ymm0, 32288(%rbx) vmovapd 26144(%rbx), %ymm3 vmulpd %ymm2, %ymm3, %ymm0 vmovapd 23648(%rbx), %ymm13 vdivpd %ymm13, %ymm0, %ymm1 vmovapd %ymm1, 24288(%rbx) vmovapd 26784(%rbx), %ymm0 vmulpd %ymm1, %ymm0, %ymm1 vmovapd 24544(%rbx), %ymm0 vaddpd %ymm1, %ymm0, %ymm0 vmovapd %ymm0, 24544(%rbx) vmovapd %ymm5, %ymm0 vmulpd %ymm3, %ymm0, %ymm1 vmovapd 23328(%rbx), %ymm2 vsubpd %ymm1, %ymm2, %ymm1 vmovapd %ymm1, 23904(%rbx) vmovapd 32800(%rbx), %ymm2 vmulpd %ymm2, %ymm0, %ymm1 vmovapd 23392(%rbx), %ymm5 vsubpd %ymm1, %ymm5, %ymm1 vmovapd %ymm1, 23392(%rbx) vmovapd 24064(%rbx), %ymm1 vsubpd 24608(%rbx), %ymm1, %ymm1 vmovapd %ymm1, 24064(%rbx) vmovapd %ymm12, %ymm7 vmulpd %ymm3, %ymm7, %ymm1 vmovapd %ymm3, %ymm6 vmovapd 23424(%rbx), %ymm3 vsubpd %ymm1, %ymm3, %ymm1 vmovapd %ymm1, 23424(%rbx) vmovapd 31840(%rbx), %ymm3 vmulpd %ymm3, %ymm0, %ymm1 vmovapd 23488(%rbx), %ymm0 vsubpd %ymm1, %ymm0, %ymm0 vmovapd %ymm0, 23488(%rbx) vmovapd 24352(%rbx), %ymm0 vsubpd 26176(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 24352(%rbx) vmovapd 32864(%rbx), %ymm5 vmulpd %ymm5, %ymm7, %ymm1 vmovapd 23616(%rbx), %ymm0 vsubpd %ymm1, %ymm0, %ymm0 vmovapd %ymm15, %ymm10 vmulpd %ymm6, %ymm10, %ymm1 vmovapd 23456(%rbx), %ymm6 vsubpd %ymm1, %ymm6, %ymm8 vmulpd %ymm3, %ymm7, %ymm1 vmovapd 23552(%rbx), %ymm6 vsubpd %ymm1, %ymm6, %ymm12 vmulpd %ymm2, %ymm10, %ymm1 vmovapd 23520(%rbx), %ymm2 vsubpd %ymm1, %ymm2, %ymm2 vmulpd %ymm5, %ymm10, %ymm1 vmovapd 23808(%rbx), %ymm5 vsubpd %ymm1, %ymm5, %ymm7 vmovapd 22400(%rbx), %ymm1 vmulpd %ymm3, %ymm1, %ymm1 vmovapd 24032(%rbx), %ymm3 vsubpd %ymm1, %ymm3, %ymm11 vmovapd 24576(%rbx), %ymm1 vsubpd 26208(%rbx), %ymm1, %ymm1 vmovapd 32928(%rbx), %ymm10 vmulpd 23360(%rbx), %ymm10, %ymm6 vaddpd %ymm6, %ymm4, %ymm6 vmovapd 23712(%rbx), %ymm3 vmulpd %ymm14, %ymm3, %ymm9 vsubpd %ymm9, %ymm6, %ymm6 vmovapd 24704(%rbx), %ymm5 vmulpd %ymm5, %ymm3, %ymm9 vmovapd 23680(%rbx), %ymm14 vdivpd %ymm14, %ymm9, %ymm9 vmulpd %ymm9, %ymm10, %ymm3 vmovapd %ymm10, %ymm15 vaddpd %ymm3, %ymm6, %ymm3 vmovapd %ymm3, 24576(%rbx) vaddpd 22944(%rbx), %ymm1, %ymm1 vmovapd %ymm1, 23520(%rbx) vmovapd 32384(%rbx), %ymm10 vmulpd %ymm9, %ymm10, %ymm1 vmovapd 23968(%rbx), %ymm3 vaddpd %ymm1, %ymm3, %ymm6 vaddpd 23040(%rbx), %ymm11, %ymm11 vaddpd 22976(%rbx), %ymm7, %ymm1 vmovapd %ymm1, 26208(%rbx) vmovapd 32896(%rbx), %ymm3 vmulpd %ymm9, %ymm3, %ymm1 vmovapd 24224(%rbx), %ymm7 vaddpd %ymm1, %ymm7, %ymm1 vmovapd %ymm1, 23808(%rbx) vaddpd 23072(%rbx), %ymm2, %ymm1 vmovapd %ymm1, 23456(%rbx) vaddpd 23008(%rbx), %ymm12, %ymm1 vmovapd %ymm1, 24608(%rbx) vmovapd 24768(%rbx), %ymm1 vmulpd %ymm5, %ymm1, %ymm1 vmovapd %ymm5, %ymm7 vdivpd %ymm14, %ymm1, %ymm1 vmulpd %ymm1, %ymm10, %ymm2 vmovapd 24000(%rbx), %ymm5 vaddpd %ymm2, %ymm5, %ymm2 vmovapd %ymm2, 26176(%rbx) vaddpd 23136(%rbx), %ymm8, %ymm2 vmovapd %ymm2, 23616(%rbx) vmovapd 32960(%rbx), %ymm5 vmulpd %ymm9, %ymm5, %ymm2 vmovapd 24256(%rbx), %ymm8 vaddpd %ymm2, %ymm8, %ymm2 vmovapd %ymm2, 23360(%rbx) vaddpd 23104(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 24096(%rbx) vmulpd %ymm1, %ymm3, %ymm2 vmovapd 23936(%rbx), %ymm0 vaddpd %ymm2, %ymm0, %ymm0 vmovapd %ymm0, 24256(%rbx) vmovapd 24352(%rbx), %ymm0 vaddpd 23168(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 24032(%rbx) vmovapd %ymm15, %ymm3 vmulpd %ymm1, %ymm3, %ymm2 vmovapd 24192(%rbx), %ymm0 vaddpd %ymm2, %ymm0, %ymm0 vmovapd %ymm0, 23552(%rbx) vmovapd 23488(%rbx), %ymm0 vaddpd 23200(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 24192(%rbx) vmovapd 32832(%rbx), %ymm0 vmulpd %ymm7, %ymm0, %ymm2 vdivpd %ymm14, %ymm2, %ymm15 vmulpd %ymm15, %ymm10, %ymm2 vmovapd 23872(%rbx), %ymm0 vaddpd %ymm2, %ymm0, %ymm0 vmovapd %ymm0, 24000(%rbx) vmovapd 23424(%rbx), %ymm0 vaddpd 23232(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 23936(%rbx) vmulpd %ymm1, %ymm5, %ymm1 vmovapd 24160(%rbx), %ymm0 vaddpd %ymm1, %ymm0, %ymm0 vmovapd %ymm0, 23488(%rbx) vmovapd 24064(%rbx), %ymm0 vaddpd 23264(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 24160(%rbx) vmovapd 23584(%rbx), %ymm0 vsubpd 26656(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 24064(%rbx) vmovapd 23392(%rbx), %ymm0 vaddpd 23296(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 23968(%rbx) vmulpd %ymm15, %ymm3, %ymm2 vmovapd 23840(%rbx), %ymm0 vaddpd %ymm2, %ymm0, %ymm0 vmovapd %ymm0, 23872(%rbx) vmovapd 23904(%rbx), %ymm0 vaddpd 31808(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 24224(%rbx) vmovaps 24544(%rbx), %ymm0 vmovaps %ymm0, 12000(%r14,%r12) vmovaps 24128(%rbx), %ymm0 vmovaps %ymm0, 11968(%r14,%r12) vmovapd 24736(%rbx), %ymm0 vmovapd 32864(%rbx), %ymm1 vmulpd %ymm0, %ymm1, %ymm2 vmovapd %ymm13, %ymm1 vdivpd %ymm1, %ymm2, %ymm5 vmovapd 26784(%rbx), %ymm3 vmulpd %ymm5, %ymm3, %ymm2 vmovapd 32288(%rbx), %ymm8 vaddpd %ymm2, %ymm8, %ymm2 vmovapd %ymm2, 24128(%rbx) vmovapd 32800(%rbx), %ymm2 vmulpd %ymm0, %ymm2, %ymm2 vdivpd %ymm1, %ymm2, %ymm10 vmulpd %ymm10, %ymm3, %ymm2 vmovapd %ymm3, %ymm8 vmovapd 32320(%rbx), %ymm3 vaddpd %ymm2, %ymm3, %ymm2 vmovapd %ymm2, 24352(%rbx) vmovapd 31840(%rbx), %ymm2 vmulpd %ymm0, %ymm2, %ymm2 vdivpd %ymm1, %ymm2, %ymm3 vmulpd %ymm3, %ymm8, %ymm2 vaddpd %ymm2, %ymm11, %ymm0 vmovapd %ymm0, 26144(%rbx) vmovapd %ymm7, %ymm8 vmovapd 32352(%rbx), %ymm0 vmulpd %ymm8, %ymm0, %ymm2 vmovapd %ymm14, %ymm0 vdivpd %ymm0, %ymm2, %ymm14 vmovapd 24864(%rbx), %ymm7 vmulpd %ymm14, %ymm7, %ymm2 vaddpd %ymm2, %ymm6, %ymm2 vmovapd %ymm2, 32864(%rbx) vmovapd 24832(%rbx), %ymm6 vmulpd %ymm3, %ymm6, %ymm2 vmovapd 23520(%rbx), %ymm1 vaddpd %ymm2, %ymm1, %ymm2 vmovapd %ymm2, 32800(%rbx) vmovapd 31872(%rbx), %ymm12 vmulpd %ymm8, %ymm12, %ymm2 vdivpd %ymm0, %ymm2, %ymm13 vmulpd %ymm13, %ymm7, %ymm2 vmovapd 24576(%rbx), %ymm1 vaddpd %ymm2, %ymm1, %ymm2 vmovapd %ymm2, 32320(%rbx) vmulpd %ymm10, %ymm6, %ymm2 vmovapd 23456(%rbx), %ymm1 vaddpd %ymm2, %ymm1, %ymm2 vmovapd %ymm2, 32288(%rbx) vmovapd 31136(%rbx), %ymm9 vmulpd %ymm8, %ymm9, %ymm2 vdivpd %ymm0, %ymm2, %ymm8 vmulpd %ymm8, %ymm7, %ymm2 vmovapd 23808(%rbx), %ymm0 vaddpd %ymm2, %ymm0, %ymm0 vmovapd %ymm0, 31840(%rbx) vmulpd %ymm5, %ymm6, %ymm2 vmovapd 26208(%rbx), %ymm0 vaddpd %ymm2, %ymm0, %ymm0 vmovapd %ymm0, 31808(%rbx) vmovapd 31104(%rbx), %ymm0 vmulpd %ymm0, %ymm7, %ymm2 vmovapd 23360(%rbx), %ymm1 vaddpd %ymm2, %ymm1, %ymm2 vmovapd %ymm2, 26656(%rbx) vmovapd 24288(%rbx), %ymm11 vmulpd %ymm11, %ymm6, %ymm2 vmovapd 23616(%rbx), %ymm1 vaddpd %ymm2, %ymm1, %ymm2 vmovapd %ymm2, 26208(%rbx) vmovapd 23776(%rbx), %ymm6 vmulpd %ymm14, %ymm6, %ymm2 vmovapd 26176(%rbx), %ymm1 vaddpd %ymm2, %ymm1, %ymm2 vmovapd %ymm2, 26176(%rbx) vmovapd 23744(%rbx), %ymm7 vmulpd %ymm3, %ymm7, %ymm2 vmovapd 24608(%rbx), %ymm1 vaddpd %ymm2, %ymm1, %ymm2 vmovapd %ymm2, 24608(%rbx) vmulpd %ymm13, %ymm6, %ymm2 vmovapd 23552(%rbx), %ymm1 vaddpd %ymm2, %ymm1, %ymm2 vmovapd %ymm2, 24576(%rbx) vmulpd %ymm10, %ymm7, %ymm2 vmovapd 24032(%rbx), %ymm1 vaddpd %ymm2, %ymm1, %ymm2 vmovapd %ymm2, 24544(%rbx) vmulpd %ymm8, %ymm6, %ymm2 vmovapd 24256(%rbx), %ymm1 vaddpd %ymm2, %ymm1, %ymm2 vmovapd %ymm2, 24256(%rbx) vmulpd %ymm5, %ymm7, %ymm2 vmovapd 24096(%rbx), %ymm1 vaddpd %ymm2, %ymm1, %ymm2 vmovapd %ymm2, 24096(%rbx) vmulpd %ymm0, %ymm6, %ymm2 vmovapd 23488(%rbx), %ymm0 vaddpd %ymm2, %ymm0, %ymm0 vmovapd %ymm0, 24032(%rbx) vmulpd %ymm11, %ymm7, %ymm1 vmovapd 23936(%rbx), %ymm0 vaddpd %ymm1, %ymm0, %ymm0 vmovapd %ymm0, 23936(%rbx) vmovapd 26816(%rbx), %ymm2 vmulpd %ymm14, %ymm2, %ymm1 vmovapd 24000(%rbx), %ymm0 vaddpd %ymm1, %ymm0, %ymm0 vmovapd %ymm0, 21472(%rbx) vmovapd 26048(%rbx), %ymm6 vmulpd %ymm3, %ymm6, %ymm1 vmovapd 24192(%rbx), %ymm0 vaddpd %ymm1, %ymm0, %ymm0 vmovapd %ymm0, 21536(%rbx) vmulpd %ymm13, %ymm2, %ymm1 vmovapd %ymm2, %ymm7 vmovapd 23872(%rbx), %ymm0 vaddpd %ymm1, %ymm0, %ymm0 vmovapd %ymm0, 21440(%rbx) vmulpd %ymm10, %ymm6, %ymm1 vmovapd 23968(%rbx), %ymm0 vaddpd %ymm1, %ymm0, %ymm0 vmovapd %ymm0, 21504(%rbx) vmovapd 32896(%rbx), %ymm3 vmulpd %ymm15, %ymm3, %ymm1 vmovapd 24064(%rbx), %ymm0 vaddpd %ymm1, %ymm0, %ymm0 vmovapd %ymm0, 24192(%rbx) vmulpd %ymm5, %ymm6, %ymm2 vmovapd 24160(%rbx), %ymm0 vaddpd %ymm2, %ymm0, %ymm0 vmovapd %ymm0, 24160(%rbx) vmovapd 32832(%rbx), %ymm0 vmulpd 32256(%rbx), %ymm0, %ymm2 vmovapd 32960(%rbx), %ymm1 vmulpd 26240(%rbx), %ymm1, %ymm5 vaddpd %ymm5, %ymm4, %ymm5 vsubpd %ymm2, %ymm5, %ymm0 vmovapd %ymm0, 32256(%rbx) vmulpd %ymm11, %ymm6, %ymm0 vmovapd 24224(%rbx), %ymm2 vaddpd %ymm0, %ymm2, %ymm0 vmovapd %ymm0, 26240(%rbx) vmulpd %ymm15, %ymm1, %ymm5 vmovapd 21408(%rbx), %ymm1 vmulpd %ymm9, %ymm1, %ymm15 vmulpd %ymm12, %ymm1, %ymm10 vmulpd 32352(%rbx), %ymm1, %ymm6 vmovaps 24128(%rbx), %ymm0 vmovaps %ymm0, 12064(%r14,%r12) vmovapd 26720(%rbx), %ymm0 vmovapd %ymm3, %ymm1 vmulpd %ymm0, %ymm1, %ymm9 vaddpd %ymm9, %ymm4, %ymm9 vsubpd %ymm15, %ymm9, %ymm9 vmovapd 26688(%rbx), %ymm2 vmulpd %ymm2, %ymm1, %ymm15 vaddpd %ymm15, %ymm9, %ymm9 vmovapd 32992(%rbx), %ymm1 vmulpd %ymm8, %ymm1, %ymm15 vaddpd %ymm15, %ymm9, %ymm9 vmovapd %ymm9, 12032(%r14,%r12) vmovaps 24352(%rbx), %ymm9 vmovaps %ymm9, 12128(%r14,%r12) vmovapd %ymm0, %ymm15 vmovapd 32928(%rbx), %ymm11 vmulpd %ymm15, %ymm11, %ymm9 vmovapd 32384(%rbx), %ymm0 vmulpd %ymm15, %ymm0, %ymm15 vaddpd %ymm15, %ymm4, %ymm15 vaddpd %ymm9, %ymm4, %ymm4 vsubpd %ymm10, %ymm4, %ymm4 vmulpd %ymm2, %ymm11, %ymm9 vaddpd %ymm9, %ymm4, %ymm4 vmulpd %ymm13, %ymm1, %ymm9 vaddpd %ymm9, %ymm4, %ymm4 vmovapd %ymm4, 12096(%r14,%r12) vmovaps 26144(%rbx), %ymm4 vmovaps %ymm4, 12192(%r14,%r12) vsubpd %ymm6, %ymm15, %ymm4 vmulpd %ymm2, %ymm0, %ymm6 vaddpd %ymm6, %ymm4, %ymm4 vmulpd %ymm14, %ymm1, %ymm6 vaddpd %ymm6, %ymm4, %ymm4 vmovapd %ymm4, 12160(%r14,%r12) vmovaps 26240(%rbx), %ymm0 vmovaps %ymm0, 12256(%r14,%r12) vmovapd 32256(%rbx), %ymm0 vaddpd %ymm5, %ymm0, %ymm0 vmulpd 31104(%rbx), %ymm7, %ymm2 vaddpd %ymm2, %ymm0, %ymm0 vmovapd %ymm0, 12224(%r14,%r12) vmovaps 24160(%rbx), %ymm0 vmovaps %ymm0, 12320(%r14,%r12) vmulpd %ymm8, %ymm7, %ymm0 vmovapd 24192(%rbx), %ymm1 vaddpd %ymm0, %ymm1, %ymm0 vmovapd %ymm0, 12288(%r14,%r12) vmovaps 21504(%rbx), %ymm0 vmovaps %ymm0, 12384(%r14,%r12) vmovaps 21440(%rbx), %ymm0 vmovaps %ymm0, 12352(%r14,%r12) vmovaps 21536(%rbx), %ymm0 vmovaps %ymm0, 12448(%r14,%r12) vmovaps 21472(%rbx), %ymm0 vmovaps %ymm0, 12416(%r14,%r12) vmovaps 23936(%rbx), %ymm0 vmovaps %ymm0, 12512(%r14,%r12) vmovaps 24032(%rbx), %ymm0 vmovaps %ymm0, 12480(%r14,%r12) vmovaps 24096(%rbx), %ymm0 vmovaps %ymm0, 12576(%r14,%r12) vmovaps 24256(%rbx), %ymm0 vmovaps %ymm0, 12544(%r14,%r12) vmovaps 24544(%rbx), %ymm0 vmovaps %ymm0, 12640(%r14,%r12) vmovaps 24576(%rbx), %ymm0 vmovaps %ymm0, 12608(%r14,%r12) vmovaps 24608(%rbx), %ymm0 vmovaps %ymm0, 12704(%r14,%r12) vmovaps 26176(%rbx), %ymm0 vmovaps %ymm0, 12672(%r14,%r12) vmovaps 26208(%rbx), %ymm0 vmovaps %ymm0, 12768(%r14,%r12) vmovaps 26656(%rbx), %ymm0 vmovaps %ymm0, 12736(%r14,%r12) vmovaps 31808(%rbx), %ymm0 vmovaps %ymm0, 12832(%r14,%r12) vmovaps 31840(%rbx), %ymm0 vmovaps %ymm0, 12800(%r14,%r12) vmovaps 32288(%rbx), %ymm0 vmovaps %ymm0, 12896(%r14,%r12) vmovaps 32320(%rbx), %ymm0 vmovaps %ymm0, 12864(%r14,%r12) vmovaps 32800(%rbx), %ymm0 vmovaps %ymm0, 12960(%r14,%r12) vmovaps 32864(%rbx), %ymm0 vmovaps %ymm0, 12928(%r14,%r12) vmovapd 13824(%rbx), %ymm0 vmulpd 12192(%r14,%r12), %ymm0, %ymm1 vmovapd %ymm1, 19232(%rbx) vmulpd 12160(%r14,%r12), %ymm0, %ymm1 vmovapd %ymm1, 19264(%rbx) vmulpd 12128(%r14,%r12), %ymm0, %ymm1 vmovapd %ymm1, 19328(%rbx) vmulpd 12096(%r14,%r12), %ymm0, %ymm1 vmovapd %ymm1, 19360(%rbx) vmulpd 12064(%r14,%r12), %ymm0, %ymm1 vmovapd %ymm1, 19168(%rbx) vmulpd 12032(%r14,%r12), %ymm0, %ymm1 vmovapd %ymm1, 19392(%rbx) vmulpd 12000(%r14,%r12), %ymm0, %ymm1 vmovapd %ymm1, 19296(%rbx) vmulpd 11968(%r14,%r12), %ymm0, %ymm1 vmovapd %ymm1, 19200(%rbx) vmulpd 12320(%r14,%r12), %ymm0, %ymm1 vmovapd %ymm1, 19456(%rbx) vmulpd 12288(%r14,%r12), %ymm0, %ymm1 vmovapd %ymm1, 19488(%rbx) vmulpd 12256(%r14,%r12), %ymm0, %ymm1 vmovapd %ymm1, 19520(%rbx) vmulpd 12224(%r14,%r12), %ymm0, %ymm0 vmovapd %ymm0, 19424(%rbx) vmovapd 24896(%rbx), %ymm10 vmovapd %ymm10, %ymm0 vmovaps .LCPI1_30(%rip), %ymm8 vmovaps %ymm8, %ymm1 callq __ocl_svml_e9_pow4 vmovapd %ymm0, %ymm9 vmovapd 25664(%rbx), %ymm0 vmovaps %ymm8, %ymm1 callq __ocl_svml_e9_pow4 vmovapd 24640(%rbx), %ymm1 vmulpd %ymm0, %ymm1, %ymm1 vmovapd 24672(%rbx), %ymm8 vmulpd %ymm9, %ymm8, %ymm0 callq __ocl_svml_e9_log8 vmovapd %ymm0, 18880(%rbx) vmovapd %ymm1, 18848(%rbx) vmulpd .LCPI1_73(%rip), %ymm8, %ymm0 vmulpd .LCPI1_74(%rip), %ymm8, %ymm1 vmovapd %ymm10, %ymm3 vaddpd %ymm1, %ymm3, %ymm2 vdivpd %ymm2, %ymm0, %ymm0 vmovapd 26752(%rbx), %ymm4 vaddpd %ymm4, %ymm3, %ymm2 vaddpd %ymm1, %ymm2, %ymm1 vdivpd %ymm1, %ymm4, %ymm1 vmulpd %ymm0, %ymm1, %ymm2 vaddpd %ymm0, %ymm1, %ymm0 vsubpd %ymm2, %ymm0, %ymm0 vmovapd %ymm0, 32960(%rbx) vmovaps 24704(%rbx), %ymm0 vmovaps .LCPI1_24(%rip), %ymm8 vmovaps %ymm8, %ymm1 callq __ocl_svml_e9_pow4 vmovaps %ymm0, 18752(%rbx) vmovaps 24736(%rbx), %ymm0 vmovaps %ymm8, %ymm1 callq __ocl_svml_e9_pow4 movq 32792(%rbx), %rdi movq 30784(%rbx), %r15 movq 30592(%rbx), %rdx movq 30624(%rbx), %rcx movq 30880(%rbx), %r14 vmovaps %ymm0, 18720(%rbx) movq 21664(%rbx), %rax vxorps %ymm0, %ymm0, %ymm0 vmovaps %ymm0, (%rax) movq 21680(%rbx), %rax vmovaps %ymm0, (%rax) movq 21696(%rbx), %rax vmovaps %ymm0, (%rax) movq 21712(%rbx), %rax vmovaps %ymm0, (%rax) movq 21728(%rbx), %rax vmovaps %ymm0, (%rax) movq 21744(%rbx), %rax vmovaps %ymm0, (%rax) movq 21760(%rbx), %rax vmovaps %ymm0, (%rax) movq 21776(%rbx), %rax vmovaps %ymm0, (%rax) vxorpd %ymm12, %ymm12, %ymm12 movabsq $4607182418800017408, %rax movq %rax, 9672(%rdi,%r12) movq %rax, 9704(%rdi,%r12) movq %rax, 9736(%rdi,%r12) movq %rax, 9768(%rdi,%r12) movq %rax, 9800(%rdi,%r12) movq %rax, 9832(%rdi,%r12) movq %rax, 9864(%rdi,%r12) movq %rax, 9896(%rdi,%r12) movq 30720(%rbx), %rax vmovsd (%rax), %xmm0 movq 30752(%rbx), %rax vmovhpd (%rax), %xmm0, %xmm3 movq 30528(%rbx), %rax vmovsd (%rax), %xmm0 movq 30560(%rbx), %rax vmovhpd (%rax), %xmm0, %xmm4 vmovsd (%rdx), %xmm0 vmovhpd (%rcx), %xmm0, %xmm5 movq 29120(%rbx), %rdx vmovsd (%rdx), %xmm0 movq 29088(%rbx), %rdx vmovhpd (%rdx), %xmm0, %xmm2 movq 29312(%rbx), %rdx vmovsd (%rdx), %xmm0 movq 29280(%rbx), %rdx vmovhpd (%rdx), %xmm0, %xmm8 movq 29056(%rbx), %rdx vmovsd (%rdx), %xmm0 movq 29024(%rbx), %rdx vmovhpd (%rdx), %xmm0, %xmm1 movq 29184(%rbx), %rax vmovsd (%rax), %xmm0 movq 29152(%rbx), %rdx vmovhpd (%rdx), %xmm0, %xmm10 movq 30656(%rbx), %rdx vmovsd (%rdx), %xmm0 movq 30688(%rbx), %rdx vmovhpd (%rdx), %xmm0, %xmm0 movq 28224(%rbx), %rax vmovsd (%rax), %xmm6 movq 28192(%rbx), %rax vmovhpd (%rax), %xmm6, %xmm14 movq 28480(%rbx), %rax vmovsd (%rax), %xmm6 movq 28448(%rbx), %rax vmovhpd (%rax), %xmm6, %xmm13 movq 28416(%rbx), %rax vmovsd (%rax), %xmm6 movq 28384(%rbx), %rax vmovhpd (%rax), %xmm6, %xmm6 movq 28672(%rbx), %rax vmovsd (%rax), %xmm7 movq 28640(%rbx), %rax vmovhpd (%rax), %xmm7, %xmm9 vinsertf128 $1, %xmm1, %ymm10, %ymm1 vinsertf128 $1, %xmm2, %ymm8, %ymm2 vinsertf128 $1, %xmm4, %ymm5, %ymm8 vinsertf128 $1, %xmm0, %ymm3, %ymm15 movq 29248(%rbx), %rdx vmovsd (%rdx), %xmm0 movq 29216(%rbx), %rax vmovhpd (%rax), %xmm0, %xmm0 vmovapd %xmm0, 32384(%rbx) movq 29440(%rbx), %rax vmovsd (%rax), %xmm0 movq 29408(%rbx), %rax vmovhpd (%rax), %xmm0, %xmm5 movq 30304(%rbx), %rdx vmovsd (%rdx), %xmm0 movq 30272(%rbx), %rdx vmovhpd (%rdx), %xmm0, %xmm4 movq 30368(%rbx), %rdx vmovsd (%rdx), %xmm0 movq 30336(%rbx), %rdx vmovhpd (%rdx), %xmm0, %xmm11 movq 30816(%rbx), %rdx vmovsd (%rdx), %xmm0 movq 30976(%rbx), %rdx vmovhpd (%rdx), %xmm0, %xmm0 vmovapd %xmm0, 32896(%rbx) movq 30848(%rbx), %rdx vmovsd (%rdx), %xmm0 movq 31008(%rbx), %rdx vmovhpd (%rdx), %xmm0, %xmm0 vmovapd %ymm0, 32800(%rbx) vmovsd (%r14), %xmm0 movq 30912(%rbx), %rdx vmovhpd (%rdx), %xmm0, %xmm3 vmovsd (%r15), %xmm0 movq 30944(%rbx), %rdx vmovhpd (%rdx), %xmm0, %xmm10 vinsertf128 $1, %xmm6, %ymm9, %ymm9 vinsertf128 $1, %xmm14, %ymm13, %ymm7 movq 27936(%rbx), %rax vmovsd (%rax), %xmm0 movq 27904(%rbx), %rax vmovhpd (%rax), %xmm0, %xmm13 movq 28064(%rbx), %rax vmovsd (%rax), %xmm0 movq 28032(%rbx), %rax vmovhpd (%rax), %xmm0, %xmm0 vmovapd %ymm0, 32288(%rbx) movq 27488(%rbx), %rax vmovsd (%rax), %xmm0 movq 27456(%rbx), %rax vmovhpd (%rax), %xmm0, %xmm0 vmovapd %xmm0, 32256(%rbx) movq 27680(%rbx), %rax vmovsd (%rax), %xmm0 movq 27648(%rbx), %rax vmovhpd (%rax), %xmm0, %xmm0 vmovapd %ymm0, 31104(%rbx) movq 27616(%rbx), %rax vmovsd (%rax), %xmm0 movq 27584(%rbx), %rax vmovhpd (%rax), %xmm0, %xmm0 movq 27808(%rbx), %rax vmovsd (%rax), %xmm6 movq 27776(%rbx), %rax vmovhpd (%rax), %xmm6, %xmm14 vmulpd %ymm12, %ymm15, %ymm6 vaddpd %ymm8, %ymm6, %ymm6 vmovapd %ymm6, 32928(%rbx) vmulpd %ymm12, %ymm8, %ymm6 vaddpd %ymm6, %ymm15, %ymm6 vmovapd %ymm6, 32864(%rbx) vmulpd %ymm12, %ymm2, %ymm6 vaddpd %ymm1, %ymm6, %ymm6 vmovapd %ymm6, 32352(%rbx) vmulpd %ymm12, %ymm1, %ymm1 vaddpd %ymm1, %ymm2, %ymm1 vmovapd %ymm1, 31840(%rbx) vinsertf128 $1, %xmm4, %ymm11, %ymm1 vmovapd %ymm1, 31808(%rbx) vinsertf128 $1, 32384(%rbx), %ymm5, %ymm8 movq 30080(%rbx), %rdx vmovsd (%rdx), %xmm1 movq 30048(%rbx), %rdx vmovhpd (%rdx), %xmm1, %xmm1 vmovapd %xmm1, 31872(%rbx) movq 28160(%rbx), %rdx vmovsd (%rdx), %xmm1 movq 30112(%rbx), %rdx vmovhpd (%rdx), %xmm1, %xmm1 vmovapd %ymm1, 26720(%rbx) movq 28128(%rbx), %rdx vmovsd (%rdx), %xmm1 movq 28096(%rbx), %rdx vmovhpd (%rdx), %xmm1, %xmm4 movq 28288(%rbx), %rdx vmovsd (%rdx), %xmm1 movq 28256(%rbx), %rdx vmovhpd (%rdx), %xmm1, %xmm2 vinsertf128 $1, %xmm3, %ymm10, %ymm5 vmovapd 32800(%rbx), %ymm1 vinsertf128 $1, 32896(%rbx), %ymm1, %ymm6 movq 29696(%rbx), %rdx vmovsd (%rdx), %xmm1 movq 29664(%rbx), %rdx vmovhpd (%rdx), %xmm1, %xmm1 vmovapd %xmm1, 32800(%rbx) movq 29824(%rbx), %rdx vmovsd (%rdx), %xmm1 movq 29792(%rbx), %rdx vmovhpd (%rdx), %xmm1, %xmm1 vmovapd %ymm1, 32384(%rbx) movq 29760(%rbx), %rdx vmovsd (%rdx), %xmm1 movq 29728(%rbx), %rdx vmovhpd (%rdx), %xmm1, %xmm1 vmovapd %xmm1, 31136(%rbx) movq 29952(%rbx), %rdx vmovsd (%rdx), %xmm1 movq 29920(%rbx), %rdx vmovhpd (%rdx), %xmm1, %xmm1 vmovapd %ymm1, 26688(%rbx) movq 30432(%rbx), %rdx vmovsd (%rdx), %xmm1 movq 30400(%rbx), %rdx vmovhpd (%rdx), %xmm1, %xmm15 movq 30496(%rbx), %rdx vmovsd (%rdx), %xmm1 movq 30464(%rbx), %rdx vmovhpd (%rdx), %xmm1, %xmm3 vmulpd %ymm12, %ymm7, %ymm1 vaddpd %ymm1, %ymm9, %ymm1 vmovapd %ymm1, 32896(%rbx) vmulpd %ymm12, %ymm9, %ymm1 vaddpd %ymm7, %ymm1, %ymm7 vinsertf128 $1, %xmm0, %ymm14, %ymm0 vmovapd %ymm0, 32320(%rbx) vmovapd 31104(%rbx), %ymm0 vinsertf128 $1, 32256(%rbx), %ymm0, %ymm11 vmovapd 32288(%rbx), %ymm0 vinsertf128 $1, %xmm13, %ymm0, %ymm13 movq 26976(%rbx), %rax vmovsd (%rax), %xmm0 movq 26944(%rbx), %rax vmovhpd (%rax), %xmm0, %xmm0 vmovapd %xmm0, 32288(%rbx) movq 27104(%rbx), %rax vmovsd (%rax), %xmm0 movq 27072(%rbx), %rax vmovhpd (%rax), %xmm0, %xmm0 vmovapd %ymm0, 31104(%rbx) movq 27232(%rbx), %rax vmovsd (%rax), %xmm0 movq 27200(%rbx), %rax vmovhpd (%rax), %xmm0, %xmm0 vmovapd %xmm0, 26656(%rbx) movq 27424(%rbx), %rax vmovsd (%rax), %xmm0 movq 27392(%rbx), %rax vmovhpd (%rax), %xmm0, %xmm0 vmovapd %ymm0, 26208(%rbx) movq 29504(%rbx), %rdx vmovsd (%rdx), %xmm0 movq 29472(%rbx), %rdx vmovhpd (%rdx), %xmm0, %xmm0 vmovapd %xmm0, 32256(%rbx) movq 29632(%rbx), %rdx vmovsd (%rdx), %xmm0 movq 29600(%rbx), %rdx vmovhpd (%rdx), %xmm0, %xmm0 vmovapd %ymm0, 26752(%rbx) movq 28864(%rbx), %rdx vmovsd (%rdx), %xmm0 movq 28832(%rbx), %rdx vmovhpd (%rdx), %xmm0, %xmm0 vmovapd %xmm0, 26240(%rbx) movq 28992(%rbx), %rdx vmovsd (%rdx), %xmm0 movq 28960(%rbx), %rdx vmovhpd (%rdx), %xmm0, %xmm0 vmovapd %ymm0, 26176(%rbx) movq 30176(%rbx), %rdx vmovsd (%rdx), %xmm0 movq 30144(%rbx), %rdx vmovhpd (%rdx), %xmm0, %xmm10 movq 30240(%rbx), %rdx vmovsd (%rdx), %xmm0 movq 30208(%rbx), %rax vmovhpd (%rax), %xmm0, %xmm9 vmulpd %ymm12, %ymm8, %ymm0 vmovapd 31840(%rbx), %ymm1 vaddpd %ymm0, %ymm1, %ymm1 vmovapd %ymm1, 31840(%rbx) vmovapd 32352(%rbx), %ymm1 vaddpd %ymm0, %ymm1, %ymm0 vmovapd %ymm0, 32352(%rbx) vmovapd 31808(%rbx), %ymm0 vmulpd %ymm12, %ymm0, %ymm0 vmovapd 32864(%rbx), %ymm1 vaddpd %ymm0, %ymm1, %ymm8 vmovapd 32928(%rbx), %ymm1 vaddpd %ymm0, %ymm1, %ymm14 vinsertf128 $1, %xmm4, %ymm2, %ymm0 vmovapd %ymm0, 31808(%rbx) vmovapd 26720(%rbx), %ymm0 vinsertf128 $1, 31872(%rbx), %ymm0, %ymm0 movq 28608(%rbx), %rax vmovsd (%rax), %xmm1 movq 28576(%rbx), %rax vmovhpd (%rax), %xmm1, %xmm1 vmovapd %ymm1, 32928(%rbx) movq 28800(%rbx), %rax vmovsd (%rax), %xmm1 movq 28768(%rbx), %rax vmovhpd (%rax), %xmm1, %xmm1 vmovapd %ymm1, 26720(%rbx) movq 30016(%rbx), %rax vmovsd (%rax), %xmm1 movq 29984(%rbx), %rax vmovhpd (%rax), %xmm1, %xmm1 vmovapd %ymm1, 24672(%rbx) movq 29568(%rbx), %rax vmovsd (%rax), %xmm1 movq 29536(%rbx), %rax vmovhpd (%rax), %xmm1, %xmm1 vmovapd %ymm1, 24640(%rbx) vmulpd %ymm12, %ymm6, %ymm1 vaddpd %ymm5, %ymm1, %ymm1 vmovapd %ymm1, 32864(%rbx) vmulpd %ymm12, %ymm5, %ymm1 vaddpd %ymm1, %ymm6, %ymm1 vmovapd %ymm1, 31872(%rbx) vinsertf128 $1, %xmm15, %ymm3, %ymm1 vmovapd %ymm1, 26144(%rbx) vmovapd 26688(%rbx), %ymm1 vinsertf128 $1, 31136(%rbx), %ymm1, %ymm5 vmovapd 32384(%rbx), %ymm1 vinsertf128 $1, 32800(%rbx), %ymm1, %ymm6 movq 28352(%rbx), %rax vmovsd (%rax), %xmm1 movq 28320(%rbx), %rax vmovhpd (%rax), %xmm1, %xmm1 vmovapd %xmm1, 31136(%rbx) movq 28544(%rbx), %rax vmovsd (%rax), %xmm1 movq 28512(%rbx), %rax vmovhpd (%rax), %xmm1, %xmm1 vmovapd %xmm1, 24608(%rbx) movq 29888(%rbx), %rax vmovsd (%rax), %xmm1 movq 29856(%rbx), %rax vmovhpd (%rax), %xmm1, %xmm3 movq 29376(%rbx), %rax vmovsd (%rax), %xmm1 movq 29344(%rbx), %rax vmovhpd (%rax), %xmm1, %xmm2 vmulpd %ymm12, %ymm13, %ymm1 vaddpd %ymm11, %ymm1, %ymm1 vmovapd %ymm1, 32800(%rbx) vmulpd %ymm12, %ymm11, %ymm1 vaddpd %ymm1, %ymm13, %ymm1 vmovapd %ymm1, 32384(%rbx) vmovapd 32320(%rbx), %ymm1 vmulpd %ymm12, %ymm1, %ymm1 vaddpd %ymm1, %ymm7, %ymm4 vmovapd %ymm4, 32320(%rbx) vmovapd 32896(%rbx), %ymm4 vaddpd %ymm1, %ymm4, %ymm1 vmovapd %ymm1, 32896(%rbx) vmovaps 26208(%rbx), %ymm1 vinsertf128 $1, 26656(%rbx), %ymm1, %ymm1 vmovaps %ymm1, 26688(%rbx) vmovaps 31104(%rbx), %ymm1 vinsertf128 $1, 32288(%rbx), %ymm1, %ymm1 vmovaps %ymm1, 26656(%rbx) movq 27040(%rbx), %rax vmovsd (%rax), %xmm1 movq 27008(%rbx), %rax vmovhpd (%rax), %xmm1, %xmm13 movq 27296(%rbx), %rax vmovsd (%rax), %xmm1 movq 27264(%rbx), %rax vmovhpd (%rax), %xmm1, %xmm7 vinsertf128 $1, %xmm10, %ymm9, %ymm1 vmovapd %ymm1, 32288(%rbx) vmovapd 26176(%rbx), %ymm1 vinsertf128 $1, 26240(%rbx), %ymm1, %ymm15 vmovapd 26752(%rbx), %ymm1 vinsertf128 $1, 32256(%rbx), %ymm1, %ymm10 movq 28736(%rbx), %rax vmovsd (%rax), %xmm1 movq 28704(%rbx), %rax vmovhpd (%rax), %xmm1, %xmm1 vmovapd %xmm1, 31104(%rbx) movq 28928(%rbx), %rdx vmovsd (%rdx), %xmm1 movq 28896(%rbx), %rdx vmovhpd (%rdx), %xmm1, %xmm1 vmulpd %ymm12, %ymm0, %ymm0 vaddpd %ymm0, %ymm14, %ymm14 vaddpd %ymm0, %ymm8, %ymm0 vmovapd %ymm0, 32256(%rbx) vmovapd 31808(%rbx), %ymm0 vmulpd %ymm12, %ymm0, %ymm4 vmovapd 32352(%rbx), %ymm0 vaddpd %ymm4, %ymm0, %ymm0 vmovapd 31840(%rbx), %ymm9 vaddpd %ymm4, %ymm9, %ymm4 vmovapd %ymm4, 31808(%rbx) vmovapd 24640(%rbx), %ymm4 vinsertf128 $1, %xmm2, %ymm4, %ymm9 vmovapd 24672(%rbx), %ymm2 vinsertf128 $1, %xmm3, %ymm2, %ymm2 vmovapd 26720(%rbx), %ymm3 vinsertf128 $1, 24608(%rbx), %ymm3, %ymm11 vmovapd 32928(%rbx), %ymm3 vinsertf128 $1, 31136(%rbx), %ymm3, %ymm3 movq 27552(%rbx), %rax vmovsd (%rax), %xmm4 movq 27520(%rbx), %rax vmovhpd (%rax), %xmm4, %xmm4 vmovapd %xmm4, 31840(%rbx) vmulpd %ymm12, %ymm6, %ymm4 vaddpd %ymm4, %ymm5, %ymm4 vmulpd %ymm12, %ymm5, %ymm5 vaddpd %ymm6, %ymm5, %ymm5 vmovapd %ymm5, 32928(%rbx) vmovapd 26144(%rbx), %ymm5 vmulpd %ymm12, %ymm5, %ymm6 vmovapd 31872(%rbx), %ymm5 vaddpd %ymm6, %ymm5, %ymm5 vmovapd 32864(%rbx), %ymm8 vaddpd %ymm6, %ymm8, %ymm6 vmovapd %ymm6, 32352(%rbx) vinsertf128 $1, %xmm13, %ymm7, %ymm6 vmovapd %ymm6, 31872(%rbx) vmovapd 26656(%rbx), %ymm6 vmulpd %ymm12, %ymm6, %ymm6 vmovapd 32896(%rbx), %ymm7 vaddpd %ymm6, %ymm7, %ymm7 vmovapd %ymm7, 32896(%rbx) vmovapd 32320(%rbx), %ymm7 vaddpd %ymm6, %ymm7, %ymm6 vmovapd %ymm6, 32864(%rbx) vmovapd 26688(%rbx), %ymm6 vmulpd %ymm12, %ymm6, %ymm6 vmovapd 32384(%rbx), %ymm7 vaddpd %ymm6, %ymm7, %ymm7 vmovapd %ymm7, 32384(%rbx) vmovapd 32800(%rbx), %ymm7 vaddpd %ymm6, %ymm7, %ymm8 vmulpd %ymm12, %ymm10, %ymm6 vaddpd %ymm6, %ymm15, %ymm6 vmovapd %ymm6, 32800(%rbx) vmulpd %ymm12, %ymm15, %ymm6 vaddpd %ymm10, %ymm6, %ymm6 vmovapd %ymm6, 32320(%rbx) vinsertf128 $1, 31104(%rbx), %ymm1, %ymm15 vmovapd 32288(%rbx), %ymm1 vmulpd %ymm12, %ymm1, %ymm6 vaddpd %ymm6, %ymm5, %ymm7 vmulpd %ymm12, %ymm2, %ymm5 vaddpd %ymm5, %ymm4, %ymm2 vmulpd %ymm12, %ymm9, %ymm1 vaddpd %ymm1, %ymm2, %ymm2 vmulpd %ymm12, %ymm2, %ymm2 vaddpd %ymm2, %ymm7, %ymm2 vmovapd %ymm2, 32288(%rbx) vmovapd 31808(%rbx), %ymm2 vmulpd %ymm12, %ymm2, %ymm2 vmovapd 32256(%rbx), %ymm4 vaddpd %ymm2, %ymm4, %ymm10 vmulpd %ymm12, %ymm0, %ymm2 vaddpd %ymm2, %ymm14, %ymm4 vmulpd %ymm12, %ymm14, %ymm2 vaddpd %ymm0, %ymm2, %ymm14 vmulpd %ymm12, %ymm3, %ymm0 vaddpd %ymm0, %ymm11, %ymm9 vmulpd %ymm12, %ymm11, %ymm0 vaddpd %ymm3, %ymm0, %ymm3 movq 27744(%rbx), %rdx vmovsd (%rdx), %xmm0 movq 27712(%rbx), %rdx vmovhpd (%rdx), %xmm0, %xmm0 vinsertf128 $1, 31840(%rbx), %ymm0, %ymm11 movq 27872(%rbx), %rax vmovsd (%rax), %xmm0 movq 27840(%rbx), %rcx vmovhpd (%rcx), %xmm0, %xmm0 movq 28000(%rbx), %rdx vmovsd (%rdx), %xmm2 movq 27968(%rbx), %rax vmovhpd (%rax), %xmm2, %xmm2 vinsertf128 $1, %xmm0, %ymm2, %ymm13 vmovapd 32352(%rbx), %ymm0 vaddpd %ymm6, %ymm0, %ymm7 vmovapd 31872(%rbx), %ymm0 vmulpd %ymm12, %ymm0, %ymm0 vaddpd %ymm0, %ymm8, %ymm2 vmovapd %ymm2, 32352(%rbx) vmovapd 32384(%rbx), %ymm2 vaddpd %ymm0, %ymm2, %ymm0 vmovapd %ymm0, 32384(%rbx) vmovapd 32928(%rbx), %ymm0 vaddpd %ymm5, %ymm0, %ymm8 vmulpd %ymm12, %ymm15, %ymm0 vmovapd 32800(%rbx), %ymm2 vaddpd %ymm0, %ymm2, %ymm15 vmovapd 32320(%rbx), %ymm2 vaddpd %ymm0, %ymm2, %ymm6 vmovapd 32864(%rbx), %ymm0 vmulpd %ymm12, %ymm0, %ymm0 vaddpd %ymm0, %ymm14, %ymm5 vaddpd %ymm0, %ymm4, %ymm14 vmovapd 32896(%rbx), %ymm0 vmulpd %ymm12, %ymm0, %ymm0 vaddpd %ymm0, %ymm10, %ymm10 vmulpd %ymm12, %ymm13, %ymm13 vaddpd %ymm13, %ymm15, %ymm0 vmulpd %ymm12, %ymm0, %ymm0 vmovapd 32288(%rbx), %ymm2 vaddpd %ymm0, %ymm2, %ymm4 vmulpd %ymm12, %ymm11, %ymm0 vaddpd %ymm0, %ymm3, %ymm3 vaddpd %ymm0, %ymm9, %ymm9 movq 27168(%rbx), %rax vmovsd (%rax), %xmm0 movq 27136(%rbx), %rax vmovhpd (%rax), %xmm0, %xmm0 movq 27360(%rbx), %rax vmovsd (%rax), %xmm2 movq 27328(%rbx), %rax vmovhpd (%rax), %xmm2, %xmm2 vinsertf128 $1, %xmm0, %ymm2, %ymm0 vmulpd %ymm12, %ymm0, %ymm2 vaddpd %ymm2, %ymm9, %ymm0 vaddpd %ymm2, %ymm3, %ymm9 vaddpd %ymm13, %ymm6, %ymm11 vaddpd %ymm1, %ymm8, %ymm1 vmulpd %ymm12, %ymm0, %ymm0 vaddpd %ymm0, %ymm4, %ymm3 vmovapd 32384(%rbx), %ymm0 vmulpd %ymm12, %ymm0, %ymm0 vaddpd %ymm0, %ymm10, %ymm6 vmovapd 32352(%rbx), %ymm0 vmulpd %ymm12, %ymm0, %ymm0 vaddpd %ymm0, %ymm14, %ymm8 vaddpd %ymm0, %ymm5, %ymm5 vmulpd %ymm12, %ymm7, %ymm0 vaddpd %ymm1, %ymm0, %ymm0 vmulpd %ymm12, %ymm11, %ymm13 vaddpd %ymm13, %ymm0, %ymm0 vmulpd %ymm12, %ymm9, %ymm2 vaddpd %ymm2, %ymm0, %ymm4 vmovapd 24320(%rbx), %ymm10 vmulpd %ymm10, %ymm10, %ymm0 vaddpd %ymm4, %ymm0, %ymm4 vmovapd 26848(%rbx), %ymm11 vmulpd %ymm4, %ymm11, %ymm4 vsubpd %ymm4, %ymm0, %ymm0 vmovapd %ymm0, 32928(%rbx) vmovapd 26080(%rbx), %ymm0 vmulpd %ymm10, %ymm0, %ymm4 vmulpd %ymm0, %ymm0, %ymm0 vaddpd %ymm0, %ymm3, %ymm3 vmulpd %ymm3, %ymm11, %ymm3 vmovapd %ymm11, %ymm9 vsubpd %ymm3, %ymm0, %ymm15 vmovapd %ymm15, 32320(%rbx) vmovapd 26112(%rbx), %ymm3 vmulpd %ymm3, %ymm3, %ymm0 vaddpd %ymm5, %ymm0, %ymm5 vmovapd 32960(%rbx), %ymm14 vmulpd %ymm5, %ymm14, %ymm5 vsubpd %ymm5, %ymm0, %ymm11 vmovapd 26624(%rbx), %ymm0 vmulpd %ymm3, %ymm0, %ymm10 vmulpd %ymm0, %ymm0, %ymm0 vaddpd %ymm10, %ymm8, %ymm5 vaddpd %ymm0, %ymm6, %ymm6 vmulpd %ymm5, %ymm14, %ymm8 vmulpd %ymm6, %ymm14, %ymm5 vsubpd %ymm5, %ymm0, %ymm5 vmovapd %ymm5, 32960(%rbx) vmulpd %ymm12, %ymm1, %ymm0 vaddpd %ymm0, %ymm7, %ymm0 vaddpd %ymm13, %ymm0, %ymm0 vmovapd .LCPI1_75(%rip), %ymm3 vmulpd %ymm3, %ymm5, %ymm1 vmulpd %ymm11, %ymm1, %ymm6 vmulpd %ymm3, %ymm15, %ymm1 vmulpd 32928(%rbx), %ymm1, %ymm1 vsubpd %ymm8, %ymm10, %ymm7 vaddpd %ymm2, %ymm0, %ymm0 vaddpd %ymm4, %ymm0, %ymm0 vmulpd %ymm0, %ymm9, %ymm0 vsubpd %ymm0, %ymm4, %ymm0 vmovapd .LCPI1_24(%rip), %ymm3 vmulpd %ymm3, %ymm0, %ymm0 vmulpd %ymm0, %ymm0, %ymm2 vsubpd %ymm1, %ymm2, %ymm1 vmulpd %ymm3, %ymm7, %ymm2 vmulpd %ymm2, %ymm2, %ymm4 vsubpd %ymm6, %ymm4, %ymm4 vmovdqa 192(%rdi,%r12), %ymm7 vmovdqa .LCPI1_76(%rip), %xmm5 vpaddd %xmm5, %xmm7, %xmm6 vmovdqa 26400(%rbx), %ymm3 vpaddd %xmm3, %xmm6, %xmm3 vmovd %xmm3, %eax movq 26272(%rbx), %rcx vmovupd 33056(%rbx,%rcx,8), %xmm8 vinsertf128 $1, 33072(%rbx,%rcx,8), %ymm8, %ymm13 vmovapd %ymm13, 32288(%rbx) vmovups 33024(%rbx,%rcx,8), %xmm9 vinsertf128 $1, 33040(%rbx,%rcx,8), %ymm9, %ymm3 vmovaps %ymm3, 31840(%rbx) movq 26880(%rbx), %rcx vmovupd 33024(%rbx,%rcx,8), %xmm10 vinsertf128 $1, 33040(%rbx,%rcx,8), %ymm10, %ymm8 vmovapd %ymm8, 32384(%rbx) vextractf128 $1, %ymm7, %xmm3 vpaddd %xmm5, %xmm3, %xmm3 vmovdqa %xmm3, 31872(%rbx) vsqrtpd %ymm4, %ymm4 vmovapd .LCPI1_25(%rip), %ymm3 vxorpd %ymm3, %ymm2, %ymm10 vsubpd %ymm2, %ymm4, %ymm2 vsubpd %ymm4, %ymm10, %ymm4 vsqrtpd %ymm1, %ymm1 vxorpd %ymm3, %ymm0, %ymm10 vsubpd %ymm0, %ymm1, %ymm0 vsubpd %ymm1, %ymm10, %ymm1 movslq %eax, %rax movq %rax, 24032(%rbx) vmovupd 33056(%rbx,%rax,8), %xmm10 vinsertf128 $1, 33072(%rbx,%rax,8), %ymm10, %ymm7 vmovapd %ymm7, 32256(%rbx) vmovupd 33056(%rbx,%rcx,8), %xmm11 vinsertf128 $1, 33072(%rbx,%rcx,8), %ymm11, %ymm9 vmovapd %ymm9, 32352(%rbx) vmovupd 33024(%rbx,%rax,8), %xmm11 vinsertf128 $1, 33040(%rbx,%rax,8), %ymm11, %ymm11 vxorpd %ymm3, %ymm1, %ymm15 vxorpd %ymm3, %ymm0, %ymm14 vxorpd %ymm3, %ymm4, %ymm5 vxorpd %ymm3, %ymm2, %ymm10 vsubpd %ymm13, %ymm9, %ymm0 vmovapd 31840(%rbx), %ymm13 vmovapd .LCPI1_24(%rip), %ymm4 vmulpd %ymm4, %ymm0, %ymm1 vmovapd %ymm1, 32896(%rbx) vsubpd %ymm9, %ymm7, %ymm0 vmulpd %ymm4, %ymm0, %ymm0 vmovapd %ymm0, 32800(%rbx) vmulpd %ymm0, %ymm1, %ymm0 vcmpnlepd %ymm12, %ymm0, %ymm0 vmovapd %ymm0, 32864(%rbx) vextractf128 $1, %ymm0, %xmm1 vpshufd $8, %xmm1, %xmm2 vmovdqa %xmm2, 32928(%rbx) vpshufd $8, %xmm0, %xmm1 vmovlhps %xmm2, %xmm1, %xmm1 vmovapd 32320(%rbx), %ymm0 vmulpd %ymm4, %ymm0, %ymm3 vmovapd 32960(%rbx), %ymm0 vmulpd %ymm4, %ymm0, %ymm2 vmovapd %ymm4, %ymm9 vsubpd %ymm13, %ymm8, %ymm4 vmulpd %ymm9, %ymm4, %ymm0 vsubpd %ymm8, %ymm11, %ymm4 vmulpd %ymm9, %ymm4, %ymm8 vmovapd %ymm8, 32320(%rbx) vinsertf128 $1, 31872(%rbx), %ymm6, %ymm4 vmovaps %ymm4, 32960(%rbx) vdivpd %ymm3, %ymm14, %ymm4 vmovapd %ymm4, 21376(%rbx) vdivpd %ymm3, %ymm15, %ymm3 vmovapd %ymm3, 21344(%rbx) vcmpltpd %ymm4, %ymm3, %ymm3 vextractf128 $1, %ymm3, %xmm4 vpshufd $8, %xmm4, %xmm4 vpshufd $8, %xmm3, %xmm3 vmovlhps %xmm4, %xmm3, %xmm4 vdivpd %ymm2, %ymm10, %ymm3 vmovapd %ymm3, 21312(%rbx) vdivpd %ymm2, %ymm5, %ymm2 vmovapd %ymm2, 21280(%rbx) vcmpltpd %ymm3, %ymm2, %ymm2 vextractf128 $1, %ymm2, %xmm3 vpshufd $8, %xmm3, %xmm3 vpshufd $8, %xmm2, %xmm2 vmovlhps %xmm3, %xmm2, %xmm3 vmovdqa .LCPI1_20(%rip), %xmm5 vpshufb %xmm5, %xmm4, %xmm2 vpshufb %xmm5, %xmm1, %xmm1 vmovdqa %xmm5, %xmm14 vmulpd %ymm8, %ymm0, %ymm4 vmovapd %ymm0, %ymm8 vcmpnlepd %ymm12, %ymm4, %ymm0 vextractf128 $1, %ymm0, %xmm4 vpshufd $8, %xmm4, %xmm7 vpshufd $8, %xmm0, %xmm4 vmovlhps %xmm7, %xmm4, %xmm4 vmovdqa .LCPI1_21(%rip), %xmm5 vpshufb %xmm5, %xmm3, %xmm3 vpshufb %xmm5, %xmm4, %xmm4 vmovdqa %xmm5, %xmm15 vpor %xmm2, %xmm3, %xmm2 vpor %xmm1, %xmm4, %xmm1 vpsllw $15, %xmm2, %xmm2 vpsraw $15, %xmm2, %xmm2 vpunpcklbw %xmm0, %xmm2, %xmm3 vpslld $31, %xmm3, %xmm3 vpsrad $31, %xmm3, %xmm3 vmovdqa %xmm3, 21600(%rbx) vpxor .LCPI1_17(%rip), %xmm1, %xmm1 vpmovsxdq %xmm3, %xmm3 vmovdqa %ymm3, 17824(%rbx) vpunpckhbw %xmm0, %xmm2, %xmm2 vpslld $31, %xmm2, %xmm2 vpsrad $31, %xmm2, %xmm2 vmovdqa %xmm2, 21568(%rbx) vpmovsxdq %xmm2, %xmm2 vmovdqa %ymm2, 17792(%rbx) vpmovzxwd %xmm1, %xmm2 vpslld $31, %xmm2, %xmm2 vpsrad $31, %xmm2, %xmm2 vpunpckhwd %xmm0, %xmm1, %xmm1 vpslld $31, %xmm1, %xmm1 vpsrad $31, %xmm1, %xmm1 vinsertf128 $1, %xmm1, %ymm2, %ymm1 vmovdqa 10592(%rbx), %ymm2 vptest %ymm2, %ymm1 vmovapd 10624(%rbx), %ymm1 vmovapd %ymm1, %ymm2 vmovapd %ymm1, %ymm6 jb .LBB1_3488 vsubpd %ymm13, %ymm11, %ymm1 vmovapd 32256(%rbx), %ymm2 vsubpd 32288(%rbx), %ymm2, %ymm2 vmovapd .LCPI1_28(%rip), %ymm3 vmulpd %ymm3, %ymm2, %ymm2 vmovapd %ymm2, 32256(%rbx) vmulpd %ymm3, %ymm1, %ymm3 vmovapd %ymm3, 32288(%rbx) vmovapd .LCPI1_56(%rip), %ymm6 vandpd %ymm6, %ymm2, %ymm10 vmovapd 32896(%rbx), %ymm1 vandpd %ymm6, %ymm1, %ymm13 vcmpltpd %ymm10, %ymm13, %ymm1 vextractf128 $1, %ymm1, %xmm2 vpshufd $8, %xmm2, %xmm2 vpshufd $8, %xmm1, %xmm1 vandpd %ymm6, %ymm3, %ymm12 vmovlhps %xmm2, %xmm1, %xmm1 vandpd %ymm6, %ymm8, %ymm3 vcmpltpd %ymm12, %ymm3, %ymm2 vextractf128 $1, %ymm2, %xmm4 vpshufd $8, %xmm4, %xmm4 vpshufd $8, %xmm2, %xmm2 vmovlhps %xmm4, %xmm2, %xmm2 vmovapd 32800(%rbx), %ymm9 vandpd %ymm6, %ymm9, %ymm11 vcmpltpd %ymm11, %ymm13, %ymm4 vextractf128 $1, %ymm4, %xmm5 vpshufd $8, %xmm5, %xmm5 vpshufd $8, %xmm4, %xmm4 vmovlhps %xmm5, %xmm4, %xmm4 vmovapd 32320(%rbx), %ymm13 vandpd %ymm6, %ymm13, %ymm5 vcmpltpd %ymm5, %ymm3, %ymm3 vextractf128 $1, %ymm3, %xmm6 vpshufd $8, %xmm6, %xmm6 vpshufd $8, %xmm3, %xmm3 vmovlhps %xmm6, %xmm3, %xmm3 vcmpltpd %ymm12, %ymm5, %ymm5 vpshufb %xmm15, %xmm3, %xmm3 vpshufb %xmm14, %xmm4, %xmm4 vpor %xmm4, %xmm3, %xmm3 vpshufb %xmm15, %xmm2, %xmm2 vpshufb %xmm14, %xmm1, %xmm1 vpor %xmm1, %xmm2, %xmm6 vextractf128 $1, %ymm5, %xmm1 vpshufd $8, %xmm1, %xmm1 vpshufd $8, %xmm5, %xmm2 vmovlhps %xmm1, %xmm2, %xmm1 vpshufd $8, %xmm0, %xmm2 vmovlhps %xmm7, %xmm2, %xmm2 vcmpltpd %ymm10, %ymm11, %ymm4 vpsllw $15, %xmm6, %xmm5 vpsraw $15, %xmm5, %xmm5 vmovdqa .LCPI1_17(%rip), %xmm6 vpxor %xmm6, %xmm5, %xmm5 vpsllw $15, %xmm3, %xmm3 vpsraw $15, %xmm3, %xmm3 vpxor %xmm6, %xmm3, %xmm3 vpor %xmm5, %xmm3, %xmm3 vextractf128 $1, %ymm4, %xmm5 vpshufd $8, %xmm5, %xmm5 vpshufd $8, %xmm4, %xmm4 vmovlhps %xmm5, %xmm4, %xmm5 vpshufb %xmm15, %xmm1, %xmm4 vpshufb %xmm15, %xmm2, %xmm1 vmovdqa 32864(%rbx), %ymm2 vpshufd $8, %xmm2, %xmm2 vmovaps 32928(%rbx), %xmm6 vmovlhps %xmm6, %xmm2, %xmm2 vpshufb %xmm14, %xmm2, %xmm2 vpor %xmm2, %xmm1, %xmm1 vpsllw $15, %xmm1, %xmm1 vpsraw $15, %xmm1, %xmm1 vpand %xmm3, %xmm1, %xmm1 vpshufb %xmm14, %xmm5, %xmm2 vpunpckhbw %xmm0, %xmm1, %xmm3 vpor %xmm2, %xmm4, %xmm2 vpslld $31, %xmm3, %xmm3 vpsllw $15, %xmm2, %xmm2 vpsraw $15, %xmm2, %xmm2 vpmovsxdq %xmm3, %xmm4 vmovhlps %xmm3, %xmm3, %xmm3 vpmovsxdq %xmm3, %xmm3 vinsertf128 $1, %xmm3, %ymm4, %ymm3 vpunpckhbw %xmm0, %xmm2, %xmm4 vpslld $31, %xmm4, %xmm5 vpmovsxdq %xmm5, %xmm4 vmovhlps %xmm5, %xmm5, %xmm5 vpmovsxdq %xmm5, %xmm5 vinsertf128 $1, %xmm5, %ymm4, %ymm4 vpunpcklbw %xmm0, %xmm1, %xmm1 vpslld $31, %xmm1, %xmm5 vpmovsxdq %xmm5, %xmm1 vmovhlps %xmm5, %xmm5, %xmm5 vpmovsxdq %xmm5, %xmm5 vpunpcklbw %xmm0, %xmm2, %xmm2 vmovapd 32256(%rbx), %ymm6 vblendvpd %ymm4, %ymm9, %ymm6, %ymm4 vmovapd 32896(%rbx), %ymm6 vblendvpd %ymm3, %ymm4, %ymm6, %ymm3 vmovapd .LCPI1_77(%rip), %ymm4 vmulpd %ymm4, %ymm3, %ymm6 vinsertf128 $1, %xmm5, %ymm1, %ymm1 vpslld $31, %xmm2, %xmm3 vpmovsxdq %xmm3, %xmm2 vmovhlps %xmm3, %xmm3, %xmm3 vpmovsxdq %xmm3, %xmm3 vinsertf128 $1, %xmm3, %ymm2, %ymm2 vmovapd 32288(%rbx), %ymm3 vblendvpd %ymm2, %ymm13, %ymm3, %ymm2 vblendvpd %ymm1, %ymm2, %ymm8, %ymm1 vmulpd %ymm4, %ymm1, %ymm2 .LBB1_3488: vmovapd %ymm2, 32256(%rbx) vmovapd %ymm6, 32800(%rbx) vmovaps 24512(%rbx), %ymm1 vinsertf128 $1, %xmm1, %ymm1, %ymm1 vmovaps %ymm1, 26080(%rbx) vpshufd $8, %xmm0, %xmm2 vmovdqa 32864(%rbx), %ymm0 vpshufd $8, %xmm0, %xmm0 vmovaps 32928(%rbx), %xmm1 vmovlhps %xmm1, %xmm0, %xmm1 vmovlhps %xmm7, %xmm2, %xmm0 vmovdqa 26368(%rbx), %ymm2 vmovdqa 32960(%rbx), %ymm3 vpaddd %xmm2, %xmm3, %xmm2 vmovd %xmm2, %eax movslq %eax, %rdx movq %rdx, 24288(%rbx) vpshufb %xmm15, %xmm0, %xmm0 vmovdqa %xmm14, %xmm7 vpshufb %xmm7, %xmm1, %xmm5 vmovupd 33056(%rbx,%rdx,8), %xmm4 movq 32064(%rbx), %rax vmovupd 33024(%rbx,%rax,8), %xmm3 movq 26592(%rbx), %rcx vmovupd 33024(%rbx,%rcx,8), %xmm2 vmovupd 33056(%rbx,%rcx,8), %xmm1 vmovupd 33024(%rbx,%rdx,8), %xmm6 vpor %xmm5, %xmm0, %xmm0 vinsertf128 $1, 33040(%rbx,%rdx,8), %ymm6, %ymm9 vinsertf128 $1, 33072(%rbx,%rdx,8), %ymm4, %ymm10 vinsertf128 $1, 33040(%rbx,%rax,8), %ymm3, %ymm3 vmovapd %ymm3, 32320(%rbx) vinsertf128 $1, 33040(%rbx,%rcx,8), %ymm2, %ymm11 vinsertf128 $1, 33072(%rbx,%rcx,8), %ymm1, %ymm12 vmovupd 33056(%rbx,%rax,8), %xmm1 vinsertf128 $1, 33072(%rbx,%rax,8), %ymm1, %ymm4 vmovapd %ymm4, 32288(%rbx) vpsllw $15, %xmm0, %xmm0 vpsraw $15, %xmm0, %xmm6 vpunpcklbw %xmm0, %xmm6, %xmm0 vpslld $31, %xmm0, %xmm0 vmovdqa %xmm0, 26624(%rbx) vpmovsxdq %xmm0, %xmm0 vmovdqa %ymm0, 26752(%rbx) vsubpd %ymm4, %ymm10, %ymm1 vsubpd %ymm3, %ymm9, %ymm0 vsubpd %ymm11, %ymm3, %ymm2 vsubpd %ymm12, %ymm4, %ymm3 vmovapd .LCPI1_24(%rip), %ymm4 vmulpd %ymm4, %ymm3, %ymm3 vmulpd %ymm4, %ymm1, %ymm14 vmulpd %ymm4, %ymm2, %ymm5 vmulpd %ymm4, %ymm0, %ymm2 vmovapd %ymm2, 31872(%rbx) vmulpd %ymm14, %ymm3, %ymm0 vmovapd %ymm3, %ymm4 vxorpd %ymm3, %ymm3, %ymm3 vcmpnlepd %ymm3, %ymm0, %ymm8 vmovapd %ymm8, 32864(%rbx) vextractf128 $1, %ymm8, %xmm0 vpshufd $8, %xmm0, %xmm1 vmovdqa %xmm1, 32928(%rbx) vpshufd $8, %xmm8, %xmm0 vmovlhps %xmm1, %xmm0, %xmm0 vpshufb %xmm7, %xmm0, %xmm0 vmovdqa %xmm7, %xmm8 vmulpd %ymm2, %ymm5, %ymm1 vcmpnlepd %ymm3, %ymm1, %ymm7 vextractf128 $1, %ymm7, %xmm1 vpshufd $8, %xmm1, %xmm2 vmovdqa %xmm2, 32896(%rbx) vpshufd $8, %xmm7, %xmm1 vmovlhps %xmm2, %xmm1, %xmm1 vpshufb %xmm15, %xmm1, %xmm1 vmovdqa %xmm15, %xmm13 vpor %xmm0, %xmm1, %xmm0 vpunpckhbw %xmm0, %xmm6, %xmm1 vpslld $31, %xmm1, %xmm1 vmovdqa %xmm1, 26176(%rbx) vpxor .LCPI1_17(%rip), %xmm0, %xmm0 vpmovsxdq %xmm1, %xmm1 vmovdqa %ymm1, 26720(%rbx) vpmovzxwd %xmm0, %xmm1 vpslld $31, %xmm1, %xmm1 vpsrad $31, %xmm1, %xmm3 vpunpckhwd %xmm0, %xmm0, %xmm0 vpslld $31, %xmm0, %xmm0 vpsrad $31, %xmm0, %xmm0 vinsertf128 $1, %xmm0, %ymm3, %ymm0 vmovdqa 10560(%rbx), %ymm1 vptest %ymm1, %ymm0 vmovapd 10528(%rbx), %ymm0 vmovapd %ymm0, %ymm1 vmovapd %ymm0, %ymm2 jb .LBB1_3490 vsubpd %ymm12, %ymm10, %ymm0 vsubpd %ymm11, %ymm9, %ymm1 vmovapd .LCPI1_28(%rip), %ymm3 vmulpd %ymm3, %ymm0, %ymm0 vmovapd %ymm0, 31136(%rbx) vmulpd %ymm3, %ymm1, %ymm2 vmovapd %ymm2, 31840(%rbx) vmovapd .LCPI1_56(%rip), %ymm9 vandpd %ymm9, %ymm0, %ymm6 vmovapd %ymm4, 31104(%rbx) vandpd %ymm9, %ymm4, %ymm15 vcmpltpd %ymm6, %ymm15, %ymm0 vextractf128 $1, %ymm0, %xmm1 vpshufd $8, %xmm1, %xmm3 vpshufd $8, %xmm0, %xmm0 vandpd %ymm9, %ymm2, %ymm12 vmovlhps %xmm3, %xmm0, %xmm3 vandpd %ymm9, %ymm5, %ymm4 vcmpltpd %ymm12, %ymm4, %ymm0 vextractf128 $1, %ymm0, %xmm1 vmovapd %ymm5, 31808(%rbx) vpshufd $8, %xmm1, %xmm5 vpshufd $8, %xmm0, %xmm0 vmovlhps %xmm5, %xmm0, %xmm0 vandpd %ymm9, %ymm14, %ymm11 vcmpltpd %ymm11, %ymm15, %ymm5 vextractf128 $1, %ymm5, %xmm1 vpshufd $8, %xmm1, %xmm1 vpshufd $8, %xmm5, %xmm5 vmovlhps %xmm1, %xmm5, %xmm5 vmovapd 31872(%rbx), %ymm10 vandpd %ymm9, %ymm10, %ymm15 vcmpltpd %ymm15, %ymm4, %ymm4 vextractf128 $1, %ymm4, %xmm1 vpshufd $8, %xmm1, %xmm1 vpshufd $8, %xmm4, %xmm4 vmovlhps %xmm1, %xmm4, %xmm1 vcmpltpd %ymm12, %ymm15, %ymm12 vpshufb %xmm13, %xmm1, %xmm1 vpshufb %xmm8, %xmm5, %xmm4 vpor %xmm4, %xmm1, %xmm4 vpshufb %xmm13, %xmm0, %xmm0 vpshufb %xmm8, %xmm3, %xmm1 vpor %xmm1, %xmm0, %xmm5 vextractf128 $1, %ymm12, %xmm0 vpshufd $8, %xmm0, %xmm0 vpshufd $8, %xmm12, %xmm1 vmovlhps %xmm0, %xmm1, %xmm0 vpshufd $8, %xmm7, %xmm1 vmovaps 32896(%rbx), %xmm2 vmovlhps %xmm2, %xmm1, %xmm3 vcmpltpd %ymm6, %ymm11, %ymm6 vpsllw $15, %xmm5, %xmm1 vpsraw $15, %xmm1, %xmm1 vmovdqa .LCPI1_17(%rip), %xmm2 vpxor %xmm2, %xmm1, %xmm5 vpsllw $15, %xmm4, %xmm1 vpsraw $15, %xmm1, %xmm1 vpxor %xmm2, %xmm1, %xmm1 vpor %xmm5, %xmm1, %xmm4 vextractf128 $1, %ymm6, %xmm1 vpshufd $8, %xmm1, %xmm1 vpshufd $8, %xmm6, %xmm5 vmovlhps %xmm1, %xmm5, %xmm5 vpshufb %xmm13, %xmm0, %xmm6 vpshufb %xmm13, %xmm3, %xmm0 vmovdqa 32864(%rbx), %ymm1 vpshufd $8, %xmm1, %xmm1 vmovaps 32928(%rbx), %xmm2 vmovlhps %xmm2, %xmm1, %xmm1 vpshufb %xmm8, %xmm1, %xmm1 vpor %xmm1, %xmm0, %xmm0 vpsllw $15, %xmm0, %xmm0 vpsraw $15, %xmm0, %xmm0 vpand %xmm4, %xmm0, %xmm0 vpshufb %xmm8, %xmm5, %xmm1 vpunpckhbw %xmm0, %xmm0, %xmm3 vpor %xmm1, %xmm6, %xmm1 vpslld $31, %xmm3, %xmm4 vpsllw $15, %xmm1, %xmm1 vpsraw $15, %xmm1, %xmm3 vpmovsxdq %xmm4, %xmm5 vmovhlps %xmm4, %xmm4, %xmm1 vpmovsxdq %xmm1, %xmm1 vinsertf128 $1, %xmm1, %ymm5, %ymm4 vpunpckhbw %xmm0, %xmm3, %xmm1 vpslld $31, %xmm1, %xmm1 vpmovsxdq %xmm1, %xmm5 vmovhlps %xmm1, %xmm1, %xmm1 vpmovsxdq %xmm1, %xmm1 vinsertf128 $1, %xmm1, %ymm5, %ymm5 vpunpcklbw %xmm0, %xmm0, %xmm0 vpslld $31, %xmm0, %xmm1 vpmovsxdq %xmm1, %xmm0 vmovhlps %xmm1, %xmm1, %xmm1 vpmovsxdq %xmm1, %xmm6 vpunpcklbw %xmm0, %xmm3, %xmm3 vmovapd 31136(%rbx), %ymm1 vblendvpd %ymm5, %ymm14, %ymm1, %ymm1 vmovapd 31104(%rbx), %ymm2 vblendvpd %ymm4, %ymm1, %ymm2, %ymm1 vmovapd .LCPI1_77(%rip), %ymm4 vmulpd %ymm4, %ymm1, %ymm2 vinsertf128 $1, %xmm6, %ymm0, %ymm0 vpslld $31, %xmm3, %xmm3 vpmovsxdq %xmm3, %xmm1 vmovhlps %xmm3, %xmm3, %xmm3 vpmovsxdq %xmm3, %xmm3 vinsertf128 $1, %xmm3, %ymm1, %ymm1 vmovapd 31840(%rbx), %ymm3 vblendvpd %ymm1, %ymm10, %ymm3, %ymm1 vmovapd 31808(%rbx), %ymm3 vblendvpd %ymm0, %ymm1, %ymm3, %ymm0 vmulpd %ymm4, %ymm0, %ymm1 .LBB1_3490: vmovapd %ymm1, 31136(%rbx) vmovapd %ymm2, 31808(%rbx) vmovaps 24480(%rbx), %ymm0 vinsertf128 $1, %xmm0, %ymm0, %ymm0 vmovaps %ymm0, 24320(%rbx) vpshufd $8, %xmm7, %xmm0 vmovdqa 32864(%rbx), %ymm1 vpshufd $8, %xmm1, %xmm1 vmovaps 32928(%rbx), %xmm2 vmovlhps %xmm2, %xmm1, %xmm1 vmovaps 32896(%rbx), %xmm2 vmovlhps %xmm2, %xmm0, %xmm0 vmovdqa 26080(%rbx), %ymm2 vmovdqa 32960(%rbx), %ymm3 vpaddd %xmm2, %xmm3, %xmm2 vmovd %xmm2, %eax movslq %eax, %rdx movq %rdx, 24256(%rbx) vmovdqa %xmm13, %xmm7 vpshufb %xmm7, %xmm0, %xmm0 vpshufb %xmm8, %xmm1, %xmm5 vmovupd 33056(%rbx,%rdx,8), %xmm4 movq 32096(%rbx), %rax vmovupd 33024(%rbx,%rax,8), %xmm3 movq 26560(%rbx), %rcx vmovupd 33024(%rbx,%rcx,8), %xmm2 vmovupd 33056(%rbx,%rcx,8), %xmm1 vmovupd 33024(%rbx,%rdx,8), %xmm6 vpor %xmm5, %xmm0, %xmm0 vinsertf128 $1, 33040(%rbx,%rdx,8), %ymm6, %ymm11 vinsertf128 $1, 33072(%rbx,%rdx,8), %ymm4, %ymm13 vinsertf128 $1, 33040(%rbx,%rax,8), %ymm3, %ymm3 vmovapd %ymm3, 31872(%rbx) vinsertf128 $1, 33040(%rbx,%rcx,8), %ymm2, %ymm14 vinsertf128 $1, 33072(%rbx,%rcx,8), %ymm1, %ymm12 vmovupd 33056(%rbx,%rax,8), %xmm1 vinsertf128 $1, 33072(%rbx,%rax,8), %ymm1, %ymm5 vmovapd %ymm5, 31840(%rbx) vpsllw $15, %xmm0, %xmm0 vpsraw $15, %xmm0, %xmm4 vpunpcklbw %xmm0, %xmm4, %xmm0 vpslld $31, %xmm0, %xmm0 vmovdqa %xmm0, 26144(%rbx) vpmovsxdq %xmm0, %xmm0 vmovdqa %ymm0, 26240(%rbx) vsubpd %ymm5, %ymm13, %ymm1 vsubpd %ymm3, %ymm11, %ymm0 vsubpd %ymm14, %ymm3, %ymm2 vsubpd %ymm12, %ymm5, %ymm3 vmovapd .LCPI1_24(%rip), %ymm5 vmulpd %ymm5, %ymm3, %ymm10 vmulpd %ymm5, %ymm1, %ymm3 vmovapd %ymm3, 31104(%rbx) vmulpd %ymm5, %ymm2, %ymm9 vmulpd %ymm5, %ymm0, %ymm1 vmovapd %ymm1, 32864(%rbx) vmulpd %ymm3, %ymm10, %ymm0 vxorpd %ymm5, %ymm5, %ymm5 vcmpnlepd %ymm5, %ymm0, %ymm15 vextractf128 $1, %ymm15, %xmm0 vpshufd $8, %xmm0, %xmm2 vpshufd $8, %xmm15, %xmm0 vmovlhps %xmm2, %xmm0, %xmm0 vpshufb %xmm8, %xmm0, %xmm0 vmulpd %ymm1, %ymm9, %ymm3 vcmpnlepd %ymm5, %ymm3, %ymm5 vmovapd %ymm5, 32896(%rbx) vextractf128 $1, %ymm5, %xmm3 vpshufd $8, %xmm3, %xmm1 vmovdqa %xmm1, 32928(%rbx) vpshufd $8, %xmm5, %xmm3 vmovlhps %xmm1, %xmm3, %xmm3 vpshufb %xmm7, %xmm3, %xmm3 vmovdqa %xmm7, %xmm8 vpor %xmm0, %xmm3, %xmm0 vpunpckhbw %xmm0, %xmm4, %xmm3 vpslld $31, %xmm3, %xmm3 vmovdqa %xmm3, 24672(%rbx) vpxor .LCPI1_17(%rip), %xmm0, %xmm0 vpmovsxdq %xmm3, %xmm3 vmovdqa %ymm3, 26208(%rbx) vpmovzxwd %xmm0, %xmm3 vpslld $31, %xmm3, %xmm3 vpsrad $31, %xmm3, %xmm3 vpunpckhwd %xmm0, %xmm0, %xmm0 vpslld $31, %xmm0, %xmm0 vpsrad $31, %xmm0, %xmm0 vinsertf128 $1, %xmm0, %ymm3, %ymm0 vmovdqa 10496(%rbx), %ymm3 vptest %ymm3, %ymm0 vmovapd 10464(%rbx), %ymm0 vmovapd %ymm0, %ymm3 vmovapd %ymm0, %ymm7 movq 25792(%rbx), %r11 movq 25536(%rbx), %r8 movq 25472(%rbx), %r14 movq 25408(%rbx), %r13 movq 25136(%rbx), %r10 movq 25120(%rbx), %r15 jb .LBB1_3492 vsubpd %ymm12, %ymm13, %ymm0 vsubpd %ymm14, %ymm11, %ymm3 vmovapd .LCPI1_28(%rip), %ymm4 vmulpd %ymm4, %ymm0, %ymm0 vmovapd %ymm0, 26656(%rbx) vmulpd %ymm4, %ymm3, %ymm4 vmovapd %ymm4, 26848(%rbx) vmovapd .LCPI1_56(%rip), %ymm11 vandpd %ymm11, %ymm0, %ymm6 vmovdqa %ymm15, %ymm1 vmovapd %ymm10, 26112(%rbx) vandpd %ymm11, %ymm10, %ymm15 vcmpltpd %ymm6, %ymm15, %ymm0 vextractf128 $1, %ymm0, %xmm3 vpshufd $8, %xmm3, %xmm3 vpshufd $8, %xmm0, %xmm0 vandpd %ymm11, %ymm4, %ymm14 vmovlhps %xmm3, %xmm0, %xmm3 vmovapd %ymm9, 26688(%rbx) vandpd %ymm11, %ymm9, %ymm5 vcmpltpd %ymm14, %ymm5, %ymm0 vextractf128 $1, %ymm0, %xmm4 vpshufd $8, %xmm4, %xmm4 vpshufd $8, %xmm0, %xmm0 vmovlhps %xmm4, %xmm0, %xmm4 vmovapd 31104(%rbx), %ymm13 vandpd %ymm11, %ymm13, %ymm12 vcmpltpd %ymm12, %ymm15, %ymm0 vextractf128 $1, %ymm0, %xmm7 vpshufd $8, %xmm7, %xmm7 vpshufd $8, %xmm0, %xmm0 vmovlhps %xmm7, %xmm0, %xmm0 vmovapd 32864(%rbx), %ymm9 vandpd %ymm11, %ymm9, %ymm15 vcmpltpd %ymm15, %ymm5, %ymm5 vextractf128 $1, %ymm5, %xmm7 vpshufd $8, %xmm7, %xmm7 vpshufd $8, %xmm5, %xmm5 vmovlhps %xmm7, %xmm5, %xmm5 vcmpltpd %ymm14, %ymm15, %ymm14 vmovdqa %ymm1, %ymm15 vpshufb %xmm8, %xmm5, %xmm5 vmovdqa .LCPI1_20(%rip), %xmm10 vpshufb %xmm10, %xmm0, %xmm0 vpor %xmm0, %xmm5, %xmm5 vpshufb %xmm8, %xmm4, %xmm0 vpshufb %xmm10, %xmm3, %xmm3 vpor %xmm3, %xmm0, %xmm0 vextractf128 $1, %ymm14, %xmm3 vpshufd $8, %xmm3, %xmm3 vpshufd $8, %xmm14, %xmm4 vmovlhps %xmm3, %xmm4, %xmm3 vmovdqa 32896(%rbx), %ymm1 vpshufd $8, %xmm1, %xmm4 vmovaps 32928(%rbx), %xmm1 vmovlhps %xmm1, %xmm4, %xmm4 vcmpltpd %ymm6, %ymm12, %ymm6 vpsllw $15, %xmm0, %xmm0 vpsraw $15, %xmm0, %xmm0 vmovdqa .LCPI1_17(%rip), %xmm7 vpxor %xmm7, %xmm0, %xmm0 vpsllw $15, %xmm5, %xmm5 vpsraw $15, %xmm5, %xmm5 vpxor %xmm7, %xmm5, %xmm5 vpor %xmm0, %xmm5, %xmm5 vextractf128 $1, %ymm6, %xmm0 vpshufd $8, %xmm0, %xmm0 vpshufd $8, %xmm6, %xmm6 vmovlhps %xmm0, %xmm6, %xmm0 vpshufb %xmm8, %xmm3, %xmm6 vpshufb %xmm8, %xmm4, %xmm3 vpshufd $8, %xmm15, %xmm4 vmovlhps %xmm2, %xmm4, %xmm4 vpshufb %xmm10, %xmm4, %xmm4 vpor %xmm4, %xmm3, %xmm3 vpsllw $15, %xmm3, %xmm3 vpsraw $15, %xmm3, %xmm3 vpand %xmm5, %xmm3, %xmm3 vpshufb %xmm10, %xmm0, %xmm0 vpunpckhbw %xmm0, %xmm3, %xmm4 vpor %xmm0, %xmm6, %xmm5 vpslld $31, %xmm4, %xmm0 vpsllw $15, %xmm5, %xmm4 vpsraw $15, %xmm4, %xmm4 vpmovsxdq %xmm0, %xmm5 vmovhlps %xmm0, %xmm0, %xmm0 vpmovsxdq %xmm0, %xmm0 vinsertf128 $1, %xmm0, %ymm5, %ymm5 vpunpckhbw %xmm0, %xmm4, %xmm0 vpslld $31, %xmm0, %xmm6 vpmovsxdq %xmm6, %xmm0 vmovhlps %xmm6, %xmm6, %xmm6 vpmovsxdq %xmm6, %xmm6 vinsertf128 $1, %xmm6, %ymm0, %ymm0 vpunpcklbw %xmm0, %xmm3, %xmm3 vpslld $31, %xmm3, %xmm6 vpmovsxdq %xmm6, %xmm3 vmovhlps %xmm6, %xmm6, %xmm6 vpmovsxdq %xmm6, %xmm6 vpunpcklbw %xmm0, %xmm4, %xmm4 vmovapd 26656(%rbx), %ymm1 vblendvpd %ymm0, %ymm13, %ymm1, %ymm0 vmovapd 26112(%rbx), %ymm1 vblendvpd %ymm5, %ymm0, %ymm1, %ymm0 vmovapd .LCPI1_77(%rip), %ymm5 vmulpd %ymm5, %ymm0, %ymm7 vinsertf128 $1, %xmm6, %ymm3, %ymm0 vpslld $31, %xmm4, %xmm3 vpmovsxdq %xmm3, %xmm1 vmovhlps %xmm3, %xmm3, %xmm3 vpmovsxdq %xmm3, %xmm3 vinsertf128 $1, %xmm3, %ymm1, %ymm1 vmovapd 26848(%rbx), %ymm3 vblendvpd %ymm1, %ymm9, %ymm3, %ymm1 vmovapd 26688(%rbx), %ymm3 vblendvpd %ymm0, %ymm1, %ymm3, %ymm0 vmulpd %ymm5, %ymm0, %ymm3 .LBB1_3492: vmovapd %ymm3, 26656(%rbx) vmovapd %ymm7, 26688(%rbx) vmovaps 24448(%rbx), %ymm0 vinsertf128 $1, %xmm0, %ymm0, %ymm0 vmovaps %ymm0, 26112(%rbx) vmovdqa 32896(%rbx), %ymm0 vpshufd $8, %xmm0, %xmm0 vpshufd $8, %xmm15, %xmm1 vmovlhps %xmm2, %xmm1, %xmm1 vmovaps 32928(%rbx), %xmm2 vmovlhps %xmm2, %xmm0, %xmm0 vmovdqa 24320(%rbx), %ymm2 vmovdqa 32960(%rbx), %ymm3 vpaddd %xmm2, %xmm3, %xmm2 vmovd %xmm2, %eax movslq %eax, %rsi movq %rsi, 24224(%rbx) vpshufb %xmm8, %xmm0, %xmm0 vmovdqa .LCPI1_20(%rip), %xmm7 vpshufb %xmm7, %xmm1, %xmm5 vmovupd 33056(%rbx,%rsi,8), %xmm4 movq 32416(%rbx), %rax vmovupd 33024(%rbx,%rax,8), %xmm3 movq 26528(%rbx), %rdx vmovupd 33024(%rbx,%rdx,8), %xmm2 vmovupd 33056(%rbx,%rdx,8), %xmm1 vmovupd 33024(%rbx,%rsi,8), %xmm6 vpor %xmm5, %xmm0, %xmm0 vinsertf128 $1, 33040(%rbx,%rsi,8), %ymm6, %ymm14 vinsertf128 $1, 33072(%rbx,%rsi,8), %ymm4, %ymm15 vinsertf128 $1, 33040(%rbx,%rax,8), %ymm3, %ymm3 vmovapd %ymm3, 31104(%rbx) vinsertf128 $1, 33040(%rbx,%rdx,8), %ymm2, %ymm12 vinsertf128 $1, 33072(%rbx,%rdx,8), %ymm1, %ymm6 vmovupd 33056(%rbx,%rax,8), %xmm1 vinsertf128 $1, 33072(%rbx,%rax,8), %ymm1, %ymm4 vmovapd %ymm4, 26848(%rbx) vpsllw $15, %xmm0, %xmm0 vpsraw $15, %xmm0, %xmm1 vpunpcklbw %xmm0, %xmm1, %xmm0 vpslld $31, %xmm0, %xmm0 vmovdqa %xmm0, 24448(%rbx) vpmovsxdq %xmm0, %xmm0 vmovdqa %ymm0, 24512(%rbx) vsubpd %ymm4, %ymm15, %ymm2 vsubpd %ymm3, %ymm14, %ymm0 vsubpd %ymm12, %ymm3, %ymm3 vsubpd %ymm6, %ymm4, %ymm4 vmovapd .LCPI1_24(%rip), %ymm5 vmulpd %ymm5, %ymm4, %ymm10 vmulpd %ymm5, %ymm2, %ymm2 vmovapd %ymm2, 24608(%rbx) vmulpd %ymm5, %ymm3, %ymm4 vmulpd %ymm5, %ymm0, %ymm5 vmovapd %ymm5, 24640(%rbx) vmulpd %ymm2, %ymm10, %ymm0 vxorpd %ymm3, %ymm3, %ymm3 vcmpnlepd %ymm3, %ymm0, %ymm9 vmovapd %ymm9, 32864(%rbx) vextractf128 $1, %ymm9, %xmm0 vpshufd $8, %xmm0, %xmm2 vmovdqa %xmm2, 32928(%rbx) vpshufd $8, %xmm9, %xmm0 vmovlhps %xmm2, %xmm0, %xmm0 vpshufb %xmm7, %xmm0, %xmm2 vmovdqa %xmm7, %xmm13 vmulpd %ymm5, %ymm4, %ymm0 vmovapd %ymm4, %ymm7 vcmpnlepd %ymm3, %ymm0, %ymm9 vextractf128 $1, %ymm9, %xmm0 vpshufd $8, %xmm0, %xmm3 vmovdqa %xmm3, 32896(%rbx) vpshufd $8, %xmm9, %xmm0 vmovlhps %xmm3, %xmm0, %xmm0 vpshufb %xmm8, %xmm0, %xmm0 vmovdqa %xmm8, %xmm11 vpor %xmm2, %xmm0, %xmm0 vpunpckhbw %xmm0, %xmm1, %xmm1 vpslld $31, %xmm1, %xmm2 vmovdqa %xmm2, 24352(%rbx) vpxor .LCPI1_17(%rip), %xmm0, %xmm1 vpmovsxdq %xmm2, %xmm0 vmovdqa %ymm0, 24480(%rbx) vpmovzxwd %xmm1, %xmm0 vpslld $31, %xmm0, %xmm0 vpsrad $31, %xmm0, %xmm0 vpunpckhwd %xmm0, %xmm1, %xmm1 vpslld $31, %xmm1, %xmm1 vpsrad $31, %xmm1, %xmm1 vinsertf128 $1, %xmm1, %ymm0, %ymm0 vmovdqa 10432(%rbx), %ymm1 vptest %ymm1, %ymm0 vmovapd 10400(%rbx), %ymm0 vmovapd %ymm0, %ymm1 vmovapd %ymm0, %ymm5 jb .LBB1_3494 vsubpd %ymm6, %ymm15, %ymm0 vsubpd %ymm12, %ymm14, %ymm1 vmovapd .LCPI1_28(%rip), %ymm2 vmulpd %ymm2, %ymm0, %ymm0 vmovapd %ymm0, 24192(%rbx) vmulpd %ymm2, %ymm1, %ymm3 vmovapd %ymm3, 24576(%rbx) vmovapd .LCPI1_56(%rip), %ymm5 vandpd %ymm5, %ymm0, %ymm6 vmovapd %ymm10, %ymm14 vandpd %ymm5, %ymm14, %ymm1 vcmpltpd %ymm6, %ymm1, %ymm0 vextractf128 $1, %ymm0, %xmm2 vpshufd $8, %xmm2, %xmm2 vpshufd $8, %xmm0, %xmm0 vandpd %ymm5, %ymm3, %ymm4 vmovlhps %xmm2, %xmm0, %xmm3 vmovapd %ymm7, 24544(%rbx) vandpd %ymm5, %ymm7, %ymm7 vcmpltpd %ymm4, %ymm7, %ymm0 vextractf128 $1, %ymm0, %xmm2 vpshufd $8, %xmm2, %xmm2 vpshufd $8, %xmm0, %xmm0 vmovlhps %xmm2, %xmm0, %xmm2 vmovapd 24608(%rbx), %ymm10 vandpd %ymm5, %ymm10, %ymm12 vcmpltpd %ymm12, %ymm1, %ymm0 vextractf128 $1, %ymm0, %xmm1 vpshufd $8, %xmm1, %xmm1 vpshufd $8, %xmm0, %xmm0 vmovlhps %xmm1, %xmm0, %xmm1 vmovapd 24640(%rbx), %ymm15 vandpd %ymm5, %ymm15, %ymm0 vcmpltpd %ymm0, %ymm7, %ymm7 vextractf128 $1, %ymm7, %xmm5 vpshufd $8, %xmm5, %xmm8 vpshufd $8, %xmm7, %xmm5 vmovlhps %xmm8, %xmm5, %xmm7 vcmpltpd %ymm4, %ymm0, %ymm4 vpshufb %xmm11, %xmm7, %xmm0 vpshufb %xmm13, %xmm1, %xmm1 vpor %xmm1, %xmm0, %xmm1 vpshufb %xmm11, %xmm2, %xmm0 vpshufb %xmm13, %xmm3, %xmm2 vpor %xmm2, %xmm0, %xmm7 vextractf128 $1, %ymm4, %xmm0 vpshufd $8, %xmm0, %xmm0 vpshufd $8, %xmm4, %xmm2 vmovlhps %xmm0, %xmm2, %xmm2 vpshufd $8, %xmm9, %xmm0 vmovaps 32896(%rbx), %xmm3 vmovlhps %xmm3, %xmm0, %xmm3 vcmpltpd %ymm6, %ymm12, %ymm4 vpsllw $15, %xmm7, %xmm0 vpsraw $15, %xmm0, %xmm0 vmovdqa .LCPI1_17(%rip), %xmm5 vpxor %xmm5, %xmm0, %xmm0 vpsllw $15, %xmm1, %xmm1 vpsraw $15, %xmm1, %xmm1 vpxor %xmm5, %xmm1, %xmm1 vpor %xmm0, %xmm1, %xmm1 vextractf128 $1, %ymm4, %xmm0 vpshufd $8, %xmm0, %xmm0 vpshufd $8, %xmm4, %xmm4 vmovlhps %xmm0, %xmm4, %xmm6 vpshufb %xmm11, %xmm2, %xmm4 vpshufb %xmm11, %xmm3, %xmm0 vmovdqa 32864(%rbx), %ymm2 vpshufd $8, %xmm2, %xmm2 vmovaps 32928(%rbx), %xmm3 vmovlhps %xmm3, %xmm2, %xmm2 vpshufb %xmm13, %xmm2, %xmm2 vpor %xmm2, %xmm0, %xmm0 vpsllw $15, %xmm0, %xmm0 vpsraw $15, %xmm0, %xmm0 vpand %xmm1, %xmm0, %xmm2 vpshufb %xmm13, %xmm6, %xmm0 vpunpckhbw %xmm0, %xmm2, %xmm1 vpor %xmm0, %xmm4, %xmm3 vpslld $31, %xmm1, %xmm0 vpsllw $15, %xmm3, %xmm1 vpsraw $15, %xmm1, %xmm3 vpmovsxdq %xmm0, %xmm1 vmovhlps %xmm0, %xmm0, %xmm0 vpmovsxdq %xmm0, %xmm0 vinsertf128 $1, %xmm0, %ymm1, %ymm1 vpunpckhbw %xmm0, %xmm3, %xmm0 vpslld $31, %xmm0, %xmm4 vpmovsxdq %xmm4, %xmm0 vmovhlps %xmm4, %xmm4, %xmm4 vpmovsxdq %xmm4, %xmm4 vinsertf128 $1, %xmm4, %ymm0, %ymm4 vpunpcklbw %xmm0, %xmm2, %xmm0 vpslld $31, %xmm0, %xmm0 vpmovsxdq %xmm0, %xmm2 vmovhlps %xmm0, %xmm0, %xmm0 vpmovsxdq %xmm0, %xmm0 vpunpcklbw %xmm0, %xmm3, %xmm3 vmovapd 24192(%rbx), %ymm5 vblendvpd %ymm4, %ymm10, %ymm5, %ymm4 vblendvpd %ymm1, %ymm4, %ymm14, %ymm1 vmovapd .LCPI1_77(%rip), %ymm4 vmulpd %ymm4, %ymm1, %ymm5 vinsertf128 $1, %xmm0, %ymm2, %ymm1 vpslld $31, %xmm3, %xmm2 vpmovsxdq %xmm2, %xmm0 vmovhlps %xmm2, %xmm2, %xmm2 vpmovsxdq %xmm2, %xmm2 vinsertf128 $1, %xmm2, %ymm0, %ymm0 vmovapd 24576(%rbx), %ymm2 vblendvpd %ymm0, %ymm15, %ymm2, %ymm0 vmovapd 24544(%rbx), %ymm2 vblendvpd %ymm1, %ymm0, %ymm2, %ymm0 vmulpd %ymm4, %ymm0, %ymm1 .LBB1_3494: vmovapd %ymm1, 24608(%rbx) vmovapd %ymm5, 24640(%rbx) vmovaps 26624(%rbx), %xmm0 vmovhlps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 24576(%rbx) vmovaps 26176(%rbx), %xmm0 vmovhlps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 26176(%rbx) vmovaps 26144(%rbx), %xmm0 vmovhlps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 24544(%rbx) vmovaps 24672(%rbx), %xmm0 vmovhlps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 24160(%rbx) vmovaps 24448(%rbx), %xmm0 vmovhlps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 24096(%rbx) vmovaps 24352(%rbx), %xmm0 vmovhlps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 23872(%rbx) vmovaps 24416(%rbx), %ymm0 vinsertf128 $1, %xmm0, %ymm0, %ymm0 vmovaps %ymm0, 26144(%rbx) vpshufd $8, %xmm9, %xmm0 vmovdqa 32864(%rbx), %ymm1 vpshufd $8, %xmm1, %xmm1 vmovaps 32928(%rbx), %xmm2 vmovlhps %xmm2, %xmm1, %xmm1 vmovaps 32896(%rbx), %xmm2 vmovlhps %xmm2, %xmm0, %xmm0 vmovdqa 26112(%rbx), %ymm2 vmovdqa 32960(%rbx), %ymm3 vpaddd %xmm2, %xmm3, %xmm2 vmovd %xmm2, %eax movslq %eax, %rsi movq %rsi, 24192(%rbx) vmovdqa %xmm11, %xmm12 vpshufb %xmm12, %xmm0, %xmm0 vpshufb %xmm13, %xmm1, %xmm2 vmovupd 33056(%rbx,%rsi,8), %xmm3 movq 32448(%rbx), %rax vmovupd 33024(%rbx,%rax,8), %xmm5 movq 26496(%rbx), %rdx vmovupd 33024(%rbx,%rdx,8), %xmm4 vmovupd 33056(%rbx,%rdx,8), %xmm1 vmovupd 33024(%rbx,%rsi,8), %xmm6 vpor %xmm2, %xmm0, %xmm0 vinsertf128 $1, 33040(%rbx,%rsi,8), %ymm6, %ymm2 vinsertf128 $1, 33072(%rbx,%rsi,8), %ymm3, %ymm3 vinsertf128 $1, 33040(%rbx,%rax,8), %ymm5, %ymm7 vmovapd %ymm7, 26624(%rbx) vinsertf128 $1, 33040(%rbx,%rdx,8), %ymm4, %ymm4 vinsertf128 $1, 33072(%rbx,%rdx,8), %ymm1, %ymm6 vmovupd 33056(%rbx,%rax,8), %xmm1 vinsertf128 $1, 33072(%rbx,%rax,8), %ymm1, %ymm8 vmovapd %ymm8, 24672(%rbx) vpsllw $15, %xmm0, %xmm0 vpsraw $15, %xmm0, %xmm1 vpunpcklbw %xmm0, %xmm1, %xmm0 vpslld $31, %xmm0, %xmm0 vpmovsxdq %xmm0, %xmm5 vmovdqa %ymm5, 24352(%rbx) vmovhlps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 32864(%rbx) vsubpd %ymm8, %ymm3, %ymm5 vsubpd %ymm7, %ymm2, %ymm0 vsubpd %ymm4, %ymm7, %ymm7 vsubpd %ymm6, %ymm8, %ymm8 vmovapd .LCPI1_24(%rip), %ymm9 vmulpd %ymm9, %ymm8, %ymm8 vmovapd %ymm8, 32896(%rbx) vmulpd %ymm9, %ymm5, %ymm11 vmovapd %ymm11, 24448(%rbx) vmulpd %ymm9, %ymm7, %ymm10 vmulpd %ymm9, %ymm0, %ymm5 vmovapd %ymm5, 32928(%rbx) vmulpd %ymm11, %ymm8, %ymm0 vxorpd %ymm7, %ymm7, %ymm7 vcmpnlepd %ymm7, %ymm0, %ymm15 vextractf128 $1, %ymm15, %xmm0 vpshufd $8, %xmm0, %xmm9 vpshufd $8, %xmm15, %xmm0 vmovlhps %xmm9, %xmm0, %xmm0 vpshufb %xmm13, %xmm0, %xmm0 vmulpd %ymm5, %ymm10, %ymm5 vcmpnlepd %ymm7, %ymm5, %ymm11 vextractf128 $1, %ymm11, %xmm5 vpshufd $8, %xmm5, %xmm14 vpshufd $8, %xmm11, %xmm5 vmovlhps %xmm14, %xmm5, %xmm5 vpshufb %xmm12, %xmm5, %xmm5 vpor %xmm0, %xmm5, %xmm0 vpunpckhbw %xmm0, %xmm1, %xmm1 vpslld $31, %xmm1, %xmm1 vpxor .LCPI1_17(%rip), %xmm0, %xmm0 vpmovsxdq %xmm1, %xmm5 vmovdqa %ymm5, 24128(%rbx) vmovhlps %xmm1, %xmm1, %xmm1 vmovaps %xmm1, 23808(%rbx) vpmovzxwd %xmm0, %xmm1 vpslld $31, %xmm1, %xmm1 vpsrad $31, %xmm1, %xmm1 vpunpckhwd %xmm0, %xmm0, %xmm0 vpslld $31, %xmm0, %xmm0 vpsrad $31, %xmm0, %xmm0 vinsertf128 $1, %xmm0, %ymm1, %ymm0 vmovdqa 10368(%rbx), %ymm1 vptest %ymm1, %ymm0 vmovapd 10336(%rbx), %ymm0 vmovapd %ymm0, %ymm1 vmovapd %ymm0, %ymm8 jb .LBB1_3496 vsubpd %ymm6, %ymm3, %ymm0 vsubpd %ymm4, %ymm2, %ymm1 vmovapd .LCPI1_28(%rip), %ymm2 vmulpd %ymm2, %ymm0, %ymm0 vmovapd %ymm0, 24000(%rbx) vmulpd %ymm2, %ymm1, %ymm6 vmovapd %ymm6, 24416(%rbx) vmovaps %xmm14, %xmm13 vmovaps %xmm9, %xmm14 vmovapd .LCPI1_56(%rip), %ymm9 vandpd %ymm9, %ymm0, %ymm4 vmovapd 32896(%rbx), %ymm0 vandpd %ymm9, %ymm0, %ymm1 vcmpltpd %ymm4, %ymm1, %ymm0 vextractf128 $1, %ymm0, %xmm2 vpshufd $8, %xmm2, %xmm5 vpshufd $8, %xmm0, %xmm0 vmovdqa %ymm11, %ymm3 vmovdqa %ymm15, %ymm11 vandpd %ymm9, %ymm6, %ymm15 vmovlhps %xmm5, %xmm0, %xmm8 vmovapd %ymm10, 24064(%rbx) vandpd %ymm9, %ymm10, %ymm7 vcmpltpd %ymm15, %ymm7, %ymm0 vextractf128 $1, %ymm0, %xmm2 vpshufd $8, %xmm2, %xmm5 vpshufd $8, %xmm0, %xmm0 vmovlhps %xmm5, %xmm0, %xmm5 vmovapd 24448(%rbx), %ymm10 vandpd %ymm9, %ymm10, %ymm6 vcmpltpd %ymm6, %ymm1, %ymm0 vextractf128 $1, %ymm0, %xmm1 vpshufd $8, %xmm1, %xmm1 vpshufd $8, %xmm0, %xmm0 vmovlhps %xmm1, %xmm0, %xmm1 vmovapd 32928(%rbx), %ymm0 vandpd %ymm9, %ymm0, %ymm0 vcmpltpd %ymm0, %ymm7, %ymm7 vextractf128 $1, %ymm7, %xmm2 vpshufd $8, %xmm2, %xmm9 vpshufd $8, %xmm7, %xmm2 vmovlhps %xmm9, %xmm2, %xmm2 vmovaps %xmm14, %xmm9 vmovaps %xmm13, %xmm14 vcmpltpd %ymm15, %ymm0, %ymm7 vmovdqa %ymm11, %ymm15 vmovdqa %ymm3, %ymm11 vpshufb %xmm12, %xmm2, %xmm0 vmovdqa .LCPI1_20(%rip), %xmm3 vpshufb %xmm3, %xmm1, %xmm1 vpor %xmm1, %xmm0, %xmm1 vpshufb %xmm12, %xmm5, %xmm0 vpshufb %xmm3, %xmm8, %xmm2 vpor %xmm2, %xmm0, %xmm0 vextractf128 $1, %ymm7, %xmm2 vpshufd $8, %xmm2, %xmm5 vpshufd $8, %xmm7, %xmm2 vmovlhps %xmm5, %xmm2, %xmm5 vpshufd $8, %xmm11, %xmm2 vmovlhps %xmm14, %xmm2, %xmm7 vcmpltpd %ymm4, %ymm6, %ymm4 vpsllw $15, %xmm0, %xmm0 vpsraw $15, %xmm0, %xmm0 vmovdqa .LCPI1_17(%rip), %xmm2 vpxor %xmm2, %xmm0, %xmm0 vpsllw $15, %xmm1, %xmm1 vpsraw $15, %xmm1, %xmm1 vpxor %xmm2, %xmm1, %xmm1 vpor %xmm0, %xmm1, %xmm1 vextractf128 $1, %ymm4, %xmm0 vpshufd $8, %xmm0, %xmm0 vpshufd $8, %xmm4, %xmm2 vmovlhps %xmm0, %xmm2, %xmm6 vpshufb %xmm12, %xmm5, %xmm5 vpshufb %xmm12, %xmm7, %xmm0 vpshufd $8, %xmm15, %xmm2 vmovlhps %xmm9, %xmm2, %xmm2 vpshufb %xmm3, %xmm2, %xmm2 vpor %xmm2, %xmm0, %xmm0 vpsllw $15, %xmm0, %xmm0 vpsraw $15, %xmm0, %xmm0 vpand %xmm1, %xmm0, %xmm4 vpshufb %xmm3, %xmm6, %xmm0 vpunpckhbw %xmm0, %xmm4, %xmm1 vpor %xmm0, %xmm5, %xmm2 vpslld $31, %xmm1, %xmm0 vpsllw $15, %xmm2, %xmm1 vpsraw $15, %xmm1, %xmm5 vpmovsxdq %xmm0, %xmm1 vmovhlps %xmm0, %xmm0, %xmm0 vpmovsxdq %xmm0, %xmm0 vinsertf128 $1, %xmm0, %ymm1, %ymm1 vpunpckhbw %xmm0, %xmm5, %xmm0 vpslld $31, %xmm0, %xmm6 vpmovsxdq %xmm6, %xmm0 vmovhlps %xmm6, %xmm6, %xmm2 vpmovsxdq %xmm2, %xmm2 vinsertf128 $1, %xmm2, %ymm0, %ymm0 vpunpcklbw %xmm0, %xmm4, %xmm2 vpslld $31, %xmm2, %xmm6 vpmovsxdq %xmm6, %xmm4 vmovhlps %xmm6, %xmm6, %xmm2 vpmovsxdq %xmm2, %xmm6 vpunpcklbw %xmm0, %xmm5, %xmm5 vmovapd 24000(%rbx), %ymm2 vblendvpd %ymm0, %ymm10, %ymm2, %ymm0 vmovapd 32896(%rbx), %ymm2 vblendvpd %ymm1, %ymm0, %ymm2, %ymm0 vmovapd .LCPI1_77(%rip), %ymm7 vmulpd %ymm7, %ymm0, %ymm8 vinsertf128 $1, %xmm6, %ymm4, %ymm0 vpslld $31, %xmm5, %xmm3 vpmovsxdq %xmm3, %xmm1 vmovhlps %xmm3, %xmm3, %xmm2 vpmovsxdq %xmm2, %xmm2 vinsertf128 $1, %xmm2, %ymm1, %ymm1 vmovapd 24416(%rbx), %ymm2 vblendvpd %ymm1, 32928(%rbx), %ymm2, %ymm1 vmovapd 24064(%rbx), %ymm2 vblendvpd %ymm0, %ymm1, %ymm2, %ymm0 vmulpd %ymm7, %ymm0, %ymm1 .LBB1_3496: vmovapd %ymm1, 24416(%rbx) vmovapd %ymm8, 24448(%rbx) vmovdqa 24576(%rbx), %xmm0 vpmovsxdq %xmm0, %xmm0 vmovdqa %xmm0, 24064(%rbx) vmovdqa 26176(%rbx), %xmm0 vpmovsxdq %xmm0, %xmm0 vmovdqa %xmm0, 24000(%rbx) vmovdqa 24544(%rbx), %xmm0 vpmovsxdq %xmm0, %xmm0 vmovdqa %xmm0, 23968(%rbx) vmovdqa 24160(%rbx), %xmm0 vpmovsxdq %xmm0, %xmm0 vmovdqa %xmm0, 23936(%rbx) vmovdqa 24096(%rbx), %xmm0 vpmovsxdq %xmm0, %xmm0 vmovdqa %xmm0, 23904(%rbx) vmovdqa 23872(%rbx), %xmm0 vpmovsxdq %xmm0, %xmm0 vmovdqa %xmm0, 23872(%rbx) vmovdqa 32864(%rbx), %xmm0 vpmovsxdq %xmm0, %xmm0 vmovdqa %xmm0, 23840(%rbx) vmovdqa 23808(%rbx), %xmm0 vpmovsxdq %xmm0, %xmm0 vmovdqa %xmm0, 23808(%rbx) vmovaps 24384(%rbx), %ymm0 vinsertf128 $1, %xmm0, %ymm0, %ymm0 vmovaps %ymm0, 26176(%rbx) vpshufd $8, %xmm11, %xmm0 vpshufd $8, %xmm15, %xmm1 vmovlhps %xmm9, %xmm1, %xmm1 vmovlhps %xmm14, %xmm0, %xmm0 vmovdqa 26144(%rbx), %ymm2 vmovdqa 32960(%rbx), %ymm3 vpaddd %xmm2, %xmm3, %xmm2 vmovd %xmm2, %eax movslq %eax, %rsi movq %rsi, 24160(%rbx) vpshufb %xmm12, %xmm0, %xmm0 vmovdqa .LCPI1_20(%rip), %xmm13 vmovdqa %xmm13, %xmm7 vpshufb %xmm7, %xmm1, %xmm5 vmovupd 33056(%rbx,%rsi,8), %xmm4 movq 32480(%rbx), %rax vmovupd 33024(%rbx,%rax,8), %xmm3 movq 26464(%rbx), %rdx vmovupd 33024(%rbx,%rdx,8), %xmm2 vmovupd 33056(%rbx,%rdx,8), %xmm1 vmovupd 33024(%rbx,%rsi,8), %xmm6 vpor %xmm5, %xmm0, %xmm0 vinsertf128 $1, 33040(%rbx,%rsi,8), %ymm6, %ymm14 vinsertf128 $1, 33072(%rbx,%rsi,8), %ymm4, %ymm15 vinsertf128 $1, 33040(%rbx,%rax,8), %ymm3, %ymm5 vmovapd %ymm5, 24576(%rbx) vinsertf128 $1, 33040(%rbx,%rdx,8), %ymm2, %ymm11 vinsertf128 $1, 33072(%rbx,%rdx,8), %ymm1, %ymm3 vmovupd 33056(%rbx,%rax,8), %xmm1 vinsertf128 $1, 33072(%rbx,%rax,8), %ymm1, %ymm6 vmovapd %ymm6, 24544(%rbx) vpsllw $15, %xmm0, %xmm0 vpsraw $15, %xmm0, %xmm4 vpunpcklbw %xmm0, %xmm4, %xmm0 vpslld $31, %xmm0, %xmm0 vpmovsxdq %xmm0, %xmm1 vmovdqa %ymm1, 23616(%rbx) vmovhlps %xmm0, %xmm0, %xmm0 vpmovsxdq %xmm0, %xmm0 vmovdqa %xmm0, 23584(%rbx) vsubpd %ymm6, %ymm15, %ymm1 vsubpd %ymm5, %ymm14, %ymm0 vsubpd %ymm11, %ymm5, %ymm2 vsubpd %ymm3, %ymm6, %ymm5 vmovapd .LCPI1_24(%rip), %ymm6 vmulpd %ymm6, %ymm5, %ymm9 vmulpd %ymm6, %ymm1, %ymm1 vmovapd %ymm1, 24384(%rbx) vmulpd %ymm6, %ymm2, %ymm2 vmulpd %ymm6, %ymm0, %ymm10 vmulpd %ymm1, %ymm9, %ymm0 vxorpd %ymm5, %ymm5, %ymm5 vcmpnlepd %ymm5, %ymm0, %ymm6 vmovapd %ymm6, 32896(%rbx) vextractf128 $1, %ymm6, %xmm0 vpshufd $8, %xmm0, %xmm1 vmovdqa %xmm1, 32928(%rbx) vpshufd $8, %xmm6, %xmm0 vmovlhps %xmm1, %xmm0, %xmm0 vpshufb %xmm7, %xmm0, %xmm0 vmulpd %ymm10, %ymm2, %ymm1 vcmpnlepd %ymm5, %ymm1, %ymm5 vmovapd %ymm5, 32864(%rbx) vextractf128 $1, %ymm5, %xmm1 vpshufd $8, %xmm1, %xmm13 vpshufd $8, %xmm5, %xmm1 vmovlhps %xmm13, %xmm1, %xmm1 vpshufb %xmm12, %xmm1, %xmm1 vmovdqa %xmm12, %xmm7 vpor %xmm0, %xmm1, %xmm0 vpunpckhbw %xmm0, %xmm4, %xmm1 vpslld $31, %xmm1, %xmm1 vpxor .LCPI1_17(%rip), %xmm0, %xmm0 vpmovsxdq %xmm1, %xmm4 vmovdqa %ymm4, 23552(%rbx) vmovhlps %xmm1, %xmm1, %xmm1 vpmovsxdq %xmm1, %xmm1 vmovdqa %xmm1, 23520(%rbx) vpmovzxwd %xmm0, %xmm1 vpslld $31, %xmm1, %xmm1 vpsrad $31, %xmm1, %xmm1 vpunpckhwd %xmm0, %xmm0, %xmm0 vpslld $31, %xmm0, %xmm0 vpsrad $31, %xmm0, %xmm0 vinsertf128 $1, %xmm0, %ymm1, %ymm0 vmovdqa 10304(%rbx), %ymm1 vptest %ymm1, %ymm0 vmovapd 10272(%rbx), %ymm0 vmovapd %ymm0, %ymm1 vmovapd %ymm0, %ymm8 jb .LBB1_3498 vsubpd %ymm3, %ymm15, %ymm0 vsubpd %ymm11, %ymm14, %ymm1 vmovapd .LCPI1_28(%rip), %ymm4 vmulpd %ymm4, %ymm0, %ymm0 vmovapd %ymm0, 23456(%rbx) vmulpd %ymm4, %ymm1, %ymm3 vmovapd %ymm3, 24096(%rbx) vmovapd .LCPI1_56(%rip), %ymm6 vandpd %ymm6, %ymm0, %ymm11 vmovapd %ymm9, 23424(%rbx) vandpd %ymm6, %ymm9, %ymm5 vcmpltpd %ymm11, %ymm5, %ymm0 vextractf128 $1, %ymm0, %xmm1 vpshufd $8, %xmm1, %xmm1 vpshufd $8, %xmm0, %xmm0 vandpd %ymm6, %ymm3, %ymm15 vmovlhps %xmm1, %xmm0, %xmm4 vmovaps %xmm13, %xmm3 vmovapd %ymm2, 23488(%rbx) vandpd %ymm6, %ymm2, %ymm13 vcmpltpd %ymm15, %ymm13, %ymm0 vextractf128 $1, %ymm0, %xmm1 vpshufd $8, %xmm1, %xmm1 vpshufd $8, %xmm0, %xmm0 vmovlhps %xmm1, %xmm0, %xmm12 vmovapd 24384(%rbx), %ymm8 vandpd %ymm6, %ymm8, %ymm14 vcmpltpd %ymm14, %ymm5, %ymm0 vextractf128 $1, %ymm0, %xmm1 vpshufd $8, %xmm1, %xmm1 vpshufd $8, %xmm0, %xmm0 vmovlhps %xmm1, %xmm0, %xmm0 vandpd %ymm6, %ymm10, %ymm1 vcmpltpd %ymm1, %ymm13, %ymm5 vmovaps %xmm3, %xmm13 vextractf128 $1, %ymm5, %xmm6 vpshufd $8, %xmm6, %xmm6 vpshufd $8, %xmm5, %xmm5 vmovlhps %xmm6, %xmm5, %xmm5 vcmpltpd %ymm15, %ymm1, %ymm1 vpshufb %xmm7, %xmm5, %xmm5 vmovdqa .LCPI1_20(%rip), %xmm9 vpshufb %xmm9, %xmm0, %xmm0 vpor %xmm0, %xmm5, %xmm5 vpshufb %xmm7, %xmm12, %xmm0 vpshufb %xmm9, %xmm4, %xmm4 vpor %xmm4, %xmm0, %xmm6 vextractf128 $1, %ymm1, %xmm0 vpshufd $8, %xmm0, %xmm0 vpshufd $8, %xmm1, %xmm1 vmovlhps %xmm0, %xmm1, %xmm4 vmovdqa 32864(%rbx), %ymm0 vpshufd $8, %xmm0, %xmm0 vmovlhps %xmm13, %xmm0, %xmm3 vcmpltpd %ymm11, %ymm14, %ymm0 vpsllw $15, %xmm6, %xmm1 vpsraw $15, %xmm1, %xmm1 vmovdqa .LCPI1_17(%rip), %xmm6 vpxor %xmm6, %xmm1, %xmm1 vpsllw $15, %xmm5, %xmm5 vpsraw $15, %xmm5, %xmm5 vpxor %xmm6, %xmm5, %xmm5 vpor %xmm1, %xmm5, %xmm5 vextractf128 $1, %ymm0, %xmm1 vpshufd $8, %xmm1, %xmm1 vpshufd $8, %xmm0, %xmm0 vmovlhps %xmm1, %xmm0, %xmm1 vpshufb %xmm7, %xmm4, %xmm0 vpshufb %xmm7, %xmm3, %xmm4 vmovdqa 32896(%rbx), %ymm2 vpshufd $8, %xmm2, %xmm6 vmovaps 32928(%rbx), %xmm3 vmovlhps %xmm3, %xmm6, %xmm6 vpshufb %xmm9, %xmm6, %xmm6 vpor %xmm6, %xmm4, %xmm4 vpsllw $15, %xmm4, %xmm4 vpsraw $15, %xmm4, %xmm4 vpand %xmm5, %xmm4, %xmm4 vpshufb %xmm9, %xmm1, %xmm1 vpunpckhbw %xmm0, %xmm4, %xmm5 vpor %xmm1, %xmm0, %xmm1 vpslld $31, %xmm5, %xmm0 vpsllw $15, %xmm1, %xmm1 vpsraw $15, %xmm1, %xmm5 vpmovsxdq %xmm0, %xmm1 vmovhlps %xmm0, %xmm0, %xmm0 vpmovsxdq %xmm0, %xmm0 vinsertf128 $1, %xmm0, %ymm1, %ymm11 vpunpckhbw %xmm0, %xmm5, %xmm0 vpslld $31, %xmm0, %xmm1 vpmovsxdq %xmm1, %xmm0 vmovhlps %xmm1, %xmm1, %xmm1 vpmovsxdq %xmm1, %xmm1 vinsertf128 $1, %xmm1, %ymm0, %ymm0 vpunpcklbw %xmm0, %xmm4, %xmm1 vpslld $31, %xmm1, %xmm4 vpmovsxdq %xmm4, %xmm1 vmovhlps %xmm4, %xmm4, %xmm4 vpmovsxdq %xmm4, %xmm4 vpunpcklbw %xmm0, %xmm5, %xmm5 vmovapd 23456(%rbx), %ymm2 vblendvpd %ymm0, %ymm8, %ymm2, %ymm0 vmovapd 23424(%rbx), %ymm2 vblendvpd %ymm11, %ymm0, %ymm2, %ymm0 vmovapd .LCPI1_77(%rip), %ymm6 vmulpd %ymm6, %ymm0, %ymm8 vinsertf128 $1, %xmm4, %ymm1, %ymm0 vpslld $31, %xmm5, %xmm3 vpmovsxdq %xmm3, %xmm1 vmovhlps %xmm3, %xmm3, %xmm3 vpmovsxdq %xmm3, %xmm3 vinsertf128 $1, %xmm3, %ymm1, %ymm1 vmovapd 24096(%rbx), %ymm2 vblendvpd %ymm1, %ymm10, %ymm2, %ymm1 vmovapd 23488(%rbx), %ymm2 vblendvpd %ymm0, %ymm1, %ymm2, %ymm0 vmulpd %ymm6, %ymm0, %ymm1 .LBB1_3498: vmovapd %ymm1, 24096(%rbx) vmovapd %ymm8, 24384(%rbx) vmovaps 26752(%rbx), %ymm0 vinsertf128 $1, 24064(%rbx), %ymm0, %ymm0 vmovaps %ymm0, 24064(%rbx) vmovaps 26720(%rbx), %ymm0 vinsertf128 $1, 24000(%rbx), %ymm0, %ymm0 vmovaps %ymm0, 24000(%rbx) vmovaps 26240(%rbx), %ymm0 vinsertf128 $1, 23968(%rbx), %ymm0, %ymm0 vmovaps %ymm0, 26240(%rbx) vmovaps 26208(%rbx), %ymm0 vinsertf128 $1, 23936(%rbx), %ymm0, %ymm0 vmovaps %ymm0, 23968(%rbx) vmovaps 24512(%rbx), %ymm0 vinsertf128 $1, 23904(%rbx), %ymm0, %ymm0 vmovaps %ymm0, 23936(%rbx) vmovaps 24480(%rbx), %ymm0 vinsertf128 $1, 23872(%rbx), %ymm0, %ymm0 vmovaps %ymm0, 24480(%rbx) vmovaps 24352(%rbx), %ymm0 vinsertf128 $1, 23840(%rbx), %ymm0, %ymm0 vmovaps %ymm0, 23904(%rbx) vmovaps 24128(%rbx), %ymm0 vinsertf128 $1, 23808(%rbx), %ymm0, %ymm0 vmovaps %ymm0, 23872(%rbx) vmovaps 23616(%rbx), %ymm0 vinsertf128 $1, 23584(%rbx), %ymm0, %ymm0 vmovaps %ymm0, 23840(%rbx) vmovaps 23552(%rbx), %ymm0 vinsertf128 $1, 23520(%rbx), %ymm0, %ymm0 vmovaps %ymm0, 23808(%rbx) vmovaps 22816(%rbx), %ymm0 vinsertf128 $1, %xmm0, %ymm0, %ymm0 vmovaps %ymm0, 26208(%rbx) vmovdqa 32864(%rbx), %ymm0 vpshufd $8, %xmm0, %xmm0 vmovdqa 32896(%rbx), %ymm1 vpshufd $8, %xmm1, %xmm1 vmovaps 32928(%rbx), %xmm2 vmovlhps %xmm2, %xmm1, %xmm1 vmovlhps %xmm13, %xmm0, %xmm0 vmovdqa 26176(%rbx), %ymm2 vmovdqa 32960(%rbx), %ymm3 vpaddd %xmm2, %xmm3, %xmm2 vmovd %xmm2, %eax movslq %eax, %rsi movq %rsi, 24128(%rbx) vpshufb %xmm7, %xmm0, %xmm0 vmovdqa .LCPI1_20(%rip), %xmm3 vpshufb %xmm3, %xmm1, %xmm5 vmovupd 33056(%rbx,%rsi,8), %xmm4 movq 32512(%rbx), %rax vmovupd 33024(%rbx,%rax,8), %xmm8 movq 26432(%rbx), %rdx vmovupd 33024(%rbx,%rdx,8), %xmm2 vmovupd 33056(%rbx,%rdx,8), %xmm1 vmovupd 33024(%rbx,%rsi,8), %xmm6 vpor %xmm5, %xmm0, %xmm0 vinsertf128 $1, 33040(%rbx,%rsi,8), %ymm6, %ymm14 vinsertf128 $1, 33072(%rbx,%rsi,8), %ymm4, %ymm9 vinsertf128 $1, 33040(%rbx,%rax,8), %ymm8, %ymm4 vmovapd %ymm4, 26752(%rbx) vinsertf128 $1, 33040(%rbx,%rdx,8), %ymm2, %ymm11 vinsertf128 $1, 33072(%rbx,%rdx,8), %ymm1, %ymm15 vmovupd 33056(%rbx,%rax,8), %xmm1 vinsertf128 $1, 33072(%rbx,%rax,8), %ymm1, %ymm5 vmovapd %ymm5, 26720(%rbx) vpsllw $15, %xmm0, %xmm0 vpsraw $15, %xmm0, %xmm1 vpunpcklbw %xmm0, %xmm1, %xmm0 vpslld $31, %xmm0, %xmm2 vpmovsxdq %xmm2, %xmm0 vmovhlps %xmm2, %xmm2, %xmm2 vpmovsxdq %xmm2, %xmm2 vinsertf128 $1, %xmm2, %ymm0, %ymm0 vmovaps %ymm0, 23616(%rbx) vsubpd %ymm5, %ymm9, %ymm2 vsubpd %ymm4, %ymm14, %ymm0 vsubpd %ymm11, %ymm4, %ymm4 vsubpd %ymm15, %ymm5, %ymm5 vmovapd .LCPI1_24(%rip), %ymm6 vmulpd %ymm6, %ymm5, %ymm12 vmulpd %ymm6, %ymm2, %ymm2 vmovapd %ymm2, 24352(%rbx) vmulpd %ymm6, %ymm4, %ymm5 vmulpd %ymm6, %ymm0, %ymm6 vmovapd %ymm6, 24512(%rbx) vmulpd %ymm2, %ymm12, %ymm0 vxorpd %ymm4, %ymm4, %ymm4 vcmpnlepd %ymm4, %ymm0, %ymm8 vmovapd %ymm8, 32864(%rbx) vextractf128 $1, %ymm8, %xmm0 vpshufd $8, %xmm0, %xmm2 vmovdqa %xmm2, 32928(%rbx) vpshufd $8, %xmm8, %xmm0 vmovlhps %xmm2, %xmm0, %xmm0 vpshufb %xmm3, %xmm0, %xmm0 vmovdqa %xmm3, %xmm8 vmulpd %ymm6, %ymm5, %ymm2 vcmpnlepd %ymm4, %ymm2, %ymm4 vextractf128 $1, %ymm4, %xmm2 vpshufd $8, %xmm2, %xmm3 vmovdqa %xmm3, 32896(%rbx) vpshufd $8, %xmm4, %xmm2 vmovlhps %xmm3, %xmm2, %xmm2 vpshufb %xmm7, %xmm2, %xmm2 vmovdqa %xmm7, %xmm10 vpor %xmm0, %xmm2, %xmm0 vpunpckhbw %xmm0, %xmm1, %xmm1 vpslld $31, %xmm1, %xmm1 vpxor .LCPI1_17(%rip), %xmm0, %xmm0 vpmovsxdq %xmm1, %xmm2 vmovhlps %xmm1, %xmm1, %xmm1 vpmovsxdq %xmm1, %xmm1 vinsertf128 $1, %xmm1, %ymm2, %ymm1 vmovaps %ymm1, 23584(%rbx) vpmovzxwd %xmm0, %xmm1 vpslld $31, %xmm1, %xmm1 vpsrad $31, %xmm1, %xmm1 vpunpckhwd %xmm0, %xmm0, %xmm0 vpslld $31, %xmm0, %xmm0 vpsrad $31, %xmm0, %xmm0 vinsertf128 $1, %xmm0, %ymm1, %ymm0 vmovdqa 10240(%rbx), %ymm1 vptest %ymm1, %ymm0 vmovapd 10208(%rbx), %ymm0 vmovapd %ymm0, %ymm13 vmovapd %ymm0, %ymm7 jb .LBB1_3500 vsubpd %ymm15, %ymm9, %ymm0 vsubpd %ymm11, %ymm14, %ymm1 vmovapd .LCPI1_28(%rip), %ymm2 vmulpd %ymm2, %ymm0, %ymm0 vmovapd %ymm0, 23520(%rbx) vmulpd %ymm2, %ymm1, %ymm2 vmovapd %ymm2, 23552(%rbx) vmovapd .LCPI1_56(%rip), %ymm7 vandpd %ymm7, %ymm0, %ymm3 vmovapd %ymm12, %ymm15 vandpd %ymm7, %ymm15, %ymm14 vcmpltpd %ymm3, %ymm14, %ymm0 vextractf128 $1, %ymm0, %xmm1 vpshufd $8, %xmm1, %xmm1 vpshufd $8, %xmm0, %xmm0 vandpd %ymm7, %ymm2, %ymm11 vmovlhps %xmm1, %xmm0, %xmm6 vandpd %ymm7, %ymm5, %ymm0 vcmpltpd %ymm11, %ymm0, %ymm1 vextractf128 $1, %ymm1, %xmm2 vpshufd $8, %xmm2, %xmm2 vpshufd $8, %xmm1, %xmm1 vmovlhps %xmm2, %xmm1, %xmm1 vmovapd 24352(%rbx), %ymm12 vandpd %ymm7, %ymm12, %ymm9 vcmpltpd %ymm9, %ymm14, %ymm2 vmovapd %ymm5, 23488(%rbx) vextractf128 $1, %ymm2, %xmm5 vpshufd $8, %xmm5, %xmm5 vpshufd $8, %xmm2, %xmm2 vmovlhps %xmm5, %xmm2, %xmm2 vmovapd 24512(%rbx), %ymm13 vandpd %ymm7, %ymm13, %ymm14 vcmpltpd %ymm14, %ymm0, %ymm0 vextractf128 $1, %ymm0, %xmm5 vpshufd $8, %xmm5, %xmm5 vpshufd $8, %xmm0, %xmm0 vmovlhps %xmm5, %xmm0, %xmm0 vcmpltpd %ymm11, %ymm14, %ymm11 vpshufb %xmm10, %xmm0, %xmm0 vpshufb %xmm8, %xmm2, %xmm2 vpor %xmm2, %xmm0, %xmm0 vpshufb %xmm10, %xmm1, %xmm1 vpshufb %xmm8, %xmm6, %xmm2 vpor %xmm2, %xmm1, %xmm2 vextractf128 $1, %ymm11, %xmm1 vpshufd $8, %xmm1, %xmm1 vpshufd $8, %xmm11, %xmm5 vmovlhps %xmm1, %xmm5, %xmm1 vpshufd $8, %xmm4, %xmm5 vmovaps 32896(%rbx), %xmm6 vmovlhps %xmm6, %xmm5, %xmm6 vcmpltpd %ymm3, %ymm9, %ymm3 vpsllw $15, %xmm2, %xmm2 vpsraw $15, %xmm2, %xmm2 vmovdqa .LCPI1_17(%rip), %xmm5 vpxor %xmm5, %xmm2, %xmm2 vpsllw $15, %xmm0, %xmm0 vpsraw $15, %xmm0, %xmm0 vpxor %xmm5, %xmm0, %xmm0 vpor %xmm2, %xmm0, %xmm0 vextractf128 $1, %ymm3, %xmm2 vpshufd $8, %xmm2, %xmm2 vpshufd $8, %xmm3, %xmm3 vmovlhps %xmm2, %xmm3, %xmm2 vpshufb %xmm10, %xmm1, %xmm3 vpshufb %xmm10, %xmm6, %xmm1 vmovdqa 32864(%rbx), %ymm5 vpshufd $8, %xmm5, %xmm5 vmovaps 32928(%rbx), %xmm6 vmovlhps %xmm6, %xmm5, %xmm5 vpshufb %xmm8, %xmm5, %xmm5 vpor %xmm5, %xmm1, %xmm1 vpsllw $15, %xmm1, %xmm1 vpsraw $15, %xmm1, %xmm1 vpand %xmm0, %xmm1, %xmm1 vpshufb %xmm8, %xmm2, %xmm0 vpunpckhbw %xmm0, %xmm1, %xmm2 vpor %xmm0, %xmm3, %xmm3 vpslld $31, %xmm2, %xmm0 vpsllw $15, %xmm3, %xmm2 vpsraw $15, %xmm2, %xmm3 vpmovsxdq %xmm0, %xmm2 vmovhlps %xmm0, %xmm0, %xmm0 vpmovsxdq %xmm0, %xmm0 vinsertf128 $1, %xmm0, %ymm2, %ymm0 vpunpckhbw %xmm0, %xmm3, %xmm2 vpslld $31, %xmm2, %xmm5 vpmovsxdq %xmm5, %xmm2 vmovhlps %xmm5, %xmm5, %xmm5 vpmovsxdq %xmm5, %xmm5 vinsertf128 $1, %xmm5, %ymm2, %ymm2 vpunpcklbw %xmm0, %xmm1, %xmm1 vpslld $31, %xmm1, %xmm5 vpmovsxdq %xmm5, %xmm1 vmovhlps %xmm5, %xmm5, %xmm5 vpmovsxdq %xmm5, %xmm6 vpunpcklbw %xmm0, %xmm3, %xmm3 vmovapd 23520(%rbx), %ymm5 vblendvpd %ymm2, %ymm12, %ymm5, %ymm2 vblendvpd %ymm0, %ymm2, %ymm15, %ymm0 vmovapd .LCPI1_77(%rip), %ymm5 vmulpd %ymm5, %ymm0, %ymm7 vinsertf128 $1, %xmm6, %ymm1, %ymm0 vpslld $31, %xmm3, %xmm2 vpmovsxdq %xmm2, %xmm1 vmovhlps %xmm2, %xmm2, %xmm2 vpmovsxdq %xmm2, %xmm2 vinsertf128 $1, %xmm2, %ymm1, %ymm1 vmovapd 23552(%rbx), %ymm2 vblendvpd %ymm1, %ymm13, %ymm2, %ymm1 vmovapd 23488(%rbx), %ymm2 vblendvpd %ymm0, %ymm1, %ymm2, %ymm0 vmulpd %ymm5, %ymm0, %ymm13 .LBB1_3500: vmovapd %ymm7, 23552(%rbx) movq 30720(%rbx), %rdx vmovapd .LCPI1_25(%rip), %ymm7 vmovapd 24064(%rbx), %ymm0 vblendvpd %ymm0, 32256(%rbx), %ymm7, %ymm0 vmovapd %ymm0, 32256(%rbx) vmovapd 24000(%rbx), %ymm0 vblendvpd %ymm0, 32800(%rbx), %ymm7, %ymm0 vmovapd %ymm0, 24512(%rbx) vmovapd 26240(%rbx), %ymm0 vblendvpd %ymm0, 31136(%rbx), %ymm7, %ymm0 vmovapd %ymm0, 31136(%rbx) vmovapd 23968(%rbx), %ymm0 vblendvpd %ymm0, 31808(%rbx), %ymm7, %ymm0 vmovapd %ymm0, 31808(%rbx) vmovapd 23936(%rbx), %ymm0 vblendvpd %ymm0, 26656(%rbx), %ymm7, %ymm0 vmovapd %ymm0, 26656(%rbx) vmovapd 24480(%rbx), %ymm0 vblendvpd %ymm0, 26688(%rbx), %ymm7, %ymm0 vmovapd %ymm0, 24352(%rbx) vmovapd 23904(%rbx), %ymm0 vblendvpd %ymm0, 24608(%rbx), %ymm7, %ymm0 vmovapd %ymm0, 24064(%rbx) vmovapd 23872(%rbx), %ymm0 vblendvpd %ymm0, 24640(%rbx), %ymm7, %ymm0 vmovapd %ymm0, 24000(%rbx) vmovapd 23840(%rbx), %ymm0 vblendvpd %ymm0, 24416(%rbx), %ymm7, %ymm0 vmovapd %ymm0, 24416(%rbx) vmovapd 23808(%rbx), %ymm0 vblendvpd %ymm0, 24448(%rbx), %ymm7, %ymm0 vmovapd %ymm0, 23968(%rbx) vmovapd 23616(%rbx), %ymm0 vblendvpd %ymm0, 24096(%rbx), %ymm7, %ymm0 vmovapd %ymm0, 23936(%rbx) vmovapd 23584(%rbx), %ymm0 vblendvpd %ymm0, 24384(%rbx), %ymm7, %ymm0 vmovapd %ymm0, 24384(%rbx) vmovaps 22784(%rbx), %ymm0 vinsertf128 $1, %xmm0, %ymm0, %ymm0 vmovaps %ymm0, 26240(%rbx) vpshufd $8, %xmm4, %xmm0 vmovdqa 32864(%rbx), %ymm1 vpshufd $8, %xmm1, %xmm1 vmovaps 32928(%rbx), %xmm2 vmovlhps %xmm2, %xmm1, %xmm1 vmovaps 32896(%rbx), %xmm2 vmovlhps %xmm2, %xmm0, %xmm0 vmovdqa 26208(%rbx), %ymm2 vmovdqa 32960(%rbx), %ymm3 vpaddd %xmm2, %xmm3, %xmm2 vmovd %xmm2, %eax movslq %eax, %r9 movq %r9, 24096(%rbx) vmovdqa %xmm10, %xmm14 vpshufb %xmm14, %xmm0, %xmm9 vmovdqa %xmm8, %xmm5 vpshufb %xmm5, %xmm1, %xmm0 vmovupd 33056(%rbx,%r9,8), %xmm4 movq 32640(%rbx), %rax vmovupd 33024(%rbx,%rax,8), %xmm3 movq 26336(%rbx), %rsi vmovupd 33024(%rbx,%rsi,8), %xmm2 vmovupd 33056(%rbx,%rsi,8), %xmm1 vmovupd 33024(%rbx,%r9,8), %xmm6 vpor %xmm0, %xmm9, %xmm0 vinsertf128 $1, 33040(%rbx,%r9,8), %ymm6, %ymm12 vinsertf128 $1, 33072(%rbx,%r9,8), %ymm4, %ymm8 vinsertf128 $1, 33040(%rbx,%rax,8), %ymm3, %ymm3 vmovapd %ymm3, 24448(%rbx) vinsertf128 $1, 33040(%rbx,%rsi,8), %ymm2, %ymm9 vinsertf128 $1, 33072(%rbx,%rsi,8), %ymm1, %ymm10 vmovupd 33056(%rbx,%rax,8), %xmm1 vinsertf128 $1, 33072(%rbx,%rax,8), %ymm1, %ymm4 vmovapd %ymm4, 24608(%rbx) vpsllw $15, %xmm0, %xmm0 vpsraw $15, %xmm0, %xmm15 vpunpcklbw %xmm0, %xmm15, %xmm0 vpslld $31, %xmm0, %xmm1 vpmovsxdq %xmm1, %xmm0 vmovhlps %xmm1, %xmm1, %xmm1 vpmovsxdq %xmm1, %xmm1 vinsertf128 $1, %xmm1, %ymm0, %ymm0 vsubpd %ymm4, %ymm8, %ymm2 vsubpd %ymm3, %ymm12, %ymm1 vsubpd %ymm9, %ymm3, %ymm3 vsubpd %ymm10, %ymm4, %ymm4 vmovapd .LCPI1_24(%rip), %ymm6 vmulpd %ymm6, %ymm4, %ymm11 vmulpd %ymm6, %ymm2, %ymm2 vmovapd %ymm2, 24640(%rbx) vmulpd %ymm6, %ymm3, %ymm4 vmulpd %ymm6, %ymm1, %ymm6 vmovapd %ymm6, 26688(%rbx) vblendvpd %ymm0, %ymm13, %ymm7, %ymm0 vmovapd %ymm0, 32864(%rbx) vmulpd %ymm2, %ymm11, %ymm0 vmovapd %ymm11, %ymm1 vxorpd %ymm3, %ymm3, %ymm3 vcmpnlepd %ymm3, %ymm0, %ymm11 vmovapd %ymm11, 32800(%rbx) vextractf128 $1, %ymm11, %xmm0 vpshufd $8, %xmm0, %xmm2 vmovdqa %xmm2, 32928(%rbx) vpshufd $8, %xmm11, %xmm0 vmovlhps %xmm2, %xmm0, %xmm0 vpshufb %xmm5, %xmm0, %xmm0 vmovdqa %xmm5, %xmm11 vmulpd %ymm6, %ymm4, %ymm2 vmovapd %ymm4, %ymm5 vcmpnlepd %ymm3, %ymm2, %ymm4 vextractf128 $1, %ymm4, %xmm2 vpshufd $8, %xmm2, %xmm3 vmovdqa %xmm3, 32896(%rbx) vpshufd $8, %xmm4, %xmm2 vmovlhps %xmm3, %xmm2, %xmm2 vpshufb %xmm14, %xmm2, %xmm2 vmovdqa %xmm14, %xmm13 vpor %xmm0, %xmm2, %xmm0 vpunpckhbw %xmm0, %xmm15, %xmm2 vpslld $31, %xmm2, %xmm2 vpxor .LCPI1_17(%rip), %xmm0, %xmm0 vpmovsxdq %xmm2, %xmm3 vmovhlps %xmm2, %xmm2, %xmm2 vpmovsxdq %xmm2, %xmm2 vinsertf128 $1, %xmm2, %ymm3, %ymm2 vblendvpd %ymm2, 23552(%rbx), %ymm7, %ymm2 vmovapd %ymm2, 23904(%rbx) vpmovzxwd %xmm0, %xmm2 vpslld $31, %xmm2, %xmm2 vpsrad $31, %xmm2, %xmm2 vpunpckhwd %xmm0, %xmm0, %xmm0 vpslld $31, %xmm0, %xmm0 vpsrad $31, %xmm0, %xmm0 vinsertf128 $1, %xmm0, %ymm2, %ymm0 vmovdqa 10176(%rbx), %ymm2 vptest %ymm2, %ymm0 vmovapd 10144(%rbx), %ymm0 vmovapd %ymm0, %ymm2 vmovapd %ymm0, %ymm14 jb .LBB1_3502 vsubpd %ymm10, %ymm8, %ymm0 vsubpd %ymm9, %ymm12, %ymm2 vmovapd .LCPI1_28(%rip), %ymm3 vmulpd %ymm3, %ymm0, %ymm0 vmovapd %ymm0, 23840(%rbx) vmulpd %ymm3, %ymm2, %ymm3 vmovapd %ymm3, 24480(%rbx) vmovapd .LCPI1_56(%rip), %ymm14 vandpd %ymm14, %ymm0, %ymm8 vmovapd %ymm1, 23808(%rbx) vandpd %ymm14, %ymm1, %ymm10 vcmpltpd %ymm8, %ymm10, %ymm0 vextractf128 $1, %ymm0, %xmm2 vpshufd $8, %xmm2, %xmm2 vpshufd $8, %xmm0, %xmm0 vandpd %ymm14, %ymm3, %ymm9 vmovlhps %xmm2, %xmm0, %xmm6 vmovapd %ymm5, 23872(%rbx) vandpd %ymm14, %ymm5, %ymm0 vcmpltpd %ymm9, %ymm0, %ymm2 vextractf128 $1, %ymm2, %xmm3 vpshufd $8, %xmm3, %xmm3 vpshufd $8, %xmm2, %xmm2 vmovlhps %xmm3, %xmm2, %xmm2 vmovapd 24640(%rbx), %ymm12 vandpd %ymm14, %ymm12, %ymm5 vcmpltpd %ymm5, %ymm10, %ymm3 vextractf128 $1, %ymm3, %xmm7 vpshufd $8, %xmm7, %xmm7 vpshufd $8, %xmm3, %xmm3 vmovlhps %xmm7, %xmm3, %xmm3 vmovapd 26688(%rbx), %ymm15 vandpd %ymm14, %ymm15, %ymm10 vcmpltpd %ymm10, %ymm0, %ymm0 vextractf128 $1, %ymm0, %xmm7 vpshufd $8, %xmm7, %xmm7 vpshufd $8, %xmm0, %xmm0 vmovlhps %xmm7, %xmm0, %xmm0 vcmpltpd %ymm9, %ymm10, %ymm9 vpshufb %xmm13, %xmm0, %xmm0 vpshufb %xmm11, %xmm3, %xmm3 vpor %xmm3, %xmm0, %xmm0 vpshufb %xmm13, %xmm2, %xmm2 vpshufb %xmm11, %xmm6, %xmm3 vpor %xmm3, %xmm2, %xmm3 vextractf128 $1, %ymm9, %xmm2 vpshufd $8, %xmm2, %xmm2 vpshufd $8, %xmm9, %xmm6 vmovlhps %xmm2, %xmm6, %xmm2 vpshufd $8, %xmm4, %xmm6 vmovaps 32896(%rbx), %xmm7 vmovlhps %xmm7, %xmm6, %xmm6 vcmpltpd %ymm8, %ymm5, %ymm5 vpsllw $15, %xmm3, %xmm3 vpsraw $15, %xmm3, %xmm3 vmovdqa .LCPI1_17(%rip), %xmm7 vpxor %xmm7, %xmm3, %xmm3 vpsllw $15, %xmm0, %xmm0 vpsraw $15, %xmm0, %xmm0 vpxor %xmm7, %xmm0, %xmm0 vpor %xmm3, %xmm0, %xmm0 vextractf128 $1, %ymm5, %xmm3 vpshufd $8, %xmm3, %xmm3 vpshufd $8, %xmm5, %xmm5 vmovlhps %xmm3, %xmm5, %xmm3 vpshufb %xmm13, %xmm2, %xmm5 vpshufb %xmm13, %xmm6, %xmm2 vmovdqa 32800(%rbx), %ymm1 vpshufd $8, %xmm1, %xmm6 vmovaps 32928(%rbx), %xmm7 vmovlhps %xmm7, %xmm6, %xmm6 vpshufb %xmm11, %xmm6, %xmm6 vpor %xmm6, %xmm2, %xmm2 vpsllw $15, %xmm2, %xmm2 vpsraw $15, %xmm2, %xmm2 vpand %xmm0, %xmm2, %xmm2 vpshufb %xmm11, %xmm3, %xmm0 vpunpckhbw %xmm0, %xmm2, %xmm3 vpor %xmm0, %xmm5, %xmm5 vpslld $31, %xmm3, %xmm0 vpsllw $15, %xmm5, %xmm3 vpsraw $15, %xmm3, %xmm5 vpmovsxdq %xmm0, %xmm3 vmovhlps %xmm0, %xmm0, %xmm0 vpmovsxdq %xmm0, %xmm0 vinsertf128 $1, %xmm0, %ymm3, %ymm0 vpunpckhbw %xmm0, %xmm5, %xmm3 vpslld $31, %xmm3, %xmm6 vpmovsxdq %xmm6, %xmm3 vmovhlps %xmm6, %xmm6, %xmm6 vpmovsxdq %xmm6, %xmm6 vinsertf128 $1, %xmm6, %ymm3, %ymm3 vpunpcklbw %xmm0, %xmm2, %xmm2 vpslld $31, %xmm2, %xmm6 vpmovsxdq %xmm6, %xmm2 vmovhlps %xmm6, %xmm6, %xmm6 vpmovsxdq %xmm6, %xmm6 vpunpcklbw %xmm0, %xmm5, %xmm5 vmovapd 23840(%rbx), %ymm1 vblendvpd %ymm3, %ymm12, %ymm1, %ymm3 vmovapd 23808(%rbx), %ymm1 vblendvpd %ymm0, %ymm3, %ymm1, %ymm0 vmovapd .LCPI1_77(%rip), %ymm7 vmulpd %ymm7, %ymm0, %ymm14 vinsertf128 $1, %xmm6, %ymm2, %ymm0 vpslld $31, %xmm5, %xmm3 vpmovsxdq %xmm3, %xmm2 vmovhlps %xmm3, %xmm3, %xmm3 vpmovsxdq %xmm3, %xmm3 vinsertf128 $1, %xmm3, %ymm2, %ymm2 vmovapd 24480(%rbx), %ymm1 vblendvpd %ymm2, %ymm15, %ymm1, %ymm2 vmovapd 23872(%rbx), %ymm1 vblendvpd %ymm0, %ymm2, %ymm1, %ymm0 vmulpd %ymm7, %ymm0, %ymm2 .LBB1_3502: vmovapd %ymm2, 23872(%rbx) vmovapd 32384(%rbx), %ymm0 vaddpd 32256(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 24640(%rbx) vmovapd 32352(%rbx), %ymm0 vaddpd 24512(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 26688(%rbx) vmovapd 32320(%rbx), %ymm0 vaddpd 31136(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 24480(%rbx) vmovapd 32288(%rbx), %ymm0 vaddpd 31808(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 24512(%rbx) vmovapd 31872(%rbx), %ymm0 vaddpd 26656(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 32352(%rbx) vmovapd 31840(%rbx), %ymm0 vaddpd 24352(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 32384(%rbx) vmovapd 31104(%rbx), %ymm0 vaddpd 24064(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 31872(%rbx) vmovapd 26848(%rbx), %ymm0 vaddpd 24000(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 32320(%rbx) vmovapd 26624(%rbx), %ymm0 vaddpd 24416(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 26656(%rbx) vmovapd 24672(%rbx), %ymm0 vaddpd 23968(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 32256(%rbx) vmovapd 24576(%rbx), %ymm0 vaddpd 23936(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 31136(%rbx) vmovapd 24544(%rbx), %ymm0 vaddpd 24384(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 31808(%rbx) vmovapd 26752(%rbx), %ymm0 vaddpd 32864(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 32864(%rbx) vmovapd 26720(%rbx), %ymm0 vaddpd 23904(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 32288(%rbx) vpshufd $8, %xmm4, %xmm0 vmovdqa 32800(%rbx), %ymm1 vpshufd $8, %xmm1, %xmm1 vmovaps 32928(%rbx), %xmm2 vmovlhps %xmm2, %xmm1, %xmm1 vmovaps 32896(%rbx), %xmm2 vmovlhps %xmm2, %xmm0, %xmm0 vmovdqa 26240(%rbx), %ymm2 vmovdqa 32960(%rbx), %ymm3 vpaddd %xmm2, %xmm3, %xmm2 vmovd %xmm2, %eax movslq %eax, %rcx movq %rcx, 24064(%rbx) vpshufb %xmm13, %xmm0, %xmm7 vmovdqa %xmm11, %xmm0 vpshufb %xmm0, %xmm1, %xmm5 vmovupd 33056(%rbx,%rcx,8), %xmm4 movq 32736(%rbx), %rax vmovupd 33024(%rbx,%rax,8), %xmm3 movq 26304(%rbx), %rsi vmovupd 33024(%rbx,%rsi,8), %xmm2 vmovupd 33056(%rbx,%rsi,8), %xmm1 vmovupd 33024(%rbx,%rcx,8), %xmm6 vpor %xmm5, %xmm7, %xmm5 vinsertf128 $1, 33040(%rbx,%rcx,8), %ymm6, %ymm7 vmovapd %ymm7, 26624(%rbx) vinsertf128 $1, 33072(%rbx,%rcx,8), %ymm4, %ymm12 vinsertf128 $1, 33040(%rbx,%rax,8), %ymm3, %ymm4 vmovapd %ymm4, 31104(%rbx) vinsertf128 $1, 33040(%rbx,%rsi,8), %ymm2, %ymm9 vinsertf128 $1, 33072(%rbx,%rsi,8), %ymm1, %ymm11 vmovupd 33056(%rbx,%rax,8), %xmm1 vinsertf128 $1, 33072(%rbx,%rax,8), %ymm1, %ymm6 vmovapd %ymm6, 26848(%rbx) vpsllw $15, %xmm5, %xmm1 vpsraw $15, %xmm1, %xmm5 vpunpcklbw %xmm0, %xmm5, %xmm1 vpslld $31, %xmm1, %xmm2 vpmovsxdq %xmm2, %xmm1 vmovhlps %xmm2, %xmm2, %xmm2 vpmovsxdq %xmm2, %xmm2 vinsertf128 $1, %xmm2, %ymm1, %ymm1 vsubpd %ymm6, %ymm12, %ymm3 vsubpd %ymm4, %ymm7, %ymm2 vsubpd %ymm9, %ymm4, %ymm4 vsubpd %ymm11, %ymm6, %ymm6 vmovapd .LCPI1_24(%rip), %ymm7 vmulpd %ymm7, %ymm6, %ymm8 vmulpd %ymm7, %ymm3, %ymm3 vmovapd %ymm3, 26720(%rbx) vmulpd %ymm7, %ymm4, %ymm10 vmovapd %ymm14, %ymm15 vmulpd %ymm7, %ymm2, %ymm14 vmovapd %ymm14, 26752(%rbx) vmovapd .LCPI1_25(%rip), %ymm6 vblendvpd %ymm1, 23872(%rbx), %ymm6, %ymm1 vmulpd %ymm3, %ymm8, %ymm2 vxorpd %ymm4, %ymm4, %ymm4 vcmpnlepd %ymm4, %ymm2, %ymm3 vmovapd %ymm3, 32960(%rbx) vextractf128 $1, %ymm3, %xmm2 vpshufd $8, %xmm2, %xmm7 vmovdqa %xmm7, 32928(%rbx) vpshufd $8, %xmm3, %xmm2 vmovlhps %xmm7, %xmm2, %xmm2 vpshufb %xmm0, %xmm2, %xmm2 vmulpd %ymm14, %ymm10, %ymm3 vmovapd %ymm10, %ymm7 vcmpnlepd %ymm4, %ymm3, %ymm0 vmovapd %ymm0, 32896(%rbx) vextractf128 $1, %ymm0, %xmm3 vpshufd $8, %xmm3, %xmm4 vmovdqa %xmm4, 32800(%rbx) vpshufd $8, %xmm0, %xmm3 vmovlhps %xmm4, %xmm3, %xmm3 vpshufb %xmm13, %xmm3, %xmm3 vmovdqa %xmm13, %xmm14 vpor %xmm2, %xmm3, %xmm2 vmovapd 24448(%rbx), %ymm0 vaddpd %ymm1, %ymm0, %ymm0 vmovapd %ymm0, 31840(%rbx) vpunpckhbw %xmm0, %xmm5, %xmm1 vpslld $31, %xmm1, %xmm3 vpxor .LCPI1_17(%rip), %xmm2, %xmm1 vpmovsxdq %xmm3, %xmm2 vmovhlps %xmm3, %xmm3, %xmm3 vpmovsxdq %xmm3, %xmm3 vinsertf128 $1, %xmm3, %ymm2, %ymm2 vblendvpd %ymm2, %ymm15, %ymm6, %ymm2 vpmovzxwd %xmm1, %xmm3 vpslld $31, %xmm3, %xmm3 vpsrad $31, %xmm3, %xmm3 vpunpckhwd %xmm0, %xmm1, %xmm1 vpslld $31, %xmm1, %xmm1 vpsrad $31, %xmm1, %xmm1 vinsertf128 $1, %xmm1, %ymm3, %ymm1 vmovapd 24608(%rbx), %ymm0 vaddpd %ymm2, %ymm0, %ymm0 vmovapd %ymm0, 24608(%rbx) vmovdqa 10112(%rbx), %ymm2 vptest %ymm2, %ymm1 vmovapd 10080(%rbx), %ymm1 vmovapd %ymm1, %ymm6 vmovapd %ymm1, %ymm5 jb .LBB1_3504 vsubpd %ymm11, %ymm12, %ymm1 vmovapd 26624(%rbx), %ymm0 vsubpd %ymm9, %ymm0, %ymm0 vmovapd .LCPI1_28(%rip), %ymm2 vmulpd %ymm2, %ymm1, %ymm1 vmovapd %ymm1, 24672(%rbx) vmulpd %ymm2, %ymm0, %ymm3 vmovapd %ymm3, 26624(%rbx) vmovapd .LCPI1_56(%rip), %ymm15 vandpd %ymm15, %ymm1, %ymm0 vmovapd %ymm8, %ymm6 vandpd %ymm15, %ymm6, %ymm13 vcmpltpd %ymm0, %ymm13, %ymm1 vextractf128 $1, %ymm1, %xmm2 vpshufd $8, %xmm2, %xmm2 vpshufd $8, %xmm1, %xmm1 vandpd %ymm15, %ymm3, %ymm12 vmovlhps %xmm2, %xmm1, %xmm1 vmovapd %ymm7, %ymm9 vandpd %ymm15, %ymm9, %ymm2 vcmpltpd %ymm12, %ymm2, %ymm3 vextractf128 $1, %ymm3, %xmm4 vpshufd $8, %xmm4, %xmm4 vpshufd $8, %xmm3, %xmm3 vmovlhps %xmm4, %xmm3, %xmm4 vmovapd 26720(%rbx), %ymm8 vandpd %ymm15, %ymm8, %ymm11 vcmpltpd %ymm11, %ymm13, %ymm3 vextractf128 $1, %ymm3, %xmm7 vpshufd $8, %xmm7, %xmm7 vpshufd $8, %xmm3, %xmm3 vmovlhps %xmm7, %xmm3, %xmm3 vmovapd 26752(%rbx), %ymm10 vandpd %ymm15, %ymm10, %ymm13 vcmpltpd %ymm13, %ymm2, %ymm2 vextractf128 $1, %ymm2, %xmm7 vpshufd $8, %xmm7, %xmm7 vpshufd $8, %xmm2, %xmm2 vmovlhps %xmm7, %xmm2, %xmm2 vcmpltpd %ymm12, %ymm13, %ymm12 vpshufb %xmm14, %xmm2, %xmm2 vmovdqa .LCPI1_20(%rip), %xmm5 vpshufb %xmm5, %xmm3, %xmm3 vpor %xmm3, %xmm2, %xmm2 vpshufb %xmm14, %xmm4, %xmm3 vpshufb %xmm5, %xmm1, %xmm1 vpor %xmm1, %xmm3, %xmm3 vextractf128 $1, %ymm12, %xmm1 vpshufd $8, %xmm1, %xmm1 vpshufd $8, %xmm12, %xmm4 vmovlhps %xmm1, %xmm4, %xmm1 vmovdqa 32896(%rbx), %ymm4 vpshufd $8, %xmm4, %xmm4 vmovaps 32800(%rbx), %xmm7 vmovlhps %xmm7, %xmm4, %xmm4 vcmpltpd %ymm0, %ymm11, %ymm11 vpsllw $15, %xmm3, %xmm0 vpsraw $15, %xmm0, %xmm0 vmovdqa .LCPI1_17(%rip), %xmm3 vpxor %xmm3, %xmm0, %xmm0 vpsllw $15, %xmm2, %xmm2 vpsraw $15, %xmm2, %xmm2 vpxor %xmm3, %xmm2, %xmm2 vpor %xmm0, %xmm2, %xmm0 vextractf128 $1, %ymm11, %xmm2 vpshufd $8, %xmm2, %xmm2 vpshufd $8, %xmm11, %xmm3 vmovlhps %xmm2, %xmm3, %xmm2 vpshufb %xmm14, %xmm1, %xmm1 vpshufb %xmm14, %xmm4, %xmm3 vmovdqa 32960(%rbx), %ymm4 vpshufd $8, %xmm4, %xmm4 vmovaps 32928(%rbx), %xmm7 vmovlhps %xmm7, %xmm4, %xmm4 vpshufb %xmm5, %xmm4, %xmm4 vpor %xmm4, %xmm3, %xmm3 vpsllw $15, %xmm3, %xmm3 vpsraw $15, %xmm3, %xmm3 vpand %xmm0, %xmm3, %xmm0 vpshufb %xmm5, %xmm2, %xmm2 vpunpckhbw %xmm0, %xmm0, %xmm3 vpor %xmm2, %xmm1, %xmm1 vpslld $31, %xmm3, %xmm2 vpsllw $15, %xmm1, %xmm1 vpsraw $15, %xmm1, %xmm1 vpmovsxdq %xmm2, %xmm3 vmovhlps %xmm2, %xmm2, %xmm2 vpmovsxdq %xmm2, %xmm2 vinsertf128 $1, %xmm2, %ymm3, %ymm2 vpunpckhbw %xmm0, %xmm1, %xmm3 vpslld $31, %xmm3, %xmm4 vpmovsxdq %xmm4, %xmm3 vmovhlps %xmm4, %xmm4, %xmm4 vpmovsxdq %xmm4, %xmm4 vinsertf128 $1, %xmm4, %ymm3, %ymm3 vpunpcklbw %xmm0, %xmm0, %xmm0 vpslld $31, %xmm0, %xmm4 vpmovsxdq %xmm4, %xmm0 vmovhlps %xmm4, %xmm4, %xmm4 vpmovsxdq %xmm4, %xmm4 vpunpcklbw %xmm0, %xmm1, %xmm1 vmovapd 24672(%rbx), %ymm5 vblendvpd %ymm3, %ymm8, %ymm5, %ymm3 vblendvpd %ymm2, %ymm3, %ymm6, %ymm2 vmovapd .LCPI1_77(%rip), %ymm3 vmulpd %ymm3, %ymm2, %ymm5 vinsertf128 $1, %xmm4, %ymm0, %ymm0 vpslld $31, %xmm1, %xmm2 vpmovsxdq %xmm2, %xmm1 vmovhlps %xmm2, %xmm2, %xmm2 vpmovsxdq %xmm2, %xmm2 vinsertf128 $1, %xmm2, %ymm1, %ymm1 vmovapd 26624(%rbx), %ymm2 vblendvpd %ymm1, %ymm10, %ymm2, %ymm1 vblendvpd %ymm0, %ymm1, %ymm9, %ymm0 vmulpd %ymm3, %ymm0, %ymm6 .LBB1_3504: vmovapd .LCPI1_19(%rip), %ymm7 vmovapd 24640(%rbx), %ymm10 vcmpltpd %ymm7, %ymm10, %ymm0 vextractf128 $1, %ymm0, %xmm1 vpshufd $8, %xmm1, %xmm1 vpshufd $8, %xmm0, %xmm0 vmovlhps %xmm1, %xmm0, %xmm0 vmovapd 26688(%rbx), %ymm9 vcmpltpd %ymm7, %ymm9, %ymm1 vextractf128 $1, %ymm1, %xmm2 vpshufb %xmm14, %xmm0, %xmm0 vpshufd $8, %xmm2, %xmm2 vpshufd $8, %xmm1, %xmm1 vmovlhps %xmm2, %xmm1, %xmm1 vmovdqa .LCPI1_20(%rip), %xmm8 vpshufb %xmm8, %xmm1, %xmm2 vmovapd 24512(%rbx), %ymm11 vcmpltpd %ymm7, %ymm11, %ymm1 vpor %xmm2, %xmm0, %xmm0 vextractf128 $1, %ymm1, %xmm2 vpshufd $8, %xmm2, %xmm2 vpshufd $8, %xmm1, %xmm1 vmovlhps %xmm2, %xmm1, %xmm2 vmovapd 24480(%rbx), %ymm12 vcmpltpd %ymm7, %ymm12, %ymm1 vextractf128 $1, %ymm1, %xmm3 vpshufd $8, %xmm3, %xmm3 vpshufd $8, %xmm1, %xmm1 vmovlhps %xmm3, %xmm1, %xmm3 vpsllw $15, %xmm0, %xmm0 vpsraw $15, %xmm0, %xmm1 vpshufb %xmm14, %xmm3, %xmm0 vpshufb %xmm8, %xmm2, %xmm2 vpor %xmm2, %xmm0, %xmm2 vpunpckhbw %xmm0, %xmm1, %xmm0 vpslld $31, %xmm0, %xmm3 vpmovsxdq %xmm3, %xmm0 vmovhlps %xmm3, %xmm3, %xmm3 vpmovsxdq %xmm3, %xmm3 vinsertf128 $1, %xmm3, %ymm0, %ymm0 vpsllw $15, %xmm2, %xmm2 vpsraw $15, %xmm2, %xmm2 vpunpckhbw %xmm0, %xmm2, %xmm3 vpslld $31, %xmm3, %xmm4 vpmovsxdq %xmm4, %xmm3 vmovhlps %xmm4, %xmm4, %xmm4 vpmovsxdq %xmm4, %xmm4 vinsertf128 $1, %xmm4, %ymm3, %ymm3 vpunpcklbw %xmm0, %xmm1, %xmm1 vpslld $31, %xmm1, %xmm4 vpmovsxdq %xmm4, %xmm1 vmovhlps %xmm4, %xmm4, %xmm4 vpmovsxdq %xmm4, %xmm4 vinsertf128 $1, %xmm4, %ymm1, %ymm1 vpunpcklbw %xmm0, %xmm2, %xmm2 vpslld $31, %xmm2, %xmm4 vpmovsxdq %xmm4, %xmm2 vmovhlps %xmm4, %xmm4, %xmm4 vpmovsxdq %xmm4, %xmm4 vinsertf128 $1, %xmm4, %ymm2, %ymm2 vblendvpd %ymm2, %ymm7, %ymm12, %ymm2 vmovapd %ymm2, 24000(%rbx) vblendvpd %ymm1, %ymm7, %ymm10, %ymm1 vmovapd %ymm1, 26720(%rbx) vblendvpd %ymm3, %ymm7, %ymm11, %ymm1 vmovapd %ymm1, 24352(%rbx) vblendvpd %ymm0, %ymm7, %ymm9, %ymm0 vmovapd %ymm0, 26688(%rbx) vxorpd %ymm4, %ymm4, %ymm4 vmovapd 32352(%rbx), %ymm15 vmulpd %ymm4, %ymm15, %ymm0 vmovapd 26656(%rbx), %ymm9 vmulpd %ymm0, %ymm9, %ymm1 vmovapd 31872(%rbx), %ymm12 vmulpd %ymm0, %ymm12, %ymm0 vaddpd %ymm1, %ymm0, %ymm1 vmovapd 32384(%rbx), %ymm10 vmulpd %ymm4, %ymm10, %ymm0 vmovapd 32256(%rbx), %ymm13 vmulpd %ymm0, %ymm13, %ymm2 vmovapd 32320(%rbx), %ymm11 vmulpd %ymm0, %ymm11, %ymm0 vaddpd %ymm2, %ymm0, %ymm2 vmovdqa 32960(%rbx), %ymm0 vpshufd $8, %xmm0, %xmm0 vmovaps 32928(%rbx), %xmm3 vmovlhps %xmm3, %xmm0, %xmm0 vmovdqa 32896(%rbx), %ymm3 vpshufd $8, %xmm3, %xmm3 vmovaps 32800(%rbx), %xmm7 vmovlhps %xmm7, %xmm3, %xmm3 vpshufb %xmm14, %xmm3, %xmm3 vpshufb %xmm8, %xmm0, %xmm0 vpor %xmm0, %xmm3, %xmm0 vmulpd %ymm4, %ymm11, %ymm3 vmulpd %ymm3, %ymm13, %ymm3 vaddpd %ymm3, %ymm2, %ymm2 vmulpd %ymm4, %ymm12, %ymm3 vmulpd %ymm3, %ymm9, %ymm3 vaddpd %ymm3, %ymm1, %ymm1 vmulpd %ymm15, %ymm15, %ymm3 vmovapd .LCPI1_23(%rip), %ymm7 vaddpd %ymm7, %ymm3, %ymm3 vmulpd %ymm10, %ymm10, %ymm4 vaddpd %ymm7, %ymm4, %ymm4 vmulpd %ymm11, %ymm11, %ymm7 vaddpd %ymm7, %ymm4, %ymm4 vmulpd %ymm13, %ymm13, %ymm7 vaddpd %ymm7, %ymm4, %ymm4 vmulpd %ymm12, %ymm12, %ymm7 vaddpd %ymm7, %ymm3, %ymm3 vmulpd %ymm9, %ymm9, %ymm7 vaddpd %ymm7, %ymm3, %ymm3 vmovapd .LCPI1_24(%rip), %ymm7 vmulpd %ymm7, %ymm1, %ymm1 vaddpd %ymm1, %ymm3, %ymm1 vmulpd %ymm7, %ymm2, %ymm2 vaddpd %ymm2, %ymm4, %ymm2 vpsllw $15, %xmm0, %xmm0 vpsraw $15, %xmm0, %xmm0 vpunpcklbw %xmm0, %xmm0, %xmm3 vpslld $31, %xmm3, %xmm4 vpmovsxdq %xmm4, %xmm3 vmovhlps %xmm4, %xmm4, %xmm4 vpmovsxdq %xmm4, %xmm4 vinsertf128 $1, %xmm4, %ymm3, %ymm3 vpunpckhbw %xmm0, %xmm0, %xmm0 vpslld $31, %xmm0, %xmm4 vpmovsxdq %xmm4, %xmm0 vmovhlps %xmm4, %xmm4, %xmm4 vpmovsxdq %xmm4, %xmm4 vinsertf128 $1, %xmm4, %ymm0, %ymm0 vsqrtpd %ymm1, %ymm1 vmovapd .LCPI1_25(%rip), %ymm8 vmulpd %ymm8, %ymm1, %ymm4 vmovapd 12096(%rbx), %ymm7 vmulpd %ymm7, %ymm4, %ymm4 vsubpd %ymm4, %ymm9, %ymm9 vmovapd %ymm9, 22368(%rbx) vmovapd %ymm9, %ymm14 vsubpd %ymm4, %ymm12, %ymm12 vmovapd %ymm12, 23616(%rbx) vsubpd %ymm4, %ymm15, %ymm4 vmovapd %ymm4, 26752(%rbx) vdivpd %ymm7, %ymm1, %ymm9 vmovapd %ymm9, 32352(%rbx) vblendvpd %ymm0, %ymm5, %ymm8, %ymm0 vmovapd %ymm0, 26656(%rbx) vblendvpd %ymm3, %ymm6, %ymm8, %ymm0 vmovapd %ymm0, 32800(%rbx) vsqrtpd %ymm2, %ymm2 vmulpd %ymm8, %ymm2, %ymm3 vmulpd %ymm7, %ymm3, %ymm3 vsubpd %ymm3, %ymm13, %ymm5 vmovapd %ymm5, 22336(%rbx) vmovapd %ymm5, %ymm8 vsubpd %ymm3, %ymm11, %ymm13 vmovapd %ymm13, 23584(%rbx) vsubpd %ymm3, %ymm10, %ymm11 vmovapd %ymm11, 32384(%rbx) vdivpd %ymm7, %ymm2, %ymm0 vmovapd %ymm0, 32320(%rbx) vmovapd %ymm0, %ymm6 vxorpd %ymm0, %ymm0, %ymm0 vmulpd %ymm0, %ymm9, %ymm3 vmovapd %ymm4, %ymm7 vmulpd %ymm0, %ymm7, %ymm2 vmovapd %ymm2, 24480(%rbx) vaddpd %ymm2, %ymm3, %ymm2 vaddpd %ymm12, %ymm2, %ymm4 vmovapd %ymm14, %ymm15 vmulpd %ymm0, %ymm15, %ymm5 vmovapd %ymm5, 24448(%rbx) vaddpd %ymm5, %ymm4, %ymm4 vmovapd %ymm4, 32256(%rbx) vaddpd %ymm7, %ymm3, %ymm3 vmovapd %ymm7, %ymm1 vmulpd %ymm0, %ymm12, %ymm7 vmovapd %ymm7, 24416(%rbx) vaddpd %ymm7, %ymm3, %ymm3 vaddpd %ymm5, %ymm3, %ymm3 vmovapd %ymm3, 32928(%rbx) vmovapd 31136(%rbx), %ymm10 vmulpd %ymm3, %ymm10, %ymm3 vmovapd 32864(%rbx), %ymm5 vmulpd %ymm4, %ymm5, %ymm4 vaddpd %ymm4, %ymm3, %ymm3 vaddpd %ymm7, %ymm2, %ymm2 vaddpd %ymm15, %ymm2, %ymm2 vmovapd %ymm2, 24384(%rbx) vmovapd 31840(%rbx), %ymm4 vmulpd %ymm2, %ymm4, %ymm2 vaddpd %ymm2, %ymm3, %ymm14 vmovapd %ymm14, 22304(%rbx) vmulpd %ymm0, %ymm6, %ymm3 vmulpd %ymm0, %ymm11, %ymm2 vmovapd %ymm2, 26624(%rbx) vaddpd %ymm2, %ymm3, %ymm2 vaddpd %ymm13, %ymm2, %ymm4 vmulpd %ymm0, %ymm8, %ymm5 vmovapd %ymm5, 24544(%rbx) vaddpd %ymm5, %ymm4, %ymm12 vmovapd %ymm12, 32896(%rbx) vaddpd %ymm11, %ymm3, %ymm3 vmulpd %ymm0, %ymm13, %ymm7 vmovapd %ymm7, 24512(%rbx) vaddpd %ymm7, %ymm3, %ymm3 vaddpd %ymm5, %ymm3, %ymm0 vmovapd %ymm0, 32960(%rbx) vmovapd 31808(%rbx), %ymm6 vmulpd %ymm0, %ymm6, %ymm3 vmovapd 32288(%rbx), %ymm0 vmulpd %ymm12, %ymm0, %ymm4 vaddpd %ymm4, %ymm3, %ymm3 vaddpd %ymm7, %ymm2, %ymm2 vaddpd %ymm8, %ymm2, %ymm0 vmovapd %ymm0, 31872(%rbx) vmovapd 24608(%rbx), %ymm7 vmulpd %ymm0, %ymm7, %ymm2 vaddpd %ymm2, %ymm3, %ymm12 vmovapd %ymm12, 22272(%rbx) vmovapd 31104(%rbx), %ymm0 vaddpd 32800(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 32800(%rbx) vmovapd 26848(%rbx), %ymm0 vaddpd 26656(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 24576(%rbx) vmulpd %ymm1, %ymm14, %ymm0 vmovapd %ymm0, 17760(%rbx) vaddpd %ymm0, %ymm10, %ymm0 vmovapd %ymm9, %ymm3 vdivpd %ymm3, %ymm0, %ymm4 vmovapd %ymm4, 24672(%rbx) vmovapd .LCPI1_22(%rip), %ymm13 vmulpd %ymm13, %ymm14, %ymm0 vxorpd %ymm5, %ymm5, %ymm5 vmulpd %ymm5, %ymm4, %ymm1 vaddpd %ymm1, %ymm0, %ymm0 vmulpd %ymm5, %ymm14, %ymm2 vaddpd %ymm1, %ymm2, %ymm9 vaddpd %ymm4, %ymm2, %ymm1 vmulpd 23616(%rbx), %ymm14, %ymm2 vmovapd %ymm2, 17728(%rbx) vmovapd 32864(%rbx), %ymm4 vaddpd %ymm2, %ymm4, %ymm2 vdivpd %ymm3, %ymm2, %ymm2 vmovapd %ymm2, 24640(%rbx) vmulpd %ymm5, %ymm2, %ymm10 vaddpd %ymm10, %ymm1, %ymm1 vaddpd %ymm10, %ymm0, %ymm0 vmulpd %ymm15, %ymm14, %ymm2 vmovapd %ymm2, 17696(%rbx) vmovapd 31840(%rbx), %ymm4 vaddpd %ymm2, %ymm4, %ymm2 vdivpd %ymm3, %ymm2, %ymm2 vmovapd %ymm2, 23552(%rbx) vmulpd %ymm5, %ymm2, %ymm2 vaddpd %ymm2, %ymm0, %ymm0 vmovapd %ymm0, 32864(%rbx) vaddpd %ymm2, %ymm1, %ymm14 vmovapd %ymm14, 23424(%rbx) vmovapd %ymm12, %ymm15 vmulpd %ymm11, %ymm15, %ymm0 vmovapd %ymm0, 17664(%rbx) vaddpd %ymm0, %ymm6, %ymm0 vmovapd 32320(%rbx), %ymm3 vdivpd %ymm3, %ymm0, %ymm4 vmovapd %ymm4, 26656(%rbx) vmulpd %ymm13, %ymm15, %ymm0 vmulpd %ymm5, %ymm4, %ymm1 vaddpd %ymm1, %ymm0, %ymm0 vmulpd %ymm5, %ymm15, %ymm2 vxorpd %ymm5, %ymm5, %ymm5 vaddpd %ymm1, %ymm2, %ymm12 vaddpd %ymm4, %ymm2, %ymm1 vmovapd %ymm4, %ymm13 vmulpd 23584(%rbx), %ymm15, %ymm2 vmovapd %ymm2, 17632(%rbx) vmovapd 32288(%rbx), %ymm4 vaddpd %ymm2, %ymm4, %ymm2 vdivpd %ymm3, %ymm2, %ymm2 vmovapd %ymm2, 23520(%rbx) vmulpd %ymm5, %ymm2, %ymm6 vmovapd %ymm2, %ymm11 vaddpd %ymm6, %ymm1, %ymm1 vaddpd %ymm6, %ymm0, %ymm0 vmulpd %ymm8, %ymm15, %ymm2 vmovapd %ymm2, 17600(%rbx) vaddpd %ymm2, %ymm7, %ymm2 vdivpd %ymm3, %ymm2, %ymm4 vmovapd %ymm4, 23488(%rbx) vmulpd %ymm5, %ymm4, %ymm2 vmovapd %ymm4, %ymm8 vaddpd %ymm2, %ymm0, %ymm0 vmovapd %ymm0, 31840(%rbx) vaddpd %ymm2, %ymm1, %ymm15 vmovapd %ymm15, 23360(%rbx) movq 25632(%rbx), %rax movabsq $-4616189618054758400, %rsi movq %rsi, (%rax) movq 25600(%rbx), %rax movq %rsi, (%rax) movq 25568(%rbx), %rax movq %rsi, (%rax) movq 32576(%rbx), %rax movq %rsi, (%rax) movq 25760(%rbx), %rax movq %rsi, (%rax) movq 32704(%rbx), %rax movq %rsi, (%rax) movq 25728(%rbx), %rax movq %rsi, (%rax) movq 25696(%rbx), %rax movq %rsi, (%rax) vxorpd %xmm0, %xmm0, %xmm0 movq 24976(%rbx), %rax vmovupd %xmm0, 16(%rax) vmovupd %xmm0, (%rax) movq 24928(%rbx), %rax vmovupd %xmm0, 16(%rax) vmovupd %xmm0, (%rax) movq 25216(%rbx), %rax vmovupd %xmm0, 16(%rax) vmovupd %xmm0, (%rax) movq 25184(%rbx), %rax vmovupd %xmm0, 16(%rax) vmovupd %xmm0, (%rax) movq 25152(%rbx), %rax vmovupd %xmm0, 16(%rax) vmovupd %xmm0, (%rax) vmovupd %xmm0, 16(%r10) vmovupd %xmm0, (%r10) vmovupd %xmm0, 16(%r15) vmovupd %xmm0, (%r15) movq 25088(%rbx), %rax vmovupd %xmm0, 16(%rax) vmovupd %xmm0, (%rax) movabsq $4607182418800017408, %r15 movq %r15, (%r11) movq 25856(%rbx), %rax movq %r15, (%rax) movq 25824(%rbx), %rax movq %r15, (%rax) movq 25888(%rbx), %rax movq %r15, (%rax) movq 25920(%rbx), %rax movq %r15, (%rax) movq 25984(%rbx), %rax movq %r15, (%rax) movq 25952(%rbx), %rax movq %r15, (%rax) movq 26016(%rbx), %rax movq %r15, (%rax) movq 25056(%rbx), %rax vmovupd %xmm0, 16(%rax) vmovupd %xmm0, (%rax) movq 25040(%rbx), %rax vmovupd %xmm0, 16(%rax) vmovupd %xmm0, (%rax) movq 24992(%rbx), %rax vmovupd %xmm0, 16(%rax) vmovupd %xmm0, (%rax) movq 25392(%rbx), %rax vmovupd %xmm0, 16(%rax) vmovupd %xmm0, (%rax) movq 25344(%rbx), %rax vmovupd %xmm0, 16(%rax) vmovupd %xmm0, (%rax) movq 25312(%rbx), %rax vmovupd %xmm0, 16(%rax) vmovupd %xmm0, (%rax) movq 25280(%rbx), %rax vmovupd %xmm0, 16(%rax) vmovupd %xmm0, (%rax) movq 25248(%rbx), %rax vmovupd %xmm0, 16(%rax) vmovupd %xmm0, (%rax) movq 31552(%rbx), %rax movq %r15, (%rax) movq 31584(%rbx), %rax movq %r15, (%rax) movq 31616(%rbx), %rax movq %r15, (%rax) movq 31648(%rbx), %rax movq %r15, (%rax) movq 31904(%rbx), %rax movq %r15, (%rax) movq 31936(%rbx), %rax movq %r15, (%rax) movq 31680(%rbx), %rax movq %r15, (%rax) movq 31968(%rbx), %rax movq %r15, (%rax) vmovupd %xmm0, 16(%r8) vmovupd %xmm0, (%r8) movq 25504(%rbx), %rax vmovupd %xmm0, 16(%rax) vmovupd %xmm0, (%rax) vmovupd %xmm0, 16(%r14) vmovupd %xmm0, (%r14) movq 25456(%rbx), %rax vmovupd %xmm0, 16(%rax) vmovupd %xmm0, (%rax) movq 25440(%rbx), %rax vmovupd %xmm0, 16(%rax) vmovupd %xmm0, (%rax) vmovupd %xmm0, 16(%r13) vmovupd %xmm0, (%r13) movq 32128(%rbx), %rax vmovupd %xmm0, 16(%rax) vmovupd %xmm0, (%rax) movq 32672(%rbx), %rax vmovupd %xmm0, 16(%rax) vmovupd %xmm0, (%rax) movq 31264(%rbx), %r11 movq %r15, (%r11) movq 31296(%rbx), %rax movq %r15, (%rax) movq 31200(%rbx), %r8 movq %r15, (%r8) movq 31232(%rbx), %r10 movq %r15, (%r10) movq 32000(%rbx), %r9 movq %r15, (%r9) movq 32032(%rbx), %r14 movq %r15, (%r14) movq 31168(%rbx), %rcx movq %r15, (%rcx) movq 31072(%rbx), %r13 movq %r15, (%r13) movq %rsi, (%rdx) movq 30752(%rbx), %rdx movq %rsi, (%rdx) movq 30656(%rbx), %rdx movq %rsi, (%rdx) movq 30688(%rbx), %rdx movq %rsi, (%rdx) movq 30848(%rbx), %rdx movq %rsi, (%rdx) movq 31008(%rbx), %rdx movq %rsi, (%rdx) movq 30816(%rbx), %rdx movq %rsi, (%rdx) movq 30976(%rbx), %rdx movq %rsi, (%rdx) movabsq $-9223372036854775808, %rdx movq 30592(%rbx), %rsi movq %rdx, (%rsi) movq 30624(%rbx), %rsi movq %rdx, (%rsi) movq 30528(%rbx), %rsi movq %rdx, (%rsi) movq 30560(%rbx), %rsi movq %rdx, (%rsi) movq 30784(%rbx), %rsi movq %rdx, (%rsi) movq 30944(%rbx), %rsi movq %rdx, (%rsi) movq 30880(%rbx), %rsi movq %rdx, (%rsi) movq 30912(%rbx), %rsi movq %rdx, (%rsi) movq 30368(%rbx), %rsi movq %rdx, (%rsi) movq 30336(%rbx), %rsi movq %rdx, (%rsi) movq 30304(%rbx), %rsi movq %rdx, (%rsi) movq 30272(%rbx), %rsi movq %rdx, (%rsi) movq 30496(%rbx), %rsi movq %rdx, (%rsi) movq 30464(%rbx), %rsi movq %rdx, (%rsi) movq 30432(%rbx), %rsi movq %rdx, (%rsi) movq 30400(%rbx), %rsi movq %rdx, (%rsi) movq 28160(%rbx), %rsi movq %rdx, (%rsi) movq 30112(%rbx), %rsi movq %rdx, (%rsi) movq 30080(%rbx), %rsi movq %rdx, (%rsi) movq 30048(%rbx), %rsi movq %rdx, (%rsi) movq 30240(%rbx), %rsi movq %rdx, (%rsi) movq 30208(%rbx), %rsi movq %rdx, (%rsi) movq 30176(%rbx), %rsi movq %rdx, (%rsi) movq 30144(%rbx), %rsi movq %rdx, (%rsi) movq 29312(%rbx), %rsi movq %rdx, (%rsi) movq 29280(%rbx), %rsi movq %rdx, (%rsi) movq 29120(%rbx), %rsi movq %rdx, (%rsi) movq 29088(%rbx), %rsi movq %rdx, (%rsi) movq 29952(%rbx), %rsi movq %rdx, (%rsi) movq 29920(%rbx), %rsi movq %rdx, (%rsi) movq 29760(%rbx), %rsi movq %rdx, (%rsi) movq 29728(%rbx), %rsi movq %rdx, (%rsi) movq 29184(%rbx), %rsi movq %r15, (%rsi) movq 29152(%rbx), %rsi movq %r15, (%rsi) movq 29056(%rbx), %rsi movq %r15, (%rsi) movq 29024(%rbx), %rsi movq %r15, (%rsi) movq 29824(%rbx), %rsi movq %r15, (%rsi) movq 29792(%rbx), %rsi movq %r15, (%rsi) movq 29696(%rbx), %rsi movq %r15, (%rsi) movq 29664(%rbx), %rsi movq %r15, (%rsi) movq 29440(%rbx), %rsi movq %rdx, (%rsi) movq 29408(%rbx), %rsi movq %rdx, (%rsi) movq 29248(%rbx), %rsi movq %rdx, (%rsi) movq 29216(%rbx), %rsi movq %rdx, (%rsi) movq 30016(%rbx), %rsi movq %rdx, (%rsi) movq 29984(%rbx), %rsi movq %rdx, (%rsi) movq 29888(%rbx), %rsi movq %rdx, (%rsi) movq 29856(%rbx), %rsi movq %rdx, (%rsi) movq 28288(%rbx), %rsi movq %rdx, (%rsi) movq 28256(%rbx), %rsi movq %rdx, (%rsi) movq 28128(%rbx), %rsi movq %rdx, (%rsi) movq 28096(%rbx), %rsi movq %rdx, (%rsi) movq 29568(%rbx), %rsi movq %rdx, (%rsi) movq 29536(%rbx), %rsi movq %rdx, (%rsi) movq 29376(%rbx), %rsi movq %rdx, (%rsi) movq 29344(%rbx), %rsi movq %rdx, (%rsi) movq 28672(%rbx), %rsi movq %rdx, (%rsi) movq 28640(%rbx), %rsi movq %rdx, (%rsi) movq 28416(%rbx), %rsi movq %rdx, (%rsi) movq 28384(%rbx), %rsi movq %rdx, (%rsi) movq 28992(%rbx), %rsi movq %rdx, (%rsi) movq 28960(%rbx), %rsi movq %rdx, (%rsi) movq 28864(%rbx), %rsi movq %rdx, (%rsi) movq 28832(%rbx), %rsi movq %rdx, (%rsi) movq 28480(%rbx), %rsi movq %rdx, (%rsi) movq 28448(%rbx), %rsi movq %rdx, (%rsi) movq 28224(%rbx), %rsi movq %rdx, (%rsi) movq 28192(%rbx), %rsi movq %rdx, (%rsi) movq 29632(%rbx), %rsi movq %rdx, (%rsi) movq 29600(%rbx), %rsi movq %rdx, (%rsi) movq 29504(%rbx), %rsi movq %rdx, (%rsi) movq 29472(%rbx), %rsi movq %rdx, (%rsi) movq 27808(%rbx), %rsi movq %r15, (%rsi) movq 27776(%rbx), %rsi movq %r15, (%rsi) movq 27616(%rbx), %rsi movq %r15, (%rsi) movq 27584(%rbx), %rsi movq %r15, (%rsi) movq 28928(%rbx), %rsi movq %r15, (%rsi) movq 28896(%rbx), %rsi movq %r15, (%rsi) movq 28736(%rbx), %rsi movq %r15, (%rsi) movq 28704(%rbx), %rsi movq %r15, (%rsi) movq 27104(%rbx), %rsi movq %rdx, (%rsi) movq 27072(%rbx), %rsi movq %rdx, (%rsi) movq 26976(%rbx), %rsi movq %rdx, (%rsi) movq 26944(%rbx), %rsi movq %rdx, (%rsi) movq 28000(%rbx), %rsi movq %rdx, (%rsi) movq 27968(%rbx), %rsi movq %rdx, (%rsi) movq 27872(%rbx), %rsi movq %rdx, (%rsi) movq 27840(%rbx), %rsi movq %rdx, (%rsi) movq 28064(%rbx), %rsi movq %rdx, (%rsi) movq 28032(%rbx), %rsi movq %rdx, (%rsi) movq 27936(%rbx), %rsi movq %rdx, (%rsi) movq 27904(%rbx), %rsi movq %rdx, (%rsi) movq 28800(%rbx), %rsi movq %rdx, (%rsi) movq 28768(%rbx), %rsi movq %rdx, (%rsi) movq 28544(%rbx), %rsi movq %rdx, (%rsi) movq 28512(%rbx), %rsi movq %rdx, (%rsi) movq 27680(%rbx), %rsi movq %rdx, (%rsi) movq 27648(%rbx), %rsi movq %rdx, (%rsi) movq 27488(%rbx), %rsi movq %rdx, (%rsi) movq 27456(%rbx), %rsi movq %rdx, (%rsi) movq 28608(%rbx), %rsi movq %rdx, (%rsi) movq 28576(%rbx), %rsi movq %rdx, (%rsi) movq 28352(%rbx), %rsi movq %rdx, (%rsi) movq 28320(%rbx), %rsi movq %rdx, (%rsi) movq 27424(%rbx), %rsi movq %rdx, (%rsi) movq 27392(%rbx), %rsi movq %rdx, (%rsi) movq 27232(%rbx), %rsi movq %rdx, (%rsi) movq 27200(%rbx), %rsi movq %rdx, (%rsi) movq 27744(%rbx), %rsi movq %rdx, (%rsi) movq 27712(%rbx), %rsi movq %rdx, (%rsi) movq 27552(%rbx), %rsi movq %rdx, (%rsi) movq 27520(%rbx), %rsi movq %rdx, (%rsi) movq 27296(%rbx), %rdx movq %r15, (%rdx) movq 27264(%rbx), %rdx movq %r15, (%rdx) movq 27040(%rbx), %rdx movq %r15, (%rdx) movq 27008(%rbx), %rdx movq %r15, (%rdx) movq 27360(%rbx), %rdx movq %r15, (%rdx) movq 27328(%rbx), %rdx movq %r15, (%rdx) movq 27168(%rbx), %rdx movq %r15, (%rdx) movq 27136(%rbx), %rdx movq %r15, (%rdx) movq 31712(%rbx), %rdx vmovsd (%rdx), %xmm0 movq 31776(%rbx), %rdx vmovhpd (%rdx), %xmm0, %xmm1 movq 31040(%rbx), %rdx vmovsd (%rdx), %xmm0 movq 31744(%rbx), %rdx vmovhpd (%rdx), %xmm0, %xmm3 vmovsd (%rcx), %xmm0 vmovhpd (%r13), %xmm0, %xmm2 vmovsd (%r9), %xmm0 vmovhpd (%r14), %xmm0, %xmm4 movq 32192(%rbx), %rcx vmovsd (%rcx), %xmm0 movq 32224(%rbx), %rcx vmovhpd (%rcx), %xmm0, %xmm0 movq 32160(%rbx), %rcx vmovsd (%rcx), %xmm5 movq 32544(%rbx), %rcx vmovhpd (%rcx), %xmm5, %xmm5 vinsertf128 $1, %xmm0, %ymm5, %ymm0 vinsertf128 $1, %xmm2, %ymm4, %ymm2 vinsertf128 $1, %xmm1, %ymm3, %ymm1 vmovsd (%r8), %xmm3 vmovhpd (%r10), %xmm3, %xmm3 vmovsd (%r11), %xmm4 vmovhpd (%rax), %xmm4, %xmm4 vinsertf128 $1, %xmm3, %ymm4, %ymm3 vaddpd %ymm10, %ymm9, %ymm4 vmovapd 23552(%rbx), %ymm10 vmulpd %ymm10, %ymm3, %ymm3 vaddpd %ymm3, %ymm4, %ymm5 vmovapd %ymm5, 31808(%rbx) vmovapd 24640(%rbx), %ymm4 vaddpd %ymm4, %ymm9, %ymm3 vmulpd %ymm10, %ymm1, %ymm1 vaddpd %ymm1, %ymm3, %ymm3 vmovapd %ymm3, 32288(%rbx) vaddpd %ymm6, %ymm12, %ymm1 vmulpd %ymm8, %ymm2, %ymm2 vaddpd %ymm2, %ymm1, %ymm9 vmovapd %ymm9, 31136(%rbx) vaddpd %ymm11, %ymm12, %ymm1 vmulpd %ymm8, %ymm0, %ymm0 vaddpd %ymm0, %ymm1, %ymm7 vmovapd %ymm7, 31104(%rbx) vmovapd 24672(%rbx), %ymm0 vmulpd %ymm14, %ymm0, %ymm2 vmovapd %ymm2, 23104(%rbx) vmovapd 22304(%rbx), %ymm0 vmulpd 32864(%rbx), %ymm0, %ymm1 vaddpd %ymm2, %ymm1, %ymm0 vmulpd %ymm3, %ymm4, %ymm2 vmovapd %ymm2, 23232(%rbx) vaddpd %ymm2, %ymm0, %ymm0 vmulpd %ymm5, %ymm10, %ymm2 vmovapd %ymm2, 23168(%rbx) vaddpd %ymm2, %ymm0, %ymm2 vmovapd %ymm2, 23264(%rbx) vmovapd .LCPI1_26(%rip), %ymm6 vcmpltpd %ymm6, %ymm2, %ymm0 vmovapd %ymm2, %ymm5 vextractf128 $1, %ymm0, %xmm2 vpshufd $8, %xmm2, %xmm2 vpshufd $8, %xmm0, %xmm0 vmovlhps %xmm2, %xmm0, %xmm2 vmulpd %ymm15, %ymm13, %ymm3 vmovapd %ymm3, 23040(%rbx) vmovapd 31840(%rbx), %ymm14 vmovapd 22272(%rbx), %ymm0 vmulpd %ymm14, %ymm0, %ymm0 vaddpd %ymm3, %ymm0, %ymm3 vmulpd %ymm7, %ymm11, %ymm4 vmovapd %ymm4, 23200(%rbx) vaddpd %ymm4, %ymm3, %ymm3 vmulpd %ymm9, %ymm8, %ymm4 vmovapd %ymm4, 23136(%rbx) vaddpd %ymm4, %ymm3, %ymm4 vmovapd %ymm4, 23296(%rbx) vcmpltpd %ymm6, %ymm4, %ymm3 vmovapd %ymm4, %ymm9 vextractf128 $1, %ymm3, %xmm4 vpshufd $8, %xmm4, %xmm4 vpshufd $8, %xmm3, %xmm3 vmovlhps %xmm4, %xmm3, %xmm3 vpshufb .LCPI1_20(%rip), %xmm3, %xmm3 vpshufb .LCPI1_21(%rip), %xmm2, %xmm2 vpor %xmm3, %xmm2, %xmm2 vpsllw $15, %xmm2, %xmm2 vpsraw $15, %xmm2, %xmm3 vpunpckhbw %xmm0, %xmm3, %xmm2 vpslld $31, %xmm2, %xmm4 vpmovsxdq %xmm4, %xmm2 vmovhlps %xmm4, %xmm4, %xmm4 vpmovsxdq %xmm4, %xmm4 vinsertf128 $1, %xmm4, %ymm2, %ymm2 vpunpcklbw %xmm0, %xmm3, %xmm3 vpslld $31, %xmm3, %xmm4 vpmovsxdq %xmm4, %xmm3 vmovhlps %xmm4, %xmm4, %xmm4 vpmovsxdq %xmm4, %xmm4 vinsertf128 $1, %xmm4, %ymm3, %ymm3 vblendvpd %ymm3, %ymm6, %ymm5, %ymm5 vblendvpd %ymm2, %ymm6, %ymm9, %ymm7 vmovapd 24000(%rbx), %ymm3 vmovapd 26720(%rbx), %ymm2 vaddpd %ymm3, %ymm2, %ymm2 vmovapd .LCPI1_27(%rip), %ymm9 vmulpd %ymm9, %ymm3, %ymm4 vmovapd %ymm4, 17312(%rbx) vaddpd %ymm2, %ymm4, %ymm2 vmovapd 32352(%rbx), %ymm11 vmovapd .LCPI1_22(%rip), %ymm6 vmulpd %ymm6, %ymm11, %ymm3 vaddpd 24480(%rbx), %ymm3, %ymm3 vaddpd 24416(%rbx), %ymm3, %ymm3 vaddpd 24448(%rbx), %ymm3, %ymm8 vmovapd %ymm8, 23392(%rbx) vmovapd .LCPI1_28(%rip), %ymm10 vmulpd %ymm10, %ymm5, %ymm3 vaddpd %ymm3, %ymm4, %ymm4 vmovapd %ymm4, 22816(%rbx) vaddpd %ymm2, %ymm5, %ymm2 vmovapd %ymm2, 22848(%rbx) vmulpd %ymm2, %ymm11, %ymm3 vmulpd %ymm3, %ymm8, %ymm2 vmovapd %ymm3, %ymm11 vaddpd %ymm2, %ymm4, %ymm2 vmovapd %ymm4, %ymm15 vsubpd %ymm1, %ymm2, %ymm1 vmovapd %ymm1, 26848(%rbx) vmovapd 32320(%rbx), %ymm12 vmulpd %ymm6, %ymm12, %ymm2 vmovapd 26688(%rbx), %ymm1 vmovapd 24352(%rbx), %ymm4 vaddpd %ymm4, %ymm1, %ymm1 vmulpd %ymm9, %ymm4, %ymm9 vmovapd %ymm9, 17280(%rbx) vaddpd %ymm1, %ymm9, %ymm1 vaddpd 26624(%rbx), %ymm2, %ymm2 vaddpd 24512(%rbx), %ymm2, %ymm2 vaddpd 24544(%rbx), %ymm2, %ymm4 vmovapd %ymm4, 23328(%rbx) vmulpd %ymm10, %ymm7, %ymm2 vaddpd %ymm2, %ymm9, %ymm2 vmovapd %ymm2, 23808(%rbx) vaddpd %ymm1, %ymm7, %ymm1 vmovapd %ymm1, 23904(%rbx) vmulpd %ymm1, %ymm12, %ymm9 vmovapd %ymm4, %ymm10 vmulpd %ymm9, %ymm10, %ymm1 vaddpd %ymm1, %ymm2, %ymm1 vsubpd %ymm0, %ymm1, %ymm0 vsqrtpd %ymm7, %ymm2 vmovapd %ymm2, 23456(%rbx) vmovapd 24576(%rbx), %ymm4 vmovapd 22272(%rbx), %ymm6 vmulpd %ymm4, %ymm6, %ymm1 vdivpd %ymm2, %ymm1, %ymm1 vmovapd %ymm1, 23840(%rbx) vmovapd %ymm2, %ymm13 vmulpd %ymm1, %ymm10, %ymm2 vaddpd %ymm2, %ymm0, %ymm2 vsqrtpd %ymm5, %ymm1 vmovapd %ymm1, 24608(%rbx) vmovapd 32800(%rbx), %ymm5 vmovapd 22304(%rbx), %ymm10 vmulpd %ymm5, %ymm10, %ymm0 vdivpd %ymm1, %ymm0, %ymm0 vmovapd %ymm0, 23872(%rbx) vmulpd %ymm0, %ymm8, %ymm0 vmovapd 26848(%rbx), %ymm3 vaddpd %ymm0, %ymm3, %ymm0 vmovapd 32864(%rbx), %ymm3 vmulpd %ymm5, %ymm3, %ymm7 vdivpd %ymm1, %ymm7, %ymm5 vmovapd %ymm5, 23936(%rbx) vmovapd 32352(%rbx), %ymm3 vmulpd %ymm5, %ymm3, %ymm7 vaddpd %ymm7, %ymm0, %ymm1 vmulpd %ymm4, %ymm14, %ymm7 vdivpd %ymm13, %ymm7, %ymm0 vmovapd %ymm0, 23968(%rbx) vmulpd %ymm0, %ymm12, %ymm7 vaddpd %ymm7, %ymm2, %ymm8 vmovapd 32928(%rbx), %ymm4 vmovapd %ymm11, %ymm14 vmulpd %ymm14, %ymm4, %ymm2 vmulpd .LCPI1_88, %ymm15, %ymm7 vaddpd %ymm2, %ymm7, %ymm2 vmovapd 23424(%rbx), %ymm15 vmulpd %ymm15, %ymm10, %ymm11 vmovapd %ymm10, %ymm0 vsubpd %ymm11, %ymm2, %ymm11 vmovapd 32256(%rbx), %ymm5 vmulpd %ymm14, %ymm5, %ymm2 vmovapd %ymm14, %ymm12 vaddpd %ymm2, %ymm7, %ymm2 vmulpd 32288(%rbx), %ymm0, %ymm13 vsubpd %ymm13, %ymm2, %ymm2 vmovapd %ymm2, 23072(%rbx) vmovapd 23872(%rbx), %ymm10 vmulpd %ymm10, %ymm4, %ymm13 vaddpd %ymm13, %ymm11, %ymm2 vmovapd %ymm8, 12000(%rdi,%r12) vmovapd %ymm1, 11968(%rdi,%r12) vmovapd 32960(%rbx), %ymm14 vmulpd %ymm9, %ymm14, %ymm8 vmovapd 23808(%rbx), %ymm1 vmulpd .LCPI1_88, %ymm1, %ymm1 vmovapd %ymm1, 26848(%rbx) vaddpd %ymm8, %ymm1, %ymm8 vmovapd 23360(%rbx), %ymm4 vmulpd %ymm4, %ymm6, %ymm13 vmovapd %ymm6, %ymm11 vsubpd %ymm13, %ymm8, %ymm13 vmulpd 32800(%rbx), %ymm15, %ymm8 vdivpd 24608(%rbx), %ymm8, %ymm6 vmovapd %ymm6, 22976(%rbx) vmulpd %ymm6, %ymm3, %ymm8 vaddpd %ymm8, %ymm2, %ymm2 vmovapd %ymm2, 22944(%rbx) vmulpd %ymm10, %ymm5, %ymm8 vmovapd 23072(%rbx), %ymm2 vaddpd %ymm8, %ymm2, %ymm2 vmovapd %ymm2, 23008(%rbx) vmovapd 24384(%rbx), %ymm6 vmulpd %ymm12, %ymm6, %ymm2 vaddpd %ymm2, %ymm7, %ymm2 vmulpd 31808(%rbx), %ymm0, %ymm3 vsubpd %ymm3, %ymm2, %ymm0 vmovapd %ymm0, 23072(%rbx) vmovapd 31872(%rbx), %ymm8 vmulpd %ymm9, %ymm8, %ymm2 vaddpd %ymm2, %ymm1, %ymm2 vmovapd %ymm11, %ymm0 vmulpd 31136(%rbx), %ymm0, %ymm15 vsubpd %ymm15, %ymm2, %ymm2 vmovapd 32896(%rbx), %ymm10 vmulpd %ymm9, %ymm10, %ymm9 vaddpd %ymm9, %ymm1, %ymm9 vmovapd 31104(%rbx), %ymm3 vmulpd %ymm3, %ymm0, %ymm15 vsubpd %ymm15, %ymm9, %ymm1 vmovapd 23840(%rbx), %ymm11 vmulpd %ymm11, %ymm14, %ymm15 vaddpd %ymm15, %ymm13, %ymm13 vmovapd 24576(%rbx), %ymm5 vmulpd %ymm5, %ymm4, %ymm15 vmovapd 23456(%rbx), %ymm9 vdivpd %ymm9, %ymm15, %ymm0 vmovapd %ymm0, 22880(%rbx) vmovapd 32320(%rbx), %ymm12 vmulpd %ymm0, %ymm12, %ymm15 vaddpd %ymm15, %ymm13, %ymm13 vmovapd %ymm13, 12064(%rdi,%r12) vmovaps 22944(%rbx), %ymm0 vmovaps %ymm0, 12032(%rdi,%r12) vmovapd %ymm11, %ymm0 vmulpd %ymm0, %ymm10, %ymm11 vaddpd %ymm11, %ymm1, %ymm10 vmulpd %ymm0, %ymm8, %ymm1 vaddpd %ymm1, %ymm2, %ymm0 vmovapd %ymm0, 22784(%rbx) vmovapd %ymm6, %ymm4 vmulpd 23872(%rbx), %ymm4, %ymm2 vmovapd 23072(%rbx), %ymm0 vaddpd %ymm2, %ymm0, %ymm0 vmovapd %ymm0, 23872(%rbx) vmovapd 32800(%rbx), %ymm0 vmovapd 32288(%rbx), %ymm1 vmulpd %ymm0, %ymm1, %ymm2 vmovapd 24608(%rbx), %ymm14 vdivpd %ymm14, %ymm2, %ymm2 vmovapd %ymm2, 23072(%rbx) vmovapd 32352(%rbx), %ymm6 vmulpd %ymm2, %ymm6, %ymm2 vmovapd 23008(%rbx), %ymm1 vaddpd %ymm2, %ymm1, %ymm2 vmovapd %ymm5, %ymm15 vmulpd %ymm15, %ymm3, %ymm5 vdivpd %ymm9, %ymm5, %ymm3 vmovapd %ymm9, %ymm1 vmovapd %ymm3, 23008(%rbx) vmulpd %ymm3, %ymm12, %ymm5 vaddpd %ymm5, %ymm10, %ymm5 vmovapd 32384(%rbx), %ymm8 vmulpd 23904(%rbx), %ymm8, %ymm3 vmovapd %ymm3, 23840(%rbx) vmovapd 23328(%rbx), %ymm13 vmulpd %ymm3, %ymm13, %ymm8 vmovapd %ymm3, %ymm10 vmovapd 26848(%rbx), %ymm3 vaddpd %ymm8, %ymm3, %ymm8 vmovapd 26656(%rbx), %ymm11 vmulpd 31840(%rbx), %ymm11, %ymm9 vsubpd %ymm9, %ymm8, %ymm8 vmovapd %ymm5, 12128(%rdi,%r12) vmovapd %ymm2, 12096(%rdi,%r12) vmovapd 31808(%rbx), %ymm2 vmulpd %ymm0, %ymm2, %ymm2 vdivpd %ymm14, %ymm2, %ymm0 vmovapd %ymm0, 22944(%rbx) vmulpd %ymm0, %ymm6, %ymm2 vmovapd 23872(%rbx), %ymm0 vaddpd %ymm2, %ymm0, %ymm0 vmovapd %ymm0, 22720(%rbx) vmovapd %ymm15, %ymm5 vmovapd 31136(%rbx), %ymm0 vmulpd %ymm5, %ymm0, %ymm2 vmovapd %ymm1, %ymm6 vdivpd %ymm6, %ymm2, %ymm0 vmovapd %ymm0, 22912(%rbx) vmulpd %ymm0, %ymm12, %ymm2 vmovapd 22784(%rbx), %ymm0 vaddpd %ymm2, %ymm0, %ymm0 vmovapd %ymm0, 22656(%rbx) vmovapd 26752(%rbx), %ymm1 vmovapd 22848(%rbx), %ymm9 vmulpd %ymm9, %ymm1, %ymm3 vmovapd 32928(%rbx), %ymm15 vmulpd %ymm3, %ymm15, %ymm1 vmovapd 22816(%rbx), %ymm12 vaddpd %ymm1, %ymm12, %ymm1 vsubpd 23104(%rbx), %ymm1, %ymm0 vmovapd %ymm0, 22752(%rbx) vmulpd %ymm5, %ymm11, %ymm1 vdivpd %ymm6, %ymm1, %ymm0 vmovapd %ymm0, 23872(%rbx) vmulpd %ymm0, %ymm13, %ymm1 vaddpd %ymm1, %ymm8, %ymm0 vmovapd %ymm0, 22688(%rbx) vmovapd 23392(%rbx), %ymm0 vmulpd %ymm3, %ymm0, %ymm1 vaddpd %ymm1, %ymm7, %ymm1 vmovapd 24672(%rbx), %ymm14 vmulpd 32864(%rbx), %ymm14, %ymm2 vsubpd %ymm2, %ymm1, %ymm1 vmovapd %ymm1, 22592(%rbx) vmovapd 32960(%rbx), %ymm1 vmulpd %ymm10, %ymm1, %ymm1 vmovapd 23808(%rbx), %ymm10 vaddpd %ymm1, %ymm10, %ymm1 vsubpd 23040(%rbx), %ymm1, %ymm1 vmovapd %ymm1, 22784(%rbx) vmovapd 23616(%rbx), %ymm1 vmovapd %ymm9, %ymm2 vmulpd %ymm2, %ymm1, %ymm8 vmovapd 22368(%rbx), %ymm1 vmulpd %ymm2, %ymm1, %ymm1 vmovapd %ymm4, %ymm5 vmulpd %ymm1, %ymm5, %ymm2 vmovapd %ymm12, %ymm4 vaddpd %ymm2, %ymm4, %ymm11 vmovapd 32256(%rbx), %ymm12 vmulpd %ymm8, %ymm12, %ymm2 vaddpd %ymm2, %ymm4, %ymm2 vmovapd %ymm2, 23104(%rbx) vmulpd %ymm3, %ymm12, %ymm2 vmulpd %ymm3, %ymm5, %ymm6 vmulpd %ymm8, %ymm0, %ymm9 vmulpd %ymm8, %ymm5, %ymm3 vmulpd %ymm8, %ymm15, %ymm13 vmulpd %ymm1, %ymm0, %ymm8 vmovapd %ymm0, %ymm4 vmulpd %ymm1, %ymm12, %ymm5 vmulpd %ymm1, %ymm15, %ymm1 vaddpd %ymm1, %ymm7, %ymm0 vmovapd %ymm0, 23040(%rbx) vaddpd %ymm5, %ymm7, %ymm1 vaddpd %ymm8, %ymm7, %ymm8 vaddpd %ymm13, %ymm7, %ymm0 vmovapd %ymm0, 22240(%rbx) vaddpd %ymm3, %ymm7, %ymm0 vmovapd %ymm0, 22528(%rbx) vaddpd %ymm6, %ymm7, %ymm0 vmovapd %ymm0, 22816(%rbx) vaddpd %ymm9, %ymm7, %ymm0 vmovapd %ymm0, 22208(%rbx) vaddpd %ymm2, %ymm7, %ymm0 vmovapd %ymm0, 22624(%rbx) vmovapd 22336(%rbx), %ymm2 vmovapd 23904(%rbx), %ymm0 vmulpd %ymm0, %ymm2, %ymm2 vmovapd 31872(%rbx), %ymm6 vmulpd %ymm2, %ymm6, %ymm5 vaddpd %ymm5, %ymm10, %ymm7 vmovapd 23584(%rbx), %ymm5 vmulpd %ymm0, %ymm5, %ymm9 vmovapd 32896(%rbx), %ymm3 vmulpd %ymm9, %ymm3, %ymm5 vaddpd %ymm5, %ymm10, %ymm0 vmovapd %ymm0, 22144(%rbx) vmovaps 22656(%rbx), %ymm0 vmovaps %ymm0, 12192(%rdi,%r12) vmovaps 22720(%rbx), %ymm0 vmovaps %ymm0, 12160(%rdi,%r12) vsubpd 23168(%rbx), %ymm11, %ymm0 vmovapd %ymm0, 23904(%rbx) vsubpd 23136(%rbx), %ymm7, %ymm0 vmovapd %ymm0, 23808(%rbx) vmovapd 23552(%rbx), %ymm7 vmulpd 32288(%rbx), %ymm7, %ymm5 vsubpd %ymm5, %ymm1, %ymm0 vmovapd %ymm0, 23168(%rbx) vmulpd %ymm2, %ymm3, %ymm1 vmovapd 26848(%rbx), %ymm12 vaddpd %ymm1, %ymm12, %ymm1 vmovapd 23488(%rbx), %ymm0 vmulpd 31104(%rbx), %ymm0, %ymm5 vsubpd %ymm5, %ymm1, %ymm1 vmovapd %ymm1, 22848(%rbx) vmovapd 23424(%rbx), %ymm3 vmulpd %ymm3, %ymm7, %ymm1 vmovapd %ymm7, %ymm11 vmovapd 23040(%rbx), %ymm5 vsubpd %ymm1, %ymm5, %ymm1 vmovapd %ymm1, 22656(%rbx) vmovapd %ymm14, %ymm13 vmulpd 32800(%rbx), %ymm13, %ymm1 vmovapd 24608(%rbx), %ymm10 vdivpd %ymm10, %ymm1, %ymm5 vmovapd %ymm5, 22720(%rbx) vmulpd %ymm5, %ymm4, %ymm1 vmovapd 22592(%rbx), %ymm4 vaddpd %ymm1, %ymm4, %ymm1 vmovapd %ymm1, 22560(%rbx) vmovapd 32384(%rbx), %ymm1 vmulpd 23968(%rbx), %ymm1, %ymm1 vmovapd 22688(%rbx), %ymm4 vaddpd %ymm1, %ymm4, %ymm1 vmovapd %ymm1, 22176(%rbx) vmulpd %ymm5, %ymm15, %ymm5 vmovapd 22752(%rbx), %ymm1 vaddpd %ymm5, %ymm1, %ymm1 vmovapd %ymm1, 22752(%rbx) vmovapd 32960(%rbx), %ymm7 vmulpd %ymm2, %ymm7, %ymm5 vaddpd %ymm5, %ymm12, %ymm5 vmovapd %ymm12, %ymm1 vmovapd 23360(%rbx), %ymm4 vmulpd %ymm4, %ymm0, %ymm15 vsubpd %ymm15, %ymm5, %ymm5 vmovapd %ymm5, 23136(%rbx) vmovapd 32864(%rbx), %ymm15 vmulpd %ymm15, %ymm11, %ymm5 vsubpd %ymm5, %ymm8, %ymm5 vmovapd %ymm5, 23040(%rbx) vmovapd 23328(%rbx), %ymm12 vmulpd %ymm2, %ymm12, %ymm2 vaddpd %ymm2, %ymm1, %ymm2 vmovapd 31840(%rbx), %ymm8 vmulpd %ymm8, %ymm0, %ymm5 vsubpd %ymm5, %ymm2, %ymm0 vmovapd %ymm0, 22688(%rbx) vmovapd 24640(%rbx), %ymm5 vmovapd 31808(%rbx), %ymm0 vmulpd %ymm0, %ymm5, %ymm2 vmovapd 22528(%rbx), %ymm14 vsubpd %ymm2, %ymm14, %ymm2 vmovapd %ymm2, 22592(%rbx) vmulpd 23872(%rbx), %ymm7, %ymm2 vmovapd 22784(%rbx), %ymm14 vaddpd %ymm2, %ymm14, %ymm2 vmovapd %ymm2, 22528(%rbx) vmulpd %ymm3, %ymm5, %ymm2 vmovapd 22240(%rbx), %ymm3 vsubpd %ymm2, %ymm3, %ymm2 vmovapd %ymm2, 23424(%rbx) vmulpd %ymm15, %ymm5, %ymm2 vmovapd 22208(%rbx), %ymm3 vsubpd %ymm2, %ymm3, %ymm2 vmovapd %ymm2, 32864(%rbx) vmovapd %ymm13, %ymm15 vmulpd %ymm0, %ymm15, %ymm2 vmovapd 22816(%rbx), %ymm0 vsubpd %ymm2, %ymm0, %ymm0 vmovapd %ymm0, 31808(%rbx) vmulpd %ymm9, %ymm6, %ymm2 vmovapd %ymm1, %ymm5 vaddpd %ymm2, %ymm5, %ymm2 vmovapd 23520(%rbx), %ymm13 vmovapd 31136(%rbx), %ymm0 vmulpd %ymm0, %ymm13, %ymm3 vsubpd %ymm3, %ymm2, %ymm1 vmovapd %ymm1, 22816(%rbx) vmovapd 23104(%rbx), %ymm1 vsubpd 23232(%rbx), %ymm1, %ymm1 vmovapd %ymm1, 23232(%rbx) vmovapd 22144(%rbx), %ymm1 vsubpd 23200(%rbx), %ymm1, %ymm1 vmovapd %ymm1, 23200(%rbx) vmulpd 32288(%rbx), %ymm15, %ymm2 vmovapd 22624(%rbx), %ymm1 vsubpd %ymm2, %ymm1, %ymm1 vmovapd %ymm1, 32288(%rbx) vmulpd %ymm4, %ymm13, %ymm2 vmulpd %ymm9, %ymm7, %ymm3 vaddpd %ymm3, %ymm5, %ymm3 vsubpd %ymm2, %ymm3, %ymm1 vmovapd %ymm1, 23360(%rbx) vmulpd %ymm8, %ymm13, %ymm2 vmulpd %ymm9, %ymm12, %ymm3 vmovapd %ymm12, %ymm7 vaddpd %ymm3, %ymm5, %ymm3 vsubpd %ymm2, %ymm3, %ymm1 vmovapd %ymm1, 22784(%rbx) vmovapd 26656(%rbx), %ymm2 vmulpd %ymm0, %ymm2, %ymm2 vmulpd 23840(%rbx), %ymm6, %ymm3 vaddpd %ymm3, %ymm5, %ymm3 vsubpd %ymm2, %ymm3, %ymm0 vmovapd %ymm0, 31136(%rbx) vmovaps 22176(%rbx), %ymm0 vmovaps %ymm0, 12256(%rdi,%r12) vmovapd 26752(%rbx), %ymm5 vmulpd 23936(%rbx), %ymm5, %ymm1 vmovapd 22560(%rbx), %ymm0 vaddpd %ymm1, %ymm0, %ymm0 vmovapd %ymm0, 22624(%rbx) vmovapd 32800(%rbx), %ymm8 vmulpd %ymm8, %ymm11, %ymm1 vdivpd %ymm10, %ymm1, %ymm3 vmovapd %ymm10, %ymm4 vmovapd 32928(%rbx), %ymm11 vmulpd %ymm3, %ymm11, %ymm1 vmovapd 22656(%rbx), %ymm0 vaddpd %ymm1, %ymm0, %ymm0 vmovapd %ymm0, 31840(%rbx) vmovapd 24576(%rbx), %ymm0 vmovapd 23488(%rbx), %ymm1 vmulpd %ymm0, %ymm1, %ymm1 vmovapd 23456(%rbx), %ymm10 vdivpd %ymm10, %ymm1, %ymm14 vmovapd 32896(%rbx), %ymm9 vmulpd %ymm14, %ymm9, %ymm1 vmovapd 22848(%rbx), %ymm2 vaddpd %ymm1, %ymm2, %ymm1 vmovapd %ymm1, 23104(%rbx) vmovapd 32256(%rbx), %ymm12 vmulpd %ymm3, %ymm12, %ymm1 vmovapd 23168(%rbx), %ymm2 vaddpd %ymm1, %ymm2, %ymm1 vmovapd %ymm1, 23168(%rbx) vmulpd %ymm14, %ymm6, %ymm1 vmovapd 23808(%rbx), %ymm2 vaddpd %ymm1, %ymm2, %ymm1 vmovapd %ymm1, 23808(%rbx) vmovapd 24384(%rbx), %ymm13 vmulpd %ymm3, %ymm13, %ymm1 vmovapd 23904(%rbx), %ymm2 vaddpd %ymm1, %ymm2, %ymm1 vmovapd %ymm1, 22656(%rbx) vmovapd 22976(%rbx), %ymm15 vmulpd %ymm15, %ymm5, %ymm2 vmovapd 22752(%rbx), %ymm1 vaddpd %ymm2, %ymm1, %ymm1 vmovapd %ymm1, 22752(%rbx) vmovapd 22880(%rbx), %ymm5 vmovapd 32384(%rbx), %ymm2 vmulpd %ymm5, %ymm2, %ymm2 vmovapd 22528(%rbx), %ymm6 vaddpd %ymm2, %ymm6, %ymm6 vmovapd 24640(%rbx), %ymm1 vmulpd %ymm8, %ymm1, %ymm2 vdivpd %ymm4, %ymm2, %ymm8 vmulpd %ymm8, %ymm13, %ymm2 vmovapd 22592(%rbx), %ymm4 vaddpd %ymm2, %ymm4, %ymm2 vmovapd %ymm2, 23904(%rbx) vmovapd %ymm7, %ymm1 vmulpd %ymm14, %ymm1, %ymm2 vmovapd 22688(%rbx), %ymm4 vaddpd %ymm2, %ymm4, %ymm2 vmovapd %ymm2, 22848(%rbx) vmovapd 23392(%rbx), %ymm4 vmulpd %ymm3, %ymm4, %ymm2 vmovapd 23040(%rbx), %ymm3 vaddpd %ymm2, %ymm3, %ymm2 vmovapd %ymm2, 23040(%rbx) vmovapd 32960(%rbx), %ymm7 vmulpd %ymm14, %ymm7, %ymm2 vmovapd 23136(%rbx), %ymm3 vaddpd %ymm2, %ymm3, %ymm2 vmovapd %ymm2, 23136(%rbx) vmovapd 22720(%rbx), %ymm14 vmulpd %ymm14, %ymm13, %ymm2 vmovapd %ymm12, %ymm3 vmulpd %ymm14, %ymm3, %ymm13 vmulpd %ymm8, %ymm4, %ymm4 vmulpd %ymm8, %ymm3, %ymm14 vmulpd %ymm8, %ymm11, %ymm3 vmovapd 23424(%rbx), %ymm8 vaddpd %ymm3, %ymm8, %ymm3 vmovapd %ymm3, 24384(%rbx) vmovapd 23520(%rbx), %ymm3 vmulpd %ymm0, %ymm3, %ymm3 vdivpd %ymm10, %ymm3, %ymm10 vmulpd %ymm10, %ymm9, %ymm3 vmovapd 23200(%rbx), %ymm0 vaddpd %ymm3, %ymm0, %ymm0 vmovapd %ymm0, 23200(%rbx) vmovapd 23232(%rbx), %ymm0 vaddpd %ymm14, %ymm0, %ymm14 vmovapd 31872(%rbx), %ymm3 vmulpd %ymm10, %ymm3, %ymm8 vmovapd 22816(%rbx), %ymm0 vaddpd %ymm8, %ymm0, %ymm8 vmovapd 31808(%rbx), %ymm0 vaddpd %ymm2, %ymm0, %ymm0 vmovapd %ymm0, 31808(%rbx) vmulpd %ymm10, %ymm1, %ymm2 vmovapd 22784(%rbx), %ymm0 vaddpd %ymm2, %ymm0, %ymm0 vmovapd %ymm0, 23328(%rbx) vmovapd 32864(%rbx), %ymm0 vaddpd %ymm4, %ymm0, %ymm0 vmovapd %ymm0, 23424(%rbx) vmulpd %ymm10, %ymm7, %ymm4 vmovapd 23360(%rbx), %ymm0 vaddpd %ymm4, %ymm0, %ymm0 vmovapd %ymm0, 23232(%rbx) vmulpd 23840(%rbx), %ymm9, %ymm10 vmovapd 26848(%rbx), %ymm0 vaddpd %ymm10, %ymm0, %ymm0 vmovapd %ymm0, 26848(%rbx) vmovaps 22624(%rbx), %ymm0 vmovaps %ymm0, 12224(%rdi,%r12) vmovapd 32288(%rbx), %ymm0 vaddpd %ymm13, %ymm0, %ymm0 vmovapd %ymm0, 23360(%rbx) vmovapd 23872(%rbx), %ymm4 vmulpd %ymm4, %ymm3, %ymm0 vmovapd 31136(%rbx), %ymm2 vaddpd %ymm0, %ymm2, %ymm0 vmovapd %ymm0, 23392(%rbx) vmovapd %ymm6, 12320(%rdi,%r12) vmovaps 22752(%rbx), %ymm0 vmovaps %ymm0, 12288(%rdi,%r12) vmovapd 22368(%rbx), %ymm7 vmovapd 22944(%rbx), %ymm2 vmulpd %ymm2, %ymm7, %ymm6 vmovapd 22656(%rbx), %ymm0 vaddpd %ymm6, %ymm0, %ymm0 vmovapd %ymm0, 32864(%rbx) vmovapd 22336(%rbx), %ymm10 vmovapd 22912(%rbx), %ymm0 vmulpd %ymm0, %ymm10, %ymm1 vmovapd 23808(%rbx), %ymm3 vaddpd %ymm1, %ymm3, %ymm1 vmovapd %ymm1, 32288(%rbx) vmovapd 23072(%rbx), %ymm3 vmulpd %ymm3, %ymm7, %ymm1 vmovapd 23168(%rbx), %ymm6 vaddpd %ymm1, %ymm6, %ymm1 vmovapd %ymm1, 32256(%rbx) vmovapd 23008(%rbx), %ymm9 vmulpd %ymm9, %ymm10, %ymm1 vmovapd 23104(%rbx), %ymm6 vaddpd %ymm1, %ymm6, %ymm1 vmovapd %ymm1, 31872(%rbx) vmovapd %ymm15, %ymm13 vmulpd %ymm13, %ymm7, %ymm1 vmovapd 31840(%rbx), %ymm6 vaddpd %ymm1, %ymm6, %ymm1 vmovapd %ymm1, 31840(%rbx) vmovapd %ymm5, %ymm11 vmulpd %ymm11, %ymm10, %ymm6 vmovapd 23136(%rbx), %ymm1 vaddpd %ymm6, %ymm1, %ymm1 vmovapd %ymm1, 31136(%rbx) vmovapd 23936(%rbx), %ymm12 vmulpd %ymm12, %ymm7, %ymm5 vmovapd 23040(%rbx), %ymm1 vaddpd %ymm5, %ymm1, %ymm1 vmovapd %ymm1, 23840(%rbx) vmovapd 23968(%rbx), %ymm7 vmulpd %ymm7, %ymm10, %ymm5 vmovapd 22848(%rbx), %ymm1 vaddpd %ymm5, %ymm1, %ymm1 vmovapd %ymm1, 23808(%rbx) vmovapd 23616(%rbx), %ymm1 vmulpd %ymm2, %ymm1, %ymm5 vmovapd 23904(%rbx), %ymm6 vaddpd %ymm5, %ymm6, %ymm5 vmovapd %ymm5, 23904(%rbx) vmovapd 23584(%rbx), %ymm6 vmulpd %ymm0, %ymm6, %ymm10 vaddpd %ymm10, %ymm8, %ymm5 vmovapd %ymm5, 23168(%rbx) vmulpd %ymm3, %ymm1, %ymm8 vaddpd %ymm8, %ymm14, %ymm5 vmovapd %ymm5, 23136(%rbx) vmulpd %ymm9, %ymm6, %ymm10 vmovapd 23200(%rbx), %ymm5 vaddpd %ymm10, %ymm5, %ymm5 vmulpd %ymm13, %ymm1, %ymm10 vmovapd 24384(%rbx), %ymm8 vaddpd %ymm10, %ymm8, %ymm10 vmulpd %ymm11, %ymm6, %ymm14 vmovapd 23232(%rbx), %ymm8 vaddpd %ymm14, %ymm8, %ymm8 vmulpd %ymm12, %ymm1, %ymm14 vmovapd 23424(%rbx), %ymm1 vaddpd %ymm14, %ymm1, %ymm15 vmulpd %ymm7, %ymm6, %ymm14 vmovapd 23328(%rbx), %ymm1 vaddpd %ymm14, %ymm1, %ymm13 vmovapd 26752(%rbx), %ymm7 vmulpd %ymm2, %ymm7, %ymm14 vmovapd 31808(%rbx), %ymm1 vaddpd %ymm14, %ymm1, %ymm1 vmovapd %ymm1, 18400(%rbx) vmovapd 32384(%rbx), %ymm12 vmulpd %ymm0, %ymm12, %ymm14 vmovapd 23392(%rbx), %ymm0 vaddpd %ymm14, %ymm0, %ymm6 vmovapd %ymm6, 18336(%rbx) vmulpd %ymm3, %ymm7, %ymm0 vmovapd 23360(%rbx), %ymm2 vaddpd %ymm0, %ymm2, %ymm14 vmovapd %ymm14, 18368(%rbx) vmovapd 26656(%rbx), %ymm0 vmulpd 31104(%rbx), %ymm0, %ymm0 vmovapd 26848(%rbx), %ymm2 vsubpd %ymm0, %ymm2, %ymm0 vmovapd 32896(%rbx), %ymm2 vmulpd %ymm4, %ymm2, %ymm11 vaddpd %ymm11, %ymm0, %ymm0 vmulpd %ymm9, %ymm12, %ymm11 vaddpd %ymm11, %ymm0, %ymm0 vmovapd %ymm0, 18304(%rbx) vmovapd %ymm0, 12384(%rdi,%r12) vmovapd %ymm14, 12352(%rdi,%r12) vmovapd %ymm6, 12448(%rdi,%r12) vmovapd %ymm1, 12416(%rdi,%r12) vmovapd %ymm13, 12512(%rdi,%r12) vmovapd %ymm15, 12480(%rdi,%r12) vmovapd %ymm8, 12576(%rdi,%r12) vmovapd %ymm10, 12544(%rdi,%r12) vmovapd %ymm5, 12640(%rdi,%r12) vmovaps 23136(%rbx), %ymm0 vmovaps %ymm0, 12608(%rdi,%r12) vmovaps 23168(%rbx), %ymm0 vmovaps %ymm0, 12704(%rdi,%r12) vmovaps 23904(%rbx), %ymm0 vmovaps %ymm0, 12672(%rdi,%r12) vmovaps 23808(%rbx), %ymm0 vmovaps %ymm0, 12768(%rdi,%r12) vmovaps 23840(%rbx), %ymm0 vmovaps %ymm0, 12736(%rdi,%r12) vmovaps 31136(%rbx), %ymm0 vmovaps %ymm0, 12832(%rdi,%r12) vmovaps 31840(%rbx), %ymm0 vmovaps %ymm0, 12800(%rdi,%r12) vmovaps 31872(%rbx), %ymm0 vmovaps %ymm0, 12896(%rdi,%r12) vmovaps 32256(%rbx), %ymm0 vmovaps %ymm0, 12864(%rdi,%r12) vmovaps 32288(%rbx), %ymm0 vmovaps %ymm0, 12960(%rdi,%r12) vmovaps 32864(%rbx), %ymm0 vmovaps %ymm0, 12928(%rdi,%r12) vmovapd 13824(%rbx), %ymm0 vmulpd 12032(%rdi,%r12), %ymm0, %ymm1 vmovapd %ymm1, 18272(%rbx) vmulpd 12000(%rdi,%r12), %ymm0, %ymm1 vmovapd %ymm1, 18240(%rbx) vmulpd 12256(%rdi,%r12), %ymm0, %ymm1 vmovapd %ymm1, 18944(%rbx) vmulpd 12288(%rdi,%r12), %ymm0, %ymm1 vmovapd %ymm1, 18912(%rbx) vmulpd 11968(%rdi,%r12), %ymm0, %ymm1 vmovapd %ymm1, 18208(%rbx) vmulpd 12224(%rdi,%r12), %ymm0, %ymm1 vmovapd %ymm1, 18816(%rbx) vmulpd 12096(%rdi,%r12), %ymm0, %ymm1 vmovapd %ymm1, 18176(%rbx) vmulpd 12128(%rdi,%r12), %ymm0, %ymm1 vmovapd %ymm1, 17952(%rbx) vmulpd 12064(%rdi,%r12), %ymm0, %ymm1 vmovapd %ymm1, 17920(%rbx) vmulpd 12320(%rdi,%r12), %ymm0, %ymm1 vmovapd %ymm1, 18784(%rbx) vmulpd 12160(%rdi,%r12), %ymm0, %ymm1 vmovapd %ymm1, 17888(%rbx) vmulpd 12192(%rdi,%r12), %ymm0, %ymm0 vmovapd %ymm0, 17856(%rbx) vmovapd 26720(%rbx), %ymm0 vmovaps .LCPI1_30(%rip), %ymm8 vmovaps %ymm8, %ymm1 callq __ocl_svml_e9_pow4 vmovapd %ymm0, %ymm9 vmovapd 26688(%rbx), %ymm0 vmovaps %ymm8, %ymm1 callq __ocl_svml_e9_pow4 vmovapd %ymm0, %ymm1 vmovapd 24000(%rbx), %ymm11 vmulpd %ymm9, %ymm11, %ymm0 vmovapd 24352(%rbx), %ymm14 vmulpd %ymm1, %ymm14, %ymm1 callq __ocl_svml_e9_log8 vmovapd %ymm0, 17440(%rbx) vmovapd %ymm1, 17408(%rbx) vmovaps 32800(%rbx), %ymm0 vmovapd .LCPI1_24(%rip), %ymm8 vmovapd %ymm8, %ymm1 callq __ocl_svml_e9_pow4 vmovaps %ymm0, 17376(%rbx) vmovaps 24576(%rbx), %ymm0 vmovapd %ymm8, %ymm1 vmovapd %ymm8, %ymm9 callq __ocl_svml_e9_pow4 movq 32792(%rbx), %rax movq 30784(%rbx), %r13 movq 30880(%rbx), %r14 vmovaps %ymm0, 17344(%rbx) movq 21664(%rbx), %rcx vxorps %ymm0, %ymm0, %ymm0 vmovaps %ymm0, (%rcx) movq 21680(%rbx), %rcx vmovaps %ymm0, (%rcx) movq 21696(%rbx), %rcx vmovaps %ymm0, (%rcx) movq 21712(%rbx), %rcx vmovaps %ymm0, (%rcx) movq 21728(%rbx), %rcx vmovaps %ymm0, (%rcx) movq 21744(%rbx), %rcx vmovaps %ymm0, (%rcx) movq 21760(%rbx), %rcx vmovaps %ymm0, (%rcx) movq 21776(%rbx), %rcx vmovaps %ymm0, (%rcx) movq %r15, 9672(%rax,%r12) movq %r15, 9704(%rax,%r12) movq %r15, 9736(%rax,%r12) movq %r15, 9768(%rax,%r12) movq %r15, 9800(%rax,%r12) movq %r15, 9832(%rax,%r12) movq %r15, 9864(%rax,%r12) movq %r15, 9896(%rax,%r12) movq 27168(%rbx), %rcx vmovsd (%rcx), %xmm0 movq 27136(%rbx), %rcx vmovhpd (%rcx), %xmm0, %xmm0 vmovapd %xmm0, 24384(%rbx) movq 27360(%rbx), %rcx vmovsd (%rcx), %xmm0 movq 27328(%rbx), %rcx vmovhpd (%rcx), %xmm0, %xmm0 vmovapd %ymm0, 23968(%rbx) movq 27040(%rbx), %rcx vmovsd (%rcx), %xmm0 movq 27008(%rbx), %rcx vmovhpd (%rcx), %xmm0, %xmm0 vmovapd %xmm0, 23936(%rbx) movq 27296(%rbx), %rcx vmovsd (%rcx), %xmm0 movq 27264(%rbx), %rcx vmovhpd (%rcx), %xmm0, %xmm0 vmovapd %ymm0, 23904(%rbx) movq 26976(%rbx), %rcx vmovsd (%rcx), %xmm0 movq 26944(%rbx), %rcx vmovhpd (%rcx), %xmm0, %xmm0 vmovapd %xmm0, 23872(%rbx) movq 27104(%rbx), %rcx vmovsd (%rcx), %xmm0 movq 27072(%rbx), %rcx vmovhpd (%rcx), %xmm0, %xmm0 vmovapd %ymm0, 23840(%rbx) movq 27232(%rbx), %rcx vmovsd (%rcx), %xmm0 movq 27200(%rbx), %rcx vmovhpd (%rcx), %xmm0, %xmm0 vmovapd %xmm0, 23808(%rbx) movq 27424(%rbx), %rcx vmovsd (%rcx), %xmm0 movq 27392(%rbx), %rcx vmovhpd (%rcx), %xmm0, %xmm0 vmovapd %ymm0, 23424(%rbx) movq 27488(%rbx), %rcx vmovsd (%rcx), %xmm0 movq 27456(%rbx), %rcx vmovhpd (%rcx), %xmm0, %xmm0 vmovapd %xmm0, 23392(%rbx) movq 27680(%rbx), %rcx vmovsd (%rcx), %xmm0 movq 27648(%rbx), %rcx vmovhpd (%rcx), %xmm0, %xmm0 vmovapd %ymm0, 23360(%rbx) movq 27936(%rbx), %rcx vmovsd (%rcx), %xmm0 movq 27904(%rbx), %rcx vmovhpd (%rcx), %xmm0, %xmm0 vmovapd %xmm0, 23232(%rbx) movq 28064(%rbx), %rcx vmovsd (%rcx), %xmm0 movq 28032(%rbx), %rcx vmovhpd (%rcx), %xmm0, %xmm0 vmovapd %ymm0, 23168(%rbx) movq 27552(%rbx), %rcx vmovsd (%rcx), %xmm0 movq 27520(%rbx), %rcx vmovhpd (%rcx), %xmm0, %xmm0 vmovapd %xmm0, 23104(%rbx) movq 27744(%rbx), %rcx vmovsd (%rcx), %xmm0 movq 27712(%rbx), %rcx vmovhpd (%rcx), %xmm0, %xmm0 vmovapd %ymm0, 23040(%rbx) movq 27616(%rbx), %rcx vmovsd (%rcx), %xmm0 movq 27584(%rbx), %rcx vmovhpd (%rcx), %xmm0, %xmm0 vmovapd %xmm0, 23008(%rbx) movq 27808(%rbx), %rcx vmovsd (%rcx), %xmm0 movq 27776(%rbx), %rcx vmovhpd (%rcx), %xmm0, %xmm0 vmovapd %ymm0, 22976(%rbx) movq 27872(%rbx), %rcx vmovsd (%rcx), %xmm0 movq 27840(%rbx), %rcx vmovhpd (%rcx), %xmm0, %xmm0 vmovapd %xmm0, 22944(%rbx) movq 28000(%rbx), %rcx vmovsd (%rcx), %xmm0 movq 27968(%rbx), %rcx vmovhpd (%rcx), %xmm0, %xmm0 vmovapd %ymm0, 22912(%rbx) movq 30080(%rbx), %rcx vmovsd (%rcx), %xmm0 movq 30048(%rbx), %rcx vmovhpd (%rcx), %xmm0, %xmm0 vmovapd %xmm0, 22880(%rbx) movq 28160(%rbx), %rcx vmovsd (%rcx), %xmm0 movq 30112(%rbx), %rcx vmovhpd (%rcx), %xmm0, %xmm0 vmovapd %ymm0, 22848(%rbx) movq 28128(%rbx), %rcx vmovsd (%rcx), %xmm0 movq 28096(%rbx), %rcx vmovhpd (%rcx), %xmm0, %xmm0 vmovapd %xmm0, 22816(%rbx) movq 28288(%rbx), %rcx vmovsd (%rcx), %xmm0 movq 28256(%rbx), %rcx vmovhpd (%rcx), %xmm0, %xmm0 vmovapd %ymm0, 22784(%rbx) movq 30304(%rbx), %rcx vmovsd (%rcx), %xmm0 movq 30272(%rbx), %rcx vmovhpd (%rcx), %xmm0, %xmm0 vmovapd %xmm0, 22752(%rbx) movq 30368(%rbx), %rcx vmovsd (%rcx), %xmm0 movq 30336(%rbx), %rcx vmovhpd (%rcx), %xmm0, %xmm0 vmovapd %ymm0, 22720(%rbx) movq 29248(%rbx), %rcx vmovsd (%rcx), %xmm0 movq 29216(%rbx), %rcx vmovhpd (%rcx), %xmm0, %xmm0 vmovapd %xmm0, 22688(%rbx) movq 29440(%rbx), %rcx vmovsd (%rcx), %xmm0 movq 29408(%rbx), %rcx vmovhpd (%rcx), %xmm0, %xmm0 vmovapd %ymm0, 22656(%rbx) movq 28736(%rbx), %rcx vmovsd (%rcx), %xmm0 movq 28704(%rbx), %rcx vmovhpd (%rcx), %xmm0, %xmm0 vmovapd %xmm0, 22624(%rbx) movq 28928(%rbx), %rcx vmovsd (%rcx), %xmm0 movq 28896(%rbx), %rcx vmovhpd (%rcx), %xmm0, %xmm0 vmovapd %ymm0, 22592(%rbx) movq 28544(%rbx), %rcx vmovsd (%rcx), %xmm0 movq 28512(%rbx), %rcx vmovhpd (%rcx), %xmm0, %xmm0 vmovapd %xmm0, 22560(%rbx) movq 28800(%rbx), %rcx vmovsd (%rcx), %xmm0 movq 28768(%rbx), %rcx vmovhpd (%rcx), %xmm0, %xmm0 vmovapd %ymm0, 22528(%rbx) movq 28352(%rbx), %rcx vmovsd (%rcx), %xmm0 movq 28320(%rbx), %rcx vmovhpd (%rcx), %xmm0, %xmm0 vmovapd %xmm0, 22240(%rbx) movq 28608(%rbx), %rcx vmovsd (%rcx), %xmm0 movq 28576(%rbx), %rcx vmovhpd (%rcx), %xmm0, %xmm0 vmovapd %ymm0, 22208(%rbx) movq 28416(%rbx), %rcx vmovsd (%rcx), %xmm0 movq 28384(%rbx), %rcx vmovhpd (%rcx), %xmm0, %xmm0 vmovapd %xmm0, 22176(%rbx) movq 28672(%rbx), %rcx vmovsd (%rcx), %xmm0 movq 28640(%rbx), %rcx vmovhpd (%rcx), %xmm0, %xmm0 vmovapd %ymm0, 22144(%rbx) movq 28224(%rbx), %rcx vmovsd (%rcx), %xmm0 movq 28192(%rbx), %rcx vmovhpd (%rcx), %xmm0, %xmm0 vmovapd %xmm0, 22112(%rbx) movq 28480(%rbx), %rcx vmovsd (%rcx), %xmm0 movq 28448(%rbx), %rcx vmovhpd (%rcx), %xmm0, %xmm0 vmovapd %ymm0, 22080(%rbx) movq 30176(%rbx), %rcx vmovsd (%rcx), %xmm0 movq 30144(%rbx), %rcx vmovhpd (%rcx), %xmm0, %xmm0 vmovapd %xmm0, 22048(%rbx) movq 30240(%rbx), %rcx vmovsd (%rcx), %xmm0 movq 30208(%rbx), %rcx vmovhpd (%rcx), %xmm0, %xmm0 vmovapd %ymm0, 22016(%rbx) movq 29888(%rbx), %rcx vmovsd (%rcx), %xmm0 movq 29856(%rbx), %rcx vmovhpd (%rcx), %xmm0, %xmm0 vmovapd %xmm0, 21984(%rbx) movq 30016(%rbx), %rcx vmovsd (%rcx), %xmm0 movq 29984(%rbx), %rcx vmovhpd (%rcx), %xmm0, %xmm0 vmovapd %ymm0, 21952(%rbx) movq 29376(%rbx), %rcx vmovsd (%rcx), %xmm0 movq 29344(%rbx), %rcx vmovhpd (%rcx), %xmm0, %xmm0 vmovapd %xmm0, 21920(%rbx) movq 29568(%rbx), %rcx vmovsd (%rcx), %xmm0 movq 29536(%rbx), %rcx vmovhpd (%rcx), %xmm0, %xmm0 vmovapd %ymm0, 21888(%rbx) movq 30432(%rbx), %rcx vmovsd (%rcx), %xmm0 movq 30400(%rbx), %rcx vmovhpd (%rcx), %xmm0, %xmm0 vmovapd %xmm0, 21856(%rbx) movq 30496(%rbx), %rcx vmovsd (%rcx), %xmm0 movq 30464(%rbx), %rcx vmovhpd (%rcx), %xmm0, %xmm0 vmovapd %ymm0, 21824(%rbx) movq 29696(%rbx), %rcx vmovsd (%rcx), %xmm0 movq 29664(%rbx), %rcx vmovhpd (%rcx), %xmm0, %xmm0 vmovapd %xmm0, 21792(%rbx) movq 29824(%rbx), %rcx vmovsd (%rcx), %xmm0 movq 29792(%rbx), %rcx vmovhpd (%rcx), %xmm0, %xmm0 vmovapd %ymm0, 21632(%rbx) movq 29760(%rbx), %rcx vmovsd (%rcx), %xmm0 movq 29728(%rbx), %rcx vmovhpd (%rcx), %xmm0, %xmm0 vmovapd %xmm0, 21248(%rbx) movq 29952(%rbx), %rcx vmovsd (%rcx), %xmm0 movq 29920(%rbx), %rcx vmovhpd (%rcx), %xmm0, %xmm0 vmovapd %ymm0, 21216(%rbx) movq 29120(%rbx), %rcx vmovsd (%rcx), %xmm0 movq 29088(%rbx), %rcx vmovhpd (%rcx), %xmm0, %xmm0 vmovapd %xmm0, 21184(%rbx) movq 29312(%rbx), %rcx vmovsd (%rcx), %xmm0 movq 29280(%rbx), %rcx vmovhpd (%rcx), %xmm0, %xmm0 vmovapd %ymm0, 21152(%rbx) movq 29056(%rbx), %rcx vmovsd (%rcx), %xmm0 movq 29024(%rbx), %rcx vmovhpd (%rcx), %xmm0, %xmm0 vmovapd %xmm0, 21120(%rbx) movq 29184(%rbx), %rcx vmovsd (%rcx), %xmm0 movq 29152(%rbx), %rcx vmovhpd (%rcx), %xmm0, %xmm0 vmovapd %ymm0, 21088(%rbx) movq 30656(%rbx), %rcx vmovsd (%rcx), %xmm0 movq 30688(%rbx), %rcx vmovhpd (%rcx), %xmm0, %xmm0 vmovapd %xmm0, 21056(%rbx) movq 30720(%rbx), %rcx vmovsd (%rcx), %xmm0 movq 30752(%rbx), %rcx vmovhpd (%rcx), %xmm0, %xmm0 vmovapd %ymm0, 21024(%rbx) movq 30528(%rbx), %rcx vmovsd (%rcx), %xmm0 movq 30560(%rbx), %rcx vmovhpd (%rcx), %xmm0, %xmm0 vmovapd %xmm0, 20992(%rbx) movq 30592(%rbx), %rcx vmovsd (%rcx), %xmm0 movq 30624(%rbx), %rcx vmovhpd (%rcx), %xmm0, %xmm0 vmovapd %ymm0, 20960(%rbx) movq 29504(%rbx), %rcx vmovsd (%rcx), %xmm5 movq 29632(%rbx), %rdx vmovsd (%rdx), %xmm4 movq 30816(%rbx), %rdx vmovsd (%rdx), %xmm3 movq 30848(%rbx), %rdx vmovsd (%rdx), %xmm1 movq 28992(%rbx), %rdx vmovsd (%rdx), %xmm6 movq 28864(%rbx), %rdx vmovsd (%rdx), %xmm0 movq 28832(%rbx), %rdx vmovhpd (%rdx), %xmm0, %xmm0 vmovapd %xmm0, 20928(%rbx) movq 28960(%rbx), %rdx vmovhpd (%rdx), %xmm6, %xmm0 vmovapd %ymm0, 20896(%rbx) movq 29472(%rbx), %rcx vmovhpd (%rcx), %xmm5, %xmm7 movq 29600(%rbx), %rcx vmovhpd (%rcx), %xmm4, %xmm15 movq 30976(%rbx), %rcx vmovhpd (%rcx), %xmm3, %xmm10 movq 31008(%rbx), %rcx vmovhpd (%rcx), %xmm1, %xmm3 vmovsd (%r14), %xmm0 movq 30912(%rbx), %rcx vmovhpd (%rcx), %xmm0, %xmm4 vmovsd (%r13), %xmm0 movq 30944(%rbx), %rcx vmovhpd (%rcx), %xmm0, %xmm5 movq 26272(%rbx), %rdx vmovupd 33024(%rbx,%rdx,8), %xmm0 vinsertf128 $1, 33040(%rbx,%rdx,8), %ymm0, %ymm6 vmovapd %ymm6, 23328(%rbx) movq 26880(%rbx), %rcx vmovupd 33024(%rbx,%rcx,8), %xmm0 vinsertf128 $1, 33040(%rbx,%rcx,8), %ymm0, %ymm1 vmovapd %ymm1, 31104(%rbx) movq 24032(%rbx), %rsi vmovupd 33024(%rbx,%rsi,8), %xmm0 vinsertf128 $1, 33040(%rbx,%rsi,8), %ymm0, %ymm2 vmovapd %ymm2, 23200(%rbx) vmovupd 33056(%rbx,%rdx,8), %xmm0 vinsertf128 $1, 33072(%rbx,%rdx,8), %ymm0, %ymm13 vmovapd %ymm13, 23136(%rbx) vmovupd 33056(%rbx,%rcx,8), %xmm0 vinsertf128 $1, 33072(%rbx,%rcx,8), %ymm0, %ymm8 vmovapd %ymm8, 26848(%rbx) vmovupd 33056(%rbx,%rsi,8), %xmm0 vinsertf128 $1, 33072(%rbx,%rsi,8), %ymm0, %ymm12 vmovapd %ymm12, 23072(%rbx) vsubpd %ymm1, %ymm2, %ymm0 vmulpd %ymm9, %ymm0, %ymm2 vmovapd %ymm2, 31872(%rbx) vsubpd %ymm6, %ymm1, %ymm0 vmulpd %ymm9, %ymm0, %ymm0 vmovapd %ymm0, 31840(%rbx) vmulpd %ymm2, %ymm0, %ymm0 vxorpd %ymm6, %ymm6, %ymm6 vcmpnlepd %ymm6, %ymm0, %ymm1 vmovapd %ymm1, 32896(%rbx) vextractf128 $1, %ymm1, %xmm0 vpshufd $8, %xmm0, %xmm2 vmovdqa %xmm2, 32864(%rbx) vpshufd $8, %xmm1, %xmm0 vmovlhps %xmm2, %xmm0, %xmm1 vsubpd %ymm8, %ymm12, %ymm0 vmulpd %ymm9, %ymm0, %ymm2 vmovapd %ymm2, 26272(%rbx) vsubpd %ymm13, %ymm8, %ymm0 vmulpd %ymm9, %ymm0, %ymm0 vmovapd %ymm0, 31808(%rbx) vmulpd %ymm2, %ymm0, %ymm0 vcmpnlepd %ymm6, %ymm0, %ymm2 vmovapd %ymm2, 32288(%rbx) vextractf128 $1, %ymm2, %xmm0 vpshufd $8, %xmm0, %xmm6 vmovdqa %xmm6, 32256(%rbx) vpshufd $8, %xmm2, %xmm0 vmovlhps %xmm6, %xmm0, %xmm0 vpshufb .LCPI1_20(%rip), %xmm0, %xmm0 vpshufb .LCPI1_21(%rip), %xmm1, %xmm1 vpor %xmm0, %xmm1, %xmm0 vmovdqa .LCPI1_17(%rip), %xmm1 vpxor %xmm1, %xmm0, %xmm1 vpmovzxwd %xmm1, %xmm0 vpslld $31, %xmm0, %xmm0 vpsrad $31, %xmm0, %xmm8 vpunpckhwd %xmm0, %xmm1, %xmm0 vpslld $31, %xmm0, %xmm0 vpsrad $31, %xmm0, %xmm0 vinsertf128 $1, %xmm0, %ymm8, %ymm0 vmovdqa 10048(%rbx), %ymm1 vptest %ymm1, %ymm0 vmovapd .LCPI1_73(%rip), %ymm8 vmovapd %ymm11, %ymm0 vmulpd %ymm8, %ymm0, %ymm1 vmovapd .LCPI1_74(%rip), %ymm11 vmulpd %ymm11, %ymm0, %ymm9 vmovapd 26720(%rbx), %ymm13 vaddpd %ymm9, %ymm13, %ymm0 vdivpd %ymm0, %ymm1, %ymm1 vmovapd %ymm14, %ymm0 vmulpd %ymm8, %ymm0, %ymm14 vmulpd %ymm11, %ymm0, %ymm8 vmovapd 32352(%rbx), %ymm0 vaddpd 24480(%rbx), %ymm0, %ymm0 vaddpd 24416(%rbx), %ymm0, %ymm12 vmovapd 32320(%rbx), %ymm0 vaddpd 26624(%rbx), %ymm0, %ymm0 vaddpd 24512(%rbx), %ymm0, %ymm0 vmovapd 26688(%rbx), %ymm2 vaddpd %ymm8, %ymm2, %ymm11 vdivpd %ymm11, %ymm14, %ymm14 vaddpd 24544(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 24512(%rbx) vaddpd 24448(%rbx), %ymm12, %ymm0 vmovapd %ymm0, 26624(%rbx) vmovapd 23264(%rbx), %ymm11 vaddpd %ymm11, %ymm13, %ymm0 vaddpd %ymm9, %ymm0, %ymm0 vdivpd %ymm0, %ymm11, %ymm0 vmulpd %ymm1, %ymm0, %ymm9 vaddpd %ymm1, %ymm0, %ymm1 vmovapd 23296(%rbx), %ymm11 vaddpd %ymm11, %ymm2, %ymm0 vaddpd %ymm8, %ymm0, %ymm0 vdivpd %ymm0, %ymm11, %ymm0 vmulpd %ymm14, %ymm0, %ymm8 vaddpd %ymm14, %ymm0, %ymm0 vsubpd %ymm8, %ymm0, %ymm0 vmovapd %ymm0, 31136(%rbx) vsubpd %ymm9, %ymm1, %ymm0 vmovapd %ymm0, 24544(%rbx) vinsertf128 $1, %xmm4, %ymm5, %ymm4 vinsertf128 $1, %xmm10, %ymm3, %ymm5 vinsertf128 $1, %xmm7, %ymm15, %ymm1 vmovapd 20896(%rbx), %ymm0 vinsertf128 $1, 20928(%rbx), %ymm0, %ymm3 vxorpd %ymm12, %ymm12, %ymm12 vmulpd %ymm12, %ymm5, %ymm0 vaddpd %ymm4, %ymm0, %ymm0 vmovapd %ymm0, 23264(%rbx) vmulpd %ymm12, %ymm4, %ymm0 vaddpd %ymm0, %ymm5, %ymm0 vmovapd %ymm0, 20928(%rbx) vmovapd 20960(%rbx), %ymm0 vinsertf128 $1, 20992(%rbx), %ymm0, %ymm4 vmovapd 21024(%rbx), %ymm0 vinsertf128 $1, 21056(%rbx), %ymm0, %ymm5 vmovapd 21088(%rbx), %ymm0 vinsertf128 $1, 21120(%rbx), %ymm0, %ymm14 vmovapd 21152(%rbx), %ymm0 vinsertf128 $1, 21184(%rbx), %ymm0, %ymm10 vmovapd 21216(%rbx), %ymm0 vinsertf128 $1, 21248(%rbx), %ymm0, %ymm6 vmovapd 21632(%rbx), %ymm0 vinsertf128 $1, 21792(%rbx), %ymm0, %ymm9 vmovapd 21824(%rbx), %ymm0 vinsertf128 $1, 21856(%rbx), %ymm0, %ymm13 vmovapd 21888(%rbx), %ymm0 vinsertf128 $1, 21920(%rbx), %ymm0, %ymm2 vmovapd 21952(%rbx), %ymm0 vinsertf128 $1, 21984(%rbx), %ymm0, %ymm8 vmovapd 22016(%rbx), %ymm0 vinsertf128 $1, 22048(%rbx), %ymm0, %ymm0 vmovapd 22080(%rbx), %ymm7 vinsertf128 $1, 22112(%rbx), %ymm7, %ymm7 vmulpd %ymm12, %ymm3, %ymm11 vaddpd %ymm1, %ymm11, %ymm11 vmovapd %ymm11, 24352(%rbx) vmulpd %ymm12, %ymm1, %ymm1 vxorpd %ymm12, %ymm12, %ymm12 vaddpd %ymm1, %ymm3, %ymm1 vmovapd %ymm1, 23296(%rbx) vmovapd 22144(%rbx), %ymm1 vinsertf128 $1, 22176(%rbx), %ymm1, %ymm1 vmovapd 22208(%rbx), %ymm3 vinsertf128 $1, 22240(%rbx), %ymm3, %ymm11 vmovapd 22528(%rbx), %ymm3 vinsertf128 $1, 22560(%rbx), %ymm3, %ymm3 vmovaps 22592(%rbx), %ymm15 vinsertf128 $1, 22624(%rbx), %ymm15, %ymm15 vmovaps %ymm15, 22624(%rbx) vmulpd %ymm12, %ymm10, %ymm15 vaddpd %ymm14, %ymm15, %ymm12 vmovapd %ymm12, 24480(%rbx) vxorpd %ymm12, %ymm12, %ymm12 vmulpd %ymm12, %ymm14, %ymm14 vaddpd %ymm14, %ymm10, %ymm10 vmovapd %ymm10, 24448(%rbx) vmulpd %ymm12, %ymm5, %ymm10 vaddpd %ymm4, %ymm10, %ymm10 vmovapd %ymm10, 24416(%rbx) vmulpd %ymm12, %ymm4, %ymm4 vaddpd %ymm4, %ymm5, %ymm4 vmovapd %ymm4, 24000(%rbx) vmulpd %ymm12, %ymm13, %ymm5 vmovapd 20928(%rbx), %ymm4 vaddpd %ymm5, %ymm4, %ymm4 vmovapd 23264(%rbx), %ymm10 vaddpd %ymm5, %ymm10, %ymm5 vmovapd %ymm5, 23264(%rbx) vmulpd %ymm12, %ymm9, %ymm5 vaddpd %ymm5, %ymm6, %ymm10 vmulpd %ymm12, %ymm6, %ymm5 vaddpd %ymm9, %ymm5, %ymm6 vmovaps 22656(%rbx), %ymm5 vinsertf128 $1, 22688(%rbx), %ymm5, %ymm5 vmovaps %ymm5, 22688(%rbx) vmovapd 22720(%rbx), %ymm5 vinsertf128 $1, 22752(%rbx), %ymm5, %ymm9 vmulpd %ymm12, %ymm0, %ymm0 vaddpd %ymm0, %ymm4, %ymm4 vmulpd %ymm12, %ymm8, %ymm8 vaddpd %ymm8, %ymm10, %ymm10 vmulpd %ymm12, %ymm2, %ymm5 vaddpd %ymm5, %ymm10, %ymm2 vmulpd %ymm12, %ymm2, %ymm2 vaddpd %ymm2, %ymm4, %ymm2 vmovapd %ymm2, 22752(%rbx) vmovaps 22784(%rbx), %ymm2 vinsertf128 $1, 22816(%rbx), %ymm2, %ymm2 vmovaps %ymm2, 22816(%rbx) vmovapd 22848(%rbx), %ymm2 vinsertf128 $1, 22880(%rbx), %ymm2, %ymm4 vmovapd 22912(%rbx), %ymm2 vinsertf128 $1, 22944(%rbx), %ymm2, %ymm14 vmulpd %ymm12, %ymm7, %ymm2 vaddpd %ymm2, %ymm1, %ymm2 vmovapd %ymm2, 22944(%rbx) vmulpd %ymm12, %ymm1, %ymm1 vaddpd %ymm7, %ymm1, %ymm1 vmovapd %ymm1, 22912(%rbx) vmovapd 22976(%rbx), %ymm1 vinsertf128 $1, 23008(%rbx), %ymm1, %ymm7 vmovapd 22624(%rbx), %ymm1 vmulpd %ymm12, %ymm1, %ymm1 vmovapd 23296(%rbx), %ymm2 vaddpd %ymm1, %ymm2, %ymm10 vmovapd 24352(%rbx), %ymm2 vaddpd %ymm1, %ymm2, %ymm1 vmovapd %ymm1, 24352(%rbx) vmulpd %ymm12, %ymm3, %ymm1 vaddpd %ymm11, %ymm1, %ymm1 vmovapd %ymm1, 23296(%rbx) vmulpd %ymm12, %ymm11, %ymm1 vxorpd %ymm12, %ymm12, %ymm12 vaddpd %ymm1, %ymm3, %ymm1 vmovapd %ymm1, 23008(%rbx) vmovapd 23040(%rbx), %ymm1 vinsertf128 $1, 23104(%rbx), %ymm1, %ymm13 vmovapd 23168(%rbx), %ymm1 vinsertf128 $1, 23232(%rbx), %ymm1, %ymm15 vmovapd 23360(%rbx), %ymm1 vinsertf128 $1, 23392(%rbx), %ymm1, %ymm1 vaddpd %ymm8, %ymm6, %ymm2 vmovapd %ymm2, 23392(%rbx) vmovapd 23424(%rbx), %ymm2 vinsertf128 $1, 23808(%rbx), %ymm2, %ymm6 vmovapd 23264(%rbx), %ymm2 vaddpd %ymm0, %ymm2, %ymm0 vmovapd %ymm0, 23808(%rbx) vmulpd %ymm12, %ymm9, %ymm2 vmovapd 24000(%rbx), %ymm0 vaddpd %ymm2, %ymm0, %ymm0 vmovapd 24416(%rbx), %ymm3 vaddpd %ymm2, %ymm3, %ymm2 vmovapd %ymm2, 24416(%rbx) vmovapd 22688(%rbx), %ymm2 vmulpd %ymm12, %ymm2, %ymm2 vmovapd 24448(%rbx), %ymm3 vaddpd %ymm2, %ymm3, %ymm11 vmovapd 24480(%rbx), %ymm3 vaddpd %ymm2, %ymm3, %ymm2 vmovapd %ymm2, 24480(%rbx) vmovaps 23840(%rbx), %ymm2 vinsertf128 $1, 23872(%rbx), %ymm2, %ymm2 vmovaps %ymm2, 24000(%rbx) vmovaps 23904(%rbx), %ymm2 vinsertf128 $1, 23936(%rbx), %ymm2, %ymm2 vmovaps %ymm2, 24448(%rbx) vmulpd %ymm12, %ymm14, %ymm3 vaddpd %ymm3, %ymm10, %ymm8 vmulpd %ymm12, %ymm8, %ymm8 vmovapd 22752(%rbx), %ymm2 vaddpd %ymm8, %ymm2, %ymm8 vmulpd %ymm12, %ymm4, %ymm4 vaddpd %ymm4, %ymm0, %ymm0 vmovapd 22816(%rbx), %ymm2 vmulpd %ymm12, %ymm2, %ymm14 vaddpd %ymm14, %ymm11, %ymm9 vmulpd %ymm12, %ymm9, %ymm9 vaddpd %ymm9, %ymm0, %ymm11 vmulpd %ymm12, %ymm7, %ymm0 vmovapd 22912(%rbx), %ymm2 vaddpd %ymm0, %ymm2, %ymm10 vmovapd 22944(%rbx), %ymm2 vaddpd %ymm0, %ymm2, %ymm2 vmulpd %ymm12, %ymm1, %ymm0 vaddpd %ymm0, %ymm15, %ymm0 vmulpd %ymm12, %ymm15, %ymm7 vaddpd %ymm1, %ymm7, %ymm1 vmulpd %ymm12, %ymm13, %ymm9 vmovapd 23296(%rbx), %ymm7 vaddpd %ymm9, %ymm7, %ymm7 vmovapd 23008(%rbx), %ymm13 vaddpd %ymm9, %ymm13, %ymm9 vmovapd 23968(%rbx), %ymm13 vinsertf128 $1, 24384(%rbx), %ymm13, %ymm13 vmulpd %ymm12, %ymm13, %ymm13 vaddpd %ymm13, %ymm9, %ymm9 vaddpd %ymm13, %ymm7, %ymm13 vmovapd 24352(%rbx), %ymm7 vaddpd %ymm3, %ymm7, %ymm15 vmovapd 23392(%rbx), %ymm3 vaddpd %ymm5, %ymm3, %ymm7 vmulpd %ymm12, %ymm6, %ymm3 vaddpd %ymm3, %ymm1, %ymm6 vaddpd %ymm3, %ymm0, %ymm5 vmovapd 24000(%rbx), %ymm0 vmulpd %ymm12, %ymm0, %ymm0 vaddpd %ymm0, %ymm2, %ymm1 vmulpd %ymm12, %ymm1, %ymm1 vaddpd %ymm1, %ymm11, %ymm11 vmulpd %ymm12, %ymm9, %ymm1 vaddpd %ymm1, %ymm8, %ymm2 vmovapd 24480(%rbx), %ymm1 vaddpd %ymm14, %ymm1, %ymm1 vmovapd 24416(%rbx), %ymm3 vaddpd %ymm4, %ymm3, %ymm3 vmovapd 24448(%rbx), %ymm4 vmulpd %ymm12, %ymm4, %ymm4 vaddpd %ymm4, %ymm5, %ymm14 vaddpd %ymm4, %ymm6, %ymm4 vmovapd %ymm4, 24448(%rbx) vaddpd %ymm0, %ymm10, %ymm10 vmovapd 23808(%rbx), %ymm8 vmulpd %ymm12, %ymm8, %ymm0 vaddpd %ymm7, %ymm0, %ymm0 vmulpd %ymm12, %ymm15, %ymm4 vaddpd %ymm4, %ymm0, %ymm0 vmulpd %ymm12, %ymm13, %ymm5 vaddpd %ymm5, %ymm0, %ymm6 vmovapd 32960(%rbx), %ymm13 vmulpd %ymm13, %ymm13, %ymm0 vaddpd %ymm6, %ymm0, %ymm6 vmovapd 31136(%rbx), %ymm9 vmulpd %ymm6, %ymm9, %ymm6 vsubpd %ymm6, %ymm0, %ymm0 vmovapd %ymm0, 24480(%rbx) vmovapd 24512(%rbx), %ymm0 vmulpd %ymm13, %ymm0, %ymm6 vmulpd %ymm0, %ymm0, %ymm0 vaddpd %ymm0, %ymm2, %ymm2 vmulpd %ymm2, %ymm9, %ymm2 vsubpd %ymm2, %ymm0, %ymm2 vmulpd %ymm12, %ymm14, %ymm0 vaddpd %ymm0, %ymm11, %ymm0 vmulpd %ymm12, %ymm7, %ymm7 vaddpd %ymm7, %ymm8, %ymm14 vmulpd %ymm12, %ymm3, %ymm7 vaddpd %ymm1, %ymm7, %ymm11 vmulpd %ymm12, %ymm10, %ymm7 vaddpd %ymm7, %ymm11, %ymm10 vmovapd 24448(%rbx), %ymm8 vmulpd %ymm12, %ymm8, %ymm8 vaddpd %ymm8, %ymm10, %ymm11 vmovapd 32928(%rbx), %ymm13 vmulpd %ymm13, %ymm13, %ymm10 vaddpd %ymm11, %ymm10, %ymm11 vmovapd 24544(%rbx), %ymm15 vmulpd %ymm11, %ymm15, %ymm11 vsubpd %ymm11, %ymm10, %ymm11 vmovapd 26624(%rbx), %ymm9 vmulpd %ymm13, %ymm9, %ymm10 vmulpd %ymm9, %ymm9, %ymm13 vaddpd %ymm13, %ymm0, %ymm0 vmulpd %ymm0, %ymm15, %ymm0 vsubpd %ymm0, %ymm13, %ymm0 vmulpd %ymm12, %ymm1, %ymm1 vaddpd %ymm1, %ymm3, %ymm1 vmovapd .LCPI1_75(%rip), %ymm13 vmulpd %ymm13, %ymm2, %ymm3 vmulpd 24480(%rbx), %ymm3, %ymm3 vaddpd %ymm4, %ymm14, %ymm4 vaddpd %ymm5, %ymm4, %ymm4 vaddpd %ymm6, %ymm4, %ymm4 vmovapd 31136(%rbx), %ymm5 vmulpd %ymm4, %ymm5, %ymm4 vsubpd %ymm4, %ymm6, %ymm4 vmovapd .LCPI1_24(%rip), %ymm6 vmulpd %ymm6, %ymm4, %ymm4 vmulpd %ymm4, %ymm4, %ymm5 vsubpd %ymm3, %ymm5, %ymm3 vsqrtpd %ymm3, %ymm5 vmovapd .LCPI1_25(%rip), %ymm9 vxorpd %ymm9, %ymm4, %ymm3 vsubpd %ymm5, %ymm3, %ymm3 vsubpd %ymm4, %ymm5, %ymm5 vmulpd %ymm13, %ymm0, %ymm4 vmulpd %ymm11, %ymm4, %ymm4 vaddpd %ymm7, %ymm1, %ymm1 vaddpd %ymm8, %ymm1, %ymm1 vaddpd %ymm10, %ymm1, %ymm1 vmulpd %ymm1, %ymm15, %ymm1 vsubpd %ymm1, %ymm10, %ymm1 vmovapd %ymm6, %ymm7 vmulpd %ymm7, %ymm1, %ymm1 vmulpd %ymm1, %ymm1, %ymm6 vsubpd %ymm4, %ymm6, %ymm4 vxorpd %ymm9, %ymm5, %ymm5 vmulpd %ymm7, %ymm2, %ymm2 vmovapd %ymm7, %ymm6 vdivpd %ymm2, %ymm5, %ymm5 vmovapd %ymm5, 21248(%rbx) vxorpd %ymm9, %ymm3, %ymm3 vdivpd %ymm2, %ymm3, %ymm2 vmovapd %ymm2, 21216(%rbx) vcmpltpd %ymm5, %ymm2, %ymm2 vextractf128 $1, %ymm2, %xmm3 vpshufd $8, %xmm3, %xmm3 vpshufd $8, %xmm2, %xmm2 vmovlhps %xmm3, %xmm2, %xmm2 vsqrtpd %ymm4, %ymm4 vxorpd %ymm9, %ymm1, %ymm3 vsubpd %ymm4, %ymm3, %ymm3 vsubpd %ymm1, %ymm4, %ymm1 vxorpd %ymm9, %ymm1, %ymm1 vmulpd %ymm6, %ymm0, %ymm0 vdivpd %ymm0, %ymm1, %ymm4 vmovapd %ymm4, 21184(%rbx) vxorpd %ymm9, %ymm3, %ymm1 vdivpd %ymm0, %ymm1, %ymm1 vmovapd %ymm1, 21152(%rbx) vmovdqa .LCPI1_20(%rip), %xmm3 vpshufb %xmm3, %xmm2, %xmm0 vmovdqa %xmm3, %xmm12 vcmpltpd %ymm4, %ymm1, %ymm1 vextractf128 $1, %ymm1, %xmm2 vpshufd $8, %xmm2, %xmm2 vpshufd $8, %xmm1, %xmm1 vmovlhps %xmm2, %xmm1, %xmm1 vmovdqa .LCPI1_21(%rip), %xmm2 vpshufb %xmm2, %xmm1, %xmm1 vpor %xmm0, %xmm1, %xmm0 vpsllw $15, %xmm0, %xmm0 vpsraw $15, %xmm0, %xmm0 vpunpckhbw %xmm0, %xmm0, %xmm1 vpslld $31, %xmm1, %xmm1 vpsrad $31, %xmm1, %xmm1 vmovdqa %xmm1, 16800(%rbx) vpmovsxdq %xmm1, %xmm1 vmovdqa %ymm1, 16864(%rbx) vpunpcklbw %xmm0, %xmm0, %xmm0 vpslld $31, %xmm0, %xmm0 vpsrad $31, %xmm0, %xmm0 vmovdqa %xmm0, 16768(%rbx) vpmovsxdq %xmm0, %xmm0 vmovdqa %ymm0, 16832(%rbx) vmovapd 10016(%rbx), %ymm0 vmovapd %ymm0, %ymm1 vmovapd %ymm0, %ymm4 vmovdqa .LCPI1_17(%rip), %xmm0 vmovdqa %xmm0, %xmm8 vmovapd .LCPI1_56(%rip), %ymm14 jb .LBB1_3506 vmovapd 23200(%rbx), %ymm0 vsubpd 23328(%rbx), %ymm0, %ymm0 vmovapd 23072(%rbx), %ymm1 vsubpd 23136(%rbx), %ymm1, %ymm1 vmovapd .LCPI1_28(%rip), %ymm13 vmulpd %ymm13, %ymm1, %ymm2 vmovapd %ymm2, 32928(%rbx) vmulpd %ymm13, %ymm0, %ymm1 vmovapd %ymm1, 32960(%rbx) vandpd %ymm14, %ymm2, %ymm2 vmovapd 31808(%rbx), %ymm0 vandpd %ymm14, %ymm0, %ymm7 vcmpltpd %ymm2, %ymm7, %ymm3 vextractf128 $1, %ymm3, %xmm0 vpshufd $8, %xmm0, %xmm4 vpshufd $8, %xmm3, %xmm0 vandpd %ymm14, %ymm1, %ymm5 vmovlhps %xmm4, %xmm0, %xmm15 vmovdqa %xmm8, %xmm10 vmovapd 31840(%rbx), %ymm0 vandpd %ymm14, %ymm0, %ymm8 vcmpltpd %ymm5, %ymm8, %ymm3 vextractf128 $1, %ymm3, %xmm0 vpshufd $8, %xmm0, %xmm6 vpshufd $8, %xmm3, %xmm0 vmovlhps %xmm6, %xmm0, %xmm6 vmovapd 26272(%rbx), %ymm11 vandpd %ymm14, %ymm11, %ymm3 vcmpltpd %ymm3, %ymm7, %ymm7 vextractf128 $1, %ymm7, %xmm0 vpshufd $8, %xmm0, %xmm0 vpshufd $8, %xmm7, %xmm7 vmovlhps %xmm0, %xmm7, %xmm7 vmovapd 31872(%rbx), %ymm0 vandpd %ymm14, %ymm0, %ymm9 vcmpltpd %ymm9, %ymm8, %ymm8 vextractf128 $1, %ymm8, %xmm0 vpshufd $8, %xmm0, %xmm0 vpshufd $8, %xmm8, %xmm1 vmovlhps %xmm0, %xmm1, %xmm0 vcmpltpd %ymm5, %ymm9, %ymm8 vmovdqa .LCPI1_21(%rip), %xmm4 vpshufb %xmm4, %xmm0, %xmm0 vpshufb %xmm12, %xmm7, %xmm1 vpor %xmm1, %xmm0, %xmm5 vpshufb %xmm4, %xmm6, %xmm0 vpshufb %xmm12, %xmm15, %xmm1 vpor %xmm1, %xmm0, %xmm7 vextractf128 $1, %ymm8, %xmm0 vpshufd $8, %xmm0, %xmm0 vpshufd $8, %xmm8, %xmm1 vmovdqa %xmm10, %xmm8 vmovlhps %xmm0, %xmm1, %xmm9 vmovdqa 32896(%rbx), %ymm0 vpshufd $8, %xmm0, %xmm0 vmovaps 32864(%rbx), %xmm1 vmovlhps %xmm1, %xmm0, %xmm6 vcmpltpd %ymm2, %ymm3, %ymm3 vpsllw $15, %xmm7, %xmm0 vpsraw $15, %xmm0, %xmm0 vpxor %xmm8, %xmm0, %xmm2 vpsllw $15, %xmm5, %xmm0 vpsraw $15, %xmm0, %xmm0 vpxor %xmm8, %xmm0, %xmm0 vpor %xmm2, %xmm0, %xmm2 vextractf128 $1, %ymm3, %xmm0 vpshufd $8, %xmm0, %xmm0 vpshufd $8, %xmm3, %xmm1 vmovlhps %xmm0, %xmm1, %xmm5 vpshufb %xmm4, %xmm9, %xmm3 vpshufb %xmm4, %xmm6, %xmm4 vmovdqa 32288(%rbx), %ymm0 vpshufd $8, %xmm0, %xmm0 vmovaps 32256(%rbx), %xmm1 vmovlhps %xmm1, %xmm0, %xmm0 vpshufb %xmm12, %xmm0, %xmm0 vpor %xmm0, %xmm4, %xmm0 vpsllw $15, %xmm0, %xmm0 vpsraw $15, %xmm0, %xmm0 vpand %xmm2, %xmm0, %xmm2 vpshufb %xmm12, %xmm5, %xmm0 vpunpckhbw %xmm0, %xmm2, %xmm4 vpor %xmm0, %xmm3, %xmm0 vpslld $31, %xmm4, %xmm4 vpsllw $15, %xmm0, %xmm0 vpsraw $15, %xmm0, %xmm3 vpmovsxdq %xmm4, %xmm5 vmovhlps %xmm4, %xmm4, %xmm0 vpmovsxdq %xmm0, %xmm0 vinsertf128 $1, %xmm0, %ymm5, %ymm4 vpunpckhbw %xmm0, %xmm3, %xmm0 vpslld $31, %xmm0, %xmm0 vpmovsxdq %xmm0, %xmm5 vmovhlps %xmm0, %xmm0, %xmm0 vpmovsxdq %xmm0, %xmm0 vinsertf128 $1, %xmm0, %ymm5, %ymm5 vpunpcklbw %xmm0, %xmm2, %xmm0 vpslld $31, %xmm0, %xmm0 vpmovsxdq %xmm0, %xmm2 vmovhlps %xmm0, %xmm0, %xmm0 vpmovsxdq %xmm0, %xmm6 vpunpcklbw %xmm0, %xmm3, %xmm3 vmovapd 32928(%rbx), %ymm0 vblendvpd %ymm5, %ymm11, %ymm0, %ymm0 vmovapd 31808(%rbx), %ymm1 vblendvpd %ymm4, %ymm0, %ymm1, %ymm0 vmulpd %ymm13, %ymm0, %ymm4 vinsertf128 $1, %xmm6, %ymm2, %ymm1 vpslld $31, %xmm3, %xmm0 vpmovsxdq %xmm0, %xmm2 vmovhlps %xmm0, %xmm0, %xmm0 vpmovsxdq %xmm0, %xmm0 vinsertf128 $1, %xmm0, %ymm2, %ymm0 vmovapd 32960(%rbx), %ymm2 vblendvpd %ymm0, 31872(%rbx), %ymm2, %ymm0 vmovapd 31840(%rbx), %ymm2 vblendvpd %ymm1, %ymm0, %ymm2, %ymm0 vmulpd %ymm13, %ymm0, %ymm1 .LBB1_3506: vmovapd %ymm1, 31136(%rbx) vmovapd %ymm4, 31808(%rbx) movq 32064(%rbx), %rcx vmovupd 33056(%rbx,%rcx,8), %xmm3 movq 26592(%rbx), %rdx vmovupd 33056(%rbx,%rdx,8), %xmm1 vmovupd 33024(%rbx,%rcx,8), %xmm2 vmovupd 33024(%rbx,%rdx,8), %xmm0 movq 24288(%rbx), %rsi vmovupd 33024(%rbx,%rsi,8), %xmm4 vmovupd 33040(%rbx,%rdx,8), %xmm5 vmovupd 33040(%rbx,%rcx,8), %xmm6 vinsertf128 $1, 33072(%rbx,%rcx,8), %ymm3, %ymm7 vmovapd %ymm7, 31872(%rbx) vinsertf128 $1, 33072(%rbx,%rdx,8), %ymm1, %ymm1 vmovapd %ymm1, 26624(%rbx) vinsertf128 $1, %xmm6, %ymm2, %ymm6 vmovapd %ymm6, 31840(%rbx) vinsertf128 $1, %xmm5, %ymm0, %ymm3 vmovupd 33056(%rbx,%rsi,8), %xmm0 vinsertf128 $1, 33072(%rbx,%rsi,8), %ymm0, %ymm10 vinsertf128 $1, 33040(%rbx,%rsi,8), %ymm4, %ymm11 vmovdqa 32288(%rbx), %ymm0 vpshufd $8, %xmm0, %xmm0 vmovaps 32256(%rbx), %xmm2 vmovlhps %xmm2, %xmm0, %xmm0 vmovdqa 32896(%rbx), %ymm2 vpshufd $8, %xmm2, %xmm2 vmovaps 32864(%rbx), %xmm4 vmovlhps %xmm4, %xmm2, %xmm2 vsubpd %ymm3, %ymm6, %ymm4 vsubpd %ymm6, %ymm11, %ymm5 vsubpd %ymm1, %ymm7, %ymm6 vsubpd %ymm7, %ymm10, %ymm7 vmovapd .LCPI1_24(%rip), %ymm13 vmulpd %ymm13, %ymm7, %ymm15 vmovapd %ymm15, 32256(%rbx) vmulpd %ymm13, %ymm6, %ymm7 vmulpd %ymm13, %ymm5, %ymm1 vmovapd %ymm1, 32288(%rbx) vmulpd %ymm13, %ymm4, %ymm9 vmovdqa .LCPI1_21(%rip), %xmm4 vmovdqa %xmm4, %xmm6 vpshufb %xmm6, %xmm2, %xmm2 vpshufb %xmm12, %xmm0, %xmm0 vpor %xmm0, %xmm2, %xmm0 vmulpd %ymm15, %ymm7, %ymm2 vmovapd %ymm7, %ymm13 vxorpd %ymm4, %ymm4, %ymm4 vcmpnlepd %ymm4, %ymm2, %ymm5 vmovapd %ymm5, 32960(%rbx) vextractf128 $1, %ymm5, %xmm2 vpshufd $8, %xmm2, %xmm7 vmovdqa %xmm7, 32928(%rbx) vpshufd $8, %xmm5, %xmm2 vmovlhps %xmm7, %xmm2, %xmm2 vpshufb %xmm12, %xmm2, %xmm5 vmulpd %ymm1, %ymm9, %ymm2 vcmpnlepd %ymm4, %ymm2, %ymm1 vmovapd %ymm1, 32864(%rbx) vextractf128 $1, %ymm1, %xmm2 vpshufd $8, %xmm2, %xmm7 vmovdqa %xmm7, 32896(%rbx) vpshufd $8, %xmm1, %xmm2 vmovlhps %xmm7, %xmm2, %xmm2 vpshufb %xmm6, %xmm2, %xmm2 vpor %xmm5, %xmm2, %xmm5 vpsllw $15, %xmm0, %xmm0 vpsraw $15, %xmm0, %xmm0 vpxor %xmm8, %xmm5, %xmm5 vpunpckhbw %xmm0, %xmm0, %xmm2 vpslld $31, %xmm2, %xmm2 vmovdqa %xmm2, 23968(%rbx) vpmovsxdq %xmm2, %xmm2 vmovdqa %ymm2, 24544(%rbx) vpmovzxwd %xmm5, %xmm2 vpslld $31, %xmm2, %xmm2 vpsrad $31, %xmm2, %xmm6 vpunpckhwd %xmm0, %xmm5, %xmm2 vpslld $31, %xmm2, %xmm2 vpsrad $31, %xmm2, %xmm5 vpunpcklbw %xmm0, %xmm0, %xmm0 vpslld $31, %xmm0, %xmm2 vmovdqa %xmm2, 23872(%rbx) vinsertf128 $1, %xmm5, %ymm6, %ymm0 vpmovsxdq %xmm2, %xmm2 vmovdqa %ymm2, 24512(%rbx) vmovdqa 9952(%rbx), %ymm2 vptest %ymm2, %ymm0 vmovapd 9984(%rbx), %ymm0 vmovapd %ymm0, %ymm2 vmovapd %ymm0, %ymm6 jb .LBB1_3508 vsubpd %ymm3, %ymm11, %ymm0 vsubpd 26624(%rbx), %ymm10, %ymm1 vmovapd .LCPI1_28(%rip), %ymm8 vmulpd %ymm8, %ymm1, %ymm1 vmovapd %ymm1, 26272(%rbx) vmulpd %ymm8, %ymm0, %ymm2 vmovapd %ymm2, 26624(%rbx) vandpd %ymm14, %ymm1, %ymm10 vmovapd %ymm14, %ymm7 vmovapd %ymm13, 24480(%rbx) vandpd %ymm7, %ymm13, %ymm14 vcmpltpd %ymm10, %ymm14, %ymm0 vextractf128 $1, %ymm0, %xmm1 vpshufd $8, %xmm1, %xmm1 vpshufd $8, %xmm0, %xmm0 vandpd %ymm7, %ymm2, %ymm12 vmovlhps %xmm1, %xmm0, %xmm0 vmovapd %ymm9, 26592(%rbx) vandpd %ymm7, %ymm9, %ymm6 vcmpltpd %ymm12, %ymm6, %ymm1 vextractf128 $1, %ymm1, %xmm2 vpshufd $8, %xmm2, %xmm5 vpshufd $8, %xmm1, %xmm1 vmovlhps %xmm5, %xmm1, %xmm3 vmovapd 32256(%rbx), %ymm15 vandpd %ymm7, %ymm15, %ymm11 vcmpltpd %ymm11, %ymm14, %ymm1 vmovapd %ymm7, %ymm14 vextractf128 $1, %ymm1, %xmm2 vpshufd $8, %xmm2, %xmm7 vpshufd $8, %xmm1, %xmm1 vmovlhps %xmm7, %xmm1, %xmm1 vmovapd 32288(%rbx), %ymm13 vandpd %ymm14, %ymm13, %ymm7 vcmpltpd %ymm7, %ymm6, %ymm6 vextractf128 $1, %ymm6, %xmm2 vpshufd $8, %xmm2, %xmm2 vpshufd $8, %xmm6, %xmm6 vmovlhps %xmm2, %xmm6, %xmm2 vcmpltpd %ymm12, %ymm7, %ymm7 vmovdqa .LCPI1_21(%rip), %xmm5 vpshufb %xmm5, %xmm2, %xmm2 vmovdqa .LCPI1_20(%rip), %xmm4 vpshufb %xmm4, %xmm1, %xmm1 vpor %xmm1, %xmm2, %xmm6 vpshufb %xmm5, %xmm3, %xmm1 vpshufb %xmm4, %xmm0, %xmm0 vpor %xmm0, %xmm1, %xmm1 vextractf128 $1, %ymm7, %xmm0 vpshufd $8, %xmm0, %xmm0 vpshufd $8, %xmm7, %xmm2 vmovlhps %xmm0, %xmm2, %xmm9 vmovdqa 32864(%rbx), %ymm0 vpshufd $8, %xmm0, %xmm2 vmovaps 32896(%rbx), %xmm3 vmovlhps %xmm3, %xmm2, %xmm0 vcmpltpd %ymm10, %ymm11, %ymm7 vpsllw $15, %xmm1, %xmm1 vpsraw $15, %xmm1, %xmm1 vmovdqa .LCPI1_17(%rip), %xmm3 vpxor %xmm3, %xmm1, %xmm1 vpsllw $15, %xmm6, %xmm2 vpsraw $15, %xmm2, %xmm2 vpxor %xmm3, %xmm2, %xmm2 vpor %xmm1, %xmm2, %xmm6 vextractf128 $1, %ymm7, %xmm1 vpshufd $8, %xmm1, %xmm1 vpshufd $8, %xmm7, %xmm2 vmovlhps %xmm1, %xmm2, %xmm1 vpshufb %xmm5, %xmm9, %xmm7 vpshufb %xmm5, %xmm0, %xmm0 vmovdqa 32960(%rbx), %ymm2 vpshufd $8, %xmm2, %xmm2 vmovaps 32928(%rbx), %xmm3 vmovlhps %xmm3, %xmm2, %xmm2 vpshufb %xmm4, %xmm2, %xmm2 vpor %xmm2, %xmm0, %xmm0 vpsllw $15, %xmm0, %xmm0 vpsraw $15, %xmm0, %xmm0 vpand %xmm6, %xmm0, %xmm0 vpshufb %xmm4, %xmm1, %xmm1 vpunpckhbw %xmm0, %xmm0, %xmm2 vpor %xmm1, %xmm7, %xmm5 vpslld $31, %xmm2, %xmm1 vpsllw $15, %xmm5, %xmm2 vpsraw $15, %xmm2, %xmm5 vpmovsxdq %xmm1, %xmm6 vmovhlps %xmm1, %xmm1, %xmm1 vpmovsxdq %xmm1, %xmm1 vinsertf128 $1, %xmm1, %ymm6, %ymm6 vpunpckhbw %xmm0, %xmm5, %xmm1 vpslld $31, %xmm1, %xmm2 vpmovsxdq %xmm2, %xmm1 vmovhlps %xmm2, %xmm2, %xmm2 vpmovsxdq %xmm2, %xmm2 vinsertf128 $1, %xmm2, %ymm1, %ymm1 vpunpcklbw %xmm0, %xmm0, %xmm0 vpslld $31, %xmm0, %xmm2 vpmovsxdq %xmm2, %xmm0 vmovhlps %xmm2, %xmm2, %xmm2 vpmovsxdq %xmm2, %xmm7 vpunpcklbw %xmm0, %xmm5, %xmm5 vmovapd 26272(%rbx), %ymm2 vblendvpd %ymm1, %ymm15, %ymm2, %ymm1 vmovapd 24480(%rbx), %ymm2 vblendvpd %ymm6, %ymm1, %ymm2, %ymm1 vmulpd %ymm8, %ymm1, %ymm6 vinsertf128 $1, %xmm7, %ymm0, %ymm0 vpslld $31, %xmm5, %xmm2 vpmovsxdq %xmm2, %xmm1 vmovhlps %xmm2, %xmm2, %xmm2 vpmovsxdq %xmm2, %xmm2 vinsertf128 $1, %xmm2, %ymm1, %ymm1 vmovapd 26624(%rbx), %ymm2 vblendvpd %ymm1, %ymm13, %ymm2, %ymm1 vmovapd 26592(%rbx), %ymm2 vblendvpd %ymm0, %ymm1, %ymm2, %ymm0 vmulpd %ymm8, %ymm0, %ymm2 .LBB1_3508: vmovapd %ymm2, 26272(%rbx) vmovapd %ymm6, 26624(%rbx) movq 32096(%rbx), %rcx vmovupd 33056(%rbx,%rcx,8), %xmm5 movq 26560(%rbx), %rdx vmovupd 33056(%rbx,%rdx,8), %xmm1 vmovupd 33024(%rbx,%rcx,8), %xmm3 vmovupd 33024(%rbx,%rdx,8), %xmm0 movq 24256(%rbx), %rsi vmovupd 33024(%rbx,%rsi,8), %xmm7 vmovupd 33040(%rbx,%rdx,8), %xmm6 vmovupd 33040(%rbx,%rcx,8), %xmm2 vinsertf128 $1, 33072(%rbx,%rcx,8), %ymm5, %ymm8 vmovapd %ymm8, 32288(%rbx) vinsertf128 $1, 33072(%rbx,%rdx,8), %ymm1, %ymm1 vinsertf128 $1, %xmm2, %ymm3, %ymm5 vmovapd %ymm5, 32256(%rbx) vinsertf128 $1, %xmm6, %ymm0, %ymm6 vmovupd 33056(%rbx,%rsi,8), %xmm0 vinsertf128 $1, 33072(%rbx,%rsi,8), %ymm0, %ymm14 vinsertf128 $1, 33040(%rbx,%rsi,8), %ymm7, %ymm12 vmovdqa 32960(%rbx), %ymm0 vpshufd $8, %xmm0, %xmm0 vmovaps 32928(%rbx), %xmm2 vmovlhps %xmm2, %xmm0, %xmm0 vmovdqa 32864(%rbx), %ymm2 vpshufd $8, %xmm2, %xmm2 vmovaps 32896(%rbx), %xmm3 vmovlhps %xmm3, %xmm2, %xmm2 vsubpd %ymm6, %ymm5, %ymm3 vsubpd %ymm5, %ymm12, %ymm4 vsubpd %ymm1, %ymm8, %ymm5 vsubpd %ymm8, %ymm14, %ymm7 vmovapd .LCPI1_24(%rip), %ymm8 vmulpd %ymm8, %ymm7, %ymm10 vmovapd %ymm10, 26592(%rbx) vmulpd %ymm8, %ymm5, %ymm15 vmulpd %ymm8, %ymm4, %ymm9 vmovapd %ymm9, 32864(%rbx) vmulpd %ymm8, %ymm3, %ymm7 vmovdqa .LCPI1_21(%rip), %xmm5 vpshufb %xmm5, %xmm2, %xmm2 vmovdqa .LCPI1_20(%rip), %xmm13 vpshufb %xmm13, %xmm0, %xmm0 vpor %xmm0, %xmm2, %xmm3 vmulpd %ymm10, %ymm15, %ymm0 vxorpd %ymm4, %ymm4, %ymm4 vcmpnlepd %ymm4, %ymm0, %ymm10 vextractf128 $1, %ymm10, %xmm0 vpshufd $8, %xmm0, %xmm2 vmovdqa %xmm2, 32960(%rbx) vpshufd $8, %xmm10, %xmm0 vmovlhps %xmm2, %xmm0, %xmm0 vpshufb %xmm13, %xmm0, %xmm0 vmulpd %ymm9, %ymm7, %ymm2 vmovapd %ymm7, %ymm13 vcmpnlepd %ymm4, %ymm2, %ymm4 vmovapd %ymm4, 32896(%rbx) vextractf128 $1, %ymm4, %xmm2 vpshufd $8, %xmm2, %xmm7 vmovdqa %xmm7, 32928(%rbx) vpshufd $8, %xmm4, %xmm2 vmovlhps %xmm7, %xmm2, %xmm2 vpshufb %xmm5, %xmm2, %xmm2 vmovdqa %xmm5, %xmm11 vpor %xmm0, %xmm2, %xmm5 vpsllw $15, %xmm3, %xmm0 vpsraw $15, %xmm0, %xmm0 vpxor .LCPI1_17(%rip), %xmm5, %xmm3 vpunpckhbw %xmm0, %xmm0, %xmm2 vpslld $31, %xmm2, %xmm2 vmovdqa %xmm2, 23840(%rbx) vpmovsxdq %xmm2, %xmm2 vmovdqa %ymm2, 24416(%rbx) vpmovzxwd %xmm3, %xmm2 vpslld $31, %xmm2, %xmm2 vpsrad $31, %xmm2, %xmm5 vpunpckhwd %xmm0, %xmm3, %xmm2 vpslld $31, %xmm2, %xmm2 vpsrad $31, %xmm2, %xmm3 vpunpcklbw %xmm0, %xmm0, %xmm0 vpslld $31, %xmm0, %xmm2 vmovdqa %xmm2, 23808(%rbx) vinsertf128 $1, %xmm3, %ymm5, %ymm0 vpmovsxdq %xmm2, %xmm2 vmovdqa %ymm2, 24384(%rbx) vmovdqa 9888(%rbx), %ymm2 vptest %ymm2, %ymm0 vmovapd 9920(%rbx), %ymm0 vmovapd %ymm0, %ymm2 vmovapd %ymm0, %ymm9 movq 25792(%rbx), %r9 movq 25536(%rbx), %r10 movq 25504(%rbx), %r11 movq 25472(%rbx), %r14 movq 25408(%rbx), %r13 jb .LBB1_3510 vsubpd %ymm6, %ymm12, %ymm0 vsubpd %ymm1, %ymm14, %ymm1 vmovapd .LCPI1_28(%rip), %ymm8 vmulpd %ymm8, %ymm1, %ymm1 vmovapd %ymm1, 24448(%rbx) vmulpd %ymm8, %ymm0, %ymm2 vmovapd %ymm2, 26560(%rbx) vmovdqa %ymm10, %ymm6 vmovapd .LCPI1_56(%rip), %ymm10 vandpd %ymm10, %ymm1, %ymm12 vmovapd %ymm15, %ymm9 vandpd %ymm10, %ymm9, %ymm15 vcmpltpd %ymm12, %ymm15, %ymm0 vextractf128 $1, %ymm0, %xmm1 vpshufd $8, %xmm1, %xmm1 vpshufd $8, %xmm0, %xmm0 vandpd %ymm10, %ymm2, %ymm14 vmovlhps %xmm1, %xmm0, %xmm5 vmovapd %ymm13, 24480(%rbx) vandpd %ymm10, %ymm13, %ymm0 vcmpltpd %ymm14, %ymm0, %ymm1 vextractf128 $1, %ymm1, %xmm2 vpshufd $8, %xmm2, %xmm3 vpshufd $8, %xmm1, %xmm1 vmovlhps %xmm3, %xmm1, %xmm3 vmovapd 26592(%rbx), %ymm4 vandpd %ymm10, %ymm4, %ymm13 vcmpltpd %ymm13, %ymm15, %ymm1 vextractf128 $1, %ymm1, %xmm2 vpshufd $8, %xmm2, %xmm7 vpshufd $8, %xmm1, %xmm1 vmovlhps %xmm7, %xmm1, %xmm1 vmovapd 32864(%rbx), %ymm15 vandpd %ymm10, %ymm15, %ymm7 vmovdqa %ymm6, %ymm10 vcmpltpd %ymm7, %ymm0, %ymm0 vextractf128 $1, %ymm0, %xmm2 vpshufd $8, %xmm2, %xmm2 vpshufd $8, %xmm0, %xmm0 vmovlhps %xmm2, %xmm0, %xmm0 vcmpltpd %ymm14, %ymm7, %ymm7 vpshufb %xmm11, %xmm0, %xmm0 vmovdqa .LCPI1_20(%rip), %xmm6 vpshufb %xmm6, %xmm1, %xmm1 vpor %xmm1, %xmm0, %xmm0 vpshufb %xmm11, %xmm3, %xmm1 vpshufb %xmm6, %xmm5, %xmm2 vpor %xmm2, %xmm1, %xmm1 vextractf128 $1, %ymm7, %xmm2 vpshufd $8, %xmm2, %xmm2 vpshufd $8, %xmm7, %xmm3 vmovlhps %xmm2, %xmm3, %xmm3 vmovdqa 32896(%rbx), %ymm2 vpshufd $8, %xmm2, %xmm2 vmovaps 32928(%rbx), %xmm5 vmovlhps %xmm5, %xmm2, %xmm5 vcmpltpd %ymm12, %ymm13, %ymm7 vpsllw $15, %xmm1, %xmm1 vpsraw $15, %xmm1, %xmm1 vmovdqa .LCPI1_17(%rip), %xmm2 vpxor %xmm2, %xmm1, %xmm1 vpsllw $15, %xmm0, %xmm0 vpsraw $15, %xmm0, %xmm0 vpxor %xmm2, %xmm0, %xmm0 vpor %xmm1, %xmm0, %xmm0 vextractf128 $1, %ymm7, %xmm1 vpshufd $8, %xmm1, %xmm1 vpshufd $8, %xmm7, %xmm2 vmovlhps %xmm1, %xmm2, %xmm1 vpshufb %xmm11, %xmm3, %xmm7 vpshufb %xmm11, %xmm5, %xmm3 vpshufd $8, %xmm10, %xmm2 vmovaps 32960(%rbx), %xmm5 vmovlhps %xmm5, %xmm2, %xmm2 vpshufb %xmm6, %xmm2, %xmm2 vpor %xmm2, %xmm3, %xmm2 vpsllw $15, %xmm2, %xmm2 vpsraw $15, %xmm2, %xmm2 vpand %xmm0, %xmm2, %xmm3 vpshufb %xmm6, %xmm1, %xmm0 vpunpckhbw %xmm0, %xmm3, %xmm1 vpor %xmm0, %xmm7, %xmm2 vpslld $31, %xmm1, %xmm0 vpsllw $15, %xmm2, %xmm1 vpsraw $15, %xmm1, %xmm5 vpmovsxdq %xmm0, %xmm1 vmovhlps %xmm0, %xmm0, %xmm0 vpmovsxdq %xmm0, %xmm0 vinsertf128 $1, %xmm0, %ymm1, %ymm0 vpunpckhbw %xmm0, %xmm5, %xmm1 vpslld $31, %xmm1, %xmm2 vpmovsxdq %xmm2, %xmm1 vmovhlps %xmm2, %xmm2, %xmm2 vpmovsxdq %xmm2, %xmm2 vinsertf128 $1, %xmm2, %ymm1, %ymm1 vpunpcklbw %xmm0, %xmm3, %xmm2 vpslld $31, %xmm2, %xmm2 vpmovsxdq %xmm2, %xmm3 vmovhlps %xmm2, %xmm2, %xmm2 vpmovsxdq %xmm2, %xmm7 vpunpcklbw %xmm0, %xmm5, %xmm5 vmovapd 24448(%rbx), %ymm2 vblendvpd %ymm1, %ymm4, %ymm2, %ymm1 vblendvpd %ymm0, %ymm1, %ymm9, %ymm0 vmulpd %ymm8, %ymm0, %ymm9 vinsertf128 $1, %xmm7, %ymm3, %ymm0 vpslld $31, %xmm5, %xmm2 vpmovsxdq %xmm2, %xmm1 vmovhlps %xmm2, %xmm2, %xmm2 vpmovsxdq %xmm2, %xmm2 vinsertf128 $1, %xmm2, %ymm1, %ymm1 vmovapd 26560(%rbx), %ymm2 vblendvpd %ymm1, %ymm15, %ymm2, %ymm1 vmovapd 24480(%rbx), %ymm2 vblendvpd %ymm0, %ymm1, %ymm2, %ymm0 vmulpd %ymm8, %ymm0, %ymm2 .LBB1_3510: vmovapd %ymm2, 24448(%rbx) vmovapd %ymm9, 24480(%rbx) movq 32416(%rbx), %rcx vmovupd 33056(%rbx,%rcx,8), %xmm5 movq 26528(%rbx), %rdx vmovupd 33056(%rbx,%rdx,8), %xmm3 vmovupd 33024(%rbx,%rcx,8), %xmm1 vmovupd 33024(%rbx,%rdx,8), %xmm0 movq 24224(%rbx), %rsi vmovupd 33024(%rbx,%rsi,8), %xmm6 vmovupd 33040(%rbx,%rdx,8), %xmm7 vmovupd 33040(%rbx,%rcx,8), %xmm2 vinsertf128 $1, 33072(%rbx,%rcx,8), %ymm5, %ymm5 vmovapd %ymm5, 26592(%rbx) vinsertf128 $1, 33072(%rbx,%rdx,8), %ymm3, %ymm14 vinsertf128 $1, %xmm2, %ymm1, %ymm3 vmovapd %ymm3, 26560(%rbx) vinsertf128 $1, %xmm7, %ymm0, %ymm15 vmovupd 33056(%rbx,%rsi,8), %xmm0 vinsertf128 $1, 33072(%rbx,%rsi,8), %ymm0, %ymm12 vinsertf128 $1, 33040(%rbx,%rsi,8), %ymm6, %ymm13 vpshufd $8, %xmm10, %xmm0 vmovaps 32960(%rbx), %xmm1 vmovlhps %xmm1, %xmm0, %xmm0 vmovdqa 32896(%rbx), %ymm1 vpshufd $8, %xmm1, %xmm1 vmovaps 32928(%rbx), %xmm2 vmovlhps %xmm2, %xmm1, %xmm1 vsubpd %ymm15, %ymm3, %ymm2 vsubpd %ymm3, %ymm13, %ymm3 vsubpd %ymm14, %ymm5, %ymm4 vsubpd %ymm5, %ymm12, %ymm5 vmovapd .LCPI1_24(%rip), %ymm6 vmulpd %ymm6, %ymm5, %ymm8 vmovapd %ymm8, 24352(%rbx) vmulpd %ymm6, %ymm4, %ymm5 vmulpd %ymm6, %ymm3, %ymm7 vmovapd %ymm7, 26528(%rbx) vmulpd %ymm6, %ymm2, %ymm6 vmovdqa %xmm11, %xmm4 vpshufb %xmm4, %xmm1, %xmm1 vmovdqa .LCPI1_20(%rip), %xmm3 vpshufb %xmm3, %xmm0, %xmm0 vpor %xmm0, %xmm1, %xmm1 vmulpd %ymm8, %ymm5, %ymm0 vmovapd %ymm5, %ymm11 vxorpd %ymm2, %ymm2, %ymm2 vcmpnlepd %ymm2, %ymm0, %ymm8 vmovapd %ymm8, 32896(%rbx) vextractf128 $1, %ymm8, %xmm0 vpshufd $8, %xmm0, %xmm5 vmovdqa %xmm5, 32960(%rbx) vpshufd $8, %xmm8, %xmm0 vmovlhps %xmm5, %xmm0, %xmm0 vpshufb %xmm3, %xmm0, %xmm3 vmulpd %ymm7, %ymm6, %ymm0 vcmpnlepd %ymm2, %ymm0, %ymm5 vmovapd %ymm5, 32864(%rbx) vextractf128 $1, %ymm5, %xmm0 vpshufd $8, %xmm0, %xmm2 vmovdqa %xmm2, 32928(%rbx) vpshufd $8, %xmm5, %xmm0 vmovlhps %xmm2, %xmm0, %xmm0 vpshufb %xmm4, %xmm0, %xmm0 vpor %xmm3, %xmm0, %xmm0 vpsllw $15, %xmm1, %xmm1 vpsraw $15, %xmm1, %xmm1 vpxor .LCPI1_17(%rip), %xmm0, %xmm3 vpunpckhbw %xmm0, %xmm1, %xmm0 vpslld $31, %xmm0, %xmm0 vmovdqa %xmm0, 23424(%rbx) vpmovsxdq %xmm0, %xmm0 vmovdqa %ymm0, 23936(%rbx) vpmovzxwd %xmm3, %xmm0 vpslld $31, %xmm0, %xmm0 vpsrad $31, %xmm0, %xmm5 vpunpckhwd %xmm0, %xmm3, %xmm0 vpslld $31, %xmm0, %xmm0 vpsrad $31, %xmm0, %xmm0 vpunpcklbw %xmm0, %xmm1, %xmm1 vpslld $31, %xmm1, %xmm1 vmovdqa %xmm1, 23328(%rbx) vinsertf128 $1, %xmm0, %ymm5, %ymm0 vpmovsxdq %xmm1, %xmm1 vmovdqa %ymm1, 23904(%rbx) vmovdqa 9824(%rbx), %ymm1 vptest %ymm1, %ymm0 vmovapd 9856(%rbx), %ymm0 vmovapd %ymm0, %ymm1 vmovapd %ymm0, %ymm4 jb .LBB1_3512 vsubpd %ymm15, %ymm13, %ymm0 vsubpd %ymm14, %ymm12, %ymm1 vmovapd .LCPI1_28(%rip), %ymm9 vmulpd %ymm9, %ymm1, %ymm1 vmovapd %ymm1, 23392(%rbx) vmulpd %ymm9, %ymm0, %ymm2 vmovapd %ymm2, 24000(%rbx) vmovapd .LCPI1_56(%rip), %ymm10 vandpd %ymm10, %ymm1, %ymm12 vmovapd %ymm11, %ymm8 vandpd %ymm10, %ymm8, %ymm7 vcmpltpd %ymm12, %ymm7, %ymm0 vextractf128 $1, %ymm0, %xmm1 vpshufd $8, %xmm1, %xmm1 vpshufd $8, %xmm0, %xmm0 vandpd %ymm10, %ymm2, %ymm3 vmovlhps %xmm1, %xmm0, %xmm5 vmovapd %ymm6, %ymm14 vandpd %ymm10, %ymm14, %ymm6 vcmpltpd %ymm3, %ymm6, %ymm0 vextractf128 $1, %ymm0, %xmm1 vpshufd $8, %xmm1, %xmm1 vpshufd $8, %xmm0, %xmm0 vmovlhps %xmm1, %xmm0, %xmm1 vmovapd 24352(%rbx), %ymm15 vandpd %ymm10, %ymm15, %ymm13 vcmpltpd %ymm13, %ymm7, %ymm0 vextractf128 $1, %ymm0, %xmm2 vpshufd $8, %xmm2, %xmm7 vpshufd $8, %xmm0, %xmm0 vmovlhps %xmm7, %xmm0, %xmm7 vmovapd 26528(%rbx), %ymm11 vandpd %ymm10, %ymm11, %ymm0 vcmpltpd %ymm0, %ymm6, %ymm6 vextractf128 $1, %ymm6, %xmm2 vpshufd $8, %xmm2, %xmm2 vpshufd $8, %xmm6, %xmm6 vmovlhps %xmm2, %xmm6, %xmm2 vcmpltpd %ymm3, %ymm0, %ymm6 vmovdqa .LCPI1_21(%rip), %xmm4 vpshufb %xmm4, %xmm2, %xmm0 vmovdqa .LCPI1_20(%rip), %xmm3 vpshufb %xmm3, %xmm7, %xmm2 vpor %xmm2, %xmm0, %xmm2 vpshufb %xmm4, %xmm1, %xmm0 vpshufb %xmm3, %xmm5, %xmm1 vpor %xmm1, %xmm0, %xmm7 vextractf128 $1, %ymm6, %xmm0 vpshufd $8, %xmm0, %xmm0 vpshufd $8, %xmm6, %xmm1 vmovlhps %xmm0, %xmm1, %xmm1 vmovdqa 32864(%rbx), %ymm0 vpshufd $8, %xmm0, %xmm0 vmovaps 32928(%rbx), %xmm5 vmovlhps %xmm5, %xmm0, %xmm5 vcmpltpd %ymm12, %ymm13, %ymm6 vpsllw $15, %xmm7, %xmm0 vpsraw $15, %xmm0, %xmm0 vmovdqa .LCPI1_17(%rip), %xmm7 vpxor %xmm7, %xmm0, %xmm0 vpsllw $15, %xmm2, %xmm2 vpsraw $15, %xmm2, %xmm2 vpxor %xmm7, %xmm2, %xmm2 vpor %xmm0, %xmm2, %xmm10 vextractf128 $1, %ymm6, %xmm0 vpshufd $8, %xmm0, %xmm0 vpshufd $8, %xmm6, %xmm2 vmovlhps %xmm0, %xmm2, %xmm7 vpshufb %xmm4, %xmm1, %xmm6 vpshufb %xmm4, %xmm5, %xmm0 vmovdqa 32896(%rbx), %ymm1 vpshufd $8, %xmm1, %xmm1 vmovaps 32960(%rbx), %xmm2 vmovlhps %xmm2, %xmm1, %xmm1 vpshufb %xmm3, %xmm1, %xmm1 vpor %xmm1, %xmm0, %xmm0 vpsllw $15, %xmm0, %xmm0 vpsraw $15, %xmm0, %xmm0 vpand %xmm10, %xmm0, %xmm1 vpshufb %xmm3, %xmm7, %xmm0 vpunpckhbw %xmm0, %xmm1, %xmm2 vpor %xmm0, %xmm6, %xmm3 vpslld $31, %xmm2, %xmm0 vpsllw $15, %xmm3, %xmm2 vpsraw $15, %xmm2, %xmm3 vpmovsxdq %xmm0, %xmm5 vmovhlps %xmm0, %xmm0, %xmm0 vpmovsxdq %xmm0, %xmm0 vinsertf128 $1, %xmm0, %ymm5, %ymm5 vpunpckhbw %xmm0, %xmm3, %xmm0 vpslld $31, %xmm0, %xmm2 vpmovsxdq %xmm2, %xmm0 vmovhlps %xmm2, %xmm2, %xmm2 vpmovsxdq %xmm2, %xmm2 vinsertf128 $1, %xmm2, %ymm0, %ymm6 vpunpcklbw %xmm0, %xmm1, %xmm0 vpslld $31, %xmm0, %xmm0 vpmovsxdq %xmm0, %xmm1 vmovhlps %xmm0, %xmm0, %xmm0 vpmovsxdq %xmm0, %xmm0 vpunpcklbw %xmm0, %xmm3, %xmm3 vmovapd 23392(%rbx), %ymm2 vblendvpd %ymm6, %ymm15, %ymm2, %ymm2 vblendvpd %ymm5, %ymm2, %ymm8, %ymm2 vmulpd %ymm9, %ymm2, %ymm4 vinsertf128 $1, %xmm0, %ymm1, %ymm1 vpslld $31, %xmm3, %xmm2 vpmovsxdq %xmm2, %xmm0 vmovhlps %xmm2, %xmm2, %xmm2 vpmovsxdq %xmm2, %xmm2 vinsertf128 $1, %xmm2, %ymm0, %ymm0 vmovapd 24000(%rbx), %ymm2 vblendvpd %ymm0, %ymm11, %ymm2, %ymm0 vblendvpd %ymm1, %ymm0, %ymm14, %ymm0 vmulpd %ymm9, %ymm0, %ymm1 .LBB1_3512: vmovapd %ymm1, 24000(%rbx) vmovapd %ymm4, 24352(%rbx) vmovaps 23968(%rbx), %xmm0 vmovhlps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 23968(%rbx) vmovaps 23872(%rbx), %xmm0 vmovhlps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 23392(%rbx) vmovaps 23840(%rbx), %xmm0 vmovhlps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 23360(%rbx) vmovaps 23808(%rbx), %xmm0 vmovhlps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 23232(%rbx) vmovaps 23424(%rbx), %xmm0 vmovhlps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 23200(%rbx) vmovaps 23328(%rbx), %xmm0 vmovhlps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 23168(%rbx) movq 32448(%rbx), %rcx vmovupd 33056(%rbx,%rcx,8), %xmm5 movq 26496(%rbx), %rdx vmovupd 33056(%rbx,%rdx,8), %xmm2 vmovupd 33024(%rbx,%rcx,8), %xmm3 vmovupd 33024(%rbx,%rdx,8), %xmm1 movq 24192(%rbx), %rsi vmovupd 33024(%rbx,%rsi,8), %xmm6 vmovupd 33040(%rbx,%rdx,8), %xmm0 vmovupd 33040(%rbx,%rcx,8), %xmm7 vinsertf128 $1, 33072(%rbx,%rcx,8), %ymm5, %ymm9 vmovapd %ymm9, 26528(%rbx) vinsertf128 $1, 33072(%rbx,%rdx,8), %ymm2, %ymm12 vinsertf128 $1, %xmm7, %ymm3, %ymm2 vmovapd %ymm2, 26496(%rbx) vinsertf128 $1, %xmm0, %ymm1, %ymm14 vmovupd 33056(%rbx,%rsi,8), %xmm0 vinsertf128 $1, 33072(%rbx,%rsi,8), %ymm0, %ymm5 vinsertf128 $1, 33040(%rbx,%rsi,8), %ymm6, %ymm6 vmovdqa 32896(%rbx), %ymm0 vpshufd $8, %xmm0, %xmm0 vmovaps 32960(%rbx), %xmm1 vmovlhps %xmm1, %xmm0, %xmm1 vmovdqa 32864(%rbx), %ymm0 vpshufd $8, %xmm0, %xmm0 vmovaps 32928(%rbx), %xmm3 vmovlhps %xmm3, %xmm0, %xmm0 vsubpd %ymm14, %ymm2, %ymm4 vsubpd %ymm2, %ymm6, %ymm7 vsubpd %ymm12, %ymm9, %ymm8 vsubpd %ymm9, %ymm5, %ymm9 vmovapd .LCPI1_24(%rip), %ymm10 vmulpd %ymm10, %ymm9, %ymm9 vmulpd %ymm10, %ymm8, %ymm15 vmulpd %ymm10, %ymm7, %ymm3 vmovapd %ymm3, 32896(%rbx) vmulpd %ymm10, %ymm4, %ymm11 vmovdqa .LCPI1_21(%rip), %xmm2 vpshufb %xmm2, %xmm0, %xmm0 vmovdqa .LCPI1_20(%rip), %xmm4 vpshufb %xmm4, %xmm1, %xmm1 vpor %xmm1, %xmm0, %xmm1 vmulpd %ymm9, %ymm15, %ymm0 vxorpd %ymm7, %ymm7, %ymm7 vcmpnlepd %ymm7, %ymm0, %ymm8 vextractf128 $1, %ymm8, %xmm0 vpshufd $8, %xmm0, %xmm13 vpshufd $8, %xmm8, %xmm0 vmovlhps %xmm13, %xmm0, %xmm0 vpshufb %xmm4, %xmm0, %xmm0 vmulpd %ymm3, %ymm11, %ymm4 vcmpnlepd %ymm7, %ymm4, %ymm7 vmovapd %ymm7, 32960(%rbx) vextractf128 $1, %ymm7, %xmm4 vpshufd $8, %xmm4, %xmm3 vmovdqa %xmm3, 32928(%rbx) vpshufd $8, %xmm7, %xmm4 vmovlhps %xmm3, %xmm4, %xmm4 vpshufb %xmm2, %xmm4, %xmm4 vpor %xmm0, %xmm4, %xmm0 vpsllw $15, %xmm1, %xmm1 vpsraw $15, %xmm1, %xmm1 vpxor .LCPI1_17(%rip), %xmm0, %xmm4 vpunpckhbw %xmm0, %xmm1, %xmm0 vpslld $31, %xmm0, %xmm0 vpmovsxdq %xmm0, %xmm2 vmovdqa %ymm2, 23808(%rbx) vmovhlps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 23136(%rbx) vpmovzxwd %xmm4, %xmm0 vpslld $31, %xmm0, %xmm0 vpsrad $31, %xmm0, %xmm0 vpunpckhwd %xmm0, %xmm4, %xmm4 vpslld $31, %xmm4, %xmm4 vpsrad $31, %xmm4, %xmm4 vpunpcklbw %xmm0, %xmm1, %xmm1 vpslld $31, %xmm1, %xmm1 vinsertf128 $1, %xmm4, %ymm0, %ymm0 vpmovsxdq %xmm1, %xmm2 vmovdqa %ymm2, 23424(%rbx) vmovhlps %xmm1, %xmm1, %xmm1 vmovaps %xmm1, 23104(%rbx) vmovdqa 9760(%rbx), %ymm1 vptest %ymm1, %ymm0 vmovapd 9792(%rbx), %ymm0 vmovapd %ymm0, %ymm1 vmovapd %ymm0, %ymm4 jb .LBB1_3514 vsubpd %ymm14, %ymm6, %ymm0 vsubpd %ymm12, %ymm5, %ymm1 vmovapd .LCPI1_28(%rip), %ymm12 vmulpd %ymm12, %ymm1, %ymm1 vmovapd %ymm1, 23840(%rbx) vmulpd %ymm12, %ymm0, %ymm2 vmovapd %ymm2, 23872(%rbx) vmovaps %ymm8, 32864(%rbx) vmovaps %xmm13, %xmm8 vmovapd .LCPI1_56(%rip), %ymm13 vandpd %ymm13, %ymm1, %ymm5 vmovapd %ymm15, 23328(%rbx) vandpd %ymm13, %ymm15, %ymm15 vcmpltpd %ymm5, %ymm15, %ymm0 vextractf128 $1, %ymm0, %xmm1 vpshufd $8, %xmm1, %xmm1 vpshufd $8, %xmm0, %xmm0 vandpd %ymm13, %ymm2, %ymm14 vmovlhps %xmm1, %xmm0, %xmm10 vandpd %ymm13, %ymm11, %ymm4 vcmpltpd %ymm14, %ymm4, %ymm0 vextractf128 $1, %ymm0, %xmm1 vpshufd $8, %xmm1, %xmm1 vpshufd $8, %xmm0, %xmm0 vmovlhps %xmm1, %xmm0, %xmm1 vandpd %ymm13, %ymm9, %ymm6 vcmpltpd %ymm6, %ymm15, %ymm0 vextractf128 $1, %ymm0, %xmm2 vpshufd $8, %xmm2, %xmm7 vpshufd $8, %xmm0, %xmm0 vmovlhps %xmm7, %xmm0, %xmm7 vmovapd 32896(%rbx), %ymm15 vandpd %ymm13, %ymm15, %ymm0 vcmpltpd %ymm0, %ymm4, %ymm4 vextractf128 $1, %ymm4, %xmm2 vpshufd $8, %xmm2, %xmm2 vpshufd $8, %xmm4, %xmm4 vmovlhps %xmm2, %xmm4, %xmm2 vcmpltpd %ymm14, %ymm0, %ymm14 vmovdqa .LCPI1_21(%rip), %xmm3 vpshufb %xmm3, %xmm2, %xmm0 vmovdqa .LCPI1_20(%rip), %xmm4 vpshufb %xmm4, %xmm7, %xmm2 vpor %xmm2, %xmm0, %xmm13 vpshufb %xmm3, %xmm1, %xmm0 vpshufb %xmm4, %xmm10, %xmm1 vpor %xmm1, %xmm0, %xmm0 vextractf128 $1, %ymm14, %xmm1 vpshufd $8, %xmm1, %xmm1 vpshufd $8, %xmm14, %xmm2 vmovlhps %xmm1, %xmm2, %xmm1 vmovdqa 32960(%rbx), %ymm2 vpshufd $8, %xmm2, %xmm2 vmovaps 32928(%rbx), %xmm7 vmovlhps %xmm7, %xmm2, %xmm7 vcmpltpd %ymm5, %ymm6, %ymm5 vpsllw $15, %xmm0, %xmm0 vpsraw $15, %xmm0, %xmm0 vmovdqa .LCPI1_17(%rip), %xmm6 vpxor %xmm6, %xmm0, %xmm0 vpsllw $15, %xmm13, %xmm2 vmovaps %xmm8, %xmm13 vmovdqa 32864(%rbx), %ymm8 vpsraw $15, %xmm2, %xmm2 vpxor %xmm6, %xmm2, %xmm2 vpor %xmm0, %xmm2, %xmm10 vextractf128 $1, %ymm5, %xmm0 vpshufd $8, %xmm0, %xmm0 vpshufd $8, %xmm5, %xmm2 vmovlhps %xmm0, %xmm2, %xmm6 vpshufb %xmm3, %xmm1, %xmm5 vpshufb %xmm3, %xmm7, %xmm0 vpshufd $8, %xmm8, %xmm1 vmovlhps %xmm13, %xmm1, %xmm1 vpshufb %xmm4, %xmm1, %xmm1 vpor %xmm1, %xmm0, %xmm0 vpsllw $15, %xmm0, %xmm0 vpsraw $15, %xmm0, %xmm0 vpand %xmm10, %xmm0, %xmm1 vpshufb %xmm4, %xmm6, %xmm0 vpunpckhbw %xmm0, %xmm1, %xmm2 vpor %xmm0, %xmm5, %xmm4 vpslld $31, %xmm2, %xmm0 vpsllw $15, %xmm4, %xmm2 vpsraw $15, %xmm2, %xmm5 vpmovsxdq %xmm0, %xmm4 vmovhlps %xmm0, %xmm0, %xmm0 vpmovsxdq %xmm0, %xmm0 vinsertf128 $1, %xmm0, %ymm4, %ymm4 vpunpckhbw %xmm0, %xmm5, %xmm0 vpslld $31, %xmm0, %xmm2 vpmovsxdq %xmm2, %xmm0 vmovhlps %xmm2, %xmm2, %xmm2 vpmovsxdq %xmm2, %xmm2 vinsertf128 $1, %xmm2, %ymm0, %ymm0 vpunpcklbw %xmm0, %xmm1, %xmm1 vpslld $31, %xmm1, %xmm2 vpmovsxdq %xmm2, %xmm1 vmovhlps %xmm2, %xmm2, %xmm2 vpmovsxdq %xmm2, %xmm6 vpunpcklbw %xmm0, %xmm5, %xmm5 vmovapd 23840(%rbx), %ymm2 vblendvpd %ymm0, %ymm9, %ymm2, %ymm0 vmovapd 23328(%rbx), %ymm2 vblendvpd %ymm4, %ymm0, %ymm2, %ymm0 vmulpd %ymm12, %ymm0, %ymm4 vinsertf128 $1, %xmm6, %ymm1, %ymm0 vpslld $31, %xmm5, %xmm2 vpmovsxdq %xmm2, %xmm1 vmovhlps %xmm2, %xmm2, %xmm2 vpmovsxdq %xmm2, %xmm2 vinsertf128 $1, %xmm2, %ymm1, %ymm1 vmovapd 23872(%rbx), %ymm2 vblendvpd %ymm1, %ymm15, %ymm2, %ymm1 vblendvpd %ymm0, %ymm1, %ymm11, %ymm0 vmulpd %ymm12, %ymm0, %ymm1 .LBB1_3514: vmovapd %ymm1, 23840(%rbx) vmovapd %ymm4, 23872(%rbx) vmovdqa 23968(%rbx), %xmm0 vpmovsxdq %xmm0, %xmm0 vmovdqa %xmm0, 23328(%rbx) vmovdqa 23392(%rbx), %xmm0 vpmovsxdq %xmm0, %xmm0 vmovdqa %xmm0, 23296(%rbx) vmovdqa 23360(%rbx), %xmm0 vpmovsxdq %xmm0, %xmm0 vmovdqa %xmm0, 23264(%rbx) vmovdqa 23232(%rbx), %xmm0 vpmovsxdq %xmm0, %xmm0 vmovdqa %xmm0, 23232(%rbx) vmovdqa 23200(%rbx), %xmm0 vpmovsxdq %xmm0, %xmm0 vmovdqa %xmm0, 23200(%rbx) vmovdqa 23168(%rbx), %xmm0 vpmovsxdq %xmm0, %xmm0 vmovdqa %xmm0, 23168(%rbx) vmovdqa 23136(%rbx), %xmm0 vpmovsxdq %xmm0, %xmm0 vmovdqa %xmm0, 23136(%rbx) vmovdqa 23104(%rbx), %xmm0 vpmovsxdq %xmm0, %xmm0 vmovdqa %xmm0, 23104(%rbx) movq 32480(%rbx), %rcx vmovupd 33056(%rbx,%rcx,8), %xmm3 movq 26464(%rbx), %rdx vmovupd 33056(%rbx,%rdx,8), %xmm2 vmovupd 33024(%rbx,%rcx,8), %xmm1 vmovupd 33024(%rbx,%rdx,8), %xmm0 movq 24160(%rbx), %rsi vmovupd 33024(%rbx,%rsi,8), %xmm4 vmovupd 33040(%rbx,%rdx,8), %xmm5 vmovupd 33040(%rbx,%rcx,8), %xmm6 vinsertf128 $1, 33072(%rbx,%rcx,8), %ymm3, %ymm3 vmovapd %ymm3, 23968(%rbx) vinsertf128 $1, 33072(%rbx,%rdx,8), %ymm2, %ymm15 vinsertf128 $1, %xmm6, %ymm1, %ymm6 vmovapd %ymm6, 26464(%rbx) vinsertf128 $1, %xmm5, %ymm0, %ymm14 vmovupd 33056(%rbx,%rsi,8), %xmm0 vinsertf128 $1, 33072(%rbx,%rsi,8), %ymm0, %ymm10 vinsertf128 $1, 33040(%rbx,%rsi,8), %ymm4, %ymm5 vpshufd $8, %xmm8, %xmm1 vmovlhps %xmm13, %xmm1, %xmm1 vmovdqa 32960(%rbx), %ymm0 vpshufd $8, %xmm0, %xmm2 vmovaps 32928(%rbx), %xmm0 vmovlhps %xmm0, %xmm2, %xmm2 vsubpd %ymm14, %ymm6, %ymm4 vsubpd %ymm6, %ymm5, %ymm6 vsubpd %ymm15, %ymm3, %ymm7 vsubpd %ymm3, %ymm10, %ymm3 vmovapd .LCPI1_24(%rip), %ymm9 vmulpd %ymm9, %ymm3, %ymm12 vmovapd %ymm12, 23360(%rbx) vmulpd %ymm9, %ymm7, %ymm0 vmulpd %ymm9, %ymm6, %ymm11 vmovapd %ymm11, 23392(%rbx) vmulpd %ymm9, %ymm4, %ymm8 vmovdqa .LCPI1_21(%rip), %xmm6 vpshufb %xmm6, %xmm2, %xmm2 vmovdqa .LCPI1_20(%rip), %xmm3 vpshufb %xmm3, %xmm1, %xmm1 vpor %xmm1, %xmm2, %xmm1 vmulpd %ymm12, %ymm0, %ymm2 vmovapd %ymm0, %ymm9 vxorpd %ymm4, %ymm4, %ymm4 vcmpnlepd %ymm4, %ymm2, %ymm7 vmovapd %ymm7, 32960(%rbx) vextractf128 $1, %ymm7, %xmm2 vpshufd $8, %xmm2, %xmm0 vmovdqa %xmm0, 32928(%rbx) vpshufd $8, %xmm7, %xmm2 vmovlhps %xmm0, %xmm2, %xmm2 vpshufb %xmm3, %xmm2, %xmm2 vmulpd %ymm11, %ymm8, %ymm3 vmovapd %ymm8, %ymm7 vcmpnlepd %ymm4, %ymm3, %ymm4 vmovapd %ymm4, 32864(%rbx) vextractf128 $1, %ymm4, %xmm3 vpshufd $8, %xmm3, %xmm0 vmovdqa %xmm0, 32896(%rbx) vpshufd $8, %xmm4, %xmm3 vmovlhps %xmm0, %xmm3, %xmm3 vpshufb %xmm6, %xmm3, %xmm3 vpor %xmm2, %xmm3, %xmm2 vpsllw $15, %xmm1, %xmm1 vpsraw $15, %xmm1, %xmm1 vpxor .LCPI1_17(%rip), %xmm2, %xmm4 vpunpckhbw %xmm0, %xmm1, %xmm2 vpslld $31, %xmm2, %xmm2 vpmovsxdq %xmm2, %xmm0 vmovdqa %ymm0, 23072(%rbx) vmovhlps %xmm2, %xmm2, %xmm2 vpmovsxdq %xmm2, %xmm0 vmovdqa %xmm0, 23040(%rbx) vpmovzxwd %xmm4, %xmm2 vpslld $31, %xmm2, %xmm2 vpsrad $31, %xmm2, %xmm2 vpunpckhwd %xmm0, %xmm4, %xmm3 vpslld $31, %xmm3, %xmm3 vpsrad $31, %xmm3, %xmm6 vpunpcklbw %xmm0, %xmm1, %xmm1 vpslld $31, %xmm1, %xmm4 vinsertf128 $1, %xmm6, %ymm2, %ymm1 vpmovsxdq %xmm4, %xmm0 vmovdqa %ymm0, 23008(%rbx) vmovhlps %xmm4, %xmm4, %xmm2 vpmovsxdq %xmm2, %xmm0 vmovdqa %xmm0, 22976(%rbx) vmovdqa 9696(%rbx), %ymm2 vptest %ymm2, %ymm1 vmovapd 9728(%rbx), %ymm1 vmovapd %ymm1, %ymm2 vmovapd %ymm1, %ymm4 jb .LBB1_3516 vsubpd %ymm14, %ymm5, %ymm1 vsubpd %ymm15, %ymm10, %ymm0 vmovapd .LCPI1_28(%rip), %ymm8 vmulpd %ymm8, %ymm0, %ymm2 vmovapd %ymm2, 22880(%rbx) vmulpd %ymm8, %ymm1, %ymm0 vmovapd %ymm0, 22944(%rbx) vmovapd .LCPI1_56(%rip), %ymm13 vandpd %ymm13, %ymm2, %ymm5 vmovapd %ymm9, %ymm12 vandpd %ymm13, %ymm12, %ymm11 vcmpltpd %ymm5, %ymm11, %ymm2 vextractf128 $1, %ymm2, %xmm3 vpshufd $8, %xmm3, %xmm4 vpshufd $8, %xmm2, %xmm2 vandpd %ymm13, %ymm0, %ymm15 vmovlhps %xmm4, %xmm2, %xmm6 vmovapd %ymm7, 22912(%rbx) vandpd %ymm13, %ymm7, %ymm4 vcmpltpd %ymm15, %ymm4, %ymm2 vextractf128 $1, %ymm2, %xmm3 vpshufd $8, %xmm3, %xmm7 vpshufd $8, %xmm2, %xmm2 vmovlhps %xmm7, %xmm2, %xmm10 vmovapd 23360(%rbx), %ymm9 vandpd %ymm13, %ymm9, %ymm14 vcmpltpd %ymm14, %ymm11, %ymm2 vextractf128 $1, %ymm2, %xmm3 vpshufd $8, %xmm3, %xmm7 vpshufd $8, %xmm2, %xmm2 vmovlhps %xmm7, %xmm2, %xmm2 vmovapd 23392(%rbx), %ymm11 vandpd %ymm13, %ymm11, %ymm7 vcmpltpd %ymm7, %ymm4, %ymm4 vextractf128 $1, %ymm4, %xmm3 vpshufd $8, %xmm3, %xmm3 vpshufd $8, %xmm4, %xmm4 vmovlhps %xmm3, %xmm4, %xmm3 vcmpltpd %ymm15, %ymm7, %ymm7 vmovdqa .LCPI1_21(%rip), %xmm1 vpshufb %xmm1, %xmm3, %xmm3 vmovdqa .LCPI1_20(%rip), %xmm0 vpshufb %xmm0, %xmm2, %xmm2 vpor %xmm2, %xmm3, %xmm4 vpshufb %xmm1, %xmm10, %xmm2 vpshufb %xmm0, %xmm6, %xmm3 vpor %xmm3, %xmm2, %xmm2 vextractf128 $1, %ymm7, %xmm3 vpshufd $8, %xmm3, %xmm3 vpshufd $8, %xmm7, %xmm6 vmovlhps %xmm3, %xmm6, %xmm10 vmovdqa 32864(%rbx), %ymm3 vpshufd $8, %xmm3, %xmm3 vmovaps 32896(%rbx), %xmm6 vmovlhps %xmm6, %xmm3, %xmm7 vcmpltpd %ymm5, %ymm14, %ymm5 vpsllw $15, %xmm2, %xmm2 vpsraw $15, %xmm2, %xmm2 vmovdqa .LCPI1_17(%rip), %xmm6 vpxor %xmm6, %xmm2, %xmm2 vpsllw $15, %xmm4, %xmm3 vpsraw $15, %xmm3, %xmm3 vpxor %xmm6, %xmm3, %xmm3 vpor %xmm2, %xmm3, %xmm4 vextractf128 $1, %ymm5, %xmm2 vpshufd $8, %xmm2, %xmm2 vpshufd $8, %xmm5, %xmm3 vmovlhps %xmm2, %xmm3, %xmm2 vpshufb %xmm1, %xmm10, %xmm6 vpshufb %xmm1, %xmm7, %xmm5 vmovdqa 32960(%rbx), %ymm1 vpshufd $8, %xmm1, %xmm3 vmovaps 32928(%rbx), %xmm1 vmovlhps %xmm1, %xmm3, %xmm3 vpshufb %xmm0, %xmm3, %xmm3 vpor %xmm3, %xmm5, %xmm3 vpsllw $15, %xmm3, %xmm3 vpsraw $15, %xmm3, %xmm3 vpand %xmm4, %xmm3, %xmm5 vpshufb %xmm0, %xmm2, %xmm2 vpunpckhbw %xmm0, %xmm5, %xmm3 vpor %xmm2, %xmm6, %xmm4 vpslld $31, %xmm3, %xmm2 vpsllw $15, %xmm4, %xmm3 vpsraw $15, %xmm3, %xmm6 vpmovsxdq %xmm2, %xmm4 vmovhlps %xmm2, %xmm2, %xmm2 vpmovsxdq %xmm2, %xmm2 vinsertf128 $1, %xmm2, %ymm4, %ymm4 vpunpckhbw %xmm0, %xmm6, %xmm2 vpslld $31, %xmm2, %xmm3 vpmovsxdq %xmm3, %xmm2 vmovhlps %xmm3, %xmm3, %xmm3 vpmovsxdq %xmm3, %xmm3 vinsertf128 $1, %xmm3, %ymm2, %ymm2 vpunpcklbw %xmm0, %xmm5, %xmm3 vpslld $31, %xmm3, %xmm3 vpmovsxdq %xmm3, %xmm5 vmovhlps %xmm3, %xmm3, %xmm3 vpmovsxdq %xmm3, %xmm7 vpunpcklbw %xmm0, %xmm6, %xmm6 vmovapd 22880(%rbx), %ymm0 vblendvpd %ymm2, %ymm9, %ymm0, %ymm0 vblendvpd %ymm4, %ymm0, %ymm12, %ymm0 vmulpd %ymm8, %ymm0, %ymm4 vinsertf128 $1, %xmm7, %ymm5, %ymm0 vpslld $31, %xmm6, %xmm3 vpmovsxdq %xmm3, %xmm2 vmovhlps %xmm3, %xmm3, %xmm3 vpmovsxdq %xmm3, %xmm3 vinsertf128 $1, %xmm3, %ymm2, %ymm2 vmovapd 22944(%rbx), %ymm1 vblendvpd %ymm2, %ymm11, %ymm1, %ymm1 vmovapd 22912(%rbx), %ymm2 vblendvpd %ymm0, %ymm1, %ymm2, %ymm0 vmulpd %ymm8, %ymm0, %ymm2 .LBB1_3516: vmovapd %ymm2, 23360(%rbx) vmovapd %ymm4, 23392(%rbx) vmovaps 24544(%rbx), %ymm0 vinsertf128 $1, 23328(%rbx), %ymm0, %ymm0 vmovaps %ymm0, 23328(%rbx) vmovaps 24512(%rbx), %ymm0 vinsertf128 $1, 23296(%rbx), %ymm0, %ymm0 vmovaps %ymm0, 24512(%rbx) vmovaps 24416(%rbx), %ymm0 vinsertf128 $1, 23264(%rbx), %ymm0, %ymm0 vmovaps %ymm0, 23296(%rbx) vmovaps 24384(%rbx), %ymm0 vinsertf128 $1, 23232(%rbx), %ymm0, %ymm0 vmovaps %ymm0, 24384(%rbx) vmovaps 23936(%rbx), %ymm0 vinsertf128 $1, 23200(%rbx), %ymm0, %ymm0 vmovaps %ymm0, 23936(%rbx) vmovaps 23904(%rbx), %ymm0 vinsertf128 $1, 23168(%rbx), %ymm0, %ymm0 vmovaps %ymm0, 23904(%rbx) vmovaps 23808(%rbx), %ymm0 vinsertf128 $1, 23136(%rbx), %ymm0, %ymm0 vmovaps %ymm0, 23808(%rbx) vmovaps 23424(%rbx), %ymm0 vinsertf128 $1, 23104(%rbx), %ymm0, %ymm0 vmovaps %ymm0, 23424(%rbx) vmovaps 23072(%rbx), %ymm0 vinsertf128 $1, 23040(%rbx), %ymm0, %ymm0 vmovaps %ymm0, 23264(%rbx) vmovaps 23008(%rbx), %ymm0 vinsertf128 $1, 22976(%rbx), %ymm0, %ymm0 vmovaps %ymm0, 23232(%rbx) movq 32512(%rbx), %rcx vmovupd 33056(%rbx,%rcx,8), %xmm3 movq 26432(%rbx), %rdx vmovupd 33056(%rbx,%rdx,8), %xmm2 vmovupd 33024(%rbx,%rcx,8), %xmm1 vmovupd 33024(%rbx,%rdx,8), %xmm0 movq 24128(%rbx), %rsi vmovupd 33024(%rbx,%rsi,8), %xmm5 vmovupd 33040(%rbx,%rdx,8), %xmm4 vmovupd 33040(%rbx,%rcx,8), %xmm6 vinsertf128 $1, 33072(%rbx,%rcx,8), %ymm3, %ymm10 vmovapd %ymm10, 24544(%rbx) vinsertf128 $1, 33072(%rbx,%rdx,8), %ymm2, %ymm11 vinsertf128 $1, %xmm6, %ymm1, %ymm7 vmovapd %ymm7, 26432(%rbx) vinsertf128 $1, %xmm4, %ymm0, %ymm12 vmovupd 33056(%rbx,%rsi,8), %xmm0 vinsertf128 $1, 33072(%rbx,%rsi,8), %ymm0, %ymm13 vinsertf128 $1, 33040(%rbx,%rsi,8), %ymm5, %ymm6 vmovdqa 32960(%rbx), %ymm0 vpshufd $8, %xmm0, %xmm1 vmovaps 32928(%rbx), %xmm0 vmovlhps %xmm0, %xmm1, %xmm1 vmovdqa 32864(%rbx), %ymm0 vpshufd $8, %xmm0, %xmm2 vmovaps 32896(%rbx), %xmm0 vmovlhps %xmm0, %xmm2, %xmm2 vsubpd %ymm12, %ymm7, %ymm3 vsubpd %ymm7, %ymm6, %ymm7 vsubpd %ymm11, %ymm10, %ymm8 vsubpd %ymm10, %ymm13, %ymm5 vmovapd .LCPI1_24(%rip), %ymm9 vmulpd %ymm9, %ymm5, %ymm0 vmovapd %ymm0, 24416(%rbx) vmulpd %ymm9, %ymm8, %ymm14 vmulpd %ymm9, %ymm7, %ymm15 vmulpd %ymm9, %ymm3, %ymm8 vmovdqa .LCPI1_21(%rip), %xmm5 vpshufb %xmm5, %xmm2, %xmm2 vmovdqa .LCPI1_20(%rip), %xmm4 vpshufb %xmm4, %xmm1, %xmm1 vpor %xmm1, %xmm2, %xmm7 vmulpd %ymm0, %ymm14, %ymm1 vxorpd %ymm3, %ymm3, %ymm3 vcmpnlepd %ymm3, %ymm1, %ymm2 vmovapd %ymm2, 32960(%rbx) vextractf128 $1, %ymm2, %xmm1 vpshufd $8, %xmm1, %xmm0 vmovdqa %xmm0, 32928(%rbx) vpshufd $8, %xmm2, %xmm1 vmovlhps %xmm0, %xmm1, %xmm1 vpshufb %xmm4, %xmm1, %xmm1 vmulpd %ymm15, %ymm8, %ymm2 vmovapd %ymm8, %ymm4 vcmpnlepd %ymm3, %ymm2, %ymm3 vmovapd %ymm3, 32864(%rbx) vextractf128 $1, %ymm3, %xmm2 vpshufd $8, %xmm2, %xmm0 vmovdqa %xmm0, 32896(%rbx) vpshufd $8, %xmm3, %xmm2 vmovlhps %xmm0, %xmm2, %xmm2 vpshufb %xmm5, %xmm2, %xmm2 vpor %xmm1, %xmm2, %xmm2 vpsllw $15, %xmm7, %xmm1 vpsraw $15, %xmm1, %xmm1 vpxor .LCPI1_17(%rip), %xmm2, %xmm2 vpunpckhbw %xmm0, %xmm1, %xmm3 vpslld $31, %xmm3, %xmm7 vpmovsxdq %xmm7, %xmm3 vmovhlps %xmm7, %xmm7, %xmm5 vpmovsxdq %xmm5, %xmm5 vinsertf128 $1, %xmm5, %ymm3, %ymm0 vmovaps %ymm0, 23200(%rbx) vpmovzxwd %xmm2, %xmm3 vpslld $31, %xmm3, %xmm3 vpsrad $31, %xmm3, %xmm3 vpunpckhwd %xmm0, %xmm2, %xmm2 vpslld $31, %xmm2, %xmm2 vpsrad $31, %xmm2, %xmm7 vpunpcklbw %xmm0, %xmm1, %xmm1 vpslld $31, %xmm1, %xmm2 vinsertf128 $1, %xmm7, %ymm3, %ymm1 vpmovsxdq %xmm2, %xmm3 vmovhlps %xmm2, %xmm2, %xmm2 vpmovsxdq %xmm2, %xmm2 vinsertf128 $1, %xmm2, %ymm3, %ymm0 vmovapd %ymm0, 23168(%rbx) vmovdqa 9632(%rbx), %ymm2 vptest %ymm2, %ymm1 vmovapd 9664(%rbx), %ymm1 vmovapd %ymm1, %ymm9 vmovapd %ymm1, %ymm10 jb .LBB1_3518 vsubpd %ymm12, %ymm6, %ymm1 vsubpd %ymm11, %ymm13, %ymm0 vmovapd .LCPI1_28(%rip), %ymm9 vmulpd %ymm9, %ymm0, %ymm2 vmovapd %ymm2, 23072(%rbx) vmulpd %ymm9, %ymm1, %ymm0 vmovapd %ymm0, 23136(%rbx) vmovapd .LCPI1_56(%rip), %ymm13 vandpd %ymm13, %ymm2, %ymm8 vmovapd %ymm14, 23040(%rbx) vandpd %ymm13, %ymm14, %ymm14 vcmpltpd %ymm8, %ymm14, %ymm1 vextractf128 $1, %ymm1, %xmm2 vpshufd $8, %xmm2, %xmm2 vpshufd $8, %xmm1, %xmm1 vandpd %ymm13, %ymm0, %ymm10 vmovlhps %xmm2, %xmm1, %xmm12 vmovapd %ymm4, 23104(%rbx) vandpd %ymm13, %ymm4, %ymm2 vcmpltpd %ymm10, %ymm2, %ymm1 vextractf128 $1, %ymm1, %xmm3 vpshufd $8, %xmm3, %xmm3 vpshufd $8, %xmm1, %xmm1 vmovlhps %xmm3, %xmm1, %xmm1 vmovapd 24416(%rbx), %ymm11 vandpd %ymm13, %ymm11, %ymm4 vcmpltpd %ymm4, %ymm14, %ymm3 vextractf128 $1, %ymm3, %xmm5 vpshufd $8, %xmm5, %xmm5 vpshufd $8, %xmm3, %xmm3 vmovlhps %xmm5, %xmm3, %xmm3 vandpd %ymm13, %ymm15, %ymm14 vcmpltpd %ymm14, %ymm2, %ymm2 vextractf128 $1, %ymm2, %xmm5 vpshufd $8, %xmm5, %xmm5 vpshufd $8, %xmm2, %xmm2 vmovlhps %xmm5, %xmm2, %xmm2 vcmpltpd %ymm10, %ymm14, %ymm10 vmovdqa .LCPI1_21(%rip), %xmm7 vpshufb %xmm7, %xmm2, %xmm2 vmovdqa .LCPI1_20(%rip), %xmm6 vpshufb %xmm6, %xmm3, %xmm3 vpor %xmm3, %xmm2, %xmm2 vpshufb %xmm7, %xmm1, %xmm1 vpshufb %xmm6, %xmm12, %xmm3 vpor %xmm3, %xmm1, %xmm3 vextractf128 $1, %ymm10, %xmm1 vpshufd $8, %xmm1, %xmm1 vpshufd $8, %xmm10, %xmm5 vmovlhps %xmm1, %xmm5, %xmm1 vmovdqa 32864(%rbx), %ymm0 vpshufd $8, %xmm0, %xmm5 vmovaps 32896(%rbx), %xmm0 vmovlhps %xmm0, %xmm5, %xmm5 vcmpltpd %ymm8, %ymm4, %ymm4 vpsllw $15, %xmm3, %xmm0 vpsraw $15, %xmm0, %xmm0 vmovdqa .LCPI1_17(%rip), %xmm3 vpxor %xmm3, %xmm0, %xmm0 vpsllw $15, %xmm2, %xmm2 vpsraw $15, %xmm2, %xmm2 vpxor %xmm3, %xmm2, %xmm2 vpor %xmm0, %xmm2, %xmm0 vextractf128 $1, %ymm4, %xmm2 vpshufd $8, %xmm2, %xmm2 vpshufd $8, %xmm4, %xmm3 vmovlhps %xmm2, %xmm3, %xmm2 vpshufb %xmm7, %xmm1, %xmm1 vpshufb %xmm7, %xmm5, %xmm3 vmovdqa 32960(%rbx), %ymm4 vpshufd $8, %xmm4, %xmm4 vmovaps 32928(%rbx), %xmm5 vmovlhps %xmm5, %xmm4, %xmm4 vpshufb %xmm6, %xmm4, %xmm4 vpor %xmm4, %xmm3, %xmm3 vpsllw $15, %xmm3, %xmm3 vpsraw $15, %xmm3, %xmm3 vpand %xmm0, %xmm3, %xmm0 vpshufb %xmm6, %xmm2, %xmm2 vpunpckhbw %xmm0, %xmm0, %xmm3 vpor %xmm2, %xmm1, %xmm1 vpslld $31, %xmm3, %xmm2 vpsllw $15, %xmm1, %xmm1 vpsraw $15, %xmm1, %xmm1 vpmovsxdq %xmm2, %xmm3 vmovhlps %xmm2, %xmm2, %xmm2 vpmovsxdq %xmm2, %xmm2 vinsertf128 $1, %xmm2, %ymm3, %ymm2 vpunpckhbw %xmm0, %xmm1, %xmm3 vpslld $31, %xmm3, %xmm4 vpmovsxdq %xmm4, %xmm3 vmovhlps %xmm4, %xmm4, %xmm4 vpmovsxdq %xmm4, %xmm4 vinsertf128 $1, %xmm4, %ymm3, %ymm3 vpunpcklbw %xmm0, %xmm0, %xmm0 vpslld $31, %xmm0, %xmm4 vpmovsxdq %xmm4, %xmm0 vmovhlps %xmm4, %xmm4, %xmm4 vpmovsxdq %xmm4, %xmm4 vpunpcklbw %xmm0, %xmm1, %xmm1 vmovapd 23072(%rbx), %ymm5 vblendvpd %ymm3, %ymm11, %ymm5, %ymm3 vmovapd 23040(%rbx), %ymm5 vblendvpd %ymm2, %ymm3, %ymm5, %ymm2 vmulpd %ymm9, %ymm2, %ymm10 vinsertf128 $1, %xmm4, %ymm0, %ymm0 vpslld $31, %xmm1, %xmm2 vpmovsxdq %xmm2, %xmm1 vmovhlps %xmm2, %xmm2, %xmm2 vpmovsxdq %xmm2, %xmm2 vinsertf128 $1, %xmm2, %ymm1, %ymm1 vmovapd 23136(%rbx), %ymm2 vblendvpd %ymm1, %ymm15, %ymm2, %ymm1 vmovapd 23104(%rbx), %ymm2 vblendvpd %ymm0, %ymm1, %ymm2, %ymm0 vmulpd %ymm9, %ymm0, %ymm9 .LBB1_3518: vxorpd %ymm15, %ymm15, %ymm15 vmovapd 23328(%rbx), %ymm0 vblendvpd %ymm0, 31808(%rbx), %ymm15, %ymm0 vmovapd %ymm0, 31808(%rbx) vmovapd 24512(%rbx), %ymm0 vblendvpd %ymm0, 31136(%rbx), %ymm15, %ymm0 vmovapd %ymm0, 24416(%rbx) vmovapd 23296(%rbx), %ymm0 vblendvpd %ymm0, 26624(%rbx), %ymm15, %ymm0 vmovapd %ymm0, 26624(%rbx) vmovapd 24384(%rbx), %ymm0 vblendvpd %ymm0, 26272(%rbx), %ymm15, %ymm0 vmovapd %ymm0, 24384(%rbx) vmovapd 23936(%rbx), %ymm0 vblendvpd %ymm0, 24480(%rbx), %ymm15, %ymm0 vmovapd %ymm0, 23936(%rbx) vmovapd 23904(%rbx), %ymm0 vblendvpd %ymm0, 24448(%rbx), %ymm15, %ymm0 vmovapd %ymm0, 23904(%rbx) vmovapd 23808(%rbx), %ymm0 vblendvpd %ymm0, 24352(%rbx), %ymm15, %ymm0 vmovapd %ymm0, 24352(%rbx) vmovapd 23424(%rbx), %ymm0 vblendvpd %ymm0, 24000(%rbx), %ymm15, %ymm0 vmovapd %ymm0, 24000(%rbx) vmovapd 23264(%rbx), %ymm0 vblendvpd %ymm0, 23872(%rbx), %ymm15, %ymm0 vmovapd %ymm0, 23872(%rbx) vmovapd 23232(%rbx), %ymm0 vblendvpd %ymm0, 23840(%rbx), %ymm15, %ymm0 vmovapd %ymm0, 23840(%rbx) vmovapd 23200(%rbx), %ymm0 vblendvpd %ymm0, 23392(%rbx), %ymm15, %ymm0 vmovapd %ymm0, 23808(%rbx) vmovapd 23168(%rbx), %ymm0 vblendvpd %ymm0, 23360(%rbx), %ymm15, %ymm0 vmovapd %ymm0, 23424(%rbx) movq 32640(%rbx), %rcx vmovupd 33056(%rbx,%rcx,8), %xmm3 movq 26336(%rbx), %rdx vmovupd 33056(%rbx,%rdx,8), %xmm2 vmovupd 33024(%rbx,%rcx,8), %xmm1 vmovupd 33024(%rbx,%rdx,8), %xmm0 movq 24096(%rbx), %rsi vmovupd 33024(%rbx,%rsi,8), %xmm5 vmovupd 33040(%rbx,%rdx,8), %xmm6 vmovupd 33040(%rbx,%rcx,8), %xmm7 vinsertf128 $1, 33072(%rbx,%rcx,8), %ymm3, %ymm12 vmovapd %ymm12, 24512(%rbx) vinsertf128 $1, 33072(%rbx,%rdx,8), %ymm2, %ymm4 vinsertf128 $1, %xmm7, %ymm1, %ymm3 vmovapd %ymm3, 31136(%rbx) vinsertf128 $1, %xmm6, %ymm0, %ymm14 vmovupd 33056(%rbx,%rsi,8), %xmm0 vinsertf128 $1, 33072(%rbx,%rsi,8), %ymm0, %ymm11 vinsertf128 $1, 33040(%rbx,%rsi,8), %ymm5, %ymm13 vmovdqa 32960(%rbx), %ymm0 vpshufd $8, %xmm0, %xmm0 vmovaps 32928(%rbx), %xmm1 vmovlhps %xmm1, %xmm0, %xmm0 vmovdqa 32864(%rbx), %ymm1 vpshufd $8, %xmm1, %xmm1 vmovaps 32896(%rbx), %xmm2 vmovlhps %xmm2, %xmm1, %xmm1 vsubpd %ymm14, %ymm3, %ymm2 vsubpd %ymm3, %ymm13, %ymm3 vsubpd %ymm4, %ymm12, %ymm5 vsubpd %ymm12, %ymm11, %ymm6 vmovapd .LCPI1_24(%rip), %ymm7 vmulpd %ymm7, %ymm6, %ymm6 vmovapd %ymm6, 26336(%rbx) vmulpd %ymm7, %ymm5, %ymm8 vmulpd %ymm7, %ymm3, %ymm12 vmulpd %ymm7, %ymm2, %ymm7 vmovdqa .LCPI1_21(%rip), %xmm5 vpshufb %xmm5, %xmm1, %xmm1 vmovdqa .LCPI1_20(%rip), %xmm2 vpshufb %xmm2, %xmm0, %xmm0 vpor %xmm0, %xmm1, %xmm3 vmulpd %ymm6, %ymm8, %ymm0 vcmpnlepd %ymm15, %ymm0, %ymm1 vmovapd %ymm1, 32960(%rbx) vextractf128 $1, %ymm1, %xmm0 vpshufd $8, %xmm0, %xmm6 vmovdqa %xmm6, 32928(%rbx) vpshufd $8, %xmm1, %xmm0 vmovlhps %xmm6, %xmm0, %xmm0 vpshufb %xmm2, %xmm0, %xmm0 vmulpd %ymm12, %ymm7, %ymm1 vcmpnlepd %ymm15, %ymm1, %ymm6 vmovapd %ymm6, 32864(%rbx) vextractf128 $1, %ymm6, %xmm1 vpshufd $8, %xmm1, %xmm2 vmovdqa %xmm2, 32896(%rbx) vpshufd $8, %xmm6, %xmm1 vmovlhps %xmm2, %xmm1, %xmm1 vpshufb %xmm5, %xmm1, %xmm1 vpor %xmm0, %xmm1, %xmm1 vpsllw $15, %xmm3, %xmm0 vpsraw $15, %xmm0, %xmm0 vpxor .LCPI1_17(%rip), %xmm1, %xmm1 vpunpckhbw %xmm0, %xmm0, %xmm3 vpslld $31, %xmm3, %xmm5 vpmovsxdq %xmm5, %xmm3 vmovhlps %xmm5, %xmm5, %xmm5 vpmovsxdq %xmm5, %xmm5 vinsertf128 $1, %xmm5, %ymm3, %ymm3 vpmovzxwd %xmm1, %xmm5 vpslld $31, %xmm5, %xmm5 vpsrad $31, %xmm5, %xmm5 vpunpckhwd %xmm0, %xmm1, %xmm1 vpslld $31, %xmm1, %xmm1 vpsrad $31, %xmm1, %xmm6 vpunpcklbw %xmm0, %xmm0, %xmm0 vpslld $31, %xmm0, %xmm1 vblendvpd %ymm3, %ymm10, %ymm15, %ymm0 vmovapd %ymm0, 23392(%rbx) vinsertf128 $1, %xmm6, %ymm5, %ymm0 vpmovsxdq %xmm1, %xmm3 vmovhlps %xmm1, %xmm1, %xmm1 vpmovsxdq %xmm1, %xmm1 vinsertf128 $1, %xmm1, %ymm3, %ymm1 vblendvpd %ymm1, %ymm9, %ymm15, %ymm1 vmovapd %ymm1, 23360(%rbx) vmovdqa 9568(%rbx), %ymm1 vptest %ymm1, %ymm0 vmovapd 9600(%rbx), %ymm0 vmovapd %ymm0, %ymm1 vmovapd %ymm0, %ymm2 movq 25568(%rbx), %r15 jb .LBB1_3520 vsubpd %ymm14, %ymm13, %ymm0 vsubpd %ymm4, %ymm11, %ymm1 vmovapd .LCPI1_28(%rip), %ymm13 vmulpd %ymm13, %ymm1, %ymm15 vmulpd %ymm13, %ymm0, %ymm2 vmovapd %ymm2, 26272(%rbx) vmovapd .LCPI1_56(%rip), %ymm14 vandpd %ymm14, %ymm15, %ymm4 vandpd %ymm14, %ymm8, %ymm11 vcmpltpd %ymm4, %ymm11, %ymm0 vextractf128 $1, %ymm0, %xmm1 vpshufd $8, %xmm1, %xmm1 vpshufd $8, %xmm0, %xmm0 vandpd %ymm14, %ymm2, %ymm10 vmovlhps %xmm1, %xmm0, %xmm3 vandpd %ymm14, %ymm7, %ymm1 vcmpltpd %ymm10, %ymm1, %ymm0 vextractf128 $1, %ymm0, %xmm5 vpshufd $8, %xmm5, %xmm5 vpshufd $8, %xmm0, %xmm0 vmovlhps %xmm5, %xmm0, %xmm0 vmovapd %ymm8, 24480(%rbx) vmovapd 26336(%rbx), %ymm9 vandpd %ymm14, %ymm9, %ymm8 vcmpltpd %ymm8, %ymm11, %ymm5 vextractf128 $1, %ymm5, %xmm6 vpshufd $8, %xmm6, %xmm6 vpshufd $8, %xmm5, %xmm5 vmovlhps %xmm6, %xmm5, %xmm5 vandpd %ymm14, %ymm12, %ymm11 vcmpltpd %ymm11, %ymm1, %ymm1 vextractf128 $1, %ymm1, %xmm6 vpshufd $8, %xmm6, %xmm6 vpshufd $8, %xmm1, %xmm1 vmovlhps %xmm6, %xmm1, %xmm1 vcmpltpd %ymm10, %ymm11, %ymm10 vmovdqa .LCPI1_21(%rip), %xmm6 vpshufb %xmm6, %xmm1, %xmm1 vmovdqa .LCPI1_20(%rip), %xmm2 vpshufb %xmm2, %xmm5, %xmm5 vpor %xmm5, %xmm1, %xmm1 vpshufb %xmm6, %xmm0, %xmm0 vpshufb %xmm2, %xmm3, %xmm3 vpor %xmm3, %xmm0, %xmm5 vextractf128 $1, %ymm10, %xmm0 vpshufd $8, %xmm0, %xmm0 vpshufd $8, %xmm10, %xmm3 vmovlhps %xmm0, %xmm3, %xmm0 vmovdqa 32864(%rbx), %ymm3 vpshufd $8, %xmm3, %xmm3 vmovapd %ymm7, %ymm10 vmovaps 32896(%rbx), %xmm7 vmovlhps %xmm7, %xmm3, %xmm3 vcmpltpd %ymm4, %ymm8, %ymm4 vpsllw $15, %xmm5, %xmm5 vpsraw $15, %xmm5, %xmm5 vmovdqa .LCPI1_17(%rip), %xmm7 vpxor %xmm7, %xmm5, %xmm5 vpsllw $15, %xmm1, %xmm1 vpsraw $15, %xmm1, %xmm1 vpxor %xmm7, %xmm1, %xmm1 vpor %xmm5, %xmm1, %xmm1 vextractf128 $1, %ymm4, %xmm5 vpshufd $8, %xmm5, %xmm5 vpshufd $8, %xmm4, %xmm4 vmovlhps %xmm5, %xmm4, %xmm5 vpshufb %xmm6, %xmm0, %xmm4 vpshufb %xmm6, %xmm3, %xmm0 vmovdqa 32960(%rbx), %ymm3 vpshufd $8, %xmm3, %xmm3 vmovaps 32928(%rbx), %xmm6 vmovlhps %xmm6, %xmm3, %xmm3 vpshufb %xmm2, %xmm3, %xmm3 vpor %xmm3, %xmm0, %xmm0 vpsllw $15, %xmm0, %xmm0 vpsraw $15, %xmm0, %xmm0 vpand %xmm1, %xmm0, %xmm0 vpshufb %xmm2, %xmm5, %xmm1 vpunpckhbw %xmm0, %xmm0, %xmm3 vpor %xmm1, %xmm4, %xmm4 vpslld $31, %xmm3, %xmm1 vpsllw $15, %xmm4, %xmm3 vpsraw $15, %xmm3, %xmm3 vpmovsxdq %xmm1, %xmm4 vmovhlps %xmm1, %xmm1, %xmm1 vpmovsxdq %xmm1, %xmm1 vinsertf128 $1, %xmm1, %ymm4, %ymm1 vpunpckhbw %xmm0, %xmm3, %xmm4 vpslld $31, %xmm4, %xmm5 vpmovsxdq %xmm5, %xmm4 vmovhlps %xmm5, %xmm5, %xmm5 vpmovsxdq %xmm5, %xmm5 vinsertf128 $1, %xmm5, %ymm4, %ymm4 vpunpcklbw %xmm0, %xmm0, %xmm0 vpslld $31, %xmm0, %xmm5 vpmovsxdq %xmm5, %xmm0 vmovhlps %xmm5, %xmm5, %xmm5 vpmovsxdq %xmm5, %xmm5 vpunpcklbw %xmm0, %xmm3, %xmm3 vblendvpd %ymm4, %ymm9, %ymm15, %ymm4 vmovapd 24480(%rbx), %ymm2 vblendvpd %ymm1, %ymm4, %ymm2, %ymm1 vmulpd %ymm13, %ymm1, %ymm2 vinsertf128 $1, %xmm5, %ymm0, %ymm0 vpslld $31, %xmm3, %xmm3 vpmovsxdq %xmm3, %xmm1 vmovhlps %xmm3, %xmm3, %xmm3 vpmovsxdq %xmm3, %xmm3 vinsertf128 $1, %xmm3, %ymm1, %ymm1 vmovapd 26272(%rbx), %ymm3 vblendvpd %ymm1, %ymm12, %ymm3, %ymm1 vblendvpd %ymm0, %ymm1, %ymm10, %ymm0 vmulpd %ymm13, %ymm0, %ymm1 .LBB1_3520: vmovapd %ymm1, 23328(%rbx) vmovapd 26848(%rbx), %ymm0 vaddpd 31808(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 26272(%rbx) vmovapd 31104(%rbx), %ymm0 vaddpd 24416(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 26336(%rbx) vmovapd 31872(%rbx), %ymm0 vaddpd 26624(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 24448(%rbx) vmovapd 31840(%rbx), %ymm0 vaddpd 24384(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 24480(%rbx) vmovapd 32288(%rbx), %ymm0 vaddpd 23936(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 32288(%rbx) vmovapd 32256(%rbx), %ymm0 vaddpd 23904(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 26848(%rbx) vmovapd 26592(%rbx), %ymm0 vaddpd 24352(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 31872(%rbx) vmovapd 26560(%rbx), %ymm0 vaddpd 24000(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 26624(%rbx) vmovapd 26528(%rbx), %ymm0 vaddpd 23872(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 31104(%rbx) vmovapd 26496(%rbx), %ymm0 vaddpd 23840(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 26496(%rbx) vmovapd 23968(%rbx), %ymm0 vaddpd 23808(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 26592(%rbx) vmovapd 26464(%rbx), %ymm0 vaddpd 23424(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 32256(%rbx) vmovapd 24544(%rbx), %ymm0 vaddpd 23392(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 31808(%rbx) vmovapd 26432(%rbx), %ymm0 vaddpd 23360(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 31840(%rbx) movq 32736(%rbx), %rcx vmovupd 33056(%rbx,%rcx,8), %xmm4 movq 26304(%rbx), %rdx vmovupd 33056(%rbx,%rdx,8), %xmm0 vmovupd 33024(%rbx,%rcx,8), %xmm3 vmovupd 33024(%rbx,%rdx,8), %xmm1 movq 24064(%rbx), %rsi vmovupd 33024(%rbx,%rsi,8), %xmm5 vmovupd 33040(%rbx,%rdx,8), %xmm6 vmovupd 33040(%rbx,%rcx,8), %xmm7 vinsertf128 $1, 33072(%rbx,%rcx,8), %ymm4, %ymm11 vmovapd %ymm11, 26560(%rbx) vinsertf128 $1, 33072(%rbx,%rdx,8), %ymm0, %ymm0 vinsertf128 $1, %xmm7, %ymm3, %ymm4 vmovapd %ymm4, 26528(%rbx) vinsertf128 $1, %xmm6, %ymm1, %ymm15 vmovupd 33056(%rbx,%rsi,8), %xmm1 vinsertf128 $1, 33072(%rbx,%rsi,8), %ymm1, %ymm10 vinsertf128 $1, 33040(%rbx,%rsi,8), %ymm5, %ymm1 vmovapd %ymm2, %ymm13 vmovdqa 32960(%rbx), %ymm2 vpshufd $8, %xmm2, %xmm3 vmovaps 32928(%rbx), %xmm2 vmovlhps %xmm2, %xmm3, %xmm3 vmovdqa 32864(%rbx), %ymm2 vpshufd $8, %xmm2, %xmm2 vmovaps 32896(%rbx), %xmm5 vmovlhps %xmm5, %xmm2, %xmm2 vsubpd %ymm15, %ymm4, %ymm5 vsubpd %ymm4, %ymm1, %ymm6 vsubpd %ymm0, %ymm11, %ymm4 vsubpd %ymm11, %ymm10, %ymm7 vmovapd .LCPI1_24(%rip), %ymm11 vmulpd %ymm11, %ymm7, %ymm9 vmovapd %ymm9, 26304(%rbx) vmulpd %ymm11, %ymm4, %ymm8 vmulpd %ymm11, %ymm6, %ymm12 vmovapd %ymm12, 26432(%rbx) vmulpd %ymm11, %ymm5, %ymm14 vmovdqa .LCPI1_21(%rip), %xmm5 vpshufb %xmm5, %xmm2, %xmm2 vmovdqa .LCPI1_20(%rip), %xmm6 vpshufb %xmm6, %xmm3, %xmm3 vpor %xmm3, %xmm2, %xmm7 vmulpd %ymm9, %ymm8, %ymm2 vxorpd %ymm11, %ymm11, %ymm11 vcmpnlepd %ymm11, %ymm2, %ymm3 vmovapd %ymm3, 32960(%rbx) vextractf128 $1, %ymm3, %xmm2 vpshufd $8, %xmm2, %xmm4 vmovdqa %xmm4, 32928(%rbx) vpshufd $8, %xmm3, %xmm2 vmovlhps %xmm4, %xmm2, %xmm2 vpshufb %xmm6, %xmm2, %xmm2 vmulpd %ymm12, %ymm14, %ymm3 vmovapd %ymm14, %ymm9 vcmpnlepd %ymm11, %ymm3, %ymm4 vmovapd %ymm4, 32896(%rbx) vextractf128 $1, %ymm4, %xmm3 vpshufd $8, %xmm3, %xmm6 vmovdqa %xmm6, 32864(%rbx) vpshufd $8, %xmm4, %xmm3 vmovlhps %xmm6, %xmm3, %xmm3 vpshufb %xmm5, %xmm3, %xmm3 vmovdqa %xmm5, %xmm12 vpor %xmm2, %xmm3, %xmm2 vpsllw $15, %xmm7, %xmm3 vpsraw $15, %xmm3, %xmm3 vpxor .LCPI1_17(%rip), %xmm2, %xmm2 vpunpckhbw %xmm0, %xmm3, %xmm5 vpslld $31, %xmm5, %xmm7 vpmovsxdq %xmm7, %xmm5 vmovhlps %xmm7, %xmm7, %xmm6 vpmovsxdq %xmm6, %xmm6 vinsertf128 $1, %xmm6, %ymm5, %ymm7 vpmovzxwd %xmm2, %xmm5 vpslld $31, %xmm5, %xmm5 vpsrad $31, %xmm5, %xmm5 vpunpckhwd %xmm0, %xmm2, %xmm2 vpslld $31, %xmm2, %xmm2 vpsrad $31, %xmm2, %xmm2 vpunpcklbw %xmm0, %xmm3, %xmm3 vpslld $31, %xmm3, %xmm3 vblendvpd %ymm7, %ymm13, %ymm11, %ymm6 vinsertf128 $1, %xmm2, %ymm5, %ymm2 vmovapd 24512(%rbx), %ymm4 vaddpd %ymm6, %ymm4, %ymm4 vmovapd %ymm4, 26464(%rbx) vpmovsxdq %xmm3, %xmm5 vmovhlps %xmm3, %xmm3, %xmm3 vpmovsxdq %xmm3, %xmm3 vinsertf128 $1, %xmm3, %ymm5, %ymm3 vblendvpd %ymm3, 23328(%rbx), %ymm11, %ymm3 vmovapd 31136(%rbx), %ymm4 vaddpd %ymm3, %ymm4, %ymm3 vmovapd %ymm3, 31136(%rbx) vmovdqa 9504(%rbx), %ymm3 vptest %ymm3, %ymm2 vmovapd 9536(%rbx), %ymm2 vmovapd %ymm2, %ymm4 vmovapd %ymm2, %ymm3 movq 25136(%rbx), %rcx movq 25120(%rbx), %r8 movq 25600(%rbx), %rdx jb .LBB1_3522 vsubpd %ymm15, %ymm1, %ymm1 vsubpd %ymm0, %ymm10, %ymm0 vmovapd .LCPI1_28(%rip), %ymm4 vmovapd %ymm4, %ymm13 vmulpd %ymm13, %ymm0, %ymm0 vmovapd %ymm0, 24512(%rbx) vmulpd %ymm13, %ymm1, %ymm3 vmovapd %ymm3, 24544(%rbx) vmovapd .LCPI1_56(%rip), %ymm15 vandpd %ymm15, %ymm0, %ymm0 vmovapd %ymm8, %ymm14 vandpd %ymm15, %ymm14, %ymm11 vcmpltpd %ymm0, %ymm11, %ymm1 vextractf128 $1, %ymm1, %xmm2 vpshufd $8, %xmm2, %xmm2 vpshufd $8, %xmm1, %xmm1 vandpd %ymm15, %ymm3, %ymm10 vmovlhps %xmm2, %xmm1, %xmm7 vmovapd %ymm9, 24416(%rbx) vandpd %ymm15, %ymm9, %ymm2 vcmpltpd %ymm10, %ymm2, %ymm1 vextractf128 $1, %ymm1, %xmm3 vpshufd $8, %xmm3, %xmm3 vpshufd $8, %xmm1, %xmm1 vmovlhps %xmm3, %xmm1, %xmm3 vmovapd 26304(%rbx), %ymm9 vandpd %ymm15, %ymm9, %ymm1 vcmpltpd %ymm1, %ymm11, %ymm5 vextractf128 $1, %ymm5, %xmm6 vpshufd $8, %xmm6, %xmm6 vpshufd $8, %xmm5, %xmm5 vmovlhps %xmm6, %xmm5, %xmm5 vmovapd 26432(%rbx), %ymm8 vandpd %ymm15, %ymm8, %ymm11 vcmpltpd %ymm11, %ymm2, %ymm2 vextractf128 $1, %ymm2, %xmm6 vpshufd $8, %xmm6, %xmm6 vpshufd $8, %xmm2, %xmm2 vmovlhps %xmm6, %xmm2, %xmm2 vcmpltpd %ymm10, %ymm11, %ymm10 vpshufb %xmm12, %xmm2, %xmm2 vmovdqa .LCPI1_20(%rip), %xmm4 vpshufb %xmm4, %xmm5, %xmm5 vpor %xmm5, %xmm2, %xmm2 vpshufb %xmm12, %xmm3, %xmm3 vpshufb %xmm4, %xmm7, %xmm5 vpor %xmm5, %xmm3, %xmm5 vextractf128 $1, %ymm10, %xmm3 vpshufd $8, %xmm3, %xmm3 vpshufd $8, %xmm10, %xmm6 vmovlhps %xmm3, %xmm6, %xmm3 vmovdqa 32896(%rbx), %ymm6 vpshufd $8, %xmm6, %xmm6 vmovaps 32864(%rbx), %xmm7 vmovlhps %xmm7, %xmm6, %xmm7 vcmpltpd %ymm0, %ymm1, %ymm1 vpsllw $15, %xmm5, %xmm0 vpsraw $15, %xmm0, %xmm0 vmovdqa .LCPI1_17(%rip), %xmm5 vpxor %xmm5, %xmm0, %xmm0 vpsllw $15, %xmm2, %xmm2 vpsraw $15, %xmm2, %xmm2 vpxor %xmm5, %xmm2, %xmm2 vpor %xmm0, %xmm2, %xmm0 vextractf128 $1, %ymm1, %xmm2 vpshufd $8, %xmm2, %xmm2 vpshufd $8, %xmm1, %xmm1 vmovlhps %xmm2, %xmm1, %xmm2 vpshufb %xmm12, %xmm3, %xmm1 vpshufb %xmm12, %xmm7, %xmm3 vmovdqa 32960(%rbx), %ymm5 vpshufd $8, %xmm5, %xmm5 vmovaps 32928(%rbx), %xmm6 vmovlhps %xmm6, %xmm5, %xmm5 vpshufb %xmm4, %xmm5, %xmm5 vpor %xmm5, %xmm3, %xmm3 vpsllw $15, %xmm3, %xmm3 vpsraw $15, %xmm3, %xmm3 vpand %xmm0, %xmm3, %xmm0 vpshufb %xmm4, %xmm2, %xmm2 vpunpckhbw %xmm0, %xmm0, %xmm3 vpor %xmm2, %xmm1, %xmm1 vpslld $31, %xmm3, %xmm2 vpsllw $15, %xmm1, %xmm1 vpsraw $15, %xmm1, %xmm1 vpmovsxdq %xmm2, %xmm3 vmovhlps %xmm2, %xmm2, %xmm2 vpmovsxdq %xmm2, %xmm2 vinsertf128 $1, %xmm2, %ymm3, %ymm2 vpunpckhbw %xmm0, %xmm1, %xmm3 vpslld $31, %xmm3, %xmm5 vpmovsxdq %xmm5, %xmm3 vmovhlps %xmm5, %xmm5, %xmm5 vpmovsxdq %xmm5, %xmm5 vinsertf128 $1, %xmm5, %ymm3, %ymm3 vpunpcklbw %xmm0, %xmm0, %xmm0 vpslld $31, %xmm0, %xmm5 vpmovsxdq %xmm5, %xmm0 vmovhlps %xmm5, %xmm5, %xmm5 vpmovsxdq %xmm5, %xmm5 vpunpcklbw %xmm0, %xmm1, %xmm1 vmovapd 24512(%rbx), %ymm4 vblendvpd %ymm3, %ymm9, %ymm4, %ymm3 vblendvpd %ymm2, %ymm3, %ymm14, %ymm2 vmulpd %ymm13, %ymm2, %ymm3 vinsertf128 $1, %xmm5, %ymm0, %ymm0 vpslld $31, %xmm1, %xmm2 vpmovsxdq %xmm2, %xmm1 vmovhlps %xmm2, %xmm2, %xmm2 vpmovsxdq %xmm2, %xmm2 vinsertf128 $1, %xmm2, %ymm1, %ymm1 vmovapd 24544(%rbx), %ymm2 vblendvpd %ymm1, %ymm8, %ymm2, %ymm1 vmovapd 24416(%rbx), %ymm2 vblendvpd %ymm0, %ymm1, %ymm2, %ymm0 vmulpd %ymm13, %ymm0, %ymm4 .LBB1_3522: vmovapd %ymm4, 26304(%rbx) vmovapd %ymm3, 26432(%rbx) vmovapd .LCPI1_19(%rip), %ymm5 vmovapd 26336(%rbx), %ymm6 vcmpltpd %ymm5, %ymm6, %ymm0 vextractf128 $1, %ymm0, %xmm1 vpshufd $8, %xmm1, %xmm1 vpshufd $8, %xmm0, %xmm0 vmovlhps %xmm1, %xmm0, %xmm0 vmovapd 26272(%rbx), %ymm7 vcmpltpd %ymm5, %ymm7, %ymm1 vextractf128 $1, %ymm1, %xmm2 vpshufb %xmm12, %xmm0, %xmm0 vpshufd $8, %xmm2, %xmm2 vpshufd $8, %xmm1, %xmm1 vmovlhps %xmm2, %xmm1, %xmm1 vmovdqa .LCPI1_20(%rip), %xmm13 vpshufb %xmm13, %xmm1, %xmm2 vmovapd 24448(%rbx), %ymm9 vcmpltpd %ymm5, %ymm9, %ymm1 vpor %xmm2, %xmm0, %xmm0 vextractf128 $1, %ymm1, %xmm2 vpshufd $8, %xmm2, %xmm2 vpshufd $8, %xmm1, %xmm1 vmovlhps %xmm2, %xmm1, %xmm2 vmovapd 24480(%rbx), %ymm8 vcmpltpd %ymm5, %ymm8, %ymm1 vextractf128 $1, %ymm1, %xmm3 vpshufd $8, %xmm3, %xmm3 vpshufd $8, %xmm1, %xmm1 vmovlhps %xmm3, %xmm1, %xmm3 vpsllw $15, %xmm0, %xmm0 vpsraw $15, %xmm0, %xmm1 vpshufb %xmm12, %xmm3, %xmm0 vpshufb %xmm13, %xmm2, %xmm2 vpor %xmm2, %xmm0, %xmm2 vpunpcklbw %xmm0, %xmm1, %xmm0 vpslld $31, %xmm0, %xmm3 vpmovsxdq %xmm3, %xmm0 vmovhlps %xmm3, %xmm3, %xmm3 vpmovsxdq %xmm3, %xmm3 vinsertf128 $1, %xmm3, %ymm0, %ymm0 vpsllw $15, %xmm2, %xmm2 vpsraw $15, %xmm2, %xmm2 vpunpcklbw %xmm0, %xmm2, %xmm3 vpslld $31, %xmm3, %xmm4 vpmovsxdq %xmm4, %xmm3 vmovhlps %xmm4, %xmm4, %xmm4 vpmovsxdq %xmm4, %xmm4 vinsertf128 $1, %xmm4, %ymm3, %ymm3 vpunpckhbw %xmm0, %xmm1, %xmm1 vpslld $31, %xmm1, %xmm4 vpmovsxdq %xmm4, %xmm1 vmovhlps %xmm4, %xmm4, %xmm4 vpmovsxdq %xmm4, %xmm4 vinsertf128 $1, %xmm4, %ymm1, %ymm1 vpunpckhbw %xmm0, %xmm2, %xmm2 vpslld $31, %xmm2, %xmm4 vpmovsxdq %xmm4, %xmm2 vmovhlps %xmm4, %xmm4, %xmm4 vpmovsxdq %xmm4, %xmm4 vinsertf128 $1, %xmm4, %ymm2, %ymm2 vblendvpd %ymm2, %ymm5, %ymm9, %ymm2 vmovapd %ymm2, 24000(%rbx) vblendvpd %ymm1, %ymm5, %ymm7, %ymm1 vmovapd %ymm1, 24512(%rbx) vblendvpd %ymm3, %ymm5, %ymm8, %ymm1 vmovapd %ymm1, 26272(%rbx) vblendvpd %ymm0, %ymm5, %ymm6, %ymm0 vmovapd %ymm0, 24480(%rbx) vxorpd %ymm9, %ymm9, %ymm9 vmovapd 32288(%rbx), %ymm10 vmulpd %ymm9, %ymm10, %ymm0 vmovapd 31104(%rbx), %ymm8 vmulpd %ymm0, %ymm8, %ymm1 vmovapd 31872(%rbx), %ymm14 vmulpd %ymm0, %ymm14, %ymm0 vaddpd %ymm1, %ymm0, %ymm0 vmovapd 26848(%rbx), %ymm11 vmulpd %ymm9, %ymm11, %ymm1 vmovapd 26496(%rbx), %ymm15 vmulpd %ymm1, %ymm15, %ymm2 vmovapd 26624(%rbx), %ymm7 vmulpd %ymm1, %ymm7, %ymm1 vaddpd %ymm2, %ymm1, %ymm1 vmulpd %ymm9, %ymm7, %ymm2 vmulpd %ymm2, %ymm15, %ymm2 vaddpd %ymm2, %ymm1, %ymm1 vmulpd %ymm9, %ymm14, %ymm2 vmulpd %ymm2, %ymm8, %ymm2 vaddpd %ymm2, %ymm0, %ymm0 vmovdqa 32960(%rbx), %ymm2 vpshufd $8, %xmm2, %xmm2 vmovaps 32928(%rbx), %xmm3 vmovlhps %xmm3, %xmm2, %xmm2 vmovdqa 32896(%rbx), %ymm3 vpshufd $8, %xmm3, %xmm3 vmovaps 32864(%rbx), %xmm4 vmovlhps %xmm4, %xmm3, %xmm3 vmulpd %ymm11, %ymm11, %ymm4 vmovapd .LCPI1_23(%rip), %ymm6 vaddpd %ymm6, %ymm4, %ymm5 vmulpd %ymm10, %ymm10, %ymm4 vaddpd %ymm6, %ymm4, %ymm4 vmulpd %ymm14, %ymm14, %ymm6 vaddpd %ymm6, %ymm4, %ymm4 vmulpd %ymm7, %ymm7, %ymm6 vaddpd %ymm6, %ymm5, %ymm5 vmulpd %ymm15, %ymm15, %ymm6 vaddpd %ymm6, %ymm5, %ymm5 vmovapd .LCPI1_24(%rip), %ymm6 vmulpd %ymm6, %ymm1, %ymm1 vaddpd %ymm1, %ymm5, %ymm5 vmulpd %ymm8, %ymm8, %ymm1 vaddpd %ymm1, %ymm4, %ymm4 vpshufb %xmm12, %xmm3, %xmm1 vpshufb %xmm13, %xmm2, %xmm2 vpor %xmm2, %xmm1, %xmm1 vmulpd %ymm6, %ymm0, %ymm0 vaddpd %ymm0, %ymm4, %ymm0 vsqrtpd %ymm5, %ymm2 vmovapd .LCPI1_25(%rip), %ymm6 vmulpd %ymm6, %ymm2, %ymm3 vmovapd 12096(%rbx), %ymm5 vmulpd %ymm5, %ymm3, %ymm3 vsubpd %ymm3, %ymm15, %ymm4 vmovapd %ymm4, 24448(%rbx) vsubpd %ymm3, %ymm7, %ymm4 vmovapd %ymm4, 23424(%rbx) vmovapd %ymm4, %ymm7 vsubpd %ymm3, %ymm11, %ymm3 vmovapd %ymm3, 26624(%rbx) vmovapd %ymm3, %ymm11 vdivpd %ymm5, %ymm2, %ymm15 vmovapd %ymm15, 24544(%rbx) vpsllw $15, %xmm1, %xmm1 vpsraw $15, %xmm1, %xmm2 vpunpckhbw %xmm0, %xmm2, %xmm1 vpslld $31, %xmm1, %xmm3 vpmovsxdq %xmm3, %xmm1 vmovhlps %xmm3, %xmm3, %xmm3 vpmovsxdq %xmm3, %xmm3 vinsertf128 $1, %xmm3, %ymm1, %ymm1 vmovaps %ymm1, 32896(%rbx) vpunpcklbw %xmm0, %xmm2, %xmm2 vpslld $31, %xmm2, %xmm3 vpmovsxdq %xmm3, %xmm2 vmovhlps %xmm3, %xmm3, %xmm3 vpmovsxdq %xmm3, %xmm3 vinsertf128 $1, %xmm3, %ymm2, %ymm1 vmovaps %ymm1, 32864(%rbx) vsqrtpd %ymm0, %ymm0 vmulpd %ymm6, %ymm0, %ymm2 vmulpd %ymm5, %ymm2, %ymm2 vsubpd %ymm2, %ymm8, %ymm3 vmovapd %ymm3, 22240(%rbx) vmovapd %ymm3, %ymm13 vsubpd %ymm2, %ymm14, %ymm3 vmovapd %ymm3, 23392(%rbx) vmovapd %ymm3, %ymm14 vsubpd %ymm2, %ymm10, %ymm2 vmovapd %ymm2, 32288(%rbx) vmovapd %ymm2, %ymm12 vdivpd %ymm5, %ymm0, %ymm0 vmovapd %ymm0, 32960(%rbx) vmovapd %ymm0, %ymm1 vmulpd %ymm9, %ymm15, %ymm3 vmulpd %ymm9, %ymm11, %ymm2 vaddpd %ymm2, %ymm3, %ymm5 vaddpd %ymm7, %ymm5, %ymm6 vmovapd 24448(%rbx), %ymm8 vmulpd %ymm9, %ymm8, %ymm0 vaddpd %ymm0, %ymm6, %ymm4 vmovapd %ymm4, 31104(%rbx) vaddpd %ymm11, %ymm3, %ymm6 vmulpd %ymm9, %ymm7, %ymm3 vaddpd %ymm3, %ymm6, %ymm6 vaddpd %ymm0, %ymm6, %ymm6 vmovapd %ymm6, 32928(%rbx) vmovapd 32256(%rbx), %ymm10 vmulpd %ymm6, %ymm10, %ymm6 vmovapd 31840(%rbx), %ymm7 vmulpd %ymm4, %ymm7, %ymm7 vaddpd %ymm7, %ymm6, %ymm6 vaddpd %ymm3, %ymm5, %ymm5 vaddpd %ymm8, %ymm5, %ymm5 vmovapd %ymm5, 26848(%rbx) vmovapd 31136(%rbx), %ymm4 vmulpd %ymm5, %ymm4, %ymm5 vaddpd %ymm5, %ymm6, %ymm4 vmovapd %ymm4, 23200(%rbx) vxorpd %ymm5, %ymm5, %ymm5 vmovapd 32864(%rbx), %ymm6 vblendvpd %ymm6, 26304(%rbx), %ymm5, %ymm6 vmovapd %ymm6, 26496(%rbx) vmovapd 32896(%rbx), %ymm6 vblendvpd %ymm6, 26432(%rbx), %ymm5, %ymm6 vmovapd %ymm6, 26432(%rbx) vmulpd %ymm5, %ymm1, %ymm6 vmulpd %ymm5, %ymm12, %ymm5 vxorpd %ymm9, %ymm9, %ymm9 vmovapd %ymm5, 26336(%rbx) vaddpd %ymm5, %ymm6, %ymm5 vaddpd %ymm14, %ymm5, %ymm7 vmulpd %ymm9, %ymm13, %ymm8 vmovapd %ymm8, 26304(%rbx) vaddpd %ymm8, %ymm7, %ymm1 vmovapd %ymm1, 32896(%rbx) vaddpd %ymm12, %ymm6, %ymm6 vmulpd %ymm9, %ymm14, %ymm7 vmovapd %ymm7, 23968(%rbx) vaddpd %ymm7, %ymm6, %ymm6 vmovapd %ymm7, %ymm9 vaddpd %ymm8, %ymm6, %ymm6 vmovapd %ymm6, 32864(%rbx) vmovapd 26592(%rbx), %ymm14 vmulpd %ymm6, %ymm14, %ymm6 vmovapd 31808(%rbx), %ymm7 vmulpd %ymm1, %ymm7, %ymm7 vaddpd %ymm7, %ymm6, %ymm6 vmovapd .LCPI1_22(%rip), %ymm8 vmulpd %ymm8, %ymm15, %ymm7 vaddpd %ymm2, %ymm7, %ymm7 vaddpd %ymm2, %ymm15, %ymm2 vaddpd %ymm3, %ymm2, %ymm2 vaddpd %ymm3, %ymm7, %ymm3 vaddpd %ymm9, %ymm5, %ymm5 vaddpd %ymm13, %ymm5, %ymm5 vmovapd %ymm5, 31872(%rbx) vmovapd 26464(%rbx), %ymm7 vmulpd %ymm5, %ymm7, %ymm5 vaddpd %ymm5, %ymm6, %ymm5 vmovapd %ymm5, 23168(%rbx) vmovapd 26560(%rbx), %ymm1 vaddpd 26432(%rbx), %ymm1, %ymm1 vmovapd %ymm1, 24384(%rbx) vmovapd 26528(%rbx), %ymm1 vaddpd 26496(%rbx), %ymm1, %ymm1 vmovapd %ymm1, 24352(%rbx) vaddpd %ymm0, %ymm3, %ymm1 vmovapd %ymm1, 26560(%rbx) vaddpd %ymm0, %ymm2, %ymm0 vmovapd %ymm0, 22944(%rbx) vmulpd %ymm11, %ymm4, %ymm0 vmovapd %ymm0, 16736(%rbx) vaddpd %ymm0, %ymm10, %ymm0 vdivpd %ymm15, %ymm0, %ymm3 vmovapd %ymm3, 32256(%rbx) vmulpd %ymm8, %ymm4, %ymm0 vxorpd %ymm6, %ymm6, %ymm6 vmulpd %ymm6, %ymm3, %ymm1 vaddpd %ymm1, %ymm0, %ymm0 vmulpd %ymm6, %ymm4, %ymm2 vaddpd %ymm1, %ymm2, %ymm1 vmovapd %ymm1, 26432(%rbx) vaddpd %ymm3, %ymm2, %ymm1 vmulpd 23424(%rbx), %ymm4, %ymm2 vmovapd %ymm2, 16704(%rbx) vmovapd 31840(%rbx), %ymm3 vaddpd %ymm2, %ymm3, %ymm2 vdivpd %ymm15, %ymm2, %ymm2 vmovapd %ymm2, 23360(%rbx) vmulpd %ymm6, %ymm2, %ymm9 vaddpd %ymm9, %ymm1, %ymm1 vaddpd %ymm9, %ymm0, %ymm0 vmulpd 24448(%rbx), %ymm4, %ymm2 vmovapd %ymm2, 16672(%rbx) vmovapd 31136(%rbx), %ymm3 vaddpd %ymm2, %ymm3, %ymm2 vdivpd %ymm15, %ymm2, %ymm3 vmovapd %ymm3, 23328(%rbx) vmulpd %ymm6, %ymm3, %ymm2 vmovapd %ymm3, %ymm11 vaddpd %ymm2, %ymm0, %ymm0 vmovapd %ymm0, 31840(%rbx) vaddpd %ymm2, %ymm1, %ymm0 vmovapd %ymm0, 26496(%rbx) vmovapd %ymm5, %ymm4 vmulpd %ymm12, %ymm4, %ymm0 vmovapd %ymm0, 16640(%rbx) vaddpd %ymm0, %ymm14, %ymm0 vmovapd 32960(%rbx), %ymm10 vdivpd %ymm10, %ymm0, %ymm3 vmovapd %ymm3, 26592(%rbx) vmulpd %ymm8, %ymm4, %ymm0 vmulpd %ymm6, %ymm3, %ymm1 vaddpd %ymm1, %ymm0, %ymm0 vmulpd %ymm6, %ymm4, %ymm2 vaddpd %ymm1, %ymm2, %ymm15 vaddpd %ymm3, %ymm2, %ymm1 vmovapd %ymm3, %ymm12 vmulpd 23392(%rbx), %ymm4, %ymm2 vmovapd %ymm2, 16608(%rbx) vmovapd 31808(%rbx), %ymm3 vaddpd %ymm2, %ymm3, %ymm2 vdivpd %ymm10, %ymm2, %ymm2 vmovapd %ymm2, 23296(%rbx) vmulpd %ymm6, %ymm2, %ymm5 vmovapd %ymm2, %ymm14 vaddpd %ymm5, %ymm1, %ymm1 vaddpd %ymm5, %ymm0, %ymm0 vmulpd %ymm13, %ymm4, %ymm2 vmovapd %ymm2, 16576(%rbx) vaddpd %ymm2, %ymm7, %ymm2 vdivpd %ymm10, %ymm2, %ymm3 vmovapd %ymm3, 23264(%rbx) vmulpd %ymm6, %ymm3, %ymm2 vmovapd %ymm3, %ymm10 vaddpd %ymm2, %ymm0, %ymm0 vmovapd %ymm0, 31136(%rbx) vaddpd %ymm2, %ymm1, %ymm0 vmovapd %ymm0, 26528(%rbx) movq 25632(%rbx), %rsi movabsq $-4616189618054758400, %rdi movq %rdi, (%rsi) movq %rdi, (%rdx) movq %rdi, (%r15) movq 32576(%rbx), %rdx movq %rdi, (%rdx) movq 25760(%rbx), %rdx movq %rdi, (%rdx) movq 32704(%rbx), %rdx movq %rdi, (%rdx) movq 25728(%rbx), %rdx movq %rdi, (%rdx) movq 25696(%rbx), %rdx movq %rdi, (%rdx) vxorpd %xmm0, %xmm0, %xmm0 movq 24976(%rbx), %rsi vmovupd %xmm0, 16(%rsi) vmovupd %xmm0, (%rsi) movq 24928(%rbx), %rsi vmovupd %xmm0, 16(%rsi) vmovupd %xmm0, (%rsi) movq 25216(%rbx), %rsi vmovupd %xmm0, 16(%rsi) vmovupd %xmm0, (%rsi) movq 25184(%rbx), %rsi vmovupd %xmm0, 16(%rsi) vmovupd %xmm0, (%rsi) movq 25152(%rbx), %rsi vmovupd %xmm0, 16(%rsi) vmovupd %xmm0, (%rsi) vmovupd %xmm0, 16(%rcx) vmovupd %xmm0, (%rcx) vmovupd %xmm0, 16(%r8) vmovupd %xmm0, (%r8) movq 25088(%rbx), %rcx vmovupd %xmm0, 16(%rcx) vmovupd %xmm0, (%rcx) movabsq $4607182418800017408, %r15 movq %r15, (%r9) movq 25856(%rbx), %rcx movq %r15, (%rcx) movq 25824(%rbx), %rcx movq %r15, (%rcx) movq 25888(%rbx), %rcx movq %r15, (%rcx) movq 25920(%rbx), %rcx movq %r15, (%rcx) movq 25984(%rbx), %rcx movq %r15, (%rcx) movq 25952(%rbx), %rcx movq %r15, (%rcx) movq 26016(%rbx), %rcx movq %r15, (%rcx) movq 25056(%rbx), %rcx vmovupd %xmm0, 16(%rcx) vmovupd %xmm0, (%rcx) movq 25040(%rbx), %rcx vmovupd %xmm0, 16(%rcx) vmovupd %xmm0, (%rcx) movq 24992(%rbx), %rcx vmovupd %xmm0, 16(%rcx) vmovupd %xmm0, (%rcx) movq 25392(%rbx), %rcx vmovupd %xmm0, 16(%rcx) vmovupd %xmm0, (%rcx) movq 25344(%rbx), %rcx vmovupd %xmm0, 16(%rcx) vmovupd %xmm0, (%rcx) movq 25312(%rbx), %rcx vmovupd %xmm0, 16(%rcx) vmovupd %xmm0, (%rcx) movq 25280(%rbx), %rcx vmovupd %xmm0, 16(%rcx) vmovupd %xmm0, (%rcx) movq 25248(%rbx), %rcx vmovupd %xmm0, 16(%rcx) vmovupd %xmm0, (%rcx) movq 31552(%rbx), %rcx movq %r15, (%rcx) movq 31584(%rbx), %rcx movq %r15, (%rcx) movq 31616(%rbx), %rcx movq %r15, (%rcx) movq 31648(%rbx), %rcx movq %r15, (%rcx) movq 31904(%rbx), %rsi movq %r15, (%rsi) movq 31936(%rbx), %rsi movq %r15, (%rsi) movq 31680(%rbx), %rcx movq %r15, (%rcx) movq 31968(%rbx), %rcx movq %r15, (%rcx) vmovupd %xmm0, 16(%r10) vmovupd %xmm0, (%r10) vmovupd %xmm0, 16(%r11) vmovupd %xmm0, (%r11) vmovupd %xmm0, 16(%r14) vmovupd %xmm0, (%r14) movq 25456(%rbx), %rcx vmovupd %xmm0, 16(%rcx) vmovupd %xmm0, (%rcx) movq 25440(%rbx), %rcx vmovupd %xmm0, 16(%rcx) vmovupd %xmm0, (%rcx) vmovupd %xmm0, 16(%r13) vmovupd %xmm0, (%r13) movq 32128(%rbx), %rcx vmovupd %xmm0, 16(%rcx) vmovupd %xmm0, (%rcx) movq 32672(%rbx), %rcx vmovupd %xmm0, 16(%rcx) vmovupd %xmm0, (%rcx) movq 31264(%rbx), %r11 movq %r15, (%r11) movq 31296(%rbx), %r9 movq %r15, (%r9) movq 31200(%rbx), %r14 movq %r15, (%r14) movq 31232(%rbx), %r8 movq %r15, (%r8) movq 32000(%rbx), %r10 movq %r15, (%r10) movq 32032(%rbx), %r13 movq %r15, (%r13) movq 31168(%rbx), %rcx movq %r15, (%rcx) movq 31072(%rbx), %rsi movq %r15, (%rsi) movq 30720(%rbx), %rdx movq %rdi, (%rdx) movq 30752(%rbx), %rdx movq %rdi, (%rdx) movq 30656(%rbx), %rdx movq %rdi, (%rdx) movq 30688(%rbx), %rdx movq %rdi, (%rdx) movq 30848(%rbx), %rdx movq %rdi, (%rdx) movq 31008(%rbx), %rdx movq %rdi, (%rdx) movq 30816(%rbx), %rdx movq %rdi, (%rdx) movq 30976(%rbx), %rdx movq %rdi, (%rdx) movabsq $-9223372036854775808, %rdx movq 30592(%rbx), %rdi movq %rdx, (%rdi) movq 30624(%rbx), %rdi movq %rdx, (%rdi) movq 30528(%rbx), %rdi movq %rdx, (%rdi) movq 30560(%rbx), %rdi movq %rdx, (%rdi) movq 30784(%rbx), %rdi movq %rdx, (%rdi) movq 30944(%rbx), %rdi movq %rdx, (%rdi) movq 30880(%rbx), %rdi movq %rdx, (%rdi) movq 30912(%rbx), %rdi movq %rdx, (%rdi) movq 30368(%rbx), %rdi movq %rdx, (%rdi) movq 30336(%rbx), %rdi movq %rdx, (%rdi) movq 30304(%rbx), %rdi movq %rdx, (%rdi) movq 30272(%rbx), %rdi movq %rdx, (%rdi) movq 30496(%rbx), %rdi movq %rdx, (%rdi) movq 30464(%rbx), %rdi movq %rdx, (%rdi) movq 30432(%rbx), %rdi movq %rdx, (%rdi) movq 30400(%rbx), %rdi movq %rdx, (%rdi) movq 28160(%rbx), %rdi movq %rdx, (%rdi) movq 30112(%rbx), %rdi movq %rdx, (%rdi) movq 30080(%rbx), %rdi movq %rdx, (%rdi) movq 30048(%rbx), %rdi movq %rdx, (%rdi) movq 30240(%rbx), %rdi movq %rdx, (%rdi) movq 30208(%rbx), %rdi movq %rdx, (%rdi) movq 30176(%rbx), %rdi movq %rdx, (%rdi) movq 30144(%rbx), %rdi movq %rdx, (%rdi) movq 29312(%rbx), %rdi movq %rdx, (%rdi) movq 29280(%rbx), %rdi movq %rdx, (%rdi) movq 29120(%rbx), %rdi movq %rdx, (%rdi) movq 29088(%rbx), %rdi movq %rdx, (%rdi) movq 29952(%rbx), %rdi movq %rdx, (%rdi) movq 29920(%rbx), %rdi movq %rdx, (%rdi) movq 29760(%rbx), %rdi movq %rdx, (%rdi) movq 29728(%rbx), %rdi movq %rdx, (%rdi) movq 29184(%rbx), %rdi movq %r15, (%rdi) movq 29152(%rbx), %rdi movq %r15, (%rdi) movq 29056(%rbx), %rdi movq %r15, (%rdi) movq 29024(%rbx), %rdi movq %r15, (%rdi) movq 29824(%rbx), %rdi movq %r15, (%rdi) movq 29792(%rbx), %rdi movq %r15, (%rdi) movq 29696(%rbx), %rdi movq %r15, (%rdi) movq 29664(%rbx), %rdi movq %r15, (%rdi) movq 29440(%rbx), %rdi movq %rdx, (%rdi) movq 29408(%rbx), %rdi movq %rdx, (%rdi) movq 29248(%rbx), %rdi movq %rdx, (%rdi) movq 29216(%rbx), %rdi movq %rdx, (%rdi) movq 30016(%rbx), %rdi movq %rdx, (%rdi) movq 29984(%rbx), %rdi movq %rdx, (%rdi) movq 29888(%rbx), %rdi movq %rdx, (%rdi) movq 29856(%rbx), %rdi movq %rdx, (%rdi) movq 28288(%rbx), %rdi movq %rdx, (%rdi) movq 28256(%rbx), %rdi movq %rdx, (%rdi) movq 28128(%rbx), %rdi movq %rdx, (%rdi) movq 28096(%rbx), %rdi movq %rdx, (%rdi) movq 29568(%rbx), %rdi movq %rdx, (%rdi) movq 29536(%rbx), %rdi movq %rdx, (%rdi) movq 29376(%rbx), %rdi movq %rdx, (%rdi) movq 29344(%rbx), %rdi movq %rdx, (%rdi) movq 28672(%rbx), %rdi movq %rdx, (%rdi) movq 28640(%rbx), %rdi movq %rdx, (%rdi) movq 28416(%rbx), %rdi movq %rdx, (%rdi) movq 28384(%rbx), %rdi movq %rdx, (%rdi) movq 28992(%rbx), %rdi movq %rdx, (%rdi) movq 28960(%rbx), %rdi movq %rdx, (%rdi) movq 28864(%rbx), %rdi movq %rdx, (%rdi) movq 28832(%rbx), %rdi movq %rdx, (%rdi) movq 28480(%rbx), %rdi movq %rdx, (%rdi) movq 28448(%rbx), %rdi movq %rdx, (%rdi) movq 28224(%rbx), %rdi movq %rdx, (%rdi) movq 28192(%rbx), %rdi movq %rdx, (%rdi) movq 29632(%rbx), %rdi movq %rdx, (%rdi) movq 29600(%rbx), %rdi movq %rdx, (%rdi) movq 29504(%rbx), %rdi movq %rdx, (%rdi) movq 29472(%rbx), %rdi movq %rdx, (%rdi) movq 27808(%rbx), %rdi movq %r15, (%rdi) movq 27776(%rbx), %rdi movq %r15, (%rdi) movq 27616(%rbx), %rdi movq %r15, (%rdi) movq 27584(%rbx), %rdi movq %r15, (%rdi) movq 28928(%rbx), %rdi movq %r15, (%rdi) movq 28896(%rbx), %rdi movq %r15, (%rdi) movq 28736(%rbx), %rdi movq %r15, (%rdi) movq 28704(%rbx), %rdi movq %r15, (%rdi) movq 27104(%rbx), %rdi movq %rdx, (%rdi) movq 27072(%rbx), %rdi movq %rdx, (%rdi) movq 26976(%rbx), %rdi movq %rdx, (%rdi) movq 26944(%rbx), %rdi movq %rdx, (%rdi) movq 28000(%rbx), %rdi movq %rdx, (%rdi) movq 27968(%rbx), %rdi movq %rdx, (%rdi) movq 27872(%rbx), %rdi movq %rdx, (%rdi) movq 27840(%rbx), %rdi movq %rdx, (%rdi) movq 28064(%rbx), %rdi movq %rdx, (%rdi) movq 28032(%rbx), %rdi movq %rdx, (%rdi) movq 27936(%rbx), %rdi movq %rdx, (%rdi) movq 27904(%rbx), %rdi movq %rdx, (%rdi) movq 28800(%rbx), %rdi movq %rdx, (%rdi) movq 28768(%rbx), %rdi movq %rdx, (%rdi) movq 28544(%rbx), %rdi movq %rdx, (%rdi) movq 28512(%rbx), %rdi movq %rdx, (%rdi) movq 27680(%rbx), %rdi movq %rdx, (%rdi) movq 27648(%rbx), %rdi movq %rdx, (%rdi) movq 27488(%rbx), %rdi movq %rdx, (%rdi) movq 27456(%rbx), %rdi movq %rdx, (%rdi) movq 28608(%rbx), %rdi movq %rdx, (%rdi) movq 28576(%rbx), %rdi movq %rdx, (%rdi) movq 28352(%rbx), %rdi movq %rdx, (%rdi) movq 28320(%rbx), %rdi movq %rdx, (%rdi) movq 27424(%rbx), %rdi movq %rdx, (%rdi) movq 27392(%rbx), %rdi movq %rdx, (%rdi) movq 27232(%rbx), %rdi movq %rdx, (%rdi) movq 27200(%rbx), %rdi movq %rdx, (%rdi) movq 27744(%rbx), %rdi movq %rdx, (%rdi) movq 27712(%rbx), %rdi movq %rdx, (%rdi) movq 27552(%rbx), %rdi movq %rdx, (%rdi) movq 27520(%rbx), %rdi movq %rdx, (%rdi) movq 27296(%rbx), %rdx movq %r15, (%rdx) movq 27264(%rbx), %rdx movq %r15, (%rdx) movq 27040(%rbx), %rdx movq %r15, (%rdx) movq 27008(%rbx), %rdx movq %r15, (%rdx) movq 27360(%rbx), %rdx movq %r15, (%rdx) movq 27328(%rbx), %rdx movq %r15, (%rdx) movq 27168(%rbx), %rdx movq %r15, (%rdx) movq 27136(%rbx), %rdx movq %r15, (%rdx) movq 31712(%rbx), %rdx vmovsd (%rdx), %xmm0 movq 31776(%rbx), %rdx vmovhpd (%rdx), %xmm0, %xmm1 movq 31040(%rbx), %rdx vmovsd (%rdx), %xmm0 movq 31744(%rbx), %rdx vmovhpd (%rdx), %xmm0, %xmm3 vmovsd (%rcx), %xmm0 vmovhpd (%rsi), %xmm0, %xmm2 vmovsd (%r10), %xmm0 vmovhpd (%r13), %xmm0, %xmm4 movq 32192(%rbx), %rcx vmovsd (%rcx), %xmm0 movq 32224(%rbx), %rcx vmovhpd (%rcx), %xmm0, %xmm0 movq 32160(%rbx), %rcx vmovsd (%rcx), %xmm6 movq 32544(%rbx), %rcx vmovhpd (%rcx), %xmm6, %xmm6 vinsertf128 $1, %xmm0, %ymm6, %ymm0 vinsertf128 $1, %xmm2, %ymm4, %ymm2 vinsertf128 $1, %xmm1, %ymm3, %ymm1 vmovsd (%r14), %xmm3 vmovhpd (%r8), %xmm3, %xmm3 vmovsd (%r11), %xmm4 vmovhpd (%r9), %xmm4, %xmm4 vinsertf128 $1, %xmm3, %ymm4, %ymm3 vmovapd 26432(%rbx), %ymm6 vaddpd %ymm9, %ymm6, %ymm4 vmulpd %ymm11, %ymm3, %ymm3 vaddpd %ymm3, %ymm4, %ymm9 vmovapd %ymm9, 23840(%rbx) vmovapd 23360(%rbx), %ymm4 vaddpd %ymm4, %ymm6, %ymm3 vmulpd %ymm11, %ymm1, %ymm1 vaddpd %ymm1, %ymm3, %ymm3 vmovapd %ymm3, 26432(%rbx) vaddpd %ymm5, %ymm15, %ymm1 vmulpd %ymm10, %ymm2, %ymm2 vaddpd %ymm2, %ymm1, %ymm5 vmovapd %ymm5, 31808(%rbx) vaddpd %ymm14, %ymm15, %ymm1 vmulpd %ymm10, %ymm0, %ymm0 vmovapd %ymm10, %ymm6 vaddpd %ymm0, %ymm1, %ymm0 vmovapd %ymm0, 26464(%rbx) vmovapd %ymm0, %ymm7 vmovapd 26496(%rbx), %ymm15 vmovapd 32256(%rbx), %ymm0 vmulpd %ymm15, %ymm0, %ymm1 vmovapd %ymm1, 22720(%rbx) vmovapd 23200(%rbx), %ymm0 vmulpd 31840(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 24416(%rbx) vaddpd %ymm1, %ymm0, %ymm1 vmulpd %ymm3, %ymm4, %ymm0 vmovapd %ymm0, 22848(%rbx) vaddpd %ymm0, %ymm1, %ymm1 vmulpd %ymm9, %ymm11, %ymm0 vmovapd %ymm0, 22784(%rbx) vaddpd %ymm0, %ymm1, %ymm0 vmovapd %ymm0, 22880(%rbx) vmovapd .LCPI1_26(%rip), %ymm10 vcmpltpd %ymm10, %ymm0, %ymm1 vmovapd %ymm0, %ymm13 vextractf128 $1, %ymm1, %xmm2 vpshufd $8, %xmm2, %xmm2 vpshufd $8, %xmm1, %xmm1 vmovlhps %xmm2, %xmm1, %xmm1 vmulpd 26528(%rbx), %ymm12, %ymm3 vmovapd %ymm3, 22656(%rbx) vmovapd 23168(%rbx), %ymm0 vmulpd 31136(%rbx), %ymm0, %ymm2 vaddpd %ymm3, %ymm2, %ymm3 vmulpd %ymm7, %ymm14, %ymm4 vmovapd %ymm4, 22816(%rbx) vaddpd %ymm4, %ymm3, %ymm3 vmulpd %ymm5, %ymm6, %ymm4 vmovapd %ymm4, 22752(%rbx) vaddpd %ymm4, %ymm3, %ymm4 vmovapd %ymm4, 22912(%rbx) vcmpltpd %ymm10, %ymm4, %ymm3 vmovapd %ymm4, %ymm7 vextractf128 $1, %ymm3, %xmm4 vpshufd $8, %xmm4, %xmm4 vpshufd $8, %xmm3, %xmm3 vmovlhps %xmm4, %xmm3, %xmm3 vpshufb .LCPI1_20(%rip), %xmm3, %xmm3 vpshufb .LCPI1_21(%rip), %xmm1, %xmm1 vpor %xmm3, %xmm1, %xmm1 vpsllw $15, %xmm1, %xmm1 vpsraw $15, %xmm1, %xmm4 vpunpckhbw %xmm0, %xmm4, %xmm1 vpslld $31, %xmm1, %xmm3 vpmovsxdq %xmm3, %xmm1 vmovhlps %xmm3, %xmm3, %xmm3 vpmovsxdq %xmm3, %xmm3 vinsertf128 $1, %xmm3, %ymm1, %ymm1 vmovapd 32960(%rbx), %ymm12 vmulpd %ymm8, %ymm12, %ymm3 vmovapd 24000(%rbx), %ymm6 vmovapd 24512(%rbx), %ymm5 vaddpd %ymm6, %ymm5, %ymm5 vmovapd .LCPI1_27(%rip), %ymm9 vmulpd %ymm9, %ymm6, %ymm8 vmovapd %ymm8, 16288(%rbx) vaddpd %ymm5, %ymm8, %ymm6 vaddpd 26336(%rbx), %ymm3, %ymm3 vaddpd 23968(%rbx), %ymm3, %ymm3 vaddpd 26304(%rbx), %ymm3, %ymm3 vmovapd %ymm3, 23008(%rbx) vblendvpd %ymm1, %ymm10, %ymm7, %ymm7 vmovapd .LCPI1_28(%rip), %ymm11 vmulpd %ymm11, %ymm7, %ymm1 vaddpd %ymm1, %ymm8, %ymm8 vmovapd %ymm8, 23072(%rbx) vaddpd %ymm6, %ymm7, %ymm1 vmovapd %ymm1, 23104(%rbx) vmulpd %ymm1, %ymm12, %ymm5 vmovapd %ymm5, 23136(%rbx) vmovapd %ymm3, %ymm1 vmulpd %ymm5, %ymm1, %ymm5 vaddpd %ymm5, %ymm8, %ymm5 vsubpd %ymm2, %ymm5, %ymm2 vpunpcklbw %xmm0, %xmm4, %xmm4 vpslld $31, %xmm4, %xmm5 vpmovsxdq %xmm5, %xmm4 vmovhlps %xmm5, %xmm5, %xmm5 vpmovsxdq %xmm5, %xmm5 vinsertf128 $1, %xmm5, %ymm4, %ymm4 vblendvpd %ymm4, %ymm10, %ymm13, %ymm8 vsqrtpd %ymm7, %ymm5 vmovapd %ymm5, 23232(%rbx) vmovapd 24384(%rbx), %ymm3 vmulpd %ymm3, %ymm0, %ymm4 vdivpd %ymm5, %ymm4, %ymm0 vmovapd %ymm0, 23808(%rbx) vmovapd %ymm5, %ymm14 vmulpd %ymm0, %ymm1, %ymm5 vaddpd %ymm5, %ymm2, %ymm0 vmovapd %ymm0, 23904(%rbx) vmovapd 26272(%rbx), %ymm0 vmovapd 24480(%rbx), %ymm2 vaddpd %ymm0, %ymm2, %ymm2 vmulpd %ymm9, %ymm0, %ymm9 vmovapd %ymm9, 16256(%rbx) vaddpd %ymm2, %ymm9, %ymm2 vmulpd %ymm11, %ymm8, %ymm5 vaddpd %ymm5, %ymm9, %ymm6 vmovapd %ymm6, 22208(%rbx) vaddpd %ymm2, %ymm8, %ymm0 vmovapd %ymm0, 22528(%rbx) vmovapd 24544(%rbx), %ymm4 vmulpd %ymm0, %ymm4, %ymm2 vmovapd %ymm2, 22560(%rbx) vmovapd 26560(%rbx), %ymm12 vmulpd %ymm2, %ymm12, %ymm5 vaddpd %ymm5, %ymm6, %ymm5 vsubpd 24416(%rbx), %ymm5, %ymm9 vmovapd 32928(%rbx), %ymm1 vmulpd %ymm2, %ymm1, %ymm0 vmovapd %ymm2, %ymm7 vmulpd .LCPI1_88, %ymm6, %ymm10 vaddpd %ymm0, %ymm10, %ymm0 vmovapd 23200(%rbx), %ymm2 vmulpd %ymm15, %ymm2, %ymm5 vsubpd %ymm5, %ymm0, %ymm0 vmovapd %ymm0, 22624(%rbx) vsqrtpd %ymm8, %ymm0 vmovapd %ymm0, 24416(%rbx) vmovapd 24352(%rbx), %ymm6 vmulpd %ymm6, %ymm2, %ymm5 vmovapd %ymm2, %ymm11 vdivpd %ymm0, %ymm5, %ymm2 vmovapd %ymm2, 22976(%rbx) vmovapd %ymm0, %ymm13 vmulpd %ymm2, %ymm12, %ymm5 vaddpd %ymm5, %ymm9, %ymm0 vmovapd %ymm0, 23872(%rbx) vmovapd 31136(%rbx), %ymm0 vmulpd %ymm3, %ymm0, %ymm5 vdivpd %ymm14, %ymm5, %ymm0 vmovapd %ymm0, 23936(%rbx) vmovapd 32960(%rbx), %ymm15 vmulpd %ymm0, %ymm15, %ymm5 vmovapd 23904(%rbx), %ymm0 vaddpd %ymm5, %ymm0, %ymm0 vmovapd %ymm0, 22592(%rbx) vmovapd 32864(%rbx), %ymm3 vmovapd 23136(%rbx), %ymm8 vmulpd %ymm8, %ymm3, %ymm5 vmovapd 23072(%rbx), %ymm0 vmulpd .LCPI1_88, %ymm0, %ymm0 vmovapd %ymm0, 23040(%rbx) vaddpd %ymm5, %ymm0, %ymm5 vmovapd 26528(%rbx), %ymm2 vmovapd 23168(%rbx), %ymm9 vmulpd %ymm2, %ymm9, %ymm12 vsubpd %ymm12, %ymm5, %ymm0 vmovapd %ymm0, 22688(%rbx) vmovapd 31104(%rbx), %ymm14 vmulpd %ymm7, %ymm14, %ymm5 vaddpd %ymm5, %ymm10, %ymm5 vmovapd 26432(%rbx), %ymm7 vmulpd %ymm7, %ymm11, %ymm12 vsubpd %ymm12, %ymm5, %ymm0 vmovapd %ymm0, 22176(%rbx) vmovapd 31840(%rbx), %ymm0 vmulpd %ymm6, %ymm0, %ymm5 vdivpd %ymm13, %ymm5, %ymm0 vmovapd %ymm0, 23904(%rbx) vmovapd %ymm4, %ymm12 vmulpd %ymm0, %ymm12, %ymm5 vmovapd 23872(%rbx), %ymm0 vaddpd %ymm5, %ymm0, %ymm5 vmulpd 23808(%rbx), %ymm3, %ymm11 vmovapd 22688(%rbx), %ymm0 vaddpd %ymm11, %ymm0, %ymm0 vmovapd %ymm0, 22688(%rbx) vmovapd 22976(%rbx), %ymm4 vmulpd %ymm4, %ymm1, %ymm13 vmovapd 22624(%rbx), %ymm0 vaddpd %ymm13, %ymm0, %ymm11 vmovaps 22592(%rbx), %ymm0 vmovaps %ymm0, 12000(%rax,%r12) vmovapd %ymm5, 11968(%rax,%r12) vmovapd 31872(%rbx), %ymm3 vmulpd %ymm8, %ymm3, %ymm0 vmovapd 23040(%rbx), %ymm13 vaddpd %ymm0, %ymm13, %ymm0 vmulpd 31808(%rbx), %ymm9, %ymm5 vsubpd %ymm5, %ymm0, %ymm0 vmovapd %ymm0, 22144(%rbx) vmulpd %ymm4, %ymm14, %ymm5 vmovapd 22176(%rbx), %ymm0 vaddpd %ymm5, %ymm0, %ymm0 vmovapd %ymm0, 22624(%rbx) vmovapd 26496(%rbx), %ymm0 vmulpd %ymm6, %ymm0, %ymm5 vmovapd 24416(%rbx), %ymm4 vdivpd %ymm4, %ymm5, %ymm1 vmovapd %ymm1, 22592(%rbx) vmovapd %ymm12, %ymm0 vmulpd %ymm1, %ymm0, %ymm5 vaddpd %ymm5, %ymm11, %ymm1 vmovapd %ymm1, 22176(%rbx) vmovapd 24384(%rbx), %ymm12 vmulpd %ymm12, %ymm2, %ymm5 vmovapd 23232(%rbx), %ymm9 vdivpd %ymm9, %ymm5, %ymm1 vmovapd %ymm1, 23872(%rbx) vmulpd %ymm1, %ymm15, %ymm5 vmovapd 22688(%rbx), %ymm1 vaddpd %ymm5, %ymm1, %ymm14 vmovapd 32896(%rbx), %ymm11 vmulpd %ymm8, %ymm11, %ymm1 vaddpd %ymm1, %ymm13, %ymm1 vmovapd 26464(%rbx), %ymm2 vmovapd 23168(%rbx), %ymm5 vmulpd %ymm2, %ymm5, %ymm5 vsubpd %ymm5, %ymm1, %ymm1 vmovapd 23808(%rbx), %ymm15 vmulpd %ymm15, %ymm11, %ymm5 vaddpd %ymm5, %ymm1, %ymm11 vmovapd %ymm14, 12064(%rax,%r12) vmovaps 22176(%rbx), %ymm1 vmovaps %ymm1, 12032(%rax,%r12) vmulpd %ymm6, %ymm7, %ymm1 vdivpd %ymm4, %ymm1, %ymm1 vmovapd %ymm1, 22688(%rbx) vmulpd %ymm1, %ymm0, %ymm1 vmovapd 22624(%rbx), %ymm0 vaddpd %ymm1, %ymm0, %ymm0 vmovapd %ymm0, 22176(%rbx) vmovapd %ymm3, %ymm6 vmulpd %ymm15, %ymm6, %ymm4 vmovapd 22144(%rbx), %ymm0 vaddpd %ymm4, %ymm0, %ymm15 vmovapd 32288(%rbx), %ymm0 vmulpd 23104(%rbx), %ymm0, %ymm5 vmovapd %ymm5, 23136(%rbx) vmovapd 23008(%rbx), %ymm14 vmulpd %ymm5, %ymm14, %ymm4 vmovapd %ymm5, %ymm0 vaddpd %ymm4, %ymm13, %ymm4 vmovapd 26592(%rbx), %ymm13 vmulpd 31136(%rbx), %ymm13, %ymm5 vsubpd %ymm5, %ymm4, %ymm4 vmovapd %ymm12, %ymm1 vmulpd %ymm1, %ymm2, %ymm5 vmovapd %ymm9, %ymm7 vdivpd %ymm7, %ymm5, %ymm2 vmovapd %ymm2, 22624(%rbx) vmovapd 32960(%rbx), %ymm9 vmulpd %ymm2, %ymm9, %ymm5 vaddpd %ymm5, %ymm11, %ymm8 vmovapd 26848(%rbx), %ymm11 vmulpd 22560(%rbx), %ymm11, %ymm2 vaddpd %ymm2, %ymm10, %ymm2 vmovapd 23840(%rbx), %ymm3 vmovapd 23200(%rbx), %ymm5 vmulpd %ymm3, %ymm5, %ymm5 vsubpd %ymm5, %ymm2, %ymm2 vmulpd 22976(%rbx), %ymm11, %ymm5 vaddpd %ymm5, %ymm2, %ymm2 vmovapd %ymm8, 12128(%rax,%r12) vmovaps 22176(%rbx), %ymm5 vmovaps %ymm5, 12096(%rax,%r12) vmovapd %ymm1, %ymm5 vmulpd %ymm5, %ymm13, %ymm1 vdivpd %ymm7, %ymm1, %ymm1 vmovapd %ymm1, 23808(%rbx) vmulpd %ymm1, %ymm14, %ymm1 vaddpd %ymm1, %ymm4, %ymm1 vmovapd %ymm1, 21984(%rbx) vmovapd 31808(%rbx), %ymm1 vmulpd %ymm5, %ymm1, %ymm1 vdivpd %ymm7, %ymm1, %ymm1 vmovapd %ymm1, 22976(%rbx) vmulpd %ymm1, %ymm9, %ymm1 vaddpd %ymm1, %ymm15, %ymm8 vmovapd 26624(%rbx), %ymm1 vmovapd 22528(%rbx), %ymm9 vmulpd %ymm9, %ymm1, %ymm11 vmovapd 26560(%rbx), %ymm7 vmulpd %ymm11, %ymm7, %ymm1 vaddpd %ymm1, %ymm10, %ymm1 vmovapd 32256(%rbx), %ymm4 vmulpd 31840(%rbx), %ymm4, %ymm4 vsubpd %ymm4, %ymm1, %ymm1 vmovapd %ymm1, 22112(%rbx) vmovapd 24352(%rbx), %ymm14 vmulpd %ymm14, %ymm3, %ymm1 vmovapd 24416(%rbx), %ymm15 vdivpd %ymm15, %ymm1, %ymm1 vmovapd %ymm1, 22560(%rbx) vmovapd 24544(%rbx), %ymm3 vmulpd %ymm1, %ymm3, %ymm1 vaddpd %ymm1, %ymm2, %ymm1 vmovapd %ymm1, 22048(%rbx) vmovapd 32864(%rbx), %ymm1 vmulpd %ymm0, %ymm1, %ymm1 vmovapd 23072(%rbx), %ymm3 vaddpd %ymm1, %ymm3, %ymm1 vmovapd 23392(%rbx), %ymm2 vmovapd 23104(%rbx), %ymm4 vmulpd %ymm4, %ymm2, %ymm0 vmovapd %ymm0, 21888(%rbx) vmovapd 22240(%rbx), %ymm2 vmulpd %ymm4, %ymm2, %ymm4 vmulpd %ymm4, %ymm6, %ymm2 vaddpd %ymm2, %ymm3, %ymm2 vmovapd %ymm2, 22016(%rbx) vmovapd 32896(%rbx), %ymm12 vmulpd %ymm0, %ymm12, %ymm2 vaddpd %ymm2, %ymm3, %ymm2 vmovapd %ymm2, 22176(%rbx) vmovapd 32928(%rbx), %ymm5 vmulpd %ymm11, %ymm5, %ymm2 vmovapd 22208(%rbx), %ymm13 vaddpd %ymm2, %ymm13, %ymm2 vsubpd 22720(%rbx), %ymm2, %ymm2 vmovapd %ymm2, 22144(%rbx) vsubpd 22656(%rbx), %ymm1, %ymm1 vmovapd %ymm1, 22080(%rbx) vmovapd 23424(%rbx), %ymm1 vmovapd %ymm9, %ymm2 vmulpd %ymm2, %ymm1, %ymm6 vmovapd 24448(%rbx), %ymm1 vmulpd %ymm2, %ymm1, %ymm3 vmovapd 26848(%rbx), %ymm9 vmulpd %ymm3, %ymm9, %ymm1 vaddpd %ymm1, %ymm13, %ymm0 vmovapd %ymm0, 22656(%rbx) vmovapd %ymm13, %ymm2 vmovapd 31104(%rbx), %ymm13 vmulpd %ymm6, %ymm13, %ymm1 vaddpd %ymm1, %ymm2, %ymm1 vmovapd %ymm1, 22720(%rbx) vmovapd %ymm8, 12192(%rax,%r12) vmovapd 32288(%rbx), %ymm0 vmulpd 23936(%rbx), %ymm0, %ymm0 vmovapd 21984(%rbx), %ymm1 vaddpd %ymm0, %ymm1, %ymm0 vmovapd %ymm0, 23072(%rbx) vmulpd %ymm11, %ymm9, %ymm0 vmovapd %ymm0, 23104(%rbx) vmulpd %ymm11, %ymm13, %ymm2 vmulpd %ymm6, %ymm7, %ymm11 vmulpd %ymm6, %ymm5, %ymm1 vmovapd %ymm5, %ymm8 vmulpd %ymm6, %ymm9, %ymm0 vmulpd %ymm3, %ymm7, %ymm5 vmulpd %ymm3, %ymm13, %ymm6 vmulpd %ymm3, %ymm8, %ymm3 vaddpd %ymm3, %ymm10, %ymm13 vaddpd %ymm6, %ymm10, %ymm8 vaddpd %ymm0, %ymm10, %ymm6 vaddpd %ymm5, %ymm10, %ymm0 vaddpd %ymm2, %ymm10, %ymm2 vmovapd %ymm2, 21984(%rbx) vaddpd 23104(%rbx), %ymm10, %ymm2 vmovapd %ymm2, 21952(%rbx) vaddpd %ymm1, %ymm10, %ymm1 vmovapd %ymm1, 21120(%rbx) vaddpd %ymm11, %ymm10, %ymm1 vmovapd %ymm1, 21632(%rbx) vmovaps 22048(%rbx), %ymm1 vmovaps %ymm1, 12160(%rax,%r12) vmovapd 32256(%rbx), %ymm1 vmulpd %ymm14, %ymm1, %ymm2 vdivpd %ymm15, %ymm2, %ymm1 vmovapd %ymm1, 23104(%rbx) vmulpd %ymm1, %ymm7, %ymm2 vmovapd 22112(%rbx), %ymm1 vaddpd %ymm2, %ymm1, %ymm1 vmovapd %ymm1, 21856(%rbx) vmovapd 22656(%rbx), %ymm1 vsubpd 22784(%rbx), %ymm1, %ymm1 vmovapd %ymm1, 22656(%rbx) vmovapd 22016(%rbx), %ymm1 vsubpd 22752(%rbx), %ymm1, %ymm1 vmovapd %ymm1, 22752(%rbx) vmovapd 23328(%rbx), %ymm1 vmulpd 26432(%rbx), %ymm1, %ymm2 vsubpd %ymm2, %ymm8, %ymm2 vmovapd %ymm2, 22208(%rbx) vmulpd %ymm4, %ymm12, %ymm2 vmovapd 23040(%rbx), %ymm10 vaddpd %ymm2, %ymm10, %ymm2 vmovapd 23264(%rbx), %ymm12 vmulpd 26464(%rbx), %ymm12, %ymm5 vsubpd %ymm5, %ymm2, %ymm2 vmovapd %ymm2, 22048(%rbx) vmovapd 26496(%rbx), %ymm3 vmulpd %ymm3, %ymm1, %ymm2 vmovapd %ymm1, %ymm7 vsubpd %ymm2, %ymm13, %ymm1 vmovapd %ymm1, 21824(%rbx) vmovapd 31872(%rbx), %ymm1 vmovapd 21888(%rbx), %ymm9 vmulpd %ymm9, %ymm1, %ymm5 vaddpd %ymm5, %ymm10, %ymm5 vmovapd 23296(%rbx), %ymm14 vmulpd 31808(%rbx), %ymm14, %ymm8 vsubpd %ymm8, %ymm5, %ymm1 vmovapd %ymm1, 22784(%rbx) vmovapd 32864(%rbx), %ymm13 vmulpd %ymm4, %ymm13, %ymm5 vaddpd %ymm5, %ymm10, %ymm5 vmovapd %ymm10, %ymm11 vmovapd 26528(%rbx), %ymm1 vmulpd %ymm1, %ymm12, %ymm8 vsubpd %ymm8, %ymm5, %ymm5 vmovapd %ymm5, 22528(%rbx) vmovapd 31840(%rbx), %ymm10 vmulpd %ymm10, %ymm7, %ymm5 vsubpd %ymm5, %ymm0, %ymm0 vmovapd %ymm0, 22112(%rbx) vmovapd 23008(%rbx), %ymm7 vmulpd %ymm4, %ymm7, %ymm0 vaddpd %ymm0, %ymm11, %ymm0 vmovapd 31136(%rbx), %ymm15 vmulpd %ymm15, %ymm12, %ymm4 vsubpd %ymm4, %ymm0, %ymm0 vmovapd %ymm0, 22016(%rbx) vmovapd 23360(%rbx), %ymm12 vmovapd 23840(%rbx), %ymm2 vmulpd %ymm2, %ymm12, %ymm0 vsubpd %ymm0, %ymm6, %ymm0 vmovapd %ymm0, 21920(%rbx) vmulpd 23808(%rbx), %ymm13, %ymm0 vmovapd 22080(%rbx), %ymm4 vaddpd %ymm0, %ymm4, %ymm0 vmovapd %ymm0, 21792(%rbx) vmovapd 32928(%rbx), %ymm6 vmulpd 23104(%rbx), %ymm6, %ymm4 vmovapd 22144(%rbx), %ymm0 vaddpd %ymm4, %ymm0, %ymm0 vmovapd 22176(%rbx), %ymm4 vsubpd 22816(%rbx), %ymm4, %ymm4 vmovapd %ymm4, 22816(%rbx) vmulpd %ymm1, %ymm14, %ymm5 vmovapd %ymm9, %ymm4 vmulpd %ymm4, %ymm13, %ymm8 vaddpd %ymm8, %ymm11, %ymm8 vsubpd %ymm5, %ymm8, %ymm1 vmovapd %ymm1, 22176(%rbx) vmulpd %ymm15, %ymm14, %ymm5 vmulpd %ymm4, %ymm7, %ymm8 vmovapd %ymm7, %ymm4 vaddpd %ymm8, %ymm11, %ymm8 vsubpd %ymm5, %ymm8, %ymm1 vmovapd %ymm1, 22080(%rbx) vmulpd %ymm3, %ymm12, %ymm5 vmovapd 21120(%rbx), %ymm1 vsubpd %ymm5, %ymm1, %ymm1 vmovapd %ymm1, 31136(%rbx) vmovapd 32256(%rbx), %ymm5 vmulpd %ymm2, %ymm5, %ymm1 vmovapd 21952(%rbx), %ymm2 vsubpd %ymm1, %ymm2, %ymm1 vmovapd %ymm1, 26496(%rbx) vmovapd 22720(%rbx), %ymm1 vsubpd 22848(%rbx), %ymm1, %ymm1 vmovapd %ymm1, 23840(%rbx) vmulpd 26432(%rbx), %ymm5, %ymm1 vmovapd 21984(%rbx), %ymm2 vsubpd %ymm1, %ymm2, %ymm1 vmovapd %ymm1, 26528(%rbx) vmulpd %ymm10, %ymm12, %ymm1 vmovapd %ymm12, %ymm15 vmovapd 21632(%rbx), %ymm2 vsubpd %ymm1, %ymm2, %ymm1 vmovapd %ymm1, 22848(%rbx) vmovapd 26592(%rbx), %ymm1 vmulpd 31808(%rbx), %ymm1, %ymm1 vmovapd 31872(%rbx), %ymm14 vmulpd 23136(%rbx), %ymm14, %ymm5 vaddpd %ymm5, %ymm11, %ymm5 vsubpd %ymm1, %ymm5, %ymm1 vmovapd %ymm1, 31808(%rbx) vmovaps 23072(%rbx), %ymm1 vmovaps %ymm1, 12256(%rax,%r12) vmovapd 26624(%rbx), %ymm8 vmulpd 23904(%rbx), %ymm8, %ymm1 vmovapd 21856(%rbx), %ymm2 vaddpd %ymm1, %ymm2, %ymm1 vmovapd %ymm1, 22144(%rbx) vmovapd 24352(%rbx), %ymm5 vmovapd 23328(%rbx), %ymm1 vmulpd %ymm5, %ymm1, %ymm1 vmovapd 24416(%rbx), %ymm3 vdivpd %ymm3, %ymm1, %ymm10 vmulpd %ymm10, %ymm6, %ymm1 vmovapd 21824(%rbx), %ymm2 vaddpd %ymm1, %ymm2, %ymm1 vmovapd %ymm1, 31840(%rbx) vmovapd 24384(%rbx), %ymm7 vmovapd 23264(%rbx), %ymm1 vmulpd %ymm7, %ymm1, %ymm1 vmovapd 23232(%rbx), %ymm6 vdivpd %ymm6, %ymm1, %ymm1 vmovapd 32896(%rbx), %ymm2 vmulpd %ymm1, %ymm2, %ymm2 vmovapd 22048(%rbx), %ymm9 vaddpd %ymm2, %ymm9, %ymm2 vmovapd %ymm2, 26432(%rbx) vmovapd 31104(%rbx), %ymm9 vmulpd %ymm10, %ymm9, %ymm2 vmovapd 22208(%rbx), %ymm12 vaddpd %ymm2, %ymm12, %ymm2 vmovapd %ymm2, 22720(%rbx) vmulpd %ymm1, %ymm14, %ymm2 vmovapd 22752(%rbx), %ymm12 vaddpd %ymm2, %ymm12, %ymm2 vmovapd %ymm2, 22208(%rbx) vmovapd 26848(%rbx), %ymm14 vmulpd %ymm10, %ymm14, %ymm2 vmovapd 22656(%rbx), %ymm12 vaddpd %ymm2, %ymm12, %ymm2 vmovapd %ymm2, 22656(%rbx) vmovapd 22592(%rbx), %ymm12 vmulpd %ymm12, %ymm8, %ymm2 vaddpd %ymm2, %ymm0, %ymm0 vmovapd %ymm0, 21984(%rbx) vmovapd 32288(%rbx), %ymm2 vmulpd 23872(%rbx), %ymm2, %ymm2 vmovapd 21792(%rbx), %ymm0 vaddpd %ymm2, %ymm0, %ymm2 vmulpd %ymm5, %ymm15, %ymm0 vdivpd %ymm3, %ymm0, %ymm15 vmulpd %ymm15, %ymm14, %ymm0 vmovapd 21920(%rbx), %ymm3 vaddpd %ymm0, %ymm3, %ymm0 vmovapd %ymm0, 22752(%rbx) vmovapd %ymm4, %ymm3 vmulpd %ymm1, %ymm3, %ymm0 vmovapd 22016(%rbx), %ymm4 vaddpd %ymm0, %ymm4, %ymm0 vmovapd %ymm0, 22048(%rbx) vmovapd 26560(%rbx), %ymm8 vmulpd %ymm10, %ymm8, %ymm4 vmovapd 22112(%rbx), %ymm0 vaddpd %ymm4, %ymm0, %ymm10 vmulpd %ymm1, %ymm13, %ymm1 vmovapd 22528(%rbx), %ymm0 vaddpd %ymm1, %ymm0, %ymm0 vmovapd %ymm0, 22528(%rbx) vmovapd 23296(%rbx), %ymm0 vmulpd %ymm7, %ymm0, %ymm1 vdivpd %ymm6, %ymm1, %ymm4 vmovapd 31872(%rbx), %ymm6 vmulpd %ymm4, %ymm6, %ymm1 vmovapd 22784(%rbx), %ymm0 vaddpd %ymm1, %ymm0, %ymm0 vmovapd %ymm0, 22784(%rbx) vmulpd %ymm4, %ymm3, %ymm5 vmovapd 22080(%rbx), %ymm0 vaddpd %ymm5, %ymm0, %ymm0 vmovapd %ymm0, 23072(%rbx) vmulpd %ymm4, %ymm13, %ymm5 vmovapd 22176(%rbx), %ymm0 vaddpd %ymm5, %ymm0, %ymm0 vmovapd %ymm0, 23008(%rbx) vmovapd 32896(%rbx), %ymm1 vmulpd %ymm4, %ymm1, %ymm4 vmovapd 22816(%rbx), %ymm0 vaddpd %ymm4, %ymm0, %ymm0 vmovapd %ymm0, 22816(%rbx) vmovapd 23104(%rbx), %ymm0 vmulpd %ymm0, %ymm14, %ymm13 vmovapd %ymm9, %ymm5 vmulpd %ymm0, %ymm5, %ymm14 vmulpd %ymm15, %ymm5, %ymm3 vmovapd 23840(%rbx), %ymm0 vaddpd %ymm3, %ymm0, %ymm5 vmovapd 26496(%rbx), %ymm0 vaddpd %ymm13, %ymm0, %ymm0 vmovapd %ymm0, 26496(%rbx) vmulpd %ymm15, %ymm8, %ymm3 vmovapd 22848(%rbx), %ymm0 vaddpd %ymm3, %ymm0, %ymm0 vmovapd %ymm0, 23104(%rbx) vmovapd 32928(%rbx), %ymm0 vmulpd %ymm15, %ymm0, %ymm9 vmovapd 31136(%rbx), %ymm0 vaddpd %ymm9, %ymm0, %ymm15 vmulpd 23136(%rbx), %ymm1, %ymm9 vaddpd %ymm9, %ymm11, %ymm0 vmovapd %ymm0, 26560(%rbx) vmovaps 22144(%rbx), %ymm0 vmovaps %ymm0, 12224(%rax,%r12) vmovapd 26528(%rbx), %ymm0 vaddpd %ymm14, %ymm0, %ymm0 vmovapd %ymm0, 23840(%rbx) vmovapd 23808(%rbx), %ymm1 vmulpd %ymm1, %ymm6, %ymm7 vmovapd 31808(%rbx), %ymm0 vaddpd %ymm7, %ymm0, %ymm0 vmovapd %ymm0, 23136(%rbx) vmovapd %ymm2, 12320(%rax,%r12) vmovaps 21984(%rbx), %ymm0 vmovaps %ymm0, 12288(%rax,%r12) vmovapd 24448(%rbx), %ymm8 vmovapd 22560(%rbx), %ymm7 vmulpd %ymm7, %ymm8, %ymm2 vmovapd 22656(%rbx), %ymm0 vaddpd %ymm2, %ymm0, %ymm0 vmovapd %ymm0, 31872(%rbx) vmovapd 22240(%rbx), %ymm6 vmovapd 22976(%rbx), %ymm11 vmulpd %ymm11, %ymm6, %ymm2 vmovapd 22208(%rbx), %ymm0 vaddpd %ymm2, %ymm0, %ymm0 vmovapd %ymm0, 31808(%rbx) vmovapd 22688(%rbx), %ymm3 vmulpd %ymm3, %ymm8, %ymm2 vmovapd 22720(%rbx), %ymm0 vaddpd %ymm2, %ymm0, %ymm0 vmovapd %ymm0, 31136(%rbx) vmovapd 22624(%rbx), %ymm0 vmulpd %ymm0, %ymm6, %ymm2 vmovapd 26432(%rbx), %ymm4 vaddpd %ymm2, %ymm4, %ymm2 vmovapd %ymm2, 31104(%rbx) vmulpd %ymm12, %ymm8, %ymm2 vmovapd 31840(%rbx), %ymm4 vaddpd %ymm2, %ymm4, %ymm2 vmovapd %ymm2, 31840(%rbx) vmovapd 23872(%rbx), %ymm14 vmulpd %ymm14, %ymm6, %ymm2 vmovapd 22528(%rbx), %ymm4 vaddpd %ymm2, %ymm4, %ymm2 vmovapd %ymm2, 26848(%rbx) vmovapd 23904(%rbx), %ymm9 vmulpd %ymm9, %ymm8, %ymm2 vaddpd %ymm2, %ymm10, %ymm2 vmovapd %ymm2, 26528(%rbx) vmovapd 23936(%rbx), %ymm4 vmulpd %ymm4, %ymm6, %ymm2 vmovapd 22048(%rbx), %ymm6 vaddpd %ymm2, %ymm6, %ymm2 vmovapd %ymm2, 26432(%rbx) vmovapd 23424(%rbx), %ymm8 vmulpd %ymm7, %ymm8, %ymm2 vmovapd 22752(%rbx), %ymm6 vaddpd %ymm2, %ymm6, %ymm2 vmovapd %ymm2, 23040(%rbx) vmovapd 23392(%rbx), %ymm13 vmulpd %ymm11, %ymm13, %ymm2 vmovapd %ymm11, %ymm10 vmovapd 22784(%rbx), %ymm6 vaddpd %ymm2, %ymm6, %ymm2 vmovapd %ymm2, 22848(%rbx) vmulpd %ymm9, %ymm8, %ymm11 vmulpd %ymm12, %ymm8, %ymm6 vmovapd %ymm3, %ymm12 vmulpd %ymm12, %ymm8, %ymm2 vaddpd %ymm2, %ymm5, %ymm2 vmulpd %ymm4, %ymm13, %ymm8 vmulpd %ymm14, %ymm13, %ymm9 vmulpd %ymm0, %ymm13, %ymm5 vmovapd 22816(%rbx), %ymm3 vaddpd %ymm5, %ymm3, %ymm4 vaddpd %ymm6, %ymm15, %ymm5 vmovapd 23008(%rbx), %ymm3 vaddpd %ymm9, %ymm3, %ymm15 vmovapd 23104(%rbx), %ymm3 vaddpd %ymm11, %ymm3, %ymm3 vmovapd 23072(%rbx), %ymm6 vaddpd %ymm8, %ymm6, %ymm11 vmovapd 26624(%rbx), %ymm14 vmulpd %ymm7, %ymm14, %ymm6 vmovapd 26496(%rbx), %ymm7 vaddpd %ymm6, %ymm7, %ymm9 vmovapd %ymm9, 17088(%rbx) vmovapd 32288(%rbx), %ymm13 vmulpd %ymm10, %ymm13, %ymm6 vmovapd 23136(%rbx), %ymm7 vaddpd %ymm6, %ymm7, %ymm8 vmovapd %ymm8, 17216(%rbx) vmulpd %ymm12, %ymm14, %ymm6 vmovapd 23840(%rbx), %ymm7 vaddpd %ymm6, %ymm7, %ymm14 vmovapd %ymm14, 16928(%rbx) vmovapd 26592(%rbx), %ymm6 vmulpd 26464(%rbx), %ymm6, %ymm6 vmovapd 26560(%rbx), %ymm7 vsubpd %ymm6, %ymm7, %ymm6 vmovapd 32896(%rbx), %ymm7 vmulpd %ymm1, %ymm7, %ymm7 vaddpd %ymm7, %ymm6, %ymm6 vmulpd %ymm0, %ymm13, %ymm7 vaddpd %ymm7, %ymm6, %ymm6 vmovapd %ymm6, 16896(%rbx) vmovapd %ymm6, 12384(%rax,%r12) vmovapd %ymm14, 12352(%rax,%r12) vmovapd %ymm8, 12448(%rax,%r12) vmovapd %ymm9, 12416(%rax,%r12) vmovapd %ymm11, 12512(%rax,%r12) vmovapd %ymm3, 12480(%rax,%r12) vmovapd %ymm15, 12576(%rax,%r12) vmovapd %ymm5, 12544(%rax,%r12) vmovapd %ymm4, 12640(%rax,%r12) vmovapd %ymm2, 12608(%rax,%r12) vmovaps 22848(%rbx), %ymm0 vmovaps %ymm0, 12704(%rax,%r12) vmovaps 23040(%rbx), %ymm0 vmovaps %ymm0, 12672(%rax,%r12) vmovaps 26432(%rbx), %ymm0 vmovaps %ymm0, 12768(%rax,%r12) vmovaps 26528(%rbx), %ymm0 vmovaps %ymm0, 12736(%rax,%r12) vmovaps 26848(%rbx), %ymm0 vmovaps %ymm0, 12832(%rax,%r12) vmovaps 31840(%rbx), %ymm0 vmovaps %ymm0, 12800(%rax,%r12) vmovaps 31104(%rbx), %ymm0 vmovaps %ymm0, 12896(%rax,%r12) vmovaps 31136(%rbx), %ymm0 vmovaps %ymm0, 12864(%rax,%r12) vmovaps 31808(%rbx), %ymm0 vmovaps %ymm0, 12960(%rax,%r12) vmovaps 31872(%rbx), %ymm0 vmovaps %ymm0, 12928(%rax,%r12) vmovapd 13824(%rbx), %ymm0 vmulpd 12192(%rax,%r12), %ymm0, %ymm1 vmovapd %ymm1, 17248(%rbx) vmulpd 12160(%rax,%r12), %ymm0, %ymm1 vmovapd %ymm1, 17056(%rbx) vmulpd 12128(%rax,%r12), %ymm0, %ymm1 vmovapd %ymm1, 17120(%rbx) vmulpd 12096(%rax,%r12), %ymm0, %ymm1 vmovapd %ymm1, 17184(%rbx) vmulpd 12064(%rax,%r12), %ymm0, %ymm1 vmovapd %ymm1, 16960(%rbx) vmulpd 12032(%rax,%r12), %ymm0, %ymm1 vmovapd %ymm1, 17024(%rbx) vmulpd 12000(%rax,%r12), %ymm0, %ymm1 vmovapd %ymm1, 17152(%rbx) vmulpd 11968(%rax,%r12), %ymm0, %ymm1 vmovapd %ymm1, 16992(%rbx) vmulpd 12320(%rax,%r12), %ymm0, %ymm1 vmovapd %ymm1, 17504(%rbx) vmulpd 12288(%rax,%r12), %ymm0, %ymm1 vmovapd %ymm1, 17536(%rbx) vmulpd 12256(%rax,%r12), %ymm0, %ymm1 vmovapd %ymm1, 17568(%rbx) vmulpd 12224(%rax,%r12), %ymm0, %ymm0 vmovapd %ymm0, 17472(%rbx) vmovapd 24480(%rbx), %ymm11 vmovapd %ymm11, %ymm0 vmovaps .LCPI1_30(%rip), %ymm8 vmovaps %ymm8, %ymm1 callq __ocl_svml_e9_pow4 vmovapd %ymm0, %ymm9 vmovapd 24512(%rbx), %ymm10 vmovapd %ymm10, %ymm0 vmovaps %ymm8, %ymm1 callq __ocl_svml_e9_pow4 vmovapd %ymm0, %ymm1 vmovapd 26272(%rbx), %ymm12 vmulpd %ymm9, %ymm12, %ymm0 vmovapd 24000(%rbx), %ymm8 vmulpd %ymm1, %ymm8, %ymm1 callq __ocl_svml_e9_log8 vmovapd %ymm0, 16416(%rbx) vmovapd %ymm1, 16384(%rbx) vmovapd .LCPI1_73(%rip), %ymm2 vmulpd %ymm2, %ymm8, %ymm1 vmovapd .LCPI1_74(%rip), %ymm4 vmulpd %ymm4, %ymm8, %ymm0 vmulpd %ymm2, %ymm12, %ymm3 vmulpd %ymm4, %ymm12, %ymm2 vmovapd 32960(%rbx), %ymm4 vaddpd 26336(%rbx), %ymm4, %ymm4 vaddpd 23968(%rbx), %ymm4, %ymm4 vmovapd %ymm11, %ymm7 vaddpd %ymm2, %ymm7, %ymm5 vdivpd %ymm5, %ymm3, %ymm3 vmovapd %ymm10, %ymm6 vaddpd %ymm0, %ymm6, %ymm5 vdivpd %ymm5, %ymm1, %ymm1 vaddpd 26304(%rbx), %ymm4, %ymm4 vmovapd %ymm4, 32896(%rbx) vmovapd 22880(%rbx), %ymm5 vaddpd %ymm5, %ymm7, %ymm4 vaddpd %ymm2, %ymm4, %ymm2 vdivpd %ymm2, %ymm5, %ymm4 vmulpd %ymm3, %ymm4, %ymm2 vaddpd %ymm3, %ymm4, %ymm3 vmovapd 22912(%rbx), %ymm5 vaddpd %ymm5, %ymm6, %ymm4 vaddpd %ymm0, %ymm4, %ymm0 vdivpd %ymm0, %ymm5, %ymm0 vmulpd %ymm1, %ymm0, %ymm4 vaddpd %ymm1, %ymm0, %ymm0 vsubpd %ymm4, %ymm0, %ymm0 vmovapd %ymm0, 31840(%rbx) vsubpd %ymm2, %ymm3, %ymm0 vmovapd %ymm0, 31872(%rbx) vmovaps 24352(%rbx), %ymm0 vmovaps .LCPI1_24(%rip), %ymm8 vmovaps %ymm8, %ymm1 callq __ocl_svml_e9_pow4 vmovaps %ymm0, 16352(%rbx) vmovaps 24384(%rbx), %ymm0 vmovaps %ymm8, %ymm1 callq __ocl_svml_e9_pow4 movq 32792(%rbx), %rdi movq 30784(%rbx), %r14 vmovaps %ymm0, 16320(%rbx) movq 21664(%rbx), %rax vxorps %ymm0, %ymm0, %ymm0 vmovaps %ymm0, (%rax) movq 21680(%rbx), %rax vmovaps %ymm0, (%rax) movq 21696(%rbx), %rax vmovaps %ymm0, (%rax) movq 21712(%rbx), %rax vmovaps %ymm0, (%rax) movq 21728(%rbx), %rax vmovaps %ymm0, (%rax) movq 21744(%rbx), %rax vmovaps %ymm0, (%rax) movq 21760(%rbx), %rax vmovaps %ymm0, (%rax) movq 21776(%rbx), %rax vmovaps %ymm0, (%rax) vxorpd %ymm15, %ymm15, %ymm15 movq %r15, 9672(%rdi,%r12) movq %r15, 9704(%rdi,%r12) movq %r15, 9736(%rdi,%r12) movq %r15, 9768(%rdi,%r12) movq %r15, 9800(%rdi,%r12) movq %r15, 9832(%rdi,%r12) movq %r15, 9864(%rdi,%r12) movq %r15, 9896(%rdi,%r12) movq 30528(%rbx), %rdx vmovsd (%rdx), %xmm0 movq 30560(%rbx), %rax vmovhpd (%rax), %xmm0, %xmm0 movq 30592(%rbx), %rax vmovsd (%rax), %xmm1 movq 30624(%rbx), %rax vmovhpd (%rax), %xmm1, %xmm3 movq 30656(%rbx), %rsi vmovsd (%rsi), %xmm1 movq 30688(%rbx), %rsi vmovhpd (%rsi), %xmm1, %xmm4 movq 30720(%rbx), %rdx vmovsd (%rdx), %xmm1 movq 30752(%rbx), %rdx vmovhpd (%rdx), %xmm1, %xmm5 movq 29120(%rbx), %rdx vmovsd (%rdx), %xmm1 movq 29088(%rbx), %rdx vmovhpd (%rdx), %xmm1, %xmm2 movq 29312(%rbx), %rdx vmovsd (%rdx), %xmm1 movq 29280(%rbx), %rdx vmovhpd (%rdx), %xmm1, %xmm6 movq 29056(%rbx), %rdx vmovsd (%rdx), %xmm1 movq 29024(%rbx), %rdx vmovhpd (%rdx), %xmm1, %xmm1 movq 29184(%rbx), %rax vmovsd (%rax), %xmm7 movq 29152(%rbx), %rdx vmovhpd (%rdx), %xmm7, %xmm7 vinsertf128 $1, %xmm1, %ymm7, %ymm1 vinsertf128 $1, %xmm2, %ymm6, %ymm2 vinsertf128 $1, %xmm4, %ymm5, %ymm7 vinsertf128 $1, %xmm0, %ymm3, %ymm8 movq 29248(%rbx), %rdx vmovsd (%rdx), %xmm0 movq 29216(%rbx), %rax vmovhpd (%rax), %xmm0, %xmm14 movq 29440(%rbx), %rax vmovsd (%rax), %xmm0 movq 29408(%rbx), %rax vmovhpd (%rax), %xmm0, %xmm6 movq 30304(%rbx), %rdx vmovsd (%rdx), %xmm0 movq 30272(%rbx), %rdx vmovhpd (%rdx), %xmm0, %xmm3 movq 30368(%rbx), %rdx vmovsd (%rdx), %xmm0 movq 30336(%rbx), %rdx vmovhpd (%rdx), %xmm0, %xmm11 movq 28224(%rbx), %rax vmovsd (%rax), %xmm0 movq 28192(%rbx), %rax vmovhpd (%rax), %xmm0, %xmm9 movq 28480(%rbx), %rax vmovsd (%rax), %xmm0 movq 28448(%rbx), %rax vmovhpd (%rax), %xmm0, %xmm5 movq 28416(%rbx), %rax vmovsd (%rax), %xmm0 movq 28384(%rbx), %rax vmovhpd (%rax), %xmm0, %xmm0 movq 28672(%rbx), %rax vmovsd (%rax), %xmm4 movq 28640(%rbx), %rax vmovhpd (%rax), %xmm4, %xmm10 movq 30816(%rbx), %rdx vmovsd (%rdx), %xmm4 movq 30976(%rbx), %rdx vmovhpd (%rdx), %xmm4, %xmm4 vmovapd %xmm4, 31808(%rbx) movq 30848(%rbx), %rdx vmovsd (%rdx), %xmm4 movq 31008(%rbx), %rax vmovhpd (%rax), %xmm4, %xmm4 vmovapd %ymm4, 31136(%rbx) movq 30880(%rbx), %rdx vmovsd (%rdx), %xmm4 movq 30912(%rbx), %rdx vmovhpd (%rdx), %xmm4, %xmm13 vmovsd (%r14), %xmm4 movq 30944(%rbx), %rdx vmovhpd (%rdx), %xmm4, %xmm12 movq 27936(%rbx), %rax vmovsd (%rax), %xmm4 movq 27904(%rbx), %rax vmovhpd (%rax), %xmm4, %xmm4 vmovapd %xmm4, 26528(%rbx) movq 28064(%rbx), %rax vmovsd (%rax), %xmm4 movq 28032(%rbx), %rax vmovhpd (%rax), %xmm4, %xmm4 vmovapd %ymm4, 26496(%rbx) vmulpd %ymm15, %ymm8, %ymm4 vaddpd %ymm4, %ymm7, %ymm4 vmovapd %ymm4, 31104(%rbx) vmulpd %ymm15, %ymm7, %ymm4 vaddpd %ymm8, %ymm4, %ymm4 vmovapd %ymm4, 26848(%rbx) vmulpd %ymm15, %ymm2, %ymm4 vaddpd %ymm1, %ymm4, %ymm4 vmovapd %ymm4, 26464(%rbx) vmulpd %ymm15, %ymm1, %ymm1 vaddpd %ymm1, %ymm2, %ymm1 vmovapd %ymm1, 26336(%rbx) vinsertf128 $1, %xmm3, %ymm11, %ymm1 vmovapd %ymm1, 23968(%rbx) vinsertf128 $1, %xmm14, %ymm6, %ymm1 vmovapd %ymm1, 23904(%rbx) movq 27488(%rbx), %rax vmovsd (%rax), %xmm1 movq 27456(%rbx), %rax vmovhpd (%rax), %xmm1, %xmm1 vmovapd %xmm1, 26432(%rbx) movq 28128(%rbx), %rdx vmovsd (%rdx), %xmm1 movq 28096(%rbx), %rdx vmovhpd (%rdx), %xmm1, %xmm1 vmovapd %xmm1, 23936(%rbx) movq 28288(%rbx), %rdx vmovsd (%rdx), %xmm1 movq 28256(%rbx), %rdx vmovhpd (%rdx), %xmm1, %xmm1 vmovapd %ymm1, 23840(%rbx) vinsertf128 $1, %xmm0, %ymm10, %ymm14 vinsertf128 $1, %xmm9, %ymm5, %ymm3 movq 27680(%rbx), %rax vmovsd (%rax), %xmm0 movq 27648(%rbx), %rax vmovhpd (%rax), %xmm0, %xmm8 movq 30080(%rbx), %rdx vmovsd (%rdx), %xmm0 movq 30048(%rbx), %rdx vmovhpd (%rdx), %xmm0, %xmm7 movq 28160(%rbx), %rdx vmovsd (%rdx), %xmm0 movq 30112(%rbx), %rdx vmovhpd (%rdx), %xmm0, %xmm4 movq 27616(%rbx), %rax vmovsd (%rax), %xmm0 movq 27584(%rbx), %rdx vmovhpd (%rdx), %xmm0, %xmm0 vmovapd %xmm0, 23072(%rbx) movq 27808(%rbx), %rdx vmovsd (%rdx), %xmm0 movq 27776(%rbx), %rdx vmovhpd (%rdx), %xmm0, %xmm1 movq 29696(%rbx), %rdx vmovsd (%rdx), %xmm0 movq 29664(%rbx), %rdx vmovhpd (%rdx), %xmm0, %xmm0 vmovapd %xmm0, 26560(%rbx) movq 29824(%rbx), %rdx vmovsd (%rdx), %xmm0 movq 29792(%rbx), %rdx vmovhpd (%rdx), %xmm0, %xmm0 vmovapd %ymm0, 26304(%rbx) movq 29760(%rbx), %rdx vmovsd (%rdx), %xmm0 movq 29728(%rbx), %rdx vmovhpd (%rdx), %xmm0, %xmm0 vmovapd %xmm0, 23808(%rbx) movq 29952(%rbx), %rdx vmovsd (%rdx), %xmm0 movq 29920(%rbx), %rdx vmovhpd (%rdx), %xmm0, %xmm0 vmovapd %ymm0, 23104(%rbx) movq 30432(%rbx), %rdx vmovsd (%rdx), %xmm0 movq 30400(%rbx), %rdx vmovhpd (%rdx), %xmm0, %xmm0 vmovapd %xmm0, 23136(%rbx) movq 30496(%rbx), %rdx vmovsd (%rdx), %xmm0 movq 30464(%rbx), %rdx vmovhpd (%rdx), %xmm0, %xmm2 movq 28864(%rbx), %rdx vmovsd (%rdx), %xmm0 movq 28832(%rbx), %rdx vmovhpd (%rdx), %xmm0, %xmm5 movq 28992(%rbx), %rdx vmovsd (%rdx), %xmm0 movq 28960(%rbx), %rdx vmovhpd (%rdx), %xmm0, %xmm9 vinsertf128 $1, %xmm13, %ymm12, %ymm13 vmovapd 31136(%rbx), %ymm0 vinsertf128 $1, 31808(%rbx), %ymm0, %ymm12 movq 29504(%rbx), %rdx vmovsd (%rdx), %xmm0 movq 29472(%rbx), %rdx vmovhpd (%rdx), %xmm0, %xmm0 vmovapd %xmm0, 26272(%rbx) movq 29632(%rbx), %rdx vmovsd (%rdx), %xmm0 movq 29600(%rbx), %rdx vmovhpd (%rdx), %xmm0, %xmm0 vmovapd %ymm0, 23872(%rbx) vmovapd 26496(%rbx), %ymm0 vinsertf128 $1, 26528(%rbx), %ymm0, %ymm0 movq 30176(%rbx), %rdx vmovsd (%rdx), %xmm11 movq 30144(%rbx), %rdx vmovhpd (%rdx), %xmm11, %xmm6 vmovapd %xmm6, 26496(%rbx) movq 30240(%rbx), %rdx vmovsd (%rdx), %xmm6 movq 30208(%rbx), %rax vmovhpd (%rax), %xmm6, %xmm6 vmovapd %ymm6, 24000(%rbx) vmovapd 23904(%rbx), %ymm6 vmulpd %ymm15, %ymm6, %ymm6 vmovapd 26336(%rbx), %ymm10 vaddpd %ymm6, %ymm10, %ymm10 vmovapd %ymm10, 31808(%rbx) vmovapd 26464(%rbx), %ymm10 vaddpd %ymm6, %ymm10, %ymm6 vmovapd %ymm6, 31136(%rbx) vmovapd 23968(%rbx), %ymm6 vmulpd %ymm15, %ymm6, %ymm6 vmovapd 26848(%rbx), %ymm10 vaddpd %ymm6, %ymm10, %ymm10 vmovapd %ymm10, 26848(%rbx) vmovapd 31104(%rbx), %ymm10 vaddpd %ymm6, %ymm10, %ymm6 vmovapd %ymm6, 26528(%rbx) vmovaps 23840(%rbx), %ymm6 vinsertf128 $1, 23936(%rbx), %ymm6, %ymm6 vmovaps %ymm6, 26464(%rbx) vinsertf128 $1, %xmm7, %ymm4, %ymm4 vmovapd %ymm4, 23904(%rbx) vinsertf128 $1, 26432(%rbx), %ymm8, %ymm10 movq 30016(%rbx), %rax vmovsd (%rax), %xmm4 movq 29984(%rbx), %rax vmovhpd (%rax), %xmm4, %xmm4 vmovapd %ymm4, 23968(%rbx) vmulpd %ymm15, %ymm3, %ymm4 vaddpd %ymm4, %ymm14, %ymm4 vmovapd %ymm4, 31104(%rbx) vmulpd %ymm15, %ymm14, %ymm4 vaddpd %ymm3, %ymm4, %ymm3 vmovapd %ymm3, 26432(%rbx) vinsertf128 $1, 23072(%rbx), %ymm1, %ymm1 vmovapd %ymm1, 23936(%rbx) movq 28800(%rbx), %rax vmovsd (%rax), %xmm1 movq 28768(%rbx), %rax vmovhpd (%rax), %xmm1, %xmm1 vmovapd %ymm1, 26336(%rbx) movq 27104(%rbx), %rax vmovsd (%rax), %xmm1 movq 27072(%rbx), %rax vmovhpd (%rax), %xmm1, %xmm1 vmovapd %ymm1, 23840(%rbx) movq 29568(%rbx), %rax vmovsd (%rax), %xmm1 movq 29536(%rbx), %rax vmovhpd (%rax), %xmm1, %xmm1 vmovapd %ymm1, 23072(%rbx) movq 27424(%rbx), %rax vmovsd (%rax), %xmm1 movq 27392(%rbx), %rax vmovhpd (%rax), %xmm1, %xmm8 movq 29888(%rbx), %rax vmovsd (%rax), %xmm1 movq 29856(%rbx), %rax vmovhpd (%rax), %xmm1, %xmm6 vinsertf128 $1, %xmm5, %ymm9, %ymm1 vmovapd %ymm1, 23040(%rbx) vinsertf128 $1, 23136(%rbx), %ymm2, %ymm1 vmovapd %ymm1, 23136(%rbx) vmovapd 23104(%rbx), %ymm1 vinsertf128 $1, 23808(%rbx), %ymm1, %ymm1 vmovapd 26304(%rbx), %ymm2 vinsertf128 $1, 26560(%rbx), %ymm2, %ymm9 movq 28352(%rbx), %rax vmovsd (%rax), %xmm2 movq 28320(%rbx), %rax vmovhpd (%rax), %xmm2, %xmm2 vmovapd %xmm2, 26560(%rbx) movq 28608(%rbx), %rax vmovsd (%rax), %xmm2 movq 28576(%rbx), %rax vmovhpd (%rax), %xmm2, %xmm2 vmovapd %ymm2, 26304(%rbx) movq 28544(%rbx), %rax vmovsd (%rax), %xmm2 movq 28512(%rbx), %rax vmovhpd (%rax), %xmm2, %xmm2 vmovapd %xmm2, 23104(%rbx) movq 26976(%rbx), %rax vmovsd (%rax), %xmm2 movq 26944(%rbx), %rax vmovhpd (%rax), %xmm2, %xmm2 movq 29376(%rbx), %rax vmovsd (%rax), %xmm3 movq 29344(%rbx), %rax vmovhpd (%rax), %xmm3, %xmm4 movq 27232(%rbx), %rax vmovsd (%rax), %xmm3 movq 27200(%rbx), %rax vmovhpd (%rax), %xmm3, %xmm5 vmulpd %ymm15, %ymm12, %ymm3 vaddpd %ymm13, %ymm3, %ymm3 vmovapd %ymm3, 23808(%rbx) vmulpd %ymm15, %ymm13, %ymm3 vaddpd %ymm3, %ymm12, %ymm3 vmovapd %ymm3, 23008(%rbx) vmovapd 23872(%rbx), %ymm3 vinsertf128 $1, 26272(%rbx), %ymm3, %ymm13 movq 28928(%rbx), %rax vmovsd (%rax), %xmm3 movq 28896(%rbx), %rax vmovhpd (%rax), %xmm3, %xmm3 vmovapd %ymm3, 23872(%rbx) movq 27040(%rbx), %rax vmovsd (%rax), %xmm3 movq 27008(%rbx), %rax vmovhpd (%rax), %xmm3, %xmm3 vmovapd %xmm3, 22976(%rbx) movq 27296(%rbx), %rax vmovsd (%rax), %xmm3 movq 27264(%rbx), %rax vmovhpd (%rax), %xmm3, %xmm3 vmovaps 24000(%rbx), %ymm7 vinsertf128 $1, 26496(%rbx), %ymm7, %ymm7 vmovaps %ymm7, 24000(%rbx) movq 28736(%rbx), %rax vmovsd (%rax), %xmm7 movq 28704(%rbx), %rax vmovhpd (%rax), %xmm7, %xmm11 vmulpd %ymm15, %ymm10, %ymm7 vaddpd %ymm7, %ymm0, %ymm7 vmovapd %ymm7, 26496(%rbx) vmulpd %ymm15, %ymm0, %ymm0 vaddpd %ymm10, %ymm0, %ymm0 vmovapd %ymm0, 26272(%rbx) vmovapd 23904(%rbx), %ymm0 vmulpd %ymm15, %ymm0, %ymm0 vmovapd 26848(%rbx), %ymm7 vaddpd %ymm0, %ymm7, %ymm10 vmovapd 26528(%rbx), %ymm7 vaddpd %ymm0, %ymm7, %ymm0 vmovapd %ymm0, 26528(%rbx) vmovapd 26464(%rbx), %ymm0 vmulpd %ymm15, %ymm0, %ymm0 vmovapd 31136(%rbx), %ymm7 vaddpd %ymm0, %ymm7, %ymm14 vmovapd 31808(%rbx), %ymm7 vaddpd %ymm0, %ymm7, %ymm0 vmovapd %ymm0, 23904(%rbx) vmovapd 23968(%rbx), %ymm0 vinsertf128 $1, %xmm6, %ymm0, %ymm12 vinsertf128 $1, %xmm5, %ymm8, %ymm0 vmovapd %ymm0, 23968(%rbx) vmovapd 23072(%rbx), %ymm0 vinsertf128 $1, %xmm4, %ymm0, %ymm6 vmovapd 23936(%rbx), %ymm0 vmulpd %ymm15, %ymm0, %ymm0 vmovapd 26432(%rbx), %ymm4 vaddpd %ymm0, %ymm4, %ymm4 vmovapd %ymm4, 31136(%rbx) vmovapd 31104(%rbx), %ymm4 vaddpd %ymm0, %ymm4, %ymm0 vmovapd %ymm0, 31104(%rbx) vmovapd 23840(%rbx), %ymm0 vinsertf128 $1, %xmm2, %ymm0, %ymm0 vmovapd %ymm0, 26464(%rbx) vmovapd 26336(%rbx), %ymm0 vinsertf128 $1, 23104(%rbx), %ymm0, %ymm2 vmovapd 26304(%rbx), %ymm0 vinsertf128 $1, 26560(%rbx), %ymm0, %ymm4 movq 27872(%rbx), %rax vmovsd (%rax), %xmm0 movq 27840(%rbx), %rcx vmovhpd (%rcx), %xmm0, %xmm8 vmulpd %ymm15, %ymm9, %ymm0 vaddpd %ymm0, %ymm1, %ymm7 vmulpd %ymm15, %ymm1, %ymm0 vaddpd %ymm9, %ymm0, %ymm0 vmovapd %ymm0, 31808(%rbx) vmovapd 23136(%rbx), %ymm0 vmulpd %ymm15, %ymm0, %ymm1 vmovapd 23008(%rbx), %ymm0 vaddpd %ymm1, %ymm0, %ymm0 vmovapd 23808(%rbx), %ymm5 vaddpd %ymm1, %ymm5, %ymm1 vmovapd %ymm1, 26560(%rbx) vmovapd 23040(%rbx), %ymm5 vmulpd %ymm15, %ymm5, %ymm1 vaddpd %ymm13, %ymm1, %ymm1 vmovapd %ymm1, 26336(%rbx) vmulpd %ymm15, %ymm13, %ymm1 vaddpd %ymm1, %ymm5, %ymm9 vinsertf128 $1, 22976(%rbx), %ymm3, %ymm1 vmovapd %ymm1, 26304(%rbx) vmovapd 23872(%rbx), %ymm1 vinsertf128 $1, %xmm11, %ymm1, %ymm3 vmulpd %ymm15, %ymm14, %ymm1 vaddpd %ymm1, %ymm10, %ymm1 vmovapd %ymm1, 26848(%rbx) vmulpd %ymm15, %ymm10, %ymm1 vaddpd %ymm14, %ymm1, %ymm1 vmovapd %ymm1, 26432(%rbx) vmovapd 24000(%rbx), %ymm1 vmulpd %ymm15, %ymm1, %ymm11 vaddpd %ymm11, %ymm0, %ymm0 vmulpd %ymm15, %ymm12, %ymm10 vaddpd %ymm10, %ymm7, %ymm7 vmulpd %ymm15, %ymm6, %ymm1 vmovapd %ymm1, 24000(%rbx) vaddpd %ymm1, %ymm7, %ymm6 vmulpd %ymm15, %ymm6, %ymm6 vaddpd %ymm6, %ymm0, %ymm0 vmovapd %ymm0, 23936(%rbx) vmovapd 23904(%rbx), %ymm0 vmulpd %ymm15, %ymm0, %ymm0 vmovapd 26528(%rbx), %ymm1 vaddpd %ymm0, %ymm1, %ymm6 vmovapd 23968(%rbx), %ymm0 vmulpd %ymm15, %ymm0, %ymm0 vmovapd 26272(%rbx), %ymm1 vaddpd %ymm0, %ymm1, %ymm12 vmovapd 26496(%rbx), %ymm1 vaddpd %ymm0, %ymm1, %ymm5 movq 28000(%rbx), %rdx vmovsd (%rdx), %xmm0 movq 27968(%rbx), %rax vmovhpd (%rax), %xmm0, %xmm0 vinsertf128 $1, %xmm8, %ymm0, %ymm14 vmulpd %ymm15, %ymm4, %ymm0 vaddpd %ymm0, %ymm2, %ymm0 vmovapd %ymm0, 26528(%rbx) vmulpd %ymm15, %ymm2, %ymm0 vaddpd %ymm4, %ymm0, %ymm4 vmovapd 26464(%rbx), %ymm0 vmulpd %ymm15, %ymm0, %ymm0 vmovapd 31104(%rbx), %ymm1 vaddpd %ymm0, %ymm1, %ymm8 vmovapd 31136(%rbx), %ymm1 vaddpd %ymm0, %ymm1, %ymm13 movq 27552(%rbx), %rax vmovsd (%rax), %xmm0 movq 27520(%rbx), %rax vmovhpd (%rax), %xmm0, %xmm0 movq 27744(%rbx), %rax vmovsd (%rax), %xmm2 movq 27712(%rbx), %rax vmovhpd (%rax), %xmm2, %xmm2 vinsertf128 $1, %xmm0, %ymm2, %ymm0 vmulpd %ymm15, %ymm3, %ymm3 vaddpd %ymm3, %ymm9, %ymm2 vmovapd 26336(%rbx), %ymm1 vaddpd %ymm3, %ymm1, %ymm1 vmovapd 26560(%rbx), %ymm3 vaddpd %ymm11, %ymm3, %ymm7 vmovapd 26304(%rbx), %ymm3 vmulpd %ymm15, %ymm3, %ymm3 vaddpd %ymm3, %ymm5, %ymm5 vmovapd %ymm5, 31136(%rbx) vaddpd %ymm3, %ymm12, %ymm9 vmovapd 31808(%rbx), %ymm3 vaddpd %ymm10, %ymm3, %ymm10 vmulpd %ymm15, %ymm8, %ymm3 vaddpd %ymm3, %ymm6, %ymm3 vmulpd %ymm15, %ymm14, %ymm11 vaddpd %ymm11, %ymm2, %ymm2 vmulpd %ymm15, %ymm2, %ymm2 vmovapd 23936(%rbx), %ymm5 vaddpd %ymm2, %ymm5, %ymm6 vmulpd %ymm15, %ymm13, %ymm2 vmovapd 26432(%rbx), %ymm5 vaddpd %ymm2, %ymm5, %ymm8 vmovapd 26848(%rbx), %ymm5 vaddpd %ymm2, %ymm5, %ymm12 vmulpd %ymm15, %ymm0, %ymm2 vaddpd %ymm2, %ymm4, %ymm0 vmovapd 26528(%rbx), %ymm4 vaddpd %ymm2, %ymm4, %ymm2 movq 27168(%rbx), %rdx vmovsd (%rdx), %xmm4 movq 27136(%rbx), %rdx vmovhpd (%rdx), %xmm4, %xmm4 movq 27360(%rbx), %rax vmovsd (%rax), %xmm5 movq 27328(%rbx), %rax vmovhpd (%rax), %xmm5, %xmm5 vinsertf128 $1, %xmm4, %ymm5, %ymm4 vmulpd %ymm15, %ymm4, %ymm4 vaddpd %ymm4, %ymm2, %ymm2 vaddpd %ymm4, %ymm0, %ymm13 vaddpd %ymm11, %ymm1, %ymm11 vaddpd 24000(%rbx), %ymm10, %ymm1 vmulpd %ymm15, %ymm9, %ymm0 vaddpd %ymm0, %ymm12, %ymm4 vaddpd %ymm0, %ymm8, %ymm9 vmulpd %ymm15, %ymm2, %ymm0 vaddpd %ymm0, %ymm6, %ymm0 vmovapd 31136(%rbx), %ymm2 vmulpd %ymm15, %ymm2, %ymm2 vaddpd %ymm2, %ymm3, %ymm5 vmulpd %ymm15, %ymm7, %ymm2 vmovapd %ymm7, %ymm8 vaddpd %ymm1, %ymm2, %ymm2 vmulpd %ymm15, %ymm11, %ymm7 vaddpd %ymm7, %ymm2, %ymm3 vmulpd %ymm15, %ymm13, %ymm2 vaddpd %ymm2, %ymm3, %ymm6 vmovapd 32864(%rbx), %ymm10 vmulpd %ymm10, %ymm10, %ymm3 vaddpd %ymm6, %ymm3, %ymm6 vmovapd 31840(%rbx), %ymm11 vmulpd %ymm6, %ymm11, %ymm6 vsubpd %ymm6, %ymm3, %ymm3 vmovapd %ymm3, 31808(%rbx) vmovapd 32896(%rbx), %ymm3 vmulpd %ymm10, %ymm3, %ymm6 vmulpd %ymm3, %ymm3, %ymm3 vaddpd %ymm3, %ymm0, %ymm0 vmulpd %ymm0, %ymm11, %ymm0 vmovapd %ymm11, %ymm12 vsubpd %ymm0, %ymm3, %ymm14 vmovapd %ymm14, 31104(%rbx) vmovapd 32928(%rbx), %ymm3 vmulpd %ymm3, %ymm3, %ymm0 vaddpd %ymm9, %ymm0, %ymm9 vmovapd 31872(%rbx), %ymm13 vmulpd %ymm9, %ymm13, %ymm9 vsubpd %ymm9, %ymm0, %ymm9 vmovapd 22944(%rbx), %ymm10 vmulpd %ymm3, %ymm10, %ymm0 vmulpd %ymm10, %ymm10, %ymm11 vaddpd %ymm0, %ymm4, %ymm4 vaddpd %ymm11, %ymm5, %ymm5 vmulpd %ymm4, %ymm13, %ymm10 vmulpd %ymm5, %ymm13, %ymm4 vsubpd %ymm4, %ymm11, %ymm4 vmovapd %ymm4, 32928(%rbx) vmulpd %ymm15, %ymm1, %ymm1 vaddpd %ymm1, %ymm8, %ymm1 vaddpd %ymm7, %ymm1, %ymm11 vmovapd .LCPI1_75(%rip), %ymm3 vmulpd %ymm3, %ymm4, %ymm1 vmulpd %ymm9, %ymm1, %ymm4 vmulpd %ymm3, %ymm14, %ymm1 vmulpd 31808(%rbx), %ymm1, %ymm1 vsubpd %ymm10, %ymm0, %ymm7 vaddpd %ymm2, %ymm11, %ymm0 vaddpd %ymm6, %ymm0, %ymm0 vmulpd %ymm0, %ymm12, %ymm0 vsubpd %ymm0, %ymm6, %ymm0 vmovapd .LCPI1_24(%rip), %ymm3 vmulpd %ymm3, %ymm0, %ymm0 vmulpd %ymm0, %ymm0, %ymm2 vsubpd %ymm1, %ymm2, %ymm1 vmulpd %ymm3, %ymm7, %ymm2 vmulpd %ymm2, %ymm2, %ymm6 vsubpd %ymm4, %ymm6, %ymm4 vmovdqa 192(%rdi,%r12), %ymm7 vmovdqa .LCPI1_78(%rip), %xmm5 vpaddd %xmm5, %xmm7, %xmm6 vmovdqa 26400(%rbx), %ymm3 vpaddd %xmm3, %xmm6, %xmm3 vmovd %xmm3, %eax movq 26880(%rbx), %rcx vmovupd 33056(%rbx,%rcx,8), %xmm8 vinsertf128 $1, 33072(%rbx,%rcx,8), %ymm8, %ymm12 vmovapd %ymm12, 26848(%rbx) vmovups 33024(%rbx,%rcx,8), %xmm9 vinsertf128 $1, 33040(%rbx,%rcx,8), %ymm9, %ymm3 vmovaps %ymm3, 26496(%rbx) movq 24032(%rbx), %rcx vmovupd 33024(%rbx,%rcx,8), %xmm10 vinsertf128 $1, 33040(%rbx,%rcx,8), %ymm10, %ymm8 vmovapd %ymm8, 31808(%rbx) vextractf128 $1, %ymm7, %xmm3 vpaddd %xmm5, %xmm3, %xmm3 vmovdqa %xmm3, 26528(%rbx) vsqrtpd %ymm4, %ymm4 vmovapd .LCPI1_25(%rip), %ymm3 vxorpd %ymm3, %ymm2, %ymm10 vsubpd %ymm2, %ymm4, %ymm2 vsubpd %ymm4, %ymm10, %ymm4 vsqrtpd %ymm1, %ymm1 vxorpd %ymm3, %ymm0, %ymm10 vsubpd %ymm0, %ymm1, %ymm0 vsubpd %ymm1, %ymm10, %ymm1 movslq %eax, %rax vmovupd 33056(%rbx,%rax,8), %xmm10 vinsertf128 $1, 33072(%rbx,%rax,8), %ymm10, %ymm7 vmovapd %ymm7, 26560(%rbx) vmovupd 33056(%rbx,%rcx,8), %xmm11 vinsertf128 $1, 33072(%rbx,%rcx,8), %ymm11, %ymm5 vmovapd %ymm5, 31136(%rbx) vmovupd 33024(%rbx,%rax,8), %xmm11 vinsertf128 $1, 33040(%rbx,%rax,8), %ymm11, %ymm11 vxorpd %ymm3, %ymm1, %ymm9 vxorpd %ymm3, %ymm0, %ymm14 vxorpd %ymm3, %ymm4, %ymm10 vxorpd %ymm3, %ymm2, %ymm13 vsubpd %ymm12, %ymm5, %ymm0 vmovapd 26496(%rbx), %ymm12 vmovapd .LCPI1_24(%rip), %ymm4 vmulpd %ymm4, %ymm0, %ymm1 vmovapd %ymm1, 32864(%rbx) vsubpd %ymm5, %ymm7, %ymm0 vmulpd %ymm4, %ymm0, %ymm0 vmovapd %ymm0, 31840(%rbx) vmulpd %ymm0, %ymm1, %ymm0 vcmpnlepd %ymm15, %ymm0, %ymm0 vmovapd %ymm0, 31872(%rbx) vextractf128 $1, %ymm0, %xmm1 vpshufd $8, %xmm1, %xmm2 vmovdqa %xmm2, 32896(%rbx) vpshufd $8, %xmm0, %xmm1 vmovlhps %xmm2, %xmm1, %xmm1 vmovapd 31104(%rbx), %ymm0 vmulpd %ymm4, %ymm0, %ymm3 vmovapd 32928(%rbx), %ymm0 vmulpd %ymm4, %ymm0, %ymm2 vmovapd %ymm4, %ymm5 vsubpd %ymm12, %ymm8, %ymm4 vmulpd %ymm5, %ymm4, %ymm0 vsubpd %ymm8, %ymm11, %ymm4 vmulpd %ymm5, %ymm4, %ymm8 vmovapd %ymm8, 31104(%rbx) vinsertf128 $1, 26528(%rbx), %ymm6, %ymm4 vmovaps %ymm4, 32928(%rbx) vdivpd %ymm3, %ymm14, %ymm4 vmovapd %ymm4, 21120(%rbx) vdivpd %ymm3, %ymm9, %ymm3 vmovapd %ymm3, 21088(%rbx) vcmpltpd %ymm4, %ymm3, %ymm3 vextractf128 $1, %ymm3, %xmm4 vpshufd $8, %xmm4, %xmm4 vpshufd $8, %xmm3, %xmm3 vmovlhps %xmm4, %xmm3, %xmm4 vdivpd %ymm2, %ymm13, %ymm3 vmovapd %ymm3, 21056(%rbx) vdivpd %ymm2, %ymm10, %ymm2 vmovapd %ymm2, 21024(%rbx) vcmpltpd %ymm3, %ymm2, %ymm2 vextractf128 $1, %ymm2, %xmm3 vpshufd $8, %xmm3, %xmm3 vpshufd $8, %xmm2, %xmm2 vmovlhps %xmm3, %xmm2, %xmm3 vmovdqa .LCPI1_20(%rip), %xmm5 vpshufb %xmm5, %xmm4, %xmm2 vpshufb %xmm5, %xmm1, %xmm1 vmovdqa %xmm5, %xmm14 vmulpd %ymm8, %ymm0, %ymm4 vcmpnlepd %ymm15, %ymm4, %ymm8 vextractf128 $1, %ymm8, %xmm4 vpshufd $8, %xmm4, %xmm7 vpshufd $8, %xmm8, %xmm4 vmovlhps %xmm7, %xmm4, %xmm4 vmovdqa .LCPI1_21(%rip), %xmm5 vpshufb %xmm5, %xmm3, %xmm3 vpshufb %xmm5, %xmm4, %xmm4 vmovdqa %xmm5, %xmm15 vpor %xmm2, %xmm3, %xmm2 vpor %xmm1, %xmm4, %xmm1 vpsllw $15, %xmm2, %xmm2 vpsraw $15, %xmm2, %xmm2 vpunpcklbw %xmm0, %xmm2, %xmm3 vpslld $31, %xmm3, %xmm3 vpsrad $31, %xmm3, %xmm3 vmovdqa %xmm3, 20192(%rbx) vpxor .LCPI1_17(%rip), %xmm1, %xmm1 vpmovsxdq %xmm3, %xmm3 vmovdqa %ymm3, 15840(%rbx) vpunpckhbw %xmm0, %xmm2, %xmm2 vpslld $31, %xmm2, %xmm2 vpsrad $31, %xmm2, %xmm2 vmovdqa %xmm2, 20160(%rbx) vpmovsxdq %xmm2, %xmm2 vmovdqa %ymm2, 15808(%rbx) vpmovzxwd %xmm1, %xmm2 vpslld $31, %xmm2, %xmm2 vpsrad $31, %xmm2, %xmm2 vpunpckhwd %xmm0, %xmm1, %xmm1 vpslld $31, %xmm1, %xmm1 vpsrad $31, %xmm1, %xmm1 vinsertf128 $1, %xmm1, %ymm2, %ymm1 vmovdqa 9472(%rbx), %ymm2 vptest %ymm2, %ymm1 vmovapd 9440(%rbx), %ymm1 vmovapd %ymm1, %ymm2 vmovapd %ymm1, %ymm6 jb .LBB1_3524 vsubpd %ymm12, %ymm11, %ymm1 vmovapd 26560(%rbx), %ymm2 vsubpd 26848(%rbx), %ymm2, %ymm2 vmovapd .LCPI1_28(%rip), %ymm3 vmulpd %ymm3, %ymm2, %ymm2 vmovapd %ymm2, 26560(%rbx) vmulpd %ymm3, %ymm1, %ymm3 vmovapd %ymm3, 26848(%rbx) vmovapd .LCPI1_56(%rip), %ymm6 vandpd %ymm6, %ymm2, %ymm10 vmovapd 32864(%rbx), %ymm1 vandpd %ymm6, %ymm1, %ymm13 vcmpltpd %ymm10, %ymm13, %ymm1 vextractf128 $1, %ymm1, %xmm2 vpshufd $8, %xmm2, %xmm2 vpshufd $8, %xmm1, %xmm1 vandpd %ymm6, %ymm3, %ymm12 vmovlhps %xmm2, %xmm1, %xmm1 vandpd %ymm6, %ymm0, %ymm3 vcmpltpd %ymm12, %ymm3, %ymm2 vextractf128 $1, %ymm2, %xmm4 vpshufd $8, %xmm4, %xmm4 vpshufd $8, %xmm2, %xmm2 vmovlhps %xmm4, %xmm2, %xmm2 vmovapd 31840(%rbx), %ymm9 vandpd %ymm6, %ymm9, %ymm11 vcmpltpd %ymm11, %ymm13, %ymm4 vextractf128 $1, %ymm4, %xmm5 vpshufd $8, %xmm5, %xmm5 vpshufd $8, %xmm4, %xmm4 vmovlhps %xmm5, %xmm4, %xmm4 vmovapd 31104(%rbx), %ymm13 vandpd %ymm6, %ymm13, %ymm5 vcmpltpd %ymm5, %ymm3, %ymm3 vextractf128 $1, %ymm3, %xmm6 vpshufd $8, %xmm6, %xmm6 vpshufd $8, %xmm3, %xmm3 vmovlhps %xmm6, %xmm3, %xmm3 vcmpltpd %ymm12, %ymm5, %ymm5 vpshufb %xmm15, %xmm3, %xmm3 vpshufb %xmm14, %xmm4, %xmm4 vpor %xmm4, %xmm3, %xmm3 vpshufb %xmm15, %xmm2, %xmm2 vpshufb %xmm14, %xmm1, %xmm1 vpor %xmm1, %xmm2, %xmm6 vextractf128 $1, %ymm5, %xmm1 vpshufd $8, %xmm1, %xmm1 vpshufd $8, %xmm5, %xmm2 vmovlhps %xmm1, %xmm2, %xmm1 vpshufd $8, %xmm8, %xmm2 vmovlhps %xmm7, %xmm2, %xmm2 vcmpltpd %ymm10, %ymm11, %ymm4 vpsllw $15, %xmm6, %xmm5 vpsraw $15, %xmm5, %xmm5 vmovdqa .LCPI1_17(%rip), %xmm6 vpxor %xmm6, %xmm5, %xmm5 vpsllw $15, %xmm3, %xmm3 vpsraw $15, %xmm3, %xmm3 vpxor %xmm6, %xmm3, %xmm3 vpor %xmm5, %xmm3, %xmm3 vextractf128 $1, %ymm4, %xmm5 vpshufd $8, %xmm5, %xmm5 vpshufd $8, %xmm4, %xmm4 vmovlhps %xmm5, %xmm4, %xmm5 vpshufb %xmm15, %xmm1, %xmm4 vpshufb %xmm15, %xmm2, %xmm1 vmovdqa 31872(%rbx), %ymm2 vpshufd $8, %xmm2, %xmm2 vmovaps 32896(%rbx), %xmm6 vmovlhps %xmm6, %xmm2, %xmm2 vpshufb %xmm14, %xmm2, %xmm2 vpor %xmm2, %xmm1, %xmm1 vpsllw $15, %xmm1, %xmm1 vpsraw $15, %xmm1, %xmm1 vpand %xmm3, %xmm1, %xmm1 vpshufb %xmm14, %xmm5, %xmm2 vpunpckhbw %xmm0, %xmm1, %xmm3 vpor %xmm2, %xmm4, %xmm2 vpslld $31, %xmm3, %xmm3 vpsllw $15, %xmm2, %xmm2 vpsraw $15, %xmm2, %xmm2 vpmovsxdq %xmm3, %xmm4 vmovhlps %xmm3, %xmm3, %xmm3 vpmovsxdq %xmm3, %xmm3 vinsertf128 $1, %xmm3, %ymm4, %ymm3 vpunpckhbw %xmm0, %xmm2, %xmm4 vpslld $31, %xmm4, %xmm5 vpmovsxdq %xmm5, %xmm4 vmovhlps %xmm5, %xmm5, %xmm5 vpmovsxdq %xmm5, %xmm5 vinsertf128 $1, %xmm5, %ymm4, %ymm4 vpunpcklbw %xmm0, %xmm1, %xmm1 vpslld $31, %xmm1, %xmm5 vpmovsxdq %xmm5, %xmm1 vmovhlps %xmm5, %xmm5, %xmm5 vpmovsxdq %xmm5, %xmm5 vpunpcklbw %xmm0, %xmm2, %xmm2 vmovapd 26560(%rbx), %ymm6 vblendvpd %ymm4, %ymm9, %ymm6, %ymm4 vmovapd 32864(%rbx), %ymm6 vblendvpd %ymm3, %ymm4, %ymm6, %ymm3 vmovapd .LCPI1_77(%rip), %ymm4 vmulpd %ymm4, %ymm3, %ymm6 vinsertf128 $1, %xmm5, %ymm1, %ymm1 vpslld $31, %xmm2, %xmm3 vpmovsxdq %xmm3, %xmm2 vmovhlps %xmm3, %xmm3, %xmm3 vpmovsxdq %xmm3, %xmm3 vinsertf128 $1, %xmm3, %ymm2, %ymm2 vmovapd 26848(%rbx), %ymm3 vblendvpd %ymm2, %ymm13, %ymm3, %ymm2 vblendvpd %ymm1, %ymm2, %ymm0, %ymm1 vmulpd %ymm4, %ymm1, %ymm2 .LBB1_3524: vmovapd %ymm2, 26528(%rbx) vmovapd %ymm6, 26560(%rbx) vpshufd $8, %xmm8, %xmm2 vmovdqa 31872(%rbx), %ymm0 vpshufd $8, %xmm0, %xmm0 vmovaps 32896(%rbx), %xmm1 vmovlhps %xmm1, %xmm0, %xmm1 vmovlhps %xmm7, %xmm2, %xmm0 vmovdqa 26368(%rbx), %ymm2 vmovdqa 32928(%rbx), %ymm3 vpaddd %xmm2, %xmm3, %xmm2 vmovd %xmm2, %eax movslq %eax, %rax vpshufb %xmm15, %xmm0, %xmm0 vpshufb %xmm14, %xmm1, %xmm3 vmovupd 33056(%rbx,%rax,8), %xmm4 movq 24288(%rbx), %rsi vmovupd 33056(%rbx,%rsi,8), %xmm2 movq 32064(%rbx), %rcx vmovupd 33056(%rbx,%rcx,8), %xmm1 vmovupd 33024(%rbx,%rsi,8), %xmm5 vmovupd 33024(%rbx,%rax,8), %xmm6 vpor %xmm3, %xmm0, %xmm0 vinsertf128 $1, 33072(%rbx,%rax,8), %ymm4, %ymm9 vinsertf128 $1, 33040(%rbx,%rax,8), %ymm6, %ymm10 vinsertf128 $1, 33072(%rbx,%rsi,8), %ymm2, %ymm3 vmovapd %ymm3, 31104(%rbx) vinsertf128 $1, 33072(%rbx,%rcx,8), %ymm1, %ymm11 vinsertf128 $1, 33040(%rbx,%rsi,8), %ymm5, %ymm2 vmovapd %ymm2, 26848(%rbx) vmovupd 33024(%rbx,%rcx,8), %xmm1 vinsertf128 $1, 33040(%rbx,%rcx,8), %ymm1, %ymm12 vpsllw $15, %xmm0, %xmm0 vpsraw $15, %xmm0, %xmm7 vpunpcklbw %xmm0, %xmm7, %xmm0 vpslld $31, %xmm0, %xmm0 vmovdqa %xmm0, 23968(%rbx) vpmovsxdq %xmm0, %xmm0 vmovdqa %ymm0, 26304(%rbx) vsubpd %ymm2, %ymm10, %ymm0 vsubpd %ymm12, %ymm2, %ymm2 vsubpd %ymm3, %ymm9, %ymm1 vsubpd %ymm11, %ymm3, %ymm3 vmovapd .LCPI1_24(%rip), %ymm4 vmulpd %ymm4, %ymm3, %ymm3 vmulpd %ymm4, %ymm1, %ymm13 vmulpd %ymm4, %ymm2, %ymm5 vmulpd %ymm4, %ymm0, %ymm2 vmovapd %ymm2, 31840(%rbx) vmulpd %ymm13, %ymm3, %ymm0 vmovapd %ymm3, %ymm4 vxorpd %ymm3, %ymm3, %ymm3 vcmpnlepd %ymm3, %ymm0, %ymm6 vmovapd %ymm6, 31872(%rbx) vextractf128 $1, %ymm6, %xmm0 vpshufd $8, %xmm0, %xmm1 vmovdqa %xmm1, 32896(%rbx) vpshufd $8, %xmm6, %xmm0 vmovlhps %xmm1, %xmm0, %xmm0 vpshufb %xmm14, %xmm0, %xmm0 vmovdqa %xmm14, %xmm8 vmulpd %ymm2, %ymm5, %ymm1 vcmpnlepd %ymm3, %ymm1, %ymm6 vextractf128 $1, %ymm6, %xmm1 vpshufd $8, %xmm1, %xmm2 vmovdqa %xmm2, 32864(%rbx) vpshufd $8, %xmm6, %xmm1 vmovlhps %xmm2, %xmm1, %xmm1 vpshufb %xmm15, %xmm1, %xmm1 vmovdqa %xmm15, %xmm14 vpor %xmm0, %xmm1, %xmm0 vpunpckhbw %xmm0, %xmm7, %xmm1 vpslld $31, %xmm1, %xmm1 vmovdqa %xmm1, 23904(%rbx) vpxor .LCPI1_17(%rip), %xmm0, %xmm0 vpmovsxdq %xmm1, %xmm1 vmovdqa %ymm1, 26272(%rbx) vpmovzxwd %xmm0, %xmm1 vpslld $31, %xmm1, %xmm1 vpsrad $31, %xmm1, %xmm3 vpunpckhwd %xmm0, %xmm0, %xmm0 vpslld $31, %xmm0, %xmm0 vpsrad $31, %xmm0, %xmm0 vinsertf128 $1, %xmm0, %ymm3, %ymm0 vmovdqa 9408(%rbx), %ymm1 vptest %ymm1, %ymm0 vmovapd 9376(%rbx), %ymm0 vmovapd %ymm0, %ymm1 vmovapd %ymm0, %ymm2 jb .LBB1_3526 vsubpd %ymm12, %ymm10, %ymm0 vsubpd %ymm11, %ymm9, %ymm1 vmovapd .LCPI1_28(%rip), %ymm3 vmulpd %ymm3, %ymm1, %ymm1 vmovapd %ymm1, 26432(%rbx) vmulpd %ymm3, %ymm0, %ymm2 vmovapd %ymm2, 26496(%rbx) vmovapd .LCPI1_56(%rip), %ymm9 vandpd %ymm9, %ymm1, %ymm7 vmovapd %ymm4, 26400(%rbx) vandpd %ymm9, %ymm4, %ymm15 vcmpltpd %ymm7, %ymm15, %ymm0 vextractf128 $1, %ymm0, %xmm1 vpshufd $8, %xmm1, %xmm3 vpshufd $8, %xmm0, %xmm0 vandpd %ymm9, %ymm2, %ymm12 vmovlhps %xmm3, %xmm0, %xmm3 vandpd %ymm9, %ymm5, %ymm4 vcmpltpd %ymm12, %ymm4, %ymm0 vextractf128 $1, %ymm0, %xmm1 vmovapd %ymm5, 26464(%rbx) vpshufd $8, %xmm1, %xmm5 vpshufd $8, %xmm0, %xmm0 vmovlhps %xmm5, %xmm0, %xmm0 vandpd %ymm9, %ymm13, %ymm11 vcmpltpd %ymm11, %ymm15, %ymm5 vextractf128 $1, %ymm5, %xmm1 vpshufd $8, %xmm1, %xmm1 vpshufd $8, %xmm5, %xmm5 vmovlhps %xmm1, %xmm5, %xmm5 vmovapd 31840(%rbx), %ymm10 vandpd %ymm9, %ymm10, %ymm15 vcmpltpd %ymm15, %ymm4, %ymm4 vextractf128 $1, %ymm4, %xmm1 vpshufd $8, %xmm1, %xmm1 vpshufd $8, %xmm4, %xmm4 vmovlhps %xmm1, %xmm4, %xmm1 vcmpltpd %ymm12, %ymm15, %ymm12 vpshufb %xmm14, %xmm1, %xmm1 vpshufb %xmm8, %xmm5, %xmm4 vpor %xmm4, %xmm1, %xmm4 vpshufb %xmm14, %xmm0, %xmm0 vpshufb %xmm8, %xmm3, %xmm1 vpor %xmm1, %xmm0, %xmm5 vextractf128 $1, %ymm12, %xmm0 vpshufd $8, %xmm0, %xmm0 vpshufd $8, %xmm12, %xmm1 vmovlhps %xmm0, %xmm1, %xmm0 vpshufd $8, %xmm6, %xmm1 vmovaps 32864(%rbx), %xmm2 vmovlhps %xmm2, %xmm1, %xmm3 vcmpltpd %ymm7, %ymm11, %ymm7 vpsllw $15, %xmm5, %xmm1 vpsraw $15, %xmm1, %xmm1 vmovdqa .LCPI1_17(%rip), %xmm2 vpxor %xmm2, %xmm1, %xmm5 vpsllw $15, %xmm4, %xmm1 vpsraw $15, %xmm1, %xmm1 vpxor %xmm2, %xmm1, %xmm1 vpor %xmm5, %xmm1, %xmm4 vextractf128 $1, %ymm7, %xmm1 vpshufd $8, %xmm1, %xmm1 vpshufd $8, %xmm7, %xmm5 vmovlhps %xmm1, %xmm5, %xmm5 vpshufb %xmm14, %xmm0, %xmm7 vpshufb %xmm14, %xmm3, %xmm0 vmovdqa 31872(%rbx), %ymm1 vpshufd $8, %xmm1, %xmm1 vmovaps 32896(%rbx), %xmm2 vmovlhps %xmm2, %xmm1, %xmm1 vpshufb %xmm8, %xmm1, %xmm1 vpor %xmm1, %xmm0, %xmm0 vpsllw $15, %xmm0, %xmm0 vpsraw $15, %xmm0, %xmm0 vpand %xmm4, %xmm0, %xmm0 vpshufb %xmm8, %xmm5, %xmm1 vpunpckhbw %xmm0, %xmm0, %xmm3 vpor %xmm1, %xmm7, %xmm1 vpslld $31, %xmm3, %xmm4 vpsllw $15, %xmm1, %xmm1 vpsraw $15, %xmm1, %xmm3 vpmovsxdq %xmm4, %xmm5 vmovhlps %xmm4, %xmm4, %xmm1 vpmovsxdq %xmm1, %xmm1 vinsertf128 $1, %xmm1, %ymm5, %ymm4 vpunpckhbw %xmm0, %xmm3, %xmm1 vpslld $31, %xmm1, %xmm1 vpmovsxdq %xmm1, %xmm5 vmovhlps %xmm1, %xmm1, %xmm1 vpmovsxdq %xmm1, %xmm1 vinsertf128 $1, %xmm1, %ymm5, %ymm5 vpunpcklbw %xmm0, %xmm0, %xmm0 vpslld $31, %xmm0, %xmm1 vpmovsxdq %xmm1, %xmm0 vmovhlps %xmm1, %xmm1, %xmm1 vpmovsxdq %xmm1, %xmm7 vpunpcklbw %xmm0, %xmm3, %xmm3 vmovapd 26432(%rbx), %ymm1 vblendvpd %ymm5, %ymm13, %ymm1, %ymm1 vmovapd 26400(%rbx), %ymm2 vblendvpd %ymm4, %ymm1, %ymm2, %ymm1 vmovapd .LCPI1_77(%rip), %ymm4 vmulpd %ymm4, %ymm1, %ymm2 vinsertf128 $1, %xmm7, %ymm0, %ymm0 vpslld $31, %xmm3, %xmm3 vpmovsxdq %xmm3, %xmm1 vmovhlps %xmm3, %xmm3, %xmm3 vpmovsxdq %xmm3, %xmm3 vinsertf128 $1, %xmm3, %ymm1, %ymm1 vmovapd 26496(%rbx), %ymm3 vblendvpd %ymm1, %ymm10, %ymm3, %ymm1 vmovapd 26464(%rbx), %ymm3 vblendvpd %ymm0, %ymm1, %ymm3, %ymm0 vmulpd %ymm4, %ymm0, %ymm1 .LBB1_3526: vmovapd %ymm1, 26400(%rbx) vmovapd %ymm2, 26432(%rbx) vpshufd $8, %xmm6, %xmm0 vmovdqa 31872(%rbx), %ymm1 vpshufd $8, %xmm1, %xmm1 vmovaps 32896(%rbx), %xmm2 vmovlhps %xmm2, %xmm1, %xmm1 vmovaps 32864(%rbx), %xmm2 vmovlhps %xmm2, %xmm0, %xmm0 vmovdqa 26080(%rbx), %ymm2 vmovdqa 32928(%rbx), %ymm3 vpaddd %xmm2, %xmm3, %xmm2 vmovd %xmm2, %eax movslq %eax, %rax vmovdqa %xmm14, %xmm7 vpshufb %xmm7, %xmm0, %xmm0 vpshufb %xmm8, %xmm1, %xmm3 vmovupd 33056(%rbx,%rax,8), %xmm4 movq 24256(%rbx), %rsi vmovupd 33056(%rbx,%rsi,8), %xmm2 movq 32096(%rbx), %rcx vmovupd 33056(%rbx,%rcx,8), %xmm1 vmovupd 33024(%rbx,%rsi,8), %xmm5 vmovupd 33024(%rbx,%rax,8), %xmm6 vpor %xmm3, %xmm0, %xmm0 vinsertf128 $1, 33072(%rbx,%rax,8), %ymm4, %ymm11 vinsertf128 $1, 33040(%rbx,%rax,8), %ymm6, %ymm13 vinsertf128 $1, 33072(%rbx,%rsi,8), %ymm2, %ymm3 vmovapd %ymm3, 26496(%rbx) vinsertf128 $1, 33072(%rbx,%rcx,8), %ymm1, %ymm14 vinsertf128 $1, 33040(%rbx,%rsi,8), %ymm5, %ymm2 vmovapd %ymm2, 26464(%rbx) vmovupd 33024(%rbx,%rcx,8), %xmm1 vinsertf128 $1, 33040(%rbx,%rcx,8), %ymm1, %ymm12 vpsllw $15, %xmm0, %xmm0 vpsraw $15, %xmm0, %xmm4 vpunpcklbw %xmm0, %xmm4, %xmm0 vpslld $31, %xmm0, %xmm0 vmovdqa %xmm0, 23872(%rbx) vpmovsxdq %xmm0, %xmm0 vmovdqa %ymm0, 24256(%rbx) vsubpd %ymm2, %ymm13, %ymm0 vsubpd %ymm12, %ymm2, %ymm2 vsubpd %ymm3, %ymm11, %ymm1 vsubpd %ymm14, %ymm3, %ymm3 vmovapd .LCPI1_24(%rip), %ymm5 vmulpd %ymm5, %ymm3, %ymm10 vmulpd %ymm5, %ymm1, %ymm3 vmovapd %ymm3, 31840(%rbx) vmulpd %ymm5, %ymm2, %ymm9 vmulpd %ymm5, %ymm0, %ymm1 vmovapd %ymm1, 31872(%rbx) vmulpd %ymm3, %ymm10, %ymm0 vxorpd %ymm5, %ymm5, %ymm5 vcmpnlepd %ymm5, %ymm0, %ymm15 vextractf128 $1, %ymm15, %xmm0 vpshufd $8, %xmm0, %xmm2 vpshufd $8, %xmm15, %xmm0 vmovlhps %xmm2, %xmm0, %xmm0 vpshufb %xmm8, %xmm0, %xmm0 vmulpd %ymm1, %ymm9, %ymm3 vcmpnlepd %ymm5, %ymm3, %ymm5 vmovapd %ymm5, 32864(%rbx) vextractf128 $1, %ymm5, %xmm3 vpshufd $8, %xmm3, %xmm1 vmovdqa %xmm1, 32896(%rbx) vpshufd $8, %xmm5, %xmm3 vmovlhps %xmm1, %xmm3, %xmm3 vpshufb %xmm7, %xmm3, %xmm3 vmovdqa %xmm7, %xmm8 vpor %xmm0, %xmm3, %xmm0 vpunpckhbw %xmm0, %xmm4, %xmm3 vpslld $31, %xmm3, %xmm3 vmovdqa %xmm3, 23840(%rbx) vpxor .LCPI1_17(%rip), %xmm0, %xmm0 vpmovsxdq %xmm3, %xmm3 vmovdqa %ymm3, 24032(%rbx) vpmovzxwd %xmm0, %xmm3 vpslld $31, %xmm3, %xmm3 vpsrad $31, %xmm3, %xmm3 vpunpckhwd %xmm0, %xmm0, %xmm0 vpslld $31, %xmm0, %xmm0 vpsrad $31, %xmm0, %xmm0 vinsertf128 $1, %xmm0, %ymm3, %ymm0 vmovdqa 9344(%rbx), %ymm3 vptest %ymm3, %ymm0 vmovapd 9312(%rbx), %ymm0 vmovapd %ymm0, %ymm3 vmovapd %ymm0, %ymm6 movq 25792(%rbx), %r11 movq 25536(%rbx), %r8 movq 25472(%rbx), %r14 movq 25408(%rbx), %r13 movq 25136(%rbx), %r10 movq 25120(%rbx), %r15 jb .LBB1_3528 vsubpd %ymm12, %ymm13, %ymm0 vsubpd %ymm14, %ymm11, %ymm3 vmovapd .LCPI1_28(%rip), %ymm4 vmulpd %ymm4, %ymm3, %ymm1 vmovapd %ymm1, 26080(%rbx) vmulpd %ymm4, %ymm0, %ymm4 vmovapd %ymm4, 26368(%rbx) vmovapd .LCPI1_56(%rip), %ymm11 vandpd %ymm11, %ymm1, %ymm13 vmovdqa %ymm15, %ymm1 vmovapd %ymm10, 24288(%rbx) vandpd %ymm11, %ymm10, %ymm15 vcmpltpd %ymm13, %ymm15, %ymm0 vextractf128 $1, %ymm0, %xmm3 vpshufd $8, %xmm3, %xmm3 vpshufd $8, %xmm0, %xmm0 vandpd %ymm11, %ymm4, %ymm14 vmovlhps %xmm3, %xmm0, %xmm3 vmovapd %ymm9, 26336(%rbx) vandpd %ymm11, %ymm9, %ymm5 vcmpltpd %ymm14, %ymm5, %ymm0 vextractf128 $1, %ymm0, %xmm4 vpshufd $8, %xmm4, %xmm4 vpshufd $8, %xmm0, %xmm0 vmovlhps %xmm4, %xmm0, %xmm4 vmovapd 31840(%rbx), %ymm9 vandpd %ymm11, %ymm9, %ymm12 vcmpltpd %ymm12, %ymm15, %ymm0 vextractf128 $1, %ymm0, %xmm6 vpshufd $8, %xmm6, %xmm6 vpshufd $8, %xmm0, %xmm0 vmovlhps %xmm6, %xmm0, %xmm0 vmovapd 31872(%rbx), %ymm10 vandpd %ymm11, %ymm10, %ymm15 vcmpltpd %ymm15, %ymm5, %ymm5 vextractf128 $1, %ymm5, %xmm6 vpshufd $8, %xmm6, %xmm6 vpshufd $8, %xmm5, %xmm5 vmovlhps %xmm6, %xmm5, %xmm5 vcmpltpd %ymm14, %ymm15, %ymm14 vmovdqa %ymm1, %ymm15 vpshufb %xmm8, %xmm5, %xmm5 vmovdqa .LCPI1_20(%rip), %xmm7 vpshufb %xmm7, %xmm0, %xmm0 vpor %xmm0, %xmm5, %xmm5 vpshufb %xmm8, %xmm4, %xmm0 vpshufb %xmm7, %xmm3, %xmm3 vpor %xmm3, %xmm0, %xmm0 vextractf128 $1, %ymm14, %xmm3 vpshufd $8, %xmm3, %xmm3 vpshufd $8, %xmm14, %xmm4 vmovlhps %xmm3, %xmm4, %xmm3 vmovdqa 32864(%rbx), %ymm1 vpshufd $8, %xmm1, %xmm4 vmovaps 32896(%rbx), %xmm1 vmovlhps %xmm1, %xmm4, %xmm4 vcmpltpd %ymm13, %ymm12, %ymm1 vpsllw $15, %xmm0, %xmm0 vpsraw $15, %xmm0, %xmm0 vmovdqa .LCPI1_17(%rip), %xmm6 vpxor %xmm6, %xmm0, %xmm0 vpsllw $15, %xmm5, %xmm5 vpsraw $15, %xmm5, %xmm5 vpxor %xmm6, %xmm5, %xmm5 vpor %xmm0, %xmm5, %xmm5 vextractf128 $1, %ymm1, %xmm0 vpshufd $8, %xmm0, %xmm0 vpshufd $8, %xmm1, %xmm6 vmovlhps %xmm0, %xmm6, %xmm0 vpshufb %xmm8, %xmm3, %xmm1 vpshufb %xmm8, %xmm4, %xmm3 vpshufd $8, %xmm15, %xmm4 vmovlhps %xmm2, %xmm4, %xmm4 vpshufb %xmm7, %xmm4, %xmm4 vpor %xmm4, %xmm3, %xmm3 vpsllw $15, %xmm3, %xmm3 vpsraw $15, %xmm3, %xmm3 vpand %xmm5, %xmm3, %xmm3 vpshufb %xmm7, %xmm0, %xmm0 vpunpckhbw %xmm0, %xmm3, %xmm4 vpor %xmm0, %xmm1, %xmm5 vpslld $31, %xmm4, %xmm0 vpsllw $15, %xmm5, %xmm4 vpsraw $15, %xmm4, %xmm4 vpmovsxdq %xmm0, %xmm5 vmovhlps %xmm0, %xmm0, %xmm0 vpmovsxdq %xmm0, %xmm0 vinsertf128 $1, %xmm0, %ymm5, %ymm5 vpunpckhbw %xmm0, %xmm4, %xmm0 vpslld $31, %xmm0, %xmm6 vpmovsxdq %xmm6, %xmm0 vmovhlps %xmm6, %xmm6, %xmm6 vpmovsxdq %xmm6, %xmm6 vinsertf128 $1, %xmm6, %ymm0, %ymm0 vpunpcklbw %xmm0, %xmm3, %xmm3 vpslld $31, %xmm3, %xmm6 vpmovsxdq %xmm6, %xmm3 vmovhlps %xmm6, %xmm6, %xmm6 vpmovsxdq %xmm6, %xmm7 vpunpcklbw %xmm0, %xmm4, %xmm4 vmovapd 26080(%rbx), %ymm1 vblendvpd %ymm0, %ymm9, %ymm1, %ymm0 vmovapd 24288(%rbx), %ymm1 vblendvpd %ymm5, %ymm0, %ymm1, %ymm0 vmovapd .LCPI1_77(%rip), %ymm5 vmulpd %ymm5, %ymm0, %ymm6 vinsertf128 $1, %xmm7, %ymm3, %ymm0 vpslld $31, %xmm4, %xmm3 vpmovsxdq %xmm3, %xmm1 vmovhlps %xmm3, %xmm3, %xmm3 vpmovsxdq %xmm3, %xmm3 vinsertf128 $1, %xmm3, %ymm1, %ymm1 vmovapd 26368(%rbx), %ymm3 vblendvpd %ymm1, %ymm10, %ymm3, %ymm1 vmovapd 26336(%rbx), %ymm3 vblendvpd %ymm0, %ymm1, %ymm3, %ymm0 vmulpd %ymm5, %ymm0, %ymm3 .LBB1_3528: vmovapd %ymm3, 24288(%rbx) vmovapd %ymm6, 26080(%rbx) vmovdqa 32864(%rbx), %ymm0 vpshufd $8, %xmm0, %xmm0 vpshufd $8, %xmm15, %xmm1 vmovlhps %xmm2, %xmm1, %xmm1 vmovaps 32896(%rbx), %xmm2 vmovlhps %xmm2, %xmm0, %xmm0 vmovdqa 24320(%rbx), %ymm2 vmovdqa 32928(%rbx), %ymm3 vpaddd %xmm2, %xmm3, %xmm2 vmovd %xmm2, %eax movslq %eax, %rax vmovdqa %xmm8, %xmm9 vpshufb %xmm9, %xmm0, %xmm0 vmovdqa .LCPI1_20(%rip), %xmm7 vpshufb %xmm7, %xmm1, %xmm3 vmovupd 33056(%rbx,%rax,8), %xmm4 movq 24224(%rbx), %rdx vmovupd 33056(%rbx,%rdx,8), %xmm2 movq 32416(%rbx), %rsi vmovupd 33056(%rbx,%rsi,8), %xmm1 vmovupd 33024(%rbx,%rdx,8), %xmm5 vmovupd 33024(%rbx,%rax,8), %xmm6 vpor %xmm3, %xmm0, %xmm0 vinsertf128 $1, 33072(%rbx,%rax,8), %ymm4, %ymm14 vinsertf128 $1, 33040(%rbx,%rax,8), %ymm6, %ymm15 vinsertf128 $1, 33072(%rbx,%rdx,8), %ymm2, %ymm4 vmovapd %ymm4, 26368(%rbx) vinsertf128 $1, 33072(%rbx,%rsi,8), %ymm1, %ymm12 vinsertf128 $1, 33040(%rbx,%rdx,8), %ymm5, %ymm2 vmovapd %ymm2, 26336(%rbx) vmovupd 33024(%rbx,%rsi,8), %xmm1 vinsertf128 $1, 33040(%rbx,%rsi,8), %ymm1, %ymm6 vpsllw $15, %xmm0, %xmm0 vpsraw $15, %xmm0, %xmm1 vpunpcklbw %xmm0, %xmm1, %xmm0 vpslld $31, %xmm0, %xmm0 vmovdqa %xmm0, 23136(%rbx) vpmovsxdq %xmm0, %xmm0 vmovdqa %ymm0, 24000(%rbx) vsubpd %ymm2, %ymm15, %ymm0 vsubpd %ymm6, %ymm2, %ymm2 vsubpd %ymm4, %ymm14, %ymm3 vsubpd %ymm12, %ymm4, %ymm4 vmovapd .LCPI1_24(%rip), %ymm5 vmulpd %ymm5, %ymm4, %ymm8 vmulpd %ymm5, %ymm3, %ymm3 vmovapd %ymm3, 24224(%rbx) vmulpd %ymm5, %ymm2, %ymm10 vmulpd %ymm5, %ymm0, %ymm5 vmovapd %ymm5, 24320(%rbx) vmulpd %ymm3, %ymm8, %ymm0 vxorpd %ymm3, %ymm3, %ymm3 vcmpnlepd %ymm3, %ymm0, %ymm4 vmovapd %ymm4, 31872(%rbx) vextractf128 $1, %ymm4, %xmm0 vpshufd $8, %xmm0, %xmm2 vmovdqa %xmm2, 32896(%rbx) vpshufd $8, %xmm4, %xmm0 vmovlhps %xmm2, %xmm0, %xmm0 vpshufb %xmm7, %xmm0, %xmm2 vmovdqa %xmm7, %xmm13 vmulpd %ymm5, %ymm10, %ymm0 vcmpnlepd %ymm3, %ymm0, %ymm4 vmovapd %ymm4, 31840(%rbx) vextractf128 $1, %ymm4, %xmm0 vpshufd $8, %xmm0, %xmm3 vmovdqa %xmm3, 32864(%rbx) vpshufd $8, %xmm4, %xmm0 vmovlhps %xmm3, %xmm0, %xmm0 vpshufb %xmm9, %xmm0, %xmm0 vmovdqa %xmm9, %xmm11 vpor %xmm2, %xmm0, %xmm0 vpunpckhbw %xmm0, %xmm1, %xmm1 vpslld $31, %xmm1, %xmm2 vmovdqa %xmm2, 22976(%rbx) vpxor .LCPI1_17(%rip), %xmm0, %xmm1 vpmovsxdq %xmm2, %xmm0 vmovdqa %ymm0, 23936(%rbx) vpmovzxwd %xmm1, %xmm0 vpslld $31, %xmm0, %xmm0 vpsrad $31, %xmm0, %xmm0 vpunpckhwd %xmm0, %xmm1, %xmm1 vpslld $31, %xmm1, %xmm1 vpsrad $31, %xmm1, %xmm1 vinsertf128 $1, %xmm1, %ymm0, %ymm0 vmovdqa 9280(%rbx), %ymm1 vptest %ymm1, %ymm0 vmovapd 9248(%rbx), %ymm0 vmovapd %ymm0, %ymm1 vmovapd %ymm0, %ymm5 jb .LBB1_3530 vsubpd %ymm6, %ymm15, %ymm0 vsubpd %ymm12, %ymm14, %ymm1 vmovapd .LCPI1_28(%rip), %ymm2 vmulpd %ymm2, %ymm1, %ymm1 vmovapd %ymm1, 23104(%rbx) vmulpd %ymm2, %ymm0, %ymm3 vmovapd %ymm3, 23808(%rbx) vmovapd .LCPI1_56(%rip), %ymm5 vandpd %ymm5, %ymm1, %ymm7 vmovapd %ymm8, %ymm15 vandpd %ymm5, %ymm15, %ymm1 vcmpltpd %ymm7, %ymm1, %ymm0 vextractf128 $1, %ymm0, %xmm2 vpshufd $8, %xmm2, %xmm2 vpshufd $8, %xmm0, %xmm0 vandpd %ymm5, %ymm3, %ymm4 vmovlhps %xmm2, %xmm0, %xmm3 vmovapd %ymm10, %ymm14 vandpd %ymm5, %ymm14, %ymm6 vcmpltpd %ymm4, %ymm6, %ymm0 vextractf128 $1, %ymm0, %xmm2 vpshufd $8, %xmm2, %xmm2 vpshufd $8, %xmm0, %xmm0 vmovlhps %xmm2, %xmm0, %xmm2 vmovapd 24224(%rbx), %ymm8 vandpd %ymm5, %ymm8, %ymm12 vcmpltpd %ymm12, %ymm1, %ymm0 vextractf128 $1, %ymm0, %xmm1 vpshufd $8, %xmm1, %xmm1 vpshufd $8, %xmm0, %xmm0 vmovlhps %xmm1, %xmm0, %xmm1 vmovapd 24320(%rbx), %ymm10 vandpd %ymm5, %ymm10, %ymm0 vcmpltpd %ymm0, %ymm6, %ymm6 vextractf128 $1, %ymm6, %xmm5 vpshufd $8, %xmm5, %xmm9 vpshufd $8, %xmm6, %xmm5 vmovlhps %xmm9, %xmm5, %xmm6 vcmpltpd %ymm4, %ymm0, %ymm4 vpshufb %xmm11, %xmm6, %xmm0 vpshufb %xmm13, %xmm1, %xmm1 vpor %xmm1, %xmm0, %xmm1 vpshufb %xmm11, %xmm2, %xmm0 vpshufb %xmm13, %xmm3, %xmm2 vpor %xmm2, %xmm0, %xmm6 vextractf128 $1, %ymm4, %xmm0 vpshufd $8, %xmm0, %xmm0 vpshufd $8, %xmm4, %xmm2 vmovlhps %xmm0, %xmm2, %xmm2 vmovdqa 31840(%rbx), %ymm0 vpshufd $8, %xmm0, %xmm0 vmovaps 32864(%rbx), %xmm3 vmovlhps %xmm3, %xmm0, %xmm3 vcmpltpd %ymm7, %ymm12, %ymm4 vpsllw $15, %xmm6, %xmm0 vpsraw $15, %xmm0, %xmm0 vmovdqa .LCPI1_17(%rip), %xmm5 vpxor %xmm5, %xmm0, %xmm0 vpsllw $15, %xmm1, %xmm1 vpsraw $15, %xmm1, %xmm1 vpxor %xmm5, %xmm1, %xmm1 vpor %xmm0, %xmm1, %xmm1 vextractf128 $1, %ymm4, %xmm0 vpshufd $8, %xmm0, %xmm0 vpshufd $8, %xmm4, %xmm4 vmovlhps %xmm0, %xmm4, %xmm6 vpshufb %xmm11, %xmm2, %xmm4 vpshufb %xmm11, %xmm3, %xmm0 vmovdqa 31872(%rbx), %ymm2 vpshufd $8, %xmm2, %xmm2 vmovaps 32896(%rbx), %xmm3 vmovlhps %xmm3, %xmm2, %xmm2 vpshufb %xmm13, %xmm2, %xmm2 vpor %xmm2, %xmm0, %xmm0 vpsllw $15, %xmm0, %xmm0 vpsraw $15, %xmm0, %xmm0 vpand %xmm1, %xmm0, %xmm2 vpshufb %xmm13, %xmm6, %xmm0 vpunpckhbw %xmm0, %xmm2, %xmm1 vpor %xmm0, %xmm4, %xmm3 vpslld $31, %xmm1, %xmm0 vpsllw $15, %xmm3, %xmm1 vpsraw $15, %xmm1, %xmm3 vpmovsxdq %xmm0, %xmm1 vmovhlps %xmm0, %xmm0, %xmm0 vpmovsxdq %xmm0, %xmm0 vinsertf128 $1, %xmm0, %ymm1, %ymm1 vpunpckhbw %xmm0, %xmm3, %xmm0 vpslld $31, %xmm0, %xmm4 vpmovsxdq %xmm4, %xmm0 vmovhlps %xmm4, %xmm4, %xmm4 vpmovsxdq %xmm4, %xmm4 vinsertf128 $1, %xmm4, %ymm0, %ymm4 vpunpcklbw %xmm0, %xmm2, %xmm0 vpslld $31, %xmm0, %xmm0 vpmovsxdq %xmm0, %xmm2 vmovhlps %xmm0, %xmm0, %xmm0 vpmovsxdq %xmm0, %xmm0 vpunpcklbw %xmm0, %xmm3, %xmm3 vmovapd 23104(%rbx), %ymm5 vblendvpd %ymm4, %ymm8, %ymm5, %ymm4 vblendvpd %ymm1, %ymm4, %ymm15, %ymm1 vmovapd .LCPI1_77(%rip), %ymm4 vmulpd %ymm4, %ymm1, %ymm5 vinsertf128 $1, %xmm0, %ymm2, %ymm1 vpslld $31, %xmm3, %xmm2 vpmovsxdq %xmm2, %xmm0 vmovhlps %xmm2, %xmm2, %xmm2 vpmovsxdq %xmm2, %xmm2 vinsertf128 $1, %xmm2, %ymm0, %ymm0 vmovapd 23808(%rbx), %ymm2 vblendvpd %ymm0, %ymm10, %ymm2, %ymm0 vblendvpd %ymm1, %ymm0, %ymm14, %ymm0 vmulpd %ymm4, %ymm0, %ymm1 .LBB1_3530: vmovapd %ymm1, 24224(%rbx) vmovapd %ymm5, 24320(%rbx) vmovaps 23968(%rbx), %xmm0 vmovhlps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 23808(%rbx) vmovaps 23904(%rbx), %xmm0 vmovhlps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 23104(%rbx) vmovaps 23872(%rbx), %xmm0 vmovhlps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 23072(%rbx) vmovaps 23840(%rbx), %xmm0 vmovhlps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 23040(%rbx) vmovaps 23136(%rbx), %xmm0 vmovhlps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 23008(%rbx) vmovaps 22976(%rbx), %xmm0 vmovhlps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 22976(%rbx) vmovdqa 31840(%rbx), %ymm0 vpshufd $8, %xmm0, %xmm0 vmovdqa 31872(%rbx), %ymm1 vpshufd $8, %xmm1, %xmm1 vmovaps 32896(%rbx), %xmm2 vmovlhps %xmm2, %xmm1, %xmm1 vmovaps 32864(%rbx), %xmm2 vmovlhps %xmm2, %xmm0, %xmm0 vmovdqa 26112(%rbx), %ymm2 vmovdqa 32928(%rbx), %ymm3 vpaddd %xmm2, %xmm3, %xmm2 vmovd %xmm2, %eax movslq %eax, %rax vpshufb %xmm11, %xmm0, %xmm0 vpshufb %xmm13, %xmm1, %xmm2 vmovupd 33056(%rbx,%rax,8), %xmm3 movq 24192(%rbx), %rdx vmovupd 33056(%rbx,%rdx,8), %xmm4 movq 32448(%rbx), %rsi vmovupd 33056(%rbx,%rsi,8), %xmm1 vmovupd 33024(%rbx,%rdx,8), %xmm5 vmovupd 33024(%rbx,%rax,8), %xmm6 vpor %xmm2, %xmm0, %xmm0 vinsertf128 $1, 33072(%rbx,%rax,8), %ymm3, %ymm2 vinsertf128 $1, 33040(%rbx,%rax,8), %ymm6, %ymm3 vinsertf128 $1, 33072(%rbx,%rdx,8), %ymm4, %ymm8 vmovapd %ymm8, 31840(%rbx) vinsertf128 $1, 33072(%rbx,%rsi,8), %ymm1, %ymm4 vinsertf128 $1, 33040(%rbx,%rdx,8), %ymm5, %ymm5 vmovapd %ymm5, 26112(%rbx) vmovupd 33024(%rbx,%rsi,8), %xmm1 vinsertf128 $1, 33040(%rbx,%rsi,8), %ymm1, %ymm7 vpsllw $15, %xmm0, %xmm0 vpsraw $15, %xmm0, %xmm1 vpunpcklbw %xmm0, %xmm1, %xmm0 vpslld $31, %xmm0, %xmm0 vpmovsxdq %xmm0, %xmm6 vmovdqa %ymm6, 23872(%rbx) vmovhlps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 31872(%rbx) vsubpd %ymm5, %ymm3, %ymm0 vsubpd %ymm7, %ymm5, %ymm5 vsubpd %ymm8, %ymm2, %ymm6 vsubpd %ymm4, %ymm8, %ymm8 vmovapd .LCPI1_24(%rip), %ymm9 vmulpd %ymm9, %ymm8, %ymm10 vmulpd %ymm9, %ymm6, %ymm6 vmovapd %ymm6, 23968(%rbx) vmulpd %ymm9, %ymm5, %ymm8 vmulpd %ymm9, %ymm0, %ymm9 vmovapd %ymm9, 24192(%rbx) vmulpd %ymm6, %ymm10, %ymm0 vxorpd %ymm6, %ymm6, %ymm6 vcmpnlepd %ymm6, %ymm0, %ymm5 vmovapd %ymm5, 32896(%rbx) vextractf128 $1, %ymm5, %xmm0 vpshufd $8, %xmm0, %xmm15 vpshufd $8, %xmm5, %xmm0 vmovlhps %xmm15, %xmm0, %xmm0 vpshufb %xmm13, %xmm0, %xmm0 vmulpd %ymm9, %ymm8, %ymm5 vcmpnlepd %ymm6, %ymm5, %ymm6 vmovapd %ymm6, 32864(%rbx) vextractf128 $1, %ymm6, %xmm5 vpshufd $8, %xmm5, %xmm14 vpshufd $8, %xmm6, %xmm5 vmovlhps %xmm14, %xmm5, %xmm5 vpshufb %xmm11, %xmm5, %xmm5 vmovdqa %xmm11, %xmm12 vpor %xmm0, %xmm5, %xmm0 vpunpckhbw %xmm0, %xmm1, %xmm1 vpslld $31, %xmm1, %xmm1 vpxor .LCPI1_17(%rip), %xmm0, %xmm0 vpmovsxdq %xmm1, %xmm5 vmovdqa %ymm5, 23840(%rbx) vmovhlps %xmm1, %xmm1, %xmm1 vmovaps %xmm1, 22912(%rbx) vpmovzxwd %xmm0, %xmm1 vpslld $31, %xmm1, %xmm1 vpsrad $31, %xmm1, %xmm1 vpunpckhwd %xmm0, %xmm0, %xmm0 vpslld $31, %xmm0, %xmm0 vpsrad $31, %xmm0, %xmm0 vinsertf128 $1, %xmm0, %ymm1, %ymm0 vmovdqa 9216(%rbx), %ymm1 vptest %ymm1, %ymm0 vmovapd 9184(%rbx), %ymm0 vmovapd %ymm0, %ymm1 vmovapd %ymm0, %ymm9 jb .LBB1_3532 vsubpd %ymm7, %ymm3, %ymm0 vsubpd %ymm4, %ymm2, %ymm1 vmovapd .LCPI1_28(%rip), %ymm2 vmulpd %ymm2, %ymm1, %ymm1 vmovapd %ymm1, 22944(%rbx) vmulpd %ymm2, %ymm0, %ymm6 vmovapd %ymm6, 23904(%rbx) vmovapd .LCPI1_56(%rip), %ymm11 vandpd %ymm11, %ymm1, %ymm4 vmovapd %ymm10, 22880(%rbx) vandpd %ymm11, %ymm10, %ymm1 vcmpltpd %ymm4, %ymm1, %ymm0 vextractf128 $1, %ymm0, %xmm2 vpshufd $8, %xmm2, %xmm5 vpshufd $8, %xmm0, %xmm0 vmovaps %xmm14, %xmm3 vmovaps %xmm15, %xmm14 vandpd %ymm11, %ymm6, %ymm15 vmovlhps %xmm5, %xmm0, %xmm9 vmovapd %ymm8, 23136(%rbx) vandpd %ymm11, %ymm8, %ymm6 vcmpltpd %ymm15, %ymm6, %ymm0 vextractf128 $1, %ymm0, %xmm2 vpshufd $8, %xmm2, %xmm5 vpshufd $8, %xmm0, %xmm0 vmovlhps %xmm5, %xmm0, %xmm5 vmovapd 23968(%rbx), %ymm10 vandpd %ymm11, %ymm10, %ymm7 vcmpltpd %ymm7, %ymm1, %ymm0 vextractf128 $1, %ymm0, %xmm1 vpshufd $8, %xmm1, %xmm1 vpshufd $8, %xmm0, %xmm0 vmovlhps %xmm1, %xmm0, %xmm1 vmovapd 24192(%rbx), %ymm8 vandpd %ymm11, %ymm8, %ymm0 vcmpltpd %ymm0, %ymm6, %ymm6 vextractf128 $1, %ymm6, %xmm2 vpshufd $8, %xmm2, %xmm11 vpshufd $8, %xmm6, %xmm2 vmovlhps %xmm11, %xmm2, %xmm2 vcmpltpd %ymm15, %ymm0, %ymm6 vmovaps %xmm14, %xmm15 vmovaps %xmm3, %xmm14 vpshufb %xmm12, %xmm2, %xmm0 vpshufb %xmm13, %xmm1, %xmm1 vpor %xmm1, %xmm0, %xmm1 vpshufb %xmm12, %xmm5, %xmm0 vpshufb %xmm13, %xmm9, %xmm2 vpor %xmm2, %xmm0, %xmm0 vextractf128 $1, %ymm6, %xmm2 vpshufd $8, %xmm2, %xmm5 vpshufd $8, %xmm6, %xmm2 vmovlhps %xmm5, %xmm2, %xmm5 vmovdqa 32864(%rbx), %ymm2 vpshufd $8, %xmm2, %xmm2 vmovlhps %xmm14, %xmm2, %xmm6 vcmpltpd %ymm4, %ymm7, %ymm4 vpsllw $15, %xmm0, %xmm0 vpsraw $15, %xmm0, %xmm0 vmovdqa .LCPI1_17(%rip), %xmm2 vpxor %xmm2, %xmm0, %xmm0 vpsllw $15, %xmm1, %xmm1 vpsraw $15, %xmm1, %xmm1 vpxor %xmm2, %xmm1, %xmm1 vpor %xmm0, %xmm1, %xmm1 vextractf128 $1, %ymm4, %xmm0 vpshufd $8, %xmm0, %xmm0 vpshufd $8, %xmm4, %xmm2 vmovlhps %xmm0, %xmm2, %xmm7 vpshufb %xmm12, %xmm5, %xmm5 vpshufb %xmm12, %xmm6, %xmm0 vmovdqa 32896(%rbx), %ymm2 vpshufd $8, %xmm2, %xmm2 vmovlhps %xmm15, %xmm2, %xmm2 vpshufb %xmm13, %xmm2, %xmm2 vpor %xmm2, %xmm0, %xmm0 vpsllw $15, %xmm0, %xmm0 vpsraw $15, %xmm0, %xmm0 vpand %xmm1, %xmm0, %xmm4 vpshufb %xmm13, %xmm7, %xmm0 vpunpckhbw %xmm0, %xmm4, %xmm1 vpor %xmm0, %xmm5, %xmm2 vpslld $31, %xmm1, %xmm0 vpsllw $15, %xmm2, %xmm1 vpsraw $15, %xmm1, %xmm5 vpmovsxdq %xmm0, %xmm1 vmovhlps %xmm0, %xmm0, %xmm0 vpmovsxdq %xmm0, %xmm0 vinsertf128 $1, %xmm0, %ymm1, %ymm1 vpunpckhbw %xmm0, %xmm5, %xmm0 vpslld $31, %xmm0, %xmm6 vpmovsxdq %xmm6, %xmm0 vmovhlps %xmm6, %xmm6, %xmm2 vpmovsxdq %xmm2, %xmm2 vinsertf128 $1, %xmm2, %ymm0, %ymm0 vpunpcklbw %xmm0, %xmm4, %xmm2 vpslld $31, %xmm2, %xmm6 vpmovsxdq %xmm6, %xmm4 vmovhlps %xmm6, %xmm6, %xmm2 vpmovsxdq %xmm2, %xmm6 vpunpcklbw %xmm0, %xmm5, %xmm5 vmovapd 22944(%rbx), %ymm2 vblendvpd %ymm0, %ymm10, %ymm2, %ymm0 vmovapd 22880(%rbx), %ymm2 vblendvpd %ymm1, %ymm0, %ymm2, %ymm0 vmovapd .LCPI1_77(%rip), %ymm7 vmulpd %ymm7, %ymm0, %ymm9 vinsertf128 $1, %xmm6, %ymm4, %ymm0 vpslld $31, %xmm5, %xmm3 vpmovsxdq %xmm3, %xmm1 vmovhlps %xmm3, %xmm3, %xmm2 vpmovsxdq %xmm2, %xmm2 vinsertf128 $1, %xmm2, %ymm1, %ymm1 vmovapd 23904(%rbx), %ymm2 vblendvpd %ymm1, %ymm8, %ymm2, %ymm1 vmovapd 23136(%rbx), %ymm2 vblendvpd %ymm0, %ymm1, %ymm2, %ymm0 vmulpd %ymm7, %ymm0, %ymm1 .LBB1_3532: vmovapd %ymm1, 23904(%rbx) vmovapd %ymm9, 23968(%rbx) vmovdqa 23808(%rbx), %xmm0 vpmovsxdq %xmm0, %xmm0 vmovdqa %xmm0, 23136(%rbx) vmovdqa 23104(%rbx), %xmm0 vpmovsxdq %xmm0, %xmm0 vmovdqa %xmm0, 23104(%rbx) vmovdqa 23072(%rbx), %xmm0 vpmovsxdq %xmm0, %xmm0 vmovdqa %xmm0, 23072(%rbx) vmovdqa 23040(%rbx), %xmm0 vpmovsxdq %xmm0, %xmm0 vmovdqa %xmm0, 23040(%rbx) vmovdqa 23008(%rbx), %xmm0 vpmovsxdq %xmm0, %xmm0 vmovdqa %xmm0, 23008(%rbx) vmovdqa 22976(%rbx), %xmm0 vpmovsxdq %xmm0, %xmm0 vmovdqa %xmm0, 22976(%rbx) vmovdqa 31872(%rbx), %xmm0 vpmovsxdq %xmm0, %xmm0 vmovdqa %xmm0, 22944(%rbx) vmovdqa 22912(%rbx), %xmm0 vpmovsxdq %xmm0, %xmm0 vmovdqa %xmm0, 22912(%rbx) vmovdqa 32864(%rbx), %ymm0 vpshufd $8, %xmm0, %xmm0 vmovdqa 32896(%rbx), %ymm1 vpshufd $8, %xmm1, %xmm1 vmovlhps %xmm15, %xmm1, %xmm1 vmovlhps %xmm14, %xmm0, %xmm0 vmovdqa 26144(%rbx), %ymm2 vmovdqa 32928(%rbx), %ymm3 vpaddd %xmm2, %xmm3, %xmm2 vmovd %xmm2, %eax movslq %eax, %rax vmovdqa %xmm12, %xmm7 vpshufb %xmm7, %xmm0, %xmm0 vpshufb %xmm13, %xmm1, %xmm3 vmovupd 33056(%rbx,%rax,8), %xmm4 movq 24160(%rbx), %rdx vmovupd 33056(%rbx,%rdx,8), %xmm2 movq 32480(%rbx), %rsi vmovupd 33056(%rbx,%rsi,8), %xmm1 vmovupd 33024(%rbx,%rdx,8), %xmm5 vmovupd 33024(%rbx,%rax,8), %xmm6 vpor %xmm3, %xmm0, %xmm0 vinsertf128 $1, 33072(%rbx,%rax,8), %ymm4, %ymm14 vinsertf128 $1, 33040(%rbx,%rax,8), %ymm6, %ymm15 vinsertf128 $1, 33072(%rbx,%rdx,8), %ymm2, %ymm6 vmovapd %ymm6, 26144(%rbx) vinsertf128 $1, 33072(%rbx,%rsi,8), %ymm1, %ymm9 vinsertf128 $1, 33040(%rbx,%rdx,8), %ymm5, %ymm2 vmovapd %ymm2, 24192(%rbx) vmovupd 33024(%rbx,%rsi,8), %xmm1 vinsertf128 $1, 33040(%rbx,%rsi,8), %ymm1, %ymm1 vpsllw $15, %xmm0, %xmm0 vpsraw $15, %xmm0, %xmm3 vpunpcklbw %xmm0, %xmm3, %xmm0 vpslld $31, %xmm0, %xmm0 vpmovsxdq %xmm0, %xmm4 vmovdqa %ymm4, 22880(%rbx) vmovhlps %xmm0, %xmm0, %xmm0 vpmovsxdq %xmm0, %xmm0 vmovdqa %xmm0, 22848(%rbx) vsubpd %ymm2, %ymm15, %ymm0 vsubpd %ymm1, %ymm2, %ymm2 vsubpd %ymm6, %ymm14, %ymm4 vsubpd %ymm9, %ymm6, %ymm5 vmovapd .LCPI1_24(%rip), %ymm6 vmulpd %ymm6, %ymm5, %ymm10 vmulpd %ymm6, %ymm4, %ymm4 vmovapd %ymm4, 24160(%rbx) vmulpd %ymm6, %ymm2, %ymm8 vmulpd %ymm6, %ymm0, %ymm12 vmulpd %ymm4, %ymm10, %ymm0 vxorpd %ymm6, %ymm6, %ymm6 vcmpnlepd %ymm6, %ymm0, %ymm4 vmovapd %ymm4, 32864(%rbx) vextractf128 $1, %ymm4, %xmm0 vpshufd $8, %xmm0, %xmm2 vpshufd $8, %xmm4, %xmm0 vmovlhps %xmm2, %xmm0, %xmm0 vpshufb %xmm13, %xmm0, %xmm0 vmovdqa %xmm13, %xmm11 vmulpd %ymm12, %ymm8, %ymm5 vcmpnlepd %ymm6, %ymm5, %ymm6 vmovapd %ymm6, 31872(%rbx) vextractf128 $1, %ymm6, %xmm5 vpshufd $8, %xmm5, %xmm4 vmovdqa %xmm4, 32896(%rbx) vpshufd $8, %xmm6, %xmm5 vmovlhps %xmm4, %xmm5, %xmm5 vpshufb %xmm7, %xmm5, %xmm5 vmovdqa %xmm7, %xmm13 vpor %xmm0, %xmm5, %xmm0 vpunpckhbw %xmm0, %xmm3, %xmm3 vpslld $31, %xmm3, %xmm3 vpxor .LCPI1_17(%rip), %xmm0, %xmm0 vpmovsxdq %xmm3, %xmm4 vmovdqa %ymm4, 22816(%rbx) vmovhlps %xmm3, %xmm3, %xmm3 vpmovsxdq %xmm3, %xmm3 vmovdqa %xmm3, 22784(%rbx) vpmovzxwd %xmm0, %xmm3 vpslld $31, %xmm3, %xmm3 vpsrad $31, %xmm3, %xmm3 vpunpckhwd %xmm0, %xmm0, %xmm0 vpslld $31, %xmm0, %xmm0 vpsrad $31, %xmm0, %xmm0 vinsertf128 $1, %xmm0, %ymm3, %ymm0 vmovdqa 9152(%rbx), %ymm3 vptest %ymm3, %ymm0 vmovapd 9120(%rbx), %ymm0 vmovapd %ymm0, %ymm3 vmovapd %ymm0, %ymm6 jb .LBB1_3534 vsubpd %ymm1, %ymm15, %ymm0 vsubpd %ymm9, %ymm14, %ymm1 vmovapd .LCPI1_28(%rip), %ymm3 vmulpd %ymm3, %ymm1, %ymm1 vmovapd %ymm1, 22752(%rbx) vmulpd %ymm3, %ymm0, %ymm6 vmovapd %ymm6, 23808(%rbx) vmovapd .LCPI1_56(%rip), %ymm4 vandpd %ymm4, %ymm1, %ymm9 vmovapd %ymm10, %ymm1 vandpd %ymm4, %ymm1, %ymm5 vcmpltpd %ymm9, %ymm5, %ymm0 vextractf128 $1, %ymm0, %xmm3 vpshufd $8, %xmm3, %xmm3 vpshufd $8, %xmm0, %xmm0 vandpd %ymm4, %ymm6, %ymm15 vmovlhps %xmm3, %xmm0, %xmm7 vandpd %ymm4, %ymm8, %ymm6 vcmpltpd %ymm15, %ymm6, %ymm0 vextractf128 $1, %ymm0, %xmm3 vpshufd $8, %xmm3, %xmm3 vpshufd $8, %xmm0, %xmm0 vmovapd %ymm8, 22720(%rbx) vmovlhps %xmm3, %xmm0, %xmm8 vmovapd 24160(%rbx), %ymm10 vandpd %ymm4, %ymm10, %ymm14 vcmpltpd %ymm14, %ymm5, %ymm0 vextractf128 $1, %ymm0, %xmm3 vpshufd $8, %xmm3, %xmm3 vpshufd $8, %xmm0, %xmm0 vmovlhps %xmm3, %xmm0, %xmm0 vandpd %ymm4, %ymm12, %ymm5 vcmpltpd %ymm5, %ymm6, %ymm3 vextractf128 $1, %ymm3, %xmm6 vpshufd $8, %xmm6, %xmm6 vpshufd $8, %xmm3, %xmm3 vmovlhps %xmm6, %xmm3, %xmm3 vcmpltpd %ymm15, %ymm5, %ymm5 vpshufb %xmm13, %xmm3, %xmm3 vpshufb %xmm11, %xmm0, %xmm0 vpor %xmm0, %xmm3, %xmm6 vpshufb %xmm13, %xmm8, %xmm0 vpshufb %xmm11, %xmm7, %xmm3 vpor %xmm3, %xmm0, %xmm0 vextractf128 $1, %ymm5, %xmm3 vpshufd $8, %xmm3, %xmm3 vpshufd $8, %xmm5, %xmm5 vmovlhps %xmm3, %xmm5, %xmm5 vmovdqa 31872(%rbx), %ymm3 vpshufd $8, %xmm3, %xmm3 vmovaps 32896(%rbx), %xmm4 vmovlhps %xmm4, %xmm3, %xmm7 vcmpltpd %ymm9, %ymm14, %ymm8 vpsllw $15, %xmm0, %xmm0 vpsraw $15, %xmm0, %xmm0 vmovdqa .LCPI1_17(%rip), %xmm4 vpxor %xmm4, %xmm0, %xmm0 vpsllw $15, %xmm6, %xmm3 vpsraw $15, %xmm3, %xmm3 vpxor %xmm4, %xmm3, %xmm3 vpor %xmm0, %xmm3, %xmm6 vextractf128 $1, %ymm8, %xmm0 vpshufd $8, %xmm0, %xmm0 vpshufd $8, %xmm8, %xmm3 vmovlhps %xmm0, %xmm3, %xmm0 vpshufb %xmm13, %xmm5, %xmm5 vpshufb %xmm13, %xmm7, %xmm7 vmovdqa 32864(%rbx), %ymm3 vpshufd $8, %xmm3, %xmm3 vmovlhps %xmm2, %xmm3, %xmm3 vpshufb %xmm11, %xmm3, %xmm3 vpor %xmm3, %xmm7, %xmm3 vpsllw $15, %xmm3, %xmm3 vpsraw $15, %xmm3, %xmm3 vpand %xmm6, %xmm3, %xmm7 vpshufb %xmm11, %xmm0, %xmm0 vpunpckhbw %xmm0, %xmm7, %xmm3 vpor %xmm0, %xmm5, %xmm5 vpslld $31, %xmm3, %xmm0 vpsllw $15, %xmm5, %xmm3 vpsraw $15, %xmm3, %xmm5 vpmovsxdq %xmm0, %xmm3 vmovhlps %xmm0, %xmm0, %xmm0 vpmovsxdq %xmm0, %xmm0 vinsertf128 $1, %xmm0, %ymm3, %ymm6 vpunpckhbw %xmm0, %xmm5, %xmm0 vpslld $31, %xmm0, %xmm3 vpmovsxdq %xmm3, %xmm0 vmovhlps %xmm3, %xmm3, %xmm3 vpmovsxdq %xmm3, %xmm3 vinsertf128 $1, %xmm3, %ymm0, %ymm0 vpunpcklbw %xmm0, %xmm7, %xmm3 vpslld $31, %xmm3, %xmm3 vpmovsxdq %xmm3, %xmm7 vmovhlps %xmm3, %xmm3, %xmm3 vpmovsxdq %xmm3, %xmm3 vpunpcklbw %xmm0, %xmm5, %xmm5 vmovapd 22752(%rbx), %ymm4 vblendvpd %ymm0, %ymm10, %ymm4, %ymm0 vblendvpd %ymm6, %ymm0, %ymm1, %ymm0 vmovapd .LCPI1_77(%rip), %ymm4 vmulpd %ymm4, %ymm0, %ymm6 vinsertf128 $1, %xmm3, %ymm7, %ymm0 vpslld $31, %xmm5, %xmm3 vpmovsxdq %xmm3, %xmm1 vmovhlps %xmm3, %xmm3, %xmm3 vpmovsxdq %xmm3, %xmm3 vinsertf128 $1, %xmm3, %ymm1, %ymm1 vmovapd 23808(%rbx), %ymm3 vblendvpd %ymm1, %ymm12, %ymm3, %ymm1 vmovapd 22720(%rbx), %ymm3 vblendvpd %ymm0, %ymm1, %ymm3, %ymm0 vmulpd %ymm4, %ymm0, %ymm3 .LBB1_3534: vmovapd %ymm3, 23808(%rbx) vmovapd %ymm6, 24160(%rbx) vmovaps 26304(%rbx), %ymm0 vinsertf128 $1, 23136(%rbx), %ymm0, %ymm0 vmovaps %ymm0, 23136(%rbx) vmovaps 26272(%rbx), %ymm0 vinsertf128 $1, 23104(%rbx), %ymm0, %ymm0 vmovaps %ymm0, 23104(%rbx) vmovaps 24256(%rbx), %ymm0 vinsertf128 $1, 23072(%rbx), %ymm0, %ymm0 vmovaps %ymm0, 24256(%rbx) vmovaps 24032(%rbx), %ymm0 vinsertf128 $1, 23040(%rbx), %ymm0, %ymm0 vmovaps %ymm0, 24032(%rbx) vmovaps 24000(%rbx), %ymm0 vinsertf128 $1, 23008(%rbx), %ymm0, %ymm0 vmovaps %ymm0, 24000(%rbx) vmovaps 23936(%rbx), %ymm0 vinsertf128 $1, 22976(%rbx), %ymm0, %ymm0 vmovaps %ymm0, 23936(%rbx) vmovaps 23872(%rbx), %ymm0 vinsertf128 $1, 22944(%rbx), %ymm0, %ymm0 vmovaps %ymm0, 23872(%rbx) vmovaps 23840(%rbx), %ymm0 vinsertf128 $1, 22912(%rbx), %ymm0, %ymm0 vmovaps %ymm0, 23840(%rbx) vmovaps 22880(%rbx), %ymm0 vinsertf128 $1, 22848(%rbx), %ymm0, %ymm0 vmovaps %ymm0, 23072(%rbx) vmovaps 22816(%rbx), %ymm0 vinsertf128 $1, 22784(%rbx), %ymm0, %ymm0 vmovaps %ymm0, 23040(%rbx) vmovdqa 31872(%rbx), %ymm0 vpshufd $8, %xmm0, %xmm0 vmovdqa 32864(%rbx), %ymm1 vpshufd $8, %xmm1, %xmm1 vmovlhps %xmm2, %xmm1, %xmm1 vmovaps 32896(%rbx), %xmm2 vmovlhps %xmm2, %xmm0, %xmm0 vmovdqa 26176(%rbx), %ymm2 vmovdqa 32928(%rbx), %ymm3 vpaddd %xmm2, %xmm3, %xmm2 vmovd %xmm2, %eax movslq %eax, %rax vmovdqa %xmm13, %xmm7 vpshufb %xmm7, %xmm0, %xmm0 vpshufb %xmm11, %xmm1, %xmm3 vmovupd 33056(%rbx,%rax,8), %xmm4 movq 24128(%rbx), %rdx vmovupd 33056(%rbx,%rdx,8), %xmm2 movq 32512(%rbx), %rsi vmovupd 33056(%rbx,%rsi,8), %xmm1 vmovupd 33024(%rbx,%rdx,8), %xmm5 vmovupd 33024(%rbx,%rax,8), %xmm6 vpor %xmm3, %xmm0, %xmm0 vinsertf128 $1, 33072(%rbx,%rax,8), %ymm4, %ymm13 vinsertf128 $1, 33040(%rbx,%rax,8), %ymm6, %ymm15 vinsertf128 $1, 33072(%rbx,%rdx,8), %ymm2, %ymm4 vmovapd %ymm4, 26304(%rbx) vinsertf128 $1, 33072(%rbx,%rsi,8), %ymm1, %ymm12 vinsertf128 $1, 33040(%rbx,%rdx,8), %ymm5, %ymm3 vmovapd %ymm3, 26272(%rbx) vmovupd 33024(%rbx,%rsi,8), %xmm1 vinsertf128 $1, 33040(%rbx,%rsi,8), %ymm1, %ymm1 vpsllw $15, %xmm0, %xmm0 vpsraw $15, %xmm0, %xmm6 vpunpcklbw %xmm0, %xmm6, %xmm0 vpslld $31, %xmm0, %xmm2 vpmovsxdq %xmm2, %xmm0 vmovhlps %xmm2, %xmm2, %xmm2 vpmovsxdq %xmm2, %xmm2 vinsertf128 $1, %xmm2, %ymm0, %ymm0 vmovaps %ymm0, 23008(%rbx) vsubpd %ymm3, %ymm15, %ymm0 vsubpd %ymm1, %ymm3, %ymm2 vsubpd %ymm4, %ymm13, %ymm3 vsubpd %ymm12, %ymm4, %ymm4 vmovapd .LCPI1_24(%rip), %ymm5 vmulpd %ymm5, %ymm4, %ymm14 vmulpd %ymm5, %ymm3, %ymm3 vmovapd %ymm3, 24128(%rbx) vmulpd %ymm5, %ymm2, %ymm4 vmulpd %ymm5, %ymm0, %ymm5 vmovapd %ymm5, 26176(%rbx) vmulpd %ymm3, %ymm14, %ymm0 vxorpd %ymm3, %ymm3, %ymm3 vcmpnlepd %ymm3, %ymm0, %ymm8 vmovapd %ymm8, 31872(%rbx) vextractf128 $1, %ymm8, %xmm0 vpshufd $8, %xmm0, %xmm2 vmovdqa %xmm2, 32896(%rbx) vpshufd $8, %xmm8, %xmm0 vmovlhps %xmm2, %xmm0, %xmm0 vpshufb %xmm11, %xmm0, %xmm0 vmovdqa %xmm11, %xmm8 vmulpd %ymm5, %ymm4, %ymm2 vmovapd %ymm4, %ymm11 vcmpnlepd %ymm3, %ymm2, %ymm5 vextractf128 $1, %ymm5, %xmm2 vpshufd $8, %xmm2, %xmm3 vmovdqa %xmm3, 32864(%rbx) vpshufd $8, %xmm5, %xmm2 vmovlhps %xmm3, %xmm2, %xmm2 vpshufb %xmm7, %xmm2, %xmm2 vmovdqa %xmm7, %xmm10 vpor %xmm0, %xmm2, %xmm0 vpunpckhbw %xmm0, %xmm6, %xmm2 vpslld $31, %xmm2, %xmm3 vpxor .LCPI1_17(%rip), %xmm0, %xmm0 vpmovsxdq %xmm3, %xmm4 vmovhlps %xmm3, %xmm3, %xmm2 vpmovsxdq %xmm2, %xmm2 vinsertf128 $1, %xmm2, %ymm4, %ymm2 vmovaps %ymm2, 22976(%rbx) vpmovzxwd %xmm0, %xmm2 vpslld $31, %xmm2, %xmm2 vpsrad $31, %xmm2, %xmm3 vpunpckhwd %xmm0, %xmm0, %xmm0 vpslld $31, %xmm0, %xmm0 vpsrad $31, %xmm0, %xmm0 vinsertf128 $1, %xmm0, %ymm3, %ymm0 vmovdqa 9088(%rbx), %ymm2 vptest %ymm2, %ymm0 vmovapd 9056(%rbx), %ymm0 vmovapd %ymm0, %ymm9 vmovapd %ymm0, %ymm6 jb .LBB1_3536 vsubpd %ymm1, %ymm15, %ymm0 vsubpd %ymm12, %ymm13, %ymm1 vmovapd .LCPI1_28(%rip), %ymm2 vmulpd %ymm2, %ymm1, %ymm1 vmovapd %ymm1, 22880(%rbx) vmulpd %ymm2, %ymm0, %ymm4 vmovapd %ymm4, 22944(%rbx) vmovapd .LCPI1_56(%rip), %ymm6 vandpd %ymm6, %ymm1, %ymm1 vmovapd %ymm14, %ymm13 vandpd %ymm6, %ymm13, %ymm15 vcmpltpd %ymm1, %ymm15, %ymm0 vextractf128 $1, %ymm0, %xmm2 vpshufd $8, %xmm2, %xmm3 vpshufd $8, %xmm0, %xmm0 vandpd %ymm6, %ymm4, %ymm12 vmovlhps %xmm3, %xmm0, %xmm3 vmovapd %ymm11, 22912(%rbx) vandpd %ymm6, %ymm11, %ymm0 vcmpltpd %ymm12, %ymm0, %ymm4 vextractf128 $1, %ymm4, %xmm2 vpshufd $8, %xmm2, %xmm7 vpshufd $8, %xmm4, %xmm2 vmovlhps %xmm7, %xmm2, %xmm7 vmovapd 24128(%rbx), %ymm14 vandpd %ymm6, %ymm14, %ymm9 vcmpltpd %ymm9, %ymm15, %ymm4 vextractf128 $1, %ymm4, %xmm2 vpshufd $8, %xmm2, %xmm2 vpshufd $8, %xmm4, %xmm4 vmovlhps %xmm2, %xmm4, %xmm4 vmovapd 26176(%rbx), %ymm11 vandpd %ymm6, %ymm11, %ymm15 vcmpltpd %ymm15, %ymm0, %ymm0 vextractf128 $1, %ymm0, %xmm2 vpshufd $8, %xmm2, %xmm2 vpshufd $8, %xmm0, %xmm0 vmovlhps %xmm2, %xmm0, %xmm0 vcmpltpd %ymm12, %ymm15, %ymm12 vpshufb %xmm10, %xmm0, %xmm0 vpshufb %xmm8, %xmm4, %xmm2 vpor %xmm2, %xmm0, %xmm0 vpshufb %xmm10, %xmm7, %xmm2 vpshufb %xmm8, %xmm3, %xmm3 vpor %xmm3, %xmm2, %xmm4 vextractf128 $1, %ymm12, %xmm2 vpshufd $8, %xmm2, %xmm2 vpshufd $8, %xmm12, %xmm3 vmovlhps %xmm2, %xmm3, %xmm3 vpshufd $8, %xmm5, %xmm2 vmovaps 32864(%rbx), %xmm6 vmovlhps %xmm6, %xmm2, %xmm7 vcmpltpd %ymm1, %ymm9, %ymm1 vpsllw $15, %xmm4, %xmm2 vpsraw $15, %xmm2, %xmm2 vmovdqa .LCPI1_17(%rip), %xmm6 vpxor %xmm6, %xmm2, %xmm4 vpsllw $15, %xmm0, %xmm0 vpsraw $15, %xmm0, %xmm0 vpxor %xmm6, %xmm0, %xmm0 vpor %xmm4, %xmm0, %xmm0 vextractf128 $1, %ymm1, %xmm2 vpshufd $8, %xmm2, %xmm2 vpshufd $8, %xmm1, %xmm1 vmovlhps %xmm2, %xmm1, %xmm4 vpshufb %xmm10, %xmm3, %xmm3 vpshufb %xmm10, %xmm7, %xmm1 vmovdqa 31872(%rbx), %ymm2 vpshufd $8, %xmm2, %xmm2 vmovaps 32896(%rbx), %xmm6 vmovlhps %xmm6, %xmm2, %xmm2 vpshufb %xmm8, %xmm2, %xmm2 vpor %xmm2, %xmm1, %xmm1 vpsllw $15, %xmm1, %xmm1 vpsraw $15, %xmm1, %xmm1 vpand %xmm0, %xmm1, %xmm1 vpshufb %xmm8, %xmm4, %xmm0 vpunpckhbw %xmm0, %xmm1, %xmm2 vpor %xmm0, %xmm3, %xmm3 vpslld $31, %xmm2, %xmm0 vpsllw $15, %xmm3, %xmm2 vpsraw $15, %xmm2, %xmm3 vpmovsxdq %xmm0, %xmm4 vmovhlps %xmm0, %xmm0, %xmm0 vpmovsxdq %xmm0, %xmm0 vinsertf128 $1, %xmm0, %ymm4, %ymm0 vpunpckhbw %xmm0, %xmm3, %xmm2 vpslld $31, %xmm2, %xmm2 vpmovsxdq %xmm2, %xmm4 vmovhlps %xmm2, %xmm2, %xmm2 vpmovsxdq %xmm2, %xmm2 vinsertf128 $1, %xmm2, %ymm4, %ymm4 vpunpcklbw %xmm0, %xmm1, %xmm1 vpslld $31, %xmm1, %xmm2 vpmovsxdq %xmm2, %xmm1 vmovhlps %xmm2, %xmm2, %xmm2 vpmovsxdq %xmm2, %xmm7 vpunpcklbw %xmm0, %xmm3, %xmm3 vmovapd 22880(%rbx), %ymm2 vblendvpd %ymm4, %ymm14, %ymm2, %ymm2 vblendvpd %ymm0, %ymm2, %ymm13, %ymm0 vmovapd .LCPI1_77(%rip), %ymm4 vmulpd %ymm4, %ymm0, %ymm6 vinsertf128 $1, %xmm7, %ymm1, %ymm0 vpslld $31, %xmm3, %xmm2 vpmovsxdq %xmm2, %xmm1 vmovhlps %xmm2, %xmm2, %xmm2 vpmovsxdq %xmm2, %xmm2 vinsertf128 $1, %xmm2, %ymm1, %ymm1 vmovapd 22944(%rbx), %ymm2 vblendvpd %ymm1, %ymm11, %ymm2, %ymm1 vmovapd 22912(%rbx), %ymm2 vblendvpd %ymm0, %ymm1, %ymm2, %ymm0 vmulpd %ymm4, %ymm0, %ymm9 .LBB1_3536: vmovapd %ymm6, 22944(%rbx) movq 30720(%rbx), %rdx vmovapd .LCPI1_25(%rip), %ymm13 vmovapd 23136(%rbx), %ymm0 vblendvpd %ymm0, 26528(%rbx), %ymm13, %ymm0 vmovapd %ymm0, 26528(%rbx) vmovapd 23104(%rbx), %ymm0 vblendvpd %ymm0, 26560(%rbx), %ymm13, %ymm0 vmovapd %ymm0, 26560(%rbx) vmovapd 24256(%rbx), %ymm0 vblendvpd %ymm0, 26400(%rbx), %ymm13, %ymm0 vmovapd %ymm0, 26400(%rbx) vmovapd 24032(%rbx), %ymm0 vblendvpd %ymm0, 26432(%rbx), %ymm13, %ymm0 vmovapd %ymm0, 26432(%rbx) vmovapd 24000(%rbx), %ymm0 vblendvpd %ymm0, 24288(%rbx), %ymm13, %ymm0 vmovapd %ymm0, 26176(%rbx) vmovapd 23936(%rbx), %ymm0 vblendvpd %ymm0, 26080(%rbx), %ymm13, %ymm0 vmovapd %ymm0, 24128(%rbx) vmovapd 23872(%rbx), %ymm0 vblendvpd %ymm0, 24224(%rbx), %ymm13, %ymm0 vmovapd %ymm0, 24224(%rbx) vmovapd 23840(%rbx), %ymm0 vblendvpd %ymm0, 24320(%rbx), %ymm13, %ymm0 vmovapd %ymm0, 24032(%rbx) vmovapd 23072(%rbx), %ymm0 vblendvpd %ymm0, 23904(%rbx), %ymm13, %ymm0 vmovapd %ymm0, 24000(%rbx) vmovapd 23040(%rbx), %ymm0 vblendvpd %ymm0, 23968(%rbx), %ymm13, %ymm0 vmovapd %ymm0, 23968(%rbx) vmovapd 23008(%rbx), %ymm0 vblendvpd %ymm0, 23808(%rbx), %ymm13, %ymm0 vmovapd %ymm0, 23936(%rbx) vmovapd 22976(%rbx), %ymm0 vblendvpd %ymm0, 24160(%rbx), %ymm13, %ymm0 vmovapd %ymm0, 24160(%rbx) vpshufd $8, %xmm5, %xmm0 vmovdqa 31872(%rbx), %ymm1 vpshufd $8, %xmm1, %xmm1 vmovaps 32896(%rbx), %xmm2 vmovlhps %xmm2, %xmm1, %xmm1 vmovaps 32864(%rbx), %xmm2 vmovlhps %xmm2, %xmm0, %xmm0 vmovdqa 26208(%rbx), %ymm2 vmovdqa 32928(%rbx), %ymm3 vpaddd %xmm2, %xmm3, %xmm2 vmovd %xmm2, %eax movslq %eax, %rax vmovdqa %xmm10, %xmm15 vpshufb %xmm15, %xmm0, %xmm0 vpshufb %xmm8, %xmm1, %xmm2 vmovupd 33056(%rbx,%rax,8), %xmm4 movq 24096(%rbx), %r9 vmovupd 33056(%rbx,%r9,8), %xmm3 movq 32640(%rbx), %rsi vmovupd 33056(%rbx,%rsi,8), %xmm1 vmovupd 33024(%rbx,%r9,8), %xmm5 vmovupd 33024(%rbx,%rax,8), %xmm6 vpor %xmm2, %xmm0, %xmm0 vinsertf128 $1, 33072(%rbx,%rax,8), %ymm4, %ymm2 vinsertf128 $1, 33040(%rbx,%rax,8), %ymm6, %ymm10 vinsertf128 $1, 33072(%rbx,%r9,8), %ymm3, %ymm3 vmovapd %ymm3, 24288(%rbx) vinsertf128 $1, 33072(%rbx,%rsi,8), %ymm1, %ymm14 vinsertf128 $1, 33040(%rbx,%r9,8), %ymm5, %ymm4 vmovapd %ymm4, 24256(%rbx) vmovupd 33024(%rbx,%rsi,8), %xmm1 vinsertf128 $1, 33040(%rbx,%rsi,8), %ymm1, %ymm12 vpsllw $15, %xmm0, %xmm0 vpsraw $15, %xmm0, %xmm6 vpunpcklbw %xmm0, %xmm6, %xmm0 vpslld $31, %xmm0, %xmm1 vpmovsxdq %xmm1, %xmm0 vmovhlps %xmm1, %xmm1, %xmm1 vpmovsxdq %xmm1, %xmm1 vinsertf128 $1, %xmm1, %ymm0, %ymm0 vsubpd %ymm4, %ymm10, %ymm1 vsubpd %ymm12, %ymm4, %ymm4 vsubpd %ymm3, %ymm2, %ymm5 vsubpd %ymm14, %ymm3, %ymm3 vmovapd .LCPI1_24(%rip), %ymm7 vmulpd %ymm7, %ymm3, %ymm3 vmulpd %ymm7, %ymm5, %ymm5 vmulpd %ymm7, %ymm4, %ymm11 vmulpd %ymm7, %ymm1, %ymm4 vmovapd %ymm4, 26208(%rbx) vblendvpd %ymm0, %ymm9, %ymm13, %ymm0 vmovapd %ymm0, 31872(%rbx) vmulpd %ymm5, %ymm3, %ymm0 vmovapd %ymm3, %ymm7 vxorpd %ymm3, %ymm3, %ymm3 vcmpnlepd %ymm3, %ymm0, %ymm9 vextractf128 $1, %ymm9, %xmm0 vpshufd $8, %xmm0, %xmm1 vmovdqa %xmm1, 32896(%rbx) vpshufd $8, %xmm9, %xmm0 vmovlhps %xmm1, %xmm0, %xmm0 vpshufb %xmm8, %xmm0, %xmm0 vmulpd %ymm4, %ymm11, %ymm1 vcmpnlepd %ymm3, %ymm1, %ymm4 vextractf128 $1, %ymm4, %xmm1 vpshufd $8, %xmm1, %xmm3 vmovdqa %xmm3, 32864(%rbx) vpshufd $8, %xmm4, %xmm1 vmovlhps %xmm3, %xmm1, %xmm1 vpshufb %xmm15, %xmm1, %xmm1 vpor %xmm0, %xmm1, %xmm0 vpunpckhbw %xmm0, %xmm6, %xmm1 vpslld $31, %xmm1, %xmm1 vpxor .LCPI1_17(%rip), %xmm0, %xmm0 vpmovsxdq %xmm1, %xmm6 vmovhlps %xmm1, %xmm1, %xmm1 vpmovsxdq %xmm1, %xmm1 vinsertf128 $1, %xmm1, %ymm6, %ymm1 vblendvpd %ymm1, 22944(%rbx), %ymm13, %ymm1 vmovapd %ymm1, 24096(%rbx) vpmovzxwd %xmm0, %xmm1 vpslld $31, %xmm1, %xmm1 vpsrad $31, %xmm1, %xmm1 vpunpckhwd %xmm0, %xmm0, %xmm0 vpslld $31, %xmm0, %xmm0 vpsrad $31, %xmm0, %xmm0 vinsertf128 $1, %xmm0, %ymm1, %ymm0 vmovdqa 9024(%rbx), %ymm1 vptest %ymm1, %ymm0 vmovapd 8992(%rbx), %ymm0 vmovapd %ymm0, %ymm1 vmovapd %ymm0, %ymm13 jb .LBB1_3538 vsubpd %ymm12, %ymm10, %ymm0 vsubpd %ymm14, %ymm2, %ymm1 vmovapd .LCPI1_28(%rip), %ymm2 vmulpd %ymm2, %ymm1, %ymm1 vmovapd %ymm1, 23904(%rbx) vmulpd %ymm2, %ymm0, %ymm2 vmovapd %ymm2, 26080(%rbx) vmovapd .LCPI1_56(%rip), %ymm13 vmovdqa %ymm9, %ymm14 vandpd %ymm13, %ymm1, %ymm9 vmovapd %ymm7, 23872(%rbx) vandpd %ymm13, %ymm7, %ymm12 vcmpltpd %ymm9, %ymm12, %ymm0 vextractf128 $1, %ymm0, %xmm1 vpshufd $8, %xmm1, %xmm1 vpshufd $8, %xmm0, %xmm0 vandpd %ymm13, %ymm2, %ymm10 vmovlhps %xmm1, %xmm0, %xmm7 vmovapd %ymm11, 24320(%rbx) vandpd %ymm13, %ymm11, %ymm1 vcmpltpd %ymm10, %ymm1, %ymm0 vextractf128 $1, %ymm0, %xmm2 vpshufd $8, %xmm2, %xmm2 vpshufd $8, %xmm0, %xmm0 vmovlhps %xmm2, %xmm0, %xmm0 vandpd %ymm13, %ymm5, %ymm6 vcmpltpd %ymm6, %ymm12, %ymm2 vextractf128 $1, %ymm2, %xmm3 vpshufd $8, %xmm3, %xmm3 vpshufd $8, %xmm2, %xmm2 vmovlhps %xmm3, %xmm2, %xmm2 vmovapd 26208(%rbx), %ymm11 vandpd %ymm13, %ymm11, %ymm12 vcmpltpd %ymm12, %ymm1, %ymm1 vextractf128 $1, %ymm1, %xmm3 vpshufd $8, %xmm3, %xmm3 vpshufd $8, %xmm1, %xmm1 vmovlhps %xmm3, %xmm1, %xmm1 vcmpltpd %ymm10, %ymm12, %ymm10 vpshufb %xmm15, %xmm1, %xmm1 vpshufb %xmm8, %xmm2, %xmm2 vpor %xmm2, %xmm1, %xmm1 vpshufb %xmm15, %xmm0, %xmm0 vpshufb %xmm8, %xmm7, %xmm2 vpor %xmm2, %xmm0, %xmm2 vextractf128 $1, %ymm10, %xmm0 vpshufd $8, %xmm0, %xmm0 vpshufd $8, %xmm10, %xmm3 vmovlhps %xmm0, %xmm3, %xmm0 vpshufd $8, %xmm4, %xmm3 vmovaps 32864(%rbx), %xmm7 vmovlhps %xmm7, %xmm3, %xmm7 vcmpltpd %ymm9, %ymm6, %ymm6 vmovdqa %ymm14, %ymm9 vpsllw $15, %xmm2, %xmm2 vpsraw $15, %xmm2, %xmm2 vmovdqa .LCPI1_17(%rip), %xmm3 vpxor %xmm3, %xmm2, %xmm2 vpsllw $15, %xmm1, %xmm1 vpsraw $15, %xmm1, %xmm1 vpxor %xmm3, %xmm1, %xmm1 vpor %xmm2, %xmm1, %xmm1 vextractf128 $1, %ymm6, %xmm2 vpshufd $8, %xmm2, %xmm2 vpshufd $8, %xmm6, %xmm3 vmovlhps %xmm2, %xmm3, %xmm2 vpshufb %xmm15, %xmm0, %xmm6 vpshufb %xmm15, %xmm7, %xmm0 vpshufd $8, %xmm9, %xmm3 vmovaps 32896(%rbx), %xmm7 vmovlhps %xmm7, %xmm3, %xmm3 vpshufb %xmm8, %xmm3, %xmm3 vpor %xmm3, %xmm0, %xmm0 vpsllw $15, %xmm0, %xmm0 vpsraw $15, %xmm0, %xmm0 vpand %xmm1, %xmm0, %xmm0 vpshufb %xmm8, %xmm2, %xmm1 vpunpckhbw %xmm0, %xmm0, %xmm2 vpor %xmm1, %xmm6, %xmm3 vpslld $31, %xmm2, %xmm1 vpsllw $15, %xmm3, %xmm2 vpsraw $15, %xmm2, %xmm6 vpmovsxdq %xmm1, %xmm2 vmovhlps %xmm1, %xmm1, %xmm1 vpmovsxdq %xmm1, %xmm1 vinsertf128 $1, %xmm1, %ymm2, %ymm1 vpunpckhbw %xmm0, %xmm6, %xmm2 vpslld $31, %xmm2, %xmm3 vpmovsxdq %xmm3, %xmm2 vmovhlps %xmm3, %xmm3, %xmm3 vpmovsxdq %xmm3, %xmm3 vinsertf128 $1, %xmm3, %ymm2, %ymm2 vpunpcklbw %xmm0, %xmm0, %xmm0 vpslld $31, %xmm0, %xmm3 vpmovsxdq %xmm3, %xmm0 vmovhlps %xmm3, %xmm3, %xmm3 vpmovsxdq %xmm3, %xmm7 vpunpcklbw %xmm0, %xmm6, %xmm6 vmovapd 23904(%rbx), %ymm3 vblendvpd %ymm2, %ymm5, %ymm3, %ymm2 vmovapd 23872(%rbx), %ymm3 vblendvpd %ymm1, %ymm2, %ymm3, %ymm1 vmovapd .LCPI1_77(%rip), %ymm3 vmulpd %ymm3, %ymm1, %ymm13 vinsertf128 $1, %xmm7, %ymm0, %ymm0 vpslld $31, %xmm6, %xmm2 vpmovsxdq %xmm2, %xmm1 vmovhlps %xmm2, %xmm2, %xmm2 vpmovsxdq %xmm2, %xmm2 vinsertf128 $1, %xmm2, %ymm1, %ymm1 vmovapd 26080(%rbx), %ymm2 vblendvpd %ymm1, %ymm11, %ymm2, %ymm1 vmovapd 24320(%rbx), %ymm2 vblendvpd %ymm0, %ymm1, %ymm2, %ymm0 vmulpd %ymm3, %ymm0, %ymm1 .LBB1_3538: vmovapd %ymm1, 23872(%rbx) vmovapd %ymm13, 23904(%rbx) vmovapd 31808(%rbx), %ymm0 vaddpd 26528(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 26528(%rbx) vmovapd 31136(%rbx), %ymm0 vaddpd 26560(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 26080(%rbx) vmovapd 26848(%rbx), %ymm0 vaddpd 26400(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 26400(%rbx) vmovapd 31104(%rbx), %ymm0 vaddpd 26432(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 24320(%rbx) vmovapd 26464(%rbx), %ymm0 vaddpd 26176(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 26464(%rbx) vmovapd 26496(%rbx), %ymm0 vaddpd 24128(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 31104(%rbx) vmovapd 26336(%rbx), %ymm0 vaddpd 24224(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 26432(%rbx) vmovapd 26368(%rbx), %ymm0 vaddpd 24032(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 26848(%rbx) vmovapd 26112(%rbx), %ymm0 vaddpd 24000(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 26336(%rbx) vmovapd 31840(%rbx), %ymm0 vaddpd 23968(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 26560(%rbx) vmovapd 24192(%rbx), %ymm0 vaddpd 23936(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 26176(%rbx) vmovapd 26144(%rbx), %ymm0 vaddpd 24160(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 31808(%rbx) vmovapd 26272(%rbx), %ymm0 vaddpd 31872(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 26208(%rbx) vmovapd 26304(%rbx), %ymm0 vaddpd 24096(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 26304(%rbx) vpshufd $8, %xmm4, %xmm0 vpshufd $8, %xmm9, %xmm1 vmovaps 32896(%rbx), %xmm2 vmovlhps %xmm2, %xmm1, %xmm1 vmovaps 32864(%rbx), %xmm2 vmovlhps %xmm2, %xmm0, %xmm0 vmovdqa 26240(%rbx), %ymm2 vmovdqa 32928(%rbx), %ymm3 vpaddd %xmm2, %xmm3, %xmm2 vmovd %xmm2, %eax movslq %eax, %rax vmovdqa %xmm15, %xmm13 vpshufb %xmm13, %xmm0, %xmm7 vmovdqa %xmm8, %xmm0 vpshufb %xmm0, %xmm1, %xmm3 vmovupd 33056(%rbx,%rax,8), %xmm4 movq 24064(%rbx), %rcx vmovupd 33056(%rbx,%rcx,8), %xmm2 movq 32736(%rbx), %rsi vmovupd 33056(%rbx,%rsi,8), %xmm1 vmovupd 33024(%rbx,%rcx,8), %xmm5 vmovupd 33024(%rbx,%rax,8), %xmm6 vpor %xmm3, %xmm7, %xmm3 vinsertf128 $1, 33072(%rbx,%rax,8), %ymm4, %ymm8 vinsertf128 $1, 33040(%rbx,%rax,8), %ymm6, %ymm10 vinsertf128 $1, 33072(%rbx,%rcx,8), %ymm2, %ymm4 vmovapd %ymm4, 26368(%rbx) vinsertf128 $1, 33072(%rbx,%rsi,8), %ymm1, %ymm11 vinsertf128 $1, 33040(%rbx,%rcx,8), %ymm5, %ymm5 vmovapd %ymm5, 31136(%rbx) vmovupd 33024(%rbx,%rsi,8), %xmm1 vinsertf128 $1, 33040(%rbx,%rsi,8), %ymm1, %ymm2 vpsllw $15, %xmm3, %xmm1 vpsraw $15, %xmm1, %xmm15 vpunpcklbw %xmm0, %xmm15, %xmm1 vpslld $31, %xmm1, %xmm3 vpmovsxdq %xmm3, %xmm1 vmovhlps %xmm3, %xmm3, %xmm3 vpmovsxdq %xmm3, %xmm3 vinsertf128 $1, %xmm3, %ymm1, %ymm1 vsubpd %ymm5, %ymm10, %ymm3 vsubpd %ymm2, %ymm5, %ymm6 vsubpd %ymm4, %ymm8, %ymm5 vsubpd %ymm11, %ymm4, %ymm4 vmovapd .LCPI1_24(%rip), %ymm7 vmulpd %ymm7, %ymm4, %ymm12 vmulpd %ymm7, %ymm5, %ymm4 vmovapd %ymm4, 26496(%rbx) vmulpd %ymm7, %ymm6, %ymm14 vmulpd %ymm7, %ymm3, %ymm9 vmovapd %ymm9, 31840(%rbx) vmovapd .LCPI1_25(%rip), %ymm7 vblendvpd %ymm1, 23872(%rbx), %ymm7, %ymm1 vmulpd %ymm4, %ymm12, %ymm3 vxorpd %ymm6, %ymm6, %ymm6 vcmpnlepd %ymm6, %ymm3, %ymm4 vmovapd %ymm4, 32928(%rbx) vextractf128 $1, %ymm4, %xmm3 vpshufd $8, %xmm3, %xmm5 vmovdqa %xmm5, 32896(%rbx) vpshufd $8, %xmm4, %xmm3 vmovlhps %xmm5, %xmm3, %xmm3 vpshufb %xmm0, %xmm3, %xmm3 vmulpd %ymm9, %ymm14, %ymm4 vcmpnlepd %ymm6, %ymm4, %ymm0 vmovapd %ymm0, 32864(%rbx) vextractf128 $1, %ymm0, %xmm4 vpshufd $8, %xmm4, %xmm5 vmovdqa %xmm5, 31872(%rbx) vpshufd $8, %xmm0, %xmm4 vmovlhps %xmm5, %xmm4, %xmm4 vpshufb %xmm13, %xmm4, %xmm4 vpor %xmm3, %xmm4, %xmm3 vmovapd 24256(%rbx), %ymm0 vaddpd %ymm1, %ymm0, %ymm0 vmovapd %ymm0, 26240(%rbx) vpunpckhbw %xmm0, %xmm15, %xmm1 vpslld $31, %xmm1, %xmm6 vpxor .LCPI1_17(%rip), %xmm3, %xmm1 vpmovsxdq %xmm6, %xmm3 vmovhlps %xmm6, %xmm6, %xmm4 vpmovsxdq %xmm4, %xmm4 vinsertf128 $1, %xmm4, %ymm3, %ymm3 vblendvpd %ymm3, 23904(%rbx), %ymm7, %ymm3 vpmovzxwd %xmm1, %xmm4 vpslld $31, %xmm4, %xmm4 vpsrad $31, %xmm4, %xmm6 vpunpckhwd %xmm0, %xmm1, %xmm1 vpslld $31, %xmm1, %xmm1 vpsrad $31, %xmm1, %xmm1 vinsertf128 $1, %xmm1, %ymm6, %ymm1 vmovapd 24288(%rbx), %ymm0 vaddpd %ymm3, %ymm0, %ymm0 vmovapd %ymm0, 26112(%rbx) vmovdqa 8960(%rbx), %ymm3 vptest %ymm3, %ymm1 vmovapd 8928(%rbx), %ymm1 vmovapd %ymm1, %ymm0 vmovapd %ymm1, %ymm4 jb .LBB1_3540 vsubpd %ymm2, %ymm10, %ymm1 vsubpd %ymm11, %ymm8, %ymm0 vmovapd .LCPI1_28(%rip), %ymm2 vmulpd %ymm2, %ymm0, %ymm0 vmovapd %ymm0, 26144(%rbx) vmulpd %ymm2, %ymm1, %ymm3 vmovapd %ymm3, 26272(%rbx) vmovapd .LCPI1_56(%rip), %ymm9 vandpd %ymm9, %ymm0, %ymm0 vmovapd %ymm12, %ymm11 vandpd %ymm9, %ymm11, %ymm10 vcmpltpd %ymm0, %ymm10, %ymm1 vextractf128 $1, %ymm1, %xmm2 vpshufd $8, %xmm2, %xmm2 vpshufd $8, %xmm1, %xmm1 vandpd %ymm9, %ymm3, %ymm8 vmovlhps %xmm2, %xmm1, %xmm1 vmovapd %ymm14, %ymm15 vandpd %ymm9, %ymm15, %ymm3 vcmpltpd %ymm8, %ymm3, %ymm2 vextractf128 $1, %ymm2, %xmm4 vpshufd $8, %xmm4, %xmm6 vpshufd $8, %xmm2, %xmm2 vmovlhps %xmm6, %xmm2, %xmm5 vmovapd 26496(%rbx), %ymm12 vandpd %ymm9, %ymm12, %ymm2 vcmpltpd %ymm2, %ymm10, %ymm6 vextractf128 $1, %ymm6, %xmm4 vpshufd $8, %xmm4, %xmm4 vpshufd $8, %xmm6, %xmm6 vmovlhps %xmm4, %xmm6, %xmm6 vmovapd 31840(%rbx), %ymm14 vandpd %ymm9, %ymm14, %ymm10 vcmpltpd %ymm10, %ymm3, %ymm3 vextractf128 $1, %ymm3, %xmm4 vpshufd $8, %xmm4, %xmm4 vpshufd $8, %xmm3, %xmm3 vmovlhps %xmm4, %xmm3, %xmm3 vcmpltpd %ymm8, %ymm10, %ymm8 vpshufb %xmm13, %xmm3, %xmm3 vmovdqa .LCPI1_20(%rip), %xmm7 vpshufb %xmm7, %xmm6, %xmm4 vpor %xmm4, %xmm3, %xmm3 vpshufb %xmm13, %xmm5, %xmm4 vpshufb %xmm7, %xmm1, %xmm1 vpor %xmm1, %xmm4, %xmm6 vextractf128 $1, %ymm8, %xmm1 vpshufd $8, %xmm1, %xmm1 vpshufd $8, %xmm8, %xmm4 vmovlhps %xmm1, %xmm4, %xmm1 vmovdqa 32864(%rbx), %ymm4 vpshufd $8, %xmm4, %xmm4 vmovaps 31872(%rbx), %xmm5 vmovlhps %xmm5, %xmm4, %xmm5 vcmpltpd %ymm0, %ymm2, %ymm2 vpsllw $15, %xmm6, %xmm0 vpsraw $15, %xmm0, %xmm0 vmovdqa .LCPI1_17(%rip), %xmm4 vpxor %xmm4, %xmm0, %xmm0 vpsllw $15, %xmm3, %xmm3 vpsraw $15, %xmm3, %xmm3 vpxor %xmm4, %xmm3, %xmm3 vpor %xmm0, %xmm3, %xmm0 vextractf128 $1, %ymm2, %xmm3 vpshufd $8, %xmm3, %xmm3 vpshufd $8, %xmm2, %xmm2 vmovlhps %xmm3, %xmm2, %xmm2 vpshufb %xmm13, %xmm1, %xmm1 vpshufb %xmm13, %xmm5, %xmm3 vmovdqa 32928(%rbx), %ymm4 vpshufd $8, %xmm4, %xmm4 vmovaps 32896(%rbx), %xmm5 vmovlhps %xmm5, %xmm4, %xmm4 vpshufb %xmm7, %xmm4, %xmm4 vpor %xmm4, %xmm3, %xmm3 vpsllw $15, %xmm3, %xmm3 vpsraw $15, %xmm3, %xmm3 vpand %xmm0, %xmm3, %xmm0 vpshufb %xmm7, %xmm2, %xmm2 vpunpckhbw %xmm0, %xmm0, %xmm3 vpor %xmm2, %xmm1, %xmm1 vpslld $31, %xmm3, %xmm2 vpsllw $15, %xmm1, %xmm1 vpsraw $15, %xmm1, %xmm1 vpmovsxdq %xmm2, %xmm3 vmovhlps %xmm2, %xmm2, %xmm2 vpmovsxdq %xmm2, %xmm2 vinsertf128 $1, %xmm2, %ymm3, %ymm2 vpunpckhbw %xmm0, %xmm1, %xmm3 vpslld $31, %xmm3, %xmm4 vpmovsxdq %xmm4, %xmm3 vmovhlps %xmm4, %xmm4, %xmm4 vpmovsxdq %xmm4, %xmm4 vinsertf128 $1, %xmm4, %ymm3, %ymm3 vpunpcklbw %xmm0, %xmm0, %xmm0 vpslld $31, %xmm0, %xmm4 vpmovsxdq %xmm4, %xmm0 vmovhlps %xmm4, %xmm4, %xmm4 vpmovsxdq %xmm4, %xmm6 vpunpcklbw %xmm0, %xmm1, %xmm1 vmovapd 26144(%rbx), %ymm4 vblendvpd %ymm3, %ymm12, %ymm4, %ymm3 vblendvpd %ymm2, %ymm3, %ymm11, %ymm2 vmovapd .LCPI1_77(%rip), %ymm3 vmulpd %ymm3, %ymm2, %ymm4 vinsertf128 $1, %xmm6, %ymm0, %ymm0 vpslld $31, %xmm1, %xmm2 vpmovsxdq %xmm2, %xmm1 vmovhlps %xmm2, %xmm2, %xmm2 vpmovsxdq %xmm2, %xmm2 vinsertf128 $1, %xmm2, %ymm1, %ymm1 vmovapd 26272(%rbx), %ymm2 vblendvpd %ymm1, %ymm14, %ymm2, %ymm1 vblendvpd %ymm0, %ymm1, %ymm15, %ymm0 vmulpd %ymm3, %ymm0, %ymm0 .LBB1_3540: vmovapd %ymm4, 24288(%rbx) vmovapd %ymm0, 26144(%rbx) vmovapd .LCPI1_19(%rip), %ymm5 vmovapd 24320(%rbx), %ymm9 vcmpltpd %ymm5, %ymm9, %ymm0 vextractf128 $1, %ymm0, %xmm1 vpshufd $8, %xmm1, %xmm1 vpshufd $8, %xmm0, %xmm0 vmovlhps %xmm1, %xmm0, %xmm0 vmovapd 26400(%rbx), %ymm7 vcmpltpd %ymm5, %ymm7, %ymm1 vextractf128 $1, %ymm1, %xmm2 vpshufd $8, %xmm2, %xmm2 vpshufd $8, %xmm1, %xmm1 vmovlhps %xmm2, %xmm1, %xmm1 vpshufb %xmm13, %xmm1, %xmm1 vmovdqa .LCPI1_20(%rip), %xmm12 vpshufb %xmm12, %xmm0, %xmm0 vpor %xmm0, %xmm1, %xmm0 vmovapd 26080(%rbx), %ymm8 vcmpltpd %ymm5, %ymm8, %ymm1 vextractf128 $1, %ymm1, %xmm2 vpshufd $8, %xmm2, %xmm2 vpshufd $8, %xmm1, %xmm1 vmovlhps %xmm2, %xmm1, %xmm1 vmovapd 26528(%rbx), %ymm6 vcmpltpd %ymm5, %ymm6, %ymm2 vextractf128 $1, %ymm2, %xmm3 vpshufd $8, %xmm3, %xmm3 vpshufd $8, %xmm2, %xmm2 vmovlhps %xmm3, %xmm2, %xmm2 vpshufb %xmm13, %xmm2, %xmm2 vpshufb %xmm12, %xmm1, %xmm1 vpor %xmm1, %xmm2, %xmm2 vpsllw $15, %xmm0, %xmm0 vpsraw $15, %xmm0, %xmm1 vpunpcklbw %xmm0, %xmm1, %xmm0 vpslld $31, %xmm0, %xmm3 vpmovsxdq %xmm3, %xmm0 vmovhlps %xmm3, %xmm3, %xmm3 vpmovsxdq %xmm3, %xmm3 vinsertf128 $1, %xmm3, %ymm0, %ymm0 vpsllw $15, %xmm2, %xmm2 vpsraw $15, %xmm2, %xmm3 vpunpcklbw %xmm0, %xmm3, %xmm2 vpslld $31, %xmm2, %xmm4 vpmovsxdq %xmm4, %xmm2 vmovhlps %xmm4, %xmm4, %xmm4 vpmovsxdq %xmm4, %xmm4 vinsertf128 $1, %xmm4, %ymm2, %ymm2 vpunpckhbw %xmm0, %xmm1, %xmm1 vpslld $31, %xmm1, %xmm4 vpmovsxdq %xmm4, %xmm1 vmovhlps %xmm4, %xmm4, %xmm4 vpmovsxdq %xmm4, %xmm4 vinsertf128 $1, %xmm4, %ymm1, %ymm1 vpunpckhbw %xmm0, %xmm3, %xmm3 vpslld $31, %xmm3, %xmm4 vpmovsxdq %xmm4, %xmm3 vmovhlps %xmm4, %xmm4, %xmm4 vpmovsxdq %xmm4, %xmm4 vinsertf128 $1, %xmm4, %ymm3, %ymm3 vblendvpd %ymm3, %ymm5, %ymm8, %ymm3 vmovapd %ymm3, 26496(%rbx) vblendvpd %ymm1, %ymm5, %ymm9, %ymm1 vmovapd %ymm1, 26272(%rbx) vblendvpd %ymm2, %ymm5, %ymm6, %ymm1 vmovapd %ymm1, 26528(%rbx) vblendvpd %ymm0, %ymm5, %ymm7, %ymm0 vmovapd %ymm0, 26400(%rbx) vxorpd %ymm4, %ymm4, %ymm4 vmovapd 26464(%rbx), %ymm11 vmulpd %ymm4, %ymm11, %ymm0 vmovapd 26336(%rbx), %ymm9 vmulpd %ymm0, %ymm9, %ymm1 vmovapd 26432(%rbx), %ymm6 vmulpd %ymm0, %ymm6, %ymm0 vaddpd %ymm1, %ymm0, %ymm1 vmovapd 31104(%rbx), %ymm14 vmulpd %ymm4, %ymm14, %ymm0 vmovapd 26560(%rbx), %ymm7 vmulpd %ymm0, %ymm7, %ymm2 vmovapd 26848(%rbx), %ymm15 vmulpd %ymm0, %ymm15, %ymm0 vaddpd %ymm2, %ymm0, %ymm2 vmovdqa 32928(%rbx), %ymm0 vpshufd $8, %xmm0, %xmm0 vmovaps 32896(%rbx), %xmm3 vmovlhps %xmm3, %xmm0, %xmm0 vmovdqa 32864(%rbx), %ymm3 vpshufd $8, %xmm3, %xmm3 vmovaps 31872(%rbx), %xmm5 vmovlhps %xmm5, %xmm3, %xmm3 vpshufb %xmm13, %xmm3, %xmm3 vpshufb %xmm12, %xmm0, %xmm0 vpor %xmm0, %xmm3, %xmm0 vmulpd %ymm4, %ymm15, %ymm3 vmulpd %ymm3, %ymm7, %ymm3 vaddpd %ymm3, %ymm2, %ymm2 vmulpd %ymm4, %ymm6, %ymm3 vmulpd %ymm3, %ymm9, %ymm3 vaddpd %ymm3, %ymm1, %ymm1 vmulpd %ymm11, %ymm11, %ymm3 vmovapd .LCPI1_23(%rip), %ymm5 vaddpd %ymm5, %ymm3, %ymm3 vmulpd %ymm14, %ymm14, %ymm4 vaddpd %ymm5, %ymm4, %ymm4 vmulpd %ymm15, %ymm15, %ymm5 vaddpd %ymm5, %ymm4, %ymm4 vmulpd %ymm7, %ymm7, %ymm5 vaddpd %ymm5, %ymm4, %ymm4 vmulpd %ymm6, %ymm6, %ymm5 vaddpd %ymm5, %ymm3, %ymm3 vmulpd %ymm9, %ymm9, %ymm5 vaddpd %ymm5, %ymm3, %ymm3 vmovapd .LCPI1_24(%rip), %ymm5 vmulpd %ymm5, %ymm1, %ymm1 vaddpd %ymm1, %ymm3, %ymm1 vmulpd %ymm5, %ymm2, %ymm2 vaddpd %ymm2, %ymm4, %ymm2 vpsllw $15, %xmm0, %xmm0 vpsraw $15, %xmm0, %xmm0 vpunpcklbw %xmm0, %xmm0, %xmm3 vpslld $31, %xmm3, %xmm4 vpmovsxdq %xmm4, %xmm3 vmovhlps %xmm4, %xmm4, %xmm4 vpmovsxdq %xmm4, %xmm4 vinsertf128 $1, %xmm4, %ymm3, %ymm3 vpunpckhbw %xmm0, %xmm0, %xmm0 vpslld $31, %xmm0, %xmm4 vpmovsxdq %xmm4, %xmm0 vmovhlps %xmm4, %xmm4, %xmm4 vpmovsxdq %xmm4, %xmm4 vinsertf128 $1, %xmm4, %ymm0, %ymm0 vsqrtpd %ymm1, %ymm1 vmovapd .LCPI1_25(%rip), %ymm8 vmulpd %ymm8, %ymm1, %ymm4 vmovapd 12096(%rbx), %ymm5 vmulpd %ymm5, %ymm4, %ymm4 vsubpd %ymm4, %ymm9, %ymm9 vmovapd %ymm9, 23104(%rbx) vmovapd %ymm9, %ymm10 vsubpd %ymm4, %ymm6, %ymm9 vmovapd %ymm9, 23136(%rbx) vsubpd %ymm4, %ymm11, %ymm4 vmovapd %ymm4, 31872(%rbx) vdivpd %ymm5, %ymm1, %ymm11 vmovapd %ymm11, 31840(%rbx) vblendvpd %ymm0, 24288(%rbx), %ymm8, %ymm0 vmovapd %ymm0, 26336(%rbx) vblendvpd %ymm3, 26144(%rbx), %ymm8, %ymm0 vmovapd %ymm0, 24320(%rbx) vsqrtpd %ymm2, %ymm2 vmulpd %ymm8, %ymm2, %ymm3 vmulpd %ymm5, %ymm3, %ymm3 vsubpd %ymm3, %ymm7, %ymm6 vmovapd %ymm6, 23040(%rbx) vmovapd %ymm6, %ymm13 vsubpd %ymm3, %ymm15, %ymm6 vmovapd %ymm6, 23072(%rbx) vmovapd %ymm6, %ymm15 vsubpd %ymm3, %ymm14, %ymm3 vmovapd %ymm3, 32928(%rbx) vmovapd %ymm3, %ymm12 vdivpd %ymm5, %ymm2, %ymm14 vmovapd %ymm14, 26560(%rbx) vxorpd %ymm8, %ymm8, %ymm8 vmulpd %ymm8, %ymm11, %ymm3 vmovapd %ymm4, %ymm1 vmulpd %ymm8, %ymm1, %ymm4 vaddpd %ymm4, %ymm3, %ymm6 vaddpd %ymm9, %ymm6, %ymm5 vmulpd %ymm8, %ymm10, %ymm2 vaddpd %ymm2, %ymm5, %ymm0 vmovapd %ymm0, 26848(%rbx) vaddpd %ymm1, %ymm3, %ymm3 vmulpd %ymm8, %ymm9, %ymm5 vaddpd %ymm5, %ymm3, %ymm3 vaddpd %ymm2, %ymm3, %ymm1 vmovapd %ymm1, 32864(%rbx) vmovapd 26176(%rbx), %ymm3 vmulpd %ymm1, %ymm3, %ymm3 vmovapd 26208(%rbx), %ymm1 vmulpd %ymm0, %ymm1, %ymm7 vaddpd %ymm7, %ymm3, %ymm0 vmovapd %ymm0, 26432(%rbx) vmulpd %ymm8, %ymm14, %ymm9 vmulpd %ymm8, %ymm12, %ymm7 vxorpd %ymm0, %ymm0, %ymm0 vaddpd %ymm7, %ymm9, %ymm8 vaddpd %ymm15, %ymm8, %ymm10 vmulpd %ymm0, %ymm13, %ymm3 vmovapd %ymm13, %ymm1 vaddpd %ymm3, %ymm10, %ymm13 vmovapd %ymm13, 32896(%rbx) vaddpd %ymm12, %ymm9, %ymm10 vmulpd %ymm0, %ymm15, %ymm9 vaddpd %ymm9, %ymm10, %ymm10 vaddpd %ymm3, %ymm10, %ymm0 vmovapd %ymm0, 31104(%rbx) vmovapd 31808(%rbx), %ymm10 vmulpd %ymm0, %ymm10, %ymm10 vmovapd 26304(%rbx), %ymm0 vmulpd %ymm13, %ymm0, %ymm12 vaddpd %ymm12, %ymm10, %ymm10 vaddpd %ymm5, %ymm6, %ymm6 vmovapd 23104(%rbx), %ymm13 vaddpd %ymm13, %ymm6, %ymm0 vmovapd %ymm0, 26464(%rbx) vmovapd 26240(%rbx), %ymm6 vmulpd %ymm0, %ymm6, %ymm6 vmovapd 26432(%rbx), %ymm0 vaddpd %ymm6, %ymm0, %ymm15 vmovapd %ymm15, 22912(%rbx) vmovapd .LCPI1_22(%rip), %ymm12 vmulpd %ymm12, %ymm11, %ymm6 vaddpd %ymm4, %ymm6, %ymm6 vaddpd %ymm4, %ymm11, %ymm4 vaddpd %ymm5, %ymm4, %ymm0 vmovapd %ymm0, 24192(%rbx) vaddpd %ymm5, %ymm6, %ymm5 vaddpd %ymm9, %ymm8, %ymm8 vmulpd %ymm12, %ymm14, %ymm6 vaddpd %ymm7, %ymm6, %ymm11 vaddpd %ymm7, %ymm14, %ymm6 vaddpd %ymm9, %ymm6, %ymm4 vaddpd %ymm9, %ymm11, %ymm7 vaddpd %ymm1, %ymm8, %ymm0 vmovapd %ymm0, 26432(%rbx) vmovapd 26112(%rbx), %ymm14 vmulpd %ymm0, %ymm14, %ymm8 vaddpd %ymm8, %ymm10, %ymm6 vmovapd %ymm6, 22176(%rbx) vmovapd .LCPI1_74(%rip), %ymm11 vmovapd 26400(%rbx), %ymm0 vmulpd %ymm11, %ymm0, %ymm8 vmovapd %ymm8, 26080(%rbx) vmovapd 26528(%rbx), %ymm1 vaddpd %ymm8, %ymm1, %ymm8 vmovapd .LCPI1_73(%rip), %ymm10 vmulpd %ymm10, %ymm0, %ymm9 vdivpd %ymm8, %ymm9, %ymm0 vmovapd %ymm0, 24288(%rbx) vmovapd 26272(%rbx), %ymm0 vmulpd %ymm10, %ymm0, %ymm8 vmulpd %ymm11, %ymm0, %ymm1 vmovapd %ymm1, 24256(%rbx) vmovapd 26496(%rbx), %ymm0 vaddpd %ymm1, %ymm0, %ymm9 vdivpd %ymm9, %ymm8, %ymm0 vmovapd %ymm0, 26144(%rbx) vmovapd 31136(%rbx), %ymm0 vaddpd 24320(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 31136(%rbx) vmovapd 26368(%rbx), %ymm0 vaddpd 26336(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 24224(%rbx) vaddpd %ymm3, %ymm7, %ymm0 vmovapd %ymm0, 26336(%rbx) vaddpd %ymm3, %ymm4, %ymm0 vmovapd %ymm0, 23872(%rbx) vaddpd %ymm2, %ymm5, %ymm0 vmovapd %ymm0, 26368(%rbx) vmovapd 24192(%rbx), %ymm0 vaddpd %ymm2, %ymm0, %ymm0 vmovapd %ymm0, 23904(%rbx) vmulpd 31872(%rbx), %ymm15, %ymm0 vmovapd %ymm0, 15776(%rbx) vmovapd 26176(%rbx), %ymm1 vaddpd %ymm0, %ymm1, %ymm0 vmovapd 31840(%rbx), %ymm4 vdivpd %ymm4, %ymm0, %ymm3 vmovapd %ymm3, 23008(%rbx) vmulpd %ymm12, %ymm15, %ymm0 vxorpd %ymm5, %ymm5, %ymm5 vmulpd %ymm5, %ymm3, %ymm1 vaddpd %ymm1, %ymm0, %ymm0 vmulpd %ymm5, %ymm15, %ymm2 vaddpd %ymm1, %ymm2, %ymm8 vaddpd %ymm3, %ymm2, %ymm1 vmovapd %ymm3, %ymm10 vmulpd 23136(%rbx), %ymm15, %ymm2 vmovapd %ymm2, 15744(%rbx) vmovapd 26208(%rbx), %ymm3 vaddpd %ymm2, %ymm3, %ymm2 vdivpd %ymm4, %ymm2, %ymm2 vmovapd %ymm2, 22976(%rbx) vmulpd %ymm5, %ymm2, %ymm11 vmovapd %ymm2, %ymm9 vaddpd %ymm11, %ymm1, %ymm1 vaddpd %ymm11, %ymm0, %ymm0 vmulpd %ymm13, %ymm15, %ymm2 vmovapd %ymm2, 15712(%rbx) vmovapd 26240(%rbx), %ymm3 vaddpd %ymm2, %ymm3, %ymm2 vdivpd %ymm4, %ymm2, %ymm3 vmovapd %ymm3, 22944(%rbx) vmulpd %ymm5, %ymm3, %ymm2 vmovapd %ymm3, %ymm7 vaddpd %ymm2, %ymm0, %ymm0 vmovapd %ymm0, 26240(%rbx) vaddpd %ymm2, %ymm1, %ymm15 vmovapd %ymm15, 23968(%rbx) vmulpd %ymm12, %ymm6, %ymm0 vmulpd 32928(%rbx), %ymm6, %ymm1 vmovapd %ymm1, 15680(%rbx) vmovapd 31808(%rbx), %ymm2 vaddpd %ymm1, %ymm2, %ymm1 vmovapd 26560(%rbx), %ymm4 vdivpd %ymm4, %ymm1, %ymm3 vmovapd %ymm3, 31808(%rbx) vmulpd %ymm5, %ymm3, %ymm1 vaddpd %ymm1, %ymm0, %ymm0 vmulpd %ymm5, %ymm6, %ymm2 vxorpd %ymm5, %ymm5, %ymm5 vaddpd %ymm1, %ymm2, %ymm13 vaddpd %ymm3, %ymm2, %ymm1 vmulpd 23072(%rbx), %ymm6, %ymm2 vmovapd %ymm2, 15648(%rbx) vmovapd 26304(%rbx), %ymm3 vaddpd %ymm2, %ymm3, %ymm2 vdivpd %ymm4, %ymm2, %ymm2 vmovapd %ymm2, 24320(%rbx) vmulpd %ymm5, %ymm2, %ymm12 vaddpd %ymm12, %ymm1, %ymm1 vaddpd %ymm12, %ymm0, %ymm0 vmulpd 23040(%rbx), %ymm6, %ymm2 vmovapd %ymm2, 15616(%rbx) vaddpd %ymm2, %ymm14, %ymm2 vdivpd %ymm4, %ymm2, %ymm3 vmovapd %ymm3, 22208(%rbx) vmulpd %ymm5, %ymm3, %ymm2 vmovapd %ymm3, %ymm14 vaddpd %ymm2, %ymm0, %ymm0 vmovapd %ymm0, 26304(%rbx) vaddpd %ymm2, %ymm1, %ymm6 vmovapd %ymm6, 23936(%rbx) movq 25632(%rbx), %rax movabsq $-4616189618054758400, %rsi movq %rsi, (%rax) movq 25600(%rbx), %rax movq %rsi, (%rax) movq 25568(%rbx), %rax movq %rsi, (%rax) movq 32576(%rbx), %rax movq %rsi, (%rax) movq 25760(%rbx), %rax movq %rsi, (%rax) movq 32704(%rbx), %rax movq %rsi, (%rax) movq 25728(%rbx), %rax movq %rsi, (%rax) movq 25696(%rbx), %rax movq %rsi, (%rax) vxorpd %xmm0, %xmm0, %xmm0 movq 24976(%rbx), %rax vmovupd %xmm0, 16(%rax) vmovupd %xmm0, (%rax) movq 24928(%rbx), %rax vmovupd %xmm0, 16(%rax) vmovupd %xmm0, (%rax) movq 25216(%rbx), %rax vmovupd %xmm0, 16(%rax) vmovupd %xmm0, (%rax) movq 25184(%rbx), %rax vmovupd %xmm0, 16(%rax) vmovupd %xmm0, (%rax) movq 25152(%rbx), %rax vmovupd %xmm0, 16(%rax) vmovupd %xmm0, (%rax) vmovupd %xmm0, 16(%r10) vmovupd %xmm0, (%r10) vmovupd %xmm0, 16(%r15) vmovupd %xmm0, (%r15) movq 25088(%rbx), %rax vmovupd %xmm0, 16(%rax) vmovupd %xmm0, (%rax) movabsq $4607182418800017408, %r15 movq %r15, (%r11) movq 25856(%rbx), %rax movq %r15, (%rax) movq 25824(%rbx), %rax movq %r15, (%rax) movq 25888(%rbx), %rax movq %r15, (%rax) movq 25920(%rbx), %rax movq %r15, (%rax) movq 25984(%rbx), %rax movq %r15, (%rax) movq 25952(%rbx), %rax movq %r15, (%rax) movq 26016(%rbx), %rax movq %r15, (%rax) movq 25056(%rbx), %rax vmovupd %xmm0, 16(%rax) vmovupd %xmm0, (%rax) movq 25040(%rbx), %rax vmovupd %xmm0, 16(%rax) vmovupd %xmm0, (%rax) movq 24992(%rbx), %rax vmovupd %xmm0, 16(%rax) vmovupd %xmm0, (%rax) movq 25392(%rbx), %rax vmovupd %xmm0, 16(%rax) vmovupd %xmm0, (%rax) movq 25344(%rbx), %rax vmovupd %xmm0, 16(%rax) vmovupd %xmm0, (%rax) movq 25312(%rbx), %rax vmovupd %xmm0, 16(%rax) vmovupd %xmm0, (%rax) movq 25280(%rbx), %rax vmovupd %xmm0, 16(%rax) vmovupd %xmm0, (%rax) movq 25248(%rbx), %rax vmovupd %xmm0, 16(%rax) vmovupd %xmm0, (%rax) movq 31552(%rbx), %rax movq %r15, (%rax) movq 31584(%rbx), %rax movq %r15, (%rax) movq 31616(%rbx), %rax movq %r15, (%rax) movq 31648(%rbx), %rax movq %r15, (%rax) movq 31904(%rbx), %rax movq %r15, (%rax) movq 31936(%rbx), %rax movq %r15, (%rax) movq 31680(%rbx), %rax movq %r15, (%rax) movq 31968(%rbx), %rax movq %r15, (%rax) vmovupd %xmm0, 16(%r8) vmovupd %xmm0, (%r8) movq 25504(%rbx), %rax vmovupd %xmm0, 16(%rax) vmovupd %xmm0, (%rax) vmovupd %xmm0, 16(%r14) vmovupd %xmm0, (%r14) movq 25456(%rbx), %rax vmovupd %xmm0, 16(%rax) vmovupd %xmm0, (%rax) movq 25440(%rbx), %rax vmovupd %xmm0, 16(%rax) vmovupd %xmm0, (%rax) vmovupd %xmm0, 16(%r13) vmovupd %xmm0, (%r13) movq 32128(%rbx), %rax vmovupd %xmm0, 16(%rax) vmovupd %xmm0, (%rax) movq 32672(%rbx), %rax vmovupd %xmm0, 16(%rax) vmovupd %xmm0, (%rax) movq 31264(%rbx), %r9 movq %r15, (%r9) movq 31296(%rbx), %rax movq %r15, (%rax) movq 31200(%rbx), %r14 movq %r15, (%r14) movq 31232(%rbx), %r11 movq %r15, (%r11) movq 32000(%rbx), %r10 movq %r15, (%r10) movq 32032(%rbx), %r8 movq %r15, (%r8) movq 31168(%rbx), %rcx movq %r15, (%rcx) movq 31072(%rbx), %r13 movq %r15, (%r13) movq %rsi, (%rdx) movq 30752(%rbx), %rdx movq %rsi, (%rdx) movq 30656(%rbx), %rdx movq %rsi, (%rdx) movq 30688(%rbx), %rdx movq %rsi, (%rdx) movq 30848(%rbx), %rdx movq %rsi, (%rdx) movq 31008(%rbx), %rdx movq %rsi, (%rdx) movq 30816(%rbx), %rdx movq %rsi, (%rdx) movq 30976(%rbx), %rdx movq %rsi, (%rdx) movabsq $-9223372036854775808, %rdx movq 30592(%rbx), %rsi movq %rdx, (%rsi) movq 30624(%rbx), %rsi movq %rdx, (%rsi) movq 30528(%rbx), %rsi movq %rdx, (%rsi) movq 30560(%rbx), %rsi movq %rdx, (%rsi) movq 30784(%rbx), %rsi movq %rdx, (%rsi) movq 30944(%rbx), %rsi movq %rdx, (%rsi) movq 30880(%rbx), %rsi movq %rdx, (%rsi) movq 30912(%rbx), %rsi movq %rdx, (%rsi) movq 30368(%rbx), %rsi movq %rdx, (%rsi) movq 30336(%rbx), %rsi movq %rdx, (%rsi) movq 30304(%rbx), %rsi movq %rdx, (%rsi) movq 30272(%rbx), %rsi movq %rdx, (%rsi) movq 30496(%rbx), %rsi movq %rdx, (%rsi) movq 30464(%rbx), %rsi movq %rdx, (%rsi) movq 30432(%rbx), %rsi movq %rdx, (%rsi) movq 30400(%rbx), %rsi movq %rdx, (%rsi) movq 28160(%rbx), %rsi movq %rdx, (%rsi) movq 30112(%rbx), %rsi movq %rdx, (%rsi) movq 30080(%rbx), %rsi movq %rdx, (%rsi) movq 30048(%rbx), %rsi movq %rdx, (%rsi) movq 30240(%rbx), %rsi movq %rdx, (%rsi) movq 30208(%rbx), %rsi movq %rdx, (%rsi) movq 30176(%rbx), %rsi movq %rdx, (%rsi) movq 30144(%rbx), %rsi movq %rdx, (%rsi) movq 29312(%rbx), %rsi movq %rdx, (%rsi) movq 29280(%rbx), %rsi movq %rdx, (%rsi) movq 29120(%rbx), %rsi movq %rdx, (%rsi) movq 29088(%rbx), %rsi movq %rdx, (%rsi) movq 29952(%rbx), %rsi movq %rdx, (%rsi) movq 29920(%rbx), %rsi movq %rdx, (%rsi) movq 29760(%rbx), %rsi movq %rdx, (%rsi) movq 29728(%rbx), %rsi movq %rdx, (%rsi) movq 29184(%rbx), %rsi movq %r15, (%rsi) movq 29152(%rbx), %rsi movq %r15, (%rsi) movq 29056(%rbx), %rsi movq %r15, (%rsi) movq 29024(%rbx), %rsi movq %r15, (%rsi) movq 29824(%rbx), %rsi movq %r15, (%rsi) movq 29792(%rbx), %rsi movq %r15, (%rsi) movq 29696(%rbx), %rsi movq %r15, (%rsi) movq 29664(%rbx), %rsi movq %r15, (%rsi) movq 29440(%rbx), %rsi movq %rdx, (%rsi) movq 29408(%rbx), %rsi movq %rdx, (%rsi) movq 29248(%rbx), %rsi movq %rdx, (%rsi) movq 29216(%rbx), %rsi movq %rdx, (%rsi) movq 30016(%rbx), %rsi movq %rdx, (%rsi) movq 29984(%rbx), %rsi movq %rdx, (%rsi) movq 29888(%rbx), %rsi movq %rdx, (%rsi) movq 29856(%rbx), %rsi movq %rdx, (%rsi) movq 28288(%rbx), %rsi movq %rdx, (%rsi) movq 28256(%rbx), %rsi movq %rdx, (%rsi) movq 28128(%rbx), %rsi movq %rdx, (%rsi) movq 28096(%rbx), %rsi movq %rdx, (%rsi) movq 29568(%rbx), %rsi movq %rdx, (%rsi) movq 29536(%rbx), %rsi movq %rdx, (%rsi) movq 29376(%rbx), %rsi movq %rdx, (%rsi) movq 29344(%rbx), %rsi movq %rdx, (%rsi) movq 28672(%rbx), %rsi movq %rdx, (%rsi) movq 28640(%rbx), %rsi movq %rdx, (%rsi) movq 28416(%rbx), %rsi movq %rdx, (%rsi) movq 28384(%rbx), %rsi movq %rdx, (%rsi) movq 28992(%rbx), %rsi movq %rdx, (%rsi) movq 28960(%rbx), %rsi movq %rdx, (%rsi) movq 28864(%rbx), %rsi movq %rdx, (%rsi) movq 28832(%rbx), %rsi movq %rdx, (%rsi) movq 28480(%rbx), %rsi movq %rdx, (%rsi) movq 28448(%rbx), %rsi movq %rdx, (%rsi) movq 28224(%rbx), %rsi movq %rdx, (%rsi) movq 28192(%rbx), %rsi movq %rdx, (%rsi) movq 29632(%rbx), %rsi movq %rdx, (%rsi) movq 29600(%rbx), %rsi movq %rdx, (%rsi) movq 29504(%rbx), %rsi movq %rdx, (%rsi) movq 29472(%rbx), %rsi movq %rdx, (%rsi) movq 27808(%rbx), %rsi movq %r15, (%rsi) movq 27776(%rbx), %rsi movq %r15, (%rsi) movq 27616(%rbx), %rsi movq %r15, (%rsi) movq 27584(%rbx), %rsi movq %r15, (%rsi) movq 28928(%rbx), %rsi movq %r15, (%rsi) movq 28896(%rbx), %rsi movq %r15, (%rsi) movq 28736(%rbx), %rsi movq %r15, (%rsi) movq 28704(%rbx), %rsi movq %r15, (%rsi) movq 27104(%rbx), %rsi movq %rdx, (%rsi) movq 27072(%rbx), %rsi movq %rdx, (%rsi) movq 26976(%rbx), %rsi movq %rdx, (%rsi) movq 26944(%rbx), %rsi movq %rdx, (%rsi) movq 28000(%rbx), %rsi movq %rdx, (%rsi) movq 27968(%rbx), %rsi movq %rdx, (%rsi) movq 27872(%rbx), %rsi movq %rdx, (%rsi) movq 27840(%rbx), %rsi movq %rdx, (%rsi) movq 28064(%rbx), %rsi movq %rdx, (%rsi) movq 28032(%rbx), %rsi movq %rdx, (%rsi) movq 27936(%rbx), %rsi movq %rdx, (%rsi) movq 27904(%rbx), %rsi movq %rdx, (%rsi) movq 28800(%rbx), %rsi movq %rdx, (%rsi) movq 28768(%rbx), %rsi movq %rdx, (%rsi) movq 28544(%rbx), %rsi movq %rdx, (%rsi) movq 28512(%rbx), %rsi movq %rdx, (%rsi) movq 27680(%rbx), %rsi movq %rdx, (%rsi) movq 27648(%rbx), %rsi movq %rdx, (%rsi) movq 27488(%rbx), %rsi movq %rdx, (%rsi) movq 27456(%rbx), %rsi movq %rdx, (%rsi) movq 28608(%rbx), %rsi movq %rdx, (%rsi) movq 28576(%rbx), %rsi movq %rdx, (%rsi) movq 28352(%rbx), %rsi movq %rdx, (%rsi) movq 28320(%rbx), %rsi movq %rdx, (%rsi) movq 27424(%rbx), %rsi movq %rdx, (%rsi) movq 27392(%rbx), %rsi movq %rdx, (%rsi) movq 27232(%rbx), %rsi movq %rdx, (%rsi) movq 27200(%rbx), %rsi movq %rdx, (%rsi) movq 27744(%rbx), %rsi movq %rdx, (%rsi) movq 27712(%rbx), %rsi movq %rdx, (%rsi) movq 27552(%rbx), %rsi movq %rdx, (%rsi) movq 27520(%rbx), %rsi movq %rdx, (%rsi) movq 27296(%rbx), %rdx movq %r15, (%rdx) movq 27264(%rbx), %rdx movq %r15, (%rdx) movq 27040(%rbx), %rdx movq %r15, (%rdx) movq 27008(%rbx), %rdx movq %r15, (%rdx) movq 27360(%rbx), %rdx movq %r15, (%rdx) movq 27328(%rbx), %rdx movq %r15, (%rdx) movq 27168(%rbx), %rdx movq %r15, (%rdx) movq 27136(%rbx), %rdx movq %r15, (%rdx) movq 31712(%rbx), %rdx vmovsd (%rdx), %xmm0 movq 31776(%rbx), %rdx vmovhpd (%rdx), %xmm0, %xmm1 movq 31040(%rbx), %rdx vmovsd (%rdx), %xmm0 movq 31744(%rbx), %rdx vmovhpd (%rdx), %xmm0, %xmm3 vmovsd (%rcx), %xmm0 vmovhpd (%r13), %xmm0, %xmm2 vmovsd (%r10), %xmm0 vmovhpd (%r8), %xmm0, %xmm4 movq 32192(%rbx), %rcx vmovsd (%rcx), %xmm0 movq 32224(%rbx), %rcx vmovhpd (%rcx), %xmm0, %xmm0 movq 32160(%rbx), %rcx vmovsd (%rcx), %xmm5 movq 32544(%rbx), %rcx vmovhpd (%rcx), %xmm5, %xmm5 vinsertf128 $1, %xmm0, %ymm5, %ymm0 vinsertf128 $1, %xmm2, %ymm4, %ymm2 vinsertf128 $1, %xmm1, %ymm3, %ymm1 vmovsd (%r14), %xmm3 vmovhpd (%r11), %xmm3, %xmm3 vmovsd (%r9), %xmm4 vmovhpd (%rax), %xmm4, %xmm4 vinsertf128 $1, %xmm3, %ymm4, %ymm3 vaddpd %ymm11, %ymm8, %ymm4 vmulpd %ymm7, %ymm3, %ymm3 vaddpd %ymm3, %ymm4, %ymm4 vmovapd %ymm4, 24128(%rbx) vaddpd %ymm9, %ymm8, %ymm3 vmulpd %ymm7, %ymm1, %ymm1 vaddpd %ymm1, %ymm3, %ymm3 vmovapd %ymm3, 24000(%rbx) vaddpd %ymm12, %ymm13, %ymm1 vmovapd %ymm14, %ymm8 vmulpd %ymm8, %ymm2, %ymm2 vaddpd %ymm2, %ymm1, %ymm11 vmovapd %ymm11, 24064(%rbx) vmovapd 24320(%rbx), %ymm12 vaddpd %ymm12, %ymm13, %ymm1 vmulpd %ymm8, %ymm0, %ymm0 vaddpd %ymm0, %ymm1, %ymm8 vmovapd %ymm8, 26208(%rbx) vmulpd %ymm15, %ymm10, %ymm1 vmovapd %ymm1, 22752(%rbx) vmovapd 26240(%rbx), %ymm13 vmovapd 22912(%rbx), %ymm0 vmulpd %ymm13, %ymm0, %ymm0 vaddpd %ymm1, %ymm0, %ymm1 vmulpd %ymm3, %ymm9, %ymm2 vmovapd %ymm2, 22880(%rbx) vaddpd %ymm2, %ymm1, %ymm1 vmulpd %ymm4, %ymm7, %ymm2 vmovapd %ymm2, 22816(%rbx) vaddpd %ymm2, %ymm1, %ymm2 vmovapd .LCPI1_26(%rip), %ymm10 vcmpltpd %ymm10, %ymm2, %ymm3 vextractf128 $1, %ymm3, %xmm1 vpshufd $8, %xmm1, %xmm4 vpshufd $8, %xmm3, %xmm1 vmovlhps %xmm4, %xmm1, %xmm5 vmovapd 31808(%rbx), %ymm1 vmulpd %ymm6, %ymm1, %ymm1 vmovapd %ymm1, 22688(%rbx) vmovapd 22176(%rbx), %ymm4 vmulpd 26304(%rbx), %ymm4, %ymm3 vmovapd %ymm3, 26176(%rbx) vaddpd %ymm1, %ymm3, %ymm1 vmulpd %ymm8, %ymm12, %ymm3 vmovapd %ymm3, 22848(%rbx) vaddpd %ymm3, %ymm1, %ymm1 vmulpd %ymm11, %ymm14, %ymm3 vmovapd %ymm3, 22784(%rbx) vaddpd %ymm3, %ymm1, %ymm3 vcmpltpd %ymm10, %ymm3, %ymm6 vextractf128 $1, %ymm6, %xmm1 vpshufd $8, %xmm1, %xmm7 vpshufd $8, %xmm6, %xmm1 vmovlhps %xmm7, %xmm1, %xmm1 vpshufb .LCPI1_20(%rip), %xmm1, %xmm1 vpshufb .LCPI1_21(%rip), %xmm5, %xmm5 vpor %xmm1, %xmm5, %xmm5 vmovapd 26528(%rbx), %ymm12 vaddpd %ymm2, %ymm12, %ymm1 vaddpd 26080(%rbx), %ymm1, %ymm1 vdivpd %ymm1, %ymm2, %ymm1 vmovapd 24288(%rbx), %ymm7 vmulpd %ymm7, %ymm1, %ymm6 vaddpd %ymm7, %ymm1, %ymm8 vmovapd 26496(%rbx), %ymm11 vaddpd %ymm3, %ymm11, %ymm1 vaddpd 24256(%rbx), %ymm1, %ymm9 vpsllw $15, %xmm5, %xmm1 vpsraw $15, %xmm1, %xmm5 vpunpckhbw %xmm0, %xmm5, %xmm1 vpslld $31, %xmm1, %xmm1 vpmovsxdq %xmm1, %xmm7 vmovhlps %xmm1, %xmm1, %xmm1 vpmovsxdq %xmm1, %xmm1 vinsertf128 $1, %xmm1, %ymm7, %ymm7 vpunpcklbw %xmm0, %xmm5, %xmm1 vpslld $31, %xmm1, %xmm1 vpmovsxdq %xmm1, %xmm5 vmovhlps %xmm1, %xmm1, %xmm1 vpmovsxdq %xmm1, %xmm1 vinsertf128 $1, %xmm1, %ymm5, %ymm1 vblendvpd %ymm1, %ymm10, %ymm2, %ymm5 vblendvpd %ymm7, %ymm10, %ymm3, %ymm7 vdivpd %ymm9, %ymm3, %ymm1 vmovapd 26144(%rbx), %ymm3 vmulpd %ymm3, %ymm1, %ymm2 vaddpd %ymm3, %ymm1, %ymm1 vsubpd %ymm2, %ymm1, %ymm1 vmovapd %ymm1, 23808(%rbx) vsubpd %ymm6, %ymm8, %ymm1 vmovapd %ymm1, 23840(%rbx) vmovapd 26400(%rbx), %ymm2 vaddpd %ymm2, %ymm12, %ymm1 vmovapd .LCPI1_27(%rip), %ymm3 vmulpd %ymm3, %ymm2, %ymm6 vmovapd %ymm6, 15392(%rbx) vaddpd %ymm1, %ymm6, %ymm1 vmovapd .LCPI1_28(%rip), %ymm8 vmulpd %ymm8, %ymm5, %ymm2 vaddpd %ymm2, %ymm6, %ymm2 vmovapd %ymm2, 22144(%rbx) vaddpd %ymm1, %ymm5, %ymm1 vmovapd %ymm1, 22528(%rbx) vmovapd 31840(%rbx), %ymm14 vmulpd %ymm1, %ymm14, %ymm6 vmovapd 26368(%rbx), %ymm12 vmulpd %ymm6, %ymm12, %ymm1 vaddpd %ymm1, %ymm2, %ymm1 vmovapd %ymm2, %ymm15 vsubpd %ymm0, %ymm1, %ymm0 vmovapd 26272(%rbx), %ymm2 vaddpd %ymm2, %ymm11, %ymm1 vmulpd %ymm3, %ymm2, %ymm3 vmovapd %ymm3, 14944(%rbx) vaddpd %ymm1, %ymm3, %ymm1 vmulpd %ymm8, %ymm7, %ymm2 vaddpd %ymm2, %ymm3, %ymm2 vmovapd %ymm2, 24096(%rbx) vaddpd %ymm1, %ymm7, %ymm1 vmovapd %ymm1, 24032(%rbx) vmovapd 26560(%rbx), %ymm3 vmulpd %ymm1, %ymm3, %ymm8 vmovapd 26336(%rbx), %ymm11 vmulpd %ymm8, %ymm11, %ymm1 vaddpd %ymm1, %ymm2, %ymm1 vsubpd 26176(%rbx), %ymm1, %ymm9 vsqrtpd %ymm7, %ymm2 vmovapd %ymm2, 24288(%rbx) vmovapd 24224(%rbx), %ymm10 vmulpd %ymm10, %ymm4, %ymm1 vdivpd %ymm2, %ymm1, %ymm1 vmovapd %ymm1, 24160(%rbx) vmovapd %ymm2, %ymm7 vmulpd %ymm1, %ymm11, %ymm1 vaddpd %ymm1, %ymm9, %ymm9 vsqrtpd %ymm5, %ymm11 vmovapd %ymm11, 24256(%rbx) vmovapd 31136(%rbx), %ymm5 vmovapd 22912(%rbx), %ymm2 vmulpd %ymm5, %ymm2, %ymm1 vdivpd %ymm11, %ymm1, %ymm1 vmovapd %ymm1, 24192(%rbx) vmulpd %ymm1, %ymm12, %ymm1 vaddpd %ymm1, %ymm0, %ymm0 vmulpd %ymm5, %ymm13, %ymm1 vdivpd %ymm11, %ymm1, %ymm1 vmovapd %ymm1, 26144(%rbx) vmovapd %ymm11, %ymm4 vmulpd %ymm1, %ymm14, %ymm1 vaddpd %ymm1, %ymm0, %ymm0 vmovapd 26304(%rbx), %ymm13 vmulpd %ymm10, %ymm13, %ymm1 vdivpd %ymm7, %ymm1, %ymm1 vmovapd %ymm1, 26112(%rbx) vmulpd %ymm1, %ymm3, %ymm1 vaddpd %ymm1, %ymm9, %ymm10 vmovapd 32864(%rbx), %ymm12 vmulpd %ymm6, %ymm12, %ymm1 vxorpd %ymm14, %ymm14, %ymm14 vmulpd %ymm14, %ymm15, %ymm7 vaddpd %ymm1, %ymm7, %ymm1 vmovapd 23968(%rbx), %ymm15 vmulpd %ymm15, %ymm2, %ymm9 vsubpd %ymm9, %ymm1, %ymm11 vmovapd 26848(%rbx), %ymm3 vmulpd %ymm6, %ymm3, %ymm1 vaddpd %ymm1, %ymm7, %ymm1 vmovapd 24000(%rbx), %ymm5 vmulpd %ymm5, %ymm2, %ymm9 vsubpd %ymm9, %ymm1, %ymm1 vmovapd %ymm1, 22720(%rbx) vmovapd 24192(%rbx), %ymm9 vmulpd %ymm9, %ymm12, %ymm1 vaddpd %ymm1, %ymm11, %ymm1 vmovapd %ymm1, 22656(%rbx) vmovapd %ymm10, 12000(%rdi,%r12) vmovapd %ymm0, 11968(%rdi,%r12) vmovapd 31104(%rbx), %ymm2 vmulpd %ymm8, %ymm2, %ymm1 vmovapd 24096(%rbx), %ymm0 vmulpd %ymm14, %ymm0, %ymm12 vmovapd %ymm12, 26176(%rbx) vaddpd %ymm1, %ymm12, %ymm1 vmovapd 23936(%rbx), %ymm14 vmovapd 22176(%rbx), %ymm11 vmulpd %ymm14, %ymm11, %ymm10 vsubpd %ymm10, %ymm1, %ymm0 vmovapd %ymm0, 26080(%rbx) vmulpd 31136(%rbx), %ymm15, %ymm1 vdivpd %ymm4, %ymm1, %ymm0 vmovapd %ymm0, 22624(%rbx) vmovapd 31840(%rbx), %ymm1 vmulpd %ymm0, %ymm1, %ymm1 vmovapd 22656(%rbx), %ymm0 vaddpd %ymm1, %ymm0, %ymm0 vmovapd %ymm0, 22592(%rbx) vmulpd %ymm9, %ymm3, %ymm1 vmovapd 22720(%rbx), %ymm0 vaddpd %ymm1, %ymm0, %ymm0 vmovapd %ymm0, 22656(%rbx) vmovapd 26464(%rbx), %ymm9 vmulpd %ymm6, %ymm9, %ymm1 vaddpd %ymm1, %ymm7, %ymm1 vmovapd 24128(%rbx), %ymm4 vmovapd 22912(%rbx), %ymm0 vmulpd %ymm4, %ymm0, %ymm6 vsubpd %ymm6, %ymm1, %ymm0 vmovapd %ymm0, 22720(%rbx) vmovapd 26432(%rbx), %ymm15 vmulpd %ymm8, %ymm15, %ymm1 vmovapd %ymm12, %ymm0 vaddpd %ymm1, %ymm0, %ymm1 vmovapd 24064(%rbx), %ymm6 vmulpd %ymm6, %ymm11, %ymm12 vsubpd %ymm12, %ymm1, %ymm1 vmovapd %ymm1, 22560(%rbx) vmovapd 32896(%rbx), %ymm3 vmulpd %ymm8, %ymm3, %ymm1 vaddpd %ymm1, %ymm0, %ymm1 vmovapd 26208(%rbx), %ymm0 vmulpd %ymm0, %ymm11, %ymm8 vsubpd %ymm8, %ymm1, %ymm10 vmovapd 24160(%rbx), %ymm12 vmulpd %ymm12, %ymm2, %ymm1 vmovapd 26080(%rbx), %ymm2 vaddpd %ymm1, %ymm2, %ymm11 vmovapd 24224(%rbx), %ymm2 vmulpd %ymm2, %ymm14, %ymm1 vmovapd 24288(%rbx), %ymm8 vdivpd %ymm8, %ymm1, %ymm1 vmovapd %ymm1, 26080(%rbx) vmovapd 26560(%rbx), %ymm14 vmulpd %ymm1, %ymm14, %ymm1 vaddpd %ymm1, %ymm11, %ymm1 vmovapd %ymm1, 12064(%rdi,%r12) vmovaps 22592(%rbx), %ymm1 vmovaps %ymm1, 12032(%rdi,%r12) vmulpd %ymm12, %ymm3, %ymm1 vaddpd %ymm1, %ymm10, %ymm3 vmulpd %ymm12, %ymm15, %ymm1 vmovapd 22560(%rbx), %ymm10 vaddpd %ymm1, %ymm10, %ymm1 vmovapd %ymm1, 22112(%rbx) vmulpd 24192(%rbx), %ymm9, %ymm1 vmovapd 22720(%rbx), %ymm9 vaddpd %ymm1, %ymm9, %ymm1 vmovapd %ymm1, 24192(%rbx) vmovapd 31136(%rbx), %ymm12 vmulpd %ymm12, %ymm5, %ymm1 vmovapd 24256(%rbx), %ymm5 vdivpd %ymm5, %ymm1, %ymm1 vmovapd %ymm1, 22720(%rbx) vmovapd 31840(%rbx), %ymm10 vmulpd %ymm1, %ymm10, %ymm1 vmovapd 22656(%rbx), %ymm9 vaddpd %ymm1, %ymm9, %ymm1 vmovapd %ymm1, 22592(%rbx) vmulpd %ymm2, %ymm0, %ymm1 vdivpd %ymm8, %ymm1, %ymm0 vmovapd %ymm0, 22656(%rbx) vmulpd %ymm0, %ymm14, %ymm1 vaddpd %ymm1, %ymm3, %ymm9 vmovapd 32928(%rbx), %ymm0 vmulpd 24032(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 24160(%rbx) vmovapd 26336(%rbx), %ymm3 vmulpd %ymm0, %ymm3, %ymm1 vmovapd %ymm0, %ymm15 vmovapd 26176(%rbx), %ymm0 vaddpd %ymm1, %ymm0, %ymm1 vmovapd 31808(%rbx), %ymm11 vmulpd %ymm13, %ymm11, %ymm8 vsubpd %ymm8, %ymm1, %ymm8 vmovapd %ymm9, 12128(%rdi,%r12) vmovaps 22592(%rbx), %ymm0 vmovaps %ymm0, 12096(%rdi,%r12) vmulpd %ymm12, %ymm4, %ymm1 vdivpd %ymm5, %ymm1, %ymm0 vmovapd %ymm0, 22592(%rbx) vmulpd %ymm0, %ymm10, %ymm1 vmovapd 24192(%rbx), %ymm0 vaddpd %ymm1, %ymm0, %ymm0 vmovapd %ymm0, 22048(%rbx) vmulpd %ymm2, %ymm6, %ymm1 vmovapd 24288(%rbx), %ymm5 vdivpd %ymm5, %ymm1, %ymm0 vmovapd %ymm0, 22560(%rbx) vmulpd %ymm0, %ymm14, %ymm1 vmovapd 22112(%rbx), %ymm0 vaddpd %ymm1, %ymm0, %ymm0 vmovapd %ymm0, 21984(%rbx) vmovapd 31872(%rbx), %ymm1 vmovapd 22528(%rbx), %ymm6 vmulpd %ymm6, %ymm1, %ymm4 vmovapd 32864(%rbx), %ymm14 vmulpd %ymm4, %ymm14, %ymm1 vmovapd 22144(%rbx), %ymm13 vaddpd %ymm1, %ymm13, %ymm1 vsubpd 22752(%rbx), %ymm1, %ymm0 vmovapd %ymm0, 22080(%rbx) vmulpd %ymm2, %ymm11, %ymm1 vdivpd %ymm5, %ymm1, %ymm0 vmovapd %ymm0, 24192(%rbx) vmulpd %ymm0, %ymm3, %ymm1 vaddpd %ymm1, %ymm8, %ymm0 vmovapd %ymm0, 22016(%rbx) vmovapd 26368(%rbx), %ymm10 vmulpd %ymm4, %ymm10, %ymm1 vaddpd %ymm1, %ymm7, %ymm1 vmovapd 23008(%rbx), %ymm12 vmulpd 26240(%rbx), %ymm12, %ymm5 vsubpd %ymm5, %ymm1, %ymm0 vmovapd %ymm0, 21856(%rbx) vmovapd 31104(%rbx), %ymm0 vmulpd %ymm15, %ymm0, %ymm5 vmovapd 24096(%rbx), %ymm0 vaddpd %ymm5, %ymm0, %ymm5 vsubpd 22688(%rbx), %ymm5, %ymm1 vmovapd %ymm1, 22112(%rbx) vmovapd 23136(%rbx), %ymm5 vmovapd %ymm6, %ymm1 vmulpd %ymm1, %ymm5, %ymm9 vmovapd 23104(%rbx), %ymm5 vmulpd %ymm1, %ymm5, %ymm5 vmovapd 26464(%rbx), %ymm11 vmulpd %ymm5, %ymm11, %ymm6 vmovapd %ymm13, %ymm2 vaddpd %ymm6, %ymm2, %ymm1 vmovapd %ymm1, 22688(%rbx) vmovapd 26848(%rbx), %ymm8 vmulpd %ymm9, %ymm8, %ymm6 vaddpd %ymm6, %ymm2, %ymm2 vmovapd %ymm2, 22752(%rbx) vmulpd %ymm4, %ymm8, %ymm1 vmovapd %ymm8, %ymm2 vmovapd %ymm11, %ymm3 vmulpd %ymm4, %ymm3, %ymm8 vmulpd %ymm9, %ymm10, %ymm13 vmulpd %ymm9, %ymm3, %ymm11 vmovapd %ymm14, %ymm15 vmulpd %ymm9, %ymm15, %ymm9 vmulpd %ymm5, %ymm10, %ymm4 vmulpd %ymm5, %ymm2, %ymm6 vmulpd %ymm5, %ymm15, %ymm5 vaddpd %ymm5, %ymm7, %ymm2 vmovapd %ymm2, 21632(%rbx) vaddpd %ymm6, %ymm7, %ymm5 vaddpd %ymm4, %ymm7, %ymm4 vaddpd %ymm9, %ymm7, %ymm2 vmovapd %ymm2, 22144(%rbx) vaddpd %ymm11, %ymm7, %ymm2 vmovapd %ymm2, 21824(%rbx) vaddpd %ymm8, %ymm7, %ymm2 vmovapd %ymm2, 21920(%rbx) vaddpd %ymm13, %ymm7, %ymm2 vmovapd %ymm2, 21792(%rbx) vaddpd %ymm1, %ymm7, %ymm2 vmovapd %ymm2, 21952(%rbx) vmovapd 23040(%rbx), %ymm6 vmovapd 24032(%rbx), %ymm2 vmulpd %ymm2, %ymm6, %ymm7 vmovapd 26432(%rbx), %ymm9 vmulpd %ymm7, %ymm9, %ymm6 vaddpd %ymm6, %ymm0, %ymm6 vmovapd 23072(%rbx), %ymm8 vmulpd %ymm2, %ymm8, %ymm14 vmovapd 32896(%rbx), %ymm3 vmulpd %ymm14, %ymm3, %ymm2 vaddpd %ymm2, %ymm0, %ymm0 vmovapd %ymm0, 21888(%rbx) vmovaps 21984(%rbx), %ymm0 vmovaps %ymm0, 12192(%rdi,%r12) vmovaps 22048(%rbx), %ymm0 vmovaps %ymm0, 12160(%rdi,%r12) vmovapd 22688(%rbx), %ymm0 vsubpd 22816(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 24096(%rbx) vsubpd 22784(%rbx), %ymm6, %ymm0 vmovapd %ymm0, 24032(%rbx) vmovapd 22944(%rbx), %ymm1 vmovapd 24000(%rbx), %ymm11 vmulpd %ymm11, %ymm1, %ymm2 vsubpd %ymm2, %ymm5, %ymm0 vmovapd %ymm0, 22816(%rbx) vmulpd %ymm7, %ymm3, %ymm2 vmovapd 26176(%rbx), %ymm3 vaddpd %ymm2, %ymm3, %ymm2 vmovapd 22208(%rbx), %ymm0 vmulpd 26208(%rbx), %ymm0, %ymm6 vsubpd %ymm6, %ymm2, %ymm2 vmovapd %ymm2, 22528(%rbx) vmovapd 23968(%rbx), %ymm13 vmulpd %ymm13, %ymm1, %ymm2 vmovapd %ymm1, %ymm6 vmovapd 21632(%rbx), %ymm1 vsubpd %ymm2, %ymm1, %ymm1 vmovapd %ymm1, 21984(%rbx) vmulpd 31136(%rbx), %ymm12, %ymm2 vdivpd 24256(%rbx), %ymm2, %ymm2 vmovapd %ymm2, 22048(%rbx) vmulpd %ymm2, %ymm10, %ymm5 vmovapd 21856(%rbx), %ymm1 vaddpd %ymm5, %ymm1, %ymm1 vmovapd %ymm1, 21856(%rbx) vmovapd 32928(%rbx), %ymm1 vmulpd 26112(%rbx), %ymm1, %ymm1 vmovapd 22016(%rbx), %ymm5 vaddpd %ymm1, %ymm5, %ymm1 vmovapd %ymm1, 20992(%rbx) vmulpd %ymm2, %ymm15, %ymm1 vmovapd 22080(%rbx), %ymm2 vaddpd %ymm1, %ymm2, %ymm1 vmovapd %ymm1, 22080(%rbx) vmovapd 31104(%rbx), %ymm15 vmulpd %ymm7, %ymm15, %ymm1 vaddpd %ymm1, %ymm3, %ymm1 vmovapd %ymm3, %ymm8 vmovapd 23936(%rbx), %ymm2 vmulpd %ymm2, %ymm0, %ymm5 vsubpd %ymm5, %ymm1, %ymm1 vmovapd %ymm1, 22784(%rbx) vmovapd 26240(%rbx), %ymm3 vmulpd %ymm3, %ymm6, %ymm1 vsubpd %ymm1, %ymm4, %ymm1 vmovapd %ymm1, 22688(%rbx) vmovapd 26336(%rbx), %ymm6 vmulpd %ymm7, %ymm6, %ymm1 vaddpd %ymm1, %ymm8, %ymm1 vmovapd 26304(%rbx), %ymm10 vmulpd %ymm10, %ymm0, %ymm4 vmovapd %ymm0, %ymm7 vsubpd %ymm4, %ymm1, %ymm0 vmovapd %ymm0, 22016(%rbx) vmovapd 22976(%rbx), %ymm5 vmovapd 24128(%rbx), %ymm0 vmulpd %ymm0, %ymm5, %ymm1 vmovapd 21824(%rbx), %ymm4 vsubpd %ymm1, %ymm4, %ymm1 vmovapd %ymm1, 21824(%rbx) vmulpd 24192(%rbx), %ymm15, %ymm4 vmovapd 22112(%rbx), %ymm1 vaddpd %ymm4, %ymm1, %ymm1 vmovapd %ymm1, 21632(%rbx) vmulpd %ymm13, %ymm5, %ymm4 vmovapd 22144(%rbx), %ymm1 vsubpd %ymm4, %ymm1, %ymm1 vmovapd %ymm1, 22144(%rbx) vmulpd %ymm3, %ymm5, %ymm4 vmovapd 21792(%rbx), %ymm1 vsubpd %ymm4, %ymm1, %ymm1 vmovapd %ymm1, 26240(%rbx) vmovapd %ymm12, %ymm3 vmulpd %ymm0, %ymm3, %ymm4 vmovapd 21920(%rbx), %ymm0 vsubpd %ymm4, %ymm0, %ymm0 vmovapd %ymm0, 23968(%rbx) vmulpd %ymm14, %ymm9, %ymm4 vaddpd %ymm4, %ymm8, %ymm4 vmovapd 24320(%rbx), %ymm13 vmovapd 24064(%rbx), %ymm12 vmulpd %ymm12, %ymm13, %ymm5 vsubpd %ymm5, %ymm4, %ymm0 vmovapd %ymm0, 22112(%rbx) vmovapd 22752(%rbx), %ymm0 vsubpd 22880(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 22880(%rbx) vmovapd 21888(%rbx), %ymm0 vsubpd 22848(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 22848(%rbx) vmulpd %ymm11, %ymm3, %ymm3 vmovapd 21952(%rbx), %ymm0 vsubpd %ymm3, %ymm0, %ymm0 vmovapd %ymm0, 24128(%rbx) vmulpd %ymm2, %ymm13, %ymm3 vmulpd %ymm14, %ymm15, %ymm5 vmovapd %ymm8, %ymm1 vaddpd %ymm5, %ymm1, %ymm5 vsubpd %ymm3, %ymm5, %ymm0 vmovapd %ymm0, 24000(%rbx) vmulpd %ymm10, %ymm13, %ymm3 vmulpd %ymm14, %ymm6, %ymm5 vmovapd %ymm6, %ymm11 vaddpd %ymm5, %ymm1, %ymm5 vsubpd %ymm3, %ymm5, %ymm0 vmovapd %ymm0, 22752(%rbx) vmovapd 31808(%rbx), %ymm0 vmulpd %ymm12, %ymm0, %ymm3 vmulpd 24160(%rbx), %ymm9, %ymm5 vmovapd %ymm9, %ymm8 vaddpd %ymm5, %ymm1, %ymm5 vsubpd %ymm3, %ymm5, %ymm0 vmovapd %ymm0, 24064(%rbx) vmovaps 20992(%rbx), %ymm0 vmovaps %ymm0, 12256(%rdi,%r12) vmovapd 31872(%rbx), %ymm6 vmulpd 26144(%rbx), %ymm6, %ymm3 vmovapd 21856(%rbx), %ymm0 vaddpd %ymm3, %ymm0, %ymm0 vmovapd %ymm0, 21952(%rbx) vmovapd 31136(%rbx), %ymm0 vmovapd 22944(%rbx), %ymm1 vmulpd %ymm0, %ymm1, %ymm3 vmovapd 24256(%rbx), %ymm14 vdivpd %ymm14, %ymm3, %ymm9 vmovapd 32864(%rbx), %ymm12 vmulpd %ymm9, %ymm12, %ymm3 vmovapd 21984(%rbx), %ymm1 vaddpd %ymm3, %ymm1, %ymm1 vmovapd %ymm1, 26304(%rbx) vmovapd 24224(%rbx), %ymm4 vmulpd %ymm4, %ymm7, %ymm3 vmovapd 24288(%rbx), %ymm13 vdivpd %ymm13, %ymm3, %ymm10 vmovapd 32896(%rbx), %ymm1 vmulpd %ymm10, %ymm1, %ymm3 vmovapd 22528(%rbx), %ymm1 vaddpd %ymm3, %ymm1, %ymm1 vmovapd %ymm1, 23936(%rbx) vmovapd 26848(%rbx), %ymm2 vmulpd %ymm9, %ymm2, %ymm3 vmovapd 22816(%rbx), %ymm1 vaddpd %ymm3, %ymm1, %ymm1 vmovapd %ymm1, 22816(%rbx) vmulpd %ymm10, %ymm8, %ymm3 vmovapd 24032(%rbx), %ymm1 vaddpd %ymm3, %ymm1, %ymm1 vmovapd %ymm1, 24032(%rbx) vmovapd 26464(%rbx), %ymm1 vmulpd %ymm9, %ymm1, %ymm3 vmovapd 24096(%rbx), %ymm5 vaddpd %ymm3, %ymm5, %ymm3 vmovapd %ymm3, 21984(%rbx) vmovapd 22624(%rbx), %ymm3 vmulpd %ymm3, %ymm6, %ymm5 vmovapd 22080(%rbx), %ymm6 vaddpd %ymm5, %ymm6, %ymm5 vmovapd %ymm5, 22080(%rbx) vmovapd 32928(%rbx), %ymm5 vmulpd 26080(%rbx), %ymm5, %ymm5 vmovapd 21632(%rbx), %ymm6 vaddpd %ymm5, %ymm6, %ymm5 vmovapd 22976(%rbx), %ymm6 vmulpd %ymm0, %ymm6, %ymm7 vdivpd %ymm14, %ymm7, %ymm14 vmulpd %ymm14, %ymm1, %ymm7 vmovapd %ymm1, %ymm6 vmovapd 21824(%rbx), %ymm0 vaddpd %ymm7, %ymm0, %ymm0 vmovapd %ymm0, 24096(%rbx) vmovapd %ymm11, %ymm0 vmulpd %ymm10, %ymm0, %ymm1 vmovapd 22016(%rbx), %ymm7 vaddpd %ymm1, %ymm7, %ymm1 vmovapd %ymm1, 22528(%rbx) vmovapd 26368(%rbx), %ymm11 vmulpd %ymm9, %ymm11, %ymm1 vmovapd 22688(%rbx), %ymm7 vaddpd %ymm1, %ymm7, %ymm1 vmovapd %ymm1, 22688(%rbx) vmulpd %ymm10, %ymm15, %ymm8 vmovapd 22784(%rbx), %ymm1 vaddpd %ymm8, %ymm1, %ymm9 vmovapd 22048(%rbx), %ymm7 vmulpd %ymm7, %ymm6, %ymm8 vmovapd %ymm2, %ymm1 vmulpd %ymm7, %ymm1, %ymm7 vmulpd %ymm14, %ymm11, %ymm11 vmulpd %ymm14, %ymm1, %ymm2 vmulpd %ymm14, %ymm12, %ymm10 vmovapd 22144(%rbx), %ymm1 vaddpd %ymm10, %ymm1, %ymm1 vmovapd %ymm1, 22784(%rbx) vmovapd 24320(%rbx), %ymm1 vmulpd %ymm4, %ymm1, %ymm10 vdivpd %ymm13, %ymm10, %ymm12 vmovapd 32896(%rbx), %ymm1 vmulpd %ymm12, %ymm1, %ymm10 vmovapd 22848(%rbx), %ymm4 vaddpd %ymm10, %ymm4, %ymm4 vmovapd %ymm4, 22848(%rbx) vmovapd 22880(%rbx), %ymm4 vaddpd %ymm2, %ymm4, %ymm2 vmovapd %ymm2, 22144(%rbx) vmovapd 26432(%rbx), %ymm6 vmulpd %ymm12, %ymm6, %ymm2 vmovapd 22112(%rbx), %ymm4 vaddpd %ymm2, %ymm4, %ymm14 vmovapd 23968(%rbx), %ymm2 vaddpd %ymm8, %ymm2, %ymm2 vmovapd %ymm2, 23968(%rbx) vmulpd %ymm12, %ymm0, %ymm2 vmovapd 22752(%rbx), %ymm0 vaddpd %ymm2, %ymm0, %ymm0 vmovapd %ymm0, 22880(%rbx) vmovapd 26240(%rbx), %ymm0 vaddpd %ymm11, %ymm0, %ymm0 vmovapd %ymm0, 22752(%rbx) vmulpd %ymm12, %ymm15, %ymm8 vmovapd 24000(%rbx), %ymm0 vaddpd %ymm8, %ymm0, %ymm12 vmulpd 24160(%rbx), %ymm1, %ymm8 vmovapd 26176(%rbx), %ymm0 vaddpd %ymm8, %ymm0, %ymm0 vmovapd %ymm0, 26176(%rbx) vmovaps 21952(%rbx), %ymm0 vmovaps %ymm0, 12224(%rdi,%r12) vmovapd 24128(%rbx), %ymm0 vaddpd %ymm7, %ymm0, %ymm0 vmovapd %ymm0, 24160(%rbx) vmovapd 24192(%rbx), %ymm11 vmulpd %ymm11, %ymm6, %ymm0 vmovapd 24064(%rbx), %ymm1 vaddpd %ymm0, %ymm1, %ymm0 vmovapd %ymm0, 24064(%rbx) vmovapd %ymm5, 12320(%rdi,%r12) vmovaps 22080(%rbx), %ymm0 vmovaps %ymm0, 12288(%rdi,%r12) vmovapd 23104(%rbx), %ymm5 vmovapd 22592(%rbx), %ymm7 vmulpd %ymm7, %ymm5, %ymm0 vmovapd 21984(%rbx), %ymm1 vaddpd %ymm0, %ymm1, %ymm0 vmovapd %ymm0, 26848(%rbx) vmovapd 23040(%rbx), %ymm6 vmovapd 22560(%rbx), %ymm4 vmulpd %ymm4, %ymm6, %ymm0 vmovapd 24032(%rbx), %ymm1 vaddpd %ymm0, %ymm1, %ymm0 vmovapd %ymm0, 26464(%rbx) vmovapd 22720(%rbx), %ymm10 vmulpd %ymm10, %ymm5, %ymm0 vmovapd 22816(%rbx), %ymm1 vaddpd %ymm0, %ymm1, %ymm0 vmovapd %ymm0, 26432(%rbx) vmovapd 22656(%rbx), %ymm15 vmulpd %ymm15, %ymm6, %ymm0 vmovapd 23936(%rbx), %ymm1 vaddpd %ymm0, %ymm1, %ymm0 vmovapd %ymm0, 26368(%rbx) vmovapd %ymm3, %ymm13 vmulpd %ymm13, %ymm5, %ymm0 vmovapd %ymm5, %ymm3 vmovapd 26304(%rbx), %ymm1 vaddpd %ymm0, %ymm1, %ymm0 vmovapd %ymm0, 26336(%rbx) vmovapd 26080(%rbx), %ymm2 vmulpd %ymm2, %ymm6, %ymm5 vaddpd %ymm5, %ymm9, %ymm0 vmovapd %ymm0, 26304(%rbx) vmovapd 26144(%rbx), %ymm9 vmulpd %ymm9, %ymm3, %ymm5 vmovapd 22688(%rbx), %ymm0 vaddpd %ymm5, %ymm0, %ymm0 vmovapd %ymm0, 26240(%rbx) vmovapd 26112(%rbx), %ymm8 vmulpd %ymm8, %ymm6, %ymm1 vmovapd 22528(%rbx), %ymm0 vaddpd %ymm1, %ymm0, %ymm0 vmovapd %ymm0, 24128(%rbx) vmovapd 23136(%rbx), %ymm0 vmulpd %ymm7, %ymm0, %ymm5 vmovapd 24096(%rbx), %ymm1 vaddpd %ymm5, %ymm1, %ymm1 vmovapd %ymm1, 24096(%rbx) vmovapd 23072(%rbx), %ymm3 vmulpd %ymm4, %ymm3, %ymm5 vaddpd %ymm5, %ymm14, %ymm1 vmovapd %ymm1, 24032(%rbx) vmulpd %ymm10, %ymm0, %ymm14 vmovapd 22144(%rbx), %ymm1 vaddpd %ymm14, %ymm1, %ymm1 vmovapd %ymm1, 24000(%rbx) vmulpd %ymm15, %ymm3, %ymm14 vmovapd %ymm15, %ymm1 vmovapd %ymm3, %ymm6 vmovapd 22848(%rbx), %ymm3 vaddpd %ymm14, %ymm3, %ymm3 vmovapd %ymm3, 23936(%rbx) vmulpd %ymm13, %ymm0, %ymm14 vmovapd 22784(%rbx), %ymm3 vaddpd %ymm14, %ymm3, %ymm14 vmulpd %ymm2, %ymm6, %ymm3 vaddpd %ymm3, %ymm12, %ymm5 vmulpd %ymm9, %ymm0, %ymm3 vmovapd 22752(%rbx), %ymm0 vaddpd %ymm3, %ymm0, %ymm13 vmulpd %ymm8, %ymm6, %ymm3 vmovapd 22880(%rbx), %ymm0 vaddpd %ymm3, %ymm0, %ymm2 vmovapd 31872(%rbx), %ymm6 vmulpd %ymm7, %ymm6, %ymm3 vmovapd 23968(%rbx), %ymm0 vaddpd %ymm3, %ymm0, %ymm0 vmovapd %ymm0, 16192(%rbx) vmovapd 32928(%rbx), %ymm9 vmulpd %ymm4, %ymm9, %ymm3 vmovapd 24064(%rbx), %ymm4 vaddpd %ymm3, %ymm4, %ymm12 vmovapd %ymm12, 16224(%rbx) vmulpd %ymm10, %ymm6, %ymm3 vmovapd 24160(%rbx), %ymm4 vaddpd %ymm3, %ymm4, %ymm15 vmovapd %ymm15, 16160(%rbx) vmovapd 31808(%rbx), %ymm3 vmulpd 26208(%rbx), %ymm3, %ymm3 vmovapd 26176(%rbx), %ymm4 vsubpd %ymm3, %ymm4, %ymm8 vmovapd 32896(%rbx), %ymm3 vmulpd %ymm11, %ymm3, %ymm3 vaddpd %ymm3, %ymm8, %ymm8 vmulpd %ymm1, %ymm9, %ymm3 vaddpd %ymm3, %ymm8, %ymm3 vmovapd %ymm3, 16128(%rbx) vmovapd %ymm3, 12384(%rdi,%r12) vmovapd %ymm15, 12352(%rdi,%r12) vmovapd %ymm12, 12448(%rdi,%r12) vmovapd %ymm0, 12416(%rdi,%r12) vmovapd %ymm2, 12512(%rdi,%r12) vmovapd %ymm13, 12480(%rdi,%r12) vmovapd %ymm5, 12576(%rdi,%r12) vmovapd %ymm14, 12544(%rdi,%r12) vmovaps 23936(%rbx), %ymm0 vmovaps %ymm0, 12640(%rdi,%r12) vmovaps 24000(%rbx), %ymm0 vmovaps %ymm0, 12608(%rdi,%r12) vmovaps 24032(%rbx), %ymm0 vmovaps %ymm0, 12704(%rdi,%r12) vmovaps 24096(%rbx), %ymm0 vmovaps %ymm0, 12672(%rdi,%r12) vmovaps 24128(%rbx), %ymm0 vmovaps %ymm0, 12768(%rdi,%r12) vmovaps 26240(%rbx), %ymm0 vmovaps %ymm0, 12736(%rdi,%r12) vmovaps 26304(%rbx), %ymm0 vmovaps %ymm0, 12832(%rdi,%r12) vmovaps 26336(%rbx), %ymm0 vmovaps %ymm0, 12800(%rdi,%r12) vmovaps 26368(%rbx), %ymm0 vmovaps %ymm0, 12896(%rdi,%r12) vmovaps 26432(%rbx), %ymm0 vmovaps %ymm0, 12864(%rdi,%r12) vmovaps 26464(%rbx), %ymm0 vmovaps %ymm0, 12960(%rdi,%r12) vmovaps 26848(%rbx), %ymm0 vmovaps %ymm0, 12928(%rdi,%r12) vmovapd 13824(%rbx), %ymm0 vmulpd 12192(%rdi,%r12), %ymm0, %ymm1 vmovapd %ymm1, 16096(%rbx) vmulpd 12000(%rdi,%r12), %ymm0, %ymm1 vmovapd %ymm1, 16064(%rbx) vmulpd 12256(%rdi,%r12), %ymm0, %ymm1 vmovapd %ymm1, 16544(%rbx) vmulpd 12288(%rdi,%r12), %ymm0, %ymm1 vmovapd %ymm1, 16512(%rbx) vmulpd 12096(%rdi,%r12), %ymm0, %ymm1 vmovapd %ymm1, 16032(%rbx) vmulpd 11968(%rdi,%r12), %ymm0, %ymm1 vmovapd %ymm1, 16000(%rbx) vmulpd 12032(%rdi,%r12), %ymm0, %ymm1 vmovapd %ymm1, 15968(%rbx) vmulpd 12224(%rdi,%r12), %ymm0, %ymm1 vmovapd %ymm1, 16480(%rbx) vmulpd 12128(%rdi,%r12), %ymm0, %ymm1 vmovapd %ymm1, 15936(%rbx) vmulpd 12064(%rdi,%r12), %ymm0, %ymm1 vmovapd %ymm1, 15904(%rbx) vmulpd 12320(%rdi,%r12), %ymm0, %ymm1 vmovapd %ymm1, 16448(%rbx) vmulpd 12160(%rdi,%r12), %ymm0, %ymm0 vmovapd %ymm0, 15872(%rbx) vmovapd 26528(%rbx), %ymm0 vmovaps .LCPI1_30(%rip), %ymm8 vmovaps %ymm8, %ymm1 movq %rdi, %r14 callq __ocl_svml_e9_pow4 vmovapd %ymm0, %ymm9 vmovapd 26496(%rbx), %ymm0 vmovaps %ymm8, %ymm1 callq __ocl_svml_e9_pow4 vmovapd %ymm0, %ymm1 vmovapd 26400(%rbx), %ymm0 vmulpd %ymm9, %ymm0, %ymm0 vmovapd 26272(%rbx), %ymm2 vmulpd %ymm1, %ymm2, %ymm1 callq __ocl_svml_e9_log8 vmovapd %ymm0, 15584(%rbx) vmovapd %ymm1, 15552(%rbx) vmovaps 31136(%rbx), %ymm0 vmovaps .LCPI1_24(%rip), %ymm8 vmovaps %ymm8, %ymm1 callq __ocl_svml_e9_pow4 vmovaps %ymm0, 15520(%rbx) vmovaps 24224(%rbx), %ymm0 vmovaps %ymm8, %ymm1 callq __ocl_svml_e9_pow4 movq %r14, %rdx movq 30880(%rbx), %r13 vmovaps %ymm0, 15488(%rbx) movq 21664(%rbx), %rsi vxorps %ymm0, %ymm0, %ymm0 vmovaps %ymm0, (%rsi) movq 21680(%rbx), %rsi vmovaps %ymm0, (%rsi) movq 21696(%rbx), %rsi vmovaps %ymm0, (%rsi) movq 21712(%rbx), %rsi vmovaps %ymm0, (%rsi) movq 21728(%rbx), %rsi vmovaps %ymm0, (%rsi) movq 21744(%rbx), %rsi vmovaps %ymm0, (%rsi) movq 21760(%rbx), %rsi vmovaps %ymm0, (%rsi) movq 21776(%rbx), %rsi vmovaps %ymm0, (%rsi) vxorpd %ymm12, %ymm12, %ymm12 movq %r15, 9672(%rdx,%r12) movq %r15, 9704(%rdx,%r12) movq %r15, 9736(%rdx,%r12) movq %r15, 9768(%rdx,%r12) movq %r15, 9800(%rdx,%r12) movq %r15, 9832(%rdx,%r12) movq %r15, 9864(%rdx,%r12) movq %r15, 9896(%rdx,%r12) movq 30816(%rbx), %rsi vmovsd (%rsi), %xmm0 movq 30976(%rbx), %rsi vmovhpd (%rsi), %xmm0, %xmm0 movq 30848(%rbx), %rsi vmovsd (%rsi), %xmm1 movq 31008(%rbx), %rsi vmovhpd (%rsi), %xmm1, %xmm1 vmovsd (%r13), %xmm2 movq 30912(%rbx), %rsi vmovhpd (%rsi), %xmm2, %xmm2 movq 30784(%rbx), %rsi vmovsd (%rsi), %xmm3 movq 30944(%rbx), %rsi vmovhpd (%rsi), %xmm3, %xmm3 vinsertf128 $1, %xmm2, %ymm3, %ymm4 vinsertf128 $1, %xmm0, %ymm1, %ymm5 movq 30432(%rbx), %rsi vmovsd (%rsi), %xmm0 movq 30400(%rbx), %rsi vmovhpd (%rsi), %xmm0, %xmm8 movq 30496(%rbx), %rsi vmovsd (%rsi), %xmm0 movq 30464(%rbx), %rsi vmovhpd (%rsi), %xmm0, %xmm0 vmovapd %ymm0, 26432(%rbx) movq 29696(%rbx), %rsi vmovsd (%rsi), %xmm0 movq 29664(%rbx), %rsi vmovhpd (%rsi), %xmm0, %xmm0 vmovapd %xmm0, 26368(%rbx) movq 29824(%rbx), %rsi vmovsd (%rsi), %xmm0 movq 29792(%rbx), %rsi vmovhpd (%rsi), %xmm0, %xmm0 vmovapd %ymm0, 26272(%rbx) movq 29760(%rbx), %rsi vmovsd (%rsi), %xmm0 movq 29728(%rbx), %rsi vmovhpd (%rsi), %xmm0, %xmm9 movq 29952(%rbx), %rsi vmovsd (%rsi), %xmm0 movq 29920(%rbx), %rsi vmovhpd (%rsi), %xmm0, %xmm13 movq 28864(%rbx), %rsi vmovsd (%rsi), %xmm0 movq 28832(%rbx), %rsi vmovhpd (%rsi), %xmm0, %xmm0 vmovapd %xmm0, 32896(%rbx) movq 29504(%rbx), %rsi vmovsd (%rsi), %xmm0 movq 29472(%rbx), %rsi vmovhpd (%rsi), %xmm0, %xmm0 vmovapd %xmm0, 26848(%rbx) movq 29120(%rbx), %rsi vmovsd (%rsi), %xmm0 movq 29088(%rbx), %rsi vmovhpd (%rsi), %xmm0, %xmm0 vmovapd %xmm0, 26464(%rbx) movq 29312(%rbx), %rsi vmovsd (%rsi), %xmm0 movq 29280(%rbx), %rsi vmovhpd (%rsi), %xmm0, %xmm0 vmovapd %ymm0, 26400(%rbx) movq 29056(%rbx), %rsi vmovsd (%rsi), %xmm0 movq 29024(%rbx), %rsi vmovhpd (%rsi), %xmm0, %xmm0 vmovapd %xmm0, 26336(%rbx) movq 30528(%rbx), %rsi vmovsd (%rsi), %xmm0 movq 30560(%rbx), %rsi vmovhpd (%rsi), %xmm0, %xmm0 vmovapd %xmm0, 26208(%rbx) movq 30592(%rbx), %rsi vmovsd (%rsi), %xmm0 movq 30624(%rbx), %rsi vmovhpd (%rsi), %xmm0, %xmm2 movq 30656(%rbx), %rsi vmovsd (%rsi), %xmm0 movq 30688(%rbx), %rsi vmovhpd (%rsi), %xmm0, %xmm0 vmovapd %xmm0, 26304(%rbx) movq 28992(%rbx), %rsi vmovsd (%rsi), %xmm0 movq 28960(%rbx), %rsi vmovhpd (%rsi), %xmm0, %xmm0 vmovapd %ymm0, 26176(%rbx) movq 29632(%rbx), %rsi vmovsd (%rsi), %xmm0 movq 29600(%rbx), %rsi vmovhpd (%rsi), %xmm0, %xmm7 movq 29184(%rbx), %rsi vmovsd (%rsi), %xmm0 movq 29152(%rbx), %rsi vmovhpd (%rsi), %xmm0, %xmm14 movq 28480(%rbx), %rsi vmovsd (%rsi), %xmm0 movq 28448(%rbx), %rsi vmovhpd (%rsi), %xmm0, %xmm0 vmovapd %ymm0, 26240(%rbx) movq 28672(%rbx), %rsi vmovsd (%rsi), %xmm0 movq 28640(%rbx), %rsi vmovhpd (%rsi), %xmm0, %xmm0 vmovapd %ymm0, 26144(%rbx) movq 30240(%rbx), %rsi vmovsd (%rsi), %xmm0 movq 30208(%rbx), %rsi vmovhpd (%rsi), %xmm0, %xmm0 vmovapd %ymm0, 24192(%rbx) movq 30016(%rbx), %rsi vmovsd (%rsi), %xmm0 movq 29984(%rbx), %rsi vmovhpd (%rsi), %xmm0, %xmm0 vmovapd %ymm0, 24096(%rbx) movq 29568(%rbx), %rsi vmovsd (%rsi), %xmm0 movq 29536(%rbx), %rsi vmovhpd (%rsi), %xmm0, %xmm0 vmovapd %ymm0, 22880(%rbx) movq 30720(%rbx), %rsi vmovsd (%rsi), %xmm0 movq 30752(%rbx), %rsi vmovhpd (%rsi), %xmm0, %xmm10 movq 28224(%rbx), %rsi vmovsd (%rsi), %xmm0 movq 28192(%rbx), %rsi vmovhpd (%rsi), %xmm0, %xmm0 vmovapd %xmm0, 23968(%rbx) movq 28416(%rbx), %rsi vmovsd (%rsi), %xmm0 movq 28384(%rbx), %rsi vmovhpd (%rsi), %xmm0, %xmm0 vmovapd %xmm0, 22848(%rbx) movq 30176(%rbx), %rsi vmovsd (%rsi), %xmm1 movq 30144(%rbx), %rsi vmovhpd (%rsi), %xmm1, %xmm15 movq 29888(%rbx), %rsi vmovsd (%rsi), %xmm1 movq 29856(%rbx), %rsi vmovhpd (%rsi), %xmm1, %xmm1 movq 29376(%rbx), %rsi vmovsd (%rsi), %xmm3 movq 29344(%rbx), %rsi vmovhpd (%rsi), %xmm3, %xmm6 movq 28544(%rbx), %rsi vmovsd (%rsi), %xmm3 movq 28512(%rbx), %rsi vmovhpd (%rsi), %xmm3, %xmm3 vmovapd %xmm3, 24128(%rbx) movq 28800(%rbx), %rsi vmovsd (%rsi), %xmm3 movq 28768(%rbx), %rsi vmovhpd (%rsi), %xmm3, %xmm3 vmovapd %ymm3, 24000(%rbx) movq 28352(%rbx), %rsi vmovsd (%rsi), %xmm3 movq 28320(%rbx), %rsi vmovhpd (%rsi), %xmm3, %xmm0 vmovapd %xmm0, 22816(%rbx) movq 28608(%rbx), %rsi vmovsd (%rsi), %xmm3 movq 28576(%rbx), %rsi vmovhpd (%rsi), %xmm3, %xmm3 vmulpd %ymm12, %ymm5, %ymm11 vaddpd %ymm4, %ymm11, %ymm11 vmovapd %ymm11, 26112(%rbx) vmulpd %ymm12, %ymm4, %ymm4 vaddpd %ymm4, %ymm5, %ymm4 vmovapd %ymm4, 26080(%rbx) vinsertf128 $1, %xmm9, %ymm13, %ymm13 vmovapd 26272(%rbx), %ymm4 vinsertf128 $1, 26368(%rbx), %ymm4, %ymm11 vmovapd 26432(%rbx), %ymm4 vinsertf128 $1, %xmm8, %ymm4, %ymm4 vmovapd %ymm4, 24032(%rbx) movq 28736(%rbx), %rsi vmovsd (%rsi), %xmm4 movq 28704(%rbx), %rsi vmovhpd (%rsi), %xmm4, %xmm4 vmovapd %xmm4, 26368(%rbx) movq 28928(%rbx), %rsi vmovsd (%rsi), %xmm4 movq 28896(%rbx), %rsi vmovhpd (%rsi), %xmm4, %xmm4 vmovapd %ymm4, 24160(%rbx) movq 30304(%rbx), %rsi vmovsd (%rsi), %xmm4 movq 30272(%rbx), %rsi vmovhpd (%rsi), %xmm4, %xmm4 vmovapd %xmm4, 24064(%rbx) movq 30368(%rbx), %rsi vmovsd (%rsi), %xmm4 movq 30336(%rbx), %rsi vmovhpd (%rsi), %xmm4, %xmm4 vmovapd %ymm4, 23936(%rbx) movq 29248(%rbx), %rsi vmovsd (%rsi), %xmm4 movq 29216(%rbx), %rax vmovhpd (%rax), %xmm4, %xmm5 movq 29440(%rbx), %rax vmovsd (%rax), %xmm4 movq 29408(%rbx), %rax vmovhpd (%rax), %xmm4, %xmm4 vinsertf128 $1, 26208(%rbx), %ymm2, %ymm8 vinsertf128 $1, 26336(%rbx), %ymm14, %ymm2 vmovapd 26400(%rbx), %ymm9 vinsertf128 $1, 26464(%rbx), %ymm9, %ymm9 vinsertf128 $1, 26848(%rbx), %ymm7, %ymm14 vmovapd 26176(%rbx), %ymm7 vinsertf128 $1, 32896(%rbx), %ymm7, %ymm7 vinsertf128 $1, 26304(%rbx), %ymm10, %ymm10 vmovapd 22880(%rbx), %ymm0 vinsertf128 $1, %xmm6, %ymm0, %ymm6 vmovapd %ymm6, 32896(%rbx) vmovapd 24096(%rbx), %ymm6 vinsertf128 $1, %xmm1, %ymm6, %ymm1 vmovapd %ymm1, 26848(%rbx) vmovapd 24192(%rbx), %ymm1 vinsertf128 $1, %xmm15, %ymm1, %ymm1 vmovapd %ymm1, 26400(%rbx) vmovaps 26144(%rbx), %ymm1 vinsertf128 $1, 22848(%rbx), %ymm1, %ymm0 vmovaps %ymm0, 26272(%rbx) vmovaps 26240(%rbx), %ymm0 vinsertf128 $1, 23968(%rbx), %ymm0, %ymm0 vmovaps %ymm0, 26208(%rbx) movq 28000(%rbx), %rax vmovsd (%rax), %xmm0 movq 27968(%rbx), %rax vmovhpd (%rax), %xmm0, %xmm0 vmovapd %ymm0, 26432(%rbx) movq 30080(%rbx), %rax vmovsd (%rax), %xmm0 movq 30048(%rbx), %rax vmovhpd (%rax), %xmm0, %xmm0 vmovapd %xmm0, 26336(%rbx) movq 27616(%rbx), %rax vmovsd (%rax), %xmm0 movq 27584(%rbx), %rax vmovhpd (%rax), %xmm0, %xmm0 vmovapd %xmm0, 26464(%rbx) movq 27872(%rbx), %rax vmovsd (%rax), %xmm0 movq 27840(%rbx), %rax vmovhpd (%rax), %xmm0, %xmm0 vmovapd %xmm0, 26176(%rbx) movq 28160(%rbx), %rax vmovsd (%rax), %xmm0 movq 30112(%rbx), %rax vmovhpd (%rax), %xmm0, %xmm0 vmovapd %ymm0, 24192(%rbx) vinsertf128 $1, 22816(%rbx), %ymm3, %ymm6 vmovapd 24000(%rbx), %ymm0 vinsertf128 $1, 24128(%rbx), %ymm0, %ymm1 movq 27552(%rbx), %rax vmovsd (%rax), %xmm0 movq 27520(%rbx), %rax vmovhpd (%rax), %xmm0, %xmm0 vmovapd %xmm0, 26304(%rbx) movq 27744(%rbx), %rax vmovsd (%rax), %xmm0 movq 27712(%rbx), %rax vmovhpd (%rax), %xmm0, %xmm0 vmovapd %ymm0, 26240(%rbx) movq 28128(%rbx), %rax vmovsd (%rax), %xmm0 movq 28096(%rbx), %rax vmovhpd (%rax), %xmm0, %xmm0 vmovapd %xmm0, 24128(%rbx) movq 28288(%rbx), %rax vmovsd (%rax), %xmm0 movq 28256(%rbx), %rax vmovhpd (%rax), %xmm0, %xmm0 vmovapd %ymm0, 24000(%rbx) movq 27808(%rbx), %rax vmovsd (%rax), %xmm0 movq 27776(%rbx), %rax vmovhpd (%rax), %xmm0, %xmm0 vmovapd %ymm0, 23968(%rbx) vmovapd 24032(%rbx), %ymm0 vmulpd %ymm12, %ymm0, %ymm0 vmovapd 26080(%rbx), %ymm3 vaddpd %ymm0, %ymm3, %ymm15 vmovapd 26112(%rbx), %ymm3 vaddpd %ymm0, %ymm3, %ymm0 vmovapd %ymm0, 26144(%rbx) vmulpd %ymm12, %ymm11, %ymm0 vaddpd %ymm0, %ymm13, %ymm0 vmulpd %ymm12, %ymm13, %ymm3 vaddpd %ymm11, %ymm3, %ymm3 vmovapd %ymm3, 24096(%rbx) vinsertf128 $1, %xmm5, %ymm4, %ymm3 vmovapd %ymm3, 26112(%rbx) vmovaps 23936(%rbx), %ymm3 vinsertf128 $1, 24064(%rbx), %ymm3, %ymm3 vmovaps %ymm3, 26080(%rbx) vmovaps 24160(%rbx), %ymm3 vinsertf128 $1, 26368(%rbx), %ymm3, %ymm3 vmovaps %ymm3, 26368(%rbx) movq 28064(%rbx), %rax vmovsd (%rax), %xmm3 movq 28032(%rbx), %rax vmovhpd (%rax), %xmm3, %xmm3 vmovapd %ymm3, 22880(%rbx) movq 27424(%rbx), %rax vmovsd (%rax), %xmm3 movq 27392(%rbx), %rax vmovhpd (%rax), %xmm3, %xmm3 vmovapd %ymm3, 24064(%rbx) movq 27680(%rbx), %rax vmovsd (%rax), %xmm3 movq 27648(%rbx), %rax vmovhpd (%rax), %xmm3, %xmm3 vmovapd %ymm3, 22816(%rbx) vmulpd %ymm12, %ymm9, %ymm3 vaddpd %ymm2, %ymm3, %ymm3 vmovapd %ymm3, 24160(%rbx) vmulpd %ymm12, %ymm2, %ymm2 vaddpd %ymm2, %ymm9, %ymm2 vmovapd %ymm2, 24032(%rbx) vmulpd %ymm12, %ymm10, %ymm2 vaddpd %ymm8, %ymm2, %ymm2 vmovapd %ymm2, 23936(%rbx) vmulpd %ymm12, %ymm8, %ymm2 vaddpd %ymm2, %ymm10, %ymm2 vmovapd %ymm2, 22848(%rbx) vmulpd %ymm12, %ymm7, %ymm2 vaddpd %ymm14, %ymm2, %ymm4 vmulpd %ymm12, %ymm14, %ymm2 vaddpd %ymm2, %ymm7, %ymm13 movq 27232(%rbx), %rax vmovsd (%rax), %xmm2 movq 27200(%rbx), %rax vmovhpd (%rax), %xmm2, %xmm7 movq 27488(%rbx), %rax vmovsd (%rax), %xmm2 movq 27456(%rbx), %rax vmovhpd (%rax), %xmm2, %xmm11 movq 27936(%rbx), %rax vmovsd (%rax), %xmm2 movq 27904(%rbx), %rax vmovhpd (%rax), %xmm2, %xmm5 movq 26976(%rbx), %rax vmovsd (%rax), %xmm2 movq 26944(%rbx), %rax vmovhpd (%rax), %xmm2, %xmm3 vmovapd 26400(%rbx), %ymm2 vmulpd %ymm12, %ymm2, %ymm14 vaddpd %ymm14, %ymm15, %ymm9 vmovapd 26848(%rbx), %ymm2 vmulpd %ymm12, %ymm2, %ymm15 vaddpd %ymm15, %ymm0, %ymm0 vmovapd 32896(%rbx), %ymm2 vmulpd %ymm12, %ymm2, %ymm2 vmovapd %ymm2, 22784(%rbx) vaddpd %ymm2, %ymm0, %ymm0 vmulpd %ymm12, %ymm0, %ymm0 vaddpd %ymm0, %ymm9, %ymm0 vmovapd %ymm0, 22752(%rbx) vmovaps 24192(%rbx), %ymm0 vinsertf128 $1, 26336(%rbx), %ymm0, %ymm0 vmovaps %ymm0, 24192(%rbx) vmovapd 26432(%rbx), %ymm0 vinsertf128 $1, 26176(%rbx), %ymm0, %ymm10 vmovapd 26208(%rbx), %ymm8 vmulpd %ymm12, %ymm8, %ymm0 vmovapd 26272(%rbx), %ymm2 vaddpd %ymm0, %ymm2, %ymm0 vmovapd %ymm0, 26432(%rbx) vmulpd %ymm12, %ymm2, %ymm0 vaddpd %ymm8, %ymm0, %ymm0 vmovapd %ymm0, 26272(%rbx) vmovapd 23968(%rbx), %ymm0 vinsertf128 $1, 26464(%rbx), %ymm0, %ymm9 vmovapd 24000(%rbx), %ymm0 vinsertf128 $1, 24128(%rbx), %ymm0, %ymm2 vmulpd %ymm12, %ymm1, %ymm0 vaddpd %ymm6, %ymm0, %ymm0 vmovapd %ymm0, 26336(%rbx) vmulpd %ymm12, %ymm6, %ymm0 vaddpd %ymm0, %ymm1, %ymm0 vmovapd %ymm0, 26208(%rbx) vmovapd 26240(%rbx), %ymm0 vinsertf128 $1, 26304(%rbx), %ymm0, %ymm1 vmovapd 22880(%rbx), %ymm0 vinsertf128 $1, %xmm5, %ymm0, %ymm5 vmovapd 22816(%rbx), %ymm0 vinsertf128 $1, %xmm11, %ymm0, %ymm6 vmovapd 24096(%rbx), %ymm0 vaddpd %ymm15, %ymm0, %ymm0 vmovapd %ymm0, 26848(%rbx) vmovapd 26368(%rbx), %ymm0 vmulpd %ymm12, %ymm0, %ymm0 vaddpd %ymm0, %ymm13, %ymm11 vaddpd %ymm0, %ymm4, %ymm13 vmovapd 24064(%rbx), %ymm0 vinsertf128 $1, %xmm7, %ymm0, %ymm0 vmovapd %ymm0, 26400(%rbx) vmovapd 26144(%rbx), %ymm0 vaddpd %ymm14, %ymm0, %ymm0 vmovapd %ymm0, 26368(%rbx) vmovapd 26080(%rbx), %ymm0 vmulpd %ymm12, %ymm0, %ymm0 vmovapd 22848(%rbx), %ymm4 vaddpd %ymm0, %ymm4, %ymm15 vmovapd 23936(%rbx), %ymm4 vaddpd %ymm0, %ymm4, %ymm0 vmovapd %ymm0, 32896(%rbx) vmovapd 26112(%rbx), %ymm0 vmulpd %ymm12, %ymm0, %ymm0 vmovapd 24032(%rbx), %ymm4 vaddpd %ymm0, %ymm4, %ymm7 vmovapd 24160(%rbx), %ymm4 vaddpd %ymm0, %ymm4, %ymm0 vmovapd %ymm0, 26464(%rbx) movq 27104(%rbx), %rax vmovsd (%rax), %xmm0 movq 27072(%rbx), %rax vmovhpd (%rax), %xmm0, %xmm0 vinsertf128 $1, %xmm3, %ymm0, %ymm3 movq 27040(%rbx), %rax vmovsd (%rax), %xmm0 movq 27008(%rbx), %rax vmovhpd (%rax), %xmm0, %xmm0 movq 27296(%rbx), %rax vmovsd (%rax), %xmm4 movq 27264(%rbx), %rax vmovhpd (%rax), %xmm4, %xmm4 vinsertf128 $1, %xmm0, %ymm4, %ymm0 vmovapd %ymm0, 26304(%rbx) vmulpd %ymm12, %ymm10, %ymm4 vaddpd %ymm4, %ymm11, %ymm0 vmulpd %ymm12, %ymm0, %ymm0 vmovapd 22752(%rbx), %ymm8 vaddpd %ymm0, %ymm8, %ymm14 vmovapd 24192(%rbx), %ymm0 vmulpd %ymm12, %ymm0, %ymm10 vaddpd %ymm10, %ymm15, %ymm0 vmulpd %ymm12, %ymm2, %ymm11 vaddpd %ymm11, %ymm7, %ymm7 vmulpd %ymm12, %ymm7, %ymm7 vaddpd %ymm7, %ymm0, %ymm8 vmulpd %ymm12, %ymm9, %ymm0 vmovapd 26272(%rbx), %ymm2 vaddpd %ymm0, %ymm2, %ymm9 vmovapd 26432(%rbx), %ymm2 vaddpd %ymm0, %ymm2, %ymm15 vmulpd %ymm12, %ymm6, %ymm0 vaddpd %ymm0, %ymm5, %ymm7 vmulpd %ymm12, %ymm5, %ymm0 vaddpd %ymm6, %ymm0, %ymm5 vmulpd %ymm12, %ymm1, %ymm0 vmovapd 26336(%rbx), %ymm1 vaddpd %ymm0, %ymm1, %ymm1 vmovapd 26208(%rbx), %ymm2 vaddpd %ymm0, %ymm2, %ymm0 movq 27168(%rbx), %rax vmovsd (%rax), %xmm6 movq 27136(%rbx), %rax vmovhpd (%rax), %xmm6, %xmm6 movq 27360(%rbx), %rax vmovsd (%rax), %xmm2 movq 27328(%rbx), %rax vmovhpd (%rax), %xmm2, %xmm2 vinsertf128 $1, %xmm6, %ymm2, %ymm2 vmulpd %ymm12, %ymm2, %ymm2 vaddpd %ymm2, %ymm0, %ymm0 vaddpd %ymm2, %ymm1, %ymm1 vaddpd %ymm4, %ymm13, %ymm4 vmovapd 26848(%rbx), %ymm2 vaddpd 22784(%rbx), %ymm2, %ymm6 vmovapd 26400(%rbx), %ymm2 vmulpd %ymm12, %ymm2, %ymm2 vaddpd %ymm2, %ymm5, %ymm5 vaddpd %ymm2, %ymm7, %ymm13 vmulpd %ymm12, %ymm3, %ymm7 vaddpd %ymm7, %ymm15, %ymm2 vmulpd %ymm12, %ymm2, %ymm2 vaddpd %ymm2, %ymm8, %ymm2 vmovapd %ymm2, 26848(%rbx) vmulpd %ymm12, %ymm0, %ymm0 vaddpd %ymm0, %ymm14, %ymm14 vmovapd 26464(%rbx), %ymm0 vaddpd %ymm11, %ymm0, %ymm2 vmovapd 32896(%rbx), %ymm0 vaddpd %ymm10, %ymm0, %ymm3 vmovapd 26304(%rbx), %ymm0 vmulpd %ymm12, %ymm0, %ymm0 vaddpd %ymm0, %ymm13, %ymm13 vaddpd %ymm0, %ymm5, %ymm10 vaddpd %ymm7, %ymm9, %ymm8 vmovapd 26368(%rbx), %ymm15 vmulpd %ymm12, %ymm15, %ymm0 vaddpd %ymm6, %ymm0, %ymm0 vmulpd %ymm12, %ymm4, %ymm4 vaddpd %ymm4, %ymm0, %ymm0 vmulpd %ymm12, %ymm1, %ymm5 vaddpd %ymm5, %ymm0, %ymm1 vmovapd 31104(%rbx), %ymm7 vmulpd %ymm7, %ymm7, %ymm0 vaddpd %ymm1, %ymm0, %ymm1 vmovapd 23808(%rbx), %ymm9 vmulpd %ymm1, %ymm9, %ymm1 vsubpd %ymm1, %ymm0, %ymm0 vmovapd %ymm0, 32896(%rbx) vmovapd 23872(%rbx), %ymm0 vmulpd %ymm7, %ymm0, %ymm7 vmulpd %ymm0, %ymm0, %ymm0 vaddpd %ymm0, %ymm14, %ymm1 vmulpd %ymm1, %ymm9, %ymm1 vsubpd %ymm1, %ymm0, %ymm11 vmulpd %ymm12, %ymm13, %ymm0 vmovapd 26848(%rbx), %ymm1 vaddpd %ymm0, %ymm1, %ymm13 vmulpd %ymm12, %ymm6, %ymm0 vaddpd %ymm0, %ymm15, %ymm14 vmulpd %ymm12, %ymm3, %ymm0 vaddpd %ymm2, %ymm0, %ymm0 vmulpd %ymm12, %ymm8, %ymm6 vaddpd %ymm6, %ymm0, %ymm0 vmulpd %ymm12, %ymm10, %ymm8 vaddpd %ymm8, %ymm0, %ymm10 vmovapd 32864(%rbx), %ymm1 vmulpd %ymm1, %ymm1, %ymm0 vaddpd %ymm10, %ymm0, %ymm10 vmovapd 23840(%rbx), %ymm15 vmulpd %ymm10, %ymm15, %ymm10 vsubpd %ymm10, %ymm0, %ymm0 vmovapd %ymm0, 31104(%rbx) vmovapd 23904(%rbx), %ymm0 vmulpd %ymm1, %ymm0, %ymm10 vmulpd %ymm0, %ymm0, %ymm0 vaddpd %ymm0, %ymm13, %ymm13 vmulpd %ymm13, %ymm15, %ymm13 vsubpd %ymm13, %ymm0, %ymm0 vmulpd %ymm12, %ymm2, %ymm2 vaddpd %ymm2, %ymm3, %ymm2 vmovapd .LCPI1_75(%rip), %ymm13 vmulpd %ymm13, %ymm11, %ymm3 vmulpd 32896(%rbx), %ymm3, %ymm3 vaddpd %ymm4, %ymm14, %ymm4 vaddpd %ymm5, %ymm4, %ymm4 vaddpd %ymm7, %ymm4, %ymm4 vmulpd %ymm4, %ymm9, %ymm4 vsubpd %ymm4, %ymm7, %ymm4 vmovapd .LCPI1_24(%rip), %ymm1 vmulpd %ymm1, %ymm4, %ymm4 vmulpd %ymm4, %ymm4, %ymm5 vsubpd %ymm3, %ymm5, %ymm3 vsqrtpd %ymm3, %ymm5 vmovapd .LCPI1_25(%rip), %ymm9 vxorpd %ymm9, %ymm4, %ymm7 vsubpd %ymm4, %ymm5, %ymm3 vsubpd %ymm5, %ymm7, %ymm4 vmulpd %ymm13, %ymm0, %ymm5 vmulpd 31104(%rbx), %ymm5, %ymm5 vaddpd %ymm6, %ymm2, %ymm2 vaddpd %ymm8, %ymm2, %ymm2 vaddpd %ymm10, %ymm2, %ymm2 vmulpd %ymm2, %ymm15, %ymm2 vsubpd %ymm2, %ymm10, %ymm2 vmulpd %ymm1, %ymm2, %ymm2 vmulpd %ymm2, %ymm2, %ymm6 vsubpd %ymm5, %ymm6, %ymm5 vsqrtpd %ymm5, %ymm6 vsubpd %ymm2, %ymm6, %ymm5 vxorpd %ymm9, %ymm2, %ymm2 vsubpd %ymm6, %ymm2, %ymm2 vxorpd %ymm9, %ymm4, %ymm4 vxorpd %ymm9, %ymm3, %ymm3 vmovapd %ymm1, %ymm6 vmulpd %ymm6, %ymm11, %ymm1 vdivpd %ymm1, %ymm3, %ymm3 vmovapd %ymm3, 20960(%rbx) vdivpd %ymm1, %ymm4, %ymm4 vmovapd %ymm4, 20928(%rbx) vxorpd %ymm9, %ymm5, %ymm1 vmulpd %ymm6, %ymm0, %ymm0 vmovapd %ymm6, %ymm7 vdivpd %ymm0, %ymm1, %ymm5 vmovapd %ymm5, 20896(%rbx) vxorpd %ymm9, %ymm2, %ymm1 vdivpd %ymm0, %ymm1, %ymm0 vmovapd %ymm0, 20864(%rbx) vcmpltpd %ymm5, %ymm0, %ymm0 vextractf128 $1, %ymm0, %xmm1 vpshufd $8, %xmm1, %xmm1 vpshufd $8, %xmm0, %xmm0 vmovlhps %xmm1, %xmm0, %xmm0 vcmpltpd %ymm3, %ymm4, %ymm1 vextractf128 $1, %ymm1, %xmm2 vpshufd $8, %xmm2, %xmm2 vpshufd $8, %xmm1, %xmm1 vmovlhps %xmm2, %xmm1, %xmm1 vmovdqa .LCPI1_20(%rip), %xmm3 vpshufb %xmm3, %xmm1, %xmm1 vmovdqa .LCPI1_21(%rip), %xmm6 vpshufb %xmm6, %xmm0, %xmm0 vpor %xmm1, %xmm0, %xmm0 vpsllw $15, %xmm0, %xmm0 vpsraw $15, %xmm0, %xmm1 vpunpcklbw %xmm0, %xmm1, %xmm0 vpslld $31, %xmm0, %xmm0 vpsrad $31, %xmm0, %xmm0 vmovdqa %xmm0, 14848(%rbx) vpmovsxdq %xmm0, %xmm0 vmovdqa %ymm0, 14912(%rbx) movl 416(%rdx,%r12), %r8d movl 18656(%rbx), %edi leal (%rdi,%r8), %eax movslq %eax, %rax vmovupd 33056(%rbx,%rax,8), %xmm0 vinsertf128 $1, 33072(%rbx,%rax,8), %ymm0, %ymm8 leal 12(%rdi,%r8), %ecx movslq %ecx, %rsi movq %rsi, 20384(%rbx) vmovupd 33056(%rbx,%rsi,8), %xmm0 vinsertf128 $1, 33072(%rbx,%rsi,8), %ymm0, %ymm2 vmovapd %ymm2, 26432(%rbx) movq 26880(%rbx), %rcx vmovupd 33056(%rbx,%rcx,8), %xmm0 vinsertf128 $1, 33072(%rbx,%rcx,8), %ymm0, %ymm9 vmovupd 33024(%rbx,%rax,8), %xmm0 vinsertf128 $1, 33040(%rbx,%rax,8), %ymm0, %ymm11 vmovupd 33024(%rbx,%rsi,8), %xmm0 vinsertf128 $1, 33040(%rbx,%rsi,8), %ymm0, %ymm4 vmovapd %ymm4, 26400(%rbx) vmovupd 33024(%rbx,%rcx,8), %xmm0 vinsertf128 $1, 33040(%rbx,%rcx,8), %ymm0, %ymm5 vsubpd %ymm8, %ymm2, %ymm0 vmulpd %ymm7, %ymm0, %ymm10 vsubpd %ymm2, %ymm9, %ymm0 vmulpd %ymm7, %ymm0, %ymm0 vmovapd %ymm0, 26848(%rbx) vmulpd %ymm0, %ymm10, %ymm0 vcmpnlepd %ymm12, %ymm0, %ymm15 vextractf128 $1, %ymm15, %xmm0 vpshufd $8, %xmm0, %xmm2 vmovdqa %xmm2, 32896(%rbx) vpshufd $8, %xmm15, %xmm0 vmovlhps %xmm2, %xmm0, %xmm0 vpshufb %xmm3, %xmm0, %xmm3 vsubpd %ymm11, %ymm4, %ymm0 vmulpd %ymm7, %ymm0, %ymm2 vsubpd %ymm4, %ymm5, %ymm0 vmulpd %ymm7, %ymm0, %ymm13 vmulpd %ymm13, %ymm2, %ymm0 vmovapd %ymm2, %ymm7 vcmpnlepd %ymm12, %ymm0, %ymm4 vmovapd %ymm4, 31104(%rbx) vextractf128 $1, %ymm4, %xmm0 vpshufd $8, %xmm0, %xmm2 vmovdqa %xmm2, 32864(%rbx) vpshufd $8, %xmm4, %xmm0 vmovlhps %xmm2, %xmm0, %xmm0 vpshufb %xmm6, %xmm0, %xmm0 vpor %xmm3, %xmm0, %xmm0 vpxor .LCPI1_17(%rip), %xmm0, %xmm3 vpmovzxwd %xmm3, %xmm0 vpslld $31, %xmm0, %xmm0 vpsrad $31, %xmm0, %xmm4 vpunpckhwd %xmm0, %xmm3, %xmm0 vpslld $31, %xmm0, %xmm0 vpsrad $31, %xmm0, %xmm0 vinsertf128 $1, %xmm0, %ymm4, %ymm0 vmovdqa 8896(%rbx), %ymm3 vptest %ymm3, %ymm0 vpunpckhbw %xmm0, %xmm1, %xmm0 vpslld $31, %xmm0, %xmm0 vpsrad $31, %xmm0, %xmm0 vmovdqa %xmm0, 14816(%rbx) vpmovsxdq %xmm0, %xmm0 vmovdqa %ymm0, 14880(%rbx) vmovapd 8864(%rbx), %ymm0 vmovapd %ymm0, %ymm1 vmovapd %ymm0, %ymm2 jb .LBB1_3542 vsubpd %ymm11, %ymm5, %ymm1 vsubpd %ymm8, %ymm9, %ymm0 vmovapd .LCPI1_28(%rip), %ymm14 vmulpd %ymm14, %ymm0, %ymm0 vmovapd %ymm0, 26336(%rbx) vmulpd %ymm14, %ymm1, %ymm5 vmovapd %ymm5, 26464(%rbx) vmovapd .LCPI1_56(%rip), %ymm8 vandpd %ymm8, %ymm0, %ymm1 vmovdqa %ymm15, %ymm2 vandpd %ymm8, %ymm10, %ymm15 vcmpltpd %ymm1, %ymm15, %ymm3 vextractf128 $1, %ymm3, %xmm0 vpshufd $8, %xmm0, %xmm4 vpshufd $8, %xmm3, %xmm0 vandpd %ymm8, %ymm5, %ymm12 vmovlhps %xmm4, %xmm0, %xmm3 vmovapd %ymm7, 26368(%rbx) vandpd %ymm8, %ymm7, %ymm5 vcmpltpd %ymm12, %ymm5, %ymm4 vextractf128 $1, %ymm4, %xmm0 vpshufd $8, %xmm0, %xmm6 vpshufd $8, %xmm4, %xmm0 vmovlhps %xmm6, %xmm0, %xmm4 vmovapd 26848(%rbx), %ymm9 vandpd %ymm8, %ymm9, %ymm11 vcmpltpd %ymm11, %ymm15, %ymm6 vextractf128 $1, %ymm6, %xmm0 vpshufd $8, %xmm0, %xmm0 vpshufd $8, %xmm6, %xmm6 vmovlhps %xmm0, %xmm6, %xmm6 vandpd %ymm8, %ymm13, %ymm15 vcmpltpd %ymm15, %ymm5, %ymm5 vextractf128 $1, %ymm5, %xmm0 vpshufd $8, %xmm0, %xmm0 vpshufd $8, %xmm5, %xmm5 vmovlhps %xmm0, %xmm5, %xmm0 vcmpltpd %ymm12, %ymm15, %ymm12 vmovdqa %ymm2, %ymm15 vmovdqa .LCPI1_21(%rip), %xmm7 vpshufb %xmm7, %xmm0, %xmm0 vmovdqa .LCPI1_20(%rip), %xmm2 vpshufb %xmm2, %xmm6, %xmm5 vpor %xmm5, %xmm0, %xmm5 vpshufb %xmm7, %xmm4, %xmm0 vpshufb %xmm2, %xmm3, %xmm3 vpor %xmm3, %xmm0, %xmm6 vextractf128 $1, %ymm12, %xmm0 vpshufd $8, %xmm0, %xmm0 vpshufd $8, %xmm12, %xmm3 vmovlhps %xmm0, %xmm3, %xmm3 vmovdqa 31104(%rbx), %ymm0 vpshufd $8, %xmm0, %xmm0 vmovaps 32864(%rbx), %xmm4 vmovlhps %xmm4, %xmm0, %xmm4 vcmpltpd %ymm1, %ymm11, %ymm11 vpsllw $15, %xmm6, %xmm0 vpsraw $15, %xmm0, %xmm0 vmovdqa .LCPI1_17(%rip), %xmm6 vpxor %xmm6, %xmm0, %xmm1 vpsllw $15, %xmm5, %xmm0 vpsraw $15, %xmm0, %xmm0 vpxor %xmm6, %xmm0, %xmm0 vpor %xmm1, %xmm0, %xmm1 vextractf128 $1, %ymm11, %xmm0 vpshufd $8, %xmm0, %xmm0 vpshufd $8, %xmm11, %xmm5 vmovlhps %xmm0, %xmm5, %xmm5 vpshufb %xmm7, %xmm3, %xmm3 vpshufb %xmm7, %xmm4, %xmm4 vpshufd $8, %xmm15, %xmm0 vmovaps 32896(%rbx), %xmm6 vmovlhps %xmm6, %xmm0, %xmm0 vpshufb %xmm2, %xmm0, %xmm0 vpor %xmm0, %xmm4, %xmm0 vpsllw $15, %xmm0, %xmm0 vpsraw $15, %xmm0, %xmm0 vpand %xmm1, %xmm0, %xmm1 vpshufb %xmm2, %xmm5, %xmm0 vpunpckhbw %xmm0, %xmm1, %xmm4 vpor %xmm0, %xmm3, %xmm0 vpslld $31, %xmm4, %xmm4 vpsllw $15, %xmm0, %xmm0 vpsraw $15, %xmm0, %xmm3 vpmovsxdq %xmm4, %xmm5 vmovhlps %xmm4, %xmm4, %xmm0 vpmovsxdq %xmm0, %xmm0 vinsertf128 $1, %xmm0, %ymm5, %ymm4 vpunpckhbw %xmm0, %xmm3, %xmm0 vpslld $31, %xmm0, %xmm0 vpmovsxdq %xmm0, %xmm5 vmovhlps %xmm0, %xmm0, %xmm0 vpmovsxdq %xmm0, %xmm0 vinsertf128 $1, %xmm0, %ymm5, %ymm5 vpunpcklbw %xmm0, %xmm1, %xmm0 vpslld $31, %xmm0, %xmm0 vpmovsxdq %xmm0, %xmm1 vmovhlps %xmm0, %xmm0, %xmm0 vpmovsxdq %xmm0, %xmm6 vpunpcklbw %xmm0, %xmm3, %xmm3 vmovapd 26336(%rbx), %ymm0 vblendvpd %ymm5, %ymm9, %ymm0, %ymm0 vblendvpd %ymm4, %ymm0, %ymm10, %ymm0 vmulpd %ymm14, %ymm0, %ymm2 vinsertf128 $1, %xmm6, %ymm1, %ymm1 vpslld $31, %xmm3, %xmm0 vpmovsxdq %xmm0, %xmm3 vmovhlps %xmm0, %xmm0, %xmm0 vpmovsxdq %xmm0, %xmm0 vinsertf128 $1, %xmm0, %ymm3, %ymm0 vmovapd 26464(%rbx), %ymm3 vblendvpd %ymm0, %ymm13, %ymm3, %ymm0 vmovapd 26368(%rbx), %ymm3 vblendvpd %ymm1, %ymm0, %ymm3, %ymm0 vmulpd %ymm14, %ymm0, %ymm1 .LBB1_3542: vmovapd %ymm1, 26272(%rbx) vmovapd %ymm2, 26304(%rbx) leal 156(%rdi,%r8), %eax movslq %eax, %rsi movq %rsi, 20416(%rbx) vmovupd 33056(%rbx,%rsi,8), %xmm1 leal 144(%rdi,%r8), %eax movl %edi, %ecx vmovupd 33024(%rbx,%rsi,8), %xmm3 movslq %eax, %rax movq 32064(%rbx), %rdi vmovupd 33056(%rbx,%rdi,8), %xmm7 vmovupd 33024(%rbx,%rdi,8), %xmm6 vmovupd 33024(%rbx,%rax,8), %xmm5 vmovupd 33056(%rbx,%rax,8), %xmm0 vinsertf128 $1, 33072(%rbx,%rax,8), %ymm0, %ymm4 vinsertf128 $1, 33072(%rbx,%rsi,8), %ymm1, %ymm8 vmovapd %ymm8, 26368(%rbx) vinsertf128 $1, 33040(%rbx,%rax,8), %ymm5, %ymm5 vinsertf128 $1, 33040(%rbx,%rsi,8), %ymm3, %ymm3 vmovapd %ymm3, 26336(%rbx) vinsertf128 $1, 33072(%rbx,%rdi,8), %ymm7, %ymm11 vinsertf128 $1, 33040(%rbx,%rdi,8), %ymm6, %ymm12 vpshufd $8, %xmm15, %xmm0 vmovaps 32896(%rbx), %xmm1 vmovlhps %xmm1, %xmm0, %xmm0 vmovdqa 31104(%rbx), %ymm1 vpshufd $8, %xmm1, %xmm1 vmovaps 32864(%rbx), %xmm2 vmovlhps %xmm2, %xmm1, %xmm1 vsubpd %ymm5, %ymm3, %ymm2 vsubpd %ymm3, %ymm12, %ymm3 vsubpd %ymm4, %ymm8, %ymm6 vsubpd %ymm8, %ymm11, %ymm7 vmovapd .LCPI1_24(%rip), %ymm10 vmulpd %ymm10, %ymm6, %ymm14 vmulpd %ymm10, %ymm7, %ymm15 vmulpd %ymm10, %ymm2, %ymm7 vmulpd %ymm10, %ymm3, %ymm8 vmovapd %ymm8, 32864(%rbx) vmovdqa .LCPI1_21(%rip), %xmm6 vpshufb %xmm6, %xmm1, %xmm1 vmovdqa .LCPI1_20(%rip), %xmm3 vpshufb %xmm3, %xmm0, %xmm0 vpor %xmm0, %xmm1, %xmm1 vmulpd %ymm15, %ymm14, %ymm0 vxorpd %ymm2, %ymm2, %ymm2 vcmpnlepd %ymm2, %ymm0, %ymm10 vextractf128 $1, %ymm10, %xmm0 vpshufd $8, %xmm0, %xmm9 vpshufd $8, %xmm10, %xmm0 vmovlhps %xmm9, %xmm0, %xmm0 vpshufb %xmm3, %xmm0, %xmm3 vmulpd %ymm8, %ymm7, %ymm0 vcmpnlepd %ymm2, %ymm0, %ymm13 vextractf128 $1, %ymm13, %xmm0 vpshufd $8, %xmm0, %xmm2 vmovdqa %xmm2, 32896(%rbx) vpshufd $8, %xmm13, %xmm0 vmovlhps %xmm2, %xmm0, %xmm0 vpshufb %xmm6, %xmm0, %xmm0 vpor %xmm3, %xmm0, %xmm3 vpsllw $15, %xmm1, %xmm0 vpsraw $15, %xmm0, %xmm1 vpunpckhbw %xmm0, %xmm1, %xmm0 vpslld $31, %xmm0, %xmm0 vmovdqa %xmm0, 26848(%rbx) vpmovsxdq %xmm0, %xmm0 vmovdqa %ymm0, 24192(%rbx) vpxor .LCPI1_17(%rip), %xmm3, %xmm3 vpunpcklbw %xmm0, %xmm1, %xmm0 vpslld $31, %xmm0, %xmm2 vmovdqa %xmm2, 26464(%rbx) vpmovzxwd %xmm3, %xmm0 vpslld $31, %xmm0, %xmm0 vpsrad $31, %xmm0, %xmm1 vpunpckhwd %xmm0, %xmm3, %xmm0 vpslld $31, %xmm0, %xmm0 vpsrad $31, %xmm0, %xmm0 vinsertf128 $1, %xmm0, %ymm1, %ymm1 vpmovsxdq %xmm2, %xmm0 vmovdqa %ymm0, 24160(%rbx) vmovdqa 8800(%rbx), %ymm0 vptest %ymm0, %ymm1 vmovapd 8832(%rbx), %ymm0 vmovapd %ymm0, %ymm1 vmovapd %ymm0, %ymm2 jb .LBB1_3544 vsubpd %ymm5, %ymm12, %ymm1 vsubpd %ymm4, %ymm11, %ymm0 vmovapd .LCPI1_28(%rip), %ymm8 vmulpd %ymm8, %ymm0, %ymm0 vmovapd %ymm0, 26208(%rbx) vmulpd %ymm8, %ymm1, %ymm4 vmovapd %ymm4, 26240(%rbx) vmovdqa %ymm13, %ymm2 vmovapd .LCPI1_56(%rip), %ymm13 vmovaps %xmm9, 31104(%rbx) vmovdqa %ymm10, %ymm9 vandpd %ymm13, %ymm0, %ymm10 vmovapd %ymm14, 26176(%rbx) vandpd %ymm13, %ymm14, %ymm14 vcmpltpd %ymm10, %ymm14, %ymm1 vextractf128 $1, %ymm1, %xmm0 vpshufd $8, %xmm0, %xmm3 vpshufd $8, %xmm1, %xmm0 vandpd %ymm13, %ymm4, %ymm12 vmovlhps %xmm3, %xmm0, %xmm1 vandpd %ymm13, %ymm7, %ymm6 vcmpltpd %ymm12, %ymm6, %ymm3 vextractf128 $1, %ymm3, %xmm0 vpshufd $8, %xmm0, %xmm4 vpshufd $8, %xmm3, %xmm0 vmovlhps %xmm4, %xmm0, %xmm3 vandpd %ymm13, %ymm15, %ymm11 vcmpltpd %ymm11, %ymm14, %ymm4 vextractf128 $1, %ymm4, %xmm0 vmovapd %ymm7, 26144(%rbx) vpshufd $8, %xmm0, %xmm7 vpshufd $8, %xmm4, %xmm0 vmovlhps %xmm7, %xmm0, %xmm4 vmovapd 32864(%rbx), %ymm14 vandpd %ymm13, %ymm14, %ymm7 vmovdqa %ymm2, %ymm13 vcmpltpd %ymm7, %ymm6, %ymm6 vextractf128 $1, %ymm6, %xmm0 vpshufd $8, %xmm0, %xmm0 vpshufd $8, %xmm6, %xmm6 vmovlhps %xmm0, %xmm6, %xmm0 vcmpltpd %ymm12, %ymm7, %ymm7 vmovdqa .LCPI1_21(%rip), %xmm2 vpshufb %xmm2, %xmm0, %xmm0 vmovdqa .LCPI1_20(%rip), %xmm5 vpshufb %xmm5, %xmm4, %xmm4 vpor %xmm4, %xmm0, %xmm6 vpshufb %xmm2, %xmm3, %xmm0 vpshufb %xmm5, %xmm1, %xmm1 vpor %xmm1, %xmm0, %xmm4 vextractf128 $1, %ymm7, %xmm0 vpshufd $8, %xmm0, %xmm0 vpshufd $8, %xmm7, %xmm1 vmovlhps %xmm0, %xmm1, %xmm12 vpshufd $8, %xmm13, %xmm0 vmovaps 32896(%rbx), %xmm1 vmovlhps %xmm1, %xmm0, %xmm3 vcmpltpd %ymm10, %ymm11, %ymm7 vmovdqa %ymm9, %ymm10 vmovaps 31104(%rbx), %xmm9 vpsllw $15, %xmm4, %xmm0 vpsraw $15, %xmm0, %xmm0 vmovdqa .LCPI1_17(%rip), %xmm1 vpxor %xmm1, %xmm0, %xmm4 vpsllw $15, %xmm6, %xmm0 vpsraw $15, %xmm0, %xmm0 vpxor %xmm1, %xmm0, %xmm0 vpor %xmm4, %xmm0, %xmm6 vextractf128 $1, %ymm7, %xmm0 vpshufd $8, %xmm0, %xmm0 vpshufd $8, %xmm7, %xmm4 vmovlhps %xmm0, %xmm4, %xmm4 vpshufb %xmm2, %xmm12, %xmm7 vpshufb %xmm2, %xmm3, %xmm1 vpshufd $8, %xmm10, %xmm0 vmovlhps %xmm9, %xmm0, %xmm0 vpshufb %xmm5, %xmm0, %xmm0 vpor %xmm0, %xmm1, %xmm0 vpsllw $15, %xmm0, %xmm0 vpsraw $15, %xmm0, %xmm0 vpand %xmm6, %xmm0, %xmm1 vpshufb %xmm5, %xmm4, %xmm0 vpunpckhbw %xmm0, %xmm1, %xmm3 vpor %xmm0, %xmm7, %xmm0 vpslld $31, %xmm3, %xmm4 vpsllw $15, %xmm0, %xmm0 vpsraw $15, %xmm0, %xmm3 vpmovsxdq %xmm4, %xmm6 vmovhlps %xmm4, %xmm4, %xmm0 vpmovsxdq %xmm0, %xmm0 vinsertf128 $1, %xmm0, %ymm6, %ymm6 vpunpckhbw %xmm0, %xmm3, %xmm0 vpslld $31, %xmm0, %xmm0 vpmovsxdq %xmm0, %xmm4 vmovhlps %xmm0, %xmm0, %xmm0 vpmovsxdq %xmm0, %xmm0 vinsertf128 $1, %xmm0, %ymm4, %ymm4 vpunpcklbw %xmm0, %xmm1, %xmm0 vpslld $31, %xmm0, %xmm0 vpmovsxdq %xmm0, %xmm1 vmovhlps %xmm0, %xmm0, %xmm0 vpmovsxdq %xmm0, %xmm7 vpunpcklbw %xmm0, %xmm3, %xmm3 vmovapd 26208(%rbx), %ymm0 vblendvpd %ymm4, %ymm15, %ymm0, %ymm0 vmovapd 26176(%rbx), %ymm2 vblendvpd %ymm6, %ymm0, %ymm2, %ymm0 vmulpd %ymm8, %ymm0, %ymm2 vinsertf128 $1, %xmm7, %ymm1, %ymm1 vpslld $31, %xmm3, %xmm0 vpmovsxdq %xmm0, %xmm3 vmovhlps %xmm0, %xmm0, %xmm0 vpmovsxdq %xmm0, %xmm0 vinsertf128 $1, %xmm0, %ymm3, %ymm0 vmovapd 26240(%rbx), %ymm3 vblendvpd %ymm0, %ymm14, %ymm3, %ymm0 vmovapd 26144(%rbx), %ymm3 vblendvpd %ymm1, %ymm0, %ymm3, %ymm0 vmulpd %ymm8, %ymm0, %ymm1 .LBB1_3544: vmovapd %ymm1, 26144(%rbx) vmovapd %ymm2, 26176(%rbx) leal 300(%rcx,%r8), %eax movslq %eax, %rsi movq %rsi, 20448(%rbx) vmovupd 33056(%rbx,%rsi,8), %xmm1 leal 288(%rcx,%r8), %eax vmovupd 33024(%rbx,%rsi,8), %xmm3 movslq %eax, %rax movq 32096(%rbx), %rdi vmovupd 33056(%rbx,%rdi,8), %xmm7 vmovupd 33024(%rbx,%rdi,8), %xmm6 vmovupd 33024(%rbx,%rax,8), %xmm5 vmovupd 33056(%rbx,%rax,8), %xmm0 vinsertf128 $1, 33072(%rbx,%rax,8), %ymm0, %ymm4 vinsertf128 $1, 33072(%rbx,%rsi,8), %ymm1, %ymm8 vmovapd %ymm8, 26240(%rbx) vinsertf128 $1, 33040(%rbx,%rax,8), %ymm5, %ymm5 vinsertf128 $1, 33040(%rbx,%rsi,8), %ymm3, %ymm3 vmovapd %ymm3, 26208(%rbx) vinsertf128 $1, 33072(%rbx,%rdi,8), %ymm7, %ymm14 vinsertf128 $1, 33040(%rbx,%rdi,8), %ymm6, %ymm12 vpshufd $8, %xmm10, %xmm0 vmovlhps %xmm9, %xmm0, %xmm0 vpshufd $8, %xmm13, %xmm1 vmovaps 32896(%rbx), %xmm2 vmovlhps %xmm2, %xmm1, %xmm1 vsubpd %ymm5, %ymm3, %ymm2 vsubpd %ymm3, %ymm12, %ymm3 vsubpd %ymm4, %ymm8, %ymm6 vsubpd %ymm8, %ymm14, %ymm7 vmovapd .LCPI1_24(%rip), %ymm8 vmulpd %ymm8, %ymm6, %ymm15 vmulpd %ymm8, %ymm7, %ymm11 vmulpd %ymm8, %ymm2, %ymm13 vmulpd %ymm8, %ymm3, %ymm9 vmovapd %ymm9, 26080(%rbx) vmovdqa .LCPI1_21(%rip), %xmm7 vpshufb %xmm7, %xmm1, %xmm1 vmovdqa .LCPI1_20(%rip), %xmm6 vpshufb %xmm6, %xmm0, %xmm0 vpor %xmm0, %xmm1, %xmm2 vmulpd %ymm11, %ymm15, %ymm0 vxorpd %ymm3, %ymm3, %ymm3 vcmpnlepd %ymm3, %ymm0, %ymm8 vextractf128 $1, %ymm8, %xmm0 vpshufd $8, %xmm0, %xmm1 vmovdqa %xmm1, 32896(%rbx) vpshufd $8, %xmm8, %xmm0 vmovlhps %xmm1, %xmm0, %xmm0 vpshufb %xmm6, %xmm0, %xmm1 vmulpd %ymm9, %ymm13, %ymm0 vcmpnlepd %ymm3, %ymm0, %ymm6 vmovapd %ymm6, 31104(%rbx) vextractf128 $1, %ymm6, %xmm0 vpshufd $8, %xmm0, %xmm3 vmovdqa %xmm3, 32864(%rbx) vpshufd $8, %xmm6, %xmm0 vmovlhps %xmm3, %xmm0, %xmm0 vpshufb %xmm7, %xmm0, %xmm0 vpor %xmm1, %xmm0, %xmm1 vpsllw $15, %xmm2, %xmm0 vpsraw $15, %xmm0, %xmm2 vpunpckhbw %xmm0, %xmm2, %xmm0 vpslld $31, %xmm0, %xmm0 vmovdqa %xmm0, 24064(%rbx) vpmovsxdq %xmm0, %xmm0 vmovdqa %ymm0, 24000(%rbx) vpxor .LCPI1_17(%rip), %xmm1, %xmm1 vpunpcklbw %xmm0, %xmm2, %xmm0 vpslld $31, %xmm0, %xmm3 vmovdqa %xmm3, 24032(%rbx) vpmovzxwd %xmm1, %xmm0 vpslld $31, %xmm0, %xmm0 vpsrad $31, %xmm0, %xmm2 vpunpckhwd %xmm0, %xmm1, %xmm0 vpslld $31, %xmm0, %xmm0 vpsrad $31, %xmm0, %xmm0 vinsertf128 $1, %xmm0, %ymm2, %ymm1 vpmovsxdq %xmm3, %xmm0 vmovdqa %ymm0, 23968(%rbx) vmovdqa 8736(%rbx), %ymm0 vptest %ymm0, %ymm1 vmovapd 8768(%rbx), %ymm0 vmovapd %ymm0, %ymm1 vmovapd %ymm0, %ymm6 movq 31648(%rbx), %r10 movq 31584(%rbx), %r11 movq 25440(%rbx), %r15 jb .LBB1_3546 vsubpd %ymm5, %ymm12, %ymm1 vsubpd %ymm4, %ymm14, %ymm0 vmovapd .LCPI1_28(%rip), %ymm10 vmulpd %ymm10, %ymm0, %ymm0 vmovapd %ymm0, 24096(%rbx) vmulpd %ymm10, %ymm1, %ymm3 vmovapd %ymm3, 24128(%rbx) vmovaps %ymm8, 26112(%rbx) vmovapd .LCPI1_56(%rip), %ymm8 vandpd %ymm8, %ymm0, %ymm12 vmovapd %ymm15, %ymm9 vandpd %ymm8, %ymm9, %ymm15 vcmpltpd %ymm12, %ymm15, %ymm1 vextractf128 $1, %ymm1, %xmm0 vpshufd $8, %xmm0, %xmm2 vpshufd $8, %xmm1, %xmm0 vandpd %ymm8, %ymm3, %ymm14 vmovlhps %xmm2, %xmm0, %xmm2 vandpd %ymm8, %ymm13, %ymm1 vcmpltpd %ymm14, %ymm1, %ymm3 vextractf128 $1, %ymm3, %xmm0 vpshufd $8, %xmm0, %xmm4 vpshufd $8, %xmm3, %xmm0 vmovlhps %xmm4, %xmm0, %xmm3 vmovapd %ymm13, 23936(%rbx) vandpd %ymm8, %ymm11, %ymm13 vcmpltpd %ymm13, %ymm15, %ymm4 vextractf128 $1, %ymm4, %xmm0 vpshufd $8, %xmm0, %xmm7 vpshufd $8, %xmm4, %xmm0 vmovlhps %xmm7, %xmm0, %xmm4 vmovapd 26080(%rbx), %ymm15 vandpd %ymm8, %ymm15, %ymm7 vcmpltpd %ymm7, %ymm1, %ymm1 vextractf128 $1, %ymm1, %xmm0 vpshufd $8, %xmm0, %xmm0 vpshufd $8, %xmm1, %xmm1 vmovlhps %xmm0, %xmm1, %xmm0 vcmpltpd %ymm14, %ymm7, %ymm7 vmovdqa .LCPI1_21(%rip), %xmm5 vpshufb %xmm5, %xmm0, %xmm0 vmovdqa .LCPI1_20(%rip), %xmm6 vpshufb %xmm6, %xmm4, %xmm1 vpor %xmm1, %xmm0, %xmm1 vpshufb %xmm5, %xmm3, %xmm0 vpshufb %xmm6, %xmm2, %xmm2 vpor %xmm2, %xmm0, %xmm4 vextractf128 $1, %ymm7, %xmm0 vpshufd $8, %xmm0, %xmm0 vpshufd $8, %xmm7, %xmm2 vmovlhps %xmm0, %xmm2, %xmm8 vmovdqa 31104(%rbx), %ymm0 vpshufd $8, %xmm0, %xmm0 vmovaps 32864(%rbx), %xmm2 vmovlhps %xmm2, %xmm0, %xmm3 vcmpltpd %ymm12, %ymm13, %ymm7 vpsllw $15, %xmm4, %xmm0 vpsraw $15, %xmm0, %xmm0 vmovdqa .LCPI1_17(%rip), %xmm2 vpxor %xmm2, %xmm0, %xmm4 vpsllw $15, %xmm1, %xmm0 vpsraw $15, %xmm0, %xmm0 vpxor %xmm2, %xmm0, %xmm0 vpor %xmm4, %xmm0, %xmm1 vextractf128 $1, %ymm7, %xmm0 vpshufd $8, %xmm0, %xmm0 vpshufd $8, %xmm7, %xmm4 vmovlhps %xmm0, %xmm4, %xmm4 vpshufb %xmm5, %xmm8, %xmm7 vmovdqa 26112(%rbx), %ymm8 vpshufb %xmm5, %xmm3, %xmm2 vpshufd $8, %xmm8, %xmm0 vmovaps 32896(%rbx), %xmm3 vmovlhps %xmm3, %xmm0, %xmm0 vpshufb %xmm6, %xmm0, %xmm0 vpor %xmm0, %xmm2, %xmm0 vpsllw $15, %xmm0, %xmm0 vpsraw $15, %xmm0, %xmm0 vpand %xmm1, %xmm0, %xmm2 vpshufb %xmm6, %xmm4, %xmm0 vpunpckhbw %xmm0, %xmm2, %xmm1 vpor %xmm0, %xmm7, %xmm0 vpslld $31, %xmm1, %xmm1 vpsllw $15, %xmm0, %xmm0 vpsraw $15, %xmm0, %xmm3 vpmovsxdq %xmm1, %xmm4 vmovhlps %xmm1, %xmm1, %xmm0 vpmovsxdq %xmm0, %xmm0 vinsertf128 $1, %xmm0, %ymm4, %ymm1 vpunpckhbw %xmm0, %xmm3, %xmm0 vpslld $31, %xmm0, %xmm0 vpmovsxdq %xmm0, %xmm4 vmovhlps %xmm0, %xmm0, %xmm0 vpmovsxdq %xmm0, %xmm0 vinsertf128 $1, %xmm0, %ymm4, %ymm4 vpunpcklbw %xmm0, %xmm2, %xmm0 vpslld $31, %xmm0, %xmm0 vpmovsxdq %xmm0, %xmm2 vmovhlps %xmm0, %xmm0, %xmm0 vpmovsxdq %xmm0, %xmm7 vpunpcklbw %xmm0, %xmm3, %xmm3 vmovapd 24096(%rbx), %ymm0 vblendvpd %ymm4, %ymm11, %ymm0, %ymm0 vblendvpd %ymm1, %ymm0, %ymm9, %ymm0 vmulpd %ymm10, %ymm0, %ymm6 vinsertf128 $1, %xmm7, %ymm2, %ymm1 vpslld $31, %xmm3, %xmm0 vpmovsxdq %xmm0, %xmm2 vmovhlps %xmm0, %xmm0, %xmm0 vpmovsxdq %xmm0, %xmm0 vinsertf128 $1, %xmm0, %ymm2, %ymm0 vmovapd 24128(%rbx), %ymm2 vblendvpd %ymm0, %ymm15, %ymm2, %ymm0 vmovapd 23936(%rbx), %ymm2 vblendvpd %ymm1, %ymm0, %ymm2, %ymm0 vmulpd %ymm10, %ymm0, %ymm1 .LBB1_3546: vmovapd %ymm1, 24096(%rbx) vmovapd %ymm6, 24128(%rbx) leal 444(%rcx,%r8), %eax movslq %eax, %rdi movq %rdi, 20480(%rbx) vmovupd 33056(%rbx,%rdi,8), %xmm1 leal 432(%rcx,%r8), %eax vmovupd 33024(%rbx,%rdi,8), %xmm2 movslq %eax, %rax movq 32416(%rbx), %rsi vmovupd 33056(%rbx,%rsi,8), %xmm4 vmovupd 33024(%rbx,%rsi,8), %xmm3 vmovupd 33024(%rbx,%rax,8), %xmm5 vmovupd 33056(%rbx,%rax,8), %xmm0 vinsertf128 $1, 33072(%rbx,%rax,8), %ymm0, %ymm14 vinsertf128 $1, 33072(%rbx,%rdi,8), %ymm1, %ymm6 vmovapd %ymm6, 26112(%rbx) vinsertf128 $1, 33040(%rbx,%rax,8), %ymm5, %ymm15 vinsertf128 $1, 33040(%rbx,%rdi,8), %ymm2, %ymm1 vmovapd %ymm1, 26080(%rbx) vinsertf128 $1, 33072(%rbx,%rsi,8), %ymm4, %ymm12 vinsertf128 $1, 33040(%rbx,%rsi,8), %ymm3, %ymm13 vpshufd $8, %xmm8, %xmm0 vmovaps 32896(%rbx), %xmm2 vmovlhps %xmm2, %xmm0, %xmm2 vmovdqa 31104(%rbx), %ymm0 vpshufd $8, %xmm0, %xmm0 vmovaps 32864(%rbx), %xmm3 vmovlhps %xmm3, %xmm0, %xmm3 vsubpd %ymm15, %ymm1, %ymm0 vsubpd %ymm1, %ymm13, %ymm1 vsubpd %ymm14, %ymm6, %ymm4 vsubpd %ymm6, %ymm12, %ymm5 vmovapd .LCPI1_24(%rip), %ymm6 vmulpd %ymm6, %ymm4, %ymm8 vmulpd %ymm6, %ymm5, %ymm9 vmovapd %ymm9, 31104(%rbx) vmulpd %ymm6, %ymm0, %ymm7 vmulpd %ymm6, %ymm1, %ymm5 vmovapd %ymm5, 32864(%rbx) vmovdqa .LCPI1_21(%rip), %xmm4 vpshufb %xmm4, %xmm3, %xmm0 vmovdqa .LCPI1_20(%rip), %xmm3 vpshufb %xmm3, %xmm2, %xmm2 vpor %xmm2, %xmm0, %xmm2 vmulpd %ymm9, %ymm8, %ymm0 vmovapd %ymm8, %ymm6 vxorpd %ymm1, %ymm1, %ymm1 vcmpnlepd %ymm1, %ymm0, %ymm8 vextractf128 $1, %ymm8, %xmm0 vpshufd $8, %xmm0, %xmm11 vpshufd $8, %xmm8, %xmm0 vmovlhps %xmm11, %xmm0, %xmm0 vpshufb %xmm3, %xmm0, %xmm3 vmulpd %ymm5, %ymm7, %ymm0 vcmpnlepd %ymm1, %ymm0, %ymm9 vextractf128 $1, %ymm9, %xmm0 vpshufd $8, %xmm0, %xmm1 vmovdqa %xmm1, 32896(%rbx) vpshufd $8, %xmm9, %xmm0 vmovlhps %xmm1, %xmm0, %xmm0 vpshufb %xmm4, %xmm0, %xmm0 vpor %xmm3, %xmm0, %xmm3 vpsllw $15, %xmm2, %xmm0 vpsraw $15, %xmm0, %xmm2 vpunpckhbw %xmm0, %xmm2, %xmm0 vpslld $31, %xmm0, %xmm0 vmovdqa %xmm0, 23840(%rbx) vpmovsxdq %xmm0, %xmm0 vmovdqa %ymm0, 23808(%rbx) vpxor .LCPI1_17(%rip), %xmm3, %xmm3 vpunpcklbw %xmm0, %xmm2, %xmm0 vpslld $31, %xmm0, %xmm1 vmovdqa %xmm1, 22848(%rbx) vpmovzxwd %xmm3, %xmm0 vpslld $31, %xmm0, %xmm0 vpsrad $31, %xmm0, %xmm2 vpunpckhwd %xmm0, %xmm3, %xmm0 vpslld $31, %xmm0, %xmm0 vpsrad $31, %xmm0, %xmm0 vinsertf128 $1, %xmm0, %ymm2, %ymm2 vpmovsxdq %xmm1, %xmm0 vmovdqa %ymm0, 22880(%rbx) vmovdqa 8672(%rbx), %ymm0 vptest %ymm0, %ymm2 vmovapd 8704(%rbx), %ymm0 vmovapd %ymm0, %ymm2 vmovapd %ymm0, %ymm1 jb .LBB1_3548 vsubpd %ymm15, %ymm13, %ymm2 vsubpd %ymm14, %ymm12, %ymm0 vmovapd .LCPI1_28(%rip), %ymm1 vmovapd %ymm1, %ymm14 vmulpd %ymm14, %ymm0, %ymm0 vmovapd %ymm0, 23872(%rbx) vmulpd %ymm14, %ymm2, %ymm1 vmovapd %ymm1, 23936(%rbx) vmovapd .LCPI1_56(%rip), %ymm10 vandpd %ymm10, %ymm0, %ymm12 vmovapd %ymm6, 22816(%rbx) vandpd %ymm10, %ymm6, %ymm5 vcmpltpd %ymm12, %ymm5, %ymm2 vextractf128 $1, %ymm2, %xmm0 vpshufd $8, %xmm0, %xmm4 vpshufd $8, %xmm2, %xmm0 vandpd %ymm10, %ymm1, %ymm3 vmovlhps %xmm4, %xmm0, %xmm2 vandpd %ymm10, %ymm7, %ymm6 vcmpltpd %ymm3, %ymm6, %ymm4 vextractf128 $1, %ymm4, %xmm0 vmovapd %ymm7, 23904(%rbx) vpshufd $8, %xmm0, %xmm7 vpshufd $8, %xmm4, %xmm0 vmovdqa %ymm9, %ymm15 vmovdqa %ymm8, %ymm9 vmovaps %xmm11, %xmm8 vmovlhps %xmm7, %xmm0, %xmm11 vmovapd 31104(%rbx), %ymm0 vandpd %ymm10, %ymm0, %ymm13 vcmpltpd %ymm13, %ymm5, %ymm5 vextractf128 $1, %ymm5, %xmm0 vpshufd $8, %xmm0, %xmm7 vpshufd $8, %xmm5, %xmm0 vmovlhps %xmm7, %xmm0, %xmm5 vmovapd 32864(%rbx), %ymm0 vandpd %ymm10, %ymm0, %ymm7 vcmpltpd %ymm7, %ymm6, %ymm6 vextractf128 $1, %ymm6, %xmm0 vpshufd $8, %xmm0, %xmm0 vpshufd $8, %xmm6, %xmm6 vmovlhps %xmm0, %xmm6, %xmm0 vcmpltpd %ymm3, %ymm7, %ymm6 vmovdqa .LCPI1_21(%rip), %xmm1 vpshufb %xmm1, %xmm0, %xmm0 vmovdqa .LCPI1_20(%rip), %xmm4 vpshufb %xmm4, %xmm5, %xmm3 vpor %xmm3, %xmm0, %xmm3 vpshufb %xmm1, %xmm11, %xmm0 vmovaps %xmm8, %xmm11 vmovdqa %ymm9, %ymm8 vmovdqa %ymm15, %ymm9 vpshufb %xmm4, %xmm2, %xmm2 vpor %xmm2, %xmm0, %xmm7 vextractf128 $1, %ymm6, %xmm0 vpshufd $8, %xmm0, %xmm0 vpshufd $8, %xmm6, %xmm2 vmovlhps %xmm0, %xmm2, %xmm10 vpshufd $8, %xmm9, %xmm0 vmovaps 32896(%rbx), %xmm2 vmovlhps %xmm2, %xmm0, %xmm2 vcmpltpd %ymm12, %ymm13, %ymm5 vpsllw $15, %xmm7, %xmm0 vpsraw $15, %xmm0, %xmm0 vmovdqa .LCPI1_17(%rip), %xmm7 vpxor %xmm7, %xmm0, %xmm6 vpsllw $15, %xmm3, %xmm0 vpsraw $15, %xmm0, %xmm0 vpxor %xmm7, %xmm0, %xmm0 vpor %xmm6, %xmm0, %xmm3 vextractf128 $1, %ymm5, %xmm0 vpshufd $8, %xmm0, %xmm0 vpshufd $8, %xmm5, %xmm5 vmovlhps %xmm0, %xmm5, %xmm6 vpshufb %xmm1, %xmm10, %xmm5 vpshufb %xmm1, %xmm2, %xmm2 vpshufd $8, %xmm8, %xmm0 vmovlhps %xmm11, %xmm0, %xmm0 vpshufb %xmm4, %xmm0, %xmm0 vpor %xmm0, %xmm2, %xmm0 vpsllw $15, %xmm0, %xmm0 vpsraw $15, %xmm0, %xmm0 vpand %xmm3, %xmm0, %xmm2 vpshufb %xmm4, %xmm6, %xmm0 vpunpckhbw %xmm0, %xmm2, %xmm3 vpor %xmm0, %xmm5, %xmm0 vpslld $31, %xmm3, %xmm4 vpsllw $15, %xmm0, %xmm0 vpsraw $15, %xmm0, %xmm3 vpmovsxdq %xmm4, %xmm5 vmovhlps %xmm4, %xmm4, %xmm0 vpmovsxdq %xmm0, %xmm0 vinsertf128 $1, %xmm0, %ymm5, %ymm4 vpunpckhbw %xmm0, %xmm3, %xmm0 vpslld $31, %xmm0, %xmm0 vpmovsxdq %xmm0, %xmm5 vmovhlps %xmm0, %xmm0, %xmm0 vpmovsxdq %xmm0, %xmm0 vinsertf128 $1, %xmm0, %ymm5, %ymm5 vpunpcklbw %xmm0, %xmm2, %xmm0 vpslld $31, %xmm0, %xmm0 vpmovsxdq %xmm0, %xmm2 vmovhlps %xmm0, %xmm0, %xmm0 vpmovsxdq %xmm0, %xmm6 vpunpcklbw %xmm0, %xmm3, %xmm3 vmovapd 23872(%rbx), %ymm0 vblendvpd %ymm5, 31104(%rbx), %ymm0, %ymm0 vmovapd 22816(%rbx), %ymm1 vblendvpd %ymm4, %ymm0, %ymm1, %ymm0 vmulpd %ymm14, %ymm0, %ymm1 vinsertf128 $1, %xmm6, %ymm2, %ymm2 vpslld $31, %xmm3, %xmm0 vpmovsxdq %xmm0, %xmm3 vmovhlps %xmm0, %xmm0, %xmm0 vpmovsxdq %xmm0, %xmm0 vinsertf128 $1, %xmm0, %ymm3, %ymm0 vmovapd 23936(%rbx), %ymm3 vblendvpd %ymm0, 32864(%rbx), %ymm3, %ymm0 vmovapd 23904(%rbx), %ymm3 vblendvpd %ymm2, %ymm0, %ymm3, %ymm0 vmulpd %ymm14, %ymm0, %ymm2 .LBB1_3548: vmovapd %ymm2, 23904(%rbx) vmovapd %ymm1, 23936(%rbx) vmovaps 26848(%rbx), %xmm0 vmovhlps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 31104(%rbx) vmovaps 26464(%rbx), %xmm0 vmovhlps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 26848(%rbx) vmovaps 24064(%rbx), %xmm0 vmovhlps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 26464(%rbx) vmovaps 24032(%rbx), %xmm0 vmovhlps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 23872(%rbx) vmovaps 23840(%rbx), %xmm0 vmovhlps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 23840(%rbx) vmovaps 22848(%rbx), %xmm0 vmovhlps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 22720(%rbx) leal 588(%rcx,%r8), %eax movslq %eax, %rdi movq %rdi, 20512(%rbx) vmovupd 33056(%rbx,%rdi,8), %xmm1 leal 576(%rcx,%r8), %eax vmovupd 33024(%rbx,%rdi,8), %xmm2 movslq %eax, %rax movq 32448(%rbx), %rsi vmovupd 33056(%rbx,%rsi,8), %xmm4 vmovupd 33024(%rbx,%rsi,8), %xmm3 vmovupd 33024(%rbx,%rax,8), %xmm5 vmovupd 33056(%rbx,%rax,8), %xmm0 vinsertf128 $1, 33072(%rbx,%rax,8), %ymm0, %ymm10 vinsertf128 $1, 33072(%rbx,%rdi,8), %ymm1, %ymm0 vmovapd %ymm0, 24064(%rbx) vinsertf128 $1, 33040(%rbx,%rax,8), %ymm5, %ymm1 vinsertf128 $1, 33040(%rbx,%rdi,8), %ymm2, %ymm7 vmovapd %ymm7, 24032(%rbx) vinsertf128 $1, 33072(%rbx,%rsi,8), %ymm4, %ymm2 vinsertf128 $1, 33040(%rbx,%rsi,8), %ymm3, %ymm3 vpshufd $8, %xmm8, %xmm4 vmovlhps %xmm11, %xmm4, %xmm4 vpshufd $8, %xmm9, %xmm5 vmovaps 32896(%rbx), %xmm6 vmovlhps %xmm6, %xmm5, %xmm5 vsubpd %ymm1, %ymm7, %ymm6 vsubpd %ymm7, %ymm3, %ymm7 vsubpd %ymm10, %ymm0, %ymm8 vsubpd %ymm0, %ymm2, %ymm9 vmovapd .LCPI1_24(%rip), %ymm11 vmulpd %ymm11, %ymm8, %ymm15 vmulpd %ymm11, %ymm9, %ymm8 vmulpd %ymm11, %ymm6, %ymm9 vmulpd %ymm11, %ymm7, %ymm13 vmovapd %ymm13, 32864(%rbx) vmovdqa .LCPI1_21(%rip), %xmm0 vpshufb %xmm0, %xmm5, %xmm5 vmovdqa .LCPI1_20(%rip), %xmm6 vpshufb %xmm6, %xmm4, %xmm4 vpor %xmm4, %xmm5, %xmm4 vmulpd %ymm8, %ymm15, %ymm5 vmovapd %ymm8, %ymm11 vxorpd %ymm7, %ymm7, %ymm7 vcmpnlepd %ymm7, %ymm5, %ymm8 vextractf128 $1, %ymm8, %xmm5 vpshufd $8, %xmm5, %xmm12 vpshufd $8, %xmm8, %xmm5 vmovlhps %xmm12, %xmm5, %xmm5 vpshufb %xmm6, %xmm5, %xmm5 vmulpd %ymm13, %ymm9, %ymm6 vcmpnlepd %ymm7, %ymm6, %ymm13 vextractf128 $1, %ymm13, %xmm6 vpshufd $8, %xmm6, %xmm7 vmovdqa %xmm7, 32896(%rbx) vpshufd $8, %xmm13, %xmm6 vmovlhps %xmm7, %xmm6, %xmm6 vpshufb %xmm0, %xmm6, %xmm6 vpor %xmm5, %xmm6, %xmm5 vpsllw $15, %xmm4, %xmm4 vpsraw $15, %xmm4, %xmm4 vpunpckhbw %xmm0, %xmm4, %xmm6 vpslld $31, %xmm6, %xmm6 vpmovsxdq %xmm6, %xmm0 vmovdqa %ymm0, 22784(%rbx) vmovhlps %xmm6, %xmm6, %xmm0 vmovaps %xmm0, 22144(%rbx) vmovdqa .LCPI1_17(%rip), %xmm0 vpxor %xmm0, %xmm5, %xmm5 vpunpcklbw %xmm0, %xmm4, %xmm4 vpslld $31, %xmm4, %xmm4 vpmovzxwd %xmm5, %xmm6 vpslld $31, %xmm6, %xmm6 vpsrad $31, %xmm6, %xmm6 vpunpckhwd %xmm0, %xmm5, %xmm5 vpslld $31, %xmm5, %xmm5 vpsrad $31, %xmm5, %xmm5 vinsertf128 $1, %xmm5, %ymm6, %ymm5 vpmovsxdq %xmm4, %xmm6 vmovdqa %ymm6, 22752(%rbx) vmovhlps %xmm4, %xmm4, %xmm4 vmovaps %xmm4, 22112(%rbx) vmovdqa 8608(%rbx), %ymm4 vptest %ymm4, %ymm5 vmovapd 8640(%rbx), %ymm4 vmovapd %ymm4, %ymm5 vmovdqa %xmm0, %xmm14 jb .LBB1_3550 vsubpd %ymm1, %ymm3, %ymm3 vsubpd %ymm10, %ymm2, %ymm0 vmovapd .LCPI1_28(%rip), %ymm10 vmulpd %ymm10, %ymm0, %ymm0 vmovapd %ymm0, 22688(%rbx) vmulpd %ymm10, %ymm3, %ymm2 vmovapd %ymm2, 22816(%rbx) vmovdqa %ymm13, %ymm1 vmovapd .LCPI1_56(%rip), %ymm13 vmovaps %xmm12, 22848(%rbx) vandpd %ymm13, %ymm0, %ymm12 vmovapd %ymm15, 22656(%rbx) vandpd %ymm13, %ymm15, %ymm15 vcmpltpd %ymm12, %ymm15, %ymm3 vextractf128 $1, %ymm3, %xmm0 vpshufd $8, %xmm0, %xmm4 vpshufd $8, %xmm3, %xmm0 vandpd %ymm13, %ymm2, %ymm5 vmovlhps %xmm4, %xmm0, %xmm4 vandpd %ymm13, %ymm9, %ymm6 vcmpltpd %ymm5, %ymm6, %ymm3 vextractf128 $1, %ymm3, %xmm0 vpshufd $8, %xmm0, %xmm7 vpshufd $8, %xmm3, %xmm0 vmovapd %ymm9, 22624(%rbx) vmovdqa %xmm14, %xmm9 vmovlhps %xmm7, %xmm0, %xmm14 vandpd %ymm13, %ymm11, %ymm3 vcmpltpd %ymm3, %ymm15, %ymm7 vextractf128 $1, %ymm7, %xmm0 vpshufd $8, %xmm0, %xmm0 vpshufd $8, %xmm7, %xmm7 vmovdqa %ymm8, %ymm2 vmovlhps %xmm0, %xmm7, %xmm8 vmovapd 32864(%rbx), %ymm0 vandpd %ymm13, %ymm0, %ymm15 vmovdqa %ymm1, %ymm13 vcmpltpd %ymm15, %ymm6, %ymm6 vextractf128 $1, %ymm6, %xmm0 vpshufd $8, %xmm0, %xmm0 vpshufd $8, %xmm6, %xmm6 vmovlhps %xmm0, %xmm6, %xmm0 vcmpltpd %ymm5, %ymm15, %ymm6 vmovdqa .LCPI1_21(%rip), %xmm1 vpshufb %xmm1, %xmm0, %xmm0 vmovdqa .LCPI1_20(%rip), %xmm7 vpshufb %xmm7, %xmm8, %xmm5 vmovdqa %ymm2, %ymm8 vpor %xmm5, %xmm0, %xmm5 vpshufb %xmm1, %xmm14, %xmm0 vmovdqa %xmm9, %xmm14 vpshufb %xmm7, %xmm4, %xmm4 vpor %xmm4, %xmm0, %xmm2 vextractf128 $1, %ymm6, %xmm0 vpshufd $8, %xmm0, %xmm0 vpshufd $8, %xmm6, %xmm4 vmovlhps %xmm0, %xmm4, %xmm4 vpshufd $8, %xmm13, %xmm0 vmovaps 32896(%rbx), %xmm6 vmovlhps %xmm6, %xmm0, %xmm6 vcmpltpd %ymm12, %ymm3, %ymm3 vmovaps 22848(%rbx), %xmm12 vpsllw $15, %xmm2, %xmm0 vpsraw $15, %xmm0, %xmm0 vpxor %xmm14, %xmm0, %xmm2 vpsllw $15, %xmm5, %xmm0 vpsraw $15, %xmm0, %xmm0 vpxor %xmm14, %xmm0, %xmm0 vpor %xmm2, %xmm0, %xmm2 vextractf128 $1, %ymm3, %xmm0 vpshufd $8, %xmm0, %xmm0 vpshufd $8, %xmm3, %xmm3 vmovlhps %xmm0, %xmm3, %xmm5 vpshufb %xmm1, %xmm4, %xmm3 vpshufb %xmm1, %xmm6, %xmm4 vpshufd $8, %xmm8, %xmm0 vmovlhps %xmm12, %xmm0, %xmm0 vpshufb %xmm7, %xmm0, %xmm0 vpor %xmm0, %xmm4, %xmm0 vpsllw $15, %xmm0, %xmm0 vpsraw $15, %xmm0, %xmm0 vpand %xmm2, %xmm0, %xmm2 vpshufb %xmm7, %xmm5, %xmm0 vpunpckhbw %xmm0, %xmm2, %xmm4 vpor %xmm0, %xmm3, %xmm0 vpslld $31, %xmm4, %xmm4 vpsllw $15, %xmm0, %xmm0 vpsraw $15, %xmm0, %xmm3 vpmovsxdq %xmm4, %xmm5 vmovhlps %xmm4, %xmm4, %xmm0 vpmovsxdq %xmm0, %xmm0 vinsertf128 $1, %xmm0, %ymm5, %ymm4 vpunpckhbw %xmm0, %xmm3, %xmm0 vpslld $31, %xmm0, %xmm0 vpmovsxdq %xmm0, %xmm5 vmovhlps %xmm0, %xmm0, %xmm0 vpmovsxdq %xmm0, %xmm0 vinsertf128 $1, %xmm0, %ymm5, %ymm5 vpunpcklbw %xmm0, %xmm2, %xmm0 vpslld $31, %xmm0, %xmm0 vpmovsxdq %xmm0, %xmm2 vmovhlps %xmm0, %xmm0, %xmm0 vpmovsxdq %xmm0, %xmm6 vpunpcklbw %xmm0, %xmm3, %xmm3 vmovapd 22688(%rbx), %ymm0 vblendvpd %ymm5, %ymm11, %ymm0, %ymm0 vmovapd 22656(%rbx), %ymm1 vblendvpd %ymm4, %ymm0, %ymm1, %ymm0 vmulpd %ymm10, %ymm0, %ymm4 vinsertf128 $1, %xmm6, %ymm2, %ymm1 vpslld $31, %xmm3, %xmm0 vpmovsxdq %xmm0, %xmm2 vmovhlps %xmm0, %xmm0, %xmm0 vpmovsxdq %xmm0, %xmm0 vinsertf128 $1, %xmm0, %ymm2, %ymm0 vmovapd 22816(%rbx), %ymm2 vblendvpd %ymm0, 32864(%rbx), %ymm2, %ymm0 vmovapd 22624(%rbx), %ymm2 vblendvpd %ymm1, %ymm0, %ymm2, %ymm0 vmulpd %ymm10, %ymm0, %ymm5 .LBB1_3550: vmovapd %ymm5, 22816(%rbx) vmovapd %ymm4, 22848(%rbx) vmovdqa 31104(%rbx), %xmm0 vpmovsxdq %xmm0, %xmm0 vmovdqa %xmm0, 22688(%rbx) vmovdqa 26848(%rbx), %xmm0 vpmovsxdq %xmm0, %xmm0 vmovdqa %xmm0, 22656(%rbx) vmovdqa 26464(%rbx), %xmm0 vpmovsxdq %xmm0, %xmm0 vmovdqa %xmm0, 22624(%rbx) vmovdqa 23872(%rbx), %xmm0 vpmovsxdq %xmm0, %xmm0 vmovdqa %xmm0, 22592(%rbx) vmovdqa 23840(%rbx), %xmm0 vpmovsxdq %xmm0, %xmm0 vmovdqa %xmm0, 22560(%rbx) vmovdqa 22720(%rbx), %xmm0 vpmovsxdq %xmm0, %xmm0 vmovdqa %xmm0, 22528(%rbx) vmovdqa 22144(%rbx), %xmm0 vpmovsxdq %xmm0, %xmm0 vmovdqa %xmm0, 22144(%rbx) vmovdqa 22112(%rbx), %xmm0 vpmovsxdq %xmm0, %xmm0 vmovdqa %xmm0, 22112(%rbx) leal 732(%rcx,%r8), %eax movslq %eax, %rdi movq %rdi, 20544(%rbx) vmovupd 33056(%rbx,%rdi,8), %xmm0 leal 720(%rcx,%r8), %eax vmovupd 33024(%rbx,%rdi,8), %xmm1 movslq %eax, %rax movq 32480(%rbx), %rsi vmovupd 33056(%rbx,%rsi,8), %xmm3 vmovupd 33024(%rbx,%rsi,8), %xmm2 vmovupd 33024(%rbx,%rax,8), %xmm4 vmovupd 33056(%rbx,%rax,8), %xmm5 vinsertf128 $1, 33072(%rbx,%rax,8), %ymm5, %ymm15 vinsertf128 $1, 33072(%rbx,%rdi,8), %ymm0, %ymm7 vmovapd %ymm7, 23872(%rbx) vinsertf128 $1, 33040(%rbx,%rax,8), %ymm4, %ymm4 vinsertf128 $1, 33040(%rbx,%rdi,8), %ymm1, %ymm5 vmovapd %ymm5, 23840(%rbx) vinsertf128 $1, 33072(%rbx,%rsi,8), %ymm3, %ymm9 vinsertf128 $1, 33040(%rbx,%rsi,8), %ymm2, %ymm2 vpshufd $8, %xmm8, %xmm0 vmovlhps %xmm12, %xmm0, %xmm0 vpshufd $8, %xmm13, %xmm1 vmovaps 32896(%rbx), %xmm3 vmovlhps %xmm3, %xmm1, %xmm1 vsubpd %ymm4, %ymm5, %ymm3 vsubpd %ymm5, %ymm2, %ymm5 vsubpd %ymm15, %ymm7, %ymm6 vsubpd %ymm7, %ymm9, %ymm7 vmovapd .LCPI1_24(%rip), %ymm8 vmulpd %ymm8, %ymm6, %ymm11 vmovapd %ymm11, 26848(%rbx) vmulpd %ymm8, %ymm7, %ymm12 vmovapd %ymm12, 26464(%rbx) vmulpd %ymm8, %ymm3, %ymm10 vmulpd %ymm8, %ymm5, %ymm8 vmovapd %ymm8, 31104(%rbx) vmovdqa .LCPI1_21(%rip), %xmm6 vpshufb %xmm6, %xmm1, %xmm1 vmovdqa .LCPI1_20(%rip), %xmm7 vpshufb %xmm7, %xmm0, %xmm0 vpor %xmm0, %xmm1, %xmm3 vmulpd %ymm12, %ymm11, %ymm0 vxorpd %ymm5, %ymm5, %ymm5 vcmpnlepd %ymm5, %ymm0, %ymm12 vextractf128 $1, %ymm12, %xmm0 vpshufd $8, %xmm0, %xmm11 vpshufd $8, %xmm12, %xmm0 vmovlhps %xmm11, %xmm0, %xmm0 vpshufb %xmm7, %xmm0, %xmm0 vmulpd %ymm8, %ymm10, %ymm1 vcmpnlepd %ymm5, %ymm1, %ymm5 vmovapd %ymm5, 32896(%rbx) vextractf128 $1, %ymm5, %xmm1 vpshufd $8, %xmm1, %xmm7 vmovdqa %xmm7, 32864(%rbx) vpshufd $8, %xmm5, %xmm1 vmovlhps %xmm7, %xmm1, %xmm1 vpshufb %xmm6, %xmm1, %xmm1 vpor %xmm0, %xmm1, %xmm0 vpsllw $15, %xmm3, %xmm1 vpsraw $15, %xmm1, %xmm1 vpunpckhbw %xmm0, %xmm1, %xmm3 vpslld $31, %xmm3, %xmm3 vpmovsxdq %xmm3, %xmm5 vmovdqa %ymm5, 22080(%rbx) vmovhlps %xmm3, %xmm3, %xmm3 vpmovsxdq %xmm3, %xmm3 vmovdqa %xmm3, 22048(%rbx) vpxor %xmm14, %xmm0, %xmm3 vpunpcklbw %xmm0, %xmm1, %xmm0 vpslld $31, %xmm0, %xmm0 vpmovzxwd %xmm3, %xmm1 vpslld $31, %xmm1, %xmm1 vpsrad $31, %xmm1, %xmm1 vpunpckhwd %xmm0, %xmm3, %xmm3 vpslld $31, %xmm3, %xmm3 vpsrad $31, %xmm3, %xmm3 vinsertf128 $1, %xmm3, %ymm1, %ymm1 vpmovsxdq %xmm0, %xmm3 vmovdqa %ymm3, 22016(%rbx) vmovhlps %xmm0, %xmm0, %xmm0 vpmovsxdq %xmm0, %xmm0 vmovdqa %xmm0, 21984(%rbx) vmovdqa 8544(%rbx), %ymm0 vptest %ymm0, %ymm1 vmovapd 8576(%rbx), %ymm0 vmovapd %ymm0, %ymm1 vmovapd %ymm0, %ymm5 jb .LBB1_3552 vsubpd %ymm4, %ymm2, %ymm0 vsubpd %ymm15, %ymm9, %ymm1 vmovapd .LCPI1_28(%rip), %ymm13 vmulpd %ymm13, %ymm1, %ymm1 vmovapd %ymm1, 21952(%rbx) vmulpd %ymm13, %ymm0, %ymm3 vmovapd %ymm3, 22720(%rbx) vmovapd .LCPI1_56(%rip), %ymm5 vandpd %ymm5, %ymm1, %ymm2 vmovapd 26848(%rbx), %ymm0 vandpd %ymm5, %ymm0, %ymm8 vcmpltpd %ymm2, %ymm8, %ymm0 vextractf128 $1, %ymm0, %xmm1 vpshufd $8, %xmm1, %xmm1 vpshufd $8, %xmm0, %xmm0 vandpd %ymm5, %ymm3, %ymm15 vmovlhps %xmm1, %xmm0, %xmm3 vandpd %ymm5, %ymm10, %ymm7 vcmpltpd %ymm15, %ymm7, %ymm0 vextractf128 $1, %ymm0, %xmm1 vpshufd $8, %xmm1, %xmm1 vpshufd $8, %xmm0, %xmm0 vmovapd %ymm10, 21920(%rbx) vmovaps %xmm11, %xmm10 vmovdqa %ymm12, %ymm11 vmovdqa %xmm14, %xmm12 vmovlhps %xmm1, %xmm0, %xmm14 vmovapd 26464(%rbx), %ymm0 vandpd %ymm5, %ymm0, %ymm9 vcmpltpd %ymm9, %ymm8, %ymm0 vextractf128 $1, %ymm0, %xmm1 vpshufd $8, %xmm1, %xmm1 vpshufd $8, %xmm0, %xmm0 vmovlhps %xmm1, %xmm0, %xmm0 vmovapd 31104(%rbx), %ymm1 vandpd %ymm5, %ymm1, %ymm1 vcmpltpd %ymm1, %ymm7, %ymm7 vextractf128 $1, %ymm7, %xmm5 vpshufd $8, %xmm5, %xmm5 vpshufd $8, %xmm7, %xmm7 vmovlhps %xmm5, %xmm7, %xmm5 vcmpltpd %ymm15, %ymm1, %ymm8 vmovdqa .LCPI1_21(%rip), %xmm6 vpshufb %xmm6, %xmm5, %xmm1 vmovdqa .LCPI1_20(%rip), %xmm4 vpshufb %xmm4, %xmm0, %xmm0 vpor %xmm0, %xmm1, %xmm7 vpshufb %xmm6, %xmm14, %xmm0 vmovdqa %xmm12, %xmm14 vmovdqa %ymm11, %ymm12 vmovaps %xmm10, %xmm11 vpshufb %xmm4, %xmm3, %xmm1 vpor %xmm1, %xmm0, %xmm1 vextractf128 $1, %ymm8, %xmm0 vpshufd $8, %xmm0, %xmm0 vpshufd $8, %xmm8, %xmm3 vmovlhps %xmm0, %xmm3, %xmm3 vmovdqa 32896(%rbx), %ymm0 vpshufd $8, %xmm0, %xmm0 vmovaps 32864(%rbx), %xmm5 vmovlhps %xmm5, %xmm0, %xmm0 vcmpltpd %ymm2, %ymm9, %ymm8 vpsllw $15, %xmm1, %xmm1 vpsraw $15, %xmm1, %xmm1 vpxor %xmm14, %xmm1, %xmm1 vpsllw $15, %xmm7, %xmm2 vpsraw $15, %xmm2, %xmm2 vpxor %xmm14, %xmm2, %xmm2 vpor %xmm1, %xmm2, %xmm2 vextractf128 $1, %ymm8, %xmm1 vpshufd $8, %xmm1, %xmm1 vpshufd $8, %xmm8, %xmm5 vmovlhps %xmm1, %xmm5, %xmm7 vpshufb %xmm6, %xmm3, %xmm3 vpshufb %xmm6, %xmm0, %xmm0 vpshufd $8, %xmm12, %xmm1 vmovlhps %xmm11, %xmm1, %xmm1 vpshufb %xmm4, %xmm1, %xmm1 vpor %xmm1, %xmm0, %xmm0 vpsllw $15, %xmm0, %xmm0 vpsraw $15, %xmm0, %xmm0 vpand %xmm2, %xmm0, %xmm2 vpshufb %xmm4, %xmm7, %xmm0 vpunpckhbw %xmm0, %xmm2, %xmm1 vpor %xmm0, %xmm3, %xmm3 vpslld $31, %xmm1, %xmm0 vpsllw $15, %xmm3, %xmm1 vpsraw $15, %xmm1, %xmm3 vpmovsxdq %xmm0, %xmm1 vmovhlps %xmm0, %xmm0, %xmm0 vpmovsxdq %xmm0, %xmm0 vinsertf128 $1, %xmm0, %ymm1, %ymm7 vpunpckhbw %xmm0, %xmm3, %xmm0 vpslld $31, %xmm0, %xmm1 vpmovsxdq %xmm1, %xmm0 vmovhlps %xmm1, %xmm1, %xmm1 vpmovsxdq %xmm1, %xmm1 vinsertf128 $1, %xmm1, %ymm0, %ymm0 vpunpcklbw %xmm0, %xmm2, %xmm1 vpslld $31, %xmm1, %xmm2 vpmovsxdq %xmm2, %xmm1 vmovhlps %xmm2, %xmm2, %xmm2 vpmovsxdq %xmm2, %xmm2 vpunpcklbw %xmm0, %xmm3, %xmm3 vmovapd 21952(%rbx), %ymm4 vblendvpd %ymm0, 26464(%rbx), %ymm4, %ymm0 vmovapd 26848(%rbx), %ymm4 vblendvpd %ymm7, %ymm0, %ymm4, %ymm0 vmulpd %ymm13, %ymm0, %ymm5 vinsertf128 $1, %xmm2, %ymm1, %ymm0 vpslld $31, %xmm3, %xmm2 vpmovsxdq %xmm2, %xmm1 vmovhlps %xmm2, %xmm2, %xmm2 vpmovsxdq %xmm2, %xmm2 vinsertf128 $1, %xmm2, %ymm1, %ymm1 vmovapd 22720(%rbx), %ymm2 vblendvpd %ymm1, 31104(%rbx), %ymm2, %ymm1 vmovapd 21920(%rbx), %ymm2 vblendvpd %ymm0, %ymm1, %ymm2, %ymm0 vmulpd %ymm13, %ymm0, %ymm1 .LBB1_3552: vmovapd %ymm1, 22720(%rbx) vmovapd %ymm5, 26848(%rbx) vmovaps 24192(%rbx), %ymm0 vinsertf128 $1, 22688(%rbx), %ymm0, %ymm0 vmovaps %ymm0, 22688(%rbx) vmovaps 24160(%rbx), %ymm0 vinsertf128 $1, 22656(%rbx), %ymm0, %ymm0 vmovaps %ymm0, 24160(%rbx) vmovaps 24000(%rbx), %ymm0 vinsertf128 $1, 22624(%rbx), %ymm0, %ymm0 vmovaps %ymm0, 24000(%rbx) vmovaps 23968(%rbx), %ymm0 vinsertf128 $1, 22592(%rbx), %ymm0, %ymm0 vmovaps %ymm0, 23968(%rbx) vmovaps 23808(%rbx), %ymm0 vinsertf128 $1, 22560(%rbx), %ymm0, %ymm0 vmovaps %ymm0, 23808(%rbx) vmovaps 22880(%rbx), %ymm0 vinsertf128 $1, 22528(%rbx), %ymm0, %ymm0 vmovaps %ymm0, 22880(%rbx) vmovaps 22784(%rbx), %ymm0 vinsertf128 $1, 22144(%rbx), %ymm0, %ymm0 vmovaps %ymm0, 22784(%rbx) vmovaps 22752(%rbx), %ymm0 vinsertf128 $1, 22112(%rbx), %ymm0, %ymm0 vmovaps %ymm0, 22752(%rbx) vmovaps 22080(%rbx), %ymm0 vinsertf128 $1, 22048(%rbx), %ymm0, %ymm0 vmovaps %ymm0, 22656(%rbx) vmovaps 22016(%rbx), %ymm0 vinsertf128 $1, 21984(%rbx), %ymm0, %ymm0 vmovaps %ymm0, 22624(%rbx) leal 876(%rcx,%r8), %eax movslq %eax, %rdi movq %rdi, 20576(%rbx) vmovupd 33056(%rbx,%rdi,8), %xmm0 leal 864(%rcx,%r8), %eax vmovupd 33024(%rbx,%rdi,8), %xmm1 movslq %eax, %rax movq 32512(%rbx), %rsi vmovupd 33056(%rbx,%rsi,8), %xmm3 vmovupd 33024(%rbx,%rsi,8), %xmm2 vmovupd 33024(%rbx,%rax,8), %xmm4 vmovupd 33056(%rbx,%rax,8), %xmm5 vinsertf128 $1, 33072(%rbx,%rax,8), %ymm5, %ymm8 vinsertf128 $1, 33072(%rbx,%rdi,8), %ymm0, %ymm7 vmovapd %ymm7, 26464(%rbx) vinsertf128 $1, 33040(%rbx,%rax,8), %ymm4, %ymm9 vinsertf128 $1, 33040(%rbx,%rdi,8), %ymm1, %ymm6 vmovapd %ymm6, 24192(%rbx) vinsertf128 $1, 33072(%rbx,%rsi,8), %ymm3, %ymm4 vinsertf128 $1, 33040(%rbx,%rsi,8), %ymm2, %ymm10 vpshufd $8, %xmm12, %xmm0 vmovlhps %xmm11, %xmm0, %xmm0 vmovdqa 32896(%rbx), %ymm1 vpshufd $8, %xmm1, %xmm1 vmovaps 32864(%rbx), %xmm2 vmovlhps %xmm2, %xmm1, %xmm3 vsubpd %ymm9, %ymm6, %ymm5 vsubpd %ymm6, %ymm10, %ymm6 vsubpd %ymm8, %ymm7, %ymm1 vsubpd %ymm7, %ymm4, %ymm2 vmovapd .LCPI1_24(%rip), %ymm7 vmulpd %ymm7, %ymm1, %ymm15 vmulpd %ymm7, %ymm2, %ymm12 vmovapd %ymm12, 22560(%rbx) vmulpd %ymm7, %ymm5, %ymm11 vmulpd %ymm7, %ymm6, %ymm7 vmovapd %ymm7, 22592(%rbx) vmovdqa .LCPI1_21(%rip), %xmm6 vpshufb %xmm6, %xmm3, %xmm1 vmovdqa .LCPI1_20(%rip), %xmm2 vpshufb %xmm2, %xmm0, %xmm0 vpor %xmm0, %xmm1, %xmm3 vmulpd %ymm12, %ymm15, %ymm0 vxorpd %ymm5, %ymm5, %ymm5 vcmpnlepd %ymm5, %ymm0, %ymm13 vextractf128 $1, %ymm13, %xmm0 vpshufd $8, %xmm0, %xmm1 vmovdqa %xmm1, 32896(%rbx) vpshufd $8, %xmm13, %xmm0 vmovlhps %xmm1, %xmm0, %xmm0 vpshufb %xmm2, %xmm0, %xmm0 vmulpd %ymm7, %ymm11, %ymm1 vmovapd %ymm11, %ymm7 vcmpnlepd %ymm5, %ymm1, %ymm5 vmovapd %ymm5, 31104(%rbx) vextractf128 $1, %ymm5, %xmm1 vpshufd $8, %xmm1, %xmm2 vmovdqa %xmm2, 32864(%rbx) vpshufd $8, %xmm5, %xmm1 vmovlhps %xmm2, %xmm1, %xmm1 vpshufb %xmm6, %xmm1, %xmm1 vpor %xmm0, %xmm1, %xmm0 vpsllw $15, %xmm3, %xmm1 vpsraw $15, %xmm1, %xmm3 vpunpckhbw %xmm0, %xmm3, %xmm1 vpslld $31, %xmm1, %xmm6 vpmovsxdq %xmm6, %xmm5 vmovhlps %xmm6, %xmm6, %xmm1 vpmovsxdq %xmm1, %xmm1 vinsertf128 $1, %xmm1, %ymm5, %ymm1 vmovaps %ymm1, 22528(%rbx) vpxor %xmm14, %xmm0, %xmm5 vpunpcklbw %xmm0, %xmm3, %xmm0 vpslld $31, %xmm0, %xmm0 vpmovzxwd %xmm5, %xmm1 vpslld $31, %xmm1, %xmm1 vpsrad $31, %xmm1, %xmm3 vpunpckhwd %xmm0, %xmm5, %xmm1 vpslld $31, %xmm1, %xmm1 vpsrad $31, %xmm1, %xmm1 vinsertf128 $1, %xmm1, %ymm3, %ymm3 vpmovsxdq %xmm0, %xmm5 vmovhlps %xmm0, %xmm0, %xmm0 vpmovsxdq %xmm0, %xmm0 vinsertf128 $1, %xmm0, %ymm5, %ymm0 vmovaps %ymm0, 22144(%rbx) vmovdqa 8480(%rbx), %ymm0 vptest %ymm0, %ymm3 vmovapd 8512(%rbx), %ymm0 vmovapd %ymm0, %ymm1 vmovapd %ymm0, %ymm5 jb .LBB1_3554 vsubpd %ymm9, %ymm10, %ymm0 vsubpd %ymm8, %ymm4, %ymm1 vmovapd .LCPI1_28(%rip), %ymm12 vmulpd %ymm12, %ymm1, %ymm1 vmovapd %ymm1, 22048(%rbx) vmulpd %ymm12, %ymm0, %ymm5 vmovapd %ymm5, 22112(%rbx) vmovdqa %ymm13, %ymm2 vmovapd .LCPI1_56(%rip), %ymm13 vandpd %ymm13, %ymm1, %ymm4 vmovapd %ymm15, %ymm14 vandpd %ymm13, %ymm14, %ymm15 vcmpltpd %ymm4, %ymm15, %ymm0 vextractf128 $1, %ymm0, %xmm1 vpshufd $8, %xmm1, %xmm3 vpshufd $8, %xmm0, %xmm0 vandpd %ymm13, %ymm5, %ymm10 vmovlhps %xmm3, %xmm0, %xmm5 vmovapd %ymm7, 22080(%rbx) vandpd %ymm13, %ymm7, %ymm0 vcmpltpd %ymm10, %ymm0, %ymm3 vextractf128 $1, %ymm3, %xmm1 vpshufd $8, %xmm1, %xmm6 vpshufd $8, %xmm3, %xmm1 vmovlhps %xmm6, %xmm1, %xmm3 vmovapd 22560(%rbx), %ymm11 vandpd %ymm13, %ymm11, %ymm9 vcmpltpd %ymm9, %ymm15, %ymm6 vextractf128 $1, %ymm6, %xmm1 vpshufd $8, %xmm1, %xmm1 vpshufd $8, %xmm6, %xmm6 vmovlhps %xmm1, %xmm6, %xmm6 vmovapd 22592(%rbx), %ymm8 vandpd %ymm13, %ymm8, %ymm15 vmovdqa %ymm2, %ymm13 vcmpltpd %ymm15, %ymm0, %ymm0 vextractf128 $1, %ymm0, %xmm1 vpshufd $8, %xmm1, %xmm1 vpshufd $8, %xmm0, %xmm0 vmovlhps %xmm1, %xmm0, %xmm0 vcmpltpd %ymm10, %ymm15, %ymm10 vmovdqa .LCPI1_21(%rip), %xmm7 vpshufb %xmm7, %xmm0, %xmm0 vmovdqa .LCPI1_20(%rip), %xmm2 vpshufb %xmm2, %xmm6, %xmm1 vpor %xmm1, %xmm0, %xmm0 vpshufb %xmm7, %xmm3, %xmm1 vpshufb %xmm2, %xmm5, %xmm3 vpor %xmm3, %xmm1, %xmm6 vextractf128 $1, %ymm10, %xmm1 vpshufd $8, %xmm1, %xmm1 vpshufd $8, %xmm10, %xmm3 vmovlhps %xmm1, %xmm3, %xmm10 vmovdqa 31104(%rbx), %ymm1 vpshufd $8, %xmm1, %xmm1 vmovaps 32864(%rbx), %xmm3 vmovlhps %xmm3, %xmm1, %xmm5 vcmpltpd %ymm4, %ymm9, %ymm4 vpsllw $15, %xmm6, %xmm1 vpsraw $15, %xmm1, %xmm1 vmovdqa .LCPI1_17(%rip), %xmm3 vpxor %xmm3, %xmm1, %xmm6 vpsllw $15, %xmm0, %xmm0 vpsraw $15, %xmm0, %xmm0 vpxor %xmm3, %xmm0, %xmm0 vpor %xmm6, %xmm0, %xmm0 vextractf128 $1, %ymm4, %xmm1 vpshufd $8, %xmm1, %xmm1 vpshufd $8, %xmm4, %xmm4 vmovlhps %xmm1, %xmm4, %xmm6 vpshufb %xmm7, %xmm10, %xmm4 vpshufb %xmm7, %xmm5, %xmm3 vpshufd $8, %xmm13, %xmm1 vmovaps 32896(%rbx), %xmm5 vmovlhps %xmm5, %xmm1, %xmm1 vpshufb %xmm2, %xmm1, %xmm1 vpor %xmm1, %xmm3, %xmm1 vpsllw $15, %xmm1, %xmm1 vpsraw $15, %xmm1, %xmm1 vpand %xmm0, %xmm1, %xmm3 vpshufb %xmm2, %xmm6, %xmm0 vpunpckhbw %xmm0, %xmm3, %xmm1 vpor %xmm0, %xmm4, %xmm4 vpslld $31, %xmm1, %xmm0 vpsllw $15, %xmm4, %xmm1 vpsraw $15, %xmm1, %xmm4 vpmovsxdq %xmm0, %xmm5 vmovhlps %xmm0, %xmm0, %xmm0 vpmovsxdq %xmm0, %xmm0 vinsertf128 $1, %xmm0, %ymm5, %ymm0 vpunpckhbw %xmm0, %xmm4, %xmm1 vpslld $31, %xmm1, %xmm1 vpmovsxdq %xmm1, %xmm5 vmovhlps %xmm1, %xmm1, %xmm1 vpmovsxdq %xmm1, %xmm1 vinsertf128 $1, %xmm1, %ymm5, %ymm5 vpunpcklbw %xmm0, %xmm3, %xmm1 vpslld $31, %xmm1, %xmm1 vpmovsxdq %xmm1, %xmm3 vmovhlps %xmm1, %xmm1, %xmm1 vpmovsxdq %xmm1, %xmm6 vpunpcklbw %xmm0, %xmm4, %xmm4 vmovapd 22048(%rbx), %ymm1 vblendvpd %ymm5, %ymm11, %ymm1, %ymm1 vblendvpd %ymm0, %ymm1, %ymm14, %ymm0 vmulpd %ymm12, %ymm0, %ymm5 vinsertf128 $1, %xmm6, %ymm3, %ymm0 vpslld $31, %xmm4, %xmm2 vpmovsxdq %xmm2, %xmm1 vmovhlps %xmm2, %xmm2, %xmm2 vpmovsxdq %xmm2, %xmm2 vinsertf128 $1, %xmm2, %ymm1, %ymm1 vmovapd 22112(%rbx), %ymm2 vblendvpd %ymm1, %ymm8, %ymm2, %ymm1 vmovapd 22080(%rbx), %ymm2 vblendvpd %ymm0, %ymm1, %ymm2, %ymm0 vmulpd %ymm12, %ymm0, %ymm1 .LBB1_3554: vmovapd %ymm1, 22592(%rbx) vxorpd %ymm12, %ymm12, %ymm12 vmovapd 22688(%rbx), %ymm0 vblendvpd %ymm0, 26304(%rbx), %ymm12, %ymm0 vmovapd %ymm0, 26304(%rbx) vmovapd 24160(%rbx), %ymm0 vblendvpd %ymm0, 26272(%rbx), %ymm12, %ymm0 vmovapd %ymm0, 26272(%rbx) vmovapd 24000(%rbx), %ymm0 vblendvpd %ymm0, 26176(%rbx), %ymm12, %ymm0 vmovapd %ymm0, 24000(%rbx) vmovapd 23968(%rbx), %ymm0 vblendvpd %ymm0, 26144(%rbx), %ymm12, %ymm0 vmovapd %ymm0, 26144(%rbx) vmovapd 23808(%rbx), %ymm0 vblendvpd %ymm0, 24128(%rbx), %ymm12, %ymm0 vmovapd %ymm0, 23808(%rbx) vmovapd 22880(%rbx), %ymm0 vblendvpd %ymm0, 24096(%rbx), %ymm12, %ymm0 vmovapd %ymm0, 22880(%rbx) vmovapd 22784(%rbx), %ymm0 vblendvpd %ymm0, 23936(%rbx), %ymm12, %ymm0 vmovapd %ymm0, 23936(%rbx) vmovapd 22752(%rbx), %ymm0 vblendvpd %ymm0, 23904(%rbx), %ymm12, %ymm0 vmovapd %ymm0, 23904(%rbx) vmovapd 22656(%rbx), %ymm0 vblendvpd %ymm0, 22848(%rbx), %ymm12, %ymm0 vmovapd %ymm0, 22848(%rbx) vmovapd 22624(%rbx), %ymm0 vblendvpd %ymm0, 22816(%rbx), %ymm12, %ymm0 vmovapd %ymm0, 22816(%rbx) vmovapd 22528(%rbx), %ymm0 vblendvpd %ymm0, 26848(%rbx), %ymm12, %ymm0 vmovapd %ymm0, 22784(%rbx) vmovapd 22144(%rbx), %ymm0 vblendvpd %ymm0, 22720(%rbx), %ymm12, %ymm0 vmovapd %ymm0, 22752(%rbx) leal 1020(%rcx,%r8), %eax movslq %eax, %rdi movq %rdi, 20608(%rbx) vmovupd 33056(%rbx,%rdi,8), %xmm0 leal 1008(%rcx,%r8), %eax vmovupd 33024(%rbx,%rdi,8), %xmm2 movslq %eax, %rax movq 32640(%rbx), %rsi vmovupd 33056(%rbx,%rsi,8), %xmm4 vmovupd 33024(%rbx,%rsi,8), %xmm3 vmovapd %ymm5, %ymm15 vmovupd 33024(%rbx,%rax,8), %xmm5 vmovupd 33056(%rbx,%rax,8), %xmm1 vinsertf128 $1, 33072(%rbx,%rax,8), %ymm1, %ymm1 vinsertf128 $1, 33072(%rbx,%rdi,8), %ymm0, %ymm7 vmovapd %ymm7, 26176(%rbx) vinsertf128 $1, 33040(%rbx,%rax,8), %ymm5, %ymm8 vinsertf128 $1, 33040(%rbx,%rdi,8), %ymm2, %ymm6 vmovapd %ymm6, 24128(%rbx) vinsertf128 $1, 33072(%rbx,%rsi,8), %ymm4, %ymm10 vinsertf128 $1, 33040(%rbx,%rsi,8), %ymm3, %ymm5 vpshufd $8, %xmm13, %xmm0 vmovaps 32896(%rbx), %xmm2 vmovlhps %xmm2, %xmm0, %xmm0 vmovdqa 31104(%rbx), %ymm2 vpshufd $8, %xmm2, %xmm2 vmovaps 32864(%rbx), %xmm3 vmovlhps %xmm3, %xmm2, %xmm2 vsubpd %ymm8, %ymm6, %ymm3 vsubpd %ymm6, %ymm5, %ymm4 vsubpd %ymm1, %ymm7, %ymm6 vsubpd %ymm7, %ymm10, %ymm7 vmovapd .LCPI1_24(%rip), %ymm11 vmulpd %ymm11, %ymm6, %ymm14 vmulpd %ymm11, %ymm7, %ymm7 vmovapd %ymm7, 24160(%rbx) vmulpd %ymm11, %ymm3, %ymm9 vmulpd %ymm11, %ymm4, %ymm13 vmovdqa .LCPI1_21(%rip), %xmm6 vpshufb %xmm6, %xmm2, %xmm2 vmovdqa .LCPI1_20(%rip), %xmm3 vpshufb %xmm3, %xmm0, %xmm0 vpor %xmm0, %xmm2, %xmm0 vmulpd %ymm7, %ymm14, %ymm2 vmovapd %ymm14, %ymm11 vcmpnlepd %ymm12, %ymm2, %ymm4 vmovapd %ymm4, 32896(%rbx) vextractf128 $1, %ymm4, %xmm2 vpshufd $8, %xmm2, %xmm7 vmovdqa %xmm7, 32864(%rbx) vpshufd $8, %xmm4, %xmm2 vmovlhps %xmm7, %xmm2, %xmm2 vpshufb %xmm3, %xmm2, %xmm3 vmulpd %ymm13, %ymm9, %ymm2 vmovapd %ymm9, %ymm7 vcmpnlepd %ymm12, %ymm2, %ymm9 vmovapd %ymm9, 26848(%rbx) vextractf128 $1, %ymm9, %xmm4 vpshufd $8, %xmm4, %xmm2 vmovdqa %xmm2, 31104(%rbx) vpshufd $8, %xmm9, %xmm4 vmovlhps %xmm2, %xmm4, %xmm4 vpshufb %xmm6, %xmm4, %xmm4 vpor %xmm3, %xmm4, %xmm3 vpsllw $15, %xmm0, %xmm0 vpsraw $15, %xmm0, %xmm0 vpunpckhbw %xmm0, %xmm0, %xmm4 vpslld $31, %xmm4, %xmm6 vpmovsxdq %xmm6, %xmm4 vmovhlps %xmm6, %xmm6, %xmm6 vpmovsxdq %xmm6, %xmm6 vinsertf128 $1, %xmm6, %ymm4, %ymm4 vblendvpd %ymm4, %ymm15, %ymm12, %ymm2 vmovapd %ymm2, 22720(%rbx) vpxor .LCPI1_17(%rip), %xmm3, %xmm3 vpunpcklbw %xmm0, %xmm0, %xmm0 vpslld $31, %xmm0, %xmm0 vpmovzxwd %xmm3, %xmm4 vpslld $31, %xmm4, %xmm4 vpsrad $31, %xmm4, %xmm4 vpunpckhwd %xmm0, %xmm3, %xmm3 vpslld $31, %xmm3, %xmm3 vpsrad $31, %xmm3, %xmm3 vinsertf128 $1, %xmm3, %ymm4, %ymm3 vpmovsxdq %xmm0, %xmm4 vmovhlps %xmm0, %xmm0, %xmm0 vpmovsxdq %xmm0, %xmm0 vinsertf128 $1, %xmm0, %ymm4, %ymm0 vblendvpd %ymm0, 22592(%rbx), %ymm12, %ymm0 vmovapd %ymm0, 22688(%rbx) vmovdqa 8416(%rbx), %ymm0 vptest %ymm0, %ymm3 vmovapd 8448(%rbx), %ymm0 vmovapd %ymm0, %ymm2 vmovapd %ymm0, %ymm4 movq 25824(%rbx), %r9 jb .LBB1_3556 vsubpd %ymm8, %ymm5, %ymm0 vsubpd %ymm1, %ymm10, %ymm1 vmovapd .LCPI1_28(%rip), %ymm14 vmulpd %ymm14, %ymm1, %ymm1 vmovapd %ymm1, 23968(%rbx) vmulpd %ymm14, %ymm0, %ymm2 vmovapd %ymm2, 24096(%rbx) vmovapd .LCPI1_56(%rip), %ymm15 vandpd %ymm15, %ymm1, %ymm1 vandpd %ymm15, %ymm11, %ymm10 vcmpltpd %ymm1, %ymm10, %ymm0 vextractf128 $1, %ymm0, %xmm3 vpshufd $8, %xmm3, %xmm3 vpshufd $8, %xmm0, %xmm0 vandpd %ymm15, %ymm2, %ymm8 vmovlhps %xmm3, %xmm0, %xmm3 vmovapd %ymm7, %ymm9 vandpd %ymm15, %ymm9, %ymm6 vcmpltpd %ymm8, %ymm6, %ymm0 vextractf128 $1, %ymm0, %xmm4 vpshufd $8, %xmm4, %xmm4 vpshufd $8, %xmm0, %xmm0 vmovlhps %xmm4, %xmm0, %xmm0 vmovapd 24160(%rbx), %ymm12 vandpd %ymm15, %ymm12, %ymm5 vcmpltpd %ymm5, %ymm10, %ymm4 vextractf128 $1, %ymm4, %xmm7 vpshufd $8, %xmm7, %xmm7 vpshufd $8, %xmm4, %xmm4 vmovlhps %xmm7, %xmm4, %xmm4 vandpd %ymm15, %ymm13, %ymm10 vcmpltpd %ymm10, %ymm6, %ymm6 vextractf128 $1, %ymm6, %xmm7 vpshufd $8, %xmm7, %xmm7 vpshufd $8, %xmm6, %xmm6 vmovlhps %xmm7, %xmm6, %xmm6 vcmpltpd %ymm8, %ymm10, %ymm8 vmovdqa .LCPI1_21(%rip), %xmm7 vpshufb %xmm7, %xmm6, %xmm6 vmovdqa .LCPI1_20(%rip), %xmm2 vpshufb %xmm2, %xmm4, %xmm4 vpor %xmm4, %xmm6, %xmm6 vpshufb %xmm7, %xmm0, %xmm0 vpshufb %xmm2, %xmm3, %xmm3 vpor %xmm3, %xmm0, %xmm4 vextractf128 $1, %ymm8, %xmm0 vpshufd $8, %xmm0, %xmm0 vpshufd $8, %xmm8, %xmm3 vmovlhps %xmm0, %xmm3, %xmm8 vmovdqa 26848(%rbx), %ymm0 vpshufd $8, %xmm0, %xmm3 vmovaps 31104(%rbx), %xmm0 vmovlhps %xmm0, %xmm3, %xmm3 vcmpltpd %ymm1, %ymm5, %ymm5 vpsllw $15, %xmm4, %xmm1 vpsraw $15, %xmm1, %xmm1 vmovdqa .LCPI1_17(%rip), %xmm0 vpxor %xmm0, %xmm1, %xmm1 vpsllw $15, %xmm6, %xmm4 vpsraw $15, %xmm4, %xmm4 vpxor %xmm0, %xmm4, %xmm4 vpor %xmm1, %xmm4, %xmm1 vextractf128 $1, %ymm5, %xmm4 vpshufd $8, %xmm4, %xmm4 vpshufd $8, %xmm5, %xmm5 vmovlhps %xmm4, %xmm5, %xmm6 vpshufb %xmm7, %xmm8, %xmm5 vpshufb %xmm7, %xmm3, %xmm0 vmovdqa 32896(%rbx), %ymm3 vpshufd $8, %xmm3, %xmm3 vmovaps 32864(%rbx), %xmm4 vmovlhps %xmm4, %xmm3, %xmm3 vpshufb %xmm2, %xmm3, %xmm3 vpor %xmm3, %xmm0, %xmm0 vpsllw $15, %xmm0, %xmm0 vpsraw $15, %xmm0, %xmm0 vpand %xmm1, %xmm0, %xmm0 vpshufb %xmm2, %xmm6, %xmm1 vpunpckhbw %xmm0, %xmm0, %xmm3 vpor %xmm1, %xmm5, %xmm1 vpslld $31, %xmm3, %xmm3 vpsllw $15, %xmm1, %xmm1 vpsraw $15, %xmm1, %xmm1 vpmovsxdq %xmm3, %xmm4 vmovhlps %xmm3, %xmm3, %xmm3 vpmovsxdq %xmm3, %xmm3 vinsertf128 $1, %xmm3, %ymm4, %ymm3 vpunpckhbw %xmm0, %xmm1, %xmm4 vpslld $31, %xmm4, %xmm5 vpmovsxdq %xmm5, %xmm4 vmovhlps %xmm5, %xmm5, %xmm5 vpmovsxdq %xmm5, %xmm5 vinsertf128 $1, %xmm5, %ymm4, %ymm4 vpunpcklbw %xmm0, %xmm0, %xmm0 vpslld $31, %xmm0, %xmm5 vpmovsxdq %xmm5, %xmm0 vmovhlps %xmm5, %xmm5, %xmm5 vpmovsxdq %xmm5, %xmm5 vpunpcklbw %xmm0, %xmm1, %xmm1 vmovapd 23968(%rbx), %ymm2 vblendvpd %ymm4, %ymm12, %ymm2, %ymm4 vblendvpd %ymm3, %ymm4, %ymm11, %ymm3 vmulpd %ymm14, %ymm3, %ymm4 vinsertf128 $1, %xmm5, %ymm0, %ymm0 vpslld $31, %xmm1, %xmm3 vpmovsxdq %xmm3, %xmm1 vmovhlps %xmm3, %xmm3, %xmm3 vpmovsxdq %xmm3, %xmm3 vinsertf128 $1, %xmm3, %ymm1, %ymm1 vmovapd 24096(%rbx), %ymm2 vblendvpd %ymm1, %ymm13, %ymm2, %ymm1 vblendvpd %ymm0, %ymm1, %ymm9, %ymm0 vmulpd %ymm14, %ymm0, %ymm2 .LBB1_3556: vmovapd %ymm4, 22624(%rbx) vmovapd %ymm2, 22656(%rbx) vmovapd 26432(%rbx), %ymm0 vaddpd 26304(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 24160(%rbx) vmovapd 26400(%rbx), %ymm0 vaddpd 26272(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 24096(%rbx) vmovapd 26368(%rbx), %ymm0 vaddpd 24000(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 24000(%rbx) vmovapd 26336(%rbx), %ymm0 vaddpd 26144(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 23968(%rbx) vmovapd 26240(%rbx), %ymm0 vaddpd 23808(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 26336(%rbx) vmovapd 26208(%rbx), %ymm0 vaddpd 22880(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 26144(%rbx) vmovapd 26112(%rbx), %ymm0 vaddpd 23936(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 26432(%rbx) vmovapd 26080(%rbx), %ymm0 vaddpd 23904(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 26112(%rbx) vmovapd 24064(%rbx), %ymm0 vaddpd 22848(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 26240(%rbx) vmovapd 24032(%rbx), %ymm0 vaddpd 22816(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 26080(%rbx) vmovapd 23872(%rbx), %ymm0 vaddpd 22784(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 24032(%rbx) vmovapd 23840(%rbx), %ymm0 vaddpd 22752(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 26208(%rbx) vmovapd 26464(%rbx), %ymm0 vaddpd 22720(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 24064(%rbx) vmovapd 24192(%rbx), %ymm0 vaddpd 22688(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 26400(%rbx) leal 1164(%rcx,%r8), %eax movslq %eax, %rsi movq %rsi, 20640(%rbx) vmovupd 33056(%rbx,%rsi,8), %xmm1 leal 1152(%rcx,%r8), %eax movl %r8d, 18624(%rbx) vmovupd 33024(%rbx,%rsi,8), %xmm3 movslq %eax, %rax movq 32736(%rbx), %rcx vmovupd 33056(%rbx,%rcx,8), %xmm6 vmovupd 33024(%rbx,%rcx,8), %xmm5 vmovupd 33024(%rbx,%rax,8), %xmm4 vmovupd 33056(%rbx,%rax,8), %xmm0 vinsertf128 $1, 33072(%rbx,%rax,8), %ymm0, %ymm14 vinsertf128 $1, 33072(%rbx,%rsi,8), %ymm1, %ymm7 vmovapd %ymm7, 26272(%rbx) vinsertf128 $1, 33040(%rbx,%rax,8), %ymm4, %ymm9 vinsertf128 $1, 33040(%rbx,%rsi,8), %ymm3, %ymm10 vmovapd %ymm10, 26304(%rbx) vinsertf128 $1, 33072(%rbx,%rcx,8), %ymm6, %ymm12 vinsertf128 $1, 33040(%rbx,%rcx,8), %ymm5, %ymm8 vmovdqa 32896(%rbx), %ymm0 vpshufd $8, %xmm0, %xmm3 vmovaps 32864(%rbx), %xmm0 vmovlhps %xmm0, %xmm3, %xmm3 vmovdqa 26848(%rbx), %ymm0 vpshufd $8, %xmm0, %xmm2 vmovaps 31104(%rbx), %xmm0 vmovlhps %xmm0, %xmm2, %xmm2 vsubpd %ymm9, %ymm10, %ymm4 vsubpd %ymm10, %ymm8, %ymm5 vsubpd %ymm14, %ymm7, %ymm6 vsubpd %ymm7, %ymm12, %ymm7 vmovapd .LCPI1_24(%rip), %ymm13 vmulpd %ymm13, %ymm6, %ymm15 vmulpd %ymm13, %ymm7, %ymm0 vmovapd %ymm0, 23936(%rbx) vmulpd %ymm13, %ymm4, %ymm1 vmovapd %ymm1, 26464(%rbx) vmulpd %ymm13, %ymm5, %ymm10 vmovapd %ymm10, 24192(%rbx) vmovdqa .LCPI1_21(%rip), %xmm5 vpshufb %xmm5, %xmm2, %xmm2 vmovdqa .LCPI1_20(%rip), %xmm4 vpshufb %xmm4, %xmm3, %xmm3 vpor %xmm3, %xmm2, %xmm3 vmulpd %ymm0, %ymm15, %ymm2 vxorpd %ymm7, %ymm7, %ymm7 vcmpnlepd %ymm7, %ymm2, %ymm6 vmovapd %ymm6, 32896(%rbx) vextractf128 $1, %ymm6, %xmm2 vpshufd $8, %xmm2, %xmm0 vmovdqa %xmm0, 32864(%rbx) vpshufd $8, %xmm6, %xmm2 vmovlhps %xmm0, %xmm2, %xmm2 vpshufb %xmm4, %xmm2, %xmm2 vmovdqa %xmm4, %xmm6 vmulpd %ymm10, %ymm1, %ymm4 vcmpnlepd %ymm7, %ymm4, %ymm0 vmovapd %ymm0, 31104(%rbx) vextractf128 $1, %ymm0, %xmm4 vpshufd $8, %xmm4, %xmm1 vmovdqa %xmm1, 26848(%rbx) vpshufd $8, %xmm0, %xmm4 vmovlhps %xmm1, %xmm4, %xmm4 vpshufb %xmm5, %xmm4, %xmm4 vmovdqa %xmm5, %xmm11 vpor %xmm2, %xmm4, %xmm2 vpsllw $15, %xmm3, %xmm3 vpsraw $15, %xmm3, %xmm4 vpunpckhbw %xmm0, %xmm4, %xmm3 vpslld $31, %xmm3, %xmm5 vpmovsxdq %xmm5, %xmm3 vmovhlps %xmm5, %xmm5, %xmm5 vpmovsxdq %xmm5, %xmm5 vinsertf128 $1, %xmm5, %ymm3, %ymm3 vblendvpd %ymm3, 22624(%rbx), %ymm7, %ymm3 vpxor .LCPI1_17(%rip), %xmm2, %xmm5 vpunpcklbw %xmm0, %xmm4, %xmm2 vpslld $31, %xmm2, %xmm2 vpmovzxwd %xmm5, %xmm4 vpslld $31, %xmm4, %xmm4 vpsrad $31, %xmm4, %xmm4 vpunpckhwd %xmm0, %xmm5, %xmm5 vpslld $31, %xmm5, %xmm5 vpsrad $31, %xmm5, %xmm5 vinsertf128 $1, %xmm5, %ymm4, %ymm4 vmovapd 26176(%rbx), %ymm5 vaddpd %ymm3, %ymm5, %ymm3 vmovapd %ymm3, 26176(%rbx) vpmovsxdq %xmm2, %xmm3 vmovhlps %xmm2, %xmm2, %xmm2 vpmovsxdq %xmm2, %xmm2 vinsertf128 $1, %xmm2, %ymm3, %ymm2 vblendvpd %ymm2, 22656(%rbx), %ymm7, %ymm2 vmovapd 24128(%rbx), %ymm3 vaddpd %ymm2, %ymm3, %ymm2 vmovapd %ymm2, 26368(%rbx) vmovdqa 8352(%rbx), %ymm2 vptest %ymm2, %ymm4 vmovapd 8384(%rbx), %ymm2 vmovapd %ymm2, %ymm0 vmovapd %ymm2, %ymm3 movq 25952(%rbx), %r14 movq 25888(%rbx), %rax movq 25920(%rbx), %rcx movq 25856(%rbx), %r8 jb .LBB1_3558 vsubpd %ymm9, %ymm8, %ymm2 vsubpd %ymm14, %ymm12, %ymm0 vmovapd .LCPI1_28(%rip), %ymm10 vmulpd %ymm10, %ymm0, %ymm0 vmovapd %ymm0, 23904(%rbx) vmulpd %ymm10, %ymm2, %ymm3 vmovapd %ymm3, 24128(%rbx) vmovapd .LCPI1_56(%rip), %ymm13 vandpd %ymm13, %ymm0, %ymm0 vandpd %ymm13, %ymm15, %ymm9 vcmpltpd %ymm0, %ymm9, %ymm1 vextractf128 $1, %ymm1, %xmm2 vpshufd $8, %xmm2, %xmm2 vpshufd $8, %xmm1, %xmm1 vandpd %ymm13, %ymm3, %ymm8 vmovlhps %xmm2, %xmm1, %xmm3 vmovapd 26464(%rbx), %ymm1 vandpd %ymm13, %ymm1, %ymm2 vcmpltpd %ymm8, %ymm2, %ymm1 vextractf128 $1, %ymm1, %xmm4 vpshufd $8, %xmm4, %xmm4 vpshufd $8, %xmm1, %xmm1 vmovlhps %xmm4, %xmm1, %xmm4 vmovapd 23936(%rbx), %ymm14 vandpd %ymm13, %ymm14, %ymm1 vcmpltpd %ymm1, %ymm9, %ymm5 vextractf128 $1, %ymm5, %xmm7 vpshufd $8, %xmm7, %xmm7 vpshufd $8, %xmm5, %xmm5 vmovlhps %xmm7, %xmm5, %xmm5 vmovapd 24192(%rbx), %ymm12 vandpd %ymm13, %ymm12, %ymm9 vcmpltpd %ymm9, %ymm2, %ymm2 vextractf128 $1, %ymm2, %xmm7 vpshufd $8, %xmm7, %xmm7 vpshufd $8, %xmm2, %xmm2 vmovlhps %xmm7, %xmm2, %xmm2 vcmpltpd %ymm8, %ymm9, %ymm8 vpshufb %xmm11, %xmm2, %xmm2 vpshufb %xmm6, %xmm5, %xmm5 vpor %xmm5, %xmm2, %xmm2 vpshufb %xmm11, %xmm4, %xmm4 vpshufb %xmm6, %xmm3, %xmm3 vpor %xmm3, %xmm4, %xmm5 vextractf128 $1, %ymm8, %xmm3 vpshufd $8, %xmm3, %xmm3 vpshufd $8, %xmm8, %xmm4 vmovlhps %xmm3, %xmm4, %xmm3 vmovdqa 31104(%rbx), %ymm4 vpshufd $8, %xmm4, %xmm4 vmovaps 26848(%rbx), %xmm7 vmovlhps %xmm7, %xmm4, %xmm4 vcmpltpd %ymm0, %ymm1, %ymm1 vpsllw $15, %xmm5, %xmm0 vpsraw $15, %xmm0, %xmm0 vmovdqa .LCPI1_17(%rip), %xmm5 vpxor %xmm5, %xmm0, %xmm0 vpsllw $15, %xmm2, %xmm2 vpsraw $15, %xmm2, %xmm2 vpxor %xmm5, %xmm2, %xmm2 vpor %xmm0, %xmm2, %xmm0 vextractf128 $1, %ymm1, %xmm2 vpshufd $8, %xmm2, %xmm2 vpshufd $8, %xmm1, %xmm1 vmovlhps %xmm2, %xmm1, %xmm2 vpshufb %xmm11, %xmm3, %xmm1 vpshufb %xmm11, %xmm4, %xmm3 vmovdqa 32896(%rbx), %ymm4 vpshufd $8, %xmm4, %xmm4 vmovaps 32864(%rbx), %xmm5 vmovlhps %xmm5, %xmm4, %xmm4 vpshufb %xmm6, %xmm4, %xmm4 vpor %xmm4, %xmm3, %xmm3 vpsllw $15, %xmm3, %xmm3 vpsraw $15, %xmm3, %xmm3 vpand %xmm0, %xmm3, %xmm0 vpshufb %xmm6, %xmm2, %xmm2 vpunpckhbw %xmm0, %xmm0, %xmm3 vpor %xmm2, %xmm1, %xmm1 vpslld $31, %xmm3, %xmm2 vpsllw $15, %xmm1, %xmm1 vpsraw $15, %xmm1, %xmm1 vpmovsxdq %xmm2, %xmm3 vmovhlps %xmm2, %xmm2, %xmm2 vpmovsxdq %xmm2, %xmm2 vinsertf128 $1, %xmm2, %ymm3, %ymm2 vpunpckhbw %xmm0, %xmm1, %xmm3 vpslld $31, %xmm3, %xmm4 vpmovsxdq %xmm4, %xmm3 vmovhlps %xmm4, %xmm4, %xmm4 vpmovsxdq %xmm4, %xmm4 vinsertf128 $1, %xmm4, %ymm3, %ymm3 vpunpcklbw %xmm0, %xmm0, %xmm0 vpslld $31, %xmm0, %xmm4 vpmovsxdq %xmm4, %xmm0 vmovhlps %xmm4, %xmm4, %xmm4 vpmovsxdq %xmm4, %xmm4 vpunpcklbw %xmm0, %xmm1, %xmm1 vmovapd 23904(%rbx), %ymm5 vblendvpd %ymm3, %ymm14, %ymm5, %ymm3 vblendvpd %ymm2, %ymm3, %ymm15, %ymm2 vmulpd %ymm10, %ymm2, %ymm3 vinsertf128 $1, %xmm4, %ymm0, %ymm0 vpslld $31, %xmm1, %xmm2 vpmovsxdq %xmm2, %xmm1 vmovhlps %xmm2, %xmm2, %xmm2 vpmovsxdq %xmm2, %xmm2 vinsertf128 $1, %xmm2, %ymm1, %ymm1 vmovapd 24128(%rbx), %ymm2 vblendvpd %ymm1, %ymm12, %ymm2, %ymm1 vmovapd 26464(%rbx), %ymm2 vblendvpd %ymm0, %ymm1, %ymm2, %ymm0 vmulpd %ymm10, %ymm0, %ymm0 .LBB1_3558: vmovapd %ymm3, 23904(%rbx) vmovapd %ymm0, 23936(%rbx) vmovapd .LCPI1_19(%rip), %ymm5 vmovapd 24096(%rbx), %ymm8 vcmpltpd %ymm5, %ymm8, %ymm0 vextractf128 $1, %ymm0, %xmm1 vpshufd $8, %xmm1, %xmm1 vpshufd $8, %xmm0, %xmm0 vmovlhps %xmm1, %xmm0, %xmm0 vmovapd 24160(%rbx), %ymm7 vcmpltpd %ymm5, %ymm7, %ymm1 vextractf128 $1, %ymm1, %xmm2 vpshufb %xmm11, %xmm0, %xmm0 vpshufd $8, %xmm2, %xmm2 vpshufd $8, %xmm1, %xmm1 vmovlhps %xmm2, %xmm1, %xmm1 vpshufb %xmm6, %xmm1, %xmm2 vmovapd 24000(%rbx), %ymm9 vcmpltpd %ymm5, %ymm9, %ymm1 vpor %xmm2, %xmm0, %xmm0 vextractf128 $1, %ymm1, %xmm2 vpshufd $8, %xmm2, %xmm2 vpshufd $8, %xmm1, %xmm1 vmovlhps %xmm2, %xmm1, %xmm2 vmovapd 23968(%rbx), %ymm10 vcmpltpd %ymm5, %ymm10, %ymm1 vextractf128 $1, %ymm1, %xmm3 vpshufd $8, %xmm3, %xmm3 vpshufd $8, %xmm1, %xmm1 vmovlhps %xmm3, %xmm1, %xmm3 vpsllw $15, %xmm0, %xmm0 vpsraw $15, %xmm0, %xmm1 vpshufb %xmm11, %xmm3, %xmm0 vpshufb %xmm6, %xmm2, %xmm2 vpor %xmm2, %xmm0, %xmm2 vpunpckhbw %xmm0, %xmm1, %xmm0 vpslld $31, %xmm0, %xmm3 vpmovsxdq %xmm3, %xmm0 vmovhlps %xmm3, %xmm3, %xmm3 vpmovsxdq %xmm3, %xmm3 vinsertf128 $1, %xmm3, %ymm0, %ymm0 vpsllw $15, %xmm2, %xmm2 vpsraw $15, %xmm2, %xmm2 vpunpckhbw %xmm0, %xmm2, %xmm3 vpslld $31, %xmm3, %xmm4 vpmovsxdq %xmm4, %xmm3 vmovhlps %xmm4, %xmm4, %xmm4 vpmovsxdq %xmm4, %xmm4 vinsertf128 $1, %xmm4, %ymm3, %ymm3 vpunpcklbw %xmm0, %xmm1, %xmm1 vpslld $31, %xmm1, %xmm4 vpmovsxdq %xmm4, %xmm1 vmovhlps %xmm4, %xmm4, %xmm4 vpmovsxdq %xmm4, %xmm4 vinsertf128 $1, %xmm4, %ymm1, %ymm1 vpunpcklbw %xmm0, %xmm2, %xmm2 vpslld $31, %xmm2, %xmm4 vpmovsxdq %xmm4, %xmm2 vmovhlps %xmm4, %xmm4, %xmm4 vpmovsxdq %xmm4, %xmm4 vinsertf128 $1, %xmm4, %ymm2, %ymm2 vblendvpd %ymm2, %ymm5, %ymm10, %ymm2 vmovapd %ymm2, 22528(%rbx) vblendvpd %ymm1, %ymm5, %ymm8, %ymm1 vmovapd %ymm1, 24192(%rbx) vblendvpd %ymm3, %ymm5, %ymm9, %ymm1 vmovapd %ymm1, 22560(%rbx) vblendvpd %ymm0, %ymm5, %ymm7, %ymm0 vmovapd %ymm0, 24160(%rbx) vxorpd %ymm9, %ymm9, %ymm9 vmovapd 26144(%rbx), %ymm14 vmulpd %ymm9, %ymm14, %ymm0 vmovapd 26080(%rbx), %ymm13 vmulpd %ymm0, %ymm13, %ymm1 vmovapd 26112(%rbx), %ymm15 vmulpd %ymm0, %ymm15, %ymm0 vaddpd %ymm1, %ymm0, %ymm0 vmovapd 26336(%rbx), %ymm8 vmulpd %ymm9, %ymm8, %ymm1 vmovapd 26240(%rbx), %ymm12 vmulpd %ymm1, %ymm12, %ymm2 vmovapd 26432(%rbx), %ymm10 vmulpd %ymm1, %ymm10, %ymm1 vaddpd %ymm2, %ymm1, %ymm1 vmulpd %ymm9, %ymm15, %ymm2 vmulpd %ymm2, %ymm13, %ymm2 vaddpd %ymm2, %ymm0, %ymm0 vmulpd %ymm14, %ymm14, %ymm2 vmovapd .LCPI1_23(%rip), %ymm5 vaddpd %ymm5, %ymm2, %ymm2 vmulpd %ymm15, %ymm15, %ymm3 vaddpd %ymm3, %ymm2, %ymm2 vmulpd %ymm13, %ymm13, %ymm3 vaddpd %ymm3, %ymm2, %ymm2 vmovapd .LCPI1_24(%rip), %ymm3 vmulpd %ymm3, %ymm0, %ymm0 vmovapd %ymm3, %ymm7 vaddpd %ymm0, %ymm2, %ymm0 vmulpd %ymm9, %ymm10, %ymm2 vmulpd %ymm2, %ymm12, %ymm2 vaddpd %ymm2, %ymm1, %ymm1 vmovdqa 32896(%rbx), %ymm2 vpshufd $8, %xmm2, %xmm2 vmovaps 32864(%rbx), %xmm3 vmovlhps %xmm3, %xmm2, %xmm2 vmovdqa 31104(%rbx), %ymm3 vpshufd $8, %xmm3, %xmm3 vmovaps 26848(%rbx), %xmm4 vmovlhps %xmm4, %xmm3, %xmm3 vmulpd %ymm8, %ymm8, %ymm4 vaddpd %ymm5, %ymm4, %ymm4 vmulpd %ymm10, %ymm10, %ymm5 vaddpd %ymm5, %ymm4, %ymm4 vmulpd %ymm12, %ymm12, %ymm5 vaddpd %ymm5, %ymm4, %ymm4 vpshufb %xmm11, %xmm3, %xmm3 vpshufb %xmm6, %xmm2, %xmm2 vpor %xmm2, %xmm3, %xmm3 vmulpd %ymm7, %ymm1, %ymm1 vaddpd %ymm1, %ymm4, %ymm2 vsqrtpd %ymm0, %ymm0 vmovapd .LCPI1_25(%rip), %ymm5 vmulpd %ymm5, %ymm0, %ymm1 vmovapd 12096(%rbx), %ymm4 vmulpd %ymm4, %ymm1, %ymm1 vsubpd %ymm1, %ymm13, %ymm6 vmovapd %ymm6, 22144(%rbx) vmovapd %ymm6, %ymm13 vsubpd %ymm1, %ymm15, %ymm6 vmovapd %ymm6, 26464(%rbx) vmovapd %ymm6, %ymm7 vsubpd %ymm1, %ymm14, %ymm1 vmovapd %ymm1, 22880(%rbx) vmovapd %ymm1, %ymm11 vdivpd %ymm4, %ymm0, %ymm0 vmovapd %ymm0, 32896(%rbx) vmovapd %ymm0, %ymm6 vpsllw $15, %xmm3, %xmm0 vpsraw $15, %xmm0, %xmm1 vpunpcklbw %xmm0, %xmm1, %xmm0 vpslld $31, %xmm0, %xmm3 vpmovsxdq %xmm3, %xmm0 vmovhlps %xmm3, %xmm3, %xmm3 vpmovsxdq %xmm3, %xmm3 vinsertf128 $1, %xmm3, %ymm0, %ymm0 vmovaps %ymm0, 31104(%rbx) vpunpckhbw %xmm0, %xmm1, %xmm1 vpslld $31, %xmm1, %xmm3 vpmovsxdq %xmm3, %xmm1 vmovhlps %xmm3, %xmm3, %xmm3 vpmovsxdq %xmm3, %xmm3 vinsertf128 $1, %xmm3, %ymm1, %ymm0 vsqrtpd %ymm2, %ymm2 vmulpd %ymm5, %ymm2, %ymm3 vmulpd %ymm4, %ymm3, %ymm3 vsubpd %ymm3, %ymm12, %ymm5 vmovapd %ymm5, 22112(%rbx) vmovapd %ymm5, %ymm12 vsubpd %ymm3, %ymm10, %ymm15 vmovapd %ymm15, 26432(%rbx) vsubpd %ymm3, %ymm8, %ymm10 vmovapd %ymm10, 24128(%rbx) vdivpd %ymm4, %ymm2, %ymm1 vmovapd %ymm1, 32864(%rbx) vmovapd %ymm1, %ymm5 vmulpd %ymm9, %ymm6, %ymm3 vmovapd %ymm11, %ymm14 vmulpd %ymm9, %ymm14, %ymm2 vmovapd %ymm2, 22752(%rbx) vaddpd %ymm2, %ymm3, %ymm2 vmovapd %ymm7, %ymm1 vaddpd %ymm1, %ymm2, %ymm4 vmulpd %ymm9, %ymm13, %ymm7 vmovapd %ymm7, 22656(%rbx) vaddpd %ymm7, %ymm4, %ymm4 vmovapd %ymm4, 26336(%rbx) vaddpd %ymm14, %ymm3, %ymm3 vmulpd %ymm9, %ymm1, %ymm9 vmovapd %ymm9, 22720(%rbx) vaddpd %ymm9, %ymm3, %ymm3 vaddpd %ymm7, %ymm3, %ymm3 vmovapd %ymm3, 26112(%rbx) vmovapd 26208(%rbx), %ymm6 vmulpd %ymm3, %ymm6, %ymm3 vmovapd 26400(%rbx), %ymm11 vmulpd %ymm4, %ymm11, %ymm4 vaddpd %ymm4, %ymm3, %ymm3 vaddpd %ymm9, %ymm2, %ymm2 vaddpd %ymm13, %ymm2, %ymm2 vmovapd %ymm2, 26848(%rbx) vmovapd 26368(%rbx), %ymm1 vmulpd %ymm2, %ymm1, %ymm2 vaddpd %ymm2, %ymm3, %ymm1 vmovapd %ymm1, 22048(%rbx) vxorpd %ymm2, %ymm2, %ymm2 vblendvpd %ymm0, 23904(%rbx), %ymm2, %ymm0 vmovapd %ymm0, 26080(%rbx) vmovapd 31104(%rbx), %ymm0 vblendvpd %ymm0, 23936(%rbx), %ymm2, %ymm0 vmulpd %ymm2, %ymm5, %ymm3 vmulpd %ymm2, %ymm10, %ymm2 vxorpd %ymm7, %ymm7, %ymm7 vmovapd %ymm2, 22624(%rbx) vaddpd %ymm2, %ymm3, %ymm2 vaddpd %ymm15, %ymm2, %ymm4 vmulpd %ymm7, %ymm12, %ymm5 vmovapd %ymm5, 22592(%rbx) vaddpd %ymm5, %ymm4, %ymm4 vmovapd %ymm4, 31104(%rbx) vaddpd %ymm10, %ymm3, %ymm3 vmovapd %ymm10, %ymm9 vmulpd %ymm7, %ymm15, %ymm7 vmovapd %ymm7, 22688(%rbx) vaddpd %ymm7, %ymm3, %ymm3 vaddpd %ymm5, %ymm3, %ymm3 vmovapd %ymm3, 26240(%rbx) vmovapd 24032(%rbx), %ymm8 vmulpd %ymm3, %ymm8, %ymm3 vmovapd 24064(%rbx), %ymm15 vmulpd %ymm4, %ymm15, %ymm4 vaddpd %ymm4, %ymm3, %ymm3 vaddpd %ymm7, %ymm2, %ymm2 vaddpd %ymm12, %ymm2, %ymm2 vmovapd %ymm2, 26144(%rbx) vmovapd 26176(%rbx), %ymm4 vmulpd %ymm2, %ymm4, %ymm2 vaddpd %ymm2, %ymm3, %ymm7 vmovapd %ymm7, 22784(%rbx) vmovapd 26304(%rbx), %ymm2 vaddpd %ymm0, %ymm2, %ymm0 vmovapd %ymm0, 26304(%rbx) vmovapd 26272(%rbx), %ymm0 vaddpd 26080(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 26272(%rbx) vmulpd %ymm14, %ymm1, %ymm0 vmovapd %ymm0, 14784(%rbx) vaddpd %ymm0, %ymm6, %ymm0 vmovapd 32896(%rbx), %ymm3 vdivpd %ymm3, %ymm0, %ymm4 vmovapd %ymm4, 24096(%rbx) vmovapd .LCPI1_22(%rip), %ymm6 vmulpd %ymm6, %ymm1, %ymm0 vxorpd %ymm5, %ymm5, %ymm5 vmulpd %ymm5, %ymm4, %ymm10 vaddpd %ymm10, %ymm0, %ymm0 vmulpd %ymm5, %ymm1, %ymm2 vaddpd %ymm10, %ymm2, %ymm10 vaddpd %ymm4, %ymm2, %ymm4 vmulpd 26464(%rbx), %ymm1, %ymm2 vmovapd %ymm2, 14752(%rbx) vaddpd %ymm2, %ymm11, %ymm2 vdivpd %ymm3, %ymm2, %ymm2 vmovapd %ymm2, 26400(%rbx) vmulpd %ymm5, %ymm2, %ymm11 vaddpd %ymm11, %ymm4, %ymm14 vaddpd %ymm11, %ymm0, %ymm0 vmulpd %ymm13, %ymm1, %ymm2 vmovapd %ymm2, 14720(%rbx) vmovapd 26368(%rbx), %ymm1 vaddpd %ymm2, %ymm1, %ymm2 vdivpd %ymm3, %ymm2, %ymm4 vmovapd %ymm4, 22080(%rbx) vmulpd %ymm5, %ymm4, %ymm2 vmovapd %ymm4, %ymm13 vaddpd %ymm2, %ymm0, %ymm0 vmovapd %ymm0, 26208(%rbx) vaddpd %ymm2, %ymm14, %ymm0 vmovapd %ymm0, 26080(%rbx) vmulpd %ymm9, %ymm7, %ymm0 vmovapd %ymm0, 14688(%rbx) vaddpd %ymm0, %ymm8, %ymm0 vmovapd 32864(%rbx), %ymm3 vdivpd %ymm3, %ymm0, %ymm4 vmovapd %ymm4, 26368(%rbx) vmulpd %ymm6, %ymm7, %ymm0 vmulpd %ymm5, %ymm4, %ymm1 vaddpd %ymm1, %ymm0, %ymm0 vmulpd %ymm5, %ymm7, %ymm2 vaddpd %ymm1, %ymm2, %ymm14 vaddpd %ymm4, %ymm2, %ymm1 vmulpd 26432(%rbx), %ymm7, %ymm2 vmovapd %ymm2, 14656(%rbx) vaddpd %ymm2, %ymm15, %ymm2 vdivpd %ymm3, %ymm2, %ymm2 vmovapd %ymm2, 24064(%rbx) vmulpd %ymm5, %ymm2, %ymm9 vmovapd %ymm2, %ymm15 vaddpd %ymm9, %ymm1, %ymm1 vaddpd %ymm9, %ymm0, %ymm0 vmulpd %ymm12, %ymm7, %ymm2 vmovapd %ymm2, 14624(%rbx) vmovapd 26176(%rbx), %ymm4 vaddpd %ymm2, %ymm4, %ymm2 vdivpd %ymm3, %ymm2, %ymm4 vmovapd %ymm4, 22848(%rbx) vmulpd %ymm5, %ymm4, %ymm2 vmovapd %ymm4, %ymm12 vaddpd %ymm2, %ymm0, %ymm0 vmovapd %ymm0, 23968(%rbx) vaddpd %ymm2, %ymm1, %ymm0 vmovapd %ymm0, 24000(%rbx) movq 25632(%rbx), %rsi movabsq $-4616189618054758400, %rdi movq %rdi, (%rsi) movq 25600(%rbx), %rsi movq %rdi, (%rsi) movq 25568(%rbx), %rsi movq %rdi, (%rsi) movq 32576(%rbx), %rsi movq %rdi, (%rsi) movq 25760(%rbx), %rsi movq %rdi, (%rsi) movq 32704(%rbx), %rsi movq %rdi, (%rsi) movq 25728(%rbx), %rsi movq %rdi, (%rsi) movq 25696(%rbx), %rsi movq %rdi, (%rsi) vxorpd %xmm0, %xmm0, %xmm0 movq 24976(%rbx), %rsi vmovupd %xmm0, 16(%rsi) vmovupd %xmm0, (%rsi) movq 24928(%rbx), %rsi vmovupd %xmm0, 16(%rsi) vmovupd %xmm0, (%rsi) movq 25216(%rbx), %rsi vmovupd %xmm0, 16(%rsi) vmovupd %xmm0, (%rsi) movq 25184(%rbx), %rsi vmovupd %xmm0, 16(%rsi) vmovupd %xmm0, (%rsi) movq 25152(%rbx), %rsi vmovupd %xmm0, 16(%rsi) vmovupd %xmm0, (%rsi) movq 25136(%rbx), %rsi vmovupd %xmm0, 16(%rsi) vmovupd %xmm0, (%rsi) movq 25120(%rbx), %rsi vmovupd %xmm0, 16(%rsi) vmovupd %xmm0, (%rsi) movq 25088(%rbx), %rsi vmovupd %xmm0, 16(%rsi) vmovupd %xmm0, (%rsi) movabsq $4607182418800017408, %r13 movq 25792(%rbx), %rsi movq %r13, (%rsi) movq %r13, (%r8) movq %r13, (%r9) movq %r13, (%rax) movq %r13, (%rcx) movq 25984(%rbx), %rax movq %r13, (%rax) movq %r13, (%r14) movq 26016(%rbx), %rax movq %r13, (%rax) movq 25056(%rbx), %rax vmovupd %xmm0, 16(%rax) vmovupd %xmm0, (%rax) movq 25040(%rbx), %rax vmovupd %xmm0, 16(%rax) vmovupd %xmm0, (%rax) movq 24992(%rbx), %rax vmovupd %xmm0, 16(%rax) vmovupd %xmm0, (%rax) movq 25392(%rbx), %rax vmovupd %xmm0, 16(%rax) vmovupd %xmm0, (%rax) movq 25344(%rbx), %rax vmovupd %xmm0, 16(%rax) vmovupd %xmm0, (%rax) movq 25312(%rbx), %rax vmovupd %xmm0, 16(%rax) vmovupd %xmm0, (%rax) movq 25280(%rbx), %rax vmovupd %xmm0, 16(%rax) vmovupd %xmm0, (%rax) movq 25248(%rbx), %rax vmovupd %xmm0, 16(%rax) vmovupd %xmm0, (%rax) movq 31552(%rbx), %rax movq %r13, (%rax) movq %r13, (%r11) movq 31616(%rbx), %rax movq %r13, (%rax) movq %r13, (%r10) movq 31904(%rbx), %rax movq %r13, (%rax) movq 31936(%rbx), %rax movq %r13, (%rax) movq 31680(%rbx), %rax movq %r13, (%rax) movq 31968(%rbx), %rax movq %r13, (%rax) movq 25536(%rbx), %rax vmovupd %xmm0, 16(%rax) vmovupd %xmm0, (%rax) movq 25504(%rbx), %rax vmovupd %xmm0, 16(%rax) vmovupd %xmm0, (%rax) movq 25472(%rbx), %rax vmovupd %xmm0, 16(%rax) vmovupd %xmm0, (%rax) movq 25456(%rbx), %rax vmovupd %xmm0, 16(%rax) vmovupd %xmm0, (%rax) vmovupd %xmm0, 16(%r15) vmovupd %xmm0, (%r15) movq 25408(%rbx), %rax vmovupd %xmm0, 16(%rax) vmovupd %xmm0, (%rax) movq 32128(%rbx), %rax vmovupd %xmm0, 16(%rax) vmovupd %xmm0, (%rax) movq 32672(%rbx), %rax vmovupd %xmm0, 16(%rax) vmovupd %xmm0, (%rax) movq 31264(%rbx), %r15 movq %r13, (%r15) movq 31296(%rbx), %r14 movq %r13, (%r14) movq 31200(%rbx), %r10 movq %r13, (%r10) movq 31232(%rbx), %r8 movq %r13, (%r8) movq 32000(%rbx), %r11 movq %r13, (%r11) movq 32032(%rbx), %r9 movq %r13, (%r9) movq 31168(%rbx), %rsi movq %r13, (%rsi) movq 31072(%rbx), %rcx movq %r13, (%rcx) movq 30720(%rbx), %rax movq %rdi, (%rax) movq 30752(%rbx), %rax movq %rdi, (%rax) movq 30656(%rbx), %rax movq %rdi, (%rax) movq 30688(%rbx), %rax movq %rdi, (%rax) movq 30848(%rbx), %rax movq %rdi, (%rax) movq 31008(%rbx), %rax movq %rdi, (%rax) movq 30816(%rbx), %rax movq %rdi, (%rax) movq 30976(%rbx), %rax movq %rdi, (%rax) movabsq $-9223372036854775808, %rax movq 30592(%rbx), %rdi movq %rax, (%rdi) movq 30624(%rbx), %rdi movq %rax, (%rdi) movq 30528(%rbx), %rdi movq %rax, (%rdi) movq 30560(%rbx), %rdi movq %rax, (%rdi) movq 30784(%rbx), %rdi movq %rax, (%rdi) movq 30944(%rbx), %rdi movq %rax, (%rdi) movq 30880(%rbx), %rdi movq %rax, (%rdi) movq 30912(%rbx), %rdi movq %rax, (%rdi) movq 30368(%rbx), %rdi movq %rax, (%rdi) movq 30336(%rbx), %rdi movq %rax, (%rdi) movq 30304(%rbx), %rdi movq %rax, (%rdi) movq 30272(%rbx), %rdi movq %rax, (%rdi) movq 30496(%rbx), %rdi movq %rax, (%rdi) movq 30464(%rbx), %rdi movq %rax, (%rdi) movq 30432(%rbx), %rdi movq %rax, (%rdi) movq 30400(%rbx), %rdi movq %rax, (%rdi) movq 28160(%rbx), %rdi movq %rax, (%rdi) movq 30112(%rbx), %rdi movq %rax, (%rdi) movq 30080(%rbx), %rdi movq %rax, (%rdi) movq 30048(%rbx), %rdi movq %rax, (%rdi) movq 30240(%rbx), %rdi movq %rax, (%rdi) movq 30208(%rbx), %rdi movq %rax, (%rdi) movq 30176(%rbx), %rdi movq %rax, (%rdi) movq 30144(%rbx), %rdi movq %rax, (%rdi) movq 29312(%rbx), %rdi movq %rax, (%rdi) movq 29280(%rbx), %rdi movq %rax, (%rdi) movq 29120(%rbx), %rdi movq %rax, (%rdi) movq 29088(%rbx), %rdi movq %rax, (%rdi) movq 29952(%rbx), %rdi movq %rax, (%rdi) movq 29920(%rbx), %rdi movq %rax, (%rdi) movq 29760(%rbx), %rdi movq %rax, (%rdi) movq 29728(%rbx), %rdi movq %rax, (%rdi) movq 29184(%rbx), %rdi movq %r13, (%rdi) movq 29152(%rbx), %rdi movq %r13, (%rdi) movq 29056(%rbx), %rdi movq %r13, (%rdi) movq 29024(%rbx), %rdi movq %r13, (%rdi) movq 29824(%rbx), %rdi movq %r13, (%rdi) movq 29792(%rbx), %rdi movq %r13, (%rdi) movq 29696(%rbx), %rdi movq %r13, (%rdi) movq 29664(%rbx), %rdi movq %r13, (%rdi) movq 29440(%rbx), %rdi movq %rax, (%rdi) movq 29408(%rbx), %rdi movq %rax, (%rdi) movq 29248(%rbx), %rdi movq %rax, (%rdi) movq 29216(%rbx), %rdi movq %rax, (%rdi) movq 30016(%rbx), %rdi movq %rax, (%rdi) movq 29984(%rbx), %rdi movq %rax, (%rdi) movq 29888(%rbx), %rdi movq %rax, (%rdi) movq 29856(%rbx), %rdi movq %rax, (%rdi) movq 28288(%rbx), %rdi movq %rax, (%rdi) movq 28256(%rbx), %rdi movq %rax, (%rdi) movq 28128(%rbx), %rdi movq %rax, (%rdi) movq 28096(%rbx), %rdi movq %rax, (%rdi) movq 29568(%rbx), %rdi movq %rax, (%rdi) movq 29536(%rbx), %rdi movq %rax, (%rdi) movq 29376(%rbx), %rdi movq %rax, (%rdi) movq 29344(%rbx), %rdi movq %rax, (%rdi) movq 28672(%rbx), %rdi movq %rax, (%rdi) movq 28640(%rbx), %rdi movq %rax, (%rdi) movq 28416(%rbx), %rdi movq %rax, (%rdi) movq 28384(%rbx), %rdi movq %rax, (%rdi) movq 28992(%rbx), %rdi movq %rax, (%rdi) movq 28960(%rbx), %rdi movq %rax, (%rdi) movq 28864(%rbx), %rdi movq %rax, (%rdi) movq 28832(%rbx), %rdi movq %rax, (%rdi) movq 28480(%rbx), %rdi movq %rax, (%rdi) movq 28448(%rbx), %rdi movq %rax, (%rdi) movq 28224(%rbx), %rdi movq %rax, (%rdi) movq 28192(%rbx), %rdi movq %rax, (%rdi) movq 29632(%rbx), %rdi movq %rax, (%rdi) movq 29600(%rbx), %rdi movq %rax, (%rdi) movq 29504(%rbx), %rdi movq %rax, (%rdi) movq 29472(%rbx), %rdi movq %rax, (%rdi) movq 27808(%rbx), %rdi movq %r13, (%rdi) movq 27776(%rbx), %rdi movq %r13, (%rdi) movq 27616(%rbx), %rdi movq %r13, (%rdi) movq 27584(%rbx), %rdi movq %r13, (%rdi) movq 28928(%rbx), %rdi movq %r13, (%rdi) movq 28896(%rbx), %rdi movq %r13, (%rdi) movq 28736(%rbx), %rdi movq %r13, (%rdi) movq 28704(%rbx), %rdi movq %r13, (%rdi) movq 27104(%rbx), %rdi movq %rax, (%rdi) movq 27072(%rbx), %rdi movq %rax, (%rdi) movq 26976(%rbx), %rdi movq %rax, (%rdi) movq 26944(%rbx), %rdi movq %rax, (%rdi) movq 28000(%rbx), %rdi movq %rax, (%rdi) movq 27968(%rbx), %rdi movq %rax, (%rdi) movq 27872(%rbx), %rdi movq %rax, (%rdi) movq 27840(%rbx), %rdi movq %rax, (%rdi) movq 28064(%rbx), %rdi movq %rax, (%rdi) movq 28032(%rbx), %rdi movq %rax, (%rdi) movq 27936(%rbx), %rdi movq %rax, (%rdi) movq 27904(%rbx), %rdi movq %rax, (%rdi) movq 28800(%rbx), %rdi movq %rax, (%rdi) movq 28768(%rbx), %rdi movq %rax, (%rdi) movq 28544(%rbx), %rdi movq %rax, (%rdi) movq 28512(%rbx), %rdi movq %rax, (%rdi) movq 27680(%rbx), %rdi movq %rax, (%rdi) movq 27648(%rbx), %rdi movq %rax, (%rdi) movq 27488(%rbx), %rdi movq %rax, (%rdi) movq 27456(%rbx), %rdi movq %rax, (%rdi) movq 28608(%rbx), %rdi movq %rax, (%rdi) movq 28576(%rbx), %rdi movq %rax, (%rdi) movq 28352(%rbx), %rdi movq %rax, (%rdi) movq 28320(%rbx), %rdi movq %rax, (%rdi) movq 27424(%rbx), %rdi movq %rax, (%rdi) movq 27392(%rbx), %rdi movq %rax, (%rdi) movq 27232(%rbx), %rdi movq %rax, (%rdi) movq 27200(%rbx), %rdi movq %rax, (%rdi) movq 27744(%rbx), %rdi movq %rax, (%rdi) movq 27712(%rbx), %rdi movq %rax, (%rdi) movq 27552(%rbx), %rdi movq %rax, (%rdi) movq 27520(%rbx), %rdi movq %rax, (%rdi) movq 27296(%rbx), %rax movq %r13, (%rax) movq 27264(%rbx), %rax movq %r13, (%rax) movq 27040(%rbx), %rax movq %r13, (%rax) movq 27008(%rbx), %rax movq %r13, (%rax) movq 27360(%rbx), %rax movq %r13, (%rax) movq 27328(%rbx), %rax movq %r13, (%rax) movq 27168(%rbx), %rax movq %r13, (%rax) movq 27136(%rbx), %rax movq %r13, (%rax) movq 31712(%rbx), %rax vmovsd (%rax), %xmm0 movq 31776(%rbx), %rax vmovhpd (%rax), %xmm0, %xmm1 movq 31040(%rbx), %rax vmovsd (%rax), %xmm0 movq 31744(%rbx), %rax vmovhpd (%rax), %xmm0, %xmm3 vmovsd (%rsi), %xmm0 vmovhpd (%rcx), %xmm0, %xmm2 vmovsd (%r11), %xmm0 vmovhpd (%r9), %xmm0, %xmm4 movq 32192(%rbx), %rax vmovsd (%rax), %xmm0 movq 32224(%rbx), %rax vmovhpd (%rax), %xmm0, %xmm0 movq 32160(%rbx), %rax vmovsd (%rax), %xmm5 movq 32544(%rbx), %rax vmovhpd (%rax), %xmm5, %xmm5 vinsertf128 $1, %xmm0, %ymm5, %ymm0 vinsertf128 $1, %xmm2, %ymm4, %ymm2 vinsertf128 $1, %xmm1, %ymm3, %ymm1 vmovsd (%r10), %xmm3 vmovhpd (%r8), %xmm3, %xmm3 vmovsd (%r15), %xmm4 vmovhpd (%r14), %xmm4, %xmm4 vinsertf128 $1, %xmm3, %ymm4, %ymm3 vaddpd %ymm11, %ymm10, %ymm4 vmulpd %ymm13, %ymm3, %ymm3 vaddpd %ymm3, %ymm4, %ymm4 vmovapd %ymm4, 23840(%rbx) vmovapd 26400(%rbx), %ymm5 vaddpd %ymm5, %ymm10, %ymm3 vmulpd %ymm13, %ymm1, %ymm1 vaddpd %ymm1, %ymm3, %ymm3 vmovapd %ymm3, 26176(%rbx) vaddpd %ymm9, %ymm14, %ymm1 vmulpd %ymm12, %ymm2, %ymm2 vaddpd %ymm2, %ymm1, %ymm10 vmovapd %ymm10, 21856(%rbx) vaddpd %ymm15, %ymm14, %ymm1 vmulpd %ymm12, %ymm0, %ymm0 vaddpd %ymm0, %ymm1, %ymm0 vmovapd %ymm0, 23936(%rbx) vmovapd %ymm0, %ymm8 vmovapd 24096(%rbx), %ymm0 vmulpd 26080(%rbx), %ymm0, %ymm2 vmovapd %ymm2, 20704(%rbx) vmovapd 22048(%rbx), %ymm0 vmulpd 26208(%rbx), %ymm0, %ymm1 vaddpd %ymm2, %ymm1, %ymm0 vmulpd %ymm3, %ymm5, %ymm2 vmovapd %ymm2, 20992(%rbx) vaddpd %ymm2, %ymm0, %ymm0 vmulpd %ymm4, %ymm13, %ymm2 vmovapd %ymm2, 20736(%rbx) vaddpd %ymm2, %ymm0, %ymm2 vmovapd %ymm2, 20800(%rbx) vmovapd .LCPI1_26(%rip), %ymm7 vcmpltpd %ymm7, %ymm2, %ymm0 vmovapd %ymm2, %ymm5 vextractf128 $1, %ymm0, %xmm2 vpshufd $8, %xmm2, %xmm2 vpshufd $8, %xmm0, %xmm0 vmovlhps %xmm2, %xmm0, %xmm2 vmovapd 26368(%rbx), %ymm0 vmulpd 24000(%rbx), %ymm0, %ymm3 vmovapd %ymm3, 20352(%rbx) vmovapd 23968(%rbx), %ymm9 vmovapd 22784(%rbx), %ymm11 vmulpd %ymm9, %ymm11, %ymm0 vaddpd %ymm3, %ymm0, %ymm3 vmulpd %ymm8, %ymm15, %ymm4 vmovapd %ymm4, 20768(%rbx) vaddpd %ymm4, %ymm3, %ymm3 vmulpd %ymm10, %ymm12, %ymm4 vmovapd %ymm4, 20672(%rbx) vaddpd %ymm4, %ymm3, %ymm4 vmovapd %ymm4, 20832(%rbx) vcmpltpd %ymm7, %ymm4, %ymm3 vmovapd %ymm4, %ymm8 vextractf128 $1, %ymm3, %xmm4 vpshufd $8, %xmm4, %xmm4 vpshufd $8, %xmm3, %xmm3 vmovlhps %xmm4, %xmm3, %xmm3 vpshufb .LCPI1_20(%rip), %xmm3, %xmm3 vpshufb .LCPI1_21(%rip), %xmm2, %xmm2 vpor %xmm3, %xmm2, %xmm2 vpsllw $15, %xmm2, %xmm2 vpsraw $15, %xmm2, %xmm3 vpunpckhbw %xmm0, %xmm3, %xmm2 vpslld $31, %xmm2, %xmm4 vpmovsxdq %xmm4, %xmm2 vmovhlps %xmm4, %xmm4, %xmm4 vpmovsxdq %xmm4, %xmm4 vinsertf128 $1, %xmm4, %ymm2, %ymm2 vpunpcklbw %xmm0, %xmm3, %xmm3 vpslld $31, %xmm3, %xmm4 vpmovsxdq %xmm4, %xmm3 vmovhlps %xmm4, %xmm4, %xmm4 vpmovsxdq %xmm4, %xmm4 vinsertf128 $1, %xmm4, %ymm3, %ymm3 vblendvpd %ymm3, %ymm7, %ymm5, %ymm5 vblendvpd %ymm2, %ymm7, %ymm8, %ymm7 vmovapd 22528(%rbx), %ymm3 vmovapd 24192(%rbx), %ymm2 vaddpd %ymm3, %ymm2, %ymm2 vmovapd .LCPI1_27(%rip), %ymm4 vmulpd %ymm4, %ymm3, %ymm8 vmovapd %ymm8, 14464(%rbx) vaddpd %ymm2, %ymm8, %ymm2 vmovapd 32896(%rbx), %ymm10 vmulpd %ymm6, %ymm10, %ymm3 vaddpd 22752(%rbx), %ymm3, %ymm3 vaddpd 22720(%rbx), %ymm3, %ymm3 vaddpd 22656(%rbx), %ymm3, %ymm12 vmovapd %ymm12, 21824(%rbx) vmovapd .LCPI1_28(%rip), %ymm13 vmulpd %ymm13, %ymm5, %ymm3 vaddpd %ymm3, %ymm8, %ymm8 vmovapd %ymm8, 20128(%rbx) vaddpd %ymm2, %ymm5, %ymm2 vmovapd %ymm2, 20224(%rbx) vmulpd %ymm2, %ymm10, %ymm3 vmulpd %ymm3, %ymm12, %ymm2 vmovapd %ymm12, %ymm15 vaddpd %ymm2, %ymm8, %ymm2 vmovapd %ymm8, %ymm14 vsubpd %ymm1, %ymm2, %ymm8 vmovapd 32864(%rbx), %ymm10 vmulpd %ymm6, %ymm10, %ymm2 vmovapd 22560(%rbx), %ymm6 vmovapd 24160(%rbx), %ymm1 vaddpd %ymm6, %ymm1, %ymm1 vmulpd %ymm4, %ymm6, %ymm4 vmovapd %ymm4, 14432(%rbx) vaddpd %ymm1, %ymm4, %ymm1 vaddpd 22624(%rbx), %ymm2, %ymm2 vaddpd 22688(%rbx), %ymm2, %ymm2 vaddpd 22592(%rbx), %ymm2, %ymm6 vmovapd %ymm6, 23808(%rbx) vmulpd %ymm13, %ymm7, %ymm2 vaddpd %ymm2, %ymm4, %ymm4 vmovapd %ymm4, 21792(%rbx) vaddpd %ymm1, %ymm7, %ymm1 vmovapd %ymm1, 21632(%rbx) vmulpd %ymm1, %ymm10, %ymm1 vmovapd %ymm1, 23904(%rbx) vmovapd %ymm6, %ymm2 vmulpd %ymm1, %ymm2, %ymm1 vaddpd %ymm1, %ymm4, %ymm1 vsubpd %ymm0, %ymm1, %ymm0 vsqrtpd %ymm7, %ymm4 vmovapd %ymm4, 22816(%rbx) vmovapd 26272(%rbx), %ymm6 vmulpd %ymm6, %ymm11, %ymm1 vdivpd %ymm4, %ymm1, %ymm1 vmovapd %ymm1, 21920(%rbx) vmovapd %ymm4, %ymm13 vmulpd %ymm1, %ymm2, %ymm4 vaddpd %ymm4, %ymm0, %ymm0 vsqrtpd %ymm5, %ymm5 vmovapd %ymm5, 24032(%rbx) vmovapd 26304(%rbx), %ymm12 vmovapd 22048(%rbx), %ymm1 vmulpd %ymm12, %ymm1, %ymm4 vdivpd %ymm5, %ymm4, %ymm2 vmovapd %ymm2, 23872(%rbx) vmulpd %ymm2, %ymm15, %ymm4 vaddpd %ymm4, %ymm8, %ymm4 vmovapd 26336(%rbx), %ymm11 vmulpd %ymm3, %ymm11, %ymm7 vmulpd .LCPI1_88, %ymm14, %ymm8 vaddpd %ymm7, %ymm8, %ymm7 vmulpd 26176(%rbx), %ymm1, %ymm10 vsubpd %ymm10, %ymm7, %ymm2 vmovapd %ymm2, 21952(%rbx) vmovapd 26208(%rbx), %ymm7 vmulpd %ymm12, %ymm7, %ymm10 vdivpd %ymm5, %ymm10, %ymm7 vmovapd %ymm7, 21984(%rbx) vmovapd 32896(%rbx), %ymm2 vmulpd %ymm7, %ymm2, %ymm10 vaddpd %ymm10, %ymm4, %ymm4 vmovapd %ymm4, 21888(%rbx) vmulpd %ymm6, %ymm9, %ymm4 vmovapd %ymm13, %ymm15 vdivpd %ymm15, %ymm4, %ymm4 vmovapd %ymm4, 22016(%rbx) vmovapd 32864(%rbx), %ymm5 vmulpd %ymm4, %ymm5, %ymm4 vaddpd %ymm4, %ymm0, %ymm0 vmovapd %ymm0, 20320(%rbx) vmovapd 26112(%rbx), %ymm9 vmulpd %ymm3, %ymm9, %ymm0 vaddpd %ymm0, %ymm8, %ymm0 vmovapd 26080(%rbx), %ymm7 vmulpd %ymm7, %ymm1, %ymm4 vsubpd %ymm4, %ymm0, %ymm10 vmovapd 26240(%rbx), %ymm0 vmulpd 23904(%rbx), %ymm0, %ymm12 vmovapd 21792(%rbx), %ymm6 vmulpd .LCPI1_88, %ymm6, %ymm13 vmovapd %ymm13, 19744(%rbx) vaddpd %ymm12, %ymm13, %ymm12 vmovapd 24000(%rbx), %ymm6 vmovapd 22784(%rbx), %ymm4 vmulpd %ymm6, %ymm4, %ymm14 vsubpd %ymm14, %ymm12, %ymm12 vmovapd 21920(%rbx), %ymm4 vmulpd %ymm4, %ymm0, %ymm14 vaddpd %ymm14, %ymm12, %ymm12 vmovapd 23872(%rbx), %ymm0 vmulpd %ymm0, %ymm9, %ymm14 vaddpd %ymm14, %ymm10, %ymm14 vmovaps 20320(%rbx), %ymm9 vmovaps %ymm9, 12000(%rdx,%r12) vmovaps 21888(%rbx), %ymm9 vmovaps %ymm9, 11968(%rdx,%r12) vmulpd %ymm0, %ymm11, %ymm10 vmovapd 21952(%rbx), %ymm0 vaddpd %ymm10, %ymm0, %ymm0 vmovapd %ymm0, 21952(%rbx) vmovapd 26848(%rbx), %ymm9 vmulpd %ymm3, %ymm9, %ymm3 vaddpd %ymm3, %ymm8, %ymm3 vmulpd 23840(%rbx), %ymm1, %ymm10 vsubpd %ymm10, %ymm3, %ymm0 vmovapd %ymm0, 20320(%rbx) vmovapd 26304(%rbx), %ymm11 vmulpd %ymm11, %ymm7, %ymm10 vmovapd 24032(%rbx), %ymm7 vdivpd %ymm7, %ymm10, %ymm1 vmovapd %ymm1, 20256(%rbx) vmulpd %ymm1, %ymm2, %ymm10 vaddpd %ymm10, %ymm14, %ymm3 vmovapd 26272(%rbx), %ymm0 vmulpd %ymm0, %ymm6, %ymm10 vdivpd %ymm15, %ymm10, %ymm1 vmovapd %ymm1, 21888(%rbx) vmulpd %ymm1, %ymm5, %ymm10 vaddpd %ymm10, %ymm12, %ymm10 vmovapd 31104(%rbx), %ymm14 vmovapd 23904(%rbx), %ymm2 vmulpd %ymm2, %ymm14, %ymm12 vmovapd %ymm13, %ymm15 vaddpd %ymm12, %ymm15, %ymm12 vmovapd 22784(%rbx), %ymm6 vmovapd 23936(%rbx), %ymm1 vmulpd %ymm1, %ymm6, %ymm13 vsubpd %ymm13, %ymm12, %ymm12 vmulpd %ymm4, %ymm14, %ymm13 vaddpd %ymm13, %ymm12, %ymm12 vmovapd %ymm10, 12064(%rdx,%r12) vmovapd %ymm3, 12032(%rdx,%r12) vmovapd 26144(%rbx), %ymm13 vmulpd %ymm2, %ymm13, %ymm2 vaddpd %ymm2, %ymm15, %ymm2 vmovapd 21856(%rbx), %ymm14 vmulpd %ymm14, %ymm6, %ymm4 vsubpd %ymm4, %ymm2, %ymm2 vmovapd %ymm2, 20288(%rbx) vmulpd 23872(%rbx), %ymm9, %ymm2 vmovapd 20320(%rbx), %ymm3 vaddpd %ymm2, %ymm3, %ymm2 vmovapd %ymm2, 23904(%rbx) vmovapd 26176(%rbx), %ymm2 vmulpd %ymm11, %ymm2, %ymm3 vmovapd %ymm11, %ymm2 vdivpd %ymm7, %ymm3, %ymm3 vmovapd %ymm3, 20320(%rbx) vmovapd %ymm7, %ymm9 vmovapd 32896(%rbx), %ymm6 vmulpd %ymm3, %ymm6, %ymm3 vmovapd 21952(%rbx), %ymm4 vaddpd %ymm3, %ymm4, %ymm3 vmovapd %ymm3, 20096(%rbx) vmulpd %ymm0, %ymm1, %ymm3 vmovapd 22816(%rbx), %ymm5 vdivpd %ymm5, %ymm3, %ymm1 vmovapd %ymm1, 21952(%rbx) vmovapd 32864(%rbx), %ymm11 vmulpd %ymm1, %ymm11, %ymm3 vaddpd %ymm3, %ymm12, %ymm4 vmovapd 24128(%rbx), %ymm1 vmulpd 21632(%rbx), %ymm1, %ymm0 vmovapd %ymm0, 23872(%rbx) vmovapd 23808(%rbx), %ymm10 vmulpd %ymm0, %ymm10, %ymm3 vaddpd %ymm3, %ymm15, %ymm3 vmovapd 26368(%rbx), %ymm12 vmulpd 23968(%rbx), %ymm12, %ymm7 vsubpd %ymm7, %ymm3, %ymm3 vmulpd 21920(%rbx), %ymm13, %ymm1 vmovapd 20288(%rbx), %ymm0 vaddpd %ymm1, %ymm0, %ymm1 vmovapd %ymm4, 12128(%rdx,%r12) vmovaps 20096(%rbx), %ymm0 vmovaps %ymm0, 12096(%rdx,%r12) vmovapd 23840(%rbx), %ymm0 vmulpd %ymm2, %ymm0, %ymm4 vdivpd %ymm9, %ymm4, %ymm0 vmovapd %ymm0, 21920(%rbx) vmulpd %ymm0, %ymm6, %ymm4 vmovapd 23904(%rbx), %ymm0 vaddpd %ymm4, %ymm0, %ymm0 vmovapd %ymm0, 20032(%rbx) vmovapd 26272(%rbx), %ymm4 vmulpd %ymm4, %ymm14, %ymm2 vmovapd %ymm5, %ymm0 vdivpd %ymm0, %ymm2, %ymm2 vmovapd %ymm2, 20288(%rbx) vmulpd %ymm2, %ymm11, %ymm2 vaddpd %ymm2, %ymm1, %ymm1 vmovapd %ymm1, 19872(%rbx) vmulpd %ymm4, %ymm12, %ymm1 vdivpd %ymm0, %ymm1, %ymm1 vmovapd %ymm1, 23904(%rbx) vmulpd %ymm1, %ymm10, %ymm1 vaddpd %ymm1, %ymm3, %ymm0 vmovapd %ymm0, 20000(%rbx) vmovapd 22880(%rbx), %ymm1 vmovapd 20224(%rbx), %ymm0 vmulpd %ymm0, %ymm1, %ymm12 vmovapd 21824(%rbx), %ymm9 vmulpd %ymm12, %ymm9, %ymm1 vaddpd %ymm1, %ymm8, %ymm1 vmovapd 24096(%rbx), %ymm3 vmulpd 26208(%rbx), %ymm3, %ymm2 vsubpd %ymm2, %ymm1, %ymm1 vmovapd %ymm1, 19904(%rbx) vmovapd 26240(%rbx), %ymm1 vmulpd 23872(%rbx), %ymm1, %ymm1 vmovapd 21792(%rbx), %ymm6 vaddpd %ymm1, %ymm6, %ymm4 vmovapd 26432(%rbx), %ymm1 vmovapd 21632(%rbx), %ymm2 vmulpd %ymm2, %ymm1, %ymm7 vmovapd %ymm7, 19968(%rbx) vmovapd 22112(%rbx), %ymm1 vmulpd %ymm2, %ymm1, %ymm1 vmulpd %ymm1, %ymm13, %ymm2 vaddpd %ymm2, %ymm6, %ymm2 vmovapd 31104(%rbx), %ymm5 vmulpd %ymm7, %ymm5, %ymm11 vaddpd %ymm11, %ymm6, %ymm6 vmovapd %ymm6, 20096(%rbx) vmovapd 26112(%rbx), %ymm10 vmulpd %ymm12, %ymm10, %ymm6 vmovapd 20128(%rbx), %ymm11 vaddpd %ymm6, %ymm11, %ymm6 vsubpd 20704(%rbx), %ymm6, %ymm6 vmovapd %ymm6, 20064(%rbx) vsubpd 20352(%rbx), %ymm4, %ymm4 vmovapd %ymm4, 19936(%rbx) vmovapd 22144(%rbx), %ymm4 vmulpd %ymm0, %ymm4, %ymm13 vmovapd 26848(%rbx), %ymm4 vmulpd %ymm13, %ymm4, %ymm4 vaddpd %ymm4, %ymm11, %ymm4 vmovapd %ymm11, %ymm7 vmovapd 26464(%rbx), %ymm6 vmulpd %ymm0, %ymm6, %ymm11 vmovapd 26336(%rbx), %ymm14 vmulpd %ymm11, %ymm14, %ymm6 vaddpd %ymm6, %ymm7, %ymm0 vmovapd %ymm0, 20352(%rbx) vmovaps 19872(%rbx), %ymm0 vmovaps %ymm0, 12192(%rdx,%r12) vmovaps 20032(%rbx), %ymm0 vmovaps %ymm0, 12160(%rdx,%r12) vsubpd 20736(%rbx), %ymm4, %ymm0 vmovapd %ymm0, 21792(%rbx) vsubpd 20672(%rbx), %ymm2, %ymm0 vmovapd %ymm0, 21632(%rbx) vmulpd %ymm13, %ymm14, %ymm2 vmovapd %ymm14, %ymm7 vaddpd %ymm2, %ymm8, %ymm2 vmovapd 22080(%rbx), %ymm0 vmulpd 26176(%rbx), %ymm0, %ymm4 vsubpd %ymm4, %ymm2, %ymm2 vmovapd %ymm2, 20736(%rbx) vmulpd %ymm1, %ymm5, %ymm2 vaddpd %ymm2, %ymm15, %ymm2 vmovapd 22848(%rbx), %ymm15 vmulpd 23936(%rbx), %ymm15, %ymm4 vsubpd %ymm4, %ymm2, %ymm2 vmovapd %ymm2, 20704(%rbx) vmovapd %ymm10, %ymm6 vmulpd %ymm13, %ymm6, %ymm2 vaddpd %ymm2, %ymm8, %ymm2 vmovapd 26080(%rbx), %ymm14 vmulpd %ymm14, %ymm0, %ymm4 vmovapd %ymm0, %ymm10 vsubpd %ymm4, %ymm2, %ymm0 vmovapd %ymm0, 20672(%rbx) vmulpd 26304(%rbx), %ymm3, %ymm2 vdivpd 24032(%rbx), %ymm2, %ymm0 vmovapd %ymm0, 19872(%rbx) vmovapd %ymm9, %ymm4 vmulpd %ymm0, %ymm4, %ymm2 vmovapd 19904(%rbx), %ymm3 vaddpd %ymm2, %ymm3, %ymm2 vmovapd %ymm2, 20032(%rbx) vmovapd 24128(%rbx), %ymm2 vmulpd 22016(%rbx), %ymm2, %ymm2 vmovapd 20000(%rbx), %ymm3 vaddpd %ymm2, %ymm3, %ymm2 vmovapd %ymm2, 19904(%rbx) vmulpd %ymm13, %ymm4, %ymm3 vmovapd 26848(%rbx), %ymm9 vmulpd %ymm11, %ymm9, %ymm2 vaddpd %ymm2, %ymm8, %ymm2 vmovapd %ymm2, 19840(%rbx) vaddpd %ymm3, %ymm8, %ymm3 vmulpd %ymm11, %ymm6, %ymm5 vmovapd %ymm6, %ymm2 vaddpd %ymm5, %ymm8, %ymm13 vmulpd %ymm11, %ymm4, %ymm5 vmulpd %ymm12, %ymm7, %ymm6 vmulpd %ymm12, %ymm9, %ymm9 vaddpd %ymm9, %ymm8, %ymm4 vmovapd %ymm4, 19776(%rbx) vaddpd %ymm5, %ymm8, %ymm4 vmovapd %ymm4, 19712(%rbx) vaddpd %ymm6, %ymm8, %ymm4 vmovapd %ymm4, 19808(%rbx) vmovapd 26400(%rbx), %ymm12 vmulpd %ymm14, %ymm12, %ymm6 vsubpd %ymm6, %ymm13, %ymm4 vmovapd %ymm4, 26080(%rbx) vmovapd 26240(%rbx), %ymm5 vmulpd %ymm1, %ymm5, %ymm6 vmovapd 19744(%rbx), %ymm4 vaddpd %ymm6, %ymm4, %ymm6 vmovapd 24000(%rbx), %ymm9 vmovapd %ymm15, %ymm7 vmulpd %ymm9, %ymm7, %ymm8 vsubpd %ymm8, %ymm6, %ymm6 vmovapd %ymm6, 20224(%rbx) vmovapd 26208(%rbx), %ymm15 vmulpd %ymm15, %ymm10, %ymm6 vmovapd %ymm10, %ymm8 vsubpd %ymm6, %ymm3, %ymm3 vmovapd %ymm3, 20128(%rbx) vmovapd 23808(%rbx), %ymm11 vmulpd %ymm1, %ymm11, %ymm1 vaddpd %ymm1, %ymm4, %ymm1 vmovapd 23968(%rbx), %ymm6 vmulpd %ymm6, %ymm7, %ymm3 vsubpd %ymm3, %ymm1, %ymm1 vmovapd %ymm1, 20000(%rbx) vmovapd 23840(%rbx), %ymm10 vmulpd %ymm10, %ymm12, %ymm1 vmovapd 19840(%rbx), %ymm3 vsubpd %ymm1, %ymm3, %ymm1 vmovapd %ymm1, 19840(%rbx) vmulpd 23904(%rbx), %ymm5, %ymm1 vmovapd 19936(%rbx), %ymm3 vaddpd %ymm1, %ymm3, %ymm1 vmovapd %ymm1, 19936(%rbx) vmovapd %ymm2, %ymm14 vmulpd %ymm0, %ymm14, %ymm1 vmovapd 20064(%rbx), %ymm0 vaddpd %ymm1, %ymm0, %ymm2 vmovapd 20096(%rbx), %ymm0 vsubpd 20768(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 20768(%rbx) vmovapd 24064(%rbx), %ymm13 vmulpd %ymm9, %ymm13, %ymm1 vmovapd 19968(%rbx), %ymm7 vmulpd %ymm7, %ymm5, %ymm3 vaddpd %ymm3, %ymm4, %ymm3 vsubpd %ymm1, %ymm3, %ymm0 vmovapd %ymm0, 24000(%rbx) vmulpd %ymm15, %ymm12, %ymm1 vmovapd 19712(%rbx), %ymm0 vsubpd %ymm1, %ymm0, %ymm0 vmovapd %ymm0, 26208(%rbx) vmulpd %ymm6, %ymm13, %ymm1 vmulpd %ymm7, %ymm11, %ymm3 vaddpd %ymm3, %ymm4, %ymm3 vsubpd %ymm1, %ymm3, %ymm0 vmovapd %ymm0, 23968(%rbx) vmovapd 24096(%rbx), %ymm11 vmulpd %ymm10, %ymm11, %ymm1 vmovapd 19776(%rbx), %ymm0 vsubpd %ymm1, %ymm0, %ymm0 vmovapd %ymm0, 20096(%rbx) vmovapd 26144(%rbx), %ymm5 vmulpd %ymm7, %ymm5, %ymm1 vaddpd %ymm1, %ymm4, %ymm1 vmovapd 21856(%rbx), %ymm6 vmulpd %ymm6, %ymm13, %ymm3 vsubpd %ymm3, %ymm1, %ymm0 vmovapd %ymm0, 20064(%rbx) vmovapd 20352(%rbx), %ymm1 vsubpd 20992(%rbx), %ymm1, %ymm0 vmovapd %ymm0, 19968(%rbx) vmovapd 26368(%rbx), %ymm1 vmulpd %ymm6, %ymm1, %ymm3 vmulpd 23872(%rbx), %ymm5, %ymm7 vaddpd %ymm7, %ymm4, %ymm7 vsubpd %ymm3, %ymm7, %ymm0 vmovapd %ymm0, 23840(%rbx) vmulpd 26176(%rbx), %ymm11, %ymm3 vmovapd 19808(%rbx), %ymm0 vsubpd %ymm3, %ymm0, %ymm0 vmovapd %ymm0, 20992(%rbx) vmovaps 19904(%rbx), %ymm0 vmovaps %ymm0, 12256(%rdx,%r12) vmovapd 22880(%rbx), %ymm7 vmulpd 21984(%rbx), %ymm7, %ymm3 vmovapd 20032(%rbx), %ymm0 vaddpd %ymm3, %ymm0, %ymm0 vmovapd %ymm0, 20352(%rbx) vmovapd 26304(%rbx), %ymm6 vmulpd %ymm6, %ymm8, %ymm3 vmovapd 24032(%rbx), %ymm8 vdivpd %ymm8, %ymm3, %ymm10 vmulpd %ymm10, %ymm14, %ymm3 vmovapd 20672(%rbx), %ymm0 vaddpd %ymm3, %ymm0, %ymm0 vmovapd %ymm0, 26176(%rbx) vmovapd 26272(%rbx), %ymm14 vmovapd 22848(%rbx), %ymm0 vmulpd %ymm14, %ymm0, %ymm3 vmovapd 22816(%rbx), %ymm9 vdivpd %ymm9, %ymm3, %ymm11 vmovapd 31104(%rbx), %ymm12 vmulpd %ymm11, %ymm12, %ymm3 vmovapd 20704(%rbx), %ymm1 vaddpd %ymm3, %ymm1, %ymm0 vmovapd %ymm0, 21856(%rbx) vmovapd 26336(%rbx), %ymm15 vmulpd %ymm10, %ymm15, %ymm3 vmovapd 20736(%rbx), %ymm1 vaddpd %ymm3, %ymm1, %ymm0 vmovapd %ymm0, 20736(%rbx) vmulpd %ymm11, %ymm5, %ymm3 vmovapd 21632(%rbx), %ymm1 vaddpd %ymm3, %ymm1, %ymm0 vmovapd %ymm0, 21632(%rbx) vmovapd 26848(%rbx), %ymm5 vmulpd %ymm10, %ymm5, %ymm3 vmovapd 21792(%rbx), %ymm1 vaddpd %ymm3, %ymm1, %ymm0 vmovapd %ymm0, 20672(%rbx) vmovapd 20256(%rbx), %ymm1 vmulpd %ymm1, %ymm7, %ymm3 vaddpd %ymm3, %ymm2, %ymm0 vmovapd %ymm0, 19904(%rbx) vmovapd 24128(%rbx), %ymm2 vmulpd 21888(%rbx), %ymm2, %ymm3 vmovapd 19936(%rbx), %ymm0 vaddpd %ymm3, %ymm0, %ymm0 vmovapd %ymm0, 19936(%rbx) vmovapd 26400(%rbx), %ymm0 vmulpd %ymm6, %ymm0, %ymm3 vdivpd %ymm8, %ymm3, %ymm3 vmulpd %ymm3, %ymm5, %ymm6 vmovapd 19840(%rbx), %ymm0 vaddpd %ymm6, %ymm0, %ymm0 vmovapd %ymm0, 21792(%rbx) vmovapd 23808(%rbx), %ymm5 vmulpd %ymm11, %ymm5, %ymm2 vmovapd 20000(%rbx), %ymm0 vaddpd %ymm2, %ymm0, %ymm0 vmovapd %ymm0, 20704(%rbx) vmovapd 21824(%rbx), %ymm13 vmulpd %ymm10, %ymm13, %ymm2 vmovapd 20128(%rbx), %ymm0 vaddpd %ymm2, %ymm0, %ymm0 vmovapd %ymm0, 20128(%rbx) vmovapd 26240(%rbx), %ymm7 vmulpd %ymm11, %ymm7, %ymm6 vmovapd 20224(%rbx), %ymm0 vaddpd %ymm6, %ymm0, %ymm6 vmovapd 26112(%rbx), %ymm0 vmulpd %ymm3, %ymm0, %ymm8 vmovapd 26080(%rbx), %ymm0 vaddpd %ymm8, %ymm0, %ymm0 vmovapd %ymm0, 26112(%rbx) vmovapd 24064(%rbx), %ymm0 vmulpd %ymm14, %ymm0, %ymm8 vdivpd %ymm9, %ymm8, %ymm11 vmulpd %ymm11, %ymm12, %ymm8 vmovapd %ymm12, %ymm2 vmovapd 20768(%rbx), %ymm0 vaddpd %ymm8, %ymm0, %ymm0 vmovapd %ymm0, 20768(%rbx) vmulpd %ymm3, %ymm13, %ymm10 vmovapd %ymm15, %ymm13 vmulpd %ymm3, %ymm13, %ymm3 vmovapd 19968(%rbx), %ymm0 vaddpd %ymm3, %ymm0, %ymm0 vmovapd %ymm0, 20032(%rbx) vmulpd %ymm11, %ymm7, %ymm12 vmulpd %ymm11, %ymm5, %ymm3 vmovapd 26144(%rbx), %ymm5 vmulpd %ymm11, %ymm5, %ymm11 vmovapd 20064(%rbx), %ymm0 vaddpd %ymm11, %ymm0, %ymm11 vmovapd 19872(%rbx), %ymm0 vmovapd 26848(%rbx), %ymm7 vmulpd %ymm0, %ymm7, %ymm14 vmovapd 20096(%rbx), %ymm7 vaddpd %ymm14, %ymm7, %ymm7 vmovapd %ymm7, 23808(%rbx) vmovapd 23968(%rbx), %ymm7 vaddpd %ymm3, %ymm7, %ymm3 vmovapd %ymm3, 20224(%rbx) vmovapd 26208(%rbx), %ymm3 vaddpd %ymm10, %ymm3, %ymm3 vmovapd %ymm3, 20064(%rbx) vmovapd 24000(%rbx), %ymm3 vaddpd %ymm12, %ymm3, %ymm3 vmovapd %ymm3, 20096(%rbx) vmulpd 23872(%rbx), %ymm2, %ymm12 vaddpd %ymm12, %ymm4, %ymm2 vmovapd %ymm2, 26080(%rbx) vmovaps 20352(%rbx), %ymm2 vmovaps %ymm2, 12224(%rdx,%r12) vmulpd %ymm0, %ymm13, %ymm0 vmovapd 20992(%rbx), %ymm2 vaddpd %ymm0, %ymm2, %ymm0 vmovapd %ymm0, 21824(%rbx) vmulpd 23904(%rbx), %ymm5, %ymm0 vmovapd 23840(%rbx), %ymm2 vaddpd %ymm0, %ymm2, %ymm0 vmovapd %ymm0, 23840(%rbx) vmovaps 19936(%rbx), %ymm0 vmovaps %ymm0, 12320(%rdx,%r12) vmovaps 19904(%rbx), %ymm0 vmovaps %ymm0, 12288(%rdx,%r12) vmovapd 22144(%rbx), %ymm7 vmovapd 21920(%rbx), %ymm14 vmulpd %ymm14, %ymm7, %ymm4 vmovapd 20672(%rbx), %ymm0 vaddpd %ymm4, %ymm0, %ymm0 vmovapd %ymm0, 26848(%rbx) vmovapd 22112(%rbx), %ymm9 vmovapd 20288(%rbx), %ymm10 vmulpd %ymm10, %ymm9, %ymm4 vmovapd 21632(%rbx), %ymm0 vaddpd %ymm4, %ymm0, %ymm0 vmovapd %ymm0, 26240(%rbx) vmovapd 20320(%rbx), %ymm0 vmulpd %ymm0, %ymm7, %ymm4 vmovapd 20736(%rbx), %ymm2 vaddpd %ymm4, %ymm2, %ymm2 vmovapd %ymm2, 26208(%rbx) vmovapd 21952(%rbx), %ymm8 vmulpd %ymm8, %ymm9, %ymm4 vmovapd 21856(%rbx), %ymm2 vaddpd %ymm4, %ymm2, %ymm2 vmovapd %ymm2, 26144(%rbx) vmovapd %ymm1, %ymm13 vmulpd %ymm13, %ymm7, %ymm4 vmovapd 26176(%rbx), %ymm1 vaddpd %ymm4, %ymm1, %ymm1 vmovapd %ymm1, 26176(%rbx) vmovapd 21888(%rbx), %ymm3 vmulpd %ymm3, %ymm9, %ymm5 vaddpd %ymm5, %ymm6, %ymm1 vmovapd %ymm1, 24000(%rbx) vmovapd 21984(%rbx), %ymm15 vmulpd %ymm15, %ymm7, %ymm6 vmovapd 20128(%rbx), %ymm1 vaddpd %ymm6, %ymm1, %ymm1 vmovapd %ymm1, 23968(%rbx) vmovapd 22016(%rbx), %ymm7 vmulpd %ymm7, %ymm9, %ymm2 vmovapd 20704(%rbx), %ymm1 vaddpd %ymm2, %ymm1, %ymm1 vmovapd %ymm1, 23872(%rbx) vmovapd 26464(%rbx), %ymm12 vmulpd %ymm14, %ymm12, %ymm6 vmovapd 21792(%rbx), %ymm1 vaddpd %ymm6, %ymm1, %ymm1 vmovapd %ymm1, 20992(%rbx) vmovapd 26432(%rbx), %ymm14 vmulpd %ymm10, %ymm14, %ymm6 vmovapd %ymm10, %ymm2 vaddpd %ymm6, %ymm11, %ymm11 vmovapd %ymm11, 15456(%rbx) vmulpd %ymm0, %ymm12, %ymm6 vmovapd %ymm0, %ymm4 vmovapd 20032(%rbx), %ymm0 vaddpd %ymm6, %ymm0, %ymm5 vmovapd %ymm5, 15296(%rbx) vmulpd %ymm8, %ymm14, %ymm1 vmovapd 20768(%rbx), %ymm0 vaddpd %ymm1, %ymm0, %ymm9 vmovapd %ymm9, 15424(%rbx) vmulpd %ymm13, %ymm12, %ymm1 vmovapd %ymm12, %ymm6 vmovapd 26112(%rbx), %ymm0 vaddpd %ymm1, %ymm0, %ymm12 vmovapd %ymm12, 15200(%rbx) vmulpd %ymm3, %ymm14, %ymm1 vmovapd %ymm14, %ymm8 vmovapd 20096(%rbx), %ymm0 vaddpd %ymm1, %ymm0, %ymm10 vmovapd %ymm10, 15360(%rbx) vmulpd %ymm15, %ymm6, %ymm1 vmovapd 20064(%rbx), %ymm0 vaddpd %ymm1, %ymm0, %ymm14 vmovapd %ymm14, 15072(%rbx) vmulpd %ymm7, %ymm8, %ymm1 vmovapd 20224(%rbx), %ymm0 vaddpd %ymm1, %ymm0, %ymm15 vmovapd %ymm15, 15264(%rbx) vmovapd 22880(%rbx), %ymm6 vmulpd 21920(%rbx), %ymm6, %ymm1 vmovapd 23808(%rbx), %ymm0 vaddpd %ymm1, %ymm0, %ymm1 vmovapd 24128(%rbx), %ymm7 vmulpd %ymm2, %ymm7, %ymm3 vmovapd 23840(%rbx), %ymm0 vaddpd %ymm3, %ymm0, %ymm0 vmulpd %ymm4, %ymm6, %ymm3 vmovapd 21824(%rbx), %ymm2 vaddpd %ymm3, %ymm2, %ymm3 vmovapd 26368(%rbx), %ymm6 vmulpd 23936(%rbx), %ymm6, %ymm6 vmovapd 26080(%rbx), %ymm2 vsubpd %ymm6, %ymm2, %ymm6 vmovapd 31104(%rbx), %ymm8 vmulpd 23904(%rbx), %ymm8, %ymm8 vaddpd %ymm8, %ymm6, %ymm6 vmulpd 21952(%rbx), %ymm7, %ymm8 vaddpd %ymm8, %ymm6, %ymm6 vmovapd %ymm6, 12384(%rdx,%r12) vmovapd %ymm3, 12352(%rdx,%r12) vmovapd %ymm0, 12448(%rdx,%r12) vmovapd %ymm1, 12416(%rdx,%r12) vmovapd %ymm15, 12512(%rdx,%r12) vmovapd %ymm14, 12480(%rdx,%r12) vmovapd %ymm10, 12576(%rdx,%r12) vmovapd %ymm12, 12544(%rdx,%r12) vmovapd %ymm9, 12640(%rdx,%r12) vmovapd %ymm5, 12608(%rdx,%r12) vmovapd %ymm11, 12704(%rdx,%r12) vmovaps 20992(%rbx), %ymm0 vmovaps %ymm0, 12672(%rdx,%r12) vmovaps 23872(%rbx), %ymm0 vmovaps %ymm0, 12768(%rdx,%r12) vmovaps 23968(%rbx), %ymm0 vmovaps %ymm0, 12736(%rdx,%r12) vmovaps 24000(%rbx), %ymm0 vmovaps %ymm0, 12832(%rdx,%r12) vmovaps 26176(%rbx), %ymm0 vmovaps %ymm0, 12800(%rdx,%r12) vmovaps 26144(%rbx), %ymm0 vmovaps %ymm0, 12896(%rdx,%r12) vmovaps 26208(%rbx), %ymm0 vmovaps %ymm0, 12864(%rdx,%r12) vmovaps 26240(%rbx), %ymm0 vmovaps %ymm0, 12960(%rdx,%r12) vmovaps 26848(%rbx), %ymm0 vmovaps %ymm0, 12928(%rdx,%r12) vmovapd 13824(%rbx), %ymm0 vmulpd 12192(%rdx,%r12), %ymm0, %ymm1 vmovapd %ymm1, 15328(%rbx) vmulpd 12160(%rdx,%r12), %ymm0, %ymm1 vmovapd %ymm1, 15104(%rbx) vmulpd 12128(%rdx,%r12), %ymm0, %ymm1 vmovapd %ymm1, 15136(%rbx) vmulpd 12096(%rdx,%r12), %ymm0, %ymm1 vmovapd %ymm1, 15232(%rbx) vmulpd 12064(%rdx,%r12), %ymm0, %ymm1 vmovapd %ymm1, 14976(%rbx) vmulpd 12032(%rdx,%r12), %ymm0, %ymm1 vmovapd %ymm1, 15040(%rbx) vmulpd 12000(%rdx,%r12), %ymm0, %ymm1 vmovapd %ymm1, 15168(%rbx) vmulpd 11968(%rdx,%r12), %ymm0, %ymm0 vmovapd %ymm0, 15008(%rbx) vmovapd 24192(%rbx), %ymm9 vmovapd %ymm9, %ymm0 vmovaps .LCPI1_30(%rip), %ymm8 vmovaps %ymm8, %ymm1 movq %rdx, %r14 callq __ocl_svml_e9_pow4 vmovapd %ymm0, %ymm10 vmovapd 24160(%rbx), %ymm11 vmovapd %ymm11, %ymm0 vmovaps %ymm8, %ymm1 callq __ocl_svml_e9_pow4 vmovapd %ymm0, %ymm1 vmovapd 22528(%rbx), %ymm12 vmulpd %ymm10, %ymm12, %ymm0 vmovapd 22560(%rbx), %ymm10 vmulpd %ymm1, %ymm10, %ymm1 callq __ocl_svml_e9_log8 vmovapd %ymm0, 14592(%rbx) vmovapd %ymm1, 14560(%rbx) vmovaps 26304(%rbx), %ymm0 vmovaps .LCPI1_24(%rip), %ymm8 vmovaps %ymm8, %ymm1 callq __ocl_svml_e9_pow4 vmovaps %ymm0, 14528(%rbx) vmovaps 26272(%rbx), %ymm0 vmovaps %ymm8, %ymm1 callq __ocl_svml_e9_pow4 movq %r14, %rcx movq 30880(%rbx), %r15 vmovaps %ymm0, 14496(%rbx) movq 21664(%rbx), %rsi vxorps %ymm0, %ymm0, %ymm0 vmovaps %ymm0, (%rsi) movq 21680(%rbx), %rsi vmovaps %ymm0, (%rsi) movq 21696(%rbx), %rsi vmovaps %ymm0, (%rsi) movq 21712(%rbx), %rsi vmovaps %ymm0, (%rsi) movq 21728(%rbx), %rsi vmovaps %ymm0, (%rsi) movq 21744(%rbx), %rsi vmovaps %ymm0, (%rsi) movq 21760(%rbx), %rsi vmovaps %ymm0, (%rsi) movq 21776(%rbx), %rsi vmovaps %ymm0, (%rsi) vxorpd %ymm13, %ymm13, %ymm13 movq %r13, 9680(%rcx,%r12) movq %r13, 9712(%rcx,%r12) movq %r13, 9744(%rcx,%r12) movq %r13, 9776(%rcx,%r12) movq %r13, 9808(%rcx,%r12) movq %r13, 9840(%rcx,%r12) movq %r13, 9872(%rcx,%r12) movq %r13, 9904(%rcx,%r12) vmovapd .LCPI1_73(%rip), %ymm0 vmovapd %ymm12, %ymm1 vmulpd %ymm0, %ymm1, %ymm3 vmovapd .LCPI1_74(%rip), %ymm4 vmulpd %ymm4, %ymm1, %ymm1 vmovapd %ymm10, %ymm5 vmulpd %ymm0, %ymm5, %ymm2 vmulpd %ymm4, %ymm5, %ymm0 vmovapd 32896(%rbx), %ymm4 vaddpd 22752(%rbx), %ymm4, %ymm4 vaddpd 22720(%rbx), %ymm4, %ymm4 vmovapd 32864(%rbx), %ymm5 vaddpd 22624(%rbx), %ymm5, %ymm5 vaddpd 22688(%rbx), %ymm5, %ymm5 vmovapd %ymm11, %ymm7 vaddpd %ymm0, %ymm7, %ymm6 vdivpd %ymm6, %ymm2, %ymm2 vmovapd %ymm9, %ymm8 vaddpd %ymm1, %ymm8, %ymm6 vdivpd %ymm6, %ymm3, %ymm3 vaddpd 22592(%rbx), %ymm5, %ymm5 vmovapd %ymm5, 26240(%rbx) vaddpd 22656(%rbx), %ymm4, %ymm4 vmovapd %ymm4, 26848(%rbx) vmovapd 20800(%rbx), %ymm5 vaddpd %ymm5, %ymm8, %ymm4 vaddpd %ymm1, %ymm4, %ymm1 vdivpd %ymm1, %ymm5, %ymm4 vmulpd %ymm3, %ymm4, %ymm1 vaddpd %ymm3, %ymm4, %ymm3 vmovapd 20832(%rbx), %ymm5 vaddpd %ymm5, %ymm7, %ymm4 vaddpd %ymm0, %ymm4, %ymm0 vdivpd %ymm0, %ymm5, %ymm0 vmulpd %ymm2, %ymm0, %ymm4 vaddpd %ymm2, %ymm0, %ymm0 vsubpd %ymm4, %ymm0, %ymm0 vmovapd %ymm0, 26176(%rbx) vsubpd %ymm1, %ymm3, %ymm0 vmovapd %ymm0, 26208(%rbx) movq 30656(%rbx), %rsi vmovsd (%rsi), %xmm0 movq 30688(%rbx), %rsi vmovhpd (%rsi), %xmm0, %xmm0 vmovapd %xmm0, 26112(%rbx) movq 30720(%rbx), %rsi vmovsd (%rsi), %xmm0 movq 30752(%rbx), %rsi vmovhpd (%rsi), %xmm0, %xmm14 movq 29184(%rbx), %rax vmovsd (%rax), %xmm0 movq 29152(%rbx), %rsi vmovhpd (%rsi), %xmm0, %xmm8 movq 29120(%rbx), %rsi vmovsd (%rsi), %xmm0 movq 29088(%rbx), %rsi vmovhpd (%rsi), %xmm0, %xmm2 movq 29312(%rbx), %rax vmovsd (%rax), %xmm0 movq 29280(%rbx), %rax vmovhpd (%rax), %xmm0, %xmm10 movq 30528(%rbx), %rsi vmovsd (%rsi), %xmm0 movq 30560(%rbx), %rsi vmovhpd (%rsi), %xmm0, %xmm1 movq 30592(%rbx), %rsi vmovsd (%rsi), %xmm0 movq 30624(%rbx), %rsi vmovhpd (%rsi), %xmm0, %xmm12 movq 29056(%rbx), %rax vmovsd (%rax), %xmm0 movq 29024(%rbx), %rax vmovhpd (%rax), %xmm0, %xmm4 movq 30784(%rbx), %rax vmovsd (%rax), %xmm0 movq 30944(%rbx), %rsi vmovhpd (%rsi), %xmm0, %xmm0 vmovapd %ymm0, 26080(%rbx) movq 30816(%rbx), %rsi vmovsd (%rsi), %xmm0 movq 30976(%rbx), %rsi vmovhpd (%rsi), %xmm0, %xmm0 vmovapd %xmm0, 24000(%rbx) movq 30848(%rbx), %rsi vmovsd (%rsi), %xmm0 movq 31008(%rbx), %rax vmovhpd (%rax), %xmm0, %xmm0 vmovapd %ymm0, 23968(%rbx) movq 28480(%rbx), %rax vmovsd (%rax), %xmm0 movq 28448(%rbx), %rax vmovhpd (%rax), %xmm0, %xmm0 vmovapd %ymm0, 26144(%rbx) movq 29952(%rbx), %rsi vmovsd (%rsi), %xmm0 movq 29920(%rbx), %rsi vmovhpd (%rsi), %xmm0, %xmm0 vmovapd %ymm0, 23904(%rbx) movq 28992(%rbx), %rax vmovsd (%rax), %xmm0 movq 28960(%rbx), %rax vmovhpd (%rax), %xmm0, %xmm0 vmovapd %ymm0, 23936(%rbx) vmovsd (%r15), %xmm0 movq 30912(%rbx), %rsi vmovhpd (%rsi), %xmm0, %xmm0 vmovapd %xmm0, 22720(%rbx) movq 29696(%rbx), %rsi vmovsd (%rsi), %xmm0 movq 29664(%rbx), %rsi vmovhpd (%rsi), %xmm0, %xmm0 vmovapd %xmm0, 23872(%rbx) movq 29760(%rbx), %rsi vmovsd (%rsi), %xmm0 movq 29728(%rbx), %rsi vmovhpd (%rsi), %xmm0, %xmm11 movq 29504(%rbx), %rax vmovsd (%rax), %xmm0 movq 29472(%rbx), %rax vmovhpd (%rax), %xmm0, %xmm5 movq 28864(%rbx), %rax vmovsd (%rax), %xmm0 movq 28832(%rbx), %rax vmovhpd (%rax), %xmm0, %xmm7 movq 28672(%rbx), %rax vmovsd (%rax), %xmm0 movq 28640(%rbx), %rax vmovhpd (%rax), %xmm0, %xmm3 movq 29824(%rbx), %rsi vmovsd (%rsi), %xmm0 movq 29792(%rbx), %rsi vmovhpd (%rsi), %xmm0, %xmm9 movq 29632(%rbx), %rax vmovsd (%rax), %xmm0 movq 29600(%rbx), %rax vmovhpd (%rax), %xmm0, %xmm15 movq 28224(%rbx), %rax vmovsd (%rax), %xmm0 movq 28192(%rbx), %rax vmovhpd (%rax), %xmm0, %xmm0 movq 28416(%rbx), %rsi vmovsd (%rsi), %xmm6 movq 28384(%rbx), %rsi vmovhpd (%rsi), %xmm6, %xmm6 vinsertf128 $1, %xmm2, %ymm10, %ymm10 vinsertf128 $1, %xmm4, %ymm8, %ymm2 vmovapd %ymm2, 23840(%rbx) vinsertf128 $1, 26112(%rbx), %ymm14, %ymm14 vinsertf128 $1, %xmm1, %ymm12, %ymm1 movq 29248(%rbx), %rax vmovsd (%rax), %xmm2 movq 29216(%rbx), %rax vmovhpd (%rax), %xmm2, %xmm2 vmovapd %xmm2, 23808(%rbx) movq 29440(%rbx), %rsi vmovsd (%rsi), %xmm2 movq 29408(%rbx), %rsi vmovhpd (%rsi), %xmm2, %xmm2 vmovapd %ymm2, 22752(%rbx) movq 30304(%rbx), %rsi vmovsd (%rsi), %xmm2 movq 30272(%rbx), %rsi vmovhpd (%rsi), %xmm2, %xmm8 movq 30368(%rbx), %rsi vmovsd (%rsi), %xmm2 movq 30336(%rbx), %rsi vmovhpd (%rsi), %xmm2, %xmm2 movq 28736(%rbx), %rsi vmovsd (%rsi), %xmm4 movq 28704(%rbx), %rsi vmovhpd (%rsi), %xmm4, %xmm4 vmovapd %xmm4, 26112(%rbx) movq 28928(%rbx), %rax vmovsd (%rax), %xmm4 movq 28896(%rbx), %rsi vmovhpd (%rsi), %xmm4, %xmm4 vmovapd %ymm4, 22656(%rbx) vmovapd 23968(%rbx), %ymm4 vinsertf128 $1, 24000(%rbx), %ymm4, %ymm12 vmovaps 26080(%rbx), %ymm4 vinsertf128 $1, 22720(%rbx), %ymm4, %ymm4 vmovaps %ymm4, 23968(%rbx) vmovapd 23936(%rbx), %ymm4 vinsertf128 $1, %xmm7, %ymm4, %ymm7 vinsertf128 $1, %xmm5, %ymm15, %ymm4 vmovapd %ymm4, 23936(%rbx) vmovapd 23904(%rbx), %ymm4 vinsertf128 $1, %xmm11, %ymm4, %ymm5 vinsertf128 $1, 23872(%rbx), %ymm9, %ymm4 vmovapd %ymm4, 22624(%rbx) vinsertf128 $1, %xmm6, %ymm3, %ymm9 vmovapd 26144(%rbx), %ymm3 vinsertf128 $1, %xmm0, %ymm3, %ymm0 vmovapd %ymm0, 23904(%rbx) movq 30016(%rbx), %rsi vmovsd (%rsi), %xmm0 movq 29984(%rbx), %rsi vmovhpd (%rsi), %xmm0, %xmm0 vmovapd %ymm0, 22688(%rbx) movq 30432(%rbx), %rax vmovsd (%rax), %xmm0 movq 30400(%rbx), %rax vmovhpd (%rax), %xmm0, %xmm0 vmovapd %xmm0, 22528(%rbx) movq 30496(%rbx), %rsi vmovsd (%rsi), %xmm0 movq 30464(%rbx), %rsi vmovhpd (%rsi), %xmm0, %xmm11 movq 27616(%rbx), %rsi vmovsd (%rsi), %xmm0 movq 27584(%rbx), %rsi vmovhpd (%rsi), %xmm0, %xmm0 vmovapd %xmm0, 22560(%rbx) movq 27808(%rbx), %rsi vmovsd (%rsi), %xmm0 movq 27776(%rbx), %rsi vmovhpd (%rsi), %xmm0, %xmm0 vmovapd %ymm0, 21952(%rbx) movq 29888(%rbx), %rsi vmovsd (%rsi), %xmm0 movq 29856(%rbx), %rsi vmovhpd (%rsi), %xmm0, %xmm4 vmulpd %ymm13, %ymm1, %ymm0 vmulpd %ymm13, %ymm14, %ymm1 vaddpd %ymm0, %ymm1, %ymm6 vaddpd %ymm0, %ymm14, %ymm15 vmovapd 23840(%rbx), %ymm0 vmulpd %ymm13, %ymm0, %ymm0 vmulpd %ymm13, %ymm10, %ymm1 vaddpd %ymm0, %ymm1, %ymm1 vmovapd %ymm1, 23840(%rbx) vaddpd %ymm0, %ymm10, %ymm0 vmovapd %ymm0, 22720(%rbx) vinsertf128 $1, %xmm8, %ymm2, %ymm2 vmovapd 22752(%rbx), %ymm0 vinsertf128 $1, 23808(%rbx), %ymm0, %ymm14 movq 30080(%rbx), %rsi vmovsd (%rsi), %xmm0 movq 30048(%rbx), %rsi vmovhpd (%rsi), %xmm0, %xmm0 vmovapd %xmm0, 22752(%rbx) movq 28160(%rbx), %rsi vmovsd (%rsi), %xmm0 movq 30112(%rbx), %rsi vmovhpd (%rsi), %xmm0, %xmm0 vmovapd %ymm0, 22592(%rbx) movq 28128(%rbx), %rsi vmovsd (%rsi), %xmm0 movq 28096(%rbx), %rsi vmovhpd (%rsi), %xmm0, %xmm0 vmovapd %xmm0, 21920(%rbx) movq 28288(%rbx), %rsi vmovsd (%rsi), %xmm0 movq 28256(%rbx), %rsi vmovhpd (%rsi), %xmm0, %xmm3 vmovaps 22656(%rbx), %ymm0 vinsertf128 $1, 26112(%rbx), %ymm0, %ymm0 vmovaps %ymm0, 26080(%rbx) movq 28352(%rbx), %rsi vmovsd (%rsi), %xmm0 movq 28320(%rbx), %rax vmovhpd (%rax), %xmm0, %xmm0 vmovapd %xmm0, 26144(%rbx) movq 28608(%rbx), %rsi vmovsd (%rsi), %xmm0 movq 28576(%rbx), %rsi vmovhpd (%rsi), %xmm0, %xmm0 vmovapd %ymm0, 26112(%rbx) movq 29376(%rbx), %rsi vmovsd (%rsi), %xmm0 movq 29344(%rbx), %rsi vmovhpd (%rsi), %xmm0, %xmm0 vmovapd %xmm0, 24000(%rbx) movq 29568(%rbx), %rsi vmovsd (%rsi), %xmm0 movq 29536(%rbx), %rsi vmovhpd (%rsi), %xmm0, %xmm0 vmovapd %ymm0, 23872(%rbx) movq 30176(%rbx), %rax vmovsd (%rax), %xmm0 movq 30144(%rbx), %rax vmovhpd (%rax), %xmm0, %xmm0 vmovapd %xmm0, 22656(%rbx) movq 30240(%rbx), %rdi vmovsd (%rdi), %xmm0 movq 30208(%rbx), %rdi vmovhpd (%rdi), %xmm0, %xmm0 vmovapd %ymm0, 21984(%rbx) vmovapd 23968(%rbx), %ymm0 vmulpd %ymm13, %ymm0, %ymm0 vmulpd %ymm13, %ymm12, %ymm1 vaddpd %ymm0, %ymm12, %ymm8 vmovapd %ymm8, 23968(%rbx) vaddpd %ymm0, %ymm1, %ymm0 vmovapd %ymm0, 23808(%rbx) vmovapd 22624(%rbx), %ymm0 vmulpd %ymm13, %ymm0, %ymm0 vmulpd %ymm13, %ymm5, %ymm1 vaddpd %ymm0, %ymm5, %ymm5 vmovapd %ymm5, 22624(%rbx) vaddpd %ymm0, %ymm1, %ymm0 vmovapd %ymm0, 22016(%rbx) vmovapd 23936(%rbx), %ymm0 vmulpd %ymm13, %ymm0, %ymm0 vmulpd %ymm13, %ymm7, %ymm1 vaddpd %ymm0, %ymm1, %ymm1 vmovapd %ymm1, 21888(%rbx) vaddpd %ymm0, %ymm7, %ymm0 vmovapd %ymm0, 21856(%rbx) vinsertf128 $1, 22528(%rbx), %ymm11, %ymm11 vmovapd 22688(%rbx), %ymm0 vinsertf128 $1, %xmm4, %ymm0, %ymm10 vmovapd 23904(%rbx), %ymm0 vmulpd %ymm13, %ymm0, %ymm0 vmulpd %ymm13, %ymm9, %ymm1 vaddpd %ymm0, %ymm9, %ymm4 vmovapd %ymm4, 23936(%rbx) vaddpd %ymm0, %ymm1, %ymm0 vmovapd %ymm0, 22688(%rbx) vmovapd 21952(%rbx), %ymm0 vinsertf128 $1, 22560(%rbx), %ymm0, %ymm1 movq 27104(%rbx), %rsi vmovsd (%rsi), %xmm0 movq 27072(%rbx), %rsi vmovhpd (%rsi), %xmm0, %xmm0 vmovapd %ymm0, 23904(%rbx) movq 27680(%rbx), %rax vmovsd (%rax), %xmm0 movq 27648(%rbx), %rsi vmovhpd (%rsi), %xmm0, %xmm0 vmovapd %ymm0, 22560(%rbx) movq 27744(%rbx), %rdi vmovsd (%rdi), %xmm0 movq 27712(%rbx), %rdi vmovhpd (%rdi), %xmm0, %xmm0 vmovapd %ymm0, 22528(%rbx) movq 28800(%rbx), %rax vmovsd (%rax), %xmm0 movq 28768(%rbx), %rax vmovhpd (%rax), %xmm0, %xmm0 vmovapd %ymm0, 21792(%rbx) movq 28000(%rbx), %rax vmovsd (%rax), %xmm0 movq 27968(%rbx), %rax vmovhpd (%rax), %xmm0, %xmm0 vmulpd %ymm13, %ymm14, %ymm4 vmovapd 22720(%rbx), %ymm5 vaddpd %ymm4, %ymm5, %ymm4 vmovapd %ymm4, 22720(%rbx) vmovapd 23840(%rbx), %ymm4 vaddpd %ymm14, %ymm4, %ymm4 vmovapd %ymm4, 23840(%rbx) vmulpd %ymm13, %ymm2, %ymm4 vaddpd %ymm4, %ymm15, %ymm4 vmovapd %ymm4, 21952(%rbx) vaddpd %ymm2, %ymm6, %ymm2 vmovapd %ymm2, 21824(%rbx) vinsertf128 $1, 21920(%rbx), %ymm3, %ymm2 vmovapd %ymm2, 21920(%rbx) vmovaps 22592(%rbx), %ymm2 vinsertf128 $1, 22752(%rbx), %ymm2, %ymm2 vmovaps %ymm2, 22592(%rbx) movq 26976(%rbx), %rax vmovsd (%rax), %xmm2 movq 26944(%rbx), %rax vmovhpd (%rax), %xmm2, %xmm2 vmovapd %xmm2, 21632(%rbx) movq 27488(%rbx), %rax vmovsd (%rax), %xmm2 movq 27456(%rbx), %rax vmovhpd (%rax), %xmm2, %xmm8 movq 27552(%rbx), %rax vmovsd (%rax), %xmm2 movq 27520(%rbx), %rax vmovhpd (%rax), %xmm2, %xmm9 movq 28544(%rbx), %rax vmovsd (%rax), %xmm2 movq 28512(%rbx), %rax vmovhpd (%rax), %xmm2, %xmm6 movq 27872(%rbx), %rsi vmovsd (%rsi), %xmm2 movq 27840(%rbx), %rsi vmovhpd (%rsi), %xmm2, %xmm5 movq 27232(%rbx), %rax vmovsd (%rax), %xmm2 movq 27200(%rbx), %rax vmovhpd (%rax), %xmm2, %xmm4 movq 27424(%rbx), %rax vmovsd (%rax), %xmm2 movq 27392(%rbx), %rax vmovhpd (%rax), %xmm2, %xmm7 vmovapd 21984(%rbx), %ymm2 vinsertf128 $1, 22656(%rbx), %ymm2, %ymm3 vmovapd 23872(%rbx), %ymm2 vinsertf128 $1, 24000(%rbx), %ymm2, %ymm15 vmovaps 26112(%rbx), %ymm2 vinsertf128 $1, 26144(%rbx), %ymm2, %ymm2 vmovaps %ymm2, 22752(%rbx) vmovapd 26080(%rbx), %ymm12 vmulpd %ymm13, %ymm12, %ymm2 vmovapd 21856(%rbx), %ymm14 vaddpd %ymm2, %ymm14, %ymm2 vmovapd %ymm2, 26112(%rbx) vmovapd 21888(%rbx), %ymm2 vaddpd %ymm12, %ymm2, %ymm2 vmovapd %ymm2, 23872(%rbx) vmovapd 22016(%rbx), %ymm2 vaddpd %ymm10, %ymm2, %ymm12 vmulpd %ymm13, %ymm10, %ymm2 vmovapd 22624(%rbx), %ymm10 vaddpd %ymm2, %ymm10, %ymm2 vmovapd %ymm2, 22656(%rbx) vmovapd 23808(%rbx), %ymm2 vaddpd %ymm11, %ymm2, %ymm2 vmulpd %ymm13, %ymm11, %ymm11 vmovapd 23968(%rbx), %ymm10 vaddpd %ymm11, %ymm10, %ymm11 vinsertf128 $1, %xmm5, %ymm0, %ymm5 vmovapd 21792(%rbx), %ymm0 vinsertf128 $1, %xmm6, %ymm0, %ymm6 vmovapd 22688(%rbx), %ymm0 vaddpd %ymm1, %ymm0, %ymm0 vmovapd %ymm0, 26080(%rbx) vmulpd %ymm13, %ymm1, %ymm0 vmovapd 23936(%rbx), %ymm1 vaddpd %ymm0, %ymm1, %ymm0 vmovapd %ymm0, 26144(%rbx) vmovapd 22528(%rbx), %ymm0 vinsertf128 $1, %xmm9, %ymm0, %ymm14 vmovapd 22560(%rbx), %ymm0 vinsertf128 $1, %xmm8, %ymm0, %ymm0 vmovapd %ymm0, 23968(%rbx) vmovaps 23904(%rbx), %ymm0 vinsertf128 $1, 21632(%rbx), %ymm0, %ymm0 vmovaps %ymm0, 22688(%rbx) vmovapd 22592(%rbx), %ymm0 vmulpd %ymm13, %ymm0, %ymm0 vmovapd 21824(%rbx), %ymm1 vaddpd %ymm0, %ymm1, %ymm9 vmovapd 21952(%rbx), %ymm1 vaddpd %ymm0, %ymm1, %ymm0 vmovapd %ymm0, 24000(%rbx) vmovapd 21920(%rbx), %ymm0 vmulpd %ymm13, %ymm0, %ymm0 vmovapd 23840(%rbx), %ymm1 vaddpd %ymm0, %ymm1, %ymm8 vmovapd 22720(%rbx), %ymm1 vaddpd %ymm0, %ymm1, %ymm0 vmovapd %ymm0, 23936(%rbx) vinsertf128 $1, %xmm4, %ymm7, %ymm1 movq 27936(%rbx), %rsi vmovsd (%rsi), %xmm0 movq 27904(%rbx), %rsi vmovhpd (%rsi), %xmm0, %xmm0 movq 28064(%rbx), %rax vmovsd (%rax), %xmm4 movq 28032(%rbx), %rax vmovhpd (%rax), %xmm4, %xmm4 vinsertf128 $1, %xmm0, %ymm4, %ymm4 vmulpd %ymm13, %ymm15, %ymm7 vaddpd %ymm7, %ymm12, %ymm0 vmulpd %ymm13, %ymm0, %ymm0 vmulpd %ymm13, %ymm3, %ymm3 vaddpd %ymm3, %ymm2, %ymm2 vmulpd %ymm13, %ymm2, %ymm12 vaddpd %ymm0, %ymm2, %ymm2 vaddpd %ymm0, %ymm12, %ymm0 vmovapd %ymm0, 23904(%rbx) vmulpd %ymm13, %ymm8, %ymm0 vmulpd %ymm13, %ymm9, %ymm12 vaddpd %ymm0, %ymm9, %ymm8 vaddpd %ymm0, %ymm12, %ymm0 vmovapd %ymm0, 23840(%rbx) vmovapd 22752(%rbx), %ymm0 vmulpd %ymm13, %ymm0, %ymm0 vmulpd %ymm13, %ymm6, %ymm9 vaddpd %ymm0, %ymm6, %ymm12 vaddpd %ymm0, %ymm9, %ymm0 vmovapd %ymm0, 23808(%rbx) vaddpd %ymm3, %ymm11, %ymm6 vmovapd 22656(%rbx), %ymm0 vaddpd %ymm7, %ymm0, %ymm7 vmulpd %ymm13, %ymm5, %ymm0 vmovapd 23872(%rbx), %ymm3 vaddpd %ymm0, %ymm3, %ymm10 vmulpd %ymm13, %ymm10, %ymm3 vaddpd %ymm3, %ymm2, %ymm2 vmovapd %ymm2, 23872(%rbx) vmovapd 26112(%rbx), %ymm2 vaddpd %ymm0, %ymm2, %ymm0 vmovapd %ymm0, 26112(%rbx) movq 27168(%rbx), %rax vmovsd (%rax), %xmm0 movq 27136(%rbx), %rax vmovhpd (%rax), %xmm0, %xmm2 movq 27360(%rbx), %rax vmovsd (%rax), %xmm0 movq 27328(%rbx), %rax vmovhpd (%rax), %xmm0, %xmm0 vinsertf128 $1, %xmm2, %ymm0, %ymm9 vmovapd 22688(%rbx), %ymm0 vmulpd %ymm13, %ymm0, %ymm11 vmovapd 26080(%rbx), %ymm0 vaddpd %ymm11, %ymm0, %ymm3 vmulpd %ymm13, %ymm3, %ymm0 vaddpd %ymm0, %ymm8, %ymm0 vmovapd %ymm0, 26080(%rbx) vmovapd 23968(%rbx), %ymm0 vmulpd %ymm13, %ymm0, %ymm2 vaddpd %ymm2, %ymm4, %ymm0 vmulpd %ymm13, %ymm1, %ymm5 vaddpd %ymm5, %ymm0, %ymm8 vmovapd 26144(%rbx), %ymm0 vaddpd %ymm11, %ymm0, %ymm11 vmulpd %ymm13, %ymm14, %ymm0 vaddpd %ymm0, %ymm12, %ymm15 vmovapd 23936(%rbx), %ymm0 vmulpd %ymm13, %ymm0, %ymm0 vmovapd 24000(%rbx), %ymm5 vaddpd %ymm0, %ymm5, %ymm12 movq 27040(%rbx), %rax vmovsd (%rax), %xmm0 movq 27008(%rbx), %rax vmovhpd (%rax), %xmm0, %xmm0 movq 27296(%rbx), %rax vmovsd (%rax), %xmm5 movq 27264(%rbx), %rax vmovhpd (%rax), %xmm5, %xmm5 vinsertf128 $1, %xmm0, %ymm5, %ymm5 vmovapd 23840(%rbx), %ymm0 vaddpd %ymm3, %ymm0, %ymm3 vmulpd %ymm13, %ymm7, %ymm0 vaddpd %ymm0, %ymm6, %ymm6 vmovapd 23904(%rbx), %ymm0 vaddpd %ymm10, %ymm0, %ymm0 vmovapd 23808(%rbx), %ymm7 vaddpd %ymm14, %ymm7, %ymm7 vmulpd %ymm13, %ymm4, %ymm4 vaddpd %ymm2, %ymm4, %ymm2 vaddpd %ymm1, %ymm2, %ymm1 vmulpd %ymm13, %ymm9, %ymm2 vaddpd %ymm2, %ymm7, %ymm4 vmulpd %ymm13, %ymm4, %ymm4 vaddpd %ymm4, %ymm0, %ymm7 vmovapd 23872(%rbx), %ymm0 vaddpd %ymm4, %ymm0, %ymm0 vmovapd 26112(%rbx), %ymm4 vmulpd %ymm13, %ymm4, %ymm4 vaddpd %ymm4, %ymm6, %ymm6 vaddpd %ymm2, %ymm15, %ymm9 vmulpd %ymm13, %ymm5, %ymm4 vaddpd %ymm4, %ymm1, %ymm1 vmulpd %ymm13, %ymm1, %ymm1 vaddpd %ymm1, %ymm3, %ymm3 vmovapd 26080(%rbx), %ymm2 vaddpd %ymm1, %ymm2, %ymm1 vmulpd %ymm13, %ymm11, %ymm2 vaddpd %ymm2, %ymm12, %ymm2 vaddpd %ymm4, %ymm8, %ymm4 vmovapd 31104(%rbx), %ymm10 vmulpd %ymm10, %ymm10, %ymm5 vaddpd %ymm7, %ymm5, %ymm7 vmovapd 26176(%rbx), %ymm11 vmulpd %ymm7, %ymm11, %ymm7 vsubpd %ymm7, %ymm5, %ymm5 vmulpd %ymm13, %ymm9, %ymm7 vaddpd %ymm7, %ymm6, %ymm8 vmovapd 26240(%rbx), %ymm7 vmulpd %ymm10, %ymm7, %ymm6 vmulpd %ymm7, %ymm7, %ymm9 vaddpd %ymm6, %ymm0, %ymm0 vmulpd %ymm0, %ymm11, %ymm7 vaddpd %ymm9, %ymm8, %ymm0 vmulpd %ymm0, %ymm11, %ymm0 vsubpd %ymm0, %ymm9, %ymm0 vmovapd .LCPI1_75(%rip), %ymm9 vmulpd %ymm9, %ymm0, %ymm8 vmulpd %ymm5, %ymm8, %ymm5 vsubpd %ymm7, %ymm6, %ymm6 vmovapd 26336(%rbx), %ymm8 vmulpd %ymm8, %ymm8, %ymm7 vaddpd %ymm3, %ymm7, %ymm3 vmovapd 26208(%rbx), %ymm10 vmulpd %ymm3, %ymm10, %ymm3 vsubpd %ymm3, %ymm7, %ymm3 vmulpd %ymm13, %ymm4, %ymm4 vaddpd %ymm4, %ymm2, %ymm4 vmovapd 26848(%rbx), %ymm7 vmulpd %ymm8, %ymm7, %ymm2 vmulpd %ymm7, %ymm7, %ymm7 vaddpd %ymm2, %ymm1, %ymm1 vmulpd %ymm1, %ymm10, %ymm1 vaddpd %ymm7, %ymm4, %ymm4 vmulpd %ymm4, %ymm10, %ymm4 vsubpd %ymm4, %ymm7, %ymm4 vmovapd %ymm4, 26208(%rbx) vmulpd %ymm9, %ymm4, %ymm4 vmulpd %ymm3, %ymm4, %ymm3 vsubpd %ymm1, %ymm2, %ymm4 vmovapd .LCPI1_24(%rip), %ymm7 vmulpd %ymm7, %ymm6, %ymm1 vmulpd %ymm1, %ymm1, %ymm2 vsubpd %ymm5, %ymm2, %ymm2 movl 18656(%rbx), %r9d movl 18624(%rbx), %esi leal 36(%r9,%rsi), %eax movslq %eax, %rax movq %rax, 20672(%rbx) vmovupd 33024(%rbx,%rax,8), %xmm5 vinsertf128 $1, 33040(%rbx,%rax,8), %ymm5, %ymm10 vmovapd %ymm10, 23968(%rbx) vmovupd 33056(%rbx,%rax,8), %xmm5 vinsertf128 $1, 33072(%rbx,%rax,8), %ymm5, %ymm12 movq 20384(%rbx), %rax vmovupd 33024(%rbx,%rax,8), %xmm5 vinsertf128 $1, 33040(%rbx,%rax,8), %ymm5, %ymm11 vmovupd 33056(%rbx,%rax,8), %xmm5 vinsertf128 $1, 33072(%rbx,%rax,8), %ymm5, %ymm14 vmulpd %ymm7, %ymm4, %ymm4 vmovapd %ymm7, %ymm9 vmulpd %ymm4, %ymm4, %ymm5 vsubpd %ymm3, %ymm5, %ymm3 movq 26880(%rbx), %rax vmovupd 33024(%rbx,%rax,8), %xmm5 vinsertf128 $1, 33040(%rbx,%rax,8), %ymm5, %ymm8 vmovapd %ymm8, 26176(%rbx) vmovupd 33056(%rbx,%rax,8), %xmm5 vinsertf128 $1, 33072(%rbx,%rax,8), %ymm5, %ymm15 vmovapd %ymm15, 26144(%rbx) vsqrtpd %ymm2, %ymm5 vsubpd %ymm1, %ymm5, %ymm2 vmovapd .LCPI1_25(%rip), %ymm6 vxorpd %ymm6, %ymm1, %ymm1 vsubpd %ymm5, %ymm1, %ymm1 vxorpd %ymm6, %ymm1, %ymm1 vxorpd %ymm6, %ymm2, %ymm2 vmulpd %ymm9, %ymm0, %ymm0 vdivpd %ymm0, %ymm2, %ymm5 vmovapd %ymm5, 20352(%rbx) vdivpd %ymm0, %ymm1, %ymm7 vmovapd %ymm7, 20288(%rbx) vsqrtpd %ymm3, %ymm0 vxorpd %ymm6, %ymm4, %ymm1 vsubpd %ymm0, %ymm1, %ymm2 vsubpd %ymm4, %ymm0, %ymm0 vmovapd %ymm0, 26080(%rbx) vsubpd %ymm8, %ymm10, %ymm0 vmovapd %ymm12, %ymm10 vmovapd %ymm9, %ymm1 vmulpd %ymm1, %ymm0, %ymm4 vmovapd %ymm4, 26240(%rbx) vsubpd %ymm11, %ymm8, %ymm0 vmulpd %ymm1, %ymm0, %ymm0 vmovapd %ymm0, 26112(%rbx) vmovapd %ymm1, %ymm3 vmulpd %ymm4, %ymm0, %ymm0 vcmpnlepd %ymm13, %ymm0, %ymm1 vmovapd %ymm1, 31104(%rbx) vextractf128 $1, %ymm1, %xmm0 vpshufd $8, %xmm0, %xmm4 vmovdqa %xmm4, 26848(%rbx) vpshufd $8, %xmm1, %xmm0 vmovlhps %xmm4, %xmm0, %xmm1 vsubpd %ymm15, %ymm10, %ymm0 vmulpd %ymm3, %ymm0, %ymm4 vmovapd %ymm4, 24000(%rbx) vsubpd %ymm14, %ymm15, %ymm0 vmovapd %ymm14, %ymm15 vmulpd %ymm3, %ymm0, %ymm9 vmulpd %ymm4, %ymm9, %ymm0 vcmpnlepd %ymm13, %ymm0, %ymm13 vextractf128 $1, %ymm13, %xmm0 vpshufd $8, %xmm0, %xmm4 vmovdqa %xmm4, 26336(%rbx) vpshufd $8, %xmm13, %xmm0 vmovlhps %xmm4, %xmm0, %xmm0 vmovapd 26208(%rbx), %ymm4 vmulpd %ymm3, %ymm4, %ymm3 vcmpltpd %ymm5, %ymm7, %ymm4 vextractf128 $1, %ymm4, %xmm5 vpshufd $8, %xmm5, %xmm5 vpshufd $8, %xmm4, %xmm4 vmovlhps %xmm5, %xmm4, %xmm4 vxorpd %ymm6, %ymm2, %ymm5 vmovapd 26080(%rbx), %ymm2 vxorpd %ymm6, %ymm2, %ymm12 vmovdqa .LCPI1_20(%rip), %xmm6 vpshufb %xmm6, %xmm0, %xmm0 vmovdqa .LCPI1_21(%rip), %xmm7 vpshufb %xmm7, %xmm1, %xmm1 vpor %xmm0, %xmm1, %xmm0 vdivpd %ymm3, %ymm12, %ymm1 vmovapd %ymm1, 20256(%rbx) vdivpd %ymm3, %ymm5, %ymm3 vmovapd %ymm3, 20224(%rbx) vcmpltpd %ymm1, %ymm3, %ymm3 vpshufb %xmm6, %xmm4, %xmm1 vmovdqa %xmm6, %xmm8 vextractf128 $1, %ymm3, %xmm4 vpshufd $8, %xmm4, %xmm4 vpshufd $8, %xmm3, %xmm5 vmovdqa .LCPI1_17(%rip), %xmm6 vpxor %xmm6, %xmm0, %xmm3 vmovlhps %xmm4, %xmm5, %xmm0 vmovdqa %xmm7, %xmm2 vpshufb %xmm2, %xmm0, %xmm0 vpor %xmm1, %xmm0, %xmm0 vpsllw $15, %xmm0, %xmm0 vpsraw $15, %xmm0, %xmm1 vpmovzxwd %xmm3, %xmm0 vpunpckhbw %xmm0, %xmm1, %xmm4 vpslld $31, %xmm0, %xmm0 vpslld $31, %xmm4, %xmm4 vpsrad $31, %xmm0, %xmm0 vpunpckhwd %xmm0, %xmm3, %xmm3 vpslld $31, %xmm3, %xmm3 vpsrad $31, %xmm3, %xmm3 vpsrad $31, %xmm4, %xmm4 vmovdqa %xmm4, 26208(%rbx) vpmovsxdq %xmm4, %xmm4 vmovdqa %ymm4, 14144(%rbx) vinsertf128 $1, %xmm3, %ymm0, %ymm0 vpunpcklbw %xmm0, %xmm1, %xmm1 vpslld $31, %xmm1, %xmm1 vpsrad $31, %xmm1, %xmm1 vmovdqa %xmm1, 26080(%rbx) vpmovsxdq %xmm1, %xmm1 vmovdqa %ymm1, 14112(%rbx) vmovdqa 8288(%rbx), %ymm1 vptest %ymm1, %ymm0 vmovapd 8320(%rbx), %ymm0 vmovapd %ymm0, %ymm1 vmovapd %ymm0, %ymm2 vmovdqa %xmm6, %xmm7 jb .LBB1_3560 vsubpd %ymm15, %ymm10, %ymm0 vmovapd .LCPI1_28(%rip), %ymm1 vmulpd %ymm1, %ymm0, %ymm2 vmovapd %ymm2, 23936(%rbx) vmovapd 23968(%rbx), %ymm0 vsubpd %ymm11, %ymm0, %ymm0 vmulpd %ymm1, %ymm0, %ymm3 vmovapd %ymm3, 23968(%rbx) vmovapd .LCPI1_56(%rip), %ymm6 vandpd %ymm6, %ymm2, %ymm10 vmovdqa %ymm13, %ymm2 vmovapd %ymm9, 23904(%rbx) vandpd %ymm6, %ymm9, %ymm13 vcmpltpd %ymm10, %ymm13, %ymm0 vextractf128 $1, %ymm0, %xmm1 vpshufd $8, %xmm1, %xmm1 vpshufd $8, %xmm0, %xmm0 vandpd %ymm6, %ymm3, %ymm12 vmovlhps %xmm1, %xmm0, %xmm1 vmovapd 26112(%rbx), %ymm15 vandpd %ymm6, %ymm15, %ymm4 vcmpltpd %ymm12, %ymm4, %ymm0 vextractf128 $1, %ymm0, %xmm3 vpshufd $8, %xmm3, %xmm3 vpshufd $8, %xmm0, %xmm0 vmovlhps %xmm3, %xmm0, %xmm3 vmovapd 24000(%rbx), %ymm14 vandpd %ymm6, %ymm14, %ymm11 vcmpltpd %ymm11, %ymm13, %ymm0 vmovdqa %ymm2, %ymm13 vextractf128 $1, %ymm0, %xmm5 vpshufd $8, %xmm5, %xmm5 vpshufd $8, %xmm0, %xmm0 vmovlhps %xmm5, %xmm0, %xmm0 vmovapd 26240(%rbx), %ymm9 vandpd %ymm6, %ymm9, %ymm5 vcmpltpd %ymm5, %ymm4, %ymm4 vextractf128 $1, %ymm4, %xmm6 vpshufd $8, %xmm6, %xmm6 vpshufd $8, %xmm4, %xmm4 vmovlhps %xmm6, %xmm4, %xmm4 vcmpltpd %ymm12, %ymm5, %ymm5 vmovdqa .LCPI1_21(%rip), %xmm6 vpshufb %xmm6, %xmm4, %xmm4 vpshufb %xmm8, %xmm0, %xmm0 vpor %xmm0, %xmm4, %xmm4 vpshufb %xmm6, %xmm3, %xmm0 vpshufb %xmm8, %xmm1, %xmm1 vpor %xmm1, %xmm0, %xmm0 vextractf128 $1, %ymm5, %xmm1 vpshufd $8, %xmm1, %xmm1 vpshufd $8, %xmm5, %xmm3 vmovlhps %xmm1, %xmm3, %xmm1 vmovdqa 31104(%rbx), %ymm2 vpshufd $8, %xmm2, %xmm3 vmovaps 26848(%rbx), %xmm2 vmovlhps %xmm2, %xmm3, %xmm3 vcmpltpd %ymm10, %ymm11, %ymm5 vpsllw $15, %xmm0, %xmm0 vpsraw $15, %xmm0, %xmm0 vpxor %xmm7, %xmm0, %xmm0 vpsllw $15, %xmm4, %xmm4 vpsraw $15, %xmm4, %xmm4 vpxor %xmm7, %xmm4, %xmm4 vpor %xmm0, %xmm4, %xmm4 vextractf128 $1, %ymm5, %xmm0 vpshufd $8, %xmm0, %xmm0 vpshufd $8, %xmm5, %xmm5 vmovlhps %xmm0, %xmm5, %xmm0 vpshufb %xmm6, %xmm1, %xmm5 vpshufb %xmm6, %xmm3, %xmm1 vpshufd $8, %xmm13, %xmm3 vmovaps 26336(%rbx), %xmm2 vmovlhps %xmm2, %xmm3, %xmm3 vpshufb %xmm8, %xmm3, %xmm3 vpor %xmm3, %xmm1, %xmm1 vpsllw $15, %xmm1, %xmm1 vpsraw $15, %xmm1, %xmm1 vpand %xmm4, %xmm1, %xmm1 vpshufb %xmm8, %xmm0, %xmm0 vpunpckhbw %xmm0, %xmm1, %xmm3 vpor %xmm0, %xmm5, %xmm4 vpslld $31, %xmm3, %xmm0 vpsllw $15, %xmm4, %xmm3 vpsraw $15, %xmm3, %xmm3 vpmovsxdq %xmm0, %xmm4 vmovhlps %xmm0, %xmm0, %xmm0 vpmovsxdq %xmm0, %xmm0 vinsertf128 $1, %xmm0, %ymm4, %ymm4 vpunpckhbw %xmm0, %xmm3, %xmm0 vpslld $31, %xmm0, %xmm5 vpmovsxdq %xmm5, %xmm0 vmovhlps %xmm5, %xmm5, %xmm5 vpmovsxdq %xmm5, %xmm5 vinsertf128 $1, %xmm5, %ymm0, %ymm0 vpunpcklbw %xmm0, %xmm1, %xmm1 vpslld $31, %xmm1, %xmm5 vpmovsxdq %xmm5, %xmm1 vmovhlps %xmm5, %xmm5, %xmm5 vpmovsxdq %xmm5, %xmm5 vpunpcklbw %xmm0, %xmm3, %xmm3 vmovapd 23936(%rbx), %ymm2 vblendvpd %ymm0, %ymm14, %ymm2, %ymm0 vmovapd 23904(%rbx), %ymm2 vblendvpd %ymm4, %ymm0, %ymm2, %ymm0 vmovapd .LCPI1_77(%rip), %ymm4 vmulpd %ymm4, %ymm0, %ymm2 vinsertf128 $1, %xmm5, %ymm1, %ymm0 vpslld $31, %xmm3, %xmm3 vpmovsxdq %xmm3, %xmm1 vmovhlps %xmm3, %xmm3, %xmm3 vpmovsxdq %xmm3, %xmm3 vinsertf128 $1, %xmm3, %ymm1, %ymm1 vmovapd 23968(%rbx), %ymm3 vblendvpd %ymm1, %ymm9, %ymm3, %ymm1 vblendvpd %ymm0, %ymm1, %ymm15, %ymm0 vmulpd %ymm4, %ymm0, %ymm1 .LBB1_3560: vmovapd %ymm1, 23968(%rbx) vmovapd %ymm2, 26240(%rbx) leal 180(%r9,%rsi), %eax movslq %eax, %rdi movq %rdi, 20704(%rbx) vmovupd 33024(%rbx,%rdi,8), %xmm3 movq 20416(%rbx), %rdx vmovupd 33024(%rbx,%rdx,8), %xmm1 movq 32064(%rbx), %rax vmovupd 33056(%rbx,%rax,8), %xmm4 vmovupd 33056(%rbx,%rdx,8), %xmm5 vmovupd 33024(%rbx,%rax,8), %xmm0 vmovupd 33056(%rbx,%rdi,8), %xmm6 vinsertf128 $1, 33072(%rbx,%rdi,8), %ymm6, %ymm10 vinsertf128 $1, 33040(%rbx,%rdi,8), %ymm3, %ymm11 vinsertf128 $1, 33072(%rbx,%rdx,8), %ymm5, %ymm14 vinsertf128 $1, 33072(%rbx,%rax,8), %ymm4, %ymm5 vmovapd %ymm5, 26112(%rbx) vinsertf128 $1, 33040(%rbx,%rdx,8), %ymm1, %ymm12 vinsertf128 $1, 33040(%rbx,%rax,8), %ymm0, %ymm3 vmovapd %ymm3, 24000(%rbx) vpshufd $8, %xmm13, %xmm0 vmovaps 26336(%rbx), %xmm1 vmovlhps %xmm1, %xmm0, %xmm1 vmovdqa 31104(%rbx), %ymm0 vpshufd $8, %xmm0, %xmm0 vmovaps 26848(%rbx), %xmm2 vmovlhps %xmm2, %xmm0, %xmm0 vsubpd %ymm3, %ymm11, %ymm2 vsubpd %ymm12, %ymm3, %ymm3 vsubpd %ymm5, %ymm10, %ymm4 vsubpd %ymm14, %ymm5, %ymm5 vmovapd .LCPI1_24(%rip), %ymm6 vmulpd %ymm6, %ymm5, %ymm13 vmulpd %ymm6, %ymm4, %ymm4 vmovapd %ymm4, 23904(%rbx) vmulpd %ymm6, %ymm3, %ymm9 vmulpd %ymm6, %ymm2, %ymm6 vmovapd %ymm6, 23936(%rbx) vmovdqa .LCPI1_21(%rip), %xmm5 vpshufb %xmm5, %xmm0, %xmm0 vpshufb %xmm8, %xmm1, %xmm1 vpor %xmm1, %xmm0, %xmm1 vmulpd %ymm4, %ymm13, %ymm0 vmovapd %ymm13, %ymm15 vxorpd %ymm3, %ymm3, %ymm3 vcmpnlepd %ymm3, %ymm0, %ymm2 vmovapd %ymm2, 31104(%rbx) vextractf128 $1, %ymm2, %xmm0 vpshufd $8, %xmm0, %xmm4 vmovdqa %xmm4, 26848(%rbx) vpshufd $8, %xmm2, %xmm0 vmovlhps %xmm4, %xmm0, %xmm0 vpshufb %xmm8, %xmm0, %xmm2 vmulpd %ymm6, %ymm9, %ymm0 vmovapd %ymm9, %ymm6 vcmpnlepd %ymm3, %ymm0, %ymm3 vmovapd %ymm3, 26336(%rbx) vextractf128 $1, %ymm3, %xmm0 vpshufd $8, %xmm0, %xmm8 vpshufd $8, %xmm3, %xmm0 vmovlhps %xmm8, %xmm0, %xmm0 vpshufb %xmm5, %xmm0, %xmm0 vmovdqa %xmm5, %xmm13 vpor %xmm2, %xmm0, %xmm2 vpsllw $15, %xmm1, %xmm0 vpsraw $15, %xmm0, %xmm1 vpunpckhbw %xmm0, %xmm1, %xmm0 vpslld $31, %xmm0, %xmm0 vmovdqa %xmm0, 22592(%rbx) vpmovsxdq %xmm0, %xmm0 vmovdqa %ymm0, 22720(%rbx) vpxor %xmm7, %xmm2, %xmm2 vpunpcklbw %xmm0, %xmm1, %xmm0 vpslld $31, %xmm0, %xmm3 vmovdqa %xmm3, 22560(%rbx) vpmovzxwd %xmm2, %xmm0 vpslld $31, %xmm0, %xmm0 vpsrad $31, %xmm0, %xmm1 vpunpckhwd %xmm0, %xmm2, %xmm0 vpslld $31, %xmm0, %xmm0 vpsrad $31, %xmm0, %xmm0 vinsertf128 $1, %xmm0, %ymm1, %ymm1 vpmovsxdq %xmm3, %xmm0 vmovdqa %ymm0, 22688(%rbx) vmovdqa 8224(%rbx), %ymm0 vptest %ymm0, %ymm1 vmovapd 8256(%rbx), %ymm0 vmovapd %ymm0, %ymm1 vmovapd %ymm0, %ymm4 jb .LBB1_3562 vsubpd %ymm12, %ymm11, %ymm1 vsubpd %ymm14, %ymm10, %ymm0 vmovapd .LCPI1_28(%rip), %ymm3 vmulpd %ymm3, %ymm0, %ymm0 vmovapd %ymm0, 23808(%rbx) vmulpd %ymm3, %ymm1, %ymm4 vmovapd %ymm4, 23872(%rbx) vmovaps %xmm8, %xmm2 vmovapd .LCPI1_56(%rip), %ymm8 vandpd %ymm8, %ymm0, %ymm10 vmovapd %ymm15, %ymm9 vandpd %ymm8, %ymm9, %ymm14 vcmpltpd %ymm10, %ymm14, %ymm1 vextractf128 $1, %ymm1, %xmm0 vpshufd $8, %xmm0, %xmm3 vpshufd $8, %xmm1, %xmm0 vandpd %ymm8, %ymm4, %ymm12 vmovlhps %xmm3, %xmm0, %xmm3 vmovapd %ymm6, 23840(%rbx) vandpd %ymm8, %ymm6, %ymm6 vcmpltpd %ymm12, %ymm6, %ymm1 vextractf128 $1, %ymm1, %xmm0 vpshufd $8, %xmm0, %xmm5 vpshufd $8, %xmm1, %xmm0 vmovlhps %xmm5, %xmm0, %xmm5 vmovapd 23904(%rbx), %ymm15 vandpd %ymm8, %ymm15, %ymm11 vcmpltpd %ymm11, %ymm14, %ymm1 vextractf128 $1, %ymm1, %xmm0 vpshufd $8, %xmm0, %xmm7 vpshufd $8, %xmm1, %xmm0 vmovlhps %xmm7, %xmm0, %xmm1 vmovapd 23936(%rbx), %ymm14 vandpd %ymm8, %ymm14, %ymm7 vmovaps %xmm2, %xmm8 vcmpltpd %ymm7, %ymm6, %ymm6 vextractf128 $1, %ymm6, %xmm0 vpshufd $8, %xmm0, %xmm0 vpshufd $8, %xmm6, %xmm6 vmovlhps %xmm0, %xmm6, %xmm0 vcmpltpd %ymm12, %ymm7, %ymm7 vpshufb %xmm13, %xmm0, %xmm0 vmovdqa .LCPI1_20(%rip), %xmm2 vpshufb %xmm2, %xmm1, %xmm1 vpor %xmm1, %xmm0, %xmm6 vpshufb %xmm13, %xmm5, %xmm0 vpshufb %xmm2, %xmm3, %xmm1 vpor %xmm1, %xmm0, %xmm1 vextractf128 $1, %ymm7, %xmm0 vpshufd $8, %xmm0, %xmm0 vpshufd $8, %xmm7, %xmm3 vmovlhps %xmm0, %xmm3, %xmm3 vmovdqa 26336(%rbx), %ymm0 vpshufd $8, %xmm0, %xmm0 vmovlhps %xmm8, %xmm0, %xmm5 vcmpltpd %ymm10, %ymm11, %ymm7 vpsllw $15, %xmm1, %xmm0 vpsraw $15, %xmm0, %xmm0 vmovdqa .LCPI1_17(%rip), %xmm4 vpxor %xmm4, %xmm0, %xmm1 vpsllw $15, %xmm6, %xmm0 vpsraw $15, %xmm0, %xmm0 vpxor %xmm4, %xmm0, %xmm0 vpor %xmm1, %xmm0, %xmm6 vextractf128 $1, %ymm7, %xmm0 vpshufd $8, %xmm0, %xmm0 vpshufd $8, %xmm7, %xmm1 vmovlhps %xmm0, %xmm1, %xmm1 vpshufb %xmm13, %xmm3, %xmm7 vpshufb %xmm13, %xmm5, %xmm3 vmovdqa 31104(%rbx), %ymm0 vpshufd $8, %xmm0, %xmm0 vmovaps 26848(%rbx), %xmm4 vmovlhps %xmm4, %xmm0, %xmm0 vpshufb %xmm2, %xmm0, %xmm0 vpor %xmm0, %xmm3, %xmm0 vpsllw $15, %xmm0, %xmm0 vpsraw $15, %xmm0, %xmm0 vpand %xmm6, %xmm0, %xmm3 vpshufb %xmm2, %xmm1, %xmm0 vpunpckhbw %xmm0, %xmm3, %xmm1 vpor %xmm0, %xmm7, %xmm0 vpslld $31, %xmm1, %xmm1 vpsllw $15, %xmm0, %xmm0 vpsraw $15, %xmm0, %xmm5 vpmovsxdq %xmm1, %xmm6 vmovhlps %xmm1, %xmm1, %xmm0 vpmovsxdq %xmm0, %xmm0 vinsertf128 $1, %xmm0, %ymm6, %ymm6 vpunpckhbw %xmm0, %xmm5, %xmm0 vpslld $31, %xmm0, %xmm0 vpmovsxdq %xmm0, %xmm1 vmovhlps %xmm0, %xmm0, %xmm0 vpmovsxdq %xmm0, %xmm0 vinsertf128 $1, %xmm0, %ymm1, %ymm1 vpunpcklbw %xmm0, %xmm3, %xmm0 vpslld $31, %xmm0, %xmm0 vpmovsxdq %xmm0, %xmm3 vmovhlps %xmm0, %xmm0, %xmm0 vpmovsxdq %xmm0, %xmm7 vpunpcklbw %xmm0, %xmm5, %xmm5 vmovapd 23808(%rbx), %ymm0 vblendvpd %ymm1, %ymm15, %ymm0, %ymm0 vblendvpd %ymm6, %ymm0, %ymm9, %ymm0 vmovapd .LCPI1_77(%rip), %ymm6 vmulpd %ymm6, %ymm0, %ymm4 vinsertf128 $1, %xmm7, %ymm3, %ymm1 vpslld $31, %xmm5, %xmm0 vpmovsxdq %xmm0, %xmm2 vmovhlps %xmm0, %xmm0, %xmm0 vpmovsxdq %xmm0, %xmm0 vinsertf128 $1, %xmm0, %ymm2, %ymm0 vmovapd 23872(%rbx), %ymm2 vblendvpd %ymm0, %ymm14, %ymm2, %ymm0 vmovapd 23840(%rbx), %ymm2 vblendvpd %ymm1, %ymm0, %ymm2, %ymm0 vmulpd %ymm6, %ymm0, %ymm1 .LBB1_3562: vmovapd %ymm1, 23840(%rbx) vmovapd %ymm4, 23872(%rbx) leal 324(%r9,%rsi), %eax movslq %eax, %rdi movq %rdi, 20736(%rbx) vmovupd 33024(%rbx,%rdi,8), %xmm2 movq 20448(%rbx), %rdx vmovupd 33024(%rbx,%rdx,8), %xmm3 movq 32096(%rbx), %rax vmovupd 33056(%rbx,%rax,8), %xmm5 vmovupd 33056(%rbx,%rdx,8), %xmm7 vmovupd 33024(%rbx,%rax,8), %xmm6 vmovupd 33056(%rbx,%rdi,8), %xmm0 vinsertf128 $1, 33072(%rbx,%rdi,8), %ymm0, %ymm1 vinsertf128 $1, 33040(%rbx,%rdi,8), %ymm2, %ymm2 vinsertf128 $1, 33072(%rbx,%rdx,8), %ymm7, %ymm14 vinsertf128 $1, 33072(%rbx,%rax,8), %ymm5, %ymm7 vmovapd %ymm7, 23936(%rbx) vinsertf128 $1, 33040(%rbx,%rdx,8), %ymm3, %ymm12 vinsertf128 $1, 33040(%rbx,%rax,8), %ymm6, %ymm5 vmovapd %ymm5, 23904(%rbx) vmovdqa 31104(%rbx), %ymm0 vpshufd $8, %xmm0, %xmm0 vmovaps 26848(%rbx), %xmm3 vmovlhps %xmm3, %xmm0, %xmm0 vmovdqa 26336(%rbx), %ymm3 vpshufd $8, %xmm3, %xmm3 vmovlhps %xmm8, %xmm3, %xmm3 vsubpd %ymm5, %ymm2, %ymm4 vsubpd %ymm12, %ymm5, %ymm5 vsubpd %ymm7, %ymm1, %ymm6 vsubpd %ymm14, %ymm7, %ymm7 vmovapd .LCPI1_24(%rip), %ymm8 vmulpd %ymm8, %ymm7, %ymm11 vmulpd %ymm8, %ymm6, %ymm9 vmulpd %ymm8, %ymm5, %ymm7 vmulpd %ymm8, %ymm4, %ymm8 vpshufb %xmm13, %xmm3, %xmm3 vmovdqa .LCPI1_20(%rip), %xmm6 vpshufb %xmm6, %xmm0, %xmm0 vpor %xmm0, %xmm3, %xmm4 vmulpd %ymm9, %ymm11, %ymm0 vxorpd %ymm5, %ymm5, %ymm5 vcmpnlepd %ymm5, %ymm0, %ymm10 vextractf128 $1, %ymm10, %xmm0 vpshufd $8, %xmm0, %xmm3 vmovdqa %xmm3, 31104(%rbx) vpshufd $8, %xmm10, %xmm0 vmovlhps %xmm3, %xmm0, %xmm0 vpshufb %xmm6, %xmm0, %xmm3 vmulpd %ymm8, %ymm7, %ymm0 vcmpnlepd %ymm5, %ymm0, %ymm6 vmovapd %ymm6, 26336(%rbx) vextractf128 $1, %ymm6, %xmm0 vpshufd $8, %xmm0, %xmm5 vmovdqa %xmm5, 26848(%rbx) vpshufd $8, %xmm6, %xmm0 vmovlhps %xmm5, %xmm0, %xmm0 vpshufb %xmm13, %xmm0, %xmm0 vpor %xmm3, %xmm0, %xmm3 vpsllw $15, %xmm4, %xmm0 vpsraw $15, %xmm0, %xmm4 vpunpckhbw %xmm0, %xmm4, %xmm0 vpslld $31, %xmm0, %xmm0 vmovdqa %xmm0, 21920(%rbx) vpmovsxdq %xmm0, %xmm0 vmovdqa %ymm0, 22528(%rbx) vpxor .LCPI1_17(%rip), %xmm3, %xmm3 vpunpcklbw %xmm0, %xmm4, %xmm0 vpslld $31, %xmm0, %xmm5 vmovdqa %xmm5, 21888(%rbx) vpmovzxwd %xmm3, %xmm0 vpslld $31, %xmm0, %xmm0 vpsrad $31, %xmm0, %xmm4 vpunpckhwd %xmm0, %xmm3, %xmm0 vpslld $31, %xmm0, %xmm0 vpsrad $31, %xmm0, %xmm0 vinsertf128 $1, %xmm0, %ymm4, %ymm3 vpmovsxdq %xmm5, %xmm0 vmovdqa %ymm0, 22016(%rbx) vmovdqa 8160(%rbx), %ymm0 vptest %ymm0, %ymm3 vmovapd 8192(%rbx), %ymm0 vmovapd %ymm0, %ymm3 vmovapd %ymm0, %ymm6 movq 25792(%rbx), %r11 movq 25472(%rbx), %r14 movq 25440(%rbx), %r15 jb .LBB1_3564 vsubpd %ymm12, %ymm2, %ymm3 vsubpd %ymm14, %ymm1, %ymm0 vmovapd .LCPI1_28(%rip), %ymm1 vmulpd %ymm1, %ymm0, %ymm0 vmovapd %ymm0, 22752(%rbx) vmulpd %ymm1, %ymm3, %ymm4 vmovapd %ymm4, 23808(%rbx) vmovdqa %ymm10, %ymm2 vmovapd .LCPI1_56(%rip), %ymm10 vandpd %ymm10, %ymm0, %ymm12 vandpd %ymm10, %ymm11, %ymm15 vcmpltpd %ymm12, %ymm15, %ymm1 vextractf128 $1, %ymm1, %xmm0 vpshufd $8, %xmm0, %xmm3 vpshufd $8, %xmm1, %xmm0 vandpd %ymm10, %ymm4, %ymm14 vmovlhps %xmm3, %xmm0, %xmm5 vandpd %ymm10, %ymm7, %ymm3 vcmpltpd %ymm14, %ymm3, %ymm1 vextractf128 $1, %ymm1, %xmm0 vpshufd $8, %xmm0, %xmm4 vpshufd $8, %xmm1, %xmm0 vmovlhps %xmm4, %xmm0, %xmm4 vandpd %ymm10, %ymm9, %ymm13 vcmpltpd %ymm13, %ymm15, %ymm1 vextractf128 $1, %ymm1, %xmm0 vmovapd %ymm7, 22656(%rbx) vpshufd $8, %xmm0, %xmm7 vpshufd $8, %xmm1, %xmm0 vmovlhps %xmm7, %xmm0, %xmm1 vmovapd %ymm8, %ymm15 vandpd %ymm10, %ymm15, %ymm7 vmovdqa %ymm2, %ymm10 vcmpltpd %ymm7, %ymm3, %ymm3 vextractf128 $1, %ymm3, %xmm0 vpshufd $8, %xmm0, %xmm0 vpshufd $8, %xmm3, %xmm3 vmovlhps %xmm0, %xmm3, %xmm0 vcmpltpd %ymm14, %ymm7, %ymm7 vmovdqa .LCPI1_21(%rip), %xmm3 vpshufb %xmm3, %xmm0, %xmm0 vmovdqa .LCPI1_20(%rip), %xmm2 vpshufb %xmm2, %xmm1, %xmm1 vpor %xmm1, %xmm0, %xmm8 vpshufb %xmm3, %xmm4, %xmm0 vpshufb %xmm2, %xmm5, %xmm1 vpor %xmm1, %xmm0, %xmm1 vextractf128 $1, %ymm7, %xmm0 vpshufd $8, %xmm0, %xmm0 vpshufd $8, %xmm7, %xmm4 vmovlhps %xmm0, %xmm4, %xmm4 vmovdqa 26336(%rbx), %ymm0 vpshufd $8, %xmm0, %xmm0 vmovaps 26848(%rbx), %xmm5 vmovlhps %xmm5, %xmm0, %xmm5 vcmpltpd %ymm12, %ymm13, %ymm7 vpsllw $15, %xmm1, %xmm0 vpsraw $15, %xmm0, %xmm0 vmovdqa .LCPI1_17(%rip), %xmm6 vpxor %xmm6, %xmm0, %xmm1 vpsllw $15, %xmm8, %xmm0 vpsraw $15, %xmm0, %xmm0 vpxor %xmm6, %xmm0, %xmm0 vpor %xmm1, %xmm0, %xmm6 vextractf128 $1, %ymm7, %xmm0 vpshufd $8, %xmm0, %xmm0 vpshufd $8, %xmm7, %xmm1 vmovlhps %xmm0, %xmm1, %xmm1 vpshufb %xmm3, %xmm4, %xmm7 vpshufb %xmm3, %xmm5, %xmm4 vpshufd $8, %xmm10, %xmm0 vmovaps 31104(%rbx), %xmm5 vmovlhps %xmm5, %xmm0, %xmm0 vpshufb %xmm2, %xmm0, %xmm0 vpor %xmm0, %xmm4, %xmm0 vpsllw $15, %xmm0, %xmm0 vpsraw $15, %xmm0, %xmm0 vpand %xmm6, %xmm0, %xmm4 vpshufb %xmm2, %xmm1, %xmm0 vpunpckhbw %xmm0, %xmm4, %xmm1 vpor %xmm0, %xmm7, %xmm0 vpslld $31, %xmm1, %xmm1 vpsllw $15, %xmm0, %xmm0 vpsraw $15, %xmm0, %xmm5 vpmovsxdq %xmm1, %xmm3 vmovhlps %xmm1, %xmm1, %xmm0 vpmovsxdq %xmm0, %xmm0 vinsertf128 $1, %xmm0, %ymm3, %ymm3 vpunpckhbw %xmm0, %xmm5, %xmm0 vpslld $31, %xmm0, %xmm0 vpmovsxdq %xmm0, %xmm1 vmovhlps %xmm0, %xmm0, %xmm0 vpmovsxdq %xmm0, %xmm0 vinsertf128 $1, %xmm0, %ymm1, %ymm1 vpunpcklbw %xmm0, %xmm4, %xmm0 vpslld $31, %xmm0, %xmm0 vpmovsxdq %xmm0, %xmm4 vmovhlps %xmm0, %xmm0, %xmm0 vpmovsxdq %xmm0, %xmm7 vpunpcklbw %xmm0, %xmm5, %xmm5 vmovapd 22752(%rbx), %ymm0 vblendvpd %ymm1, %ymm9, %ymm0, %ymm0 vblendvpd %ymm3, %ymm0, %ymm11, %ymm0 vmovapd .LCPI1_77(%rip), %ymm3 vmulpd %ymm3, %ymm0, %ymm6 vinsertf128 $1, %xmm7, %ymm4, %ymm1 vpslld $31, %xmm5, %xmm0 vpmovsxdq %xmm0, %xmm2 vmovhlps %xmm0, %xmm0, %xmm0 vpmovsxdq %xmm0, %xmm0 vinsertf128 $1, %xmm0, %ymm2, %ymm0 vmovapd 23808(%rbx), %ymm2 vblendvpd %ymm0, %ymm15, %ymm2, %ymm0 vmovapd 22656(%rbx), %ymm2 vblendvpd %ymm1, %ymm0, %ymm2, %ymm0 vmulpd %ymm3, %ymm0, %ymm3 .LBB1_3564: vmovapd %ymm3, 22624(%rbx) vmovapd %ymm6, 22656(%rbx) leal 468(%r9,%rsi), %eax movslq %eax, %rdi movq %rdi, 20768(%rbx) vmovupd 33024(%rbx,%rdi,8), %xmm2 movq 20480(%rbx), %rdx vmovupd 33024(%rbx,%rdx,8), %xmm1 movq 32416(%rbx), %rax vmovupd 33056(%rbx,%rax,8), %xmm3 vmovupd 33056(%rbx,%rdx,8), %xmm5 vmovupd 33024(%rbx,%rax,8), %xmm4 vmovupd 33056(%rbx,%rdi,8), %xmm0 vinsertf128 $1, 33072(%rbx,%rdi,8), %ymm0, %ymm14 vinsertf128 $1, 33040(%rbx,%rdi,8), %ymm2, %ymm15 vinsertf128 $1, 33072(%rbx,%rdx,8), %ymm5, %ymm12 vinsertf128 $1, 33072(%rbx,%rax,8), %ymm3, %ymm5 vmovapd %ymm5, 23808(%rbx) vinsertf128 $1, 33040(%rbx,%rdx,8), %ymm1, %ymm13 vinsertf128 $1, 33040(%rbx,%rax,8), %ymm4, %ymm3 vmovapd %ymm3, 22752(%rbx) vpshufd $8, %xmm10, %xmm0 vmovaps 31104(%rbx), %xmm1 vmovlhps %xmm1, %xmm0, %xmm0 vmovdqa 26336(%rbx), %ymm1 vpshufd $8, %xmm1, %xmm1 vmovaps 26848(%rbx), %xmm2 vmovlhps %xmm2, %xmm1, %xmm1 vsubpd %ymm3, %ymm15, %ymm2 vsubpd %ymm13, %ymm3, %ymm3 vsubpd %ymm5, %ymm14, %ymm4 vsubpd %ymm12, %ymm5, %ymm5 vmovapd .LCPI1_24(%rip), %ymm6 vmulpd %ymm6, %ymm5, %ymm11 vmulpd %ymm6, %ymm4, %ymm4 vmovapd %ymm4, 26336(%rbx) vmulpd %ymm6, %ymm3, %ymm9 vmulpd %ymm6, %ymm2, %ymm10 vmovdqa .LCPI1_21(%rip), %xmm5 vpshufb %xmm5, %xmm1, %xmm1 vmovdqa .LCPI1_20(%rip), %xmm2 vpshufb %xmm2, %xmm0, %xmm0 vpor %xmm0, %xmm1, %xmm1 vmulpd %ymm4, %ymm11, %ymm0 vxorpd %ymm4, %ymm4, %ymm4 vcmpnlepd %ymm4, %ymm0, %ymm3 vextractf128 $1, %ymm3, %xmm0 vpshufd $8, %xmm0, %xmm6 vmovdqa %xmm6, 31104(%rbx) vpshufd $8, %xmm3, %xmm0 vmovlhps %xmm6, %xmm0, %xmm0 vpshufb %xmm2, %xmm0, %xmm2 vmulpd %ymm10, %ymm9, %ymm0 vcmpnlepd %ymm4, %ymm0, %ymm8 vextractf128 $1, %ymm8, %xmm0 vpshufd $8, %xmm0, %xmm4 vmovdqa %xmm4, 26848(%rbx) vpshufd $8, %xmm8, %xmm0 vmovlhps %xmm4, %xmm0, %xmm0 vpshufb %xmm5, %xmm0, %xmm0 vpor %xmm2, %xmm0, %xmm2 vpsllw $15, %xmm1, %xmm0 vpsraw $15, %xmm0, %xmm1 vpunpckhbw %xmm0, %xmm1, %xmm0 vpslld $31, %xmm0, %xmm0 vmovdqa %xmm0, 21792(%rbx) vpmovsxdq %xmm0, %xmm0 vmovdqa %ymm0, 21856(%rbx) vpxor .LCPI1_17(%rip), %xmm2, %xmm2 vpunpcklbw %xmm0, %xmm1, %xmm0 vpslld $31, %xmm0, %xmm4 vmovdqa %xmm4, 21632(%rbx) vpmovzxwd %xmm2, %xmm0 vpslld $31, %xmm0, %xmm0 vpsrad $31, %xmm0, %xmm0 vpunpckhwd %xmm0, %xmm2, %xmm1 vpslld $31, %xmm1, %xmm1 vpsrad $31, %xmm1, %xmm1 vinsertf128 $1, %xmm1, %ymm0, %ymm0 vpmovsxdq %xmm4, %xmm1 vmovdqa %ymm1, 21824(%rbx) vmovdqa 8096(%rbx), %ymm1 vptest %ymm1, %ymm0 vmovapd 8128(%rbx), %ymm0 vmovapd %ymm0, %ymm1 vmovapd %ymm0, %ymm6 jb .LBB1_3566 vsubpd %ymm13, %ymm15, %ymm0 vsubpd %ymm12, %ymm14, %ymm1 vmovapd .LCPI1_28(%rip), %ymm2 vmulpd %ymm2, %ymm1, %ymm15 vmulpd %ymm2, %ymm0, %ymm4 vmovapd %ymm4, 21984(%rbx) vmovapd .LCPI1_56(%rip), %ymm7 vandpd %ymm7, %ymm15, %ymm12 vmovapd %ymm11, %ymm14 vandpd %ymm7, %ymm14, %ymm2 vcmpltpd %ymm12, %ymm2, %ymm0 vextractf128 $1, %ymm0, %xmm1 vpshufd $8, %xmm1, %xmm1 vpshufd $8, %xmm0, %xmm0 vandpd %ymm7, %ymm4, %ymm4 vmovlhps %xmm1, %xmm0, %xmm5 vandpd %ymm7, %ymm9, %ymm6 vcmpltpd %ymm4, %ymm6, %ymm0 vextractf128 $1, %ymm0, %xmm1 vpshufd $8, %xmm1, %xmm1 vpshufd $8, %xmm0, %xmm0 vmovlhps %xmm1, %xmm0, %xmm1 vmovapd 26336(%rbx), %ymm11 vandpd %ymm7, %ymm11, %ymm13 vcmpltpd %ymm13, %ymm2, %ymm0 vextractf128 $1, %ymm0, %xmm2 vpshufd $8, %xmm2, %xmm2 vpshufd $8, %xmm0, %xmm0 vmovlhps %xmm2, %xmm0, %xmm2 vandpd %ymm7, %ymm10, %ymm0 vcmpltpd %ymm0, %ymm6, %ymm6 vextractf128 $1, %ymm6, %xmm7 vpshufd $8, %xmm7, %xmm7 vpshufd $8, %xmm6, %xmm6 vmovlhps %xmm7, %xmm6, %xmm6 vcmpltpd %ymm4, %ymm0, %ymm4 vmovdqa .LCPI1_21(%rip), %xmm7 vpshufb %xmm7, %xmm6, %xmm0 vmovapd %ymm9, 21952(%rbx) vmovdqa .LCPI1_20(%rip), %xmm9 vpshufb %xmm9, %xmm2, %xmm2 vpor %xmm2, %xmm0, %xmm2 vpshufb %xmm7, %xmm1, %xmm0 vpshufb %xmm9, %xmm5, %xmm1 vpor %xmm1, %xmm0, %xmm6 vextractf128 $1, %ymm4, %xmm0 vpshufd $8, %xmm0, %xmm0 vpshufd $8, %xmm4, %xmm1 vmovlhps %xmm0, %xmm1, %xmm1 vpshufd $8, %xmm8, %xmm0 vmovaps 26848(%rbx), %xmm4 vmovlhps %xmm4, %xmm0, %xmm4 vcmpltpd %ymm12, %ymm13, %ymm5 vpsllw $15, %xmm6, %xmm0 vpsraw $15, %xmm0, %xmm0 vmovdqa .LCPI1_17(%rip), %xmm6 vpxor %xmm6, %xmm0, %xmm0 vpsllw $15, %xmm2, %xmm2 vpsraw $15, %xmm2, %xmm2 vpxor %xmm6, %xmm2, %xmm2 vpor %xmm0, %xmm2, %xmm2 vextractf128 $1, %ymm5, %xmm0 vpshufd $8, %xmm0, %xmm0 vpshufd $8, %xmm5, %xmm5 vmovlhps %xmm0, %xmm5, %xmm6 vpshufb %xmm7, %xmm1, %xmm5 vpshufb %xmm7, %xmm4, %xmm0 vpshufd $8, %xmm3, %xmm1 vmovaps 31104(%rbx), %xmm4 vmovlhps %xmm4, %xmm1, %xmm1 vpshufb %xmm9, %xmm1, %xmm1 vpor %xmm1, %xmm0, %xmm0 vpsllw $15, %xmm0, %xmm0 vpsraw $15, %xmm0, %xmm0 vpand %xmm2, %xmm0, %xmm1 vpshufb %xmm9, %xmm6, %xmm0 vpunpckhbw %xmm0, %xmm1, %xmm2 vpor %xmm0, %xmm5, %xmm4 vpslld $31, %xmm2, %xmm0 vpsllw $15, %xmm4, %xmm2 vpsraw $15, %xmm2, %xmm4 vpmovsxdq %xmm0, %xmm2 vmovhlps %xmm0, %xmm0, %xmm0 vpmovsxdq %xmm0, %xmm0 vinsertf128 $1, %xmm0, %ymm2, %ymm2 vpunpckhbw %xmm0, %xmm4, %xmm0 vpslld $31, %xmm0, %xmm5 vpmovsxdq %xmm5, %xmm0 vmovhlps %xmm5, %xmm5, %xmm5 vpmovsxdq %xmm5, %xmm5 vinsertf128 $1, %xmm5, %ymm0, %ymm5 vpunpcklbw %xmm0, %xmm1, %xmm0 vpslld $31, %xmm0, %xmm0 vpmovsxdq %xmm0, %xmm1 vmovhlps %xmm0, %xmm0, %xmm0 vpmovsxdq %xmm0, %xmm0 vpunpcklbw %xmm0, %xmm4, %xmm4 vblendvpd %ymm5, %ymm11, %ymm15, %ymm5 vblendvpd %ymm2, %ymm5, %ymm14, %ymm2 vmovapd .LCPI1_77(%rip), %ymm5 vmulpd %ymm5, %ymm2, %ymm6 vinsertf128 $1, %xmm0, %ymm1, %ymm1 vpslld $31, %xmm4, %xmm2 vpmovsxdq %xmm2, %xmm0 vmovhlps %xmm2, %xmm2, %xmm2 vpmovsxdq %xmm2, %xmm2 vinsertf128 $1, %xmm2, %ymm0, %ymm0 vmovapd 21984(%rbx), %ymm2 vblendvpd %ymm0, %ymm10, %ymm2, %ymm0 vmovapd 21952(%rbx), %ymm2 vblendvpd %ymm1, %ymm0, %ymm2, %ymm0 vmulpd %ymm5, %ymm0, %ymm1 .LBB1_3566: vmovapd %ymm1, 21952(%rbx) vmovapd %ymm6, 21984(%rbx) vmovaps 22592(%rbx), %xmm0 vmovhlps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 20832(%rbx) vmovaps 22560(%rbx), %xmm0 vmovhlps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 20096(%rbx) vmovaps 21920(%rbx), %xmm0 vmovhlps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 21920(%rbx) vmovaps 21888(%rbx), %xmm0 vmovhlps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 21888(%rbx) vmovaps 21792(%rbx), %xmm0 vmovhlps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 20064(%rbx) vmovaps 21632(%rbx), %xmm0 vmovhlps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 20032(%rbx) leal 612(%r9,%rsi), %eax movslq %eax, %rdi movq %rdi, 20800(%rbx) vmovupd 33024(%rbx,%rdi,8), %xmm2 movq 20512(%rbx), %rdx vmovupd 33024(%rbx,%rdx,8), %xmm1 movq 32448(%rbx), %rax vmovupd 33056(%rbx,%rax,8), %xmm6 vmovupd 33056(%rbx,%rdx,8), %xmm7 vmovupd 33024(%rbx,%rax,8), %xmm10 vmovupd 33056(%rbx,%rdi,8), %xmm0 vinsertf128 $1, 33072(%rbx,%rdi,8), %ymm0, %ymm4 vinsertf128 $1, 33040(%rbx,%rdi,8), %ymm2, %ymm5 vinsertf128 $1, 33072(%rbx,%rdx,8), %ymm7, %ymm7 vinsertf128 $1, 33072(%rbx,%rax,8), %ymm6, %ymm11 vmovapd %ymm11, 22592(%rbx) vinsertf128 $1, 33040(%rbx,%rdx,8), %ymm1, %ymm9 vinsertf128 $1, 33040(%rbx,%rax,8), %ymm10, %ymm6 vmovapd %ymm6, 22560(%rbx) vpshufd $8, %xmm3, %xmm0 vmovaps 31104(%rbx), %xmm1 vmovlhps %xmm1, %xmm0, %xmm1 vpshufd $8, %xmm8, %xmm0 vmovaps 26848(%rbx), %xmm2 vmovlhps %xmm2, %xmm0, %xmm2 vsubpd %ymm6, %ymm5, %ymm3 vsubpd %ymm9, %ymm6, %ymm0 vsubpd %ymm11, %ymm4, %ymm6 vsubpd %ymm7, %ymm11, %ymm8 vmovapd .LCPI1_24(%rip), %ymm10 vmulpd %ymm10, %ymm8, %ymm13 vmulpd %ymm10, %ymm6, %ymm8 vmovapd %ymm8, 26336(%rbx) vmulpd %ymm10, %ymm0, %ymm11 vmovapd %ymm11, 31104(%rbx) vmulpd %ymm10, %ymm3, %ymm10 vmovapd %ymm10, 26848(%rbx) vmovdqa .LCPI1_21(%rip), %xmm6 vpshufb %xmm6, %xmm2, %xmm0 vmovdqa .LCPI1_20(%rip), %xmm2 vpshufb %xmm2, %xmm1, %xmm1 vpor %xmm1, %xmm0, %xmm1 vmulpd %ymm8, %ymm13, %ymm0 vxorpd %ymm3, %ymm3, %ymm3 vcmpnlepd %ymm3, %ymm0, %ymm8 vextractf128 $1, %ymm8, %xmm0 vpshufd $8, %xmm0, %xmm14 vpshufd $8, %xmm8, %xmm0 vmovlhps %xmm14, %xmm0, %xmm0 vpshufb %xmm2, %xmm0, %xmm2 vmulpd %ymm10, %ymm11, %ymm0 vcmpnlepd %ymm3, %ymm0, %ymm12 vextractf128 $1, %ymm12, %xmm0 vpshufd $8, %xmm0, %xmm11 vpshufd $8, %xmm12, %xmm0 vmovlhps %xmm11, %xmm0, %xmm0 vpshufb %xmm6, %xmm0, %xmm0 vpor %xmm2, %xmm0, %xmm2 vpsllw $15, %xmm1, %xmm0 vpsraw $15, %xmm0, %xmm1 vpunpckhbw %xmm0, %xmm1, %xmm0 vpslld $31, %xmm0, %xmm3 vpmovsxdq %xmm3, %xmm0 vmovdqa %ymm0, 20320(%rbx) vmovhlps %xmm3, %xmm3, %xmm0 vmovaps %xmm0, 19840(%rbx) vpxor .LCPI1_17(%rip), %xmm2, %xmm2 vpunpcklbw %xmm0, %xmm1, %xmm0 vpslld $31, %xmm0, %xmm1 vpmovzxwd %xmm2, %xmm0 vpslld $31, %xmm0, %xmm0 vpsrad $31, %xmm0, %xmm3 vpunpckhwd %xmm0, %xmm2, %xmm0 vpslld $31, %xmm0, %xmm0 vpsrad $31, %xmm0, %xmm0 vinsertf128 $1, %xmm0, %ymm3, %ymm2 vpmovsxdq %xmm1, %xmm0 vmovdqa %ymm0, 20128(%rbx) vmovhlps %xmm1, %xmm1, %xmm0 vmovaps %xmm0, 19808(%rbx) vmovdqa 8032(%rbx), %ymm0 vptest %ymm0, %ymm2 vmovapd 8064(%rbx), %ymm0 vmovapd %ymm0, %ymm1 vmovapd %ymm0, %ymm10 jb .LBB1_3568 vsubpd %ymm9, %ymm5, %ymm1 vsubpd %ymm7, %ymm4, %ymm0 vmovapd .LCPI1_28(%rip), %ymm2 vmulpd %ymm2, %ymm0, %ymm0 vmovapd %ymm0, 21632(%rbx) vmulpd %ymm2, %ymm1, %ymm4 vmovapd %ymm4, 21792(%rbx) vmovapd .LCPI1_56(%rip), %ymm10 vandpd %ymm10, %ymm0, %ymm7 vandpd %ymm10, %ymm13, %ymm2 vcmpltpd %ymm7, %ymm2, %ymm1 vextractf128 $1, %ymm1, %xmm0 vpshufd $8, %xmm0, %xmm3 vpshufd $8, %xmm1, %xmm0 vandpd %ymm10, %ymm4, %ymm15 vmovapd %ymm13, 20000(%rbx) vmovdqa %ymm12, %ymm13 vmovdqa %ymm8, %ymm12 vmovaps %xmm11, %xmm8 vmovaps %xmm14, %xmm11 vmovlhps %xmm3, %xmm0, %xmm14 vmovapd 31104(%rbx), %ymm0 vandpd %ymm10, %ymm0, %ymm3 vcmpltpd %ymm15, %ymm3, %ymm1 vextractf128 $1, %ymm1, %xmm0 vpshufd $8, %xmm0, %xmm6 vpshufd $8, %xmm1, %xmm0 vmovlhps %xmm6, %xmm0, %xmm1 vmovapd 26336(%rbx), %ymm0 vandpd %ymm10, %ymm0, %ymm9 vcmpltpd %ymm9, %ymm2, %ymm2 vextractf128 $1, %ymm2, %xmm0 vpshufd $8, %xmm0, %xmm6 vpshufd $8, %xmm2, %xmm0 vmovlhps %xmm6, %xmm0, %xmm2 vmovapd 26848(%rbx), %ymm0 vandpd %ymm10, %ymm0, %ymm6 vcmpltpd %ymm6, %ymm3, %ymm3 vextractf128 $1, %ymm3, %xmm0 vpshufd $8, %xmm0, %xmm0 vpshufd $8, %xmm3, %xmm3 vmovlhps %xmm0, %xmm3, %xmm0 vcmpltpd %ymm15, %ymm6, %ymm3 vmovdqa .LCPI1_21(%rip), %xmm4 vpshufb %xmm4, %xmm0, %xmm0 vmovdqa .LCPI1_20(%rip), %xmm5 vpshufb %xmm5, %xmm2, %xmm2 vpor %xmm2, %xmm0, %xmm2 vpshufb %xmm4, %xmm1, %xmm0 vpshufb %xmm5, %xmm14, %xmm1 vmovaps %xmm11, %xmm14 vmovaps %xmm8, %xmm11 vmovdqa %ymm12, %ymm8 vmovdqa %ymm13, %ymm12 vpor %xmm1, %xmm0, %xmm6 vextractf128 $1, %ymm3, %xmm0 vpshufd $8, %xmm0, %xmm0 vpshufd $8, %xmm3, %xmm1 vmovlhps %xmm0, %xmm1, %xmm10 vpshufd $8, %xmm12, %xmm0 vmovlhps %xmm11, %xmm0, %xmm3 vcmpltpd %ymm7, %ymm9, %ymm7 vpsllw $15, %xmm6, %xmm0 vpsraw $15, %xmm0, %xmm0 vmovdqa .LCPI1_17(%rip), %xmm1 vpxor %xmm1, %xmm0, %xmm6 vpsllw $15, %xmm2, %xmm0 vpsraw $15, %xmm0, %xmm0 vpxor %xmm1, %xmm0, %xmm0 vpor %xmm6, %xmm0, %xmm2 vextractf128 $1, %ymm7, %xmm0 vpshufd $8, %xmm0, %xmm0 vpshufd $8, %xmm7, %xmm6 vmovlhps %xmm0, %xmm6, %xmm6 vpshufb %xmm4, %xmm10, %xmm7 vpshufb %xmm4, %xmm3, %xmm1 vpshufd $8, %xmm8, %xmm0 vmovlhps %xmm14, %xmm0, %xmm0 vpshufb %xmm5, %xmm0, %xmm0 vpor %xmm0, %xmm1, %xmm0 vpsllw $15, %xmm0, %xmm0 vpsraw $15, %xmm0, %xmm0 vpand %xmm2, %xmm0, %xmm1 vpshufb %xmm5, %xmm6, %xmm0 vpunpckhbw %xmm0, %xmm1, %xmm2 vpor %xmm0, %xmm7, %xmm0 vpslld $31, %xmm2, %xmm2 vpsllw $15, %xmm0, %xmm0 vpsraw $15, %xmm0, %xmm7 vpmovsxdq %xmm2, %xmm3 vmovhlps %xmm2, %xmm2, %xmm0 vpmovsxdq %xmm0, %xmm0 vinsertf128 $1, %xmm0, %ymm3, %ymm2 vpunpckhbw %xmm0, %xmm7, %xmm0 vpslld $31, %xmm0, %xmm0 vpmovsxdq %xmm0, %xmm3 vmovhlps %xmm0, %xmm0, %xmm0 vpmovsxdq %xmm0, %xmm0 vinsertf128 $1, %xmm0, %ymm3, %ymm3 vpunpcklbw %xmm0, %xmm1, %xmm0 vpslld $31, %xmm0, %xmm0 vpmovsxdq %xmm0, %xmm1 vmovhlps %xmm0, %xmm0, %xmm0 vpmovsxdq %xmm0, %xmm6 vpunpcklbw %xmm0, %xmm7, %xmm7 vmovapd 21632(%rbx), %ymm0 vblendvpd %ymm3, 26336(%rbx), %ymm0, %ymm0 vmovapd 20000(%rbx), %ymm3 vblendvpd %ymm2, %ymm0, %ymm3, %ymm0 vmovapd .LCPI1_77(%rip), %ymm3 vmulpd %ymm3, %ymm0, %ymm10 vinsertf128 $1, %xmm6, %ymm1, %ymm1 vpslld $31, %xmm7, %xmm0 vpmovsxdq %xmm0, %xmm2 vmovhlps %xmm0, %xmm0, %xmm0 vpmovsxdq %xmm0, %xmm0 vinsertf128 $1, %xmm0, %ymm2, %ymm0 vmovapd 21792(%rbx), %ymm2 vblendvpd %ymm0, 26848(%rbx), %ymm2, %ymm0 vmovapd 31104(%rbx), %ymm2 vblendvpd %ymm1, %ymm0, %ymm2, %ymm0 vmulpd %ymm3, %ymm0, %ymm1 .LBB1_3568: vmovapd %ymm1, 21632(%rbx) vmovapd %ymm10, 21792(%rbx) vmovdqa 20832(%rbx), %xmm0 vpmovsxdq %xmm0, %xmm0 vmovdqa %xmm0, 26336(%rbx) vmovdqa 20096(%rbx), %xmm0 vpmovsxdq %xmm0, %xmm0 vmovdqa %xmm0, 20000(%rbx) vmovdqa 21920(%rbx), %xmm0 vpmovsxdq %xmm0, %xmm0 vmovdqa %xmm0, 19968(%rbx) vmovdqa 21888(%rbx), %xmm0 vpmovsxdq %xmm0, %xmm0 vmovdqa %xmm0, 19936(%rbx) vmovdqa 20064(%rbx), %xmm0 vpmovsxdq %xmm0, %xmm0 vmovdqa %xmm0, 19904(%rbx) vmovdqa 20032(%rbx), %xmm0 vpmovsxdq %xmm0, %xmm0 vmovdqa %xmm0, 19872(%rbx) vmovdqa 19840(%rbx), %xmm0 vpmovsxdq %xmm0, %xmm0 vmovdqa %xmm0, 19840(%rbx) vmovdqa 19808(%rbx), %xmm0 vpmovsxdq %xmm0, %xmm0 vmovdqa %xmm0, 19808(%rbx) leal 756(%r9,%rsi), %eax movslq %eax, %rdi movq %rdi, 20832(%rbx) vmovupd 33024(%rbx,%rdi,8), %xmm1 movq 20544(%rbx), %rdx vmovupd 33024(%rbx,%rdx,8), %xmm0 movq 32480(%rbx), %rax vmovupd 33056(%rbx,%rax,8), %xmm3 vmovupd 33056(%rbx,%rdx,8), %xmm4 vmovupd 33024(%rbx,%rax,8), %xmm5 vmovupd 33056(%rbx,%rdi,8), %xmm2 vinsertf128 $1, 33072(%rbx,%rdi,8), %ymm2, %ymm13 vinsertf128 $1, 33040(%rbx,%rdi,8), %ymm1, %ymm2 vinsertf128 $1, 33072(%rbx,%rdx,8), %ymm4, %ymm15 vinsertf128 $1, 33072(%rbx,%rax,8), %ymm3, %ymm7 vmovapd %ymm7, 21920(%rbx) vinsertf128 $1, 33040(%rbx,%rdx,8), %ymm0, %ymm4 vinsertf128 $1, 33040(%rbx,%rax,8), %ymm5, %ymm5 vmovapd %ymm5, 21888(%rbx) vpshufd $8, %xmm8, %xmm0 vmovlhps %xmm14, %xmm0, %xmm0 vpshufd $8, %xmm12, %xmm1 vmovlhps %xmm11, %xmm1, %xmm1 vsubpd %ymm5, %ymm2, %ymm3 vsubpd %ymm4, %ymm5, %ymm5 vsubpd %ymm7, %ymm13, %ymm6 vsubpd %ymm15, %ymm7, %ymm7 vmovapd .LCPI1_24(%rip), %ymm9 vmulpd %ymm9, %ymm7, %ymm10 vmulpd %ymm9, %ymm6, %ymm12 vmulpd %ymm9, %ymm5, %ymm11 vmulpd %ymm9, %ymm3, %ymm8 vmovapd %ymm8, 20096(%rbx) vmovdqa .LCPI1_21(%rip), %xmm6 vpshufb %xmm6, %xmm1, %xmm1 vmovdqa .LCPI1_20(%rip), %xmm7 vpshufb %xmm7, %xmm0, %xmm0 vpor %xmm0, %xmm1, %xmm5 vmulpd %ymm12, %ymm10, %ymm0 vxorpd %ymm3, %ymm3, %ymm3 vcmpnlepd %ymm3, %ymm0, %ymm14 vextractf128 $1, %ymm14, %xmm0 vpshufd $8, %xmm0, %xmm9 vpshufd $8, %xmm14, %xmm0 vmovlhps %xmm9, %xmm0, %xmm0 vpshufb %xmm7, %xmm0, %xmm0 vmulpd %ymm8, %ymm11, %ymm1 vcmpnlepd %ymm3, %ymm1, %ymm7 vmovapd %ymm7, 26848(%rbx) vextractf128 $1, %ymm7, %xmm1 vpshufd $8, %xmm1, %xmm3 vmovdqa %xmm3, 31104(%rbx) vpshufd $8, %xmm7, %xmm1 vmovlhps %xmm3, %xmm1, %xmm1 vpshufb %xmm6, %xmm1, %xmm1 vpor %xmm0, %xmm1, %xmm0 vpsllw $15, %xmm5, %xmm1 vpsraw $15, %xmm1, %xmm1 vpunpckhbw %xmm0, %xmm1, %xmm5 vpslld $31, %xmm5, %xmm5 vpmovsxdq %xmm5, %xmm3 vmovdqa %ymm3, 19776(%rbx) vmovhlps %xmm5, %xmm5, %xmm5 vpmovsxdq %xmm5, %xmm3 vmovdqa %xmm3, 19744(%rbx) vpxor .LCPI1_17(%rip), %xmm0, %xmm5 vpunpcklbw %xmm0, %xmm1, %xmm0 vpslld $31, %xmm0, %xmm0 vpmovzxwd %xmm5, %xmm1 vpslld $31, %xmm1, %xmm1 vpsrad $31, %xmm1, %xmm1 vpunpckhwd %xmm0, %xmm5, %xmm5 vpslld $31, %xmm5, %xmm5 vpsrad $31, %xmm5, %xmm5 vinsertf128 $1, %xmm5, %ymm1, %ymm1 vpmovsxdq %xmm0, %xmm3 vmovdqa %ymm3, 19712(%rbx) vmovhlps %xmm0, %xmm0, %xmm0 vpmovsxdq %xmm0, %xmm0 vmovdqa %xmm0, 19680(%rbx) vmovdqa 7968(%rbx), %ymm0 vptest %ymm0, %ymm1 vmovapd 8000(%rbx), %ymm0 vmovapd %ymm0, %ymm1 vmovapd %ymm0, %ymm3 jb .LBB1_3570 vsubpd %ymm4, %ymm2, %ymm0 vsubpd %ymm15, %ymm13, %ymm1 vmovapd .LCPI1_28(%rip), %ymm4 vmulpd %ymm4, %ymm1, %ymm1 vmovapd %ymm1, 20032(%rbx) vmulpd %ymm4, %ymm0, %ymm2 vmovapd %ymm2, 20064(%rbx) vmovapd .LCPI1_56(%rip), %ymm5 vandpd %ymm5, %ymm1, %ymm4 vmovapd %ymm10, %ymm8 vandpd %ymm5, %ymm8, %ymm10 vcmpltpd %ymm4, %ymm10, %ymm0 vextractf128 $1, %ymm0, %xmm1 vpshufd $8, %xmm1, %xmm1 vpshufd $8, %xmm0, %xmm0 vandpd %ymm5, %ymm2, %ymm15 vmovlhps %xmm1, %xmm0, %xmm7 vandpd %ymm5, %ymm11, %ymm6 vcmpltpd %ymm15, %ymm6, %ymm0 vextractf128 $1, %ymm0, %xmm1 vpshufd $8, %xmm1, %xmm1 vpshufd $8, %xmm0, %xmm0 vmovapd %ymm11, 19648(%rbx) vmovdqa %ymm14, %ymm11 vmovaps %xmm9, %xmm14 vmovlhps %xmm1, %xmm0, %xmm9 vandpd %ymm5, %ymm12, %ymm13 vcmpltpd %ymm13, %ymm10, %ymm0 vextractf128 $1, %ymm0, %xmm1 vpshufd $8, %xmm1, %xmm1 vpshufd $8, %xmm0, %xmm0 vmovlhps %xmm1, %xmm0, %xmm0 vmovapd 20096(%rbx), %ymm10 vandpd %ymm5, %ymm10, %ymm1 vcmpltpd %ymm1, %ymm6, %ymm5 vextractf128 $1, %ymm5, %xmm6 vpshufd $8, %xmm6, %xmm6 vpshufd $8, %xmm5, %xmm5 vmovlhps %xmm6, %xmm5, %xmm5 vcmpltpd %ymm15, %ymm1, %ymm1 vmovdqa .LCPI1_21(%rip), %xmm3 vpshufb %xmm3, %xmm5, %xmm5 vmovdqa .LCPI1_20(%rip), %xmm2 vpshufb %xmm2, %xmm0, %xmm0 vpor %xmm0, %xmm5, %xmm6 vpshufb %xmm3, %xmm9, %xmm0 vpshufb %xmm2, %xmm7, %xmm5 vpor %xmm5, %xmm0, %xmm5 vextractf128 $1, %ymm1, %xmm0 vpshufd $8, %xmm0, %xmm0 vpshufd $8, %xmm1, %xmm1 vmovlhps %xmm0, %xmm1, %xmm7 vmovdqa 26848(%rbx), %ymm0 vpshufd $8, %xmm0, %xmm0 vmovaps 31104(%rbx), %xmm1 vmovlhps %xmm1, %xmm0, %xmm0 vcmpltpd %ymm4, %ymm13, %ymm9 vpsllw $15, %xmm5, %xmm1 vpsraw $15, %xmm1, %xmm1 vmovdqa .LCPI1_17(%rip), %xmm5 vpxor %xmm5, %xmm1, %xmm1 vpsllw $15, %xmm6, %xmm4 vpsraw $15, %xmm4, %xmm4 vpxor %xmm5, %xmm4, %xmm4 vpor %xmm1, %xmm4, %xmm4 vextractf128 $1, %ymm9, %xmm1 vpshufd $8, %xmm1, %xmm1 vpshufd $8, %xmm9, %xmm5 vmovaps %xmm14, %xmm9 vmovdqa %ymm11, %ymm14 vmovlhps %xmm1, %xmm5, %xmm1 vpshufb %xmm3, %xmm7, %xmm6 vpshufb %xmm3, %xmm0, %xmm0 vpshufd $8, %xmm14, %xmm5 vmovlhps %xmm9, %xmm5, %xmm5 vpshufb %xmm2, %xmm5, %xmm5 vpor %xmm5, %xmm0, %xmm0 vpsllw $15, %xmm0, %xmm0 vpsraw $15, %xmm0, %xmm0 vpand %xmm4, %xmm0, %xmm4 vpshufb %xmm2, %xmm1, %xmm0 vpunpckhbw %xmm0, %xmm4, %xmm1 vpor %xmm0, %xmm6, %xmm5 vpslld $31, %xmm1, %xmm0 vpsllw $15, %xmm5, %xmm1 vpsraw $15, %xmm1, %xmm7 vpmovsxdq %xmm0, %xmm1 vmovhlps %xmm0, %xmm0, %xmm0 vpmovsxdq %xmm0, %xmm0 vinsertf128 $1, %xmm0, %ymm1, %ymm6 vpunpckhbw %xmm0, %xmm7, %xmm0 vpslld $31, %xmm0, %xmm1 vpmovsxdq %xmm1, %xmm0 vmovhlps %xmm1, %xmm1, %xmm1 vpmovsxdq %xmm1, %xmm1 vinsertf128 $1, %xmm1, %ymm0, %ymm0 vpunpcklbw %xmm0, %xmm4, %xmm1 vpslld $31, %xmm1, %xmm4 vpmovsxdq %xmm4, %xmm1 vmovhlps %xmm4, %xmm4, %xmm4 vpmovsxdq %xmm4, %xmm4 vpunpcklbw %xmm0, %xmm7, %xmm5 vmovapd 20032(%rbx), %ymm2 vblendvpd %ymm0, %ymm12, %ymm2, %ymm0 vblendvpd %ymm6, %ymm0, %ymm8, %ymm0 vmovapd .LCPI1_77(%rip), %ymm6 vmulpd %ymm6, %ymm0, %ymm3 vinsertf128 $1, %xmm4, %ymm1, %ymm0 vpslld $31, %xmm5, %xmm2 vpmovsxdq %xmm2, %xmm1 vmovhlps %xmm2, %xmm2, %xmm2 vpmovsxdq %xmm2, %xmm2 vinsertf128 $1, %xmm2, %ymm1, %ymm1 vmovapd 20064(%rbx), %ymm2 vblendvpd %ymm1, %ymm10, %ymm2, %ymm1 vmovapd 19648(%rbx), %ymm2 vblendvpd %ymm0, %ymm1, %ymm2, %ymm0 vmulpd %ymm6, %ymm0, %ymm1 .LBB1_3570: vmovapd %ymm1, 20064(%rbx) vmovapd %ymm3, 20096(%rbx) vmovaps 22720(%rbx), %ymm0 vinsertf128 $1, 26336(%rbx), %ymm0, %ymm0 vmovaps %ymm0, 20032(%rbx) vmovaps 22688(%rbx), %ymm0 vinsertf128 $1, 20000(%rbx), %ymm0, %ymm0 vmovaps %ymm0, 20000(%rbx) vmovaps 22528(%rbx), %ymm0 vinsertf128 $1, 19968(%rbx), %ymm0, %ymm0 vmovaps %ymm0, 19968(%rbx) vmovaps 22016(%rbx), %ymm0 vinsertf128 $1, 19936(%rbx), %ymm0, %ymm0 vmovaps %ymm0, 22016(%rbx) vmovaps 21856(%rbx), %ymm0 vinsertf128 $1, 19904(%rbx), %ymm0, %ymm0 vmovaps %ymm0, 19936(%rbx) vmovaps 21824(%rbx), %ymm0 vinsertf128 $1, 19872(%rbx), %ymm0, %ymm0 vmovaps %ymm0, 21824(%rbx) vmovaps 20320(%rbx), %ymm0 vinsertf128 $1, 19840(%rbx), %ymm0, %ymm0 vmovaps %ymm0, 19904(%rbx) vmovaps 20128(%rbx), %ymm0 vinsertf128 $1, 19808(%rbx), %ymm0, %ymm0 vmovaps %ymm0, 19872(%rbx) vmovaps 19776(%rbx), %ymm0 vinsertf128 $1, 19744(%rbx), %ymm0, %ymm0 vmovaps %ymm0, 19840(%rbx) vmovaps 19712(%rbx), %ymm0 vinsertf128 $1, 19680(%rbx), %ymm0, %ymm0 vmovaps %ymm0, 19808(%rbx) leal 900(%r9,%rsi), %eax movslq %eax, %rdi movq %rdi, 20320(%rbx) vmovupd 33024(%rbx,%rdi,8), %xmm1 movq 20576(%rbx), %rdx vmovupd 33024(%rbx,%rdx,8), %xmm0 movq 32512(%rbx), %rax vmovupd 33056(%rbx,%rax,8), %xmm4 vmovupd 33056(%rbx,%rdx,8), %xmm2 vmovupd 33024(%rbx,%rax,8), %xmm5 vmovupd 33056(%rbx,%rdi,8), %xmm6 vinsertf128 $1, 33072(%rbx,%rdi,8), %ymm6, %ymm7 vinsertf128 $1, 33040(%rbx,%rdi,8), %ymm1, %ymm13 vinsertf128 $1, 33072(%rbx,%rdx,8), %ymm2, %ymm2 vinsertf128 $1, 33072(%rbx,%rax,8), %ymm4, %ymm6 vmovapd %ymm6, 22720(%rbx) vinsertf128 $1, 33040(%rbx,%rdx,8), %ymm0, %ymm10 vinsertf128 $1, 33040(%rbx,%rax,8), %ymm5, %ymm4 vmovapd %ymm4, 22688(%rbx) vpshufd $8, %xmm14, %xmm0 vmovlhps %xmm9, %xmm0, %xmm0 vmovdqa 26848(%rbx), %ymm1 vpshufd $8, %xmm1, %xmm1 vmovaps 31104(%rbx), %xmm3 vmovlhps %xmm3, %xmm1, %xmm1 vsubpd %ymm4, %ymm13, %ymm3 vsubpd %ymm10, %ymm4, %ymm4 vsubpd %ymm6, %ymm7, %ymm5 vsubpd %ymm2, %ymm6, %ymm6 vmovapd .LCPI1_24(%rip), %ymm8 vmulpd %ymm8, %ymm6, %ymm11 vmulpd %ymm8, %ymm5, %ymm14 vmulpd %ymm8, %ymm4, %ymm9 vmulpd %ymm8, %ymm3, %ymm12 vmovdqa .LCPI1_21(%rip), %xmm5 vpshufb %xmm5, %xmm1, %xmm1 vmovdqa .LCPI1_20(%rip), %xmm3 vpshufb %xmm3, %xmm0, %xmm0 vpor %xmm0, %xmm1, %xmm1 vmulpd %ymm14, %ymm11, %ymm0 vxorpd %ymm4, %ymm4, %ymm4 vcmpnlepd %ymm4, %ymm0, %ymm8 vextractf128 $1, %ymm8, %xmm0 vpshufd $8, %xmm0, %xmm6 vmovdqa %xmm6, 26848(%rbx) vpshufd $8, %xmm8, %xmm0 vmovlhps %xmm6, %xmm0, %xmm0 vpshufb %xmm3, %xmm0, %xmm3 vmulpd %ymm12, %ymm9, %ymm0 vmovapd %ymm9, %ymm6 vcmpnlepd %ymm4, %ymm0, %ymm9 vmovapd %ymm9, 26336(%rbx) vextractf128 $1, %ymm9, %xmm4 vpshufd $8, %xmm4, %xmm0 vmovdqa %xmm0, 31104(%rbx) vpshufd $8, %xmm9, %xmm4 vmovlhps %xmm0, %xmm4, %xmm4 vpshufb %xmm5, %xmm4, %xmm4 vpor %xmm3, %xmm4, %xmm3 vpsllw $15, %xmm1, %xmm1 vpsraw $15, %xmm1, %xmm1 vpunpckhbw %xmm0, %xmm1, %xmm4 vpslld $31, %xmm4, %xmm5 vpmovsxdq %xmm5, %xmm4 vmovhlps %xmm5, %xmm5, %xmm5 vpmovsxdq %xmm5, %xmm5 vinsertf128 $1, %xmm5, %ymm4, %ymm0 vmovaps %ymm0, 19776(%rbx) vpxor .LCPI1_17(%rip), %xmm3, %xmm3 vpunpcklbw %xmm0, %xmm1, %xmm1 vpslld $31, %xmm1, %xmm1 vpmovzxwd %xmm3, %xmm4 vpslld $31, %xmm4, %xmm4 vpsrad $31, %xmm4, %xmm4 vpunpckhwd %xmm0, %xmm3, %xmm3 vpslld $31, %xmm3, %xmm3 vpsrad $31, %xmm3, %xmm3 vinsertf128 $1, %xmm3, %ymm4, %ymm3 vpmovsxdq %xmm1, %xmm4 vmovhlps %xmm1, %xmm1, %xmm1 vpmovsxdq %xmm1, %xmm1 vinsertf128 $1, %xmm1, %ymm4, %ymm0 vmovaps %ymm0, 19744(%rbx) vmovdqa 7904(%rbx), %ymm1 vptest %ymm1, %ymm3 vmovapd 7936(%rbx), %ymm1 vmovapd %ymm1, %ymm0 vmovapd %ymm1, %ymm15 jb .LBB1_3572 vsubpd %ymm10, %ymm13, %ymm1 vsubpd %ymm2, %ymm7, %ymm2 vmovapd .LCPI1_28(%rip), %ymm3 vmulpd %ymm3, %ymm2, %ymm2 vmovapd %ymm2, 21856(%rbx) vmulpd %ymm3, %ymm1, %ymm4 vmovapd %ymm4, 22528(%rbx) vmovdqa %ymm8, %ymm0 vmovapd .LCPI1_56(%rip), %ymm8 vandpd %ymm8, %ymm2, %ymm2 vandpd %ymm8, %ymm11, %ymm15 vcmpltpd %ymm2, %ymm15, %ymm1 vextractf128 $1, %ymm1, %xmm3 vpshufd $8, %xmm3, %xmm3 vpshufd $8, %xmm1, %xmm1 vandpd %ymm8, %ymm4, %ymm13 vmovlhps %xmm3, %xmm1, %xmm5 vmovapd %ymm6, %ymm9 vandpd %ymm8, %ymm9, %ymm3 vcmpltpd %ymm13, %ymm3, %ymm1 vextractf128 $1, %ymm1, %xmm4 vpshufd $8, %xmm4, %xmm4 vpshufd $8, %xmm1, %xmm1 vmovlhps %xmm4, %xmm1, %xmm1 vandpd %ymm8, %ymm14, %ymm10 vcmpltpd %ymm10, %ymm15, %ymm4 vextractf128 $1, %ymm4, %xmm6 vpshufd $8, %xmm6, %xmm6 vpshufd $8, %xmm4, %xmm4 vmovlhps %xmm6, %xmm4, %xmm4 vandpd %ymm8, %ymm12, %ymm15 vmovdqa %ymm0, %ymm8 vcmpltpd %ymm15, %ymm3, %ymm3 vextractf128 $1, %ymm3, %xmm6 vpshufd $8, %xmm6, %xmm6 vpshufd $8, %xmm3, %xmm3 vmovlhps %xmm6, %xmm3, %xmm3 vcmpltpd %ymm13, %ymm15, %ymm13 vmovdqa .LCPI1_21(%rip), %xmm6 vpshufb %xmm6, %xmm3, %xmm3 vmovdqa .LCPI1_20(%rip), %xmm0 vpshufb %xmm0, %xmm4, %xmm4 vpor %xmm4, %xmm3, %xmm3 vpshufb %xmm6, %xmm1, %xmm1 vpshufb %xmm0, %xmm5, %xmm4 vpor %xmm4, %xmm1, %xmm4 vextractf128 $1, %ymm13, %xmm1 vpshufd $8, %xmm1, %xmm1 vpshufd $8, %xmm13, %xmm5 vmovlhps %xmm1, %xmm5, %xmm1 vmovdqa 26336(%rbx), %ymm5 vpshufd $8, %xmm5, %xmm5 vmovaps 31104(%rbx), %xmm7 vmovlhps %xmm7, %xmm5, %xmm5 vcmpltpd %ymm2, %ymm10, %ymm10 vpsllw $15, %xmm4, %xmm2 vpsraw $15, %xmm2, %xmm2 vmovdqa .LCPI1_17(%rip), %xmm4 vpxor %xmm4, %xmm2, %xmm2 vpsllw $15, %xmm3, %xmm3 vpsraw $15, %xmm3, %xmm3 vpxor %xmm4, %xmm3, %xmm3 vpor %xmm2, %xmm3, %xmm2 vextractf128 $1, %ymm10, %xmm3 vpshufd $8, %xmm3, %xmm3 vpshufd $8, %xmm10, %xmm4 vmovlhps %xmm3, %xmm4, %xmm4 vpshufb %xmm6, %xmm1, %xmm3 vpshufb %xmm6, %xmm5, %xmm1 vpshufd $8, %xmm8, %xmm5 vmovaps 26848(%rbx), %xmm6 vmovlhps %xmm6, %xmm5, %xmm5 vpshufb %xmm0, %xmm5, %xmm5 vpor %xmm5, %xmm1, %xmm1 vpsllw $15, %xmm1, %xmm1 vpsraw $15, %xmm1, %xmm1 vpand %xmm2, %xmm1, %xmm1 vpshufb %xmm0, %xmm4, %xmm2 vpunpckhbw %xmm0, %xmm1, %xmm4 vpor %xmm2, %xmm3, %xmm2 vpslld $31, %xmm4, %xmm3 vpsllw $15, %xmm2, %xmm2 vpsraw $15, %xmm2, %xmm2 vpmovsxdq %xmm3, %xmm4 vmovhlps %xmm3, %xmm3, %xmm3 vpmovsxdq %xmm3, %xmm3 vinsertf128 $1, %xmm3, %ymm4, %ymm3 vpunpckhbw %xmm0, %xmm2, %xmm4 vpslld $31, %xmm4, %xmm5 vpmovsxdq %xmm5, %xmm4 vmovhlps %xmm5, %xmm5, %xmm5 vpmovsxdq %xmm5, %xmm5 vinsertf128 $1, %xmm5, %ymm4, %ymm4 vpunpcklbw %xmm0, %xmm1, %xmm1 vpslld $31, %xmm1, %xmm5 vpmovsxdq %xmm5, %xmm1 vmovhlps %xmm5, %xmm5, %xmm5 vpmovsxdq %xmm5, %xmm5 vpunpcklbw %xmm0, %xmm2, %xmm2 vmovapd 21856(%rbx), %ymm0 vblendvpd %ymm4, %ymm14, %ymm0, %ymm4 vblendvpd %ymm3, %ymm4, %ymm11, %ymm3 vmovapd .LCPI1_77(%rip), %ymm4 vmulpd %ymm4, %ymm3, %ymm15 vinsertf128 $1, %xmm5, %ymm1, %ymm1 vpslld $31, %xmm2, %xmm3 vpmovsxdq %xmm3, %xmm2 vmovhlps %xmm3, %xmm3, %xmm3 vpmovsxdq %xmm3, %xmm3 vinsertf128 $1, %xmm3, %ymm2, %ymm2 vmovapd 22528(%rbx), %ymm0 vblendvpd %ymm2, %ymm12, %ymm0, %ymm2 vblendvpd %ymm1, %ymm2, %ymm9, %ymm1 vmulpd %ymm4, %ymm1, %ymm0 .LBB1_3572: vmovapd %ymm0, 19712(%rbx) vmovapd .LCPI1_25(%rip), %ymm9 vmovapd 20032(%rbx), %ymm0 vblendvpd %ymm0, 26240(%rbx), %ymm9, %ymm0 vmovapd %ymm0, 22528(%rbx) vmovapd 20000(%rbx), %ymm0 vblendvpd %ymm0, 23968(%rbx), %ymm9, %ymm0 vmovapd %ymm0, 23968(%rbx) vmovapd 19968(%rbx), %ymm0 vblendvpd %ymm0, 23872(%rbx), %ymm9, %ymm0 vmovapd %ymm0, 21856(%rbx) vmovapd 22016(%rbx), %ymm0 vblendvpd %ymm0, 23840(%rbx), %ymm9, %ymm0 vmovapd %ymm0, 23840(%rbx) vmovapd 19936(%rbx), %ymm0 vblendvpd %ymm0, 22656(%rbx), %ymm9, %ymm0 vmovapd %ymm0, 22656(%rbx) vmovapd 21824(%rbx), %ymm0 vblendvpd %ymm0, 22624(%rbx), %ymm9, %ymm0 vmovapd %ymm0, 22624(%rbx) vmovapd 19904(%rbx), %ymm0 vblendvpd %ymm0, 21984(%rbx), %ymm9, %ymm0 vmovapd %ymm0, 20128(%rbx) vmovapd 19872(%rbx), %ymm0 vblendvpd %ymm0, 21952(%rbx), %ymm9, %ymm0 vmovapd %ymm0, 20032(%rbx) vmovapd 19840(%rbx), %ymm0 vblendvpd %ymm0, 21792(%rbx), %ymm9, %ymm0 vmovapd %ymm0, 21792(%rbx) vmovapd 19808(%rbx), %ymm0 vblendvpd %ymm0, 21632(%rbx), %ymm9, %ymm0 vmovapd %ymm0, 21632(%rbx) vmovapd 19776(%rbx), %ymm0 vblendvpd %ymm0, 20096(%rbx), %ymm9, %ymm0 vmovapd %ymm0, 20096(%rbx) vmovapd 19744(%rbx), %ymm0 vblendvpd %ymm0, 20064(%rbx), %ymm9, %ymm0 vmovapd %ymm0, 20064(%rbx) leal 1044(%r9,%rsi), %eax movslq %eax, %rsi movq %rsi, 18496(%rbx) vmovupd 33024(%rbx,%rsi,8), %xmm2 movq 20608(%rbx), %rdi vmovupd 33024(%rbx,%rdi,8), %xmm1 movq 32640(%rbx), %rax vmovupd 33056(%rbx,%rax,8), %xmm4 vmovupd 33056(%rbx,%rdi,8), %xmm5 vmovupd 33024(%rbx,%rax,8), %xmm6 vmovupd 33056(%rbx,%rsi,8), %xmm3 vinsertf128 $1, 33072(%rbx,%rsi,8), %ymm3, %ymm14 vinsertf128 $1, 33040(%rbx,%rsi,8), %ymm2, %ymm10 vinsertf128 $1, 33072(%rbx,%rdi,8), %ymm5, %ymm13 vinsertf128 $1, 33072(%rbx,%rax,8), %ymm4, %ymm7 vmovapd %ymm7, 21824(%rbx) vinsertf128 $1, 33040(%rbx,%rdi,8), %ymm1, %ymm5 vinsertf128 $1, 33040(%rbx,%rax,8), %ymm6, %ymm4 vmovapd %ymm4, 23872(%rbx) vpshufd $8, %xmm8, %xmm1 vmovaps 26848(%rbx), %xmm0 vmovlhps %xmm0, %xmm1, %xmm1 vmovdqa 26336(%rbx), %ymm0 vpshufd $8, %xmm0, %xmm0 vmovaps 31104(%rbx), %xmm2 vmovlhps %xmm2, %xmm0, %xmm0 vsubpd %ymm4, %ymm10, %ymm2 vsubpd %ymm5, %ymm4, %ymm4 vsubpd %ymm7, %ymm14, %ymm6 vsubpd %ymm13, %ymm7, %ymm7 vmovapd .LCPI1_24(%rip), %ymm8 vmulpd %ymm8, %ymm7, %ymm11 vmulpd %ymm8, %ymm6, %ymm3 vmovapd %ymm3, 21984(%rbx) vmulpd %ymm8, %ymm4, %ymm12 vmulpd %ymm8, %ymm2, %ymm8 vmovapd %ymm8, 22016(%rbx) vmovdqa .LCPI1_21(%rip), %xmm6 vpshufb %xmm6, %xmm0, %xmm0 vmovdqa .LCPI1_20(%rip), %xmm2 vpshufb %xmm2, %xmm1, %xmm1 vpor %xmm1, %xmm0, %xmm0 vmulpd %ymm3, %ymm11, %ymm1 vxorpd %ymm4, %ymm4, %ymm4 vcmpnlepd %ymm4, %ymm1, %ymm7 vmovapd %ymm7, 31104(%rbx) vextractf128 $1, %ymm7, %xmm1 vpshufd $8, %xmm1, %xmm3 vmovdqa %xmm3, 26848(%rbx) vpshufd $8, %xmm7, %xmm1 vmovlhps %xmm3, %xmm1, %xmm1 vpshufb %xmm2, %xmm1, %xmm1 vmulpd %ymm8, %ymm12, %ymm2 vmovapd %ymm12, %ymm7 vcmpnlepd %ymm4, %ymm2, %ymm4 vmovapd %ymm4, 26240(%rbx) vextractf128 $1, %ymm4, %xmm2 vpshufd $8, %xmm2, %xmm3 vmovdqa %xmm3, 26336(%rbx) vpshufd $8, %xmm4, %xmm2 vmovlhps %xmm3, %xmm2, %xmm2 vpshufb %xmm6, %xmm2, %xmm2 vpor %xmm1, %xmm2, %xmm1 vpsllw $15, %xmm0, %xmm0 vpsraw $15, %xmm0, %xmm0 vpunpckhbw %xmm0, %xmm0, %xmm2 vpslld $31, %xmm2, %xmm6 vpmovsxdq %xmm6, %xmm2 vmovhlps %xmm6, %xmm6, %xmm6 vpmovsxdq %xmm6, %xmm6 vinsertf128 $1, %xmm6, %ymm2, %ymm2 vblendvpd %ymm2, %ymm15, %ymm9, %ymm2 vmovapd %ymm2, 20000(%rbx) vpxor .LCPI1_17(%rip), %xmm1, %xmm1 vpunpcklbw %xmm0, %xmm0, %xmm0 vpslld $31, %xmm0, %xmm0 vpmovzxwd %xmm1, %xmm2 vpslld $31, %xmm2, %xmm2 vpsrad $31, %xmm2, %xmm2 vpunpckhwd %xmm0, %xmm1, %xmm1 vpslld $31, %xmm1, %xmm1 vpsrad $31, %xmm1, %xmm1 vinsertf128 $1, %xmm1, %ymm2, %ymm1 vpmovsxdq %xmm0, %xmm2 vmovhlps %xmm0, %xmm0, %xmm0 vpmovsxdq %xmm0, %xmm0 vinsertf128 $1, %xmm0, %ymm2, %ymm0 vblendvpd %ymm0, 19712(%rbx), %ymm9, %ymm0 vmovapd %ymm0, 19968(%rbx) vmovdqa 7840(%rbx), %ymm0 vptest %ymm0, %ymm1 vmovapd 7872(%rbx), %ymm0 vmovapd %ymm0, %ymm12 vmovapd %ymm0, %ymm9 movq 25984(%rbx), %r8 jb .LBB1_3574 vsubpd %ymm5, %ymm10, %ymm0 vsubpd %ymm13, %ymm14, %ymm1 vmovapd .LCPI1_28(%rip), %ymm2 vmulpd %ymm2, %ymm1, %ymm9 vmulpd %ymm2, %ymm0, %ymm2 vmovapd %ymm2, 21952(%rbx) vmovapd .LCPI1_56(%rip), %ymm15 vandpd %ymm15, %ymm9, %ymm3 vmovapd %ymm11, %ymm8 vandpd %ymm15, %ymm8, %ymm13 vcmpltpd %ymm3, %ymm13, %ymm0 vextractf128 $1, %ymm0, %xmm1 vpshufd $8, %xmm1, %xmm1 vpshufd $8, %xmm0, %xmm0 vandpd %ymm15, %ymm2, %ymm10 vmovlhps %xmm1, %xmm0, %xmm0 vmovapd %ymm7, %ymm14 vandpd %ymm15, %ymm14, %ymm6 vcmpltpd %ymm10, %ymm6, %ymm1 vextractf128 $1, %ymm1, %xmm2 vpshufd $8, %xmm2, %xmm2 vpshufd $8, %xmm1, %xmm1 vmovlhps %xmm2, %xmm1, %xmm1 vmovapd 21984(%rbx), %ymm12 vandpd %ymm15, %ymm12, %ymm5 vcmpltpd %ymm5, %ymm13, %ymm2 vextractf128 $1, %ymm2, %xmm7 vpshufd $8, %xmm7, %xmm7 vpshufd $8, %xmm2, %xmm2 vmovlhps %xmm7, %xmm2, %xmm2 vmovapd 22016(%rbx), %ymm11 vandpd %ymm15, %ymm11, %ymm13 vcmpltpd %ymm13, %ymm6, %ymm6 vextractf128 $1, %ymm6, %xmm7 vpshufd $8, %xmm7, %xmm7 vpshufd $8, %xmm6, %xmm6 vmovlhps %xmm7, %xmm6, %xmm6 vcmpltpd %ymm10, %ymm13, %ymm10 vmovdqa .LCPI1_21(%rip), %xmm7 vpshufb %xmm7, %xmm6, %xmm6 vmovdqa .LCPI1_20(%rip), %xmm4 vpshufb %xmm4, %xmm2, %xmm2 vpor %xmm2, %xmm6, %xmm6 vpshufb %xmm7, %xmm1, %xmm1 vpshufb %xmm4, %xmm0, %xmm0 vpor %xmm0, %xmm1, %xmm2 vextractf128 $1, %ymm10, %xmm0 vpshufd $8, %xmm0, %xmm0 vpshufd $8, %xmm10, %xmm1 vmovlhps %xmm0, %xmm1, %xmm10 vmovdqa 26240(%rbx), %ymm0 vpshufd $8, %xmm0, %xmm1 vmovaps 26336(%rbx), %xmm0 vmovlhps %xmm0, %xmm1, %xmm1 vcmpltpd %ymm3, %ymm5, %ymm5 vpsllw $15, %xmm2, %xmm2 vpsraw $15, %xmm2, %xmm2 vmovdqa .LCPI1_17(%rip), %xmm0 vpxor %xmm0, %xmm2, %xmm2 vpsllw $15, %xmm6, %xmm3 vpsraw $15, %xmm3, %xmm3 vpxor %xmm0, %xmm3, %xmm3 vpor %xmm2, %xmm3, %xmm3 vextractf128 $1, %ymm5, %xmm2 vpshufd $8, %xmm2, %xmm2 vpshufd $8, %xmm5, %xmm5 vmovlhps %xmm2, %xmm5, %xmm6 vpshufb %xmm7, %xmm10, %xmm5 vpshufb %xmm7, %xmm1, %xmm0 vmovdqa 31104(%rbx), %ymm1 vpshufd $8, %xmm1, %xmm1 vmovaps 26848(%rbx), %xmm2 vmovlhps %xmm2, %xmm1, %xmm1 vpshufb %xmm4, %xmm1, %xmm1 vpor %xmm1, %xmm0, %xmm0 vpsllw $15, %xmm0, %xmm0 vpsraw $15, %xmm0, %xmm0 vpand %xmm3, %xmm0, %xmm0 vpshufb %xmm4, %xmm6, %xmm1 vpunpckhbw %xmm0, %xmm0, %xmm2 vpor %xmm1, %xmm5, %xmm1 vpslld $31, %xmm2, %xmm2 vpsllw $15, %xmm1, %xmm1 vpsraw $15, %xmm1, %xmm1 vpmovsxdq %xmm2, %xmm3 vmovhlps %xmm2, %xmm2, %xmm2 vpmovsxdq %xmm2, %xmm2 vinsertf128 $1, %xmm2, %ymm3, %ymm3 vpunpckhbw %xmm0, %xmm1, %xmm2 vpslld $31, %xmm2, %xmm5 vpmovsxdq %xmm5, %xmm2 vmovhlps %xmm5, %xmm5, %xmm5 vpmovsxdq %xmm5, %xmm5 vinsertf128 $1, %xmm5, %ymm2, %ymm2 vpunpcklbw %xmm0, %xmm0, %xmm0 vpslld $31, %xmm0, %xmm5 vpmovsxdq %xmm5, %xmm0 vmovhlps %xmm5, %xmm5, %xmm5 vpmovsxdq %xmm5, %xmm5 vpunpcklbw %xmm0, %xmm1, %xmm1 vblendvpd %ymm2, %ymm12, %ymm9, %ymm2 vblendvpd %ymm3, %ymm2, %ymm8, %ymm2 vmovapd .LCPI1_77(%rip), %ymm3 vmulpd %ymm3, %ymm2, %ymm9 vinsertf128 $1, %xmm5, %ymm0, %ymm0 vpslld $31, %xmm1, %xmm2 vpmovsxdq %xmm2, %xmm1 vmovhlps %xmm2, %xmm2, %xmm2 vpmovsxdq %xmm2, %xmm2 vinsertf128 $1, %xmm2, %ymm1, %ymm1 vmovapd 21952(%rbx), %ymm2 vblendvpd %ymm1, %ymm11, %ymm2, %ymm1 vblendvpd %ymm0, %ymm1, %ymm14, %ymm0 vmulpd %ymm3, %ymm0, %ymm12 .LBB1_3574: vmovapd 26144(%rbx), %ymm0 vaddpd 22528(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 22016(%rbx) vmovapd 26176(%rbx), %ymm0 vaddpd 23968(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 21984(%rbx) vmovapd 26112(%rbx), %ymm0 vaddpd 21856(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 21952(%rbx) vmovapd 24000(%rbx), %ymm0 vaddpd 23840(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 21856(%rbx) vmovapd 23936(%rbx), %ymm0 vaddpd 22656(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 23968(%rbx) vmovapd 23904(%rbx), %ymm0 vaddpd 22624(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 22656(%rbx) vmovapd 23808(%rbx), %ymm0 vaddpd 20128(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 24000(%rbx) vmovapd 22752(%rbx), %ymm0 vaddpd 20032(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 22752(%rbx) vmovapd 22592(%rbx), %ymm0 vaddpd 21792(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 23808(%rbx) vmovapd 22560(%rbx), %ymm0 vaddpd 21632(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 22624(%rbx) vmovapd 21920(%rbx), %ymm0 vaddpd 20096(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 22528(%rbx) vmovapd 21888(%rbx), %ymm0 vaddpd 20064(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 23936(%rbx) vmovapd 22720(%rbx), %ymm0 vaddpd 20000(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 23840(%rbx) vmovapd 22688(%rbx), %ymm0 vaddpd 19968(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 26176(%rbx) movl 18624(%rbx), %eax leal 1188(%r9,%rax), %eax movslq %eax, %rdx movq %rdx, 18528(%rbx) vmovupd 33024(%rbx,%rdx,8), %xmm1 movq 20640(%rbx), %rsi vmovupd 33024(%rbx,%rsi,8), %xmm5 movq 32736(%rbx), %rax vmovupd 33056(%rbx,%rax,8), %xmm6 vmovupd 33056(%rbx,%rsi,8), %xmm2 vmovupd 33024(%rbx,%rax,8), %xmm7 vmovupd 33056(%rbx,%rdx,8), %xmm0 vinsertf128 $1, 33072(%rbx,%rdx,8), %ymm0, %ymm11 vinsertf128 $1, 33040(%rbx,%rdx,8), %ymm1, %ymm1 vinsertf128 $1, 33072(%rbx,%rsi,8), %ymm2, %ymm3 vinsertf128 $1, 33072(%rbx,%rax,8), %ymm6, %ymm10 vmovapd %ymm10, 23904(%rbx) vinsertf128 $1, 33040(%rbx,%rsi,8), %ymm5, %ymm14 vinsertf128 $1, 33040(%rbx,%rax,8), %ymm7, %ymm6 vmovapd %ymm6, 22720(%rbx) vmovdqa 31104(%rbx), %ymm0 vpshufd $8, %xmm0, %xmm2 vmovaps 26848(%rbx), %xmm0 vmovlhps %xmm0, %xmm2, %xmm2 vmovdqa 26240(%rbx), %ymm0 vpshufd $8, %xmm0, %xmm4 vmovaps 26336(%rbx), %xmm0 vmovlhps %xmm0, %xmm4, %xmm4 vsubpd %ymm6, %ymm1, %ymm5 vsubpd %ymm14, %ymm6, %ymm6 vsubpd %ymm10, %ymm11, %ymm7 vsubpd %ymm3, %ymm10, %ymm8 vmovapd .LCPI1_24(%rip), %ymm13 vmulpd %ymm13, %ymm8, %ymm0 vmovapd %ymm0, 22688(%rbx) vmulpd %ymm13, %ymm7, %ymm8 vmovapd %ymm8, 22592(%rbx) vmulpd %ymm13, %ymm6, %ymm10 vmulpd %ymm13, %ymm5, %ymm13 vmovapd %ymm13, 26240(%rbx) vmovdqa .LCPI1_21(%rip), %xmm7 vpshufb %xmm7, %xmm4, %xmm4 vmovdqa .LCPI1_20(%rip), %xmm5 vpshufb %xmm5, %xmm2, %xmm2 vpor %xmm2, %xmm4, %xmm4 vmulpd %ymm8, %ymm0, %ymm2 vxorpd %ymm6, %ymm6, %ymm6 vcmpnlepd %ymm6, %ymm2, %ymm8 vmovapd %ymm8, 31104(%rbx) vextractf128 $1, %ymm8, %xmm2 vpshufd $8, %xmm2, %xmm0 vmovdqa %xmm0, 26848(%rbx) vpshufd $8, %xmm8, %xmm2 vmovlhps %xmm0, %xmm2, %xmm2 vpshufb %xmm5, %xmm2, %xmm2 vmulpd %ymm13, %ymm10, %ymm5 vcmpnlepd %ymm6, %ymm5, %ymm0 vmovapd %ymm0, 26336(%rbx) vextractf128 $1, %ymm0, %xmm5 vpshufd $8, %xmm5, %xmm6 vmovdqa %xmm6, 26112(%rbx) vpshufd $8, %xmm0, %xmm5 vmovlhps %xmm6, %xmm5, %xmm5 vpshufb %xmm7, %xmm5, %xmm5 vmovdqa %xmm7, %xmm15 vpor %xmm2, %xmm5, %xmm5 vpsllw $15, %xmm4, %xmm2 vpsraw $15, %xmm2, %xmm2 vpunpckhbw %xmm0, %xmm2, %xmm4 vpslld $31, %xmm4, %xmm7 vpmovsxdq %xmm7, %xmm4 vmovhlps %xmm7, %xmm7, %xmm6 vpmovsxdq %xmm6, %xmm6 vinsertf128 $1, %xmm6, %ymm4, %ymm4 vmovapd .LCPI1_25(%rip), %ymm8 vblendvpd %ymm4, %ymm9, %ymm8, %ymm4 vpxor .LCPI1_17(%rip), %xmm5, %xmm7 vpunpcklbw %xmm0, %xmm2, %xmm2 vpslld $31, %xmm2, %xmm5 vpmovzxwd %xmm7, %xmm2 vpslld $31, %xmm2, %xmm2 vpsrad $31, %xmm2, %xmm2 vpunpckhwd %xmm0, %xmm7, %xmm6 vpslld $31, %xmm6, %xmm6 vpsrad $31, %xmm6, %xmm6 vinsertf128 $1, %xmm6, %ymm2, %ymm2 vmovapd 21824(%rbx), %ymm6 vaddpd %ymm4, %ymm6, %ymm4 vmovapd %ymm4, 26144(%rbx) vpmovsxdq %xmm5, %xmm4 vmovhlps %xmm5, %xmm5, %xmm5 vpmovsxdq %xmm5, %xmm5 vinsertf128 $1, %xmm5, %ymm4, %ymm4 vblendvpd %ymm4, %ymm12, %ymm8, %ymm4 vmovapd 23872(%rbx), %ymm5 vaddpd %ymm4, %ymm5, %ymm4 vmovapd %ymm4, 23872(%rbx) vmovdqa 7776(%rbx), %ymm4 vptest %ymm4, %ymm2 vmovapd 7808(%rbx), %ymm2 vmovapd %ymm2, %ymm9 vmovapd %ymm2, %ymm5 movq 31648(%rbx), %r10 movq 31584(%rbx), %rdx movq 31552(%rbx), %rsi movq 26016(%rbx), %r9 jb .LBB1_3576 vsubpd %ymm14, %ymm1, %ymm1 vsubpd %ymm3, %ymm11, %ymm0 vmovapd .LCPI1_28(%rip), %ymm2 vmulpd %ymm2, %ymm0, %ymm0 vmovapd %ymm0, 21920(%rbx) vmulpd %ymm2, %ymm1, %ymm3 vmovapd %ymm3, 22560(%rbx) vmovapd .LCPI1_56(%rip), %ymm8 vandpd %ymm8, %ymm0, %ymm0 vmovapd 22688(%rbx), %ymm9 vandpd %ymm8, %ymm9, %ymm14 vcmpltpd %ymm0, %ymm14, %ymm1 vextractf128 $1, %ymm1, %xmm2 vpshufd $8, %xmm2, %xmm2 vpshufd $8, %xmm1, %xmm1 vandpd %ymm8, %ymm3, %ymm13 vmovlhps %xmm2, %xmm1, %xmm3 vmovapd %ymm10, %ymm11 vandpd %ymm8, %ymm11, %ymm5 vcmpltpd %ymm13, %ymm5, %ymm1 vextractf128 $1, %ymm1, %xmm2 vpshufd $8, %xmm2, %xmm2 vpshufd $8, %xmm1, %xmm1 vmovlhps %xmm2, %xmm1, %xmm4 vmovapd 22592(%rbx), %ymm12 vandpd %ymm8, %ymm12, %ymm1 vcmpltpd %ymm1, %ymm14, %ymm2 vextractf128 $1, %ymm2, %xmm6 vpshufd $8, %xmm6, %xmm7 vpshufd $8, %xmm2, %xmm2 vmovlhps %xmm7, %xmm2, %xmm2 vmovapd 26240(%rbx), %ymm10 vandpd %ymm8, %ymm10, %ymm7 vcmpltpd %ymm7, %ymm5, %ymm5 vextractf128 $1, %ymm5, %xmm6 vpshufd $8, %xmm6, %xmm6 vpshufd $8, %xmm5, %xmm5 vmovlhps %xmm6, %xmm5, %xmm5 vcmpltpd %ymm13, %ymm7, %ymm13 vpshufb %xmm15, %xmm5, %xmm5 vmovdqa .LCPI1_20(%rip), %xmm7 vpshufb %xmm7, %xmm2, %xmm2 vpor %xmm2, %xmm5, %xmm5 vpshufb %xmm15, %xmm4, %xmm2 vpshufb %xmm7, %xmm3, %xmm3 vpor %xmm3, %xmm2, %xmm2 vextractf128 $1, %ymm13, %xmm3 vpshufd $8, %xmm3, %xmm3 vpshufd $8, %xmm13, %xmm4 vmovlhps %xmm3, %xmm4, %xmm3 vmovdqa 26336(%rbx), %ymm4 vpshufd $8, %xmm4, %xmm4 vmovaps 26112(%rbx), %xmm6 vmovlhps %xmm6, %xmm4, %xmm4 vcmpltpd %ymm0, %ymm1, %ymm1 vpsllw $15, %xmm2, %xmm0 vpsraw $15, %xmm0, %xmm0 vmovdqa .LCPI1_17(%rip), %xmm6 vpxor %xmm6, %xmm0, %xmm0 vpsllw $15, %xmm5, %xmm2 vpsraw $15, %xmm2, %xmm2 vpxor %xmm6, %xmm2, %xmm2 vpor %xmm0, %xmm2, %xmm0 vextractf128 $1, %ymm1, %xmm2 vpshufd $8, %xmm2, %xmm2 vpshufd $8, %xmm1, %xmm1 vmovlhps %xmm2, %xmm1, %xmm2 vpshufb %xmm15, %xmm3, %xmm1 vpshufb %xmm15, %xmm4, %xmm3 vmovdqa 31104(%rbx), %ymm4 vpshufd $8, %xmm4, %xmm4 vmovaps 26848(%rbx), %xmm5 vmovlhps %xmm5, %xmm4, %xmm4 vpshufb %xmm7, %xmm4, %xmm4 vpor %xmm4, %xmm3, %xmm3 vpsllw $15, %xmm3, %xmm3 vpsraw $15, %xmm3, %xmm3 vpand %xmm0, %xmm3, %xmm0 vpshufb %xmm7, %xmm2, %xmm2 vpunpckhbw %xmm0, %xmm0, %xmm3 vpor %xmm2, %xmm1, %xmm1 vpslld $31, %xmm3, %xmm2 vpsllw $15, %xmm1, %xmm1 vpsraw $15, %xmm1, %xmm1 vpmovsxdq %xmm2, %xmm3 vmovhlps %xmm2, %xmm2, %xmm2 vpmovsxdq %xmm2, %xmm2 vinsertf128 $1, %xmm2, %ymm3, %ymm3 vpunpckhbw %xmm0, %xmm1, %xmm2 vpslld $31, %xmm2, %xmm4 vpmovsxdq %xmm4, %xmm2 vmovhlps %xmm4, %xmm4, %xmm4 vpmovsxdq %xmm4, %xmm4 vinsertf128 $1, %xmm4, %ymm2, %ymm2 vpunpcklbw %xmm0, %xmm0, %xmm0 vpslld $31, %xmm0, %xmm4 vpmovsxdq %xmm4, %xmm0 vmovhlps %xmm4, %xmm4, %xmm4 vpmovsxdq %xmm4, %xmm4 vpunpcklbw %xmm0, %xmm1, %xmm1 vmovapd 21920(%rbx), %ymm5 vblendvpd %ymm2, %ymm12, %ymm5, %ymm2 vblendvpd %ymm3, %ymm2, %ymm9, %ymm2 vmovapd .LCPI1_77(%rip), %ymm3 vmulpd %ymm3, %ymm2, %ymm5 vinsertf128 $1, %xmm4, %ymm0, %ymm0 vpslld $31, %xmm1, %xmm2 vpmovsxdq %xmm2, %xmm1 vmovhlps %xmm2, %xmm2, %xmm2 vpmovsxdq %xmm2, %xmm2 vinsertf128 $1, %xmm2, %ymm1, %ymm1 vmovapd 22560(%rbx), %ymm2 vblendvpd %ymm1, %ymm10, %ymm2, %ymm1 vblendvpd %ymm0, %ymm1, %ymm11, %ymm0 vmulpd %ymm3, %ymm0, %ymm9 .LBB1_3576: vmovapd %ymm5, 22688(%rbx) vmovaps 21600(%rbx), %xmm0 vmovhlps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 13664(%rbx) vmovaps 21568(%rbx), %xmm0 vmovhlps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 13632(%rbx) vmovaps 20192(%rbx), %xmm0 vmovhlps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 13536(%rbx) vmovaps 20160(%rbx), %xmm0 vmovhlps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 13504(%rbx) vmovaps 26208(%rbx), %xmm0 vmovhlps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 13472(%rbx) vmovaps 26080(%rbx), %xmm0 vmovhlps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 13440(%rbx) vmovapd .LCPI1_19(%rip), %ymm5 vmovapd 21984(%rbx), %ymm7 vcmpltpd %ymm5, %ymm7, %ymm0 vextractf128 $1, %ymm0, %xmm1 vpshufd $8, %xmm1, %xmm1 vpshufd $8, %xmm0, %xmm0 vmovlhps %xmm1, %xmm0, %xmm0 vmovapd 22016(%rbx), %ymm6 vcmpltpd %ymm5, %ymm6, %ymm1 vextractf128 $1, %ymm1, %xmm2 vpshufb %xmm15, %xmm0, %xmm0 vpshufd $8, %xmm2, %xmm2 vpshufd $8, %xmm1, %xmm1 vmovlhps %xmm2, %xmm1, %xmm1 vmovdqa .LCPI1_20(%rip), %xmm10 vpshufb %xmm10, %xmm1, %xmm2 vmovapd 21952(%rbx), %ymm8 vcmpltpd %ymm5, %ymm8, %ymm1 vpor %xmm2, %xmm0, %xmm0 vextractf128 $1, %ymm1, %xmm2 vpshufd $8, %xmm2, %xmm2 vpshufd $8, %xmm1, %xmm1 vmovlhps %xmm2, %xmm1, %xmm2 vmovapd 21856(%rbx), %ymm11 vcmpltpd %ymm5, %ymm11, %ymm1 vextractf128 $1, %ymm1, %xmm3 vpshufd $8, %xmm3, %xmm3 vpshufd $8, %xmm1, %xmm1 vmovlhps %xmm3, %xmm1, %xmm3 vpsllw $15, %xmm0, %xmm0 vpsraw $15, %xmm0, %xmm1 vpshufb %xmm15, %xmm3, %xmm0 vpshufb %xmm10, %xmm2, %xmm2 vpor %xmm2, %xmm0, %xmm2 vpunpckhbw %xmm0, %xmm1, %xmm0 vpslld $31, %xmm0, %xmm3 vpmovsxdq %xmm3, %xmm0 vmovhlps %xmm3, %xmm3, %xmm3 vpmovsxdq %xmm3, %xmm3 vinsertf128 $1, %xmm3, %ymm0, %ymm0 vpsllw $15, %xmm2, %xmm2 vpsraw $15, %xmm2, %xmm4 vpunpckhbw %xmm0, %xmm4, %xmm2 vpslld $31, %xmm2, %xmm3 vpmovsxdq %xmm3, %xmm2 vmovhlps %xmm3, %xmm3, %xmm3 vpmovsxdq %xmm3, %xmm3 vinsertf128 $1, %xmm3, %ymm2, %ymm3 vpunpcklbw %xmm0, %xmm1, %xmm1 vpslld $31, %xmm1, %xmm2 vpmovsxdq %xmm2, %xmm1 vmovhlps %xmm2, %xmm2, %xmm2 vpmovsxdq %xmm2, %xmm2 vinsertf128 $1, %xmm2, %ymm1, %ymm1 vpunpcklbw %xmm0, %xmm4, %xmm2 vpslld $31, %xmm2, %xmm4 vpmovsxdq %xmm4, %xmm2 vmovhlps %xmm4, %xmm4, %xmm4 vpmovsxdq %xmm4, %xmm4 vinsertf128 $1, %xmm4, %ymm2, %ymm2 vblendvpd %ymm2, %ymm5, %ymm11, %ymm2 vmovapd %ymm2, 19968(%rbx) vblendvpd %ymm1, %ymm5, %ymm7, %ymm1 vmovapd %ymm1, 26240(%rbx) vblendvpd %ymm3, %ymm5, %ymm8, %ymm1 vmovapd %ymm1, 21920(%rbx) vblendvpd %ymm0, %ymm5, %ymm6, %ymm0 vmovapd %ymm0, 26208(%rbx) vxorpd %ymm4, %ymm4, %ymm4 vmovapd 22656(%rbx), %ymm13 vmulpd %ymm4, %ymm13, %ymm0 vmovapd 22624(%rbx), %ymm7 vmulpd %ymm0, %ymm7, %ymm1 vmovapd 22752(%rbx), %ymm12 vmulpd %ymm0, %ymm12, %ymm0 vaddpd %ymm1, %ymm0, %ymm1 vmovapd 23968(%rbx), %ymm8 vmulpd %ymm4, %ymm8, %ymm0 vmovapd 23808(%rbx), %ymm14 vmulpd %ymm0, %ymm14, %ymm2 vmovapd 24000(%rbx), %ymm11 vmulpd %ymm0, %ymm11, %ymm0 vaddpd %ymm2, %ymm0, %ymm3 vmovdqa 31104(%rbx), %ymm0 vpshufd $8, %xmm0, %xmm0 vmovaps 26848(%rbx), %xmm2 vmovlhps %xmm2, %xmm0, %xmm0 vmovdqa 26336(%rbx), %ymm2 vpshufd $8, %xmm2, %xmm2 vmovaps 26112(%rbx), %xmm5 vmovlhps %xmm5, %xmm2, %xmm2 vpshufb %xmm15, %xmm2, %xmm2 vpshufb %xmm10, %xmm0, %xmm0 vpor %xmm0, %xmm2, %xmm0 vmulpd %ymm4, %ymm11, %ymm2 vmulpd %ymm2, %ymm14, %ymm2 vaddpd %ymm2, %ymm3, %ymm2 vmulpd %ymm4, %ymm12, %ymm3 vmulpd %ymm3, %ymm7, %ymm3 vaddpd %ymm3, %ymm1, %ymm1 vmulpd %ymm13, %ymm13, %ymm3 vmovapd .LCPI1_23(%rip), %ymm5 vaddpd %ymm5, %ymm3, %ymm3 vmulpd %ymm8, %ymm8, %ymm4 vaddpd %ymm5, %ymm4, %ymm4 vmulpd %ymm11, %ymm11, %ymm5 vaddpd %ymm5, %ymm4, %ymm4 vmulpd %ymm14, %ymm14, %ymm5 vaddpd %ymm5, %ymm4, %ymm4 vmulpd %ymm12, %ymm12, %ymm5 vaddpd %ymm5, %ymm3, %ymm3 vmulpd %ymm7, %ymm7, %ymm5 vaddpd %ymm5, %ymm3, %ymm3 vmovapd .LCPI1_24(%rip), %ymm5 vmulpd %ymm5, %ymm1, %ymm1 vaddpd %ymm1, %ymm3, %ymm1 vmulpd %ymm5, %ymm2, %ymm2 vaddpd %ymm2, %ymm4, %ymm2 vpsllw $15, %xmm0, %xmm0 vpsraw $15, %xmm0, %xmm0 vpunpcklbw %xmm0, %xmm0, %xmm3 vpslld $31, %xmm3, %xmm4 vpmovsxdq %xmm4, %xmm3 vmovhlps %xmm4, %xmm4, %xmm4 vpmovsxdq %xmm4, %xmm4 vinsertf128 $1, %xmm4, %ymm3, %ymm3 vpunpckhbw %xmm0, %xmm0, %xmm0 vpslld $31, %xmm0, %xmm4 vpmovsxdq %xmm4, %xmm0 vmovhlps %xmm4, %xmm4, %xmm4 vpmovsxdq %xmm4, %xmm4 vinsertf128 $1, %xmm4, %ymm0, %ymm0 vsqrtpd %ymm1, %ymm1 vmovapd .LCPI1_25(%rip), %ymm6 vmulpd %ymm6, %ymm1, %ymm4 vmovapd 12096(%rbx), %ymm5 vmulpd %ymm5, %ymm4, %ymm4 vsubpd %ymm4, %ymm7, %ymm7 vmovapd %ymm7, 22016(%rbx) vmovapd %ymm7, %ymm15 vsubpd %ymm4, %ymm12, %ymm12 vmovapd %ymm12, 26336(%rbx) vsubpd %ymm4, %ymm13, %ymm10 vmovapd %ymm10, 22752(%rbx) vdivpd %ymm5, %ymm1, %ymm7 vmovapd %ymm7, 31104(%rbx) vblendvpd %ymm0, 22688(%rbx), %ymm6, %ymm0 vmovapd %ymm0, 26080(%rbx) vblendvpd %ymm3, %ymm9, %ymm6, %ymm0 vmovapd %ymm0, 26112(%rbx) vsqrtpd %ymm2, %ymm2 vmulpd %ymm6, %ymm2, %ymm3 vmulpd %ymm5, %ymm3, %ymm3 vsubpd %ymm3, %ymm14, %ymm4 vmovapd %ymm4, 21984(%rbx) vmovapd %ymm4, %ymm9 vsubpd %ymm3, %ymm11, %ymm13 vmovapd %ymm13, 24000(%rbx) vsubpd %ymm3, %ymm8, %ymm11 vmovapd %ymm11, 23968(%rbx) vdivpd %ymm5, %ymm2, %ymm0 vmovapd %ymm0, 26848(%rbx) vmovapd %ymm0, %ymm1 vxorpd %ymm0, %ymm0, %ymm0 vmulpd %ymm0, %ymm7, %ymm3 vmulpd %ymm0, %ymm10, %ymm2 vmovapd %ymm2, 20096(%rbx) vaddpd %ymm2, %ymm3, %ymm2 vaddpd %ymm12, %ymm2, %ymm4 vmulpd %ymm0, %ymm15, %ymm6 vmovapd %ymm6, 20064(%rbx) vaddpd %ymm6, %ymm4, %ymm5 vmovapd %ymm5, 22656(%rbx) vaddpd %ymm10, %ymm3, %ymm3 vmovapd %ymm10, %ymm14 vmulpd %ymm0, %ymm12, %ymm10 vmovapd %ymm10, 20032(%rbx) vaddpd %ymm10, %ymm3, %ymm3 vaddpd %ymm6, %ymm3, %ymm3 vmovapd %ymm3, 22624(%rbx) vmovapd 23936(%rbx), %ymm12 vmulpd %ymm3, %ymm12, %ymm3 vmovapd 26176(%rbx), %ymm4 vmulpd %ymm5, %ymm4, %ymm4 vaddpd %ymm4, %ymm3, %ymm3 vaddpd %ymm10, %ymm2, %ymm2 vaddpd %ymm15, %ymm2, %ymm2 vmovapd %ymm2, 21888(%rbx) vmovapd %ymm15, %ymm10 vmovapd 23872(%rbx), %ymm4 vmulpd %ymm2, %ymm4, %ymm2 vaddpd %ymm2, %ymm3, %ymm8 vmovapd %ymm8, 20192(%rbx) vmulpd %ymm0, %ymm1, %ymm3 vmulpd %ymm0, %ymm11, %ymm2 vmovapd %ymm2, 20160(%rbx) vaddpd %ymm2, %ymm3, %ymm2 vaddpd %ymm13, %ymm2, %ymm4 vmulpd %ymm0, %ymm9, %ymm5 vmovapd %ymm5, 20128(%rbx) vaddpd %ymm5, %ymm4, %ymm4 vmovapd %ymm4, 23808(%rbx) vaddpd %ymm11, %ymm3, %ymm3 vmovapd %ymm11, %ymm15 vmulpd %ymm0, %ymm13, %ymm6 vmovapd %ymm6, 20000(%rbx) vaddpd %ymm6, %ymm3, %ymm3 vaddpd %ymm5, %ymm3, %ymm0 vmovapd %ymm0, 22592(%rbx) vmovapd 22528(%rbx), %ymm5 vmulpd %ymm0, %ymm5, %ymm3 vmovapd 23840(%rbx), %ymm11 vmulpd %ymm4, %ymm11, %ymm4 vaddpd %ymm4, %ymm3, %ymm3 vaddpd %ymm6, %ymm2, %ymm2 vaddpd %ymm9, %ymm2, %ymm0 vmovapd %ymm0, 19936(%rbx) vmovapd 26144(%rbx), %ymm1 vmulpd %ymm0, %ymm1, %ymm2 vaddpd %ymm2, %ymm3, %ymm4 vmovapd %ymm4, 22688(%rbx) vmovapd 22720(%rbx), %ymm0 vaddpd 26112(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 26112(%rbx) vmovapd 23904(%rbx), %ymm0 vaddpd 26080(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 26080(%rbx) vmulpd %ymm14, %ymm8, %ymm0 vmovapd %ymm0, 14080(%rbx) vaddpd %ymm0, %ymm12, %ymm0 vdivpd %ymm7, %ymm0, %ymm3 vmovapd %ymm3, 23936(%rbx) vmovapd .LCPI1_22(%rip), %ymm6 vmulpd %ymm6, %ymm8, %ymm0 vxorpd %ymm14, %ymm14, %ymm14 vmulpd %ymm14, %ymm3, %ymm1 vaddpd %ymm1, %ymm0, %ymm0 vmulpd %ymm14, %ymm8, %ymm2 vaddpd %ymm1, %ymm2, %ymm1 vmovapd %ymm1, 21824(%rbx) vaddpd %ymm3, %ymm2, %ymm1 vmulpd 26336(%rbx), %ymm8, %ymm2 vmovapd %ymm2, 14048(%rbx) vmovapd 26176(%rbx), %ymm3 vaddpd %ymm2, %ymm3, %ymm2 vdivpd %ymm7, %ymm2, %ymm2 vmovapd %ymm2, 23904(%rbx) vmulpd %ymm14, %ymm2, %ymm12 vaddpd %ymm12, %ymm1, %ymm1 vaddpd %ymm12, %ymm0, %ymm0 vmulpd %ymm10, %ymm8, %ymm2 vmovapd %ymm2, 13984(%rbx) vmovapd 23872(%rbx), %ymm3 vaddpd %ymm2, %ymm3, %ymm2 vdivpd %ymm7, %ymm2, %ymm3 vmovapd %ymm3, 22720(%rbx) vmulpd %ymm14, %ymm3, %ymm2 vmovapd %ymm3, %ymm7 vaddpd %ymm2, %ymm0, %ymm0 vmovapd %ymm0, 22560(%rbx) vaddpd %ymm2, %ymm1, %ymm0 vmovapd %ymm0, 21856(%rbx) vmovapd %ymm4, %ymm10 vmulpd %ymm15, %ymm10, %ymm0 vmovapd %ymm0, 14016(%rbx) vaddpd %ymm0, %ymm5, %ymm0 vmovapd 26848(%rbx), %ymm3 vdivpd %ymm3, %ymm0, %ymm4 vmovapd %ymm4, 26176(%rbx) vmulpd %ymm6, %ymm10, %ymm0 vmulpd %ymm14, %ymm4, %ymm1 vaddpd %ymm1, %ymm0, %ymm0 vmulpd %ymm14, %ymm10, %ymm2 vaddpd %ymm1, %ymm2, %ymm15 vaddpd %ymm4, %ymm2, %ymm1 vmulpd %ymm13, %ymm10, %ymm2 vmovapd %ymm2, 13952(%rbx) vaddpd %ymm2, %ymm11, %ymm2 vdivpd %ymm3, %ymm2, %ymm2 vmovapd %ymm2, 23872(%rbx) vmulpd %ymm14, %ymm2, %ymm8 vmovapd %ymm2, %ymm13 vaddpd %ymm8, %ymm1, %ymm1 vaddpd %ymm8, %ymm0, %ymm0 vmulpd %ymm9, %ymm10, %ymm2 vmovapd %ymm2, 13920(%rbx) vmovapd 26144(%rbx), %ymm4 vaddpd %ymm2, %ymm4, %ymm2 vdivpd %ymm3, %ymm2, %ymm4 vmovapd %ymm4, 21952(%rbx) vmulpd %ymm14, %ymm4, %ymm2 vmovapd %ymm4, %ymm10 vaddpd %ymm2, %ymm0, %ymm11 vmovapd %ymm11, 21600(%rbx) vaddpd %ymm2, %ymm1, %ymm14 vmovapd %ymm14, 19712(%rbx) movq 25632(%rbx), %rax movabsq $-4616189618054758400, %rdi movq %rdi, (%rax) movq 25600(%rbx), %rax movq %rdi, (%rax) movq 25568(%rbx), %rax movq %rdi, (%rax) movq 32576(%rbx), %rax movq %rdi, (%rax) movq 25760(%rbx), %rax movq %rdi, (%rax) movq 32704(%rbx), %rax movq %rdi, (%rax) movq 25728(%rbx), %rax movq %rdi, (%rax) movq 25696(%rbx), %rax movq %rdi, (%rax) vxorpd %xmm0, %xmm0, %xmm0 movq 24976(%rbx), %rax vmovupd %xmm0, 16(%rax) vmovupd %xmm0, (%rax) movq 24928(%rbx), %rax vmovupd %xmm0, 16(%rax) vmovupd %xmm0, (%rax) movq 25216(%rbx), %rax vmovupd %xmm0, 16(%rax) vmovupd %xmm0, (%rax) movq 25184(%rbx), %rax vmovupd %xmm0, 16(%rax) vmovupd %xmm0, (%rax) movq 25152(%rbx), %rax vmovupd %xmm0, 16(%rax) vmovupd %xmm0, (%rax) movq 25136(%rbx), %rax vmovupd %xmm0, 16(%rax) vmovupd %xmm0, (%rax) movq 25120(%rbx), %rax vmovupd %xmm0, 16(%rax) vmovupd %xmm0, (%rax) movq 25088(%rbx), %rax vmovupd %xmm0, 16(%rax) vmovupd %xmm0, (%rax) movabsq $4607182418800017408, %r13 movq %r13, (%r11) movq 25856(%rbx), %rax movq %r13, (%rax) movq 25824(%rbx), %rax movq %r13, (%rax) movq 25888(%rbx), %rax movq %r13, (%rax) movq 25920(%rbx), %rax movq %r13, (%rax) movq %r13, (%r8) movq 25952(%rbx), %rax movq %r13, (%rax) movq %r13, (%r9) movq 25056(%rbx), %rax vmovupd %xmm0, 16(%rax) vmovupd %xmm0, (%rax) movq 25040(%rbx), %rax vmovupd %xmm0, 16(%rax) vmovupd %xmm0, (%rax) movq 24992(%rbx), %rax vmovupd %xmm0, 16(%rax) vmovupd %xmm0, (%rax) movq 25392(%rbx), %rax vmovupd %xmm0, 16(%rax) vmovupd %xmm0, (%rax) movq 25344(%rbx), %rax vmovupd %xmm0, 16(%rax) vmovupd %xmm0, (%rax) movq 25312(%rbx), %rax vmovupd %xmm0, 16(%rax) vmovupd %xmm0, (%rax) movq 25280(%rbx), %rax vmovupd %xmm0, 16(%rax) vmovupd %xmm0, (%rax) movq 25248(%rbx), %rax vmovupd %xmm0, 16(%rax) vmovupd %xmm0, (%rax) movq %r13, (%rsi) movq %r13, (%rdx) movq 31616(%rbx), %rax movq %r13, (%rax) movq %r13, (%r10) movq 31904(%rbx), %rax movq %r13, (%rax) movq 31936(%rbx), %rax movq %r13, (%rax) movq 31680(%rbx), %rax movq %r13, (%rax) movq 31968(%rbx), %rax movq %r13, (%rax) movq 25536(%rbx), %rax vmovupd %xmm0, 16(%rax) vmovupd %xmm0, (%rax) movq 25504(%rbx), %rax vmovupd %xmm0, 16(%rax) vmovupd %xmm0, (%rax) vmovupd %xmm0, 16(%r14) vmovupd %xmm0, (%r14) movq 25456(%rbx), %rax vmovupd %xmm0, 16(%rax) vmovupd %xmm0, (%rax) vmovupd %xmm0, 16(%r15) vmovupd %xmm0, (%r15) movq 25408(%rbx), %rax vmovupd %xmm0, 16(%rax) vmovupd %xmm0, (%rax) movq 32128(%rbx), %rax vmovupd %xmm0, 16(%rax) vmovupd %xmm0, (%rax) movq 32672(%rbx), %rax vmovupd %xmm0, 16(%rax) vmovupd %xmm0, (%rax) movq 31264(%rbx), %r8 movq %r13, (%r8) movq 31296(%rbx), %r9 movq %r13, (%r9) movq 31200(%rbx), %r15 movq %r13, (%r15) movq 31232(%rbx), %r10 movq %r13, (%r10) movq 32000(%rbx), %r14 movq %r13, (%r14) movq 32032(%rbx), %r11 movq %r13, (%r11) movq 31168(%rbx), %rax movq %r13, (%rax) movq %rax, %rsi movq 31072(%rbx), %rdx movq %r13, (%rdx) movq 30720(%rbx), %rax movq %rdi, (%rax) movq 30752(%rbx), %rax movq %rdi, (%rax) movq 30656(%rbx), %rax movq %rdi, (%rax) movq 30688(%rbx), %rax movq %rdi, (%rax) movq 30848(%rbx), %rax movq %rdi, (%rax) movq 31008(%rbx), %rax movq %rdi, (%rax) movq 30816(%rbx), %rax movq %rdi, (%rax) movq 30976(%rbx), %rax movq %rdi, (%rax) movabsq $-9223372036854775808, %rax movq 30592(%rbx), %rdi movq %rax, (%rdi) movq 30624(%rbx), %rdi movq %rax, (%rdi) movq 30528(%rbx), %rdi movq %rax, (%rdi) movq 30560(%rbx), %rdi movq %rax, (%rdi) movq 30784(%rbx), %rdi movq %rax, (%rdi) movq 30944(%rbx), %rdi movq %rax, (%rdi) movq 30880(%rbx), %rdi movq %rax, (%rdi) movq 30912(%rbx), %rdi movq %rax, (%rdi) movq 30368(%rbx), %rdi movq %rax, (%rdi) movq 30336(%rbx), %rdi movq %rax, (%rdi) movq 30304(%rbx), %rdi movq %rax, (%rdi) movq 30272(%rbx), %rdi movq %rax, (%rdi) movq 30496(%rbx), %rdi movq %rax, (%rdi) movq 30464(%rbx), %rdi movq %rax, (%rdi) movq 30432(%rbx), %rdi movq %rax, (%rdi) movq 30400(%rbx), %rdi movq %rax, (%rdi) movq 28160(%rbx), %rdi movq %rax, (%rdi) movq 30112(%rbx), %rdi movq %rax, (%rdi) movq 30080(%rbx), %rdi movq %rax, (%rdi) movq 30048(%rbx), %rdi movq %rax, (%rdi) movq 30240(%rbx), %rdi movq %rax, (%rdi) movq 30208(%rbx), %rdi movq %rax, (%rdi) movq 30176(%rbx), %rdi movq %rax, (%rdi) movq 30144(%rbx), %rdi movq %rax, (%rdi) movq 29312(%rbx), %rdi movq %rax, (%rdi) movq 29280(%rbx), %rdi movq %rax, (%rdi) movq 29120(%rbx), %rdi movq %rax, (%rdi) movq 29088(%rbx), %rdi movq %rax, (%rdi) movq 29952(%rbx), %rdi movq %rax, (%rdi) movq 29920(%rbx), %rdi movq %rax, (%rdi) movq 29760(%rbx), %rdi movq %rax, (%rdi) movq 29728(%rbx), %rdi movq %rax, (%rdi) movq 29184(%rbx), %rdi movq %r13, (%rdi) movq 29152(%rbx), %rdi movq %r13, (%rdi) movq 29056(%rbx), %rdi movq %r13, (%rdi) movq 29024(%rbx), %rdi movq %r13, (%rdi) movq 29824(%rbx), %rdi movq %r13, (%rdi) movq 29792(%rbx), %rdi movq %r13, (%rdi) movq 29696(%rbx), %rdi movq %r13, (%rdi) movq 29664(%rbx), %rdi movq %r13, (%rdi) movq 29440(%rbx), %rdi movq %rax, (%rdi) movq 29408(%rbx), %rdi movq %rax, (%rdi) movq 29248(%rbx), %rdi movq %rax, (%rdi) movq 29216(%rbx), %rdi movq %rax, (%rdi) movq 30016(%rbx), %rdi movq %rax, (%rdi) movq 29984(%rbx), %rdi movq %rax, (%rdi) movq 29888(%rbx), %rdi movq %rax, (%rdi) movq 29856(%rbx), %rdi movq %rax, (%rdi) movq 28288(%rbx), %rdi movq %rax, (%rdi) movq 28256(%rbx), %rdi movq %rax, (%rdi) movq 28128(%rbx), %rdi movq %rax, (%rdi) movq 28096(%rbx), %rdi movq %rax, (%rdi) movq 29568(%rbx), %rdi movq %rax, (%rdi) movq 29536(%rbx), %rdi movq %rax, (%rdi) movq 29376(%rbx), %rdi movq %rax, (%rdi) movq 29344(%rbx), %rdi movq %rax, (%rdi) movq 28672(%rbx), %rdi movq %rax, (%rdi) movq 28640(%rbx), %rdi movq %rax, (%rdi) movq 28416(%rbx), %rdi movq %rax, (%rdi) movq 28384(%rbx), %rdi movq %rax, (%rdi) movq 28992(%rbx), %rdi movq %rax, (%rdi) movq 28960(%rbx), %rdi movq %rax, (%rdi) movq 28864(%rbx), %rdi movq %rax, (%rdi) movq 28832(%rbx), %rdi movq %rax, (%rdi) movq 28480(%rbx), %rdi movq %rax, (%rdi) movq 28448(%rbx), %rdi movq %rax, (%rdi) movq 28224(%rbx), %rdi movq %rax, (%rdi) movq 28192(%rbx), %rdi movq %rax, (%rdi) movq 29632(%rbx), %rdi movq %rax, (%rdi) movq 29600(%rbx), %rdi movq %rax, (%rdi) movq 29504(%rbx), %rdi movq %rax, (%rdi) movq 29472(%rbx), %rdi movq %rax, (%rdi) movq 27808(%rbx), %rdi movq %r13, (%rdi) movq 27776(%rbx), %rdi movq %r13, (%rdi) movq 27616(%rbx), %rdi movq %r13, (%rdi) movq 27584(%rbx), %rdi movq %r13, (%rdi) movq 28928(%rbx), %rdi movq %r13, (%rdi) movq 28896(%rbx), %rdi movq %r13, (%rdi) movq 28736(%rbx), %rdi movq %r13, (%rdi) movq 28704(%rbx), %rdi movq %r13, (%rdi) movq 27104(%rbx), %rdi movq %rax, (%rdi) movq 27072(%rbx), %rdi movq %rax, (%rdi) movq 26976(%rbx), %rdi movq %rax, (%rdi) movq 26944(%rbx), %rdi movq %rax, (%rdi) movq 28000(%rbx), %rdi movq %rax, (%rdi) movq 27968(%rbx), %rdi movq %rax, (%rdi) movq 27872(%rbx), %rdi movq %rax, (%rdi) movq 27840(%rbx), %rdi movq %rax, (%rdi) movq 28064(%rbx), %rdi movq %rax, (%rdi) movq 28032(%rbx), %rdi movq %rax, (%rdi) movq 27936(%rbx), %rdi movq %rax, (%rdi) movq 27904(%rbx), %rdi movq %rax, (%rdi) movq 28800(%rbx), %rdi movq %rax, (%rdi) movq 28768(%rbx), %rdi movq %rax, (%rdi) movq 28544(%rbx), %rdi movq %rax, (%rdi) movq 28512(%rbx), %rdi movq %rax, (%rdi) movq 27680(%rbx), %rdi movq %rax, (%rdi) movq 27648(%rbx), %rdi movq %rax, (%rdi) movq 27488(%rbx), %rdi movq %rax, (%rdi) movq 27456(%rbx), %rdi movq %rax, (%rdi) movq 28608(%rbx), %rdi movq %rax, (%rdi) movq 28576(%rbx), %rdi movq %rax, (%rdi) movq 28352(%rbx), %rdi movq %rax, (%rdi) movq 28320(%rbx), %rdi movq %rax, (%rdi) movq 27424(%rbx), %rdi movq %rax, (%rdi) movq 27392(%rbx), %rdi movq %rax, (%rdi) movq 27232(%rbx), %rdi movq %rax, (%rdi) movq 27200(%rbx), %rdi movq %rax, (%rdi) movq 27744(%rbx), %rdi movq %rax, (%rdi) movq 27712(%rbx), %rdi movq %rax, (%rdi) movq 27552(%rbx), %rdi movq %rax, (%rdi) movq 27520(%rbx), %rdi movq %rax, (%rdi) movq 27296(%rbx), %rax movq %r13, (%rax) movq 27264(%rbx), %rax movq %r13, (%rax) movq 27040(%rbx), %rax movq %r13, (%rax) movq 27008(%rbx), %rax movq %r13, (%rax) movq 27360(%rbx), %rax movq %r13, (%rax) movq 27328(%rbx), %rax movq %r13, (%rax) movq 27168(%rbx), %rax movq %r13, (%rax) movq 27136(%rbx), %rax movq %r13, (%rax) movq 31712(%rbx), %rax vmovsd (%rax), %xmm0 movq 31776(%rbx), %rax vmovhpd (%rax), %xmm0, %xmm1 movq 31040(%rbx), %rax vmovsd (%rax), %xmm0 movq 31744(%rbx), %rax vmovhpd (%rax), %xmm0, %xmm3 vmovsd (%rsi), %xmm0 vmovhpd (%rdx), %xmm0, %xmm2 vmovsd (%r14), %xmm0 vmovhpd (%r11), %xmm0, %xmm4 movq 32192(%rbx), %rax vmovsd (%rax), %xmm0 movq 32224(%rbx), %rax vmovhpd (%rax), %xmm0, %xmm0 movq 32160(%rbx), %rax vmovsd (%rax), %xmm5 movq 32544(%rbx), %rax vmovhpd (%rax), %xmm5, %xmm5 vinsertf128 $1, %xmm0, %ymm5, %ymm0 vinsertf128 $1, %xmm2, %ymm4, %ymm2 vinsertf128 $1, %xmm1, %ymm3, %ymm1 vmovsd (%r15), %xmm3 vmovhpd (%r10), %xmm3, %xmm3 vmovsd (%r8), %xmm4 vmovhpd (%r9), %xmm4, %xmm4 vinsertf128 $1, %xmm3, %ymm4, %ymm3 vmovapd 21824(%rbx), %ymm5 vaddpd %ymm12, %ymm5, %ymm4 vmulpd %ymm7, %ymm3, %ymm3 vaddpd %ymm3, %ymm4, %ymm4 vmovapd %ymm4, 21632(%rbx) vmovapd 23904(%rbx), %ymm12 vaddpd %ymm12, %ymm5, %ymm3 vmulpd %ymm7, %ymm1, %ymm1 vaddpd %ymm1, %ymm3, %ymm3 vmovapd %ymm3, 22528(%rbx) vaddpd %ymm8, %ymm15, %ymm1 vmulpd %ymm10, %ymm2, %ymm2 vaddpd %ymm2, %ymm1, %ymm8 vmovapd %ymm8, 19776(%rbx) vaddpd %ymm13, %ymm15, %ymm1 vmulpd %ymm10, %ymm0, %ymm0 vaddpd %ymm0, %ymm1, %ymm0 vmovapd %ymm0, 21824(%rbx) vmovapd %ymm0, %ymm9 vmovapd 23936(%rbx), %ymm0 vmulpd 21856(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 14272(%rbx) vmovapd 20192(%rbx), %ymm15 vmulpd 22560(%rbx), %ymm15, %ymm1 vaddpd %ymm0, %ymm1, %ymm0 vmulpd %ymm3, %ymm12, %ymm2 vmovapd %ymm2, 14400(%rbx) vaddpd %ymm2, %ymm0, %ymm0 vmulpd %ymm4, %ymm7, %ymm2 vmovapd %ymm2, 14336(%rbx) vaddpd %ymm2, %ymm0, %ymm2 vmovapd %ymm2, 13376(%rbx) vmovapd .LCPI1_26(%rip), %ymm7 vcmpltpd %ymm7, %ymm2, %ymm0 vmovapd %ymm2, %ymm5 vextractf128 $1, %ymm0, %xmm2 vpshufd $8, %xmm2, %xmm2 vpshufd $8, %xmm0, %xmm0 vmovlhps %xmm2, %xmm0, %xmm2 vmovapd 26176(%rbx), %ymm0 vmulpd %ymm14, %ymm0, %ymm3 vmovapd %ymm3, 14240(%rbx) vmovapd %ymm11, %ymm0 vmovapd 22688(%rbx), %ymm11 vmulpd %ymm0, %ymm11, %ymm0 vaddpd %ymm3, %ymm0, %ymm3 vmulpd %ymm9, %ymm13, %ymm4 vmovapd %ymm4, 14368(%rbx) vaddpd %ymm4, %ymm3, %ymm3 vmulpd %ymm8, %ymm10, %ymm4 vmovapd %ymm4, 14304(%rbx) vaddpd %ymm4, %ymm3, %ymm4 vmovapd %ymm4, 13408(%rbx) vcmpltpd %ymm7, %ymm4, %ymm3 vmovapd %ymm4, %ymm10 vextractf128 $1, %ymm3, %xmm4 vpshufd $8, %xmm4, %xmm4 vpshufd $8, %xmm3, %xmm3 vmovlhps %xmm4, %xmm3, %xmm3 vpshufb .LCPI1_20(%rip), %xmm3, %xmm3 vpshufb .LCPI1_21(%rip), %xmm2, %xmm2 vpor %xmm3, %xmm2, %xmm2 vpsllw $15, %xmm2, %xmm2 vpsraw $15, %xmm2, %xmm3 vpunpckhbw %xmm0, %xmm3, %xmm2 vpslld $31, %xmm2, %xmm4 vpmovsxdq %xmm4, %xmm2 vmovhlps %xmm4, %xmm4, %xmm4 vpmovsxdq %xmm4, %xmm4 vinsertf128 $1, %xmm4, %ymm2, %ymm2 vpunpcklbw %xmm0, %xmm3, %xmm3 vpslld $31, %xmm3, %xmm4 vpmovsxdq %xmm4, %xmm3 vmovhlps %xmm4, %xmm4, %xmm4 vpmovsxdq %xmm4, %xmm4 vinsertf128 $1, %xmm4, %ymm3, %ymm3 vblendvpd %ymm3, %ymm7, %ymm5, %ymm5 vblendvpd %ymm2, %ymm7, %ymm10, %ymm7 vmovapd 19968(%rbx), %ymm3 vmovapd 26240(%rbx), %ymm2 vaddpd %ymm3, %ymm2, %ymm2 vmovapd .LCPI1_27(%rip), %ymm4 vmulpd %ymm4, %ymm3, %ymm8 vmovapd %ymm8, 13600(%rbx) vaddpd %ymm2, %ymm8, %ymm2 vmovapd 31104(%rbx), %ymm10 vmulpd %ymm6, %ymm10, %ymm3 vaddpd 20096(%rbx), %ymm3, %ymm3 vaddpd 20032(%rbx), %ymm3, %ymm3 vaddpd 20064(%rbx), %ymm3, %ymm12 vmovapd %ymm12, 21568(%rbx) vmovapd .LCPI1_28(%rip), %ymm9 vmulpd %ymm9, %ymm5, %ymm3 vaddpd %ymm3, %ymm8, %ymm8 vmovapd %ymm8, 13760(%rbx) vaddpd %ymm2, %ymm5, %ymm2 vmovapd %ymm2, 13792(%rbx) vmulpd %ymm2, %ymm10, %ymm3 vmulpd %ymm3, %ymm12, %ymm2 vaddpd %ymm2, %ymm8, %ymm2 vmovapd %ymm8, %ymm10 vsubpd %ymm1, %ymm2, %ymm13 vmovapd 26848(%rbx), %ymm8 vmulpd %ymm6, %ymm8, %ymm2 vmovapd 26208(%rbx), %ymm1 vmovapd 21920(%rbx), %ymm6 vaddpd %ymm6, %ymm1, %ymm1 vmulpd %ymm4, %ymm6, %ymm4 vmovapd %ymm4, 13568(%rbx) vaddpd %ymm1, %ymm4, %ymm1 vaddpd 20160(%rbx), %ymm2, %ymm2 vaddpd 20000(%rbx), %ymm2, %ymm2 vaddpd 20128(%rbx), %ymm2, %ymm6 vmovapd %ymm6, 19616(%rbx) vmulpd %ymm9, %ymm7, %ymm2 vaddpd %ymm2, %ymm4, %ymm2 vmovapd %ymm2, 19680(%rbx) vaddpd %ymm1, %ymm7, %ymm1 vmovapd %ymm1, 19648(%rbx) vmulpd %ymm1, %ymm8, %ymm1 vmovapd %ymm1, 21792(%rbx) vmovapd %ymm6, %ymm8 vmulpd %ymm1, %ymm8, %ymm1 vaddpd %ymm1, %ymm2, %ymm1 vsubpd %ymm0, %ymm1, %ymm0 vsqrtpd %ymm7, %ymm4 vmovapd %ymm4, 23840(%rbx) vmovapd 26080(%rbx), %ymm6 vmulpd %ymm6, %ymm11, %ymm1 vdivpd %ymm4, %ymm1, %ymm1 vmovapd %ymm1, 19552(%rbx) vmovapd %ymm4, %ymm11 vmulpd %ymm1, %ymm8, %ymm4 vaddpd %ymm4, %ymm0, %ymm0 vsqrtpd %ymm5, %ymm7 vmovapd %ymm7, 26144(%rbx) vmovapd 26112(%rbx), %ymm5 vmovapd %ymm15, %ymm1 vmulpd %ymm5, %ymm1, %ymm4 vdivpd %ymm7, %ymm4, %ymm9 vmovapd %ymm9, 19744(%rbx) vmovapd %ymm7, %ymm2 vmulpd %ymm9, %ymm12, %ymm4 vaddpd %ymm4, %ymm13, %ymm4 vmovapd 22656(%rbx), %ymm13 vmulpd %ymm3, %ymm13, %ymm7 vmulpd .LCPI1_88, %ymm10, %ymm15 vaddpd %ymm7, %ymm15, %ymm7 vmulpd 22528(%rbx), %ymm1, %ymm10 vmovapd %ymm1, %ymm12 vsubpd %ymm10, %ymm7, %ymm1 vmovapd %ymm1, 19808(%rbx) vmovapd 22560(%rbx), %ymm1 vmulpd %ymm5, %ymm1, %ymm10 vdivpd %ymm2, %ymm10, %ymm1 vmovapd %ymm1, 19872(%rbx) vmovapd 31104(%rbx), %ymm5 vmulpd %ymm1, %ymm5, %ymm10 vaddpd %ymm10, %ymm4, %ymm1 vmovapd %ymm1, 19840(%rbx) vmovapd 21600(%rbx), %ymm1 vmulpd %ymm6, %ymm1, %ymm4 vdivpd %ymm11, %ymm4, %ymm1 vmovapd %ymm1, 19904(%rbx) vmovapd 26848(%rbx), %ymm8 vmulpd %ymm1, %ymm8, %ymm4 vaddpd %ymm4, %ymm0, %ymm0 vmovapd %ymm0, 14208(%rbx) vmovapd 22624(%rbx), %ymm7 vmulpd %ymm3, %ymm7, %ymm0 vaddpd %ymm0, %ymm15, %ymm0 vmovapd 21856(%rbx), %ymm6 vmulpd %ymm6, %ymm12, %ymm4 vsubpd %ymm4, %ymm0, %ymm10 vmovapd 22592(%rbx), %ymm0 vmulpd 21792(%rbx), %ymm0, %ymm11 vmovapd 19680(%rbx), %ymm1 vmulpd .LCPI1_88, %ymm1, %ymm2 vmovapd %ymm2, 19584(%rbx) vaddpd %ymm11, %ymm2, %ymm11 vmovapd 19712(%rbx), %ymm1 vmovapd 22688(%rbx), %ymm4 vmulpd %ymm1, %ymm4, %ymm14 vsubpd %ymm14, %ymm11, %ymm11 vmovapd 19552(%rbx), %ymm4 vmulpd %ymm4, %ymm0, %ymm14 vaddpd %ymm14, %ymm11, %ymm11 vmulpd %ymm9, %ymm7, %ymm14 vaddpd %ymm14, %ymm10, %ymm7 vmovaps 14208(%rbx), %ymm0 vmovaps %ymm0, 12000(%rcx,%r12) vmovaps 19840(%rbx), %ymm0 vmovaps %ymm0, 11968(%rcx,%r12) vmulpd %ymm9, %ymm13, %ymm10 vmovapd 19808(%rbx), %ymm0 vaddpd %ymm10, %ymm0, %ymm0 vmovapd %ymm0, 19808(%rbx) vmovapd 21888(%rbx), %ymm9 vmulpd %ymm3, %ymm9, %ymm3 vaddpd %ymm3, %ymm15, %ymm3 vmulpd 21632(%rbx), %ymm12, %ymm10 vsubpd %ymm10, %ymm3, %ymm0 vmovapd %ymm0, 14208(%rbx) vmovapd 26112(%rbx), %ymm3 vmulpd %ymm3, %ymm6, %ymm10 vdivpd 26144(%rbx), %ymm10, %ymm6 vmovapd %ymm6, 13888(%rbx) vmulpd %ymm6, %ymm5, %ymm10 vaddpd %ymm10, %ymm7, %ymm0 vmovapd %ymm0, 14176(%rbx) vmovapd 26080(%rbx), %ymm0 vmulpd %ymm0, %ymm1, %ymm10 vmovapd 23840(%rbx), %ymm7 vdivpd %ymm7, %ymm10, %ymm1 vmovapd %ymm1, 19840(%rbx) vmulpd %ymm1, %ymm8, %ymm10 vaddpd %ymm10, %ymm11, %ymm10 vmovapd 23808(%rbx), %ymm14 vmovapd 21792(%rbx), %ymm5 vmulpd %ymm5, %ymm14, %ymm11 vmovapd %ymm2, %ymm13 vaddpd %ymm11, %ymm13, %ymm11 vmovapd 22688(%rbx), %ymm1 vmovapd 21824(%rbx), %ymm6 vmulpd %ymm6, %ymm1, %ymm12 vsubpd %ymm12, %ymm11, %ymm11 vmulpd %ymm4, %ymm14, %ymm12 vaddpd %ymm12, %ymm11, %ymm11 vmovapd %ymm10, 12064(%rcx,%r12) vmovaps 14176(%rbx), %ymm2 vmovaps %ymm2, 12032(%rcx,%r12) vmovapd 19936(%rbx), %ymm12 vmulpd %ymm5, %ymm12, %ymm2 vaddpd %ymm2, %ymm13, %ymm2 vmovapd %ymm13, %ymm5 vmovapd 19776(%rbx), %ymm14 vmulpd %ymm14, %ymm1, %ymm4 vsubpd %ymm4, %ymm2, %ymm1 vmovapd %ymm1, 14176(%rbx) vmulpd 19744(%rbx), %ymm9, %ymm2 vmovapd 14208(%rbx), %ymm1 vaddpd %ymm2, %ymm1, %ymm1 vmovapd %ymm1, 21792(%rbx) vmovapd %ymm3, %ymm9 vmovapd 22528(%rbx), %ymm1 vmulpd %ymm9, %ymm1, %ymm3 vmovapd 26144(%rbx), %ymm2 vdivpd %ymm2, %ymm3, %ymm1 vmovapd %ymm1, 14208(%rbx) vmovapd 31104(%rbx), %ymm13 vmulpd %ymm1, %ymm13, %ymm3 vmovapd 19808(%rbx), %ymm1 vaddpd %ymm3, %ymm1, %ymm1 vmovapd %ymm1, 13856(%rbx) vmulpd %ymm0, %ymm6, %ymm3 vdivpd %ymm7, %ymm3, %ymm1 vmovapd %ymm1, 19808(%rbx) vmulpd %ymm1, %ymm8, %ymm3 vaddpd %ymm3, %ymm11, %ymm4 vmovapd 23968(%rbx), %ymm1 vmulpd 19648(%rbx), %ymm1, %ymm1 vmovapd %ymm1, 19744(%rbx) vmovapd 19616(%rbx), %ymm11 vmulpd %ymm1, %ymm11, %ymm3 vmovapd %ymm1, %ymm10 vaddpd %ymm3, %ymm5, %ymm3 vmovapd 26176(%rbx), %ymm6 vmulpd 21600(%rbx), %ymm6, %ymm7 vsubpd %ymm7, %ymm3, %ymm3 vmulpd 19552(%rbx), %ymm12, %ymm1 vmovapd 14176(%rbx), %ymm0 vaddpd %ymm1, %ymm0, %ymm1 vmovapd %ymm4, 12128(%rcx,%r12) vmovaps 13856(%rbx), %ymm0 vmovaps %ymm0, 12096(%rcx,%r12) vmovapd 21632(%rbx), %ymm0 vmulpd %ymm9, %ymm0, %ymm4 vdivpd %ymm2, %ymm4, %ymm0 vmovapd %ymm0, 14176(%rbx) vmulpd %ymm0, %ymm13, %ymm4 vmovapd 21792(%rbx), %ymm0 vaddpd %ymm4, %ymm0, %ymm0 vmovapd %ymm0, 19552(%rbx) vmovapd 26080(%rbx), %ymm4 vmulpd %ymm4, %ymm14, %ymm2 vmovapd 23840(%rbx), %ymm0 vdivpd %ymm0, %ymm2, %ymm2 vmovapd %ymm2, 13856(%rbx) vmulpd %ymm2, %ymm8, %ymm2 vaddpd %ymm2, %ymm1, %ymm1 vmulpd %ymm4, %ymm6, %ymm2 vdivpd %ymm0, %ymm2, %ymm2 vmovapd %ymm2, 21792(%rbx) vmulpd %ymm2, %ymm11, %ymm2 vaddpd %ymm2, %ymm3, %ymm0 vmovapd %ymm0, 13312(%rbx) vmovapd 22752(%rbx), %ymm2 vmovapd 13792(%rbx), %ymm13 vmulpd %ymm13, %ymm2, %ymm11 vmovapd 21568(%rbx), %ymm0 vmulpd %ymm11, %ymm0, %ymm2 vaddpd %ymm2, %ymm15, %ymm2 vmovapd 23936(%rbx), %ymm8 vmulpd 22560(%rbx), %ymm8, %ymm3 vsubpd %ymm3, %ymm2, %ymm3 vmovapd 22592(%rbx), %ymm0 vmulpd %ymm10, %ymm0, %ymm2 vmovapd 19680(%rbx), %ymm6 vaddpd %ymm2, %ymm6, %ymm2 vmovapd 24000(%rbx), %ymm4 vmovapd 19648(%rbx), %ymm0 vmulpd %ymm0, %ymm4, %ymm7 vmovapd %ymm7, 13280(%rbx) vmovapd 21984(%rbx), %ymm4 vmulpd %ymm0, %ymm4, %ymm5 vmulpd %ymm5, %ymm12, %ymm4 vaddpd %ymm4, %ymm6, %ymm10 vmovapd 23808(%rbx), %ymm0 vmulpd %ymm7, %ymm0, %ymm4 vaddpd %ymm4, %ymm6, %ymm4 vmovapd %ymm4, 13728(%rbx) vmovapd 22624(%rbx), %ymm7 vmulpd %ymm11, %ymm7, %ymm4 vmovapd 13760(%rbx), %ymm6 vaddpd %ymm4, %ymm6, %ymm4 vsubpd 14272(%rbx), %ymm4, %ymm4 vmovapd %ymm4, 13696(%rbx) vsubpd 14240(%rbx), %ymm2, %ymm2 vmovapd %ymm2, 13248(%rbx) vmovapd 22016(%rbx), %ymm2 vmulpd %ymm13, %ymm2, %ymm9 vmovapd %ymm13, %ymm14 vmovapd 21888(%rbx), %ymm12 vmulpd %ymm9, %ymm12, %ymm2 vaddpd %ymm2, %ymm6, %ymm4 vmovapd %ymm6, %ymm13 vmovapd 26336(%rbx), %ymm2 vmulpd %ymm14, %ymm2, %ymm2 vmovapd 22656(%rbx), %ymm14 vmulpd %ymm2, %ymm14, %ymm6 vaddpd %ymm6, %ymm13, %ymm6 vmovapd %ymm6, 14272(%rbx) vmovapd %ymm1, 12192(%rcx,%r12) vmovaps 19552(%rbx), %ymm1 vmovaps %ymm1, 12160(%rcx,%r12) vsubpd 14336(%rbx), %ymm4, %ymm1 vmovapd %ymm1, 19648(%rbx) vsubpd 14304(%rbx), %ymm10, %ymm1 vmovapd %ymm1, 19552(%rbx) vmulpd %ymm9, %ymm14, %ymm1 vaddpd %ymm1, %ymm15, %ymm1 vmovapd 22720(%rbx), %ymm10 vmulpd 22528(%rbx), %ymm10, %ymm4 vsubpd %ymm4, %ymm1, %ymm1 vmovapd %ymm1, 14336(%rbx) vmulpd %ymm5, %ymm0, %ymm1 vmovapd 19584(%rbx), %ymm0 vaddpd %ymm1, %ymm0, %ymm1 vmovapd 21952(%rbx), %ymm13 vmulpd 21824(%rbx), %ymm13, %ymm4 vsubpd %ymm4, %ymm1, %ymm1 vmovapd %ymm1, 14304(%rbx) vmovapd %ymm7, %ymm6 vmulpd %ymm9, %ymm6, %ymm1 vaddpd %ymm1, %ymm15, %ymm1 vmovapd 21856(%rbx), %ymm7 vmulpd %ymm7, %ymm10, %ymm4 vsubpd %ymm4, %ymm1, %ymm1 vmovapd %ymm1, 14240(%rbx) vmulpd 26112(%rbx), %ymm8, %ymm1 vdivpd 26144(%rbx), %ymm1, %ymm1 vmovapd %ymm1, 19680(%rbx) vmovapd 21568(%rbx), %ymm4 vmulpd %ymm1, %ymm4, %ymm1 vaddpd %ymm1, %ymm3, %ymm1 vmovapd %ymm1, 13344(%rbx) vmovapd 23968(%rbx), %ymm1 vmulpd 19904(%rbx), %ymm1, %ymm1 vmovapd 13312(%rbx), %ymm3 vaddpd %ymm1, %ymm3, %ymm1 vmovapd %ymm1, 13216(%rbx) vmulpd %ymm9, %ymm4, %ymm3 vmovapd %ymm12, %ymm8 vmulpd %ymm2, %ymm8, %ymm1 vaddpd %ymm1, %ymm15, %ymm1 vaddpd %ymm3, %ymm15, %ymm3 vmulpd %ymm2, %ymm6, %ymm9 vaddpd %ymm9, %ymm15, %ymm9 vmulpd %ymm2, %ymm4, %ymm2 vmulpd %ymm11, %ymm14, %ymm10 vmulpd %ymm11, %ymm8, %ymm11 vaddpd %ymm11, %ymm15, %ymm4 vmovapd %ymm4, 13056(%rbx) vaddpd %ymm2, %ymm15, %ymm2 vaddpd %ymm10, %ymm15, %ymm4 vmovapd %ymm4, 13088(%rbx) vmovapd 23904(%rbx), %ymm6 vmulpd %ymm7, %ymm6, %ymm10 vsubpd %ymm10, %ymm9, %ymm4 vmovapd %ymm4, 21856(%rbx) vmovapd 22592(%rbx), %ymm4 vmulpd %ymm5, %ymm4, %ymm9 vmovapd %ymm0, %ymm7 vaddpd %ymm9, %ymm7, %ymm9 vmovapd 19712(%rbx), %ymm11 vmovapd %ymm13, %ymm12 vmulpd %ymm11, %ymm12, %ymm10 vsubpd %ymm10, %ymm9, %ymm0 vmovapd %ymm0, 13792(%rbx) vmovapd 22560(%rbx), %ymm15 vmovapd 22720(%rbx), %ymm13 vmulpd %ymm15, %ymm13, %ymm9 vsubpd %ymm9, %ymm3, %ymm0 vmovapd %ymm0, 13760(%rbx) vmovapd 19616(%rbx), %ymm0 vmulpd %ymm5, %ymm0, %ymm3 vaddpd %ymm3, %ymm7, %ymm3 vmovapd 21600(%rbx), %ymm10 vmulpd %ymm10, %ymm12, %ymm5 vsubpd %ymm5, %ymm3, %ymm3 vmovapd %ymm3, 13312(%rbx) vmovapd 21632(%rbx), %ymm8 vmulpd %ymm8, %ymm6, %ymm3 vmovapd %ymm6, %ymm9 vsubpd %ymm3, %ymm1, %ymm1 vmovapd %ymm1, 13184(%rbx) vmovapd %ymm4, %ymm5 vmulpd 21792(%rbx), %ymm5, %ymm1 vmovapd 13248(%rbx), %ymm3 vaddpd %ymm1, %ymm3, %ymm1 vmovapd %ymm1, 13152(%rbx) vmovapd 22624(%rbx), %ymm14 vmulpd 19680(%rbx), %ymm14, %ymm1 vmovapd 13696(%rbx), %ymm3 vaddpd %ymm1, %ymm3, %ymm1 vmovapd %ymm1, 13120(%rbx) vmovapd 13728(%rbx), %ymm1 vsubpd 14368(%rbx), %ymm1, %ymm1 vmovapd %ymm1, 14368(%rbx) vmovapd 23872(%rbx), %ymm1 vmulpd %ymm11, %ymm1, %ymm3 vmovapd 13280(%rbx), %ymm4 vmulpd %ymm4, %ymm5, %ymm5 vaddpd %ymm5, %ymm7, %ymm5 vsubpd %ymm3, %ymm5, %ymm3 vmovapd %ymm3, 19712(%rbx) vmulpd %ymm15, %ymm9, %ymm3 vsubpd %ymm3, %ymm2, %ymm2 vmovapd %ymm2, 22560(%rbx) vmovapd %ymm1, %ymm6 vmulpd %ymm10, %ymm6, %ymm2 vmulpd %ymm4, %ymm0, %ymm3 vaddpd %ymm3, %ymm7, %ymm3 vsubpd %ymm2, %ymm3, %ymm1 vmovapd %ymm1, 21600(%rbx) vmovapd 23936(%rbx), %ymm11 vmulpd %ymm8, %ymm11, %ymm2 vmovapd 13056(%rbx), %ymm1 vsubpd %ymm2, %ymm1, %ymm1 vmovapd %ymm1, 13728(%rbx) vmovapd 19936(%rbx), %ymm5 vmulpd %ymm4, %ymm5, %ymm2 vaddpd %ymm2, %ymm7, %ymm2 vmovapd 19776(%rbx), %ymm10 vmulpd %ymm10, %ymm6, %ymm3 vsubpd %ymm3, %ymm2, %ymm1 vmovapd %ymm1, 13696(%rbx) vmovapd 14272(%rbx), %ymm1 vsubpd 14400(%rbx), %ymm1, %ymm1 vmovapd %ymm1, 13248(%rbx) vmovapd 26176(%rbx), %ymm2 vmulpd %ymm10, %ymm2, %ymm2 vmulpd 19744(%rbx), %ymm5, %ymm3 vmovapd %ymm5, %ymm6 vaddpd %ymm3, %ymm7, %ymm3 vsubpd %ymm2, %ymm3, %ymm1 vmovapd %ymm1, 21632(%rbx) vmulpd 22528(%rbx), %ymm11, %ymm2 vmovapd 13088(%rbx), %ymm1 vsubpd %ymm2, %ymm1, %ymm1 vmovapd %ymm1, 14400(%rbx) vmovaps 13216(%rbx), %ymm1 vmovaps %ymm1, 12256(%rcx,%r12) vmovapd 22752(%rbx), %ymm3 vmulpd 19872(%rbx), %ymm3, %ymm2 vmovapd 13344(%rbx), %ymm1 vaddpd %ymm2, %ymm1, %ymm1 vmovapd %ymm1, 14272(%rbx) vmovapd 26112(%rbx), %ymm10 vmulpd %ymm10, %ymm13, %ymm2 vmovapd 26144(%rbx), %ymm13 vdivpd %ymm13, %ymm2, %ymm11 vmulpd %ymm11, %ymm14, %ymm2 vmovapd 14240(%rbx), %ymm1 vaddpd %ymm2, %ymm1, %ymm1 vmovapd %ymm1, 22528(%rbx) vmovapd 26080(%rbx), %ymm14 vmulpd %ymm14, %ymm12, %ymm2 vmovapd 23840(%rbx), %ymm15 vdivpd %ymm15, %ymm2, %ymm12 vmovapd 23808(%rbx), %ymm4 vmulpd %ymm12, %ymm4, %ymm2 vmovapd 14304(%rbx), %ymm1 vaddpd %ymm2, %ymm1, %ymm1 vmovapd %ymm1, 19776(%rbx) vmovapd 22656(%rbx), %ymm7 vmulpd %ymm11, %ymm7, %ymm2 vmovapd 14336(%rbx), %ymm1 vaddpd %ymm2, %ymm1, %ymm1 vmovapd %ymm1, 14336(%rbx) vmulpd %ymm12, %ymm6, %ymm2 vmovapd 19552(%rbx), %ymm1 vaddpd %ymm2, %ymm1, %ymm1 vmovapd %ymm1, 14304(%rbx) vmovapd 21888(%rbx), %ymm5 vmulpd %ymm11, %ymm5, %ymm2 vmovapd 19648(%rbx), %ymm1 vaddpd %ymm2, %ymm1, %ymm1 vmovapd %ymm1, 13344(%rbx) vmovapd 13888(%rbx), %ymm8 vmulpd %ymm8, %ymm3, %ymm2 vmovapd 13120(%rbx), %ymm1 vaddpd %ymm2, %ymm1, %ymm1 vmovapd %ymm1, 13280(%rbx) vmovapd 23968(%rbx), %ymm1 vmulpd 19840(%rbx), %ymm1, %ymm1 vmovapd 13152(%rbx), %ymm2 vaddpd %ymm1, %ymm2, %ymm2 vmulpd %ymm10, %ymm9, %ymm1 vdivpd %ymm13, %ymm1, %ymm3 vmulpd %ymm3, %ymm5, %ymm1 vmovapd %ymm5, %ymm10 vmovapd 13184(%rbx), %ymm5 vaddpd %ymm1, %ymm5, %ymm1 vmovapd %ymm1, 19648(%rbx) vmulpd %ymm12, %ymm0, %ymm1 vmovapd 13312(%rbx), %ymm5 vaddpd %ymm1, %ymm5, %ymm1 vmovapd %ymm1, 14240(%rbx) vmovapd 21568(%rbx), %ymm9 vmulpd %ymm11, %ymm9, %ymm1 vmovapd 13760(%rbx), %ymm5 vaddpd %ymm1, %ymm5, %ymm1 vmovapd %ymm1, 13760(%rbx) vmovapd 22592(%rbx), %ymm13 vmulpd %ymm12, %ymm13, %ymm1 vmovapd 13792(%rbx), %ymm5 vaddpd %ymm1, %ymm5, %ymm12 vmovapd 22624(%rbx), %ymm1 vmulpd %ymm3, %ymm1, %ymm1 vmovapd 21856(%rbx), %ymm5 vaddpd %ymm1, %ymm5, %ymm1 vmovapd %ymm1, 19552(%rbx) vmovapd 23872(%rbx), %ymm1 vmulpd %ymm14, %ymm1, %ymm1 vdivpd %ymm15, %ymm1, %ymm5 vmovapd %ymm4, %ymm11 vmulpd %ymm5, %ymm11, %ymm1 vmovapd 14368(%rbx), %ymm4 vaddpd %ymm1, %ymm4, %ymm1 vmovapd %ymm1, 13792(%rbx) vmulpd %ymm3, %ymm9, %ymm15 vmovapd %ymm7, %ymm14 vmulpd %ymm3, %ymm14, %ymm3 vmovapd 13248(%rbx), %ymm1 vaddpd %ymm3, %ymm1, %ymm1 vmovapd %ymm1, 13312(%rbx) vmulpd %ymm5, %ymm13, %ymm9 vmulpd %ymm5, %ymm0, %ymm7 vmulpd %ymm5, %ymm6, %ymm5 vmovapd 13696(%rbx), %ymm0 vaddpd %ymm5, %ymm0, %ymm1 vmovapd 19680(%rbx), %ymm0 vmulpd %ymm0, %ymm10, %ymm5 vmovapd 13728(%rbx), %ymm3 vaddpd %ymm5, %ymm3, %ymm3 vmovapd %ymm3, 21568(%rbx) vmovapd 21600(%rbx), %ymm3 vaddpd %ymm7, %ymm3, %ymm3 vmovapd %ymm3, 19616(%rbx) vmovapd 22560(%rbx), %ymm3 vaddpd %ymm15, %ymm3, %ymm3 vmovapd %ymm3, 13728(%rbx) vmovapd 19712(%rbx), %ymm3 vaddpd %ymm9, %ymm3, %ymm15 vmulpd 19744(%rbx), %ymm11, %ymm9 vmovapd 19584(%rbx), %ymm3 vaddpd %ymm9, %ymm3, %ymm3 vmovapd %ymm3, 21600(%rbx) vmovaps 14272(%rbx), %ymm3 vmovaps %ymm3, 12224(%rcx,%r12) vmulpd %ymm0, %ymm14, %ymm0 vmovapd 14400(%rbx), %ymm3 vaddpd %ymm0, %ymm3, %ymm0 vmovapd %ymm0, 14400(%rbx) vmulpd 21792(%rbx), %ymm6, %ymm4 vmovapd 21632(%rbx), %ymm0 vaddpd %ymm4, %ymm0, %ymm0 vmovapd %ymm0, 14368(%rbx) vmovapd %ymm2, 12320(%rcx,%r12) vmovaps 13280(%rbx), %ymm0 vmovaps %ymm0, 12288(%rcx,%r12) vmovapd 22016(%rbx), %ymm6 vmovapd 14176(%rbx), %ymm14 vmulpd %ymm14, %ymm6, %ymm2 vmovapd 13344(%rbx), %ymm0 vaddpd %ymm2, %ymm0, %ymm0 vmovapd %ymm0, 22592(%rbx) vmovapd 21984(%rbx), %ymm10 vmovapd 13856(%rbx), %ymm3 vmulpd %ymm3, %ymm10, %ymm2 vmovapd 14304(%rbx), %ymm0 vaddpd %ymm2, %ymm0, %ymm0 vmovapd %ymm0, 22560(%rbx) vmovapd 14208(%rbx), %ymm11 vmulpd %ymm11, %ymm6, %ymm2 vmovapd 14336(%rbx), %ymm0 vaddpd %ymm2, %ymm0, %ymm0 vmovapd %ymm0, 21888(%rbx) vmovapd 19808(%rbx), %ymm4 vmulpd %ymm4, %ymm10, %ymm2 vmovapd 19776(%rbx), %ymm0 vaddpd %ymm2, %ymm0, %ymm0 vmovapd %ymm0, 21856(%rbx) vmovapd %ymm8, %ymm13 vmulpd %ymm13, %ymm6, %ymm2 vmovapd %ymm6, %ymm9 vmovapd 22528(%rbx), %ymm0 vaddpd %ymm2, %ymm0, %ymm0 vmovapd %ymm0, 22528(%rbx) vmovapd 19840(%rbx), %ymm5 vmulpd %ymm5, %ymm10, %ymm6 vaddpd %ymm6, %ymm12, %ymm0 vmovapd %ymm0, 21632(%rbx) vmovapd 19872(%rbx), %ymm7 vmulpd %ymm7, %ymm9, %ymm12 vmovapd 13760(%rbx), %ymm0 vaddpd %ymm12, %ymm0, %ymm0 vmovapd %ymm0, 19936(%rbx) vmovapd 19904(%rbx), %ymm0 vmulpd %ymm0, %ymm10, %ymm12 vmovapd 14240(%rbx), %ymm2 vaddpd %ymm12, %ymm2, %ymm2 vmovapd %ymm2, 19776(%rbx) vmovapd 26336(%rbx), %ymm6 vmulpd %ymm14, %ymm6, %ymm12 vmovapd %ymm14, %ymm9 vmovapd 19648(%rbx), %ymm2 vaddpd %ymm12, %ymm2, %ymm2 vmovapd %ymm2, 22624(%rbx) vmovapd 24000(%rbx), %ymm14 vmulpd %ymm3, %ymm14, %ymm12 vmovapd %ymm3, %ymm10 vaddpd %ymm12, %ymm1, %ymm12 vmovapd %ymm12, 19744(%rbx) vmulpd %ymm11, %ymm6, %ymm8 vmovapd 13312(%rbx), %ymm1 vaddpd %ymm8, %ymm1, %ymm8 vmovapd %ymm8, 19712(%rbx) vmulpd %ymm4, %ymm14, %ymm3 vmovapd 13792(%rbx), %ymm1 vaddpd %ymm3, %ymm1, %ymm2 vmovapd %ymm2, 19648(%rbx) vmulpd %ymm13, %ymm6, %ymm1 vmovapd %ymm6, %ymm3 vmovapd 19552(%rbx), %ymm4 vaddpd %ymm1, %ymm4, %ymm13 vmovapd %ymm13, 19680(%rbx) vmulpd %ymm5, %ymm14, %ymm1 vaddpd %ymm1, %ymm15, %ymm6 vmovapd %ymm6, 19552(%rbx) vmulpd %ymm7, %ymm3, %ymm1 vmovapd 13728(%rbx), %ymm3 vaddpd %ymm1, %ymm3, %ymm15 vmovapd %ymm15, 19584(%rbx) vmulpd %ymm0, %ymm14, %ymm1 vmovapd 19616(%rbx), %ymm0 vaddpd %ymm1, %ymm0, %ymm14 vmovapd %ymm14, 19616(%rbx) vmovapd 22752(%rbx), %ymm5 vmulpd %ymm9, %ymm5, %ymm1 vmovapd 21568(%rbx), %ymm0 vaddpd %ymm1, %ymm0, %ymm1 vmovapd 23968(%rbx), %ymm7 vmulpd %ymm10, %ymm7, %ymm3 vmovapd 14368(%rbx), %ymm0 vaddpd %ymm3, %ymm0, %ymm3 vmulpd %ymm11, %ymm5, %ymm4 vmovapd 14400(%rbx), %ymm0 vaddpd %ymm4, %ymm0, %ymm0 vmovapd 26176(%rbx), %ymm4 vmulpd 21824(%rbx), %ymm4, %ymm4 vmovapd 21600(%rbx), %ymm5 vsubpd %ymm4, %ymm5, %ymm4 vmovapd 23808(%rbx), %ymm5 vmulpd 21792(%rbx), %ymm5, %ymm5 vaddpd %ymm5, %ymm4, %ymm4 vmulpd 19808(%rbx), %ymm7, %ymm5 vaddpd %ymm5, %ymm4, %ymm4 vmovapd %ymm4, 12384(%rcx,%r12) vmovapd %ymm0, 12352(%rcx,%r12) vmovapd %ymm3, 12448(%rcx,%r12) vmovapd %ymm1, 12416(%rcx,%r12) vmovapd %ymm14, 12512(%rcx,%r12) vmovapd %ymm15, 12480(%rcx,%r12) vmovapd %ymm6, 12576(%rcx,%r12) vmovapd %ymm13, 12544(%rcx,%r12) vmovapd %ymm2, 12640(%rcx,%r12) vmovapd %ymm8, 12608(%rcx,%r12) vmovapd %ymm12, 12704(%rcx,%r12) vmovaps 22624(%rbx), %ymm0 vmovaps %ymm0, 12672(%rcx,%r12) vmovaps 19776(%rbx), %ymm0 vmovaps %ymm0, 12768(%rcx,%r12) vmovaps 19936(%rbx), %ymm0 vmovaps %ymm0, 12736(%rcx,%r12) vmovaps 21632(%rbx), %ymm0 vmovaps %ymm0, 12832(%rcx,%r12) vmovaps 22528(%rbx), %ymm0 vmovaps %ymm0, 12800(%rcx,%r12) vmovaps 21856(%rbx), %ymm0 vmovaps %ymm0, 12896(%rcx,%r12) vmovaps 21888(%rbx), %ymm0 vmovaps %ymm0, 12864(%rcx,%r12) vmovaps 22560(%rbx), %ymm0 vmovaps %ymm0, 12960(%rcx,%r12) vmovaps 22592(%rbx), %ymm0 vmovaps %ymm0, 12928(%rcx,%r12) vmovapd 13824(%rbx), %ymm0 vmulpd 12192(%rcx,%r12), %ymm0, %ymm1 vmovapd %ymm1, 14400(%rbx) vmulpd 12000(%rcx,%r12), %ymm0, %ymm1 vmovapd %ymm1, 14368(%rbx) vmulpd 12096(%rcx,%r12), %ymm0, %ymm1 vmovapd %ymm1, 14336(%rbx) vmulpd 11968(%rcx,%r12), %ymm0, %ymm1 vmovapd %ymm1, 14304(%rbx) vmulpd 12032(%rcx,%r12), %ymm0, %ymm1 vmovapd %ymm1, 14272(%rbx) vmulpd 12128(%rcx,%r12), %ymm0, %ymm1 vmovapd %ymm1, 14240(%rbx) vmulpd 12064(%rcx,%r12), %ymm0, %ymm1 vmovapd %ymm1, 14208(%rbx) vmulpd 12160(%rcx,%r12), %ymm0, %ymm0 vmovapd %ymm0, 14176(%rbx) vmovapd 26240(%rbx), %ymm0 vmovaps .LCPI1_30(%rip), %ymm8 vmovaps %ymm8, %ymm1 callq __ocl_svml_e9_pow4 vmovapd %ymm0, %ymm11 vmovapd 26208(%rbx), %ymm0 vmovaps %ymm8, %ymm1 callq __ocl_svml_e9_pow4 vmovapd %ymm0, %ymm1 vmovapd 19968(%rbx), %ymm13 vmulpd %ymm11, %ymm13, %ymm0 vmovapd 21920(%rbx), %ymm2 vmulpd %ymm1, %ymm2, %ymm1 callq __ocl_svml_e9_log8 vmovapd %ymm0, 13792(%rbx) vmovapd %ymm1, 13760(%rbx) vmovaps 26112(%rbx), %ymm0 vmovaps .LCPI1_24(%rip), %ymm8 vmovaps %ymm8, %ymm1 callq __ocl_svml_e9_pow4 vmovaps %ymm0, 13728(%rbx) vmovaps 26080(%rbx), %ymm0 vmovaps %ymm8, %ymm1 callq __ocl_svml_e9_pow4 movq 32792(%rbx), %rax movq 30784(%rbx), %r14 movq 30880(%rbx), %r15 vmovaps %ymm0, 13696(%rbx) movq 21664(%rbx), %rcx vxorps %ymm0, %ymm0, %ymm0 vmovaps %ymm0, (%rcx) movq 21680(%rbx), %rcx vmovaps %ymm0, (%rcx) movq 21696(%rbx), %rcx vmovaps %ymm0, (%rcx) movq 21712(%rbx), %rcx vmovaps %ymm0, (%rcx) movq 21728(%rbx), %rcx vmovaps %ymm0, (%rcx) movq 21744(%rbx), %rcx vmovaps %ymm0, (%rcx) movq 21760(%rbx), %rcx vmovaps %ymm0, (%rcx) movq 21776(%rbx), %rcx vmovaps %ymm0, (%rcx) movq %r13, 9680(%rax,%r12) movq %r13, 9712(%rax,%r12) movq %r13, 9744(%rax,%r12) movq %r13, 9776(%rax,%r12) movq %r13, 9808(%rax,%r12) movq %r13, 9840(%rax,%r12) movq %r13, 9872(%rax,%r12) movq %r13, 9904(%rax,%r12) movq 26976(%rbx), %rcx vmovsd (%rcx), %xmm0 movq 26944(%rbx), %rcx vmovhpd (%rcx), %xmm0, %xmm0 vmovapd %xmm0, 22592(%rbx) movq 27104(%rbx), %rcx vmovsd (%rcx), %xmm0 movq 27072(%rbx), %rcx vmovhpd (%rcx), %xmm0, %xmm0 vmovapd %ymm0, 22560(%rbx) movq 27040(%rbx), %rcx vmovsd (%rcx), %xmm0 movq 27008(%rbx), %rcx vmovhpd (%rcx), %xmm0, %xmm0 vmovapd %xmm0, 19936(%rbx) movq 27296(%rbx), %rcx vmovsd (%rcx), %xmm0 movq 27264(%rbx), %rcx vmovhpd (%rcx), %xmm0, %xmm0 vmovapd %ymm0, 19904(%rbx) movq 27232(%rbx), %rcx vmovsd (%rcx), %xmm0 movq 27200(%rbx), %rcx vmovhpd (%rcx), %xmm0, %xmm0 vmovapd %xmm0, 19872(%rbx) movq 27424(%rbx), %rcx vmovsd (%rcx), %xmm0 movq 27392(%rbx), %rcx vmovhpd (%rcx), %xmm0, %xmm0 vmovapd %ymm0, 19840(%rbx) movq 27168(%rbx), %rcx vmovsd (%rcx), %xmm0 movq 27136(%rbx), %rcx vmovhpd (%rcx), %xmm0, %xmm0 vmovapd %xmm0, 19808(%rbx) movq 27360(%rbx), %rcx vmovsd (%rcx), %xmm0 movq 27328(%rbx), %rcx vmovhpd (%rcx), %xmm0, %xmm0 vmovapd %ymm0, 19776(%rbx) movq 27488(%rbx), %rcx vmovsd (%rcx), %xmm0 movq 27456(%rbx), %rcx vmovhpd (%rcx), %xmm0, %xmm0 vmovapd %xmm0, 13344(%rbx) movq 27680(%rbx), %rcx vmovsd (%rcx), %xmm0 movq 27648(%rbx), %rcx vmovhpd (%rcx), %xmm0, %xmm0 vmovapd %ymm0, 13312(%rbx) movq 27616(%rbx), %rcx vmovsd (%rcx), %xmm0 movq 27584(%rbx), %rcx vmovhpd (%rcx), %xmm0, %xmm0 vmovapd %xmm0, 13248(%rbx) movq 27808(%rbx), %rcx vmovsd (%rcx), %xmm0 movq 27776(%rbx), %rcx vmovhpd (%rcx), %xmm0, %xmm0 vmovapd %ymm0, 13216(%rbx) movq 27552(%rbx), %rcx vmovsd (%rcx), %xmm0 movq 27520(%rbx), %rcx vmovhpd (%rcx), %xmm0, %xmm0 vmovapd %xmm0, 13152(%rbx) movq 27744(%rbx), %rcx vmovsd (%rcx), %xmm0 movq 27712(%rbx), %rcx vmovhpd (%rcx), %xmm0, %xmm0 vmovapd %ymm0, 13088(%rbx) movq 27936(%rbx), %rcx vmovsd (%rcx), %xmm0 movq 27904(%rbx), %rcx vmovhpd (%rcx), %xmm0, %xmm0 vmovapd %xmm0, 13056(%rbx) movq 28064(%rbx), %rcx vmovsd (%rcx), %xmm0 movq 28032(%rbx), %rcx vmovhpd (%rcx), %xmm0, %xmm0 vmovapd %ymm0, 13024(%rbx) movq 27872(%rbx), %rcx vmovsd (%rcx), %xmm0 movq 27840(%rbx), %rcx vmovhpd (%rcx), %xmm0, %xmm0 vmovapd %xmm0, 12992(%rbx) movq 28000(%rbx), %rcx vmovsd (%rcx), %xmm0 movq 27968(%rbx), %rcx vmovhpd (%rcx), %xmm0, %xmm0 vmovapd %ymm0, 12960(%rbx) movq 30080(%rbx), %rcx vmovsd (%rcx), %xmm0 movq 30048(%rbx), %rcx vmovhpd (%rcx), %xmm0, %xmm0 vmovapd %xmm0, 12928(%rbx) movq 28160(%rbx), %rcx vmovsd (%rcx), %xmm0 movq 30112(%rbx), %rcx vmovhpd (%rcx), %xmm0, %xmm0 vmovapd %ymm0, 12896(%rbx) movq 28128(%rbx), %rcx vmovsd (%rcx), %xmm0 movq 28096(%rbx), %rcx vmovhpd (%rcx), %xmm0, %xmm0 vmovapd %xmm0, 12864(%rbx) movq 28288(%rbx), %rcx vmovsd (%rcx), %xmm0 movq 28256(%rbx), %rcx vmovhpd (%rcx), %xmm0, %xmm0 vmovapd %ymm0, 12832(%rbx) movq 28224(%rbx), %rcx vmovsd (%rcx), %xmm0 movq 28192(%rbx), %rcx vmovhpd (%rcx), %xmm0, %xmm0 vmovapd %xmm0, 12800(%rbx) movq 28480(%rbx), %rcx vmovsd (%rcx), %xmm0 movq 28448(%rbx), %rcx vmovhpd (%rcx), %xmm0, %xmm0 vmovapd %ymm0, 12768(%rbx) movq 28416(%rbx), %rcx vmovsd (%rcx), %xmm0 movq 28384(%rbx), %rcx vmovhpd (%rcx), %xmm0, %xmm0 vmovapd %xmm0, 12736(%rbx) movq 28672(%rbx), %rcx vmovsd (%rcx), %xmm0 movq 28640(%rbx), %rcx vmovhpd (%rcx), %xmm0, %xmm0 vmovapd %ymm0, 12704(%rbx) movq 28352(%rbx), %rcx vmovsd (%rcx), %xmm0 movq 28320(%rbx), %rcx vmovhpd (%rcx), %xmm0, %xmm0 vmovapd %xmm0, 12672(%rbx) movq 28608(%rbx), %rcx vmovsd (%rcx), %xmm0 movq 28576(%rbx), %rcx vmovhpd (%rcx), %xmm0, %xmm0 vmovapd %ymm0, 12640(%rbx) movq 28544(%rbx), %rcx vmovsd (%rcx), %xmm0 movq 28512(%rbx), %rcx vmovhpd (%rcx), %xmm0, %xmm0 vmovapd %xmm0, 12608(%rbx) movq 28800(%rbx), %rcx vmovsd (%rcx), %xmm0 movq 28768(%rbx), %rcx vmovhpd (%rcx), %xmm0, %xmm0 vmovapd %ymm0, 12576(%rbx) movq 28736(%rbx), %rcx vmovsd (%rcx), %xmm0 movq 28704(%rbx), %rcx vmovhpd (%rcx), %xmm0, %xmm0 vmovapd %xmm0, 12544(%rbx) movq 28928(%rbx), %rcx vmovsd (%rcx), %xmm0 movq 28896(%rbx), %rcx vmovhpd (%rcx), %xmm0, %xmm0 vmovapd %ymm0, 12512(%rbx) movq 28864(%rbx), %rcx vmovsd (%rcx), %xmm0 movq 28832(%rbx), %rcx vmovhpd (%rcx), %xmm0, %xmm0 vmovapd %xmm0, 12480(%rbx) movq 28992(%rbx), %rcx vmovsd (%rcx), %xmm0 movq 28960(%rbx), %rcx vmovhpd (%rcx), %xmm0, %xmm0 vmovapd %ymm0, 12416(%rbx) movq 29056(%rbx), %rcx vmovsd (%rcx), %xmm0 movq 29024(%rbx), %rcx vmovhpd (%rcx), %xmm0, %xmm0 vmovapd %xmm0, 12384(%rbx) movq 29184(%rbx), %rcx vmovsd (%rcx), %xmm0 movq 29152(%rbx), %rcx vmovhpd (%rcx), %xmm0, %xmm0 vmovapd %ymm0, 12032(%rbx) movq 29120(%rbx), %rcx vmovsd (%rcx), %xmm0 movq 29088(%rbx), %rcx vmovhpd (%rcx), %xmm0, %xmm0 vmovapd %xmm0, 11968(%rbx) movq 29312(%rbx), %rcx vmovsd (%rcx), %xmm0 movq 29280(%rbx), %rcx vmovhpd (%rcx), %xmm0, %xmm0 vmovapd %ymm0, 11936(%rbx) movq 29248(%rbx), %rcx vmovsd (%rcx), %xmm0 movq 29216(%rbx), %rcx vmovhpd (%rcx), %xmm0, %xmm0 vmovapd %xmm0, 11904(%rbx) movq 29440(%rbx), %rcx vmovsd (%rcx), %xmm0 movq 29408(%rbx), %rcx vmovhpd (%rcx), %xmm0, %xmm0 vmovapd %ymm0, 11872(%rbx) movq 30176(%rbx), %rcx vmovsd (%rcx), %xmm0 movq 30144(%rbx), %rcx vmovhpd (%rcx), %xmm0, %xmm0 vmovapd %xmm0, 11840(%rbx) movq 30240(%rbx), %rcx vmovsd (%rcx), %xmm0 movq 30208(%rbx), %rcx vmovhpd (%rcx), %xmm0, %xmm0 vmovapd %ymm0, 11808(%rbx) movq 29376(%rbx), %rcx vmovsd (%rcx), %xmm0 movq 29344(%rbx), %rcx vmovhpd (%rcx), %xmm0, %xmm0 vmovapd %xmm0, 11776(%rbx) movq 29568(%rbx), %rcx vmovsd (%rcx), %xmm0 movq 29536(%rbx), %rcx vmovhpd (%rcx), %xmm0, %xmm0 vmovapd %ymm0, 11744(%rbx) movq 29504(%rbx), %rcx vmovsd (%rcx), %xmm0 movq 29472(%rbx), %rcx vmovhpd (%rcx), %xmm0, %xmm0 vmovapd %xmm0, 11712(%rbx) movq 29632(%rbx), %rcx vmovsd (%rcx), %xmm0 movq 29600(%rbx), %rcx vmovhpd (%rcx), %xmm0, %xmm0 vmovapd %ymm0, 11680(%rbx) movq 30528(%rbx), %rcx vmovsd (%rcx), %xmm0 movq 30560(%rbx), %rcx vmovhpd (%rcx), %xmm0, %xmm0 vmovapd %xmm0, 11648(%rbx) movq 30592(%rbx), %rcx vmovsd (%rcx), %xmm0 movq 30624(%rbx), %rcx vmovhpd (%rcx), %xmm0, %xmm0 vmovapd %ymm0, 11616(%rbx) movq 30656(%rbx), %rcx vmovsd (%rcx), %xmm0 movq 30688(%rbx), %rcx vmovhpd (%rcx), %xmm0, %xmm0 vmovapd %xmm0, 11584(%rbx) movq 30720(%rbx), %rcx vmovsd (%rcx), %xmm0 movq 30752(%rbx), %rcx vmovhpd (%rcx), %xmm0, %xmm0 vmovapd %ymm0, 11552(%rbx) movq 30304(%rbx), %rcx vmovsd (%rcx), %xmm0 movq 30272(%rbx), %rcx vmovhpd (%rcx), %xmm0, %xmm0 vmovapd %xmm0, 11536(%rbx) movq 30368(%rbx), %rcx vmovsd (%rcx), %xmm0 movq 30336(%rbx), %rcx vmovhpd (%rcx), %xmm0, %xmm0 vmovapd %ymm0, 11488(%rbx) movq 29696(%rbx), %rcx vmovsd (%rcx), %xmm0 movq 29664(%rbx), %rcx vmovhpd (%rcx), %xmm0, %xmm0 vmovapd %xmm0, 11456(%rbx) movq 29824(%rbx), %rcx vmovsd (%rcx), %xmm0 movq 29792(%rbx), %rcx vmovhpd (%rcx), %xmm0, %xmm0 vmovapd %ymm0, 11424(%rbx) movq 29760(%rbx), %rcx vmovsd (%rcx), %xmm0 movq 29728(%rbx), %rcx vmovhpd (%rcx), %xmm0, %xmm0 vmovapd %xmm0, 11392(%rbx) movq 29952(%rbx), %rcx vmovsd (%rcx), %xmm0 movq 29920(%rbx), %rcx vmovhpd (%rcx), %xmm0, %xmm0 vmovapd %ymm0, 11360(%rbx) vmovsd (%r15), %xmm7 vmovsd (%r14), %xmm3 movq 30816(%rbx), %rcx vmovsd (%rcx), %xmm4 movq 30848(%rbx), %rcx vmovsd (%rcx), %xmm1 movq 30016(%rbx), %rcx vmovsd (%rcx), %xmm6 movq 29888(%rbx), %rcx vmovsd (%rcx), %xmm0 movq 29856(%rbx), %rcx vmovhpd (%rcx), %xmm0, %xmm0 vmovapd %xmm0, 11344(%rbx) movq 29984(%rbx), %rcx vmovhpd (%rcx), %xmm6, %xmm6 movq 30912(%rbx), %rcx vmovhpd (%rcx), %xmm7, %xmm7 movq 30944(%rbx), %rcx vmovhpd (%rcx), %xmm3, %xmm8 movq 30976(%rbx), %rcx vmovhpd (%rcx), %xmm4, %xmm14 movq 31008(%rbx), %rcx vmovhpd (%rcx), %xmm1, %xmm11 movq 30432(%rbx), %rcx vmovsd (%rcx), %xmm0 movq 30400(%rbx), %rcx vmovhpd (%rcx), %xmm0, %xmm4 movq 30496(%rbx), %rcx vmovsd (%rcx), %xmm0 movq 30464(%rbx), %rcx vmovhpd (%rcx), %xmm0, %xmm12 movq 20384(%rbx), %rsi vmovupd 33024(%rbx,%rsi,8), %xmm0 vinsertf128 $1, 33040(%rbx,%rsi,8), %ymm0, %ymm10 vmovapd %ymm10, 13280(%rbx) movq 26880(%rbx), %rcx vmovupd 33024(%rbx,%rcx,8), %xmm0 vinsertf128 $1, 33040(%rbx,%rcx,8), %ymm0, %ymm1 vmovapd %ymm1, 13888(%rbx) movq 20672(%rbx), %rdx vmovupd 33024(%rbx,%rdx,8), %xmm0 vinsertf128 $1, 33040(%rbx,%rdx,8), %ymm0, %ymm2 vmovapd %ymm2, 13184(%rbx) vmovupd 33056(%rbx,%rsi,8), %xmm0 vinsertf128 $1, 33072(%rbx,%rsi,8), %ymm0, %ymm9 vmovapd %ymm9, 20384(%rbx) vmovupd 33056(%rbx,%rcx,8), %xmm0 vinsertf128 $1, 33072(%rbx,%rcx,8), %ymm0, %ymm3 vmovapd %ymm3, 13856(%rbx) vmovupd 33056(%rbx,%rdx,8), %xmm0 vinsertf128 $1, 33072(%rbx,%rdx,8), %ymm0, %ymm15 vmovapd %ymm15, 13120(%rbx) vsubpd %ymm1, %ymm2, %ymm0 vmovapd .LCPI1_24(%rip), %ymm5 vmulpd %ymm5, %ymm0, %ymm2 vmovapd %ymm2, 21632(%rbx) vsubpd %ymm10, %ymm1, %ymm0 vmulpd %ymm5, %ymm0, %ymm0 vmovapd %ymm0, 21792(%rbx) vmulpd %ymm2, %ymm0, %ymm0 vxorpd %ymm10, %ymm10, %ymm10 vcmpnlepd %ymm10, %ymm0, %ymm1 vmovapd %ymm1, 22528(%rbx) vextractf128 $1, %ymm1, %xmm0 vpshufd $8, %xmm0, %xmm2 vmovdqa %xmm2, 21888(%rbx) vpshufd $8, %xmm1, %xmm0 vmovlhps %xmm2, %xmm0, %xmm1 vsubpd %ymm3, %ymm15, %ymm0 vmulpd %ymm5, %ymm0, %ymm2 vmovapd %ymm2, 21600(%rbx) vsubpd %ymm9, %ymm3, %ymm0 vmulpd %ymm5, %ymm0, %ymm0 vmovapd %ymm0, 21568(%rbx) vmulpd %ymm2, %ymm0, %ymm0 vcmpnlepd %ymm10, %ymm0, %ymm2 vmovapd %ymm2, 21856(%rbx) vextractf128 $1, %ymm2, %xmm0 vpshufd $8, %xmm0, %xmm3 vmovdqa %xmm3, 21824(%rbx) vpshufd $8, %xmm2, %xmm0 vmovlhps %xmm3, %xmm0, %xmm0 vpshufb .LCPI1_20(%rip), %xmm0, %xmm0 vpshufb .LCPI1_21(%rip), %xmm1, %xmm1 vpor %xmm0, %xmm1, %xmm0 vpxor .LCPI1_17(%rip), %xmm0, %xmm1 vpmovzxwd %xmm1, %xmm0 vpslld $31, %xmm0, %xmm0 vpsrad $31, %xmm0, %xmm3 vpunpckhwd %xmm0, %xmm1, %xmm0 vpslld $31, %xmm0, %xmm0 vpsrad $31, %xmm0, %xmm0 vinsertf128 $1, %xmm0, %ymm3, %ymm0 vmovdqa 7744(%rbx), %ymm1 vptest %ymm1, %ymm0 vmovapd .LCPI1_73(%rip), %ymm5 vmovapd %ymm13, %ymm0 vmulpd %ymm5, %ymm0, %ymm1 vmovapd .LCPI1_74(%rip), %ymm10 vmulpd %ymm10, %ymm0, %ymm3 vmovapd 26240(%rbx), %ymm9 vaddpd %ymm3, %ymm9, %ymm0 vdivpd %ymm0, %ymm1, %ymm1 vmovapd 21920(%rbx), %ymm0 vmulpd %ymm5, %ymm0, %ymm15 vmulpd %ymm10, %ymm0, %ymm10 vmovapd 31104(%rbx), %ymm0 vaddpd 20096(%rbx), %ymm0, %ymm0 vaddpd 20032(%rbx), %ymm0, %ymm13 vmovapd 26848(%rbx), %ymm0 vaddpd 20160(%rbx), %ymm0, %ymm0 vaddpd 20000(%rbx), %ymm0, %ymm0 vmovapd 26208(%rbx), %ymm2 vaddpd %ymm10, %ymm2, %ymm5 vdivpd %ymm5, %ymm15, %ymm15 vaddpd 20128(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 20096(%rbx) vaddpd 20064(%rbx), %ymm13, %ymm0 vmovapd %ymm0, 21920(%rbx) vmovapd 13376(%rbx), %ymm5 vaddpd %ymm5, %ymm9, %ymm0 vaddpd %ymm3, %ymm0, %ymm0 vdivpd %ymm0, %ymm5, %ymm0 vmulpd %ymm1, %ymm0, %ymm3 vaddpd %ymm1, %ymm0, %ymm1 vmovapd 13408(%rbx), %ymm5 vaddpd %ymm5, %ymm2, %ymm0 vaddpd %ymm10, %ymm0, %ymm0 vdivpd %ymm0, %ymm5, %ymm0 vmulpd %ymm15, %ymm0, %ymm10 vaddpd %ymm15, %ymm0, %ymm0 vsubpd %ymm10, %ymm0, %ymm0 vmovapd %ymm0, 20128(%rbx) vsubpd %ymm3, %ymm1, %ymm0 vmovapd %ymm0, 20160(%rbx) vinsertf128 $1, %xmm4, %ymm12, %ymm9 vmovapd %ymm9, 20032(%rbx) vinsertf128 $1, %xmm14, %ymm11, %ymm11 vinsertf128 $1, %xmm7, %ymm8, %ymm7 vinsertf128 $1, 11344(%rbx), %ymm6, %ymm10 vmovapd %ymm10, 13408(%rbx) vmovapd 11360(%rbx), %ymm0 vinsertf128 $1, 11392(%rbx), %ymm0, %ymm8 vmovapd 11424(%rbx), %ymm0 vinsertf128 $1, 11456(%rbx), %ymm0, %ymm0 vmovapd 11488(%rbx), %ymm1 vinsertf128 $1, 11536(%rbx), %ymm1, %ymm3 vmovapd %ymm3, 13376(%rbx) vmovapd 11552(%rbx), %ymm1 vinsertf128 $1, 11584(%rbx), %ymm1, %ymm12 vmovapd 11616(%rbx), %ymm1 vinsertf128 $1, 11648(%rbx), %ymm1, %ymm1 vmovaps 11680(%rbx), %ymm2 vinsertf128 $1, 11712(%rbx), %ymm2, %ymm2 vmovaps %ymm2, 11680(%rbx) vxorpd %ymm5, %ymm5, %ymm5 vmulpd %ymm5, %ymm0, %ymm6 vaddpd %ymm6, %ymm8, %ymm0 vmulpd %ymm5, %ymm10, %ymm2 vaddpd %ymm2, %ymm0, %ymm0 vmovapd %ymm0, 20000(%rbx) vmulpd %ymm5, %ymm7, %ymm7 vaddpd %ymm7, %ymm11, %ymm0 vmulpd %ymm5, %ymm9, %ymm2 vxorpd %ymm15, %ymm15, %ymm15 vaddpd %ymm2, %ymm0, %ymm0 vmovapd %ymm0, 11712(%rbx) vmovaps 11744(%rbx), %ymm0 vinsertf128 $1, 11776(%rbx), %ymm0, %ymm0 vmovaps %ymm0, 11776(%rbx) vmovaps 11808(%rbx), %ymm0 vinsertf128 $1, 11840(%rbx), %ymm0, %ymm0 vmovaps %ymm0, 11840(%rbx) vmovapd 11872(%rbx), %ymm0 vinsertf128 $1, 11904(%rbx), %ymm0, %ymm9 vmovapd 11936(%rbx), %ymm0 vinsertf128 $1, 11968(%rbx), %ymm0, %ymm0 vmovaps 12032(%rbx), %ymm2 vinsertf128 $1, 12384(%rbx), %ymm2, %ymm2 vmovaps %ymm2, 12384(%rbx) vmovapd 12416(%rbx), %ymm2 vinsertf128 $1, 12480(%rbx), %ymm2, %ymm13 vmovapd 12512(%rbx), %ymm2 vinsertf128 $1, 12544(%rbx), %ymm2, %ymm4 vmovapd 12576(%rbx), %ymm2 vinsertf128 $1, 12608(%rbx), %ymm2, %ymm10 vmovaps 12640(%rbx), %ymm2 vinsertf128 $1, 12672(%rbx), %ymm2, %ymm2 vmovaps %ymm2, 12672(%rbx) vmovapd 12704(%rbx), %ymm14 vinsertf128 $1, 12736(%rbx), %ymm14, %ymm14 vmulpd %ymm15, %ymm11, %ymm11 vaddpd %ymm7, %ymm11, %ymm5 vmovapd %ymm5, 20064(%rbx) vmulpd %ymm15, %ymm1, %ymm11 vmovapd %ymm12, %ymm2 vaddpd %ymm11, %ymm2, %ymm1 vmulpd %ymm15, %ymm3, %ymm7 vaddpd %ymm7, %ymm1, %ymm1 vmovapd %ymm1, 19968(%rbx) vmulpd %ymm15, %ymm8, %ymm1 vaddpd %ymm6, %ymm1, %ymm1 vmovapd %ymm1, 12736(%rbx) vmovapd 12768(%rbx), %ymm1 vinsertf128 $1, 12800(%rbx), %ymm1, %ymm1 vmovaps 12832(%rbx), %ymm6 vinsertf128 $1, 12864(%rbx), %ymm6, %ymm3 vmovaps %ymm3, 12864(%rbx) vmovapd 12896(%rbx), %ymm6 vinsertf128 $1, 12928(%rbx), %ymm6, %ymm3 vmovapd %ymm3, 12800(%rbx) vxorpd %ymm6, %ymm6, %ymm6 vmovapd 11680(%rbx), %ymm3 vmulpd %ymm6, %ymm3, %ymm8 vmulpd %ymm6, %ymm13, %ymm15 vaddpd %ymm8, %ymm13, %ymm3 vaddpd %ymm8, %ymm15, %ymm5 vmovapd %ymm5, 12896(%rbx) vmovapd 12384(%rbx), %ymm5 vmulpd %ymm6, %ymm5, %ymm12 vaddpd %ymm12, %ymm0, %ymm8 vmulpd %ymm6, %ymm9, %ymm13 vmovapd %ymm9, %ymm7 vaddpd %ymm13, %ymm8, %ymm5 vmovapd %ymm5, 12704(%rbx) vmovapd 11840(%rbx), %ymm5 vmulpd %ymm6, %ymm5, %ymm8 vmovapd %ymm8, 12832(%rbx) vmovapd 11712(%rbx), %ymm9 vaddpd %ymm8, %ymm9, %ymm9 vmovapd 11776(%rbx), %ymm8 vmulpd %ymm6, %ymm8, %ymm13 vmovapd 20000(%rbx), %ymm8 vaddpd %ymm13, %ymm8, %ymm15 vmulpd %ymm6, %ymm15, %ymm15 vaddpd %ymm15, %ymm9, %ymm8 vmovapd %ymm8, 12928(%rbx) vmovapd %ymm4, %ymm5 vmulpd %ymm6, %ymm5, %ymm9 vaddpd %ymm9, %ymm3, %ymm3 vmovapd %ymm3, 12768(%rbx) vmulpd %ymm6, %ymm0, %ymm0 vaddpd %ymm12, %ymm0, %ymm0 vmovapd 12960(%rbx), %ymm3 vinsertf128 $1, 12992(%rbx), %ymm3, %ymm9 vmulpd %ymm6, %ymm2, %ymm3 vaddpd %ymm11, %ymm3, %ymm3 vmovapd %ymm3, 20000(%rbx) vmovapd 12672(%rbx), %ymm2 vmulpd %ymm6, %ymm2, %ymm2 vmulpd %ymm6, %ymm10, %ymm3 vxorpd %ymm4, %ymm4, %ymm4 vaddpd %ymm2, %ymm3, %ymm3 vaddpd %ymm2, %ymm10, %ymm2 vmovapd %ymm2, 12992(%rbx) vmovapd 13024(%rbx), %ymm2 vinsertf128 $1, 13056(%rbx), %ymm2, %ymm11 vmovapd 13088(%rbx), %ymm2 vinsertf128 $1, 13152(%rbx), %ymm2, %ymm10 vmulpd %ymm4, %ymm1, %ymm1 vmulpd %ymm4, %ymm14, %ymm2 vaddpd %ymm1, %ymm14, %ymm6 vmovapd %ymm6, 13152(%rbx) vaddpd %ymm1, %ymm2, %ymm1 vmovapd %ymm1, 13088(%rbx) vmovapd 12736(%rbx), %ymm1 vaddpd 13408(%rbx), %ymm1, %ymm15 vmovapd 13216(%rbx), %ymm1 vinsertf128 $1, 13248(%rbx), %ymm1, %ymm14 vmovapd 13312(%rbx), %ymm1 vinsertf128 $1, 13344(%rbx), %ymm1, %ymm12 vmovapd 12800(%rbx), %ymm1 vmulpd %ymm4, %ymm1, %ymm8 vmovapd 19968(%rbx), %ymm1 vaddpd %ymm8, %ymm1, %ymm1 vmovapd 12864(%rbx), %ymm2 vmulpd %ymm4, %ymm2, %ymm6 vmovapd 12704(%rbx), %ymm2 vaddpd %ymm6, %ymm2, %ymm2 vmulpd %ymm4, %ymm2, %ymm2 vaddpd %ymm2, %ymm1, %ymm1 vmovapd %ymm1, 13408(%rbx) vmovapd 20064(%rbx), %ymm1 vaddpd 20032(%rbx), %ymm1, %ymm1 vmovapd %ymm1, 20032(%rbx) vmovapd 12896(%rbx), %ymm1 vaddpd %ymm5, %ymm1, %ymm1 vmovapd %ymm1, 19968(%rbx) vmovapd 19776(%rbx), %ymm1 vinsertf128 $1, 19808(%rbx), %ymm1, %ymm2 vmovapd 19840(%rbx), %ymm1 vinsertf128 $1, 19872(%rbx), %ymm1, %ymm5 vaddpd %ymm7, %ymm0, %ymm0 vmovapd %ymm0, 20064(%rbx) vmovaps 19904(%rbx), %ymm0 vinsertf128 $1, 19936(%rbx), %ymm0, %ymm0 vmovaps %ymm0, 19936(%rbx) vmulpd %ymm4, %ymm9, %ymm9 vmovapd 12768(%rbx), %ymm0 vaddpd %ymm9, %ymm0, %ymm0 vmulpd %ymm4, %ymm0, %ymm0 vmovapd 12928(%rbx), %ymm1 vaddpd %ymm0, %ymm1, %ymm0 vaddpd %ymm10, %ymm3, %ymm3 vmulpd %ymm4, %ymm10, %ymm1 vmovapd 12992(%rbx), %ymm7 vaddpd %ymm1, %ymm7, %ymm10 vmulpd %ymm4, %ymm12, %ymm7 vmulpd %ymm4, %ymm11, %ymm12 vaddpd %ymm7, %ymm11, %ymm1 vaddpd %ymm7, %ymm12, %ymm7 vaddpd %ymm13, %ymm15, %ymm11 vmovapd %ymm11, 19904(%rbx) vmovapd 20000(%rbx), %ymm11 vaddpd 13376(%rbx), %ymm11, %ymm11 vmovapd 13088(%rbx), %ymm12 vaddpd %ymm14, %ymm12, %ymm12 vmulpd %ymm4, %ymm14, %ymm14 vmovapd 13152(%rbx), %ymm13 vaddpd %ymm14, %ymm13, %ymm15 vmovapd 22560(%rbx), %ymm13 vinsertf128 $1, 22592(%rbx), %ymm13, %ymm14 vmulpd %ymm4, %ymm14, %ymm14 vaddpd %ymm14, %ymm15, %ymm15 vmulpd %ymm4, %ymm15, %ymm15 vmovapd 13408(%rbx), %ymm13 vaddpd %ymm15, %ymm13, %ymm13 vaddpd %ymm5, %ymm7, %ymm7 vmulpd %ymm4, %ymm5, %ymm5 vaddpd %ymm5, %ymm1, %ymm15 vmulpd %ymm4, %ymm2, %ymm1 vaddpd %ymm1, %ymm10, %ymm2 vaddpd %ymm1, %ymm3, %ymm5 vmovapd 19968(%rbx), %ymm1 vaddpd %ymm9, %ymm1, %ymm1 vmovapd 20032(%rbx), %ymm3 vaddpd 12832(%rbx), %ymm3, %ymm9 vmulpd %ymm4, %ymm2, %ymm2 vaddpd %ymm2, %ymm0, %ymm0 vmovapd 19936(%rbx), %ymm2 vmulpd %ymm4, %ymm2, %ymm3 vaddpd %ymm3, %ymm15, %ymm2 vaddpd %ymm3, %ymm7, %ymm10 vaddpd %ymm14, %ymm12, %ymm3 vaddpd %ymm8, %ymm11, %ymm14 vmovapd 20064(%rbx), %ymm7 vaddpd %ymm6, %ymm7, %ymm6 vmulpd %ymm4, %ymm2, %ymm2 vaddpd %ymm2, %ymm13, %ymm2 vmovapd %ymm2, 22592(%rbx) vmovapd 19904(%rbx), %ymm2 vmulpd %ymm4, %ymm2, %ymm8 vmulpd %ymm4, %ymm9, %ymm7 vaddpd %ymm8, %ymm7, %ymm7 vaddpd %ymm1, %ymm7, %ymm7 vmulpd %ymm4, %ymm5, %ymm5 vaddpd %ymm5, %ymm7, %ymm11 vmovapd 23808(%rbx), %ymm12 vmulpd %ymm12, %ymm12, %ymm7 vaddpd %ymm11, %ymm7, %ymm11 vmovapd 20128(%rbx), %ymm13 vmulpd %ymm11, %ymm13, %ymm11 vsubpd %ymm11, %ymm7, %ymm2 vmovapd %ymm2, 22560(%rbx) vmovapd 20096(%rbx), %ymm2 vmulpd %ymm12, %ymm2, %ymm7 vmulpd %ymm2, %ymm2, %ymm12 vaddpd %ymm12, %ymm0, %ymm0 vmulpd %ymm0, %ymm13, %ymm0 vmovapd %ymm13, %ymm11 vsubpd %ymm0, %ymm12, %ymm0 vaddpd %ymm8, %ymm9, %ymm12 vmulpd %ymm4, %ymm6, %ymm13 vmulpd %ymm4, %ymm14, %ymm6 vaddpd %ymm13, %ymm6, %ymm6 vaddpd %ymm3, %ymm6, %ymm8 vmulpd %ymm4, %ymm10, %ymm6 vaddpd %ymm6, %ymm8, %ymm9 vmovapd 22656(%rbx), %ymm10 vmulpd %ymm10, %ymm10, %ymm8 vaddpd %ymm9, %ymm8, %ymm9 vmovapd 20160(%rbx), %ymm15 vmulpd %ymm9, %ymm15, %ymm9 vsubpd %ymm9, %ymm8, %ymm9 vmovapd 21920(%rbx), %ymm2 vmulpd %ymm10, %ymm2, %ymm8 vmulpd %ymm2, %ymm2, %ymm10 vmovapd 22592(%rbx), %ymm2 vaddpd %ymm10, %ymm2, %ymm2 vmulpd %ymm2, %ymm15, %ymm2 vsubpd %ymm2, %ymm10, %ymm2 vaddpd %ymm13, %ymm14, %ymm14 vmulpd %ymm4, %ymm1, %ymm10 vmulpd %ymm4, %ymm3, %ymm1 vmovapd .LCPI1_75(%rip), %ymm13 vmulpd %ymm13, %ymm0, %ymm3 vmulpd 22560(%rbx), %ymm3, %ymm3 vaddpd %ymm10, %ymm12, %ymm10 vaddpd %ymm5, %ymm10, %ymm5 vaddpd %ymm7, %ymm5, %ymm5 vmulpd %ymm5, %ymm11, %ymm5 vsubpd %ymm5, %ymm7, %ymm5 vmovapd .LCPI1_24(%rip), %ymm4 vmulpd %ymm4, %ymm5, %ymm5 vmulpd %ymm5, %ymm5, %ymm7 vsubpd %ymm3, %ymm7, %ymm3 vsqrtpd %ymm3, %ymm7 vmovapd .LCPI1_25(%rip), %ymm10 vxorpd %ymm10, %ymm5, %ymm3 vsubpd %ymm7, %ymm3, %ymm3 vsubpd %ymm5, %ymm7, %ymm5 vmulpd %ymm13, %ymm2, %ymm7 vmulpd %ymm9, %ymm7, %ymm7 vaddpd %ymm1, %ymm14, %ymm1 vaddpd %ymm6, %ymm1, %ymm1 vaddpd %ymm8, %ymm1, %ymm1 vmulpd %ymm1, %ymm15, %ymm1 vsubpd %ymm1, %ymm8, %ymm1 vmovapd %ymm4, %ymm6 vmulpd %ymm6, %ymm1, %ymm1 vmulpd %ymm1, %ymm1, %ymm4 vsubpd %ymm7, %ymm4, %ymm4 vxorpd %ymm10, %ymm5, %ymm5 vmulpd %ymm6, %ymm0, %ymm0 vdivpd %ymm0, %ymm5, %ymm5 vmovapd %ymm5, 23808(%rbx) vxorpd %ymm10, %ymm3, %ymm3 vdivpd %ymm0, %ymm3, %ymm0 vmovapd %ymm0, 22656(%rbx) vcmpltpd %ymm5, %ymm0, %ymm0 vextractf128 $1, %ymm0, %xmm3 vpshufd $8, %xmm3, %xmm3 vpshufd $8, %xmm0, %xmm0 vmovlhps %xmm3, %xmm0, %xmm0 vsqrtpd %ymm4, %ymm4 vxorpd %ymm10, %ymm1, %ymm3 vsubpd %ymm4, %ymm3, %ymm3 vsubpd %ymm1, %ymm4, %ymm1 vxorpd %ymm10, %ymm1, %ymm4 vmulpd %ymm6, %ymm2, %ymm1 vdivpd %ymm1, %ymm4, %ymm4 vmovapd %ymm4, 22592(%rbx) vxorpd %ymm10, %ymm3, %ymm2 vdivpd %ymm1, %ymm2, %ymm2 vmovapd %ymm2, 22560(%rbx) vmovdqa .LCPI1_20(%rip), %xmm1 vpshufb %xmm1, %xmm0, %xmm0 vmovdqa %xmm1, %xmm14 vcmpltpd %ymm4, %ymm2, %ymm1 vextractf128 $1, %ymm1, %xmm2 vpshufd $8, %xmm2, %xmm2 vpshufd $8, %xmm1, %xmm1 vmovlhps %xmm2, %xmm1, %xmm1 vmovdqa .LCPI1_21(%rip), %xmm2 vpshufb %xmm2, %xmm1, %xmm1 vmovdqa %xmm2, %xmm10 vpor %xmm0, %xmm1, %xmm0 vpsllw $15, %xmm0, %xmm0 vpsraw $15, %xmm0, %xmm0 vpunpcklbw %xmm0, %xmm0, %xmm1 vpslld $31, %xmm1, %xmm1 vpsrad $31, %xmm1, %xmm1 vmovdqa %xmm1, 20160(%rbx) vpmovsxdq %xmm1, %xmm1 vmovdqa %ymm1, 13344(%rbx) vpunpckhbw %xmm0, %xmm0, %xmm0 vpslld $31, %xmm0, %xmm0 vpsrad $31, %xmm0, %xmm0 vmovdqa %xmm0, 20128(%rbx) vpmovsxdq %xmm0, %xmm0 vmovdqa %ymm0, 13312(%rbx) vmovapd 7712(%rbx), %ymm0 vmovapd %ymm0, %ymm1 vmovapd %ymm0, %ymm4 jb .LBB1_3578 vmovapd 13184(%rbx), %ymm0 vsubpd 13280(%rbx), %ymm0, %ymm0 vmovapd 13120(%rbx), %ymm1 vsubpd 20384(%rbx), %ymm1, %ymm1 vmovapd .LCPI1_28(%rip), %ymm15 vmulpd %ymm15, %ymm1, %ymm2 vmovapd %ymm2, 20384(%rbx) vmulpd %ymm15, %ymm0, %ymm5 vmovapd %ymm5, 21920(%rbx) vmovapd .LCPI1_56(%rip), %ymm1 vandpd %ymm1, %ymm2, %ymm2 vmovapd 21568(%rbx), %ymm13 vandpd %ymm1, %ymm13, %ymm7 vcmpltpd %ymm2, %ymm7, %ymm3 vextractf128 $1, %ymm3, %xmm0 vpshufd $8, %xmm0, %xmm4 vpshufd $8, %xmm3, %xmm0 vandpd %ymm1, %ymm5, %ymm5 vmovlhps %xmm4, %xmm0, %xmm4 vmovapd 21792(%rbx), %ymm0 vandpd %ymm1, %ymm0, %ymm8 vcmpltpd %ymm5, %ymm8, %ymm3 vextractf128 $1, %ymm3, %xmm0 vpshufd $8, %xmm0, %xmm6 vpshufd $8, %xmm3, %xmm0 vmovlhps %xmm6, %xmm0, %xmm6 vmovapd 21600(%rbx), %ymm11 vandpd %ymm1, %ymm11, %ymm3 vcmpltpd %ymm3, %ymm7, %ymm7 vextractf128 $1, %ymm7, %xmm0 vpshufd $8, %xmm0, %xmm0 vpshufd $8, %xmm7, %xmm7 vmovlhps %xmm0, %xmm7, %xmm7 vmovapd 21632(%rbx), %ymm12 vandpd %ymm1, %ymm12, %ymm9 vcmpltpd %ymm9, %ymm8, %ymm8 vextractf128 $1, %ymm8, %xmm0 vpshufd $8, %xmm0, %xmm0 vpshufd $8, %xmm8, %xmm1 vmovlhps %xmm0, %xmm1, %xmm0 vcmpltpd %ymm5, %ymm9, %ymm8 vpshufb %xmm10, %xmm0, %xmm0 vpshufb %xmm14, %xmm7, %xmm1 vpor %xmm1, %xmm0, %xmm5 vpshufb %xmm10, %xmm6, %xmm0 vpshufb %xmm14, %xmm4, %xmm1 vpor %xmm1, %xmm0, %xmm7 vextractf128 $1, %ymm8, %xmm0 vpshufd $8, %xmm0, %xmm0 vpshufd $8, %xmm8, %xmm1 vmovlhps %xmm0, %xmm1, %xmm4 vmovdqa 22528(%rbx), %ymm0 vpshufd $8, %xmm0, %xmm0 vmovaps 21888(%rbx), %xmm1 vmovlhps %xmm1, %xmm0, %xmm6 vcmpltpd %ymm2, %ymm3, %ymm3 vpsllw $15, %xmm7, %xmm0 vpsraw $15, %xmm0, %xmm0 vmovdqa .LCPI1_17(%rip), %xmm1 vpxor %xmm1, %xmm0, %xmm2 vpsllw $15, %xmm5, %xmm0 vpsraw $15, %xmm0, %xmm0 vpxor %xmm1, %xmm0, %xmm0 vpor %xmm2, %xmm0, %xmm2 vextractf128 $1, %ymm3, %xmm0 vpshufd $8, %xmm0, %xmm0 vpshufd $8, %xmm3, %xmm1 vmovlhps %xmm0, %xmm1, %xmm5 vpshufb %xmm10, %xmm4, %xmm3 vpshufb %xmm10, %xmm6, %xmm4 vmovdqa 21856(%rbx), %ymm0 vpshufd $8, %xmm0, %xmm0 vmovaps 21824(%rbx), %xmm1 vmovlhps %xmm1, %xmm0, %xmm0 vpshufb %xmm14, %xmm0, %xmm0 vpor %xmm0, %xmm4, %xmm0 vpsllw $15, %xmm0, %xmm0 vpsraw $15, %xmm0, %xmm0 vpand %xmm2, %xmm0, %xmm2 vpshufb %xmm14, %xmm5, %xmm0 vpunpckhbw %xmm0, %xmm2, %xmm4 vpor %xmm0, %xmm3, %xmm0 vpslld $31, %xmm4, %xmm4 vpsllw $15, %xmm0, %xmm0 vpsraw $15, %xmm0, %xmm3 vpmovsxdq %xmm4, %xmm5 vmovhlps %xmm4, %xmm4, %xmm0 vpmovsxdq %xmm0, %xmm0 vinsertf128 $1, %xmm0, %ymm5, %ymm4 vpunpckhbw %xmm0, %xmm3, %xmm0 vpslld $31, %xmm0, %xmm0 vpmovsxdq %xmm0, %xmm5 vmovhlps %xmm0, %xmm0, %xmm0 vpmovsxdq %xmm0, %xmm0 vinsertf128 $1, %xmm0, %ymm5, %ymm5 vpunpcklbw %xmm0, %xmm2, %xmm0 vpslld $31, %xmm0, %xmm0 vpmovsxdq %xmm0, %xmm2 vmovhlps %xmm0, %xmm0, %xmm0 vpmovsxdq %xmm0, %xmm6 vpunpcklbw %xmm0, %xmm3, %xmm3 vmovapd 20384(%rbx), %ymm0 vblendvpd %ymm5, %ymm11, %ymm0, %ymm0 vblendvpd %ymm4, %ymm0, %ymm13, %ymm0 vmulpd %ymm15, %ymm0, %ymm4 vinsertf128 $1, %xmm6, %ymm2, %ymm1 vpslld $31, %xmm3, %xmm0 vpmovsxdq %xmm0, %xmm2 vmovhlps %xmm0, %xmm0, %xmm0 vpmovsxdq %xmm0, %xmm0 vinsertf128 $1, %xmm0, %ymm2, %ymm0 vmovapd 21920(%rbx), %ymm2 vblendvpd %ymm0, %ymm12, %ymm2, %ymm0 vmovapd 21792(%rbx), %ymm2 vblendvpd %ymm1, %ymm0, %ymm2, %ymm0 vmulpd %ymm15, %ymm0, %ymm1 .LBB1_3578: vmovapd %ymm1, 13376(%rbx) vmovapd %ymm4, 13408(%rbx) vmovdqa 13664(%rbx), %xmm0 vpmovsxdq %xmm0, %xmm0 vmovdqa %xmm0, 21920(%rbx) vmovdqa 13632(%rbx), %xmm0 vpmovsxdq %xmm0, %xmm0 vmovdqa %xmm0, 21600(%rbx) vmovdqa 13536(%rbx), %xmm0 vpmovsxdq %xmm0, %xmm0 vmovdqa %xmm0, 20384(%rbx) vmovdqa 13504(%rbx), %xmm0 vpmovsxdq %xmm0, %xmm0 vmovdqa %xmm0, 20064(%rbx) vmovdqa 13472(%rbx), %xmm0 vpmovsxdq %xmm0, %xmm0 vmovdqa %xmm0, 21632(%rbx) vmovdqa 13440(%rbx), %xmm0 vpmovsxdq %xmm0, %xmm0 vmovdqa %xmm0, 21568(%rbx) movq 32064(%rbx), %rcx vmovupd 33056(%rbx,%rcx,8), %xmm3 movq 20416(%rbx), %rsi vmovupd 33056(%rbx,%rsi,8), %xmm2 vmovupd 33024(%rbx,%rcx,8), %xmm1 vmovupd 33024(%rbx,%rsi,8), %xmm0 movq 20704(%rbx), %rdx vmovupd 33024(%rbx,%rdx,8), %xmm4 vmovupd 33040(%rbx,%rsi,8), %xmm5 vmovupd 33040(%rbx,%rcx,8), %xmm6 vinsertf128 $1, 33072(%rbx,%rcx,8), %ymm3, %ymm7 vmovapd %ymm7, 13664(%rbx) vinsertf128 $1, 33072(%rbx,%rsi,8), %ymm2, %ymm11 vinsertf128 $1, %xmm6, %ymm1, %ymm3 vmovapd %ymm3, 13632(%rbx) vinsertf128 $1, %xmm5, %ymm0, %ymm13 vmovupd 33056(%rbx,%rdx,8), %xmm0 vinsertf128 $1, 33072(%rbx,%rdx,8), %ymm0, %ymm5 vinsertf128 $1, 33040(%rbx,%rdx,8), %ymm4, %ymm6 vmovdqa 21856(%rbx), %ymm0 vpshufd $8, %xmm0, %xmm0 vmovaps 21824(%rbx), %xmm1 vmovlhps %xmm1, %xmm0, %xmm0 vmovdqa 22528(%rbx), %ymm1 vpshufd $8, %xmm1, %xmm1 vmovaps 21888(%rbx), %xmm2 vmovlhps %xmm2, %xmm1, %xmm1 vsubpd %ymm13, %ymm3, %ymm2 vsubpd %ymm3, %ymm6, %ymm3 vsubpd %ymm11, %ymm7, %ymm4 vsubpd %ymm7, %ymm5, %ymm7 vmovapd .LCPI1_24(%rip), %ymm12 vmulpd %ymm12, %ymm7, %ymm9 vmovapd %ymm9, 21888(%rbx) vmulpd %ymm12, %ymm4, %ymm15 vmulpd %ymm12, %ymm3, %ymm8 vmovapd %ymm8, 22528(%rbx) vmulpd %ymm12, %ymm2, %ymm7 vmovdqa %xmm10, %xmm3 vpshufb %xmm3, %xmm1, %xmm1 vpshufb %xmm14, %xmm0, %xmm0 vpor %xmm0, %xmm1, %xmm4 vmulpd %ymm9, %ymm15, %ymm0 vxorpd %ymm2, %ymm2, %ymm2 vcmpnlepd %ymm2, %ymm0, %ymm9 vextractf128 $1, %ymm9, %xmm0 vpshufd $8, %xmm0, %xmm12 vpshufd $8, %xmm9, %xmm0 vmovlhps %xmm12, %xmm0, %xmm0 vpshufb %xmm14, %xmm0, %xmm0 vmulpd %ymm8, %ymm7, %ymm1 vmovapd %ymm7, %ymm10 vcmpnlepd %ymm2, %ymm1, %ymm7 vmovapd %ymm7, 21792(%rbx) vextractf128 $1, %ymm7, %xmm1 vpshufd $8, %xmm1, %xmm2 vmovdqa %xmm2, 21824(%rbx) vpshufd $8, %xmm7, %xmm1 vmovlhps %xmm2, %xmm1, %xmm1 vpshufb %xmm3, %xmm1, %xmm1 vpor %xmm0, %xmm1, %xmm1 vpsllw $15, %xmm4, %xmm0 vpsraw $15, %xmm0, %xmm0 vpxor .LCPI1_17(%rip), %xmm1, %xmm1 vpunpckhbw %xmm0, %xmm0, %xmm2 vpslld $31, %xmm2, %xmm2 vmovdqa %xmm2, 13216(%rbx) vpmovsxdq %xmm2, %xmm2 vmovdqa %ymm2, 13472(%rbx) vpmovzxwd %xmm1, %xmm2 vpslld $31, %xmm2, %xmm2 vpsrad $31, %xmm2, %xmm3 vpunpckhwd %xmm0, %xmm1, %xmm1 vpslld $31, %xmm1, %xmm1 vpsrad $31, %xmm1, %xmm1 vpunpcklbw %xmm0, %xmm0, %xmm0 vpslld $31, %xmm0, %xmm2 vmovdqa %xmm2, 13184(%rbx) vinsertf128 $1, %xmm1, %ymm3, %ymm0 vpmovsxdq %xmm2, %xmm1 vmovdqa %ymm1, 13440(%rbx) vmovdqa 7648(%rbx), %ymm1 vptest %ymm1, %ymm0 vmovapd 7680(%rbx), %ymm0 vmovapd %ymm0, %ymm1 vmovapd %ymm0, %ymm3 jb .LBB1_3580 vsubpd %ymm13, %ymm6, %ymm0 vsubpd %ymm11, %ymm5, %ymm1 vmovapd .LCPI1_28(%rip), %ymm8 vmulpd %ymm8, %ymm1, %ymm1 vmovapd %ymm1, 20096(%rbx) vmulpd %ymm8, %ymm0, %ymm2 vmovapd %ymm2, 21856(%rbx) vmovapd .LCPI1_56(%rip), %ymm4 vandpd %ymm4, %ymm1, %ymm13 vandpd %ymm4, %ymm15, %ymm3 vcmpltpd %ymm13, %ymm3, %ymm0 vextractf128 $1, %ymm0, %xmm1 vpshufd $8, %xmm1, %xmm1 vpshufd $8, %xmm0, %xmm0 vandpd %ymm4, %ymm2, %ymm7 vmovapd %ymm15, 20032(%rbx) vmovaps %xmm12, %xmm15 vmovlhps %xmm1, %xmm0, %xmm12 vmovapd %ymm10, 20416(%rbx) vandpd %ymm4, %ymm10, %ymm0 vcmpltpd %ymm7, %ymm0, %ymm1 vextractf128 $1, %ymm1, %xmm2 vpshufd $8, %xmm2, %xmm2 vpshufd $8, %xmm1, %xmm1 vmovlhps %xmm2, %xmm1, %xmm1 vmovapd 21888(%rbx), %ymm11 vandpd %ymm4, %ymm11, %ymm14 vcmpltpd %ymm14, %ymm3, %ymm2 vextractf128 $1, %ymm2, %xmm3 vpshufd $8, %xmm3, %xmm3 vpshufd $8, %xmm2, %xmm2 vmovlhps %xmm3, %xmm2, %xmm3 vmovapd 22528(%rbx), %ymm10 vandpd %ymm4, %ymm10, %ymm2 vcmpltpd %ymm2, %ymm0, %ymm0 vextractf128 $1, %ymm0, %xmm4 vmovdqa %ymm9, %ymm5 vpshufd $8, %xmm4, %xmm9 vpshufd $8, %xmm0, %xmm0 vmovlhps %xmm9, %xmm0, %xmm4 vmovdqa %ymm5, %ymm9 vcmpltpd %ymm7, %ymm2, %ymm0 vmovdqa .LCPI1_21(%rip), %xmm5 vpshufb %xmm5, %xmm4, %xmm2 vmovdqa .LCPI1_20(%rip), %xmm6 vpshufb %xmm6, %xmm3, %xmm3 vpor %xmm3, %xmm2, %xmm3 vpshufb %xmm5, %xmm1, %xmm1 vpshufb %xmm6, %xmm12, %xmm2 vmovaps %xmm15, %xmm12 vpor %xmm2, %xmm1, %xmm7 vextractf128 $1, %ymm0, %xmm1 vpshufd $8, %xmm1, %xmm1 vpshufd $8, %xmm0, %xmm0 vmovlhps %xmm1, %xmm0, %xmm1 vmovdqa 21792(%rbx), %ymm0 vpshufd $8, %xmm0, %xmm0 vmovaps 21824(%rbx), %xmm2 vmovlhps %xmm2, %xmm0, %xmm0 vcmpltpd %ymm13, %ymm14, %ymm4 vpsllw $15, %xmm7, %xmm2 vpsraw $15, %xmm2, %xmm2 vmovdqa .LCPI1_17(%rip), %xmm7 vpxor %xmm7, %xmm2, %xmm2 vpsllw $15, %xmm3, %xmm3 vpsraw $15, %xmm3, %xmm3 vpxor %xmm7, %xmm3, %xmm3 vpor %xmm2, %xmm3, %xmm3 vextractf128 $1, %ymm4, %xmm2 vpshufd $8, %xmm2, %xmm2 vpshufd $8, %xmm4, %xmm4 vmovlhps %xmm2, %xmm4, %xmm2 vpshufb %xmm5, %xmm1, %xmm4 vpshufb %xmm5, %xmm0, %xmm0 vpshufd $8, %xmm9, %xmm1 vmovlhps %xmm12, %xmm1, %xmm1 vpshufb %xmm6, %xmm1, %xmm1 vpor %xmm1, %xmm0, %xmm0 vpsllw $15, %xmm0, %xmm0 vpsraw $15, %xmm0, %xmm0 vpand %xmm3, %xmm0, %xmm1 vpshufb %xmm6, %xmm2, %xmm0 vpunpckhbw %xmm0, %xmm1, %xmm2 vpor %xmm0, %xmm4, %xmm3 vpslld $31, %xmm2, %xmm0 vpsllw $15, %xmm3, %xmm2 vpsraw $15, %xmm2, %xmm4 vpmovsxdq %xmm0, %xmm2 vmovhlps %xmm0, %xmm0, %xmm0 vpmovsxdq %xmm0, %xmm0 vinsertf128 $1, %xmm0, %ymm2, %ymm3 vpunpckhbw %xmm0, %xmm4, %xmm0 vpslld $31, %xmm0, %xmm2 vpmovsxdq %xmm2, %xmm0 vmovhlps %xmm2, %xmm2, %xmm2 vpmovsxdq %xmm2, %xmm2 vinsertf128 $1, %xmm2, %ymm0, %ymm0 vpunpcklbw %xmm0, %xmm1, %xmm1 vpslld $31, %xmm1, %xmm2 vpmovsxdq %xmm2, %xmm1 vmovhlps %xmm2, %xmm2, %xmm2 vpmovsxdq %xmm2, %xmm2 vpunpcklbw %xmm0, %xmm4, %xmm4 vmovapd 20096(%rbx), %ymm5 vblendvpd %ymm0, %ymm11, %ymm5, %ymm0 vmovapd 20032(%rbx), %ymm5 vblendvpd %ymm3, %ymm0, %ymm5, %ymm0 vmulpd %ymm8, %ymm0, %ymm3 vinsertf128 $1, %xmm2, %ymm1, %ymm0 vpslld $31, %xmm4, %xmm2 vpmovsxdq %xmm2, %xmm1 vmovhlps %xmm2, %xmm2, %xmm2 vpmovsxdq %xmm2, %xmm2 vinsertf128 $1, %xmm2, %ymm1, %ymm1 vmovapd 21856(%rbx), %ymm2 vblendvpd %ymm1, %ymm10, %ymm2, %ymm1 vmovapd 20416(%rbx), %ymm2 vblendvpd %ymm0, %ymm1, %ymm2, %ymm0 vmulpd %ymm8, %ymm0, %ymm1 .LBB1_3580: vmovapd %ymm1, 13504(%rbx) vmovapd %ymm3, 13536(%rbx) vmovaps 17824(%rbx), %ymm0 vinsertf128 $1, 21920(%rbx), %ymm0, %ymm0 vmovaps %ymm0, 21920(%rbx) vmovaps 17792(%rbx), %ymm0 vinsertf128 $1, 21600(%rbx), %ymm0, %ymm0 vmovaps %ymm0, 21856(%rbx) vmovaps 16800(%rbx), %xmm0 vmovhlps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 21600(%rbx) vmovaps 16768(%rbx), %xmm0 vmovhlps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 20096(%rbx) vmovaps 15840(%rbx), %ymm0 vinsertf128 $1, 20384(%rbx), %ymm0, %ymm0 vmovaps %ymm0, 21888(%rbx) vmovaps 15808(%rbx), %ymm0 vinsertf128 $1, 20064(%rbx), %ymm0, %ymm0 vmovaps %ymm0, 22528(%rbx) vmovaps 14848(%rbx), %xmm0 vmovhlps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 19936(%rbx) vmovaps 14816(%rbx), %xmm0 vmovhlps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 19904(%rbx) vmovaps 14144(%rbx), %ymm0 vinsertf128 $1, 21632(%rbx), %ymm0, %ymm0 vmovaps %ymm0, 20416(%rbx) vmovaps 14112(%rbx), %ymm0 vinsertf128 $1, 21568(%rbx), %ymm0, %ymm0 vmovaps %ymm0, 20384(%rbx) vmovaps 20160(%rbx), %xmm0 vmovhlps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 19872(%rbx) vmovaps 20128(%rbx), %xmm0 vmovhlps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 19840(%rbx) movq 32096(%rbx), %rcx vmovupd 33056(%rbx,%rcx,8), %xmm4 movq 20448(%rbx), %rsi vmovupd 33056(%rbx,%rsi,8), %xmm3 vmovupd 33024(%rbx,%rcx,8), %xmm1 vmovupd 33024(%rbx,%rsi,8), %xmm0 movq 20736(%rbx), %rdx vmovupd 33024(%rbx,%rdx,8), %xmm5 vmovupd 33040(%rbx,%rsi,8), %xmm2 vmovupd 33040(%rbx,%rcx,8), %xmm6 vinsertf128 $1, 33072(%rbx,%rcx,8), %ymm4, %ymm7 vmovapd %ymm7, 17824(%rbx) vinsertf128 $1, 33072(%rbx,%rsi,8), %ymm3, %ymm13 vinsertf128 $1, %xmm6, %ymm1, %ymm6 vmovapd %ymm6, 17792(%rbx) vinsertf128 $1, %xmm2, %ymm0, %ymm15 vmovupd 33056(%rbx,%rdx,8), %xmm0 vinsertf128 $1, 33072(%rbx,%rdx,8), %ymm0, %ymm1 vinsertf128 $1, 33040(%rbx,%rdx,8), %ymm5, %ymm3 vpshufd $8, %xmm9, %xmm0 vmovlhps %xmm12, %xmm0, %xmm4 vmovdqa 21792(%rbx), %ymm0 vpshufd $8, %xmm0, %xmm0 vmovaps 21824(%rbx), %xmm2 vmovlhps %xmm2, %xmm0, %xmm2 vsubpd %ymm15, %ymm6, %ymm0 vsubpd %ymm6, %ymm3, %ymm5 vsubpd %ymm13, %ymm7, %ymm6 vsubpd %ymm7, %ymm1, %ymm7 vmovapd .LCPI1_24(%rip), %ymm9 vmulpd %ymm9, %ymm7, %ymm10 vmovapd %ymm10, 20448(%rbx) vmulpd %ymm9, %ymm6, %ymm11 vmulpd %ymm9, %ymm5, %ymm8 vmovapd %ymm8, 21568(%rbx) vmulpd %ymm9, %ymm0, %ymm12 vmovdqa .LCPI1_21(%rip), %xmm6 vpshufb %xmm6, %xmm2, %xmm0 vmovdqa .LCPI1_20(%rip), %xmm7 vpshufb %xmm7, %xmm4, %xmm2 vpor %xmm2, %xmm0, %xmm4 vmulpd %ymm10, %ymm11, %ymm0 vxorpd %ymm5, %ymm5, %ymm5 vcmpnlepd %ymm5, %ymm0, %ymm9 vextractf128 $1, %ymm9, %xmm0 vpshufd $8, %xmm0, %xmm2 vmovdqa %xmm2, 21824(%rbx) vpshufd $8, %xmm9, %xmm0 vmovlhps %xmm2, %xmm0, %xmm0 vpshufb %xmm7, %xmm0, %xmm2 vmulpd %ymm8, %ymm12, %ymm0 vcmpnlepd %ymm5, %ymm0, %ymm7 vmovapd %ymm7, 21632(%rbx) vextractf128 $1, %ymm7, %xmm0 vpshufd $8, %xmm0, %xmm5 vmovdqa %xmm5, 21792(%rbx) vpshufd $8, %xmm7, %xmm0 vmovlhps %xmm5, %xmm0, %xmm0 vpshufb %xmm6, %xmm0, %xmm0 vpor %xmm2, %xmm0, %xmm2 vpsllw $15, %xmm4, %xmm0 vpsraw $15, %xmm0, %xmm4 vmovdqa .LCPI1_17(%rip), %xmm6 vpxor %xmm6, %xmm2, %xmm2 vpunpckhbw %xmm0, %xmm4, %xmm0 vpslld $31, %xmm0, %xmm0 vmovdqa %xmm0, 13152(%rbx) vpmovsxdq %xmm0, %xmm0 vmovdqa %ymm0, 14848(%rbx) vpmovzxwd %xmm2, %xmm0 vpslld $31, %xmm0, %xmm0 vpsrad $31, %xmm0, %xmm5 vpunpckhwd %xmm0, %xmm2, %xmm0 vpslld $31, %xmm0, %xmm0 vpsrad $31, %xmm0, %xmm2 vpunpcklbw %xmm0, %xmm4, %xmm0 vpslld $31, %xmm0, %xmm0 vmovdqa %xmm0, 13120(%rbx) vinsertf128 $1, %xmm2, %ymm5, %ymm2 vpmovsxdq %xmm0, %xmm0 vmovdqa %ymm0, 14816(%rbx) vmovdqa 7584(%rbx), %ymm0 vptest %ymm0, %ymm2 vmovapd 7616(%rbx), %ymm0 vmovapd %ymm0, %ymm2 vmovapd %ymm0, %ymm4 vmovdqa %xmm6, %xmm14 movq 31584(%rbx), %r10 movq 25952(%rbx), %r9 movq 25792(%rbx), %rcx movq 25536(%rbx), %r8 movq 25504(%rbx), %r11 movq 25472(%rbx), %r14 movq 25440(%rbx), %r15 jb .LBB1_3582 vsubpd %ymm15, %ymm3, %ymm2 vsubpd %ymm13, %ymm1, %ymm0 vmovapd .LCPI1_28(%rip), %ymm10 vmulpd %ymm10, %ymm0, %ymm0 vmovapd %ymm0, 20064(%rbx) vmulpd %ymm10, %ymm2, %ymm4 vmovapd %ymm4, 20160(%rbx) vmovapd .LCPI1_56(%rip), %ymm8 vandpd %ymm8, %ymm0, %ymm1 vmovdqa %xmm14, %xmm7 vandpd %ymm8, %ymm11, %ymm14 vcmpltpd %ymm1, %ymm14, %ymm2 vextractf128 $1, %ymm2, %xmm0 vpshufd $8, %xmm0, %xmm3 vpshufd $8, %xmm2, %xmm0 vandpd %ymm8, %ymm4, %ymm5 vmovlhps %xmm3, %xmm0, %xmm4 vandpd %ymm8, %ymm12, %ymm6 vcmpltpd %ymm5, %ymm6, %ymm2 vextractf128 $1, %ymm2, %xmm0 vpshufd $8, %xmm0, %xmm3 vpshufd $8, %xmm2, %xmm0 vmovapd %ymm12, 20128(%rbx) vmovdqa %ymm9, %ymm12 vmovlhps %xmm3, %xmm0, %xmm9 vmovapd 20448(%rbx), %ymm15 vandpd %ymm8, %ymm15, %ymm3 vcmpltpd %ymm3, %ymm14, %ymm2 vextractf128 $1, %ymm2, %xmm0 vpshufd $8, %xmm0, %xmm0 vpshufd $8, %xmm2, %xmm2 vmovlhps %xmm0, %xmm2, %xmm2 vmovapd 21568(%rbx), %ymm13 vandpd %ymm8, %ymm13, %ymm14 vcmpltpd %ymm14, %ymm6, %ymm6 vextractf128 $1, %ymm6, %xmm0 vpshufd $8, %xmm0, %xmm0 vpshufd $8, %xmm6, %xmm6 vmovlhps %xmm0, %xmm6, %xmm0 vcmpltpd %ymm5, %ymm14, %ymm6 vmovdqa %xmm7, %xmm14 vmovdqa .LCPI1_21(%rip), %xmm7 vpshufb %xmm7, %xmm0, %xmm0 vmovdqa .LCPI1_20(%rip), %xmm5 vpshufb %xmm5, %xmm2, %xmm2 vpor %xmm2, %xmm0, %xmm8 vpshufb %xmm7, %xmm9, %xmm0 vpshufb %xmm5, %xmm4, %xmm2 vpor %xmm2, %xmm0, %xmm2 vextractf128 $1, %ymm6, %xmm0 vpshufd $8, %xmm0, %xmm0 vpshufd $8, %xmm6, %xmm4 vmovlhps %xmm0, %xmm4, %xmm9 vmovdqa 21632(%rbx), %ymm0 vpshufd $8, %xmm0, %xmm0 vmovaps 21792(%rbx), %xmm4 vmovlhps %xmm4, %xmm0, %xmm6 vcmpltpd %ymm1, %ymm3, %ymm3 vpsllw $15, %xmm2, %xmm0 vpsraw $15, %xmm0, %xmm0 vpxor %xmm14, %xmm0, %xmm1 vpsllw $15, %xmm8, %xmm0 vpsraw $15, %xmm0, %xmm0 vpxor %xmm14, %xmm0, %xmm0 vpor %xmm1, %xmm0, %xmm1 vextractf128 $1, %ymm3, %xmm0 vpshufd $8, %xmm0, %xmm0 vpshufd $8, %xmm3, %xmm2 vmovlhps %xmm0, %xmm2, %xmm4 vpshufb %xmm7, %xmm9, %xmm3 vmovdqa %ymm12, %ymm9 vpshufb %xmm7, %xmm6, %xmm2 vpshufd $8, %xmm9, %xmm0 vmovaps 21824(%rbx), %xmm6 vmovlhps %xmm6, %xmm0, %xmm0 vpshufb %xmm5, %xmm0, %xmm0 vpor %xmm0, %xmm2, %xmm0 vpsllw $15, %xmm0, %xmm0 vpsraw $15, %xmm0, %xmm0 vpand %xmm1, %xmm0, %xmm1 vpshufb %xmm5, %xmm4, %xmm0 vpunpckhbw %xmm0, %xmm1, %xmm2 vpor %xmm0, %xmm3, %xmm0 vpslld $31, %xmm2, %xmm2 vpsllw $15, %xmm0, %xmm0 vpsraw $15, %xmm0, %xmm3 vpmovsxdq %xmm2, %xmm4 vmovhlps %xmm2, %xmm2, %xmm0 vpmovsxdq %xmm0, %xmm0 vinsertf128 $1, %xmm0, %ymm4, %ymm4 vpunpckhbw %xmm0, %xmm3, %xmm0 vpslld $31, %xmm0, %xmm0 vpmovsxdq %xmm0, %xmm2 vmovhlps %xmm0, %xmm0, %xmm0 vpmovsxdq %xmm0, %xmm0 vinsertf128 $1, %xmm0, %ymm2, %ymm2 vpunpcklbw %xmm0, %xmm1, %xmm0 vpslld $31, %xmm0, %xmm0 vpmovsxdq %xmm0, %xmm1 vmovhlps %xmm0, %xmm0, %xmm0 vpmovsxdq %xmm0, %xmm5 vpunpcklbw %xmm0, %xmm3, %xmm3 vmovapd 20064(%rbx), %ymm0 vblendvpd %ymm2, %ymm15, %ymm0, %ymm0 vblendvpd %ymm4, %ymm0, %ymm11, %ymm0 vmulpd %ymm10, %ymm0, %ymm4 vinsertf128 $1, %xmm5, %ymm1, %ymm1 vpslld $31, %xmm3, %xmm0 vpmovsxdq %xmm0, %xmm2 vmovhlps %xmm0, %xmm0, %xmm0 vpmovsxdq %xmm0, %xmm0 vinsertf128 $1, %xmm0, %ymm2, %ymm0 vmovapd 20160(%rbx), %ymm2 vblendvpd %ymm0, %ymm13, %ymm2, %ymm0 vmovapd 20128(%rbx), %ymm2 vblendvpd %ymm1, %ymm0, %ymm2, %ymm0 vmulpd %ymm10, %ymm0, %ymm2 .LBB1_3582: vmovapd %ymm2, 15808(%rbx) vmovapd %ymm4, 15840(%rbx) vmovapd 21376(%rbx), %ymm0 vmovapd 21856(%rbx), %ymm1 vblendvpd %ymm1, 21344(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 20032(%rbx) vmovapd 21312(%rbx), %ymm0 vmovapd 21920(%rbx), %ymm1 vblendvpd %ymm1, 21280(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 21568(%rbx) vmovdqa 21600(%rbx), %xmm0 vpmovsxdq %xmm0, %xmm0 vmovdqa %xmm0, 19968(%rbx) vmovdqa 20096(%rbx), %xmm0 vpmovsxdq %xmm0, %xmm0 vmovdqa %xmm0, 20000(%rbx) vmovapd 21120(%rbx), %ymm0 vmovapd 22528(%rbx), %ymm1 vblendvpd %ymm1, 21088(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 20160(%rbx) vmovapd 21056(%rbx), %ymm0 vmovapd 21888(%rbx), %ymm1 vblendvpd %ymm1, 21024(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 20064(%rbx) vmovdqa 19936(%rbx), %xmm0 vpmovsxdq %xmm0, %xmm0 vmovdqa %xmm0, 20128(%rbx) vmovdqa 19904(%rbx), %xmm0 vpmovsxdq %xmm0, %xmm0 vmovdqa %xmm0, 20096(%rbx) vmovapd 20352(%rbx), %ymm0 vmovapd 20416(%rbx), %ymm1 vblendvpd %ymm1, 20288(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 20448(%rbx) vmovapd 20256(%rbx), %ymm0 vmovapd 20384(%rbx), %ymm1 vblendvpd %ymm1, 20224(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 13024(%rbx) vmovdqa 19872(%rbx), %xmm0 vpmovsxdq %xmm0, %xmm0 vmovdqa %xmm0, 13088(%rbx) vmovdqa 19840(%rbx), %xmm0 vpmovsxdq %xmm0, %xmm0 vmovdqa %xmm0, 13056(%rbx) movq 32416(%rbx), %rdx vmovupd 33056(%rbx,%rdx,8), %xmm4 movq 20480(%rbx), %rsi vmovupd 33056(%rbx,%rsi,8), %xmm3 vmovupd 33024(%rbx,%rdx,8), %xmm1 vmovupd 33024(%rbx,%rsi,8), %xmm0 movq 20768(%rbx), %rdi vmovupd 33024(%rbx,%rdi,8), %xmm5 vmovupd 33040(%rbx,%rsi,8), %xmm2 vmovupd 33040(%rbx,%rdx,8), %xmm6 vinsertf128 $1, 33072(%rbx,%rdx,8), %ymm4, %ymm7 vmovapd %ymm7, 16800(%rbx) vinsertf128 $1, 33072(%rbx,%rsi,8), %ymm3, %ymm3 vinsertf128 $1, %xmm6, %ymm1, %ymm6 vmovapd %ymm6, 16768(%rbx) vinsertf128 $1, %xmm2, %ymm0, %ymm8 vmovupd 33056(%rbx,%rdi,8), %xmm0 vinsertf128 $1, 33072(%rbx,%rdi,8), %ymm0, %ymm12 vinsertf128 $1, 33040(%rbx,%rdi,8), %ymm5, %ymm13 vpshufd $8, %xmm9, %xmm0 vmovaps 21824(%rbx), %xmm1 vmovlhps %xmm1, %xmm0, %xmm1 vmovdqa 21632(%rbx), %ymm0 vpshufd $8, %xmm0, %xmm0 vmovaps 21792(%rbx), %xmm2 vmovlhps %xmm2, %xmm0, %xmm2 vsubpd %ymm8, %ymm6, %ymm4 vsubpd %ymm6, %ymm13, %ymm5 vsubpd %ymm3, %ymm7, %ymm6 vsubpd %ymm7, %ymm12, %ymm0 vmovapd .LCPI1_24(%rip), %ymm9 vmulpd %ymm9, %ymm0, %ymm10 vmovapd %ymm10, 21824(%rbx) vmulpd %ymm9, %ymm6, %ymm6 vmulpd %ymm9, %ymm5, %ymm7 vmulpd %ymm9, %ymm4, %ymm11 vmovdqa .LCPI1_21(%rip), %xmm0 vpshufb %xmm0, %xmm2, %xmm2 vmovdqa .LCPI1_20(%rip), %xmm4 vpshufb %xmm4, %xmm1, %xmm1 vpor %xmm1, %xmm2, %xmm1 vmulpd %ymm10, %ymm6, %ymm2 vmovapd %ymm6, %ymm9 vxorpd %ymm5, %ymm5, %ymm5 vcmpnlepd %ymm5, %ymm2, %ymm10 vextractf128 $1, %ymm10, %xmm2 vpshufd $8, %xmm2, %xmm6 vmovdqa %xmm6, 19776(%rbx) vpshufd $8, %xmm10, %xmm2 vmovlhps %xmm6, %xmm2, %xmm2 vpshufb %xmm4, %xmm2, %xmm2 vmulpd %ymm7, %ymm11, %ymm4 vcmpnlepd %ymm5, %ymm4, %ymm5 vmovapd %ymm5, 19840(%rbx) vextractf128 $1, %ymm5, %xmm4 vpshufd $8, %xmm4, %xmm6 vmovdqa %xmm6, 19808(%rbx) vpshufd $8, %xmm5, %xmm4 vmovlhps %xmm6, %xmm4, %xmm4 vpshufb %xmm0, %xmm4, %xmm4 vpor %xmm2, %xmm4, %xmm2 vpsllw $15, %xmm1, %xmm1 vpsraw $15, %xmm1, %xmm1 vpxor %xmm14, %xmm2, %xmm2 vpunpckhbw %xmm0, %xmm1, %xmm4 vpslld $31, %xmm4, %xmm0 vmovdqa %xmm0, 12992(%rbx) vpmovsxdq %xmm0, %xmm0 vmovdqa %ymm0, 13280(%rbx) vpmovzxwd %xmm2, %xmm4 vpslld $31, %xmm4, %xmm4 vpsrad $31, %xmm4, %xmm4 vpunpckhwd %xmm0, %xmm2, %xmm2 vpslld $31, %xmm2, %xmm2 vpsrad $31, %xmm2, %xmm2 vpunpcklbw %xmm0, %xmm1, %xmm1 vpslld $31, %xmm1, %xmm0 vmovdqa %xmm0, 12960(%rbx) vinsertf128 $1, %xmm2, %ymm4, %ymm1 vpmovsxdq %xmm0, %xmm0 vmovdqa %ymm0, 13248(%rbx) vmovdqa 7520(%rbx), %ymm2 vptest %ymm2, %ymm1 vmovapd 7552(%rbx), %ymm1 vmovapd %ymm1, %ymm0 vmovapd %ymm1, %ymm6 jb .LBB1_3584 vsubpd %ymm8, %ymm13, %ymm1 vsubpd %ymm3, %ymm12, %ymm2 vmovapd .LCPI1_28(%rip), %ymm15 vmulpd %ymm15, %ymm2, %ymm2 vmovapd %ymm2, 21600(%rbx) vmulpd %ymm15, %ymm1, %ymm0 vmovapd %ymm0, 21792(%rbx) vmovapd .LCPI1_56(%rip), %ymm5 vandpd %ymm5, %ymm2, %ymm12 vmovapd %ymm9, 20480(%rbx) vandpd %ymm5, %ymm9, %ymm6 vcmpltpd %ymm12, %ymm6, %ymm1 vextractf128 $1, %ymm1, %xmm2 vpshufd $8, %xmm2, %xmm2 vpshufd $8, %xmm1, %xmm1 vandpd %ymm5, %ymm0, %ymm9 vmovdqa %ymm10, %ymm8 vmovdqa %xmm14, %xmm10 vmovlhps %xmm2, %xmm1, %xmm14 vmovapd %ymm11, 21632(%rbx) vandpd %ymm5, %ymm11, %ymm11 vcmpltpd %ymm9, %ymm11, %ymm1 vextractf128 $1, %ymm1, %xmm2 vpshufd $8, %xmm2, %xmm2 vpshufd $8, %xmm1, %xmm1 vmovlhps %xmm2, %xmm1, %xmm1 vmovapd 21824(%rbx), %ymm0 vandpd %ymm5, %ymm0, %ymm13 vcmpltpd %ymm13, %ymm6, %ymm2 vextractf128 $1, %ymm2, %xmm4 vpshufd $8, %xmm4, %xmm4 vpshufd $8, %xmm2, %xmm2 vmovlhps %xmm4, %xmm2, %xmm2 vandpd %ymm5, %ymm7, %ymm4 vcmpltpd %ymm4, %ymm11, %ymm5 vmovapd %ymm7, %ymm11 vmovaps 19776(%rbx), %xmm7 vextractf128 $1, %ymm5, %xmm6 vpshufd $8, %xmm6, %xmm6 vpshufd $8, %xmm5, %xmm5 vmovlhps %xmm6, %xmm5, %xmm5 vcmpltpd %ymm9, %ymm4, %ymm4 vmovdqa .LCPI1_21(%rip), %xmm0 vpshufb %xmm0, %xmm5, %xmm5 vmovdqa .LCPI1_20(%rip), %xmm3 vpshufb %xmm3, %xmm2, %xmm2 vpor %xmm2, %xmm5, %xmm6 vpshufb %xmm0, %xmm1, %xmm1 vpshufb %xmm3, %xmm14, %xmm2 vmovdqa %xmm10, %xmm14 vmovdqa %ymm8, %ymm10 vpor %xmm2, %xmm1, %xmm5 vextractf128 $1, %ymm4, %xmm1 vpshufd $8, %xmm1, %xmm1 vpshufd $8, %xmm4, %xmm2 vmovlhps %xmm1, %xmm2, %xmm1 vmovdqa 19840(%rbx), %ymm2 vpshufd $8, %xmm2, %xmm2 vmovaps 19808(%rbx), %xmm4 vmovlhps %xmm4, %xmm2, %xmm2 vcmpltpd %ymm12, %ymm13, %ymm4 vpsllw $15, %xmm5, %xmm5 vpsraw $15, %xmm5, %xmm5 vpxor %xmm14, %xmm5, %xmm5 vpsllw $15, %xmm6, %xmm6 vpsraw $15, %xmm6, %xmm6 vpxor %xmm14, %xmm6, %xmm6 vpor %xmm5, %xmm6, %xmm6 vextractf128 $1, %ymm4, %xmm5 vpshufd $8, %xmm5, %xmm5 vpshufd $8, %xmm4, %xmm4 vmovlhps %xmm5, %xmm4, %xmm5 vpshufb %xmm0, %xmm1, %xmm4 vpshufb %xmm0, %xmm2, %xmm1 vpshufd $8, %xmm10, %xmm2 vmovlhps %xmm7, %xmm2, %xmm2 vpshufb %xmm3, %xmm2, %xmm2 vpor %xmm2, %xmm1, %xmm1 vpsllw $15, %xmm1, %xmm1 vpsraw $15, %xmm1, %xmm1 vpand %xmm6, %xmm1, %xmm1 vpshufb %xmm3, %xmm5, %xmm2 vpunpckhbw %xmm0, %xmm1, %xmm5 vpor %xmm2, %xmm4, %xmm4 vpslld $31, %xmm5, %xmm2 vpsllw $15, %xmm4, %xmm4 vpsraw $15, %xmm4, %xmm6 vpmovsxdq %xmm2, %xmm4 vmovhlps %xmm2, %xmm2, %xmm2 vpmovsxdq %xmm2, %xmm2 vinsertf128 $1, %xmm2, %ymm4, %ymm9 vpunpckhbw %xmm0, %xmm6, %xmm2 vpslld $31, %xmm2, %xmm4 vpmovsxdq %xmm4, %xmm2 vmovhlps %xmm4, %xmm4, %xmm4 vpmovsxdq %xmm4, %xmm4 vinsertf128 $1, %xmm4, %ymm2, %ymm2 vpunpcklbw %xmm0, %xmm1, %xmm1 vpslld $31, %xmm1, %xmm4 vpmovsxdq %xmm4, %xmm1 vmovhlps %xmm4, %xmm4, %xmm4 vpmovsxdq %xmm4, %xmm4 vpunpcklbw %xmm0, %xmm6, %xmm5 vmovapd 21600(%rbx), %ymm0 vblendvpd %ymm2, 21824(%rbx), %ymm0, %ymm0 vmovapd 20480(%rbx), %ymm2 vblendvpd %ymm9, %ymm0, %ymm2, %ymm0 vmulpd %ymm15, %ymm0, %ymm6 vinsertf128 $1, %xmm4, %ymm1, %ymm0 vpslld $31, %xmm5, %xmm2 vpmovsxdq %xmm2, %xmm1 vmovhlps %xmm2, %xmm2, %xmm2 vpmovsxdq %xmm2, %xmm2 vinsertf128 $1, %xmm2, %ymm1, %ymm1 vmovapd 21792(%rbx), %ymm2 vblendvpd %ymm1, %ymm11, %ymm2, %ymm1 vmovapd 21632(%rbx), %ymm2 vblendvpd %ymm0, %ymm1, %ymm2, %ymm0 vmulpd %ymm15, %ymm0, %ymm0 .LBB1_3584: vmovapd %ymm0, 14112(%rbx) vmovapd %ymm6, 14144(%rbx) vmovapd 18432(%rbx), %ymm0 vdivpd 24896(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 21600(%rbx) vmovapd 18464(%rbx), %ymm0 vdivpd 25664(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 19872(%rbx) vmovapd 21344(%rbx), %ymm0 vmovapd 21856(%rbx), %ymm1 vblendvpd %ymm1, 21376(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 21632(%rbx) vmovapd 21280(%rbx), %ymm0 vmovapd 21920(%rbx), %ymm1 vblendvpd %ymm1, 21312(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 21824(%rbx) vmovaps 16864(%rbx), %ymm0 vinsertf128 $1, 19968(%rbx), %ymm0, %ymm0 vmovaps %ymm0, 21376(%rbx) vmovaps .LCPI1_25(%rip), %ymm0 vmovaps 20032(%rbx), %ymm1 vxorps %ymm0, %ymm1, %ymm1 vmovaps %ymm1, 19904(%rbx) vmovaps 21568(%rbx), %ymm1 vxorps %ymm0, %ymm1, %ymm1 vmovaps %ymm1, 21344(%rbx) vmovaps 16832(%rbx), %ymm1 vinsertf128 $1, 20000(%rbx), %ymm1, %ymm1 vmovaps %ymm1, 21312(%rbx) vmovapd 17280(%rbx), %ymm1 vdivpd 26688(%rbx), %ymm1, %ymm1 vmovapd %ymm1, 21568(%rbx) vmovapd 17312(%rbx), %ymm1 vdivpd 26720(%rbx), %ymm1, %ymm1 vmovapd %ymm1, 19936(%rbx) vmovapd 16288(%rbx), %ymm1 vdivpd 24512(%rbx), %ymm1, %ymm1 vmovapd %ymm1, 20032(%rbx) vmovapd 16256(%rbx), %ymm1 vdivpd 24480(%rbx), %ymm1, %ymm1 vmovapd %ymm1, 21920(%rbx) vxorpd %ymm13, %ymm13, %ymm13 vcmpunordpd %ymm13, %ymm13, %ymm1 vmovapd %ymm1, 18464(%rbx) vmovapd 21088(%rbx), %ymm1 vmovapd 22528(%rbx), %ymm2 vblendvpd %ymm2, 21120(%rbx), %ymm1, %ymm1 vmovapd %ymm1, 22528(%rbx) vmovapd 21024(%rbx), %ymm1 vmovapd 21888(%rbx), %ymm2 vblendvpd %ymm2, 21056(%rbx), %ymm1, %ymm1 vmovapd %ymm1, 21888(%rbx) vmovaps 20064(%rbx), %ymm1 vxorps %ymm0, %ymm1, %ymm1 vmovaps %ymm1, 19968(%rbx) vmovaps 20160(%rbx), %ymm1 vxorps %ymm0, %ymm1, %ymm1 vmovaps %ymm1, 20000(%rbx) vmovaps 14912(%rbx), %ymm1 vinsertf128 $1, 20128(%rbx), %ymm1, %ymm1 vmovaps %ymm1, 21792(%rbx) vmovaps 14880(%rbx), %ymm1 vinsertf128 $1, 20096(%rbx), %ymm1, %ymm1 vmovaps %ymm1, 21856(%rbx) vmovapd 14944(%rbx), %ymm1 vdivpd 26496(%rbx), %ymm1, %ymm1 vmovapd %ymm1, 20096(%rbx) vmovapd 15392(%rbx), %ymm1 vdivpd 26528(%rbx), %ymm1, %ymm1 vmovapd %ymm1, 20064(%rbx) vmovapd 14464(%rbx), %ymm1 vdivpd 24192(%rbx), %ymm1, %ymm1 vmovapd %ymm1, 20160(%rbx) vmovapd 14432(%rbx), %ymm1 vdivpd 24160(%rbx), %ymm1, %ymm1 vmovapd %ymm1, 20128(%rbx) vmovapd 20288(%rbx), %ymm1 vmovapd 20416(%rbx), %ymm2 vblendvpd %ymm2, 20352(%rbx), %ymm1, %ymm1 vmovapd %ymm1, 20480(%rbx) vmovapd 20224(%rbx), %ymm1 vmovapd 20384(%rbx), %ymm2 vblendvpd %ymm2, 20256(%rbx), %ymm1, %ymm1 vmovapd %ymm1, 20352(%rbx) vmovaps 13024(%rbx), %ymm1 vxorps %ymm0, %ymm1, %ymm1 vmovaps %ymm1, 20224(%rbx) vmovaps 20448(%rbx), %ymm1 vxorps %ymm0, %ymm1, %ymm0 vmovaps %ymm0, 20256(%rbx) vmovaps 13344(%rbx), %ymm0 vinsertf128 $1, 13088(%rbx), %ymm0, %ymm0 vmovaps %ymm0, 20288(%rbx) vmovaps 13312(%rbx), %ymm0 vinsertf128 $1, 13056(%rbx), %ymm0, %ymm0 vmovaps %ymm0, 20448(%rbx) vmovapd 13568(%rbx), %ymm0 vdivpd 26208(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 20416(%rbx) vmovapd 13600(%rbx), %ymm0 vdivpd 26240(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 20384(%rbx) vmovaps 13216(%rbx), %xmm0 vmovhlps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 16256(%rbx) vmovaps 13184(%rbx), %xmm0 vmovhlps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 15392(%rbx) vmovaps 13152(%rbx), %xmm0 vmovhlps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 12928(%rbx) vmovaps 13120(%rbx), %xmm0 vmovhlps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 12896(%rbx) vmovaps 12992(%rbx), %xmm0 vmovhlps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 12864(%rbx) vmovaps 12960(%rbx), %xmm0 vmovhlps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 12832(%rbx) movq 32448(%rbx), %rdx vmovupd 33056(%rbx,%rdx,8), %xmm3 movq 20512(%rbx), %rsi vmovupd 33056(%rbx,%rsi,8), %xmm2 vmovupd 33024(%rbx,%rdx,8), %xmm1 vmovupd 33024(%rbx,%rsi,8), %xmm0 movq 20800(%rbx), %rdi vmovupd 33024(%rbx,%rdi,8), %xmm5 vmovupd 33040(%rbx,%rsi,8), %xmm6 vmovupd 33040(%rbx,%rdx,8), %xmm7 vinsertf128 $1, 33072(%rbx,%rdx,8), %ymm3, %ymm9 vmovapd %ymm9, 18432(%rbx) vinsertf128 $1, 33072(%rbx,%rsi,8), %ymm2, %ymm4 vinsertf128 $1, %xmm7, %ymm1, %ymm3 vmovapd %ymm3, 17312(%rbx) vinsertf128 $1, %xmm6, %ymm0, %ymm7 vmovupd 33056(%rbx,%rdi,8), %xmm0 vinsertf128 $1, 33072(%rbx,%rdi,8), %ymm0, %ymm8 vinsertf128 $1, 33040(%rbx,%rdi,8), %ymm5, %ymm12 vpshufd $8, %xmm10, %xmm0 vmovaps 19776(%rbx), %xmm1 vmovlhps %xmm1, %xmm0, %xmm0 vmovdqa 19840(%rbx), %ymm1 vpshufd $8, %xmm1, %xmm1 vmovaps 19808(%rbx), %xmm2 vmovlhps %xmm2, %xmm1, %xmm1 vsubpd %ymm7, %ymm3, %ymm2 vsubpd %ymm3, %ymm12, %ymm3 vsubpd %ymm4, %ymm9, %ymm5 vsubpd %ymm9, %ymm8, %ymm6 vmovapd .LCPI1_24(%rip), %ymm9 vmulpd %ymm9, %ymm6, %ymm6 vmovapd %ymm6, 21088(%rbx) vmulpd %ymm9, %ymm5, %ymm15 vmulpd %ymm9, %ymm3, %ymm10 vmulpd %ymm9, %ymm2, %ymm11 vmovdqa .LCPI1_21(%rip), %xmm3 vpshufb %xmm3, %xmm1, %xmm1 vmovdqa .LCPI1_20(%rip), %xmm2 vpshufb %xmm2, %xmm0, %xmm0 vpor %xmm0, %xmm1, %xmm0 vmulpd %ymm6, %ymm15, %ymm1 vcmpnlepd %ymm13, %ymm1, %ymm5 vmovapd %ymm5, 21280(%rbx) vextractf128 $1, %ymm5, %xmm1 vpshufd $8, %xmm1, %xmm6 vmovdqa %xmm6, 21120(%rbx) vpshufd $8, %xmm5, %xmm1 vmovlhps %xmm6, %xmm1, %xmm1 vpshufb %xmm2, %xmm1, %xmm1 vmulpd %ymm10, %ymm11, %ymm2 vcmpnlepd %ymm13, %ymm2, %ymm5 vmovapd %ymm5, 19840(%rbx) vextractf128 $1, %ymm5, %xmm2 vpshufd $8, %xmm2, %xmm6 vmovdqa %xmm6, 19808(%rbx) vpshufd $8, %xmm5, %xmm2 vmovlhps %xmm6, %xmm2, %xmm2 vpshufb %xmm3, %xmm2, %xmm2 vpor %xmm1, %xmm2, %xmm1 vpsllw $15, %xmm0, %xmm0 vpsraw $15, %xmm0, %xmm0 vpxor %xmm14, %xmm1, %xmm2 vpunpckhbw %xmm0, %xmm0, %xmm1 vpslld $31, %xmm1, %xmm1 vpmovsxdq %xmm1, %xmm3 vmovdqa %ymm3, 16832(%rbx) vmovhlps %xmm1, %xmm1, %xmm1 vmovaps %xmm1, 19776(%rbx) vpmovzxwd %xmm2, %xmm1 vpslld $31, %xmm1, %xmm1 vpsrad $31, %xmm1, %xmm1 vpunpckhwd %xmm0, %xmm2, %xmm2 vpslld $31, %xmm2, %xmm2 vpsrad $31, %xmm2, %xmm2 vpunpcklbw %xmm0, %xmm0, %xmm0 vpslld $31, %xmm0, %xmm0 vinsertf128 $1, %xmm2, %ymm1, %ymm1 vpmovsxdq %xmm0, %xmm2 vmovdqa %ymm2, 16288(%rbx) vmovhlps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 12768(%rbx) vmovdqa 7456(%rbx), %ymm0 vptest %ymm0, %ymm1 vmovapd 7488(%rbx), %ymm0 vmovapd %ymm0, %ymm1 vmovapd %ymm0, %ymm3 jb .LBB1_3586 vsubpd %ymm7, %ymm12, %ymm0 vsubpd %ymm4, %ymm8, %ymm1 vmovapd .LCPI1_28(%rip), %ymm9 vmulpd %ymm9, %ymm1, %ymm7 vmulpd %ymm9, %ymm0, %ymm3 vmovapd %ymm3, 21056(%rbx) vmovapd .LCPI1_56(%rip), %ymm5 vandpd %ymm5, %ymm7, %ymm8 vandpd %ymm5, %ymm15, %ymm0 vcmpltpd %ymm8, %ymm0, %ymm1 vextractf128 $1, %ymm1, %xmm2 vpshufd $8, %xmm2, %xmm2 vpshufd $8, %xmm1, %xmm1 vmovdqa %xmm14, %xmm6 vandpd %ymm5, %ymm3, %ymm14 vmovlhps %xmm2, %xmm1, %xmm13 vandpd %ymm5, %ymm11, %ymm3 vcmpltpd %ymm14, %ymm3, %ymm1 vextractf128 $1, %ymm1, %xmm2 vpshufd $8, %xmm2, %xmm2 vpshufd $8, %xmm1, %xmm1 vmovlhps %xmm2, %xmm1, %xmm2 vmovapd 21088(%rbx), %ymm4 vandpd %ymm5, %ymm4, %ymm12 vcmpltpd %ymm12, %ymm0, %ymm0 vextractf128 $1, %ymm0, %xmm1 vpshufd $8, %xmm1, %xmm1 vpshufd $8, %xmm0, %xmm0 vmovlhps %xmm1, %xmm0, %xmm0 vandpd %ymm5, %ymm10, %ymm1 vcmpltpd %ymm1, %ymm3, %ymm3 vextractf128 $1, %ymm3, %xmm5 vpshufd $8, %xmm5, %xmm5 vpshufd $8, %xmm3, %xmm3 vmovlhps %xmm5, %xmm3, %xmm3 vcmpltpd %ymm14, %ymm1, %ymm5 vmovdqa %xmm6, %xmm14 vmovdqa .LCPI1_21(%rip), %xmm6 vpshufb %xmm6, %xmm3, %xmm1 vmovapd %ymm11, 21024(%rbx) vmovdqa .LCPI1_20(%rip), %xmm11 vpshufb %xmm11, %xmm0, %xmm0 vpor %xmm0, %xmm1, %xmm3 vpshufb %xmm6, %xmm2, %xmm0 vpshufb %xmm11, %xmm13, %xmm1 vpor %xmm1, %xmm0, %xmm1 vextractf128 $1, %ymm5, %xmm0 vpshufd $8, %xmm0, %xmm0 vpshufd $8, %xmm5, %xmm2 vmovlhps %xmm0, %xmm2, %xmm0 vmovdqa 19840(%rbx), %ymm2 vpshufd $8, %xmm2, %xmm2 vmovaps 19808(%rbx), %xmm5 vmovlhps %xmm5, %xmm2, %xmm2 vcmpltpd %ymm8, %ymm12, %ymm8 vpsllw $15, %xmm1, %xmm1 vpsraw $15, %xmm1, %xmm1 vpxor %xmm14, %xmm1, %xmm1 vpsllw $15, %xmm3, %xmm3 vpsraw $15, %xmm3, %xmm3 vpxor %xmm14, %xmm3, %xmm3 vpor %xmm1, %xmm3, %xmm3 vextractf128 $1, %ymm8, %xmm1 vpshufd $8, %xmm1, %xmm1 vpshufd $8, %xmm8, %xmm5 vmovlhps %xmm1, %xmm5, %xmm5 vpshufb %xmm6, %xmm0, %xmm0 vpshufb %xmm6, %xmm2, %xmm1 vmovdqa 21280(%rbx), %ymm2 vpshufd $8, %xmm2, %xmm2 vmovaps 21120(%rbx), %xmm6 vmovlhps %xmm6, %xmm2, %xmm2 vpshufb %xmm11, %xmm2, %xmm2 vpor %xmm2, %xmm1, %xmm1 vpsllw $15, %xmm1, %xmm1 vpsraw $15, %xmm1, %xmm1 vpand %xmm3, %xmm1, %xmm2 vpshufb %xmm11, %xmm5, %xmm1 vpunpckhbw %xmm0, %xmm2, %xmm3 vpor %xmm1, %xmm0, %xmm0 vpslld $31, %xmm3, %xmm1 vpsllw $15, %xmm0, %xmm0 vpsraw $15, %xmm0, %xmm0 vpmovsxdq %xmm1, %xmm3 vmovhlps %xmm1, %xmm1, %xmm1 vpmovsxdq %xmm1, %xmm1 vinsertf128 $1, %xmm1, %ymm3, %ymm3 vpunpckhbw %xmm0, %xmm0, %xmm1 vpslld $31, %xmm1, %xmm5 vpmovsxdq %xmm5, %xmm1 vmovhlps %xmm5, %xmm5, %xmm5 vpmovsxdq %xmm5, %xmm5 vinsertf128 $1, %xmm5, %ymm1, %ymm1 vpunpcklbw %xmm0, %xmm2, %xmm2 vpslld $31, %xmm2, %xmm5 vpmovsxdq %xmm5, %xmm2 vmovhlps %xmm5, %xmm5, %xmm5 vpmovsxdq %xmm5, %xmm5 vpunpcklbw %xmm0, %xmm0, %xmm6 vblendvpd %ymm1, %ymm4, %ymm7, %ymm0 vblendvpd %ymm3, %ymm0, %ymm15, %ymm0 vmulpd %ymm9, %ymm0, %ymm3 vinsertf128 $1, %xmm5, %ymm2, %ymm0 vpslld $31, %xmm6, %xmm2 vpmovsxdq %xmm2, %xmm1 vmovhlps %xmm2, %xmm2, %xmm2 vpmovsxdq %xmm2, %xmm2 vinsertf128 $1, %xmm2, %ymm1, %ymm1 vmovapd 21056(%rbx), %ymm2 vblendvpd %ymm1, %ymm10, %ymm2, %ymm1 vmovapd 21024(%rbx), %ymm2 vblendvpd %ymm0, %ymm1, %ymm2, %ymm0 vmulpd %ymm9, %ymm0, %ymm1 .LBB1_3586: vmovapd %ymm1, 16864(%rbx) vmovapd %ymm3, 17280(%rbx) vmovapd 24704(%rbx), %ymm0 vdivpd 21600(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 24704(%rbx) vmovapd 24736(%rbx), %ymm0 vdivpd 19872(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 20512(%rbx) vmovapd .LCPI1_27(%rip), %ymm0 vmovapd 25664(%rbx), %ymm1 vdivpd %ymm0, %ymm1, %ymm1 vmovapd %ymm1, 14880(%rbx) vmovapd 24896(%rbx), %ymm1 vdivpd %ymm0, %ymm1, %ymm1 vmovapd %ymm1, 14432(%rbx) vmovapd 21248(%rbx), %ymm1 vmovapd 21376(%rbx), %ymm2 vblendvpd %ymm2, 21216(%rbx), %ymm1, %ymm1 vmovapd %ymm1, 14944(%rbx) vxorpd %ymm9, %ymm9, %ymm9 vmovapd 19904(%rbx), %ymm1 vmaxpd %ymm9, %ymm1, %ymm1 vmovapd %ymm1, 13344(%rbx) vmovapd 21632(%rbx), %ymm1 vmaxpd %ymm9, %ymm1, %ymm1 vmovapd %ymm1, 13312(%rbx) vmovapd 21344(%rbx), %ymm1 vmaxpd %ymm9, %ymm1, %ymm1 vmovapd %ymm1, 13216(%rbx) vmovapd 21184(%rbx), %ymm1 vmovapd 21312(%rbx), %ymm2 vblendvpd %ymm2, 21152(%rbx), %ymm1, %ymm1 vmovapd %ymm1, 12736(%rbx) vmovapd 21824(%rbx), %ymm1 vmaxpd %ymm9, %ymm1, %ymm1 vmovapd %ymm1, 14912(%rbx) vmovapd 32800(%rbx), %ymm1 vdivpd 19936(%rbx), %ymm1, %ymm1 vmovapd %ymm1, 21056(%rbx) vmovapd 24576(%rbx), %ymm1 vdivpd 21568(%rbx), %ymm1, %ymm1 vmovapd %ymm1, 21024(%rbx) vmovapd 26688(%rbx), %ymm1 vdivpd %ymm0, %ymm1, %ymm1 vmovapd %ymm1, 12704(%rbx) vmovapd 26720(%rbx), %ymm1 vdivpd %ymm0, %ymm1, %ymm1 vmovapd %ymm1, 12672(%rbx) vmovapd 24352(%rbx), %ymm1 vdivpd 21920(%rbx), %ymm1, %ymm1 vmovapd %ymm1, 24352(%rbx) vmovapd 24384(%rbx), %ymm1 vdivpd 20032(%rbx), %ymm1, %ymm1 vmovapd %ymm1, 24384(%rbx) vmovapd 24512(%rbx), %ymm1 vdivpd %ymm0, %ymm1, %ymm1 vmovapd %ymm1, 13184(%rbx) vmovapd 24480(%rbx), %ymm1 vdivpd %ymm0, %ymm1, %ymm1 vmovapd %ymm1, 13152(%rbx) vmovapd 19968(%rbx), %ymm1 vmaxpd %ymm9, %ymm1, %ymm1 vmovapd %ymm1, 12032(%rbx) vmovapd 21888(%rbx), %ymm1 vmaxpd %ymm9, %ymm1, %ymm1 vmovapd %ymm1, 11968(%rbx) vmovapd 20000(%rbx), %ymm1 vmaxpd %ymm9, %ymm1, %ymm1 vmovapd %ymm1, 11936(%rbx) vmovapd 22528(%rbx), %ymm1 vmaxpd %ymm9, %ymm1, %ymm1 vmovapd %ymm1, 11904(%rbx) vmovapd 20896(%rbx), %ymm1 vmovapd 21792(%rbx), %ymm2 vblendvpd %ymm2, 20864(%rbx), %ymm1, %ymm1 vmovapd %ymm1, 13120(%rbx) vmovapd 20960(%rbx), %ymm1 vmovapd 21856(%rbx), %ymm2 vblendvpd %ymm2, 20928(%rbx), %ymm1, %ymm1 vmovapd %ymm1, 13088(%rbx) vmovapd 31136(%rbx), %ymm1 vdivpd 20064(%rbx), %ymm1, %ymm1 vmovapd %ymm1, 24736(%rbx) vmovapd 24224(%rbx), %ymm1 vdivpd 20096(%rbx), %ymm1, %ymm1 vmovapd %ymm1, 21088(%rbx) vmovapd 26496(%rbx), %ymm1 vdivpd %ymm0, %ymm1, %ymm1 vmovapd %ymm1, 13024(%rbx) vmovapd 26528(%rbx), %ymm1 vdivpd %ymm0, %ymm1, %ymm1 vmovapd %ymm1, 12608(%rbx) vmovapd 26304(%rbx), %ymm1 vdivpd 20160(%rbx), %ymm1, %ymm1 vmovapd %ymm1, 26304(%rbx) vmovapd 26272(%rbx), %ymm1 vdivpd 20128(%rbx), %ymm1, %ymm1 vmovapd %ymm1, 26272(%rbx) vmovapd 24160(%rbx), %ymm1 vdivpd %ymm0, %ymm1, %ymm1 vmovapd %ymm1, 14464(%rbx) vmovapd 24192(%rbx), %ymm1 vdivpd %ymm0, %ymm1, %ymm1 vmovapd %ymm1, 13056(%rbx) vmovapd 20224(%rbx), %ymm1 vmaxpd %ymm9, %ymm1, %ymm1 vmovapd %ymm1, 13600(%rbx) vmovapd 20352(%rbx), %ymm1 vmaxpd %ymm9, %ymm1, %ymm1 vmovapd %ymm1, 12480(%rbx) vmovapd 20256(%rbx), %ymm1 vmaxpd %ymm9, %ymm1, %ymm1 vmovapd %ymm1, 12416(%rbx) vmovapd 20480(%rbx), %ymm1 vmaxpd %ymm9, %ymm1, %ymm1 vmovapd %ymm1, 12384(%rbx) vmovapd 22592(%rbx), %ymm1 vmovapd 20288(%rbx), %ymm2 vblendvpd %ymm2, 22560(%rbx), %ymm1, %ymm1 vmovapd %ymm1, 13568(%rbx) vmovapd 23808(%rbx), %ymm1 vmovapd 20448(%rbx), %ymm2 vblendvpd %ymm2, 22656(%rbx), %ymm1, %ymm1 vmovapd %ymm1, 12576(%rbx) vmovapd 26112(%rbx), %ymm1 vdivpd 20384(%rbx), %ymm1, %ymm1 vmovapd %ymm1, 32800(%rbx) vmovapd 26080(%rbx), %ymm1 vdivpd 20416(%rbx), %ymm1, %ymm1 vmovapd %ymm1, 31136(%rbx) vmovapd 26208(%rbx), %ymm1 vdivpd %ymm0, %ymm1, %ymm1 vmovapd %ymm1, 24576(%rbx) vmovapd 26240(%rbx), %ymm1 vdivpd %ymm0, %ymm1, %ymm0 vmovapd %ymm0, 12544(%rbx) vmovdqa 16256(%rbx), %xmm0 vpmovsxdq %xmm0, %xmm0 vmovdqa %xmm0, 12992(%rbx) vmovdqa 15392(%rbx), %xmm0 vpmovsxdq %xmm0, %xmm0 vmovdqa %xmm0, 12960(%rbx) vmovdqa 12928(%rbx), %xmm0 vpmovsxdq %xmm0, %xmm0 vmovdqa %xmm0, 12928(%rbx) vmovdqa 12896(%rbx), %xmm0 vpmovsxdq %xmm0, %xmm0 vmovdqa %xmm0, 12896(%rbx) vmovdqa 12864(%rbx), %xmm0 vpmovsxdq %xmm0, %xmm0 vmovdqa %xmm0, 12864(%rbx) vmovdqa 12832(%rbx), %xmm0 vpmovsxdq %xmm0, %xmm0 vmovdqa %xmm0, 12832(%rbx) vmovdqa 19776(%rbx), %xmm0 vpmovsxdq %xmm0, %xmm0 vmovdqa %xmm0, 12800(%rbx) vmovdqa 12768(%rbx), %xmm0 vpmovsxdq %xmm0, %xmm0 vmovdqa %xmm0, 12512(%rbx) movq 32480(%rbx), %rdx vmovupd 33056(%rbx,%rdx,8), %xmm3 movq 20544(%rbx), %rsi vmovupd 33056(%rbx,%rsi,8), %xmm2 vmovupd 33024(%rbx,%rdx,8), %xmm1 vmovupd 33024(%rbx,%rsi,8), %xmm0 movq 20832(%rbx), %rdi vmovupd 33024(%rbx,%rdi,8), %xmm4 vmovupd 33040(%rbx,%rsi,8), %xmm5 vmovupd 33040(%rbx,%rdx,8), %xmm6 vinsertf128 $1, 33072(%rbx,%rdx,8), %ymm3, %ymm10 vmovapd %ymm10, 19776(%rbx) vinsertf128 $1, 33072(%rbx,%rsi,8), %ymm2, %ymm7 vinsertf128 $1, %xmm6, %ymm1, %ymm3 vmovapd %ymm3, 20544(%rbx) vinsertf128 $1, %xmm5, %ymm0, %ymm8 vmovupd 33056(%rbx,%rdi,8), %xmm0 vinsertf128 $1, 33072(%rbx,%rdi,8), %ymm0, %ymm12 vinsertf128 $1, 33040(%rbx,%rdi,8), %ymm4, %ymm13 vmovdqa 21280(%rbx), %ymm0 vpshufd $8, %xmm0, %xmm0 vmovaps 21120(%rbx), %xmm1 vmovlhps %xmm1, %xmm0, %xmm0 vmovdqa 19840(%rbx), %ymm1 vpshufd $8, %xmm1, %xmm1 vmovaps 19808(%rbx), %xmm2 vmovlhps %xmm2, %xmm1, %xmm1 vsubpd %ymm8, %ymm3, %ymm2 vsubpd %ymm3, %ymm13, %ymm3 vsubpd %ymm7, %ymm10, %ymm4 vsubpd %ymm10, %ymm12, %ymm5 vmovapd .LCPI1_24(%rip), %ymm6 vmulpd %ymm6, %ymm5, %ymm5 vmovapd %ymm5, 21280(%rbx) vmulpd %ymm6, %ymm4, %ymm4 vmulpd %ymm6, %ymm3, %ymm15 vmulpd %ymm6, %ymm2, %ymm10 vmovdqa .LCPI1_21(%rip), %xmm3 vpshufb %xmm3, %xmm1, %xmm1 vmovdqa .LCPI1_20(%rip), %xmm2 vpshufb %xmm2, %xmm0, %xmm0 vpor %xmm0, %xmm1, %xmm1 vmulpd %ymm5, %ymm4, %ymm0 vmovapd %ymm4, %ymm6 vcmpnlepd %ymm9, %ymm0, %ymm11 vextractf128 $1, %ymm11, %xmm0 vpshufd $8, %xmm0, %xmm4 vmovdqa %xmm4, 26112(%rbx) vpshufd $8, %xmm11, %xmm0 vmovlhps %xmm4, %xmm0, %xmm0 vpshufb %xmm2, %xmm0, %xmm0 vmulpd %ymm15, %ymm10, %ymm2 vcmpnlepd %ymm9, %ymm2, %ymm4 vmovapd %ymm4, 26080(%rbx) vextractf128 $1, %ymm4, %xmm2 vpshufd $8, %xmm2, %xmm5 vmovdqa %xmm5, 24224(%rbx) vpshufd $8, %xmm4, %xmm2 vmovlhps %xmm5, %xmm2, %xmm2 vpshufb %xmm3, %xmm2, %xmm2 vpor %xmm0, %xmm2, %xmm0 vpsllw $15, %xmm1, %xmm1 vpsraw $15, %xmm1, %xmm1 vpxor %xmm14, %xmm0, %xmm0 vpunpckhbw %xmm0, %xmm1, %xmm2 vpslld $31, %xmm2, %xmm2 vpmovsxdq %xmm2, %xmm3 vmovdqa %ymm3, 11872(%rbx) vmovhlps %xmm2, %xmm2, %xmm2 vpmovsxdq %xmm2, %xmm2 vmovdqa %xmm2, 11840(%rbx) vpmovzxwd %xmm0, %xmm2 vpslld $31, %xmm2, %xmm2 vpsrad $31, %xmm2, %xmm2 vpunpckhwd %xmm0, %xmm0, %xmm0 vpslld $31, %xmm0, %xmm0 vpsrad $31, %xmm0, %xmm0 vpunpcklbw %xmm0, %xmm1, %xmm1 vpslld $31, %xmm1, %xmm1 vinsertf128 $1, %xmm0, %ymm2, %ymm0 vpmovsxdq %xmm1, %xmm2 vmovdqa %ymm2, 11808(%rbx) vmovhlps %xmm1, %xmm1, %xmm1 vpmovsxdq %xmm1, %xmm1 vmovdqa %xmm1, 11776(%rbx) vmovdqa 7392(%rbx), %ymm1 vptest %ymm1, %ymm0 vmovapd 7424(%rbx), %ymm0 vmovapd %ymm0, %ymm1 vmovapd %ymm0, %ymm4 jb .LBB1_3588 vsubpd %ymm8, %ymm13, %ymm0 vsubpd %ymm7, %ymm12, %ymm1 vmovapd .LCPI1_28(%rip), %ymm9 vmulpd %ymm9, %ymm1, %ymm1 vmovapd %ymm1, 19840(%rbx) vmulpd %ymm9, %ymm0, %ymm2 vmovapd %ymm2, 21120(%rbx) vmovdqa %ymm11, %ymm4 vmovapd .LCPI1_56(%rip), %ymm11 vandpd %ymm11, %ymm1, %ymm12 vmovapd %ymm6, 19808(%rbx) vandpd %ymm11, %ymm6, %ymm6 vcmpltpd %ymm12, %ymm6, %ymm0 vextractf128 $1, %ymm0, %xmm1 vpshufd $8, %xmm1, %xmm1 vpshufd $8, %xmm0, %xmm0 vandpd %ymm11, %ymm2, %ymm14 vmovlhps %xmm1, %xmm0, %xmm1 vandpd %ymm11, %ymm10, %ymm0 vcmpltpd %ymm14, %ymm0, %ymm2 vextractf128 $1, %ymm2, %xmm3 vpshufd $8, %xmm3, %xmm3 vpshufd $8, %xmm2, %xmm2 vmovapd %ymm10, 16256(%rbx) vmovlhps %xmm3, %xmm2, %xmm10 vmovapd 21280(%rbx), %ymm8 vandpd %ymm11, %ymm8, %ymm13 vcmpltpd %ymm13, %ymm6, %ymm2 vextractf128 $1, %ymm2, %xmm3 vpshufd $8, %xmm3, %xmm3 vpshufd $8, %xmm2, %xmm2 vmovlhps %xmm3, %xmm2, %xmm2 vandpd %ymm11, %ymm15, %ymm3 vmovdqa %ymm4, %ymm11 vcmpltpd %ymm3, %ymm0, %ymm0 vextractf128 $1, %ymm0, %xmm6 vpshufd $8, %xmm6, %xmm6 vpshufd $8, %xmm0, %xmm0 vmovlhps %xmm6, %xmm0, %xmm6 vcmpltpd %ymm14, %ymm3, %ymm0 vmovdqa .LCPI1_21(%rip), %xmm4 vpshufb %xmm4, %xmm6, %xmm3 vmovdqa .LCPI1_20(%rip), %xmm5 vpshufb %xmm5, %xmm2, %xmm2 vpor %xmm2, %xmm3, %xmm6 vpshufb %xmm4, %xmm10, %xmm2 vpshufb %xmm5, %xmm1, %xmm1 vpor %xmm1, %xmm2, %xmm3 vextractf128 $1, %ymm0, %xmm1 vpshufd $8, %xmm1, %xmm1 vpshufd $8, %xmm0, %xmm0 vmovlhps %xmm1, %xmm0, %xmm1 vmovdqa 26080(%rbx), %ymm0 vpshufd $8, %xmm0, %xmm0 vmovaps 24224(%rbx), %xmm2 vmovlhps %xmm2, %xmm0, %xmm0 vcmpltpd %ymm12, %ymm13, %ymm2 vpsllw $15, %xmm3, %xmm3 vpsraw $15, %xmm3, %xmm3 vmovdqa .LCPI1_17(%rip), %xmm7 vpxor %xmm7, %xmm3, %xmm3 vpsllw $15, %xmm6, %xmm6 vpsraw $15, %xmm6, %xmm6 vpxor %xmm7, %xmm6, %xmm6 vpor %xmm3, %xmm6, %xmm6 vextractf128 $1, %ymm2, %xmm3 vpshufd $8, %xmm3, %xmm3 vpshufd $8, %xmm2, %xmm2 vmovlhps %xmm3, %xmm2, %xmm3 vpshufb %xmm4, %xmm1, %xmm2 vpshufb %xmm4, %xmm0, %xmm0 vpshufd $8, %xmm11, %xmm1 vmovaps 26112(%rbx), %xmm4 vmovlhps %xmm4, %xmm1, %xmm1 vpshufb %xmm5, %xmm1, %xmm1 vpor %xmm1, %xmm0, %xmm0 vpsllw $15, %xmm0, %xmm0 vpsraw $15, %xmm0, %xmm0 vpand %xmm6, %xmm0, %xmm1 vpshufb %xmm5, %xmm3, %xmm0 vpunpckhbw %xmm0, %xmm1, %xmm3 vpor %xmm0, %xmm2, %xmm2 vpslld $31, %xmm3, %xmm0 vpsllw $15, %xmm2, %xmm2 vpsraw $15, %xmm2, %xmm6 vpmovsxdq %xmm0, %xmm2 vmovhlps %xmm0, %xmm0, %xmm0 vpmovsxdq %xmm0, %xmm0 vinsertf128 $1, %xmm0, %ymm2, %ymm10 vpunpckhbw %xmm0, %xmm6, %xmm0 vpslld $31, %xmm0, %xmm2 vpmovsxdq %xmm2, %xmm0 vmovhlps %xmm2, %xmm2, %xmm2 vpmovsxdq %xmm2, %xmm2 vinsertf128 $1, %xmm2, %ymm0, %ymm0 vpunpcklbw %xmm0, %xmm1, %xmm1 vpslld $31, %xmm1, %xmm2 vpmovsxdq %xmm2, %xmm1 vmovhlps %xmm2, %xmm2, %xmm2 vpmovsxdq %xmm2, %xmm2 vpunpcklbw %xmm0, %xmm6, %xmm3 vmovapd 19840(%rbx), %ymm4 vblendvpd %ymm0, %ymm8, %ymm4, %ymm0 vmovapd 19808(%rbx), %ymm4 vblendvpd %ymm10, %ymm0, %ymm4, %ymm0 vmulpd %ymm9, %ymm0, %ymm4 vinsertf128 $1, %xmm2, %ymm1, %ymm0 vpslld $31, %xmm3, %xmm2 vpmovsxdq %xmm2, %xmm1 vmovhlps %xmm2, %xmm2, %xmm2 vpmovsxdq %xmm2, %xmm2 vinsertf128 $1, %xmm2, %ymm1, %ymm1 vmovapd 21120(%rbx), %ymm2 vblendvpd %ymm1, %ymm15, %ymm2, %ymm1 vmovapd 16256(%rbx), %ymm2 vblendvpd %ymm0, %ymm1, %ymm2, %ymm0 vmulpd %ymm9, %ymm0, %ymm1 .LBB1_3588: vmovapd %ymm1, 19808(%rbx) vmovapd %ymm4, 19840(%rbx) vmovapd 24704(%rbx), %ymm0 vmulpd 21408(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 16256(%rbx) vmovapd 20512(%rbx), %ymm0 vmulpd 22400(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 15392(%rbx) vmovapd 14432(%rbx), %ymm0 vmulpd 18880(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 21280(%rbx) vmovapd 14880(%rbx), %ymm0 vmulpd 18848(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 21120(%rbx) vmovapd .LCPI1_24(%rip), %ymm10 vmovapd 19872(%rbx), %ymm0 vmulpd %ymm10, %ymm0, %ymm0 vmovapd %ymm0, 14880(%rbx) vmovapd .LCPI1_32(%rip), %ymm1 vmovapd 18720(%rbx), %ymm0 vmulpd %ymm1, %ymm0, %ymm0 vmovapd %ymm0, 12768(%rbx) vmovapd 18752(%rbx), %ymm0 vmulpd %ymm1, %ymm0, %ymm0 vmovapd %ymm0, 18720(%rbx) vmovapd 21600(%rbx), %ymm0 vmulpd %ymm10, %ymm0, %ymm0 vmovapd %ymm0, 14432(%rbx) vmovapd 21216(%rbx), %ymm0 vmovapd 21376(%rbx), %ymm2 vblendvpd %ymm2, 21248(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 21600(%rbx) vmovapd 18464(%rbx), %ymm3 vmovapd 13344(%rbx), %ymm0 vblendvpd %ymm3, 19904(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 13344(%rbx) vmovaps .LCPI1_25(%rip), %ymm0 vmovaps 14944(%rbx), %ymm2 vxorps %ymm0, %ymm2, %ymm2 vmovaps %ymm2, 21376(%rbx) vmovapd 13312(%rbx), %ymm2 vblendvpd %ymm3, 21632(%rbx), %ymm2, %ymm2 vmovapd %ymm2, 13312(%rbx) vmovapd 13216(%rbx), %ymm2 vblendvpd %ymm3, 21344(%rbx), %ymm2, %ymm2 vmovapd %ymm2, 14944(%rbx) vmovaps 12736(%rbx), %ymm2 vxorps %ymm0, %ymm2, %ymm2 vmovaps %ymm2, 21344(%rbx) vmovapd 21152(%rbx), %ymm2 vmovapd 21312(%rbx), %ymm4 vblendvpd %ymm4, 21184(%rbx), %ymm2, %ymm2 vmovapd %ymm2, 21312(%rbx) vmovapd 14912(%rbx), %ymm2 vblendvpd %ymm3, 21824(%rbx), %ymm2, %ymm2 vmovapd %ymm2, 13216(%rbx) vmovapd 21568(%rbx), %ymm2 vmulpd %ymm10, %ymm2, %ymm2 vmovapd %ymm2, 21216(%rbx) vmovapd 19936(%rbx), %ymm2 vmulpd %ymm10, %ymm2, %ymm2 vmovapd %ymm2, 19936(%rbx) vmovapd 21056(%rbx), %ymm2 vmulpd 22304(%rbx), %ymm2, %ymm2 vmovapd %ymm2, 14912(%rbx) vmovapd 21024(%rbx), %ymm2 vmulpd 22272(%rbx), %ymm2, %ymm2 vmovapd %ymm2, 12736(%rbx) vmovapd 12704(%rbx), %ymm2 vmulpd 17408(%rbx), %ymm2, %ymm2 vmovapd %ymm2, 21632(%rbx) vmovapd 12672(%rbx), %ymm2 vmulpd 17440(%rbx), %ymm2, %ymm2 vmovapd %ymm2, 21408(%rbx) vmovapd 17376(%rbx), %ymm2 vmulpd %ymm1, %ymm2, %ymm2 vmovapd %ymm2, 12704(%rbx) vmovapd 17344(%rbx), %ymm2 vmulpd %ymm1, %ymm2, %ymm2 vmovapd %ymm2, 12672(%rbx) vmovapd 24352(%rbx), %ymm2 vmulpd 23200(%rbx), %ymm2, %ymm2 vmovapd %ymm2, 19904(%rbx) vmovapd 24384(%rbx), %ymm2 vmulpd 23168(%rbx), %ymm2, %ymm2 vmovapd %ymm2, 19872(%rbx) vmovapd 13152(%rbx), %ymm2 vmulpd 16416(%rbx), %ymm2, %ymm2 vmovapd %ymm2, 21824(%rbx) vmovapd 13184(%rbx), %ymm2 vmulpd 16384(%rbx), %ymm2, %ymm2 vmovapd %ymm2, 21568(%rbx) vmovapd 20032(%rbx), %ymm2 vmulpd %ymm10, %ymm2, %ymm2 vmovapd %ymm2, 13184(%rbx) vmovapd 16320(%rbx), %ymm2 vmulpd %ymm1, %ymm2, %ymm2 vmovapd %ymm2, 12640(%rbx) vmovapd 16352(%rbx), %ymm2 vmulpd %ymm1, %ymm2, %ymm2 vmovapd %ymm2, 16384(%rbx) vmovapd 21920(%rbx), %ymm2 vmulpd %ymm10, %ymm2, %ymm2 vmovapd %ymm2, 13152(%rbx) vmovapd 12032(%rbx), %ymm2 vblendvpd %ymm3, 19968(%rbx), %ymm2, %ymm2 vmovapd %ymm2, 16320(%rbx) vmovapd 11968(%rbx), %ymm2 vblendvpd %ymm3, 21888(%rbx), %ymm2, %ymm2 vmovapd %ymm2, 18752(%rbx) vmovapd 11936(%rbx), %ymm2 vblendvpd %ymm3, 20000(%rbx), %ymm2, %ymm2 vmovapd %ymm2, 18848(%rbx) vmovapd 11904(%rbx), %ymm2 vblendvpd %ymm3, 22528(%rbx), %ymm2, %ymm2 vmovapd %ymm2, 20000(%rbx) vmovapd 20864(%rbx), %ymm2 vmovapd 21792(%rbx), %ymm4 vblendvpd %ymm4, 20896(%rbx), %ymm2, %ymm2 vmovapd %ymm2, 21920(%rbx) vmovaps 13120(%rbx), %ymm2 vxorps %ymm0, %ymm2, %ymm2 vmovaps %ymm2, 21792(%rbx) vmovaps 13088(%rbx), %ymm2 vxorps %ymm0, %ymm2, %ymm2 vmovaps %ymm2, 21888(%rbx) vmovapd 20928(%rbx), %ymm2 vmovapd 21856(%rbx), %ymm4 vblendvpd %ymm4, 20960(%rbx), %ymm2, %ymm2 vmovapd %ymm2, 21856(%rbx) vmovapd 20096(%rbx), %ymm2 vmulpd %ymm10, %ymm2, %ymm2 vmovapd %ymm2, 21184(%rbx) vmovapd 20064(%rbx), %ymm2 vmulpd %ymm10, %ymm2, %ymm2 vmovapd %ymm2, 18880(%rbx) vmovapd 21088(%rbx), %ymm2 vmulpd 22176(%rbx), %ymm2, %ymm2 vmovapd %ymm2, 13120(%rbx) vmovapd 24736(%rbx), %ymm2 vmulpd 22912(%rbx), %ymm2, %ymm2 vmovapd %ymm2, 13088(%rbx) vmovapd 13024(%rbx), %ymm2 vmulpd 15552(%rbx), %ymm2, %ymm2 vmovapd %ymm2, 22400(%rbx) vmovapd 12608(%rbx), %ymm2 vmulpd 15584(%rbx), %ymm2, %ymm2 vmovapd %ymm2, 22272(%rbx) vmovapd 15520(%rbx), %ymm2 vmulpd %ymm1, %ymm2, %ymm2 vmovapd %ymm2, 15520(%rbx) vmovapd 15488(%rbx), %ymm2 vmulpd %ymm1, %ymm2, %ymm2 vmovapd %ymm2, 12608(%rbx) vmovapd 26304(%rbx), %ymm2 vmulpd 22048(%rbx), %ymm2, %ymm2 vmovapd %ymm2, 17344(%rbx) vmovapd 26272(%rbx), %ymm2 vmulpd 22784(%rbx), %ymm2, %ymm2 vmovapd %ymm2, 16416(%rbx) vmovapd 13056(%rbx), %ymm2 vmulpd 14592(%rbx), %ymm2, %ymm2 vmovapd %ymm2, 22528(%rbx) vmovapd 14464(%rbx), %ymm2 vmulpd 14560(%rbx), %ymm2, %ymm2 vmovapd %ymm2, 22304(%rbx) vmovapd 20128(%rbx), %ymm2 vmulpd %ymm10, %ymm2, %ymm2 vmovapd %ymm2, 13056(%rbx) vmovapd 14496(%rbx), %ymm2 vmulpd %ymm1, %ymm2, %ymm2 vmovapd %ymm2, 14496(%rbx) vmovapd 14528(%rbx), %ymm2 vmulpd %ymm1, %ymm2, %ymm2 vmovapd %ymm2, 14464(%rbx) vmovapd 20160(%rbx), %ymm2 vmulpd %ymm10, %ymm2, %ymm2 vmovapd %ymm2, 13024(%rbx) vmovapd 13600(%rbx), %ymm2 vblendvpd %ymm3, 20224(%rbx), %ymm2, %ymm2 vmovapd %ymm2, 13600(%rbx) vmovapd 12480(%rbx), %ymm2 vblendvpd %ymm3, 20352(%rbx), %ymm2, %ymm2 vmovapd %ymm2, 16352(%rbx) vmovapd 12416(%rbx), %ymm2 vblendvpd %ymm3, 20256(%rbx), %ymm2, %ymm2 vmovapd %ymm2, 17408(%rbx) vmovapd 12384(%rbx), %ymm2 vblendvpd %ymm3, 20480(%rbx), %ymm2, %ymm2 vmovapd %ymm2, 17440(%rbx) vmovapd 22560(%rbx), %ymm2 vmovapd 20288(%rbx), %ymm3 vblendvpd %ymm3, 22592(%rbx), %ymm2, %ymm2 vmovapd %ymm2, 23168(%rbx) vmovaps 13568(%rbx), %ymm2 vxorps %ymm0, %ymm2, %ymm2 vmovaps %ymm2, 22592(%rbx) vmovaps 12576(%rbx), %ymm2 vxorps %ymm0, %ymm2, %ymm0 vmovaps %ymm0, 22912(%rbx) vmovapd 22656(%rbx), %ymm0 vmovapd 20448(%rbx), %ymm2 vblendvpd %ymm2, 23808(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 22784(%rbx) vmovapd 20416(%rbx), %ymm0 vmulpd %ymm10, %ymm0, %ymm0 vmovapd %ymm0, 20256(%rbx) vmovapd 20384(%rbx), %ymm0 vmulpd %ymm10, %ymm0, %ymm0 vmovapd %ymm0, 17376(%rbx) vmovapd 32800(%rbx), %ymm0 vmulpd 20192(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 13568(%rbx) vmovapd 31136(%rbx), %ymm0 vmulpd 22688(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 12576(%rbx) vmovapd 24576(%rbx), %ymm0 vmulpd 13760(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 24576(%rbx) vmovapd 12544(%rbx), %ymm0 vmulpd 13792(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 23200(%rbx) vmovapd 13728(%rbx), %ymm0 vmulpd %ymm1, %ymm0, %ymm0 vmovapd %ymm0, 13792(%rbx) vmovapd 13696(%rbx), %ymm0 vmulpd %ymm1, %ymm0, %ymm0 vmovapd %ymm0, 12544(%rbx) vmovaps 13472(%rbx), %ymm0 vinsertf128 $1, 12992(%rbx), %ymm0, %ymm0 vmovaps %ymm0, 13696(%rbx) vmovaps 13440(%rbx), %ymm0 vinsertf128 $1, 12960(%rbx), %ymm0, %ymm0 vmovaps %ymm0, 12992(%rbx) vmovaps 14848(%rbx), %ymm0 vinsertf128 $1, 12928(%rbx), %ymm0, %ymm0 vmovaps %ymm0, 12960(%rbx) vmovaps 14816(%rbx), %ymm0 vinsertf128 $1, 12896(%rbx), %ymm0, %ymm0 vmovaps %ymm0, 12928(%rbx) vmovaps 13280(%rbx), %ymm0 vinsertf128 $1, 12864(%rbx), %ymm0, %ymm0 vmovaps %ymm0, 13280(%rbx) vmovaps 13248(%rbx), %ymm0 vinsertf128 $1, 12832(%rbx), %ymm0, %ymm0 vmovaps %ymm0, 13248(%rbx) vmovaps 16832(%rbx), %ymm0 vinsertf128 $1, 12800(%rbx), %ymm0, %ymm0 vmovaps %ymm0, 12896(%rbx) vmovaps 16288(%rbx), %ymm0 vinsertf128 $1, 12512(%rbx), %ymm0, %ymm0 vmovaps %ymm0, 12864(%rbx) vmovaps 11872(%rbx), %ymm0 vinsertf128 $1, 11840(%rbx), %ymm0, %ymm0 vmovaps %ymm0, 12832(%rbx) vmovaps 11808(%rbx), %ymm0 vinsertf128 $1, 11776(%rbx), %ymm0, %ymm0 vmovaps %ymm0, 12800(%rbx) movq 32512(%rbx), %rdx vmovupd 33056(%rbx,%rdx,8), %xmm3 movq 20576(%rbx), %rsi vmovupd 33056(%rbx,%rsi,8), %xmm2 vmovupd 33024(%rbx,%rdx,8), %xmm1 vmovupd 33024(%rbx,%rsi,8), %xmm0 movq 20320(%rbx), %rdi vmovupd 33024(%rbx,%rdi,8), %xmm4 vmovupd 33040(%rbx,%rsi,8), %xmm5 vmovupd 33040(%rbx,%rdx,8), %xmm6 vinsertf128 $1, 33072(%rbx,%rdx,8), %ymm3, %ymm9 vmovapd %ymm9, 22048(%rbx) vinsertf128 $1, 33072(%rbx,%rsi,8), %ymm2, %ymm12 vinsertf128 $1, %xmm6, %ymm1, %ymm7 vmovapd %ymm7, 21248(%rbx) vinsertf128 $1, %xmm5, %ymm0, %ymm5 vmovupd 33056(%rbx,%rdi,8), %xmm0 vinsertf128 $1, 33072(%rbx,%rdi,8), %ymm0, %ymm8 vinsertf128 $1, 33040(%rbx,%rdi,8), %ymm4, %ymm6 vpshufd $8, %xmm11, %xmm0 vmovaps 26112(%rbx), %xmm1 vmovlhps %xmm1, %xmm0, %xmm0 vmovdqa 26080(%rbx), %ymm1 vpshufd $8, %xmm1, %xmm1 vmovaps 24224(%rbx), %xmm3 vmovlhps %xmm3, %xmm1, %xmm1 vsubpd %ymm5, %ymm7, %ymm3 vsubpd %ymm7, %ymm6, %ymm4 vsubpd %ymm12, %ymm9, %ymm7 vsubpd %ymm9, %ymm8, %ymm9 vmulpd %ymm10, %ymm9, %ymm13 vmulpd %ymm10, %ymm7, %ymm9 vmulpd %ymm10, %ymm4, %ymm14 vmulpd %ymm10, %ymm3, %ymm15 vmovdqa .LCPI1_21(%rip), %xmm7 vpshufb %xmm7, %xmm1, %xmm1 vmovdqa .LCPI1_20(%rip), %xmm3 vpshufb %xmm3, %xmm0, %xmm0 vpor %xmm0, %xmm1, %xmm1 vmulpd %ymm13, %ymm9, %ymm0 vxorpd %ymm4, %ymm4, %ymm4 vcmpnlepd %ymm4, %ymm0, %ymm10 vmovapd %ymm10, 22560(%rbx) vextractf128 $1, %ymm10, %xmm0 vpshufd $8, %xmm0, %xmm2 vmovdqa %xmm2, 22656(%rbx) vpshufd $8, %xmm10, %xmm0 vmovlhps %xmm2, %xmm0, %xmm0 vpshufb %xmm3, %xmm0, %xmm0 vmulpd %ymm14, %ymm15, %ymm3 vcmpnlepd %ymm4, %ymm3, %ymm2 vmovapd %ymm2, 22176(%rbx) vextractf128 $1, %ymm2, %xmm3 vpshufd $8, %xmm3, %xmm4 vmovdqa %xmm4, 22688(%rbx) vpshufd $8, %xmm2, %xmm3 vmovlhps %xmm4, %xmm3, %xmm3 vpshufb %xmm7, %xmm3, %xmm3 vpor %xmm0, %xmm3, %xmm0 vpsllw $15, %xmm1, %xmm1 vpsraw $15, %xmm1, %xmm1 vpxor .LCPI1_17(%rip), %xmm0, %xmm0 vpunpckhbw %xmm0, %xmm1, %xmm3 vpslld $31, %xmm3, %xmm4 vpmovsxdq %xmm4, %xmm3 vmovhlps %xmm4, %xmm4, %xmm4 vpmovsxdq %xmm4, %xmm4 vinsertf128 $1, %xmm4, %ymm3, %ymm3 vmovaps %ymm3, 12480(%rbx) vpmovzxwd %xmm0, %xmm3 vpslld $31, %xmm3, %xmm3 vpsrad $31, %xmm3, %xmm3 vpunpckhwd %xmm0, %xmm0, %xmm0 vpslld $31, %xmm0, %xmm0 vpsrad $31, %xmm0, %xmm0 vpunpcklbw %xmm0, %xmm1, %xmm1 vpslld $31, %xmm1, %xmm1 vinsertf128 $1, %xmm0, %ymm3, %ymm0 vpmovsxdq %xmm1, %xmm3 vmovhlps %xmm1, %xmm1, %xmm1 vpmovsxdq %xmm1, %xmm1 vinsertf128 $1, %xmm1, %ymm3, %ymm1 vmovaps %ymm1, 12416(%rbx) vmovdqa 7328(%rbx), %ymm1 vptest %ymm1, %ymm0 vmovapd 7360(%rbx), %ymm0 vmovapd %ymm0, %ymm1 vmovapd %ymm0, %ymm3 jb .LBB1_3590 vsubpd %ymm5, %ymm6, %ymm0 vsubpd %ymm12, %ymm8, %ymm1 vmovapd .LCPI1_28(%rip), %ymm11 vmulpd %ymm11, %ymm1, %ymm1 vmovapd %ymm1, 26080(%rbx) vmulpd %ymm11, %ymm0, %ymm4 vmovapd %ymm4, 26112(%rbx) vmovapd .LCPI1_56(%rip), %ymm10 vandpd %ymm10, %ymm1, %ymm2 vmovapd %ymm9, 24224(%rbx) vandpd %ymm10, %ymm9, %ymm12 vcmpltpd %ymm2, %ymm12, %ymm0 vextractf128 $1, %ymm0, %xmm1 vpshufd $8, %xmm1, %xmm3 vpshufd $8, %xmm0, %xmm0 vandpd %ymm10, %ymm4, %ymm8 vmovlhps %xmm3, %xmm0, %xmm6 vandpd %ymm10, %ymm15, %ymm0 vcmpltpd %ymm8, %ymm0, %ymm3 vextractf128 $1, %ymm3, %xmm1 vpshufd $8, %xmm1, %xmm5 vpshufd $8, %xmm3, %xmm1 vmovlhps %xmm5, %xmm1, %xmm9 vandpd %ymm10, %ymm13, %ymm5 vcmpltpd %ymm5, %ymm12, %ymm3 vextractf128 $1, %ymm3, %xmm1 vpshufd $8, %xmm1, %xmm1 vpshufd $8, %xmm3, %xmm3 vmovlhps %xmm1, %xmm3, %xmm3 vandpd %ymm10, %ymm14, %ymm12 vmovaps 22656(%rbx), %xmm10 vcmpltpd %ymm12, %ymm0, %ymm0 vextractf128 $1, %ymm0, %xmm1 vpshufd $8, %xmm1, %xmm1 vpshufd $8, %xmm0, %xmm0 vmovlhps %xmm1, %xmm0, %xmm0 vcmpltpd %ymm8, %ymm12, %ymm8 vmovdqa .LCPI1_21(%rip), %xmm4 vpshufb %xmm4, %xmm0, %xmm0 vmovdqa .LCPI1_20(%rip), %xmm7 vpshufb %xmm7, %xmm3, %xmm1 vpor %xmm1, %xmm0, %xmm0 vpshufb %xmm4, %xmm9, %xmm1 vmovdqa 22560(%rbx), %ymm9 vmovdqa 22176(%rbx), %ymm12 vpshufb %xmm7, %xmm6, %xmm3 vpor %xmm3, %xmm1, %xmm3 vextractf128 $1, %ymm8, %xmm1 vpshufd $8, %xmm1, %xmm1 vpshufd $8, %xmm8, %xmm6 vmovlhps %xmm1, %xmm6, %xmm8 vpshufd $8, %xmm12, %xmm1 vmovaps 22688(%rbx), %xmm6 vmovlhps %xmm6, %xmm1, %xmm6 vcmpltpd %ymm2, %ymm5, %ymm2 vpsllw $15, %xmm3, %xmm1 vpsraw $15, %xmm1, %xmm1 vmovdqa .LCPI1_17(%rip), %xmm5 vpxor %xmm5, %xmm1, %xmm3 vpsllw $15, %xmm0, %xmm0 vpsraw $15, %xmm0, %xmm0 vpxor %xmm5, %xmm0, %xmm0 vpor %xmm3, %xmm0, %xmm0 vextractf128 $1, %ymm2, %xmm1 vpshufd $8, %xmm1, %xmm1 vpshufd $8, %xmm2, %xmm2 vmovlhps %xmm1, %xmm2, %xmm3 vpshufb %xmm4, %xmm8, %xmm5 vpshufb %xmm4, %xmm6, %xmm2 vpshufd $8, %xmm9, %xmm1 vmovlhps %xmm10, %xmm1, %xmm1 vpshufb %xmm7, %xmm1, %xmm1 vpor %xmm1, %xmm2, %xmm1 vpsllw $15, %xmm1, %xmm1 vpsraw $15, %xmm1, %xmm1 vpand %xmm0, %xmm1, %xmm2 vpshufb %xmm7, %xmm3, %xmm0 vpunpckhbw %xmm0, %xmm2, %xmm1 vpor %xmm0, %xmm5, %xmm3 vpslld $31, %xmm1, %xmm0 vpsllw $15, %xmm3, %xmm1 vpsraw $15, %xmm1, %xmm5 vpmovsxdq %xmm0, %xmm3 vmovhlps %xmm0, %xmm0, %xmm0 vpmovsxdq %xmm0, %xmm0 vinsertf128 $1, %xmm0, %ymm3, %ymm0 vpunpckhbw %xmm0, %xmm5, %xmm1 vpslld $31, %xmm1, %xmm1 vpmovsxdq %xmm1, %xmm3 vmovhlps %xmm1, %xmm1, %xmm1 vpmovsxdq %xmm1, %xmm1 vinsertf128 $1, %xmm1, %ymm3, %ymm3 vpunpcklbw %xmm0, %xmm2, %xmm1 vpslld $31, %xmm1, %xmm1 vpmovsxdq %xmm1, %xmm2 vmovhlps %xmm1, %xmm1, %xmm1 vpmovsxdq %xmm1, %xmm6 vpunpcklbw %xmm0, %xmm5, %xmm5 vmovapd 26080(%rbx), %ymm1 vblendvpd %ymm3, %ymm13, %ymm1, %ymm1 vmovapd 24224(%rbx), %ymm3 vblendvpd %ymm0, %ymm1, %ymm3, %ymm0 vmulpd %ymm11, %ymm0, %ymm3 vinsertf128 $1, %xmm6, %ymm2, %ymm0 vpslld $31, %xmm5, %xmm1 vpmovsxdq %xmm1, %xmm2 vmovhlps %xmm1, %xmm1, %xmm1 vpmovsxdq %xmm1, %xmm1 vinsertf128 $1, %xmm1, %ymm2, %ymm1 vmovapd 26112(%rbx), %ymm2 vblendvpd %ymm1, %ymm14, %ymm2, %ymm1 vblendvpd %ymm0, %ymm1, %ymm15, %ymm0 vmulpd %ymm11, %ymm0, %ymm1 .LBB1_3590: vmovapd %ymm3, 12032(%rbx) vmovapd %ymm1, 11968(%rbx) vmovapd 24704(%rbx), %ymm0 vmulpd 32832(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 20224(%rbx) vmovapd 20512(%rbx), %ymm0 vmulpd 24800(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 20032(%rbx) vmovapd 16256(%rbx), %ymm0 vdivpd 23680(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 21152(%rbx) vmovapd 15392(%rbx), %ymm0 vdivpd 23648(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 20960(%rbx) vmovapd 12768(%rbx), %ymm0 vdivpd 14880(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 26080(%rbx) vmovapd 21120(%rbx), %ymm0 vmulpd 26784(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 20512(%rbx) vmovapd 21280(%rbx), %ymm0 vmulpd 32992(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 20480(%rbx) vmovapd 18720(%rbx), %ymm0 vdivpd 14432(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 24704(%rbx) vmovapd 13344(%rbx), %ymm1 vcmpunordpd %ymm1, %ymm1, %ymm0 vmovapd %ymm0, 20576(%rbx) vmovapd 21376(%rbx), %ymm0 vmaxpd %ymm1, %ymm0, %ymm0 vmovapd %ymm0, 20448(%rbx) vmovapd 13312(%rbx), %ymm1 vcmpunordpd %ymm1, %ymm1, %ymm0 vmovapd %ymm0, 20288(%rbx) vmovapd 21600(%rbx), %ymm0 vmaxpd %ymm1, %ymm0, %ymm0 vmovapd %ymm0, 20192(%rbx) vmovapd 14944(%rbx), %ymm1 vcmpunordpd %ymm1, %ymm1, %ymm0 vmovapd %ymm0, 20160(%rbx) vmovapd 21344(%rbx), %ymm0 vmaxpd %ymm1, %ymm0, %ymm0 vmovapd %ymm0, 20064(%rbx) vmovapd 13216(%rbx), %ymm1 vcmpunordpd %ymm1, %ymm1, %ymm0 vmovapd %ymm0, 14528(%rbx) vmovapd 21312(%rbx), %ymm0 vmaxpd %ymm1, %ymm0, %ymm0 vmovapd %ymm0, 14432(%rbx) vmovapd 21056(%rbx), %ymm0 vmulpd 24672(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 21056(%rbx) vmovapd 21024(%rbx), %ymm0 vmulpd 26656(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 20896(%rbx) vmovapd 12736(%rbx), %ymm0 vdivpd 23456(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 21024(%rbx) vmovapd 14912(%rbx), %ymm0 vdivpd 24608(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 20928(%rbx) vmovapd 21632(%rbx), %ymm0 vmulpd 32320(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 20864(%rbx) vmovapd 12704(%rbx), %ymm0 vdivpd 19936(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 24224(%rbx) vmovapd 12672(%rbx), %ymm0 vdivpd 21216(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 23808(%rbx) vmovapd 21408(%rbx), %ymm0 vmulpd 32352(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 20352(%rbx) vmovapd 24384(%rbx), %ymm0 vmulpd 26592(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 20416(%rbx) vmovapd 24352(%rbx), %ymm0 vmulpd 32256(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 20384(%rbx) vmovapd 19904(%rbx), %ymm0 vdivpd 24416(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 20096(%rbx) vmovapd 19872(%rbx), %ymm0 vdivpd 23232(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 20128(%rbx) vmovapd 12640(%rbx), %ymm0 vdivpd 13184(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 24384(%rbx) vmovapd 21568(%rbx), %ymm0 vmulpd 32960(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 19968(%rbx) vmovapd 21824(%rbx), %ymm0 vmulpd 24544(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 19904(%rbx) vmovapd 16384(%rbx), %ymm0 vdivpd 13152(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 24352(%rbx) vmovapd 16320(%rbx), %ymm1 vcmpunordpd %ymm1, %ymm1, %ymm0 vmovapd %ymm0, 19936(%rbx) vmovapd 21792(%rbx), %ymm0 vmaxpd %ymm1, %ymm0, %ymm0 vmovapd %ymm0, 19872(%rbx) vmovapd 18752(%rbx), %ymm1 vcmpunordpd %ymm1, %ymm1, %ymm0 vmovapd %ymm0, 15392(%rbx) vmovapd 21920(%rbx), %ymm0 vmaxpd %ymm1, %ymm0, %ymm0 vmovapd %ymm0, 14912(%rbx) vmovapd 18848(%rbx), %ymm1 vcmpunordpd %ymm1, %ymm1, %ymm0 vmovapd %ymm0, 14848(%rbx) vmovapd 21888(%rbx), %ymm0 vmaxpd %ymm1, %ymm0, %ymm0 vmovapd %ymm0, 14816(%rbx) vmovapd 20000(%rbx), %ymm1 vcmpunordpd %ymm1, %ymm1, %ymm0 vmovapd %ymm0, 14592(%rbx) vmovapd 21856(%rbx), %ymm0 vmaxpd %ymm1, %ymm0, %ymm0 vmovapd %ymm0, 14560(%rbx) vmovapd 21088(%rbx), %ymm0 vmulpd 31808(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 18752(%rbx) vmovapd 24736(%rbx), %ymm0 vmulpd 23008(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 15552(%rbx) vmovapd 13120(%rbx), %ymm0 vdivpd 24288(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 18720(%rbx) vmovapd 13088(%rbx), %ymm0 vdivpd 24256(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 15584(%rbx) vmovapd 22400(%rbx), %ymm0 vmulpd 26560(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 15488(%rbx) vmovapd 15520(%rbx), %ymm0 vdivpd 18880(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 26112(%rbx) vmovapd 12608(%rbx), %ymm0 vdivpd 21184(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 24736(%rbx) vmovapd 22272(%rbx), %ymm0 vmulpd 31840(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 14880(%rbx) vmovapd 26304(%rbx), %ymm0 vmulpd 26400(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 15520(%rbx) vmovapd 26272(%rbx), %ymm0 vmulpd 24064(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 14944(%rbx) vmovapd 17344(%rbx), %ymm0 vdivpd 24032(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 18848(%rbx) vmovapd 16416(%rbx), %ymm0 vdivpd 22816(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 16384(%rbx) vmovapd 14496(%rbx), %ymm0 vdivpd 13056(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 26304(%rbx) vmovapd 22304(%rbx), %ymm0 vmulpd 32864(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 16256(%rbx) vmovapd 22528(%rbx), %ymm0 vmulpd 32896(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 14496(%rbx) vmovapd 14464(%rbx), %ymm0 vdivpd 13024(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 26272(%rbx) vmovapd 13600(%rbx), %ymm1 vcmpunordpd %ymm1, %ymm1, %ymm0 vmovapd %ymm0, 16320(%rbx) vmovapd 22592(%rbx), %ymm0 vmaxpd %ymm1, %ymm0, %ymm0 vmovapd %ymm0, 14464(%rbx) vmovapd 16352(%rbx), %ymm1 vcmpunordpd %ymm1, %ymm1, %ymm0 vmovapd %ymm0, 13760(%rbx) vmovapd 23168(%rbx), %ymm0 vmaxpd %ymm1, %ymm0, %ymm0 vmovapd %ymm0, 13728(%rbx) vmovapd 17408(%rbx), %ymm1 vcmpunordpd %ymm1, %ymm1, %ymm0 vmovapd %ymm0, 13472(%rbx) vmovapd 22912(%rbx), %ymm0 vmaxpd %ymm1, %ymm0, %ymm0 vmovapd %ymm0, 13440(%rbx) vmovapd 17440(%rbx), %ymm1 vcmpunordpd %ymm1, %ymm1, %ymm0 vmovapd %ymm0, 13344(%rbx) vmovapd 22784(%rbx), %ymm0 vmaxpd %ymm1, %ymm0, %ymm0 vmovapd %ymm0, 12384(%rbx) vmovapd 32800(%rbx), %ymm0 vmulpd 23904(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 17440(%rbx) vmovapd 31136(%rbx), %ymm0 vmulpd 23872(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 16352(%rbx) vmovapd 12576(%rbx), %ymm0 vdivpd 23840(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 17408(%rbx) vmovapd 13568(%rbx), %ymm0 vdivpd 26144(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 18880(%rbx) vmovapd 24576(%rbx), %ymm0 vmulpd 26848(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 16288(%rbx) vmovapd 13792(%rbx), %ymm0 vdivpd 17376(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 32800(%rbx) vmovapd 12544(%rbx), %ymm0 vdivpd 20256(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 31136(%rbx) vmovapd 23200(%rbx), %ymm0 vmulpd 31104(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 13792(%rbx) vxorpd %ymm1, %ymm1, %ymm1 vmovapd 13696(%rbx), %ymm0 vblendvpd %ymm0, 13408(%rbx), %ymm1, %ymm0 vmovapd %ymm0, 17376(%rbx) vmovapd 12992(%rbx), %ymm0 vblendvpd %ymm0, 13376(%rbx), %ymm1, %ymm0 vmovapd %ymm0, 17344(%rbx) vmovapd 12960(%rbx), %ymm0 vblendvpd %ymm0, 13536(%rbx), %ymm1, %ymm0 vmovapd %ymm0, 16832(%rbx) vmovapd 12928(%rbx), %ymm0 vblendvpd %ymm0, 13504(%rbx), %ymm1, %ymm0 vmovapd %ymm0, 16416(%rbx) vmovapd 13280(%rbx), %ymm0 vblendvpd %ymm0, 15840(%rbx), %ymm1, %ymm0 vmovapd %ymm0, 12672(%rbx) vmovapd 13248(%rbx), %ymm0 vblendvpd %ymm0, 15808(%rbx), %ymm1, %ymm0 vmovapd %ymm0, 12640(%rbx) vmovapd 12896(%rbx), %ymm0 vblendvpd %ymm0, 14144(%rbx), %ymm1, %ymm0 vmovapd %ymm0, 12608(%rbx) vmovapd 12864(%rbx), %ymm0 vblendvpd %ymm0, 14112(%rbx), %ymm1, %ymm0 vmovapd %ymm0, 12576(%rbx) vmovapd 12832(%rbx), %ymm0 vblendvpd %ymm0, 17280(%rbx), %ymm1, %ymm0 vmovapd %ymm0, 12544(%rbx) vmovapd 12800(%rbx), %ymm0 vblendvpd %ymm0, 16864(%rbx), %ymm1, %ymm0 vmovapd %ymm0, 12512(%rbx) vmovapd 12480(%rbx), %ymm0 vblendvpd %ymm0, 19840(%rbx), %ymm1, %ymm0 vmovapd %ymm0, 12480(%rbx) vmovapd 12416(%rbx), %ymm0 vblendvpd %ymm0, 19808(%rbx), %ymm1, %ymm0 vmovapd %ymm0, 12416(%rbx) movq 32640(%rbx), %rdx vmovupd 33056(%rbx,%rdx,8), %xmm5 movq 20608(%rbx), %rsi vmovupd 33056(%rbx,%rsi,8), %xmm3 vmovupd 33024(%rbx,%rdx,8), %xmm2 vmovupd 33024(%rbx,%rsi,8), %xmm0 movq 18496(%rbx), %rdi vmovupd 33024(%rbx,%rdi,8), %xmm6 vmovupd 33040(%rbx,%rsi,8), %xmm7 vmovupd 33040(%rbx,%rdx,8), %xmm4 vinsertf128 $1, 33072(%rbx,%rdx,8), %ymm5, %ymm8 vmovapd %ymm8, 21184(%rbx) vinsertf128 $1, 33072(%rbx,%rsi,8), %ymm3, %ymm12 vinsertf128 $1, %xmm4, %ymm2, %ymm3 vmovapd %ymm3, 21216(%rbx) vinsertf128 $1, %xmm7, %ymm0, %ymm14 vmovupd 33056(%rbx,%rdi,8), %xmm0 vinsertf128 $1, 33072(%rbx,%rdi,8), %ymm0, %ymm15 vinsertf128 $1, 33040(%rbx,%rdi,8), %ymm6, %ymm6 vmovdqa 22560(%rbx), %ymm0 vpshufd $8, %xmm0, %xmm0 vmovaps 22656(%rbx), %xmm2 vmovlhps %xmm2, %xmm0, %xmm0 vmovdqa 22176(%rbx), %ymm2 vpshufd $8, %xmm2, %xmm2 vmovaps 22688(%rbx), %xmm4 vmovlhps %xmm4, %xmm2, %xmm2 vsubpd %ymm14, %ymm3, %ymm5 vsubpd %ymm3, %ymm6, %ymm3 vsubpd %ymm12, %ymm8, %ymm4 vsubpd %ymm8, %ymm15, %ymm8 vmovapd .LCPI1_24(%rip), %ymm9 vmulpd %ymm9, %ymm8, %ymm7 vmovapd %ymm7, 20608(%rbx) vmulpd %ymm9, %ymm4, %ymm10 vmulpd %ymm9, %ymm3, %ymm8 vmovapd %ymm8, 21088(%rbx) vmulpd %ymm9, %ymm5, %ymm11 vmovdqa .LCPI1_21(%rip), %xmm4 vpshufb %xmm4, %xmm2, %xmm2 vmovdqa .LCPI1_20(%rip), %xmm3 vpshufb %xmm3, %xmm0, %xmm0 vpor %xmm0, %xmm2, %xmm0 vmulpd %ymm7, %ymm10, %ymm2 vcmpnlepd %ymm1, %ymm2, %ymm5 vmovapd %ymm5, 22688(%rbx) vextractf128 $1, %ymm5, %xmm2 vpshufd $8, %xmm2, %xmm7 vmovdqa %xmm7, 22656(%rbx) vpshufd $8, %xmm5, %xmm2 vmovlhps %xmm7, %xmm2, %xmm2 vpshufb %xmm3, %xmm2, %xmm2 vmulpd %ymm8, %ymm11, %ymm3 vcmpnlepd %ymm1, %ymm3, %ymm5 vmovapd %ymm5, 22560(%rbx) vextractf128 $1, %ymm5, %xmm3 vpshufd $8, %xmm3, %xmm7 vmovdqa %xmm7, 22176(%rbx) vpshufd $8, %xmm5, %xmm3 vmovlhps %xmm7, %xmm3, %xmm3 vpshufb %xmm4, %xmm3, %xmm3 vpor %xmm2, %xmm3, %xmm2 vpsllw $15, %xmm0, %xmm0 vpsraw $15, %xmm0, %xmm0 vpxor .LCPI1_17(%rip), %xmm2, %xmm5 vpunpckhbw %xmm0, %xmm0, %xmm2 vpslld $31, %xmm2, %xmm4 vpmovsxdq %xmm4, %xmm2 vmovhlps %xmm4, %xmm4, %xmm3 vpmovsxdq %xmm3, %xmm3 vinsertf128 $1, %xmm3, %ymm2, %ymm13 vpmovzxwd %xmm5, %xmm2 vpslld $31, %xmm2, %xmm2 vpsrad $31, %xmm2, %xmm2 vpunpckhwd %xmm0, %xmm5, %xmm3 vpslld $31, %xmm3, %xmm3 vpsrad $31, %xmm3, %xmm4 vpunpcklbw %xmm0, %xmm0, %xmm0 vpslld $31, %xmm0, %xmm5 vblendvpd %ymm13, 12032(%rbx), %ymm1, %ymm0 vmovapd %ymm0, 12032(%rbx) vinsertf128 $1, %xmm4, %ymm2, %ymm0 vpmovsxdq %xmm5, %xmm2 vmovhlps %xmm5, %xmm5, %xmm3 vpmovsxdq %xmm3, %xmm3 vinsertf128 $1, %xmm3, %ymm2, %ymm2 vblendvpd %ymm2, 11968(%rbx), %ymm1, %ymm1 vmovapd %ymm1, 11968(%rbx) vmovdqa 7264(%rbx), %ymm1 vptest %ymm1, %ymm0 vmovapd 7296(%rbx), %ymm0 vmovapd %ymm0, %ymm1 vmovapd %ymm0, %ymm5 jb .LBB1_3592 vsubpd %ymm14, %ymm6, %ymm0 vsubpd %ymm12, %ymm15, %ymm1 vmovapd .LCPI1_28(%rip), %ymm9 vmulpd %ymm9, %ymm1, %ymm2 vmovapd %ymm2, 20000(%rbx) vmulpd %ymm9, %ymm0, %ymm1 vmovapd %ymm1, 20256(%rbx) vmovapd .LCPI1_56(%rip), %ymm8 vandpd %ymm8, %ymm2, %ymm6 vmovapd %ymm10, 19840(%rbx) vandpd %ymm8, %ymm10, %ymm14 vcmpltpd %ymm6, %ymm14, %ymm0 vextractf128 $1, %ymm0, %xmm2 vpshufd $8, %xmm2, %xmm2 vpshufd $8, %xmm0, %xmm0 vandpd %ymm8, %ymm1, %ymm13 vmovlhps %xmm2, %xmm0, %xmm10 vandpd %ymm8, %ymm11, %ymm5 vcmpltpd %ymm13, %ymm5, %ymm0 vextractf128 $1, %ymm0, %xmm2 vpshufd $8, %xmm2, %xmm2 vpshufd $8, %xmm0, %xmm0 vmovlhps %xmm2, %xmm0, %xmm0 vmovapd 20608(%rbx), %ymm12 vandpd %ymm8, %ymm12, %ymm7 vcmpltpd %ymm7, %ymm14, %ymm2 vextractf128 $1, %ymm2, %xmm3 vpshufd $8, %xmm3, %xmm3 vpshufd $8, %xmm2, %xmm2 vmovlhps %xmm3, %xmm2, %xmm2 vmovapd 21088(%rbx), %ymm15 vandpd %ymm8, %ymm15, %ymm14 vcmpltpd %ymm14, %ymm5, %ymm5 vextractf128 $1, %ymm5, %xmm3 vpshufd $8, %xmm3, %xmm3 vpshufd $8, %xmm5, %xmm5 vmovlhps %xmm3, %xmm5, %xmm3 vcmpltpd %ymm13, %ymm14, %ymm13 vmovdqa .LCPI1_21(%rip), %xmm1 vpshufb %xmm1, %xmm3, %xmm3 vmovdqa .LCPI1_20(%rip), %xmm4 vpshufb %xmm4, %xmm2, %xmm2 vpor %xmm2, %xmm3, %xmm5 vpshufb %xmm1, %xmm0, %xmm0 vpshufb %xmm4, %xmm10, %xmm2 vpor %xmm2, %xmm0, %xmm2 vextractf128 $1, %ymm13, %xmm0 vpshufd $8, %xmm0, %xmm0 vpshufd $8, %xmm13, %xmm3 vmovlhps %xmm0, %xmm3, %xmm8 vmovdqa 22560(%rbx), %ymm0 vpshufd $8, %xmm0, %xmm3 vmovaps 22176(%rbx), %xmm0 vmovlhps %xmm0, %xmm3, %xmm0 vcmpltpd %ymm6, %ymm7, %ymm6 vpsllw $15, %xmm2, %xmm2 vpsraw $15, %xmm2, %xmm2 vmovdqa .LCPI1_17(%rip), %xmm7 vpxor %xmm7, %xmm2, %xmm2 vpsllw $15, %xmm5, %xmm3 vpsraw $15, %xmm3, %xmm3 vpxor %xmm7, %xmm3, %xmm3 vpor %xmm2, %xmm3, %xmm5 vextractf128 $1, %ymm6, %xmm2 vpshufd $8, %xmm2, %xmm2 vpshufd $8, %xmm6, %xmm3 vmovlhps %xmm2, %xmm3, %xmm7 vpshufb %xmm1, %xmm8, %xmm6 vpshufb %xmm1, %xmm0, %xmm0 vmovdqa 22688(%rbx), %ymm1 vpshufd $8, %xmm1, %xmm2 vmovaps 22656(%rbx), %xmm1 vmovlhps %xmm1, %xmm2, %xmm2 vpshufb %xmm4, %xmm2, %xmm2 vpor %xmm2, %xmm0, %xmm0 vpsllw $15, %xmm0, %xmm0 vpsraw $15, %xmm0, %xmm0 vpand %xmm5, %xmm0, %xmm0 vpshufb %xmm4, %xmm7, %xmm2 vpunpckhbw %xmm0, %xmm0, %xmm3 vpor %xmm2, %xmm6, %xmm4 vpslld $31, %xmm3, %xmm2 vpsllw $15, %xmm4, %xmm3 vpsraw $15, %xmm3, %xmm4 vpmovsxdq %xmm2, %xmm5 vmovhlps %xmm2, %xmm2, %xmm2 vpmovsxdq %xmm2, %xmm2 vinsertf128 $1, %xmm2, %ymm5, %ymm5 vpunpckhbw %xmm0, %xmm4, %xmm2 vpslld $31, %xmm2, %xmm3 vpmovsxdq %xmm3, %xmm2 vmovhlps %xmm3, %xmm3, %xmm3 vpmovsxdq %xmm3, %xmm3 vinsertf128 $1, %xmm3, %ymm2, %ymm2 vpunpcklbw %xmm0, %xmm0, %xmm0 vpslld $31, %xmm0, %xmm3 vpmovsxdq %xmm3, %xmm0 vmovhlps %xmm3, %xmm3, %xmm3 vpmovsxdq %xmm3, %xmm6 vpunpcklbw %xmm0, %xmm4, %xmm4 vmovapd 20000(%rbx), %ymm1 vblendvpd %ymm2, %ymm12, %ymm1, %ymm2 vmovapd 19840(%rbx), %ymm1 vblendvpd %ymm5, %ymm2, %ymm1, %ymm2 vmulpd %ymm9, %ymm2, %ymm5 vinsertf128 $1, %xmm6, %ymm0, %ymm0 vpslld $31, %xmm4, %xmm3 vpmovsxdq %xmm3, %xmm2 vmovhlps %xmm3, %xmm3, %xmm3 vpmovsxdq %xmm3, %xmm3 vinsertf128 $1, %xmm3, %ymm2, %ymm2 vmovapd 20256(%rbx), %ymm1 vblendvpd %ymm2, %ymm15, %ymm1, %ymm1 vblendvpd %ymm0, %ymm1, %ymm11, %ymm0 vmulpd %ymm9, %ymm0, %ymm1 .LBB1_3592: vmovapd %ymm5, 11904(%rbx) vmovapd %ymm1, 11936(%rbx) vmovapd 20224(%rbx), %ymm0 vdivpd 23680(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 12896(%rbx) vmovapd 20032(%rbx), %ymm0 vdivpd 23648(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 12800(%rbx) vmovapd 21120(%rbx), %ymm0 vmulpd 26048(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 12736(%rbx) vmovapd 21280(%rbx), %ymm0 vmulpd 26816(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 12704(%rbx) vmovapd 32992(%rbx), %ymm0 vmovapd 32832(%rbx), %ymm1 vmulpd %ymm0, %ymm1, %ymm1 vmovapd %ymm1, 20256(%rbx) vmovapd 24768(%rbx), %ymm1 vmulpd %ymm0, %ymm1, %ymm1 vmovapd %ymm1, 20224(%rbx) vmovapd 23712(%rbx), %ymm1 vmulpd %ymm0, %ymm1, %ymm1 vmovapd %ymm1, 20032(%rbx) vmovapd 26784(%rbx), %ymm1 vmovapd 24800(%rbx), %ymm2 vmulpd %ymm1, %ymm2, %ymm2 vmovapd %ymm2, 20000(%rbx) vmovapd 22496(%rbx), %ymm2 vmulpd %ymm1, %ymm2, %ymm2 vmovapd %ymm2, 19840(%rbx) vmovapd 22464(%rbx), %ymm2 vmulpd %ymm1, %ymm2, %ymm2 vmovapd %ymm2, 12992(%rbx) vmovapd 20512(%rbx), %ymm2 vaddpd 20960(%rbx), %ymm2, %ymm2 vmovapd %ymm2, 21280(%rbx) vmovapd 20480(%rbx), %ymm2 vaddpd 21152(%rbx), %ymm2, %ymm2 vmovapd %ymm2, 20512(%rbx) vmulpd 26080(%rbx), %ymm1, %ymm1 vmovapd %ymm1, 20480(%rbx) vmulpd 24704(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 12864(%rbx) vmovapd 20576(%rbx), %ymm0 vmovapd 20448(%rbx), %ymm1 vblendvpd %ymm0, 21376(%rbx), %ymm1, %ymm0 vmovapd %ymm0, 21152(%rbx) vmovapd 20288(%rbx), %ymm0 vmovapd 20192(%rbx), %ymm1 vblendvpd %ymm0, 21600(%rbx), %ymm1, %ymm0 vmovapd %ymm0, 20448(%rbx) vmovapd 20160(%rbx), %ymm0 vmovapd 20064(%rbx), %ymm1 vblendvpd %ymm0, 21344(%rbx), %ymm1, %ymm0 vmovapd %ymm0, 12832(%rbx) vmovapd 14528(%rbx), %ymm0 vmovapd 14432(%rbx), %ymm1 vblendvpd %ymm0, 21312(%rbx), %ymm1, %ymm0 vmovapd %ymm0, 12768(%rbx) vmovapd 32352(%rbx), %ymm0 vmovapd 24672(%rbx), %ymm1 vmulpd %ymm0, %ymm1, %ymm1 vmovapd %ymm1, 21344(%rbx) vmovapd 32320(%rbx), %ymm1 vmovapd 23488(%rbx), %ymm2 vmulpd %ymm1, %ymm2, %ymm2 vmovapd %ymm2, 12960(%rbx) vmovapd 23552(%rbx), %ymm2 vmulpd %ymm0, %ymm2, %ymm2 vmovapd %ymm2, 12928(%rbx) vmovapd 26656(%rbx), %ymm2 vmulpd %ymm1, %ymm2, %ymm2 vmovapd %ymm2, 21088(%rbx) vmovapd 24640(%rbx), %ymm2 vmulpd %ymm0, %ymm2, %ymm2 vmovapd %ymm2, 20608(%rbx) vmovapd 23520(%rbx), %ymm2 vmulpd %ymm1, %ymm2, %ymm2 vmovapd %ymm2, 20576(%rbx) vmovapd 20896(%rbx), %ymm2 vdivpd 23456(%rbx), %ymm2, %ymm2 vmovapd %ymm2, 21120(%rbx) vmovapd 21056(%rbx), %ymm2 vdivpd 24608(%rbx), %ymm2, %ymm2 vmovapd %ymm2, 21312(%rbx) vmovapd 21408(%rbx), %ymm2 vmulpd 26752(%rbx), %ymm2, %ymm2 vmovapd %ymm2, 21056(%rbx) vmovapd 20864(%rbx), %ymm2 vaddpd 21024(%rbx), %ymm2, %ymm2 vmovapd %ymm2, 21024(%rbx) vmovapd 21632(%rbx), %ymm2 vmulpd 32384(%rbx), %ymm2, %ymm2 vmovapd %ymm2, 20864(%rbx) vmulpd 23808(%rbx), %ymm1, %ymm1 vmovapd %ymm1, 20960(%rbx) vmovapd 20352(%rbx), %ymm1 vaddpd 20928(%rbx), %ymm1, %ymm1 vmovapd %ymm1, 20928(%rbx) vmulpd 24224(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 20896(%rbx) vmovapd 20416(%rbx), %ymm0 vdivpd 23232(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 20352(%rbx) vmovapd 20384(%rbx), %ymm0 vdivpd 24416(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 20288(%rbx) vmovapd 21568(%rbx), %ymm0 vmulpd 32288(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 20160(%rbx) vmovapd 21824(%rbx), %ymm0 vmulpd 26624(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 20064(%rbx) vmovapd 24544(%rbx), %ymm0 vmovapd 23360(%rbx), %ymm1 vmulpd %ymm0, %ymm1, %ymm1 vmovapd %ymm1, 20416(%rbx) vmovapd 32256(%rbx), %ymm1 vmulpd %ymm0, %ymm1, %ymm1 vmovapd %ymm1, 20384(%rbx) vmovapd 23328(%rbx), %ymm1 vmulpd %ymm0, %ymm1, %ymm1 vmovapd %ymm1, 20192(%rbx) vmovapd 32960(%rbx), %ymm1 vmovapd 26592(%rbx), %ymm2 vmulpd %ymm1, %ymm2, %ymm2 vmovapd %ymm2, 19808(%rbx) vmovapd 23296(%rbx), %ymm2 vmulpd %ymm1, %ymm2, %ymm2 vmovapd %ymm2, 13152(%rbx) vmovapd 23264(%rbx), %ymm2 vmulpd %ymm1, %ymm2, %ymm2 vmovapd %ymm2, 13120(%rbx) vmovapd 19968(%rbx), %ymm2 vaddpd 20128(%rbx), %ymm2, %ymm2 vmovapd %ymm2, 20128(%rbx) vmovapd 19904(%rbx), %ymm2 vaddpd 20096(%rbx), %ymm2, %ymm2 vmovapd %ymm2, 20096(%rbx) vmulpd 24384(%rbx), %ymm1, %ymm1 vmovapd %ymm1, 19968(%rbx) vmulpd 24352(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 13088(%rbx) vmovapd 19936(%rbx), %ymm0 vmovapd 19872(%rbx), %ymm1 vblendvpd %ymm0, 21792(%rbx), %ymm1, %ymm0 vmovapd %ymm0, 19936(%rbx) vmovapd 15392(%rbx), %ymm0 vmovapd 14912(%rbx), %ymm1 vblendvpd %ymm0, 21920(%rbx), %ymm1, %ymm0 vmovapd %ymm0, 19904(%rbx) vmovapd 14848(%rbx), %ymm0 vmovapd 14816(%rbx), %ymm1 vblendvpd %ymm0, 21888(%rbx), %ymm1, %ymm0 vmovapd %ymm0, 13056(%rbx) vmovapd 14592(%rbx), %ymm0 vmovapd 14560(%rbx), %ymm1 vblendvpd %ymm0, 21856(%rbx), %ymm1, %ymm0 vmovapd %ymm0, 13024(%rbx) vmovapd 31840(%rbx), %ymm0 vmovapd 23008(%rbx), %ymm1 vmulpd %ymm0, %ymm1, %ymm1 vmovapd %ymm1, 13184(%rbx) vmovapd 26560(%rbx), %ymm1 vmovapd 22208(%rbx), %ymm2 vmulpd %ymm1, %ymm2, %ymm2 vmovapd %ymm2, 19872(%rbx) vmovapd 22976(%rbx), %ymm2 vmulpd %ymm0, %ymm2, %ymm2 vmovapd %ymm2, 15392(%rbx) vmovapd 31808(%rbx), %ymm2 vmulpd %ymm1, %ymm2, %ymm2 vmovapd %ymm2, 13280(%rbx) vmovapd 22944(%rbx), %ymm2 vmulpd %ymm0, %ymm2, %ymm2 vmovapd %ymm2, 13248(%rbx) vmovapd 24320(%rbx), %ymm2 vmulpd %ymm1, %ymm2, %ymm2 vmovapd %ymm2, 13216(%rbx) vmovapd 18752(%rbx), %ymm2 vdivpd 24288(%rbx), %ymm2, %ymm2 vmovapd %ymm2, 18752(%rbx) vmovapd 15552(%rbx), %ymm2 vdivpd 24256(%rbx), %ymm2, %ymm2 vmovapd %ymm2, 15808(%rbx) vmovapd 22272(%rbx), %ymm2 vmulpd 31872(%rbx), %ymm2, %ymm2 vmovapd %ymm2, 14912(%rbx) vmovapd 15488(%rbx), %ymm2 vaddpd 18720(%rbx), %ymm2, %ymm2 vmovapd %ymm2, 18720(%rbx) vmovapd 22400(%rbx), %ymm2 vmulpd 32928(%rbx), %ymm2, %ymm2 vmovapd %ymm2, 13312(%rbx) vmulpd 24736(%rbx), %ymm1, %ymm1 vmovapd %ymm1, 14560(%rbx) vmovapd 14880(%rbx), %ymm1 vaddpd 15584(%rbx), %ymm1, %ymm1 vmovapd %ymm1, 15584(%rbx) vmulpd 26112(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 14528(%rbx) vmovapd 15520(%rbx), %ymm0 vdivpd 24032(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 15488(%rbx) vmovapd 14944(%rbx), %ymm0 vdivpd 22816(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 15520(%rbx) vmovapd 22304(%rbx), %ymm0 vmulpd 26432(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 14848(%rbx) vmovapd 22528(%rbx), %ymm0 vmulpd 26464(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 14592(%rbx) vmovapd 32896(%rbx), %ymm0 vmovapd 24096(%rbx), %ymm1 vmulpd %ymm0, %ymm1, %ymm1 vmovapd %ymm1, 15552(%rbx) vmovapd 26400(%rbx), %ymm1 vmulpd %ymm0, %ymm1, %ymm1 vmovapd %ymm1, 14944(%rbx) vmovapd 22080(%rbx), %ymm1 vmulpd %ymm0, %ymm1, %ymm1 vmovapd %ymm1, 14880(%rbx) vmovapd 32864(%rbx), %ymm1 vmovapd 26368(%rbx), %ymm2 vmulpd %ymm1, %ymm2, %ymm2 vmovapd %ymm2, 13568(%rbx) vmovapd 24064(%rbx), %ymm2 vmulpd %ymm1, %ymm2, %ymm2 vmovapd %ymm2, 13536(%rbx) vmovapd 22848(%rbx), %ymm2 vmulpd %ymm1, %ymm2, %ymm2 vmovapd %ymm2, 13504(%rbx) vmovapd 16256(%rbx), %ymm2 vaddpd 16384(%rbx), %ymm2, %ymm2 vmovapd %ymm2, 14816(%rbx) vmovapd 14496(%rbx), %ymm2 vaddpd 18848(%rbx), %ymm2, %ymm2 vmovapd %ymm2, 14432(%rbx) vmulpd 26304(%rbx), %ymm1, %ymm1 vmovapd %ymm1, 13696(%rbx) vmulpd 26272(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 13408(%rbx) vmovapd 16320(%rbx), %ymm0 vmovapd 14464(%rbx), %ymm1 vblendvpd %ymm0, 22592(%rbx), %ymm1, %ymm0 vmovapd %ymm0, 14464(%rbx) vmovapd 13760(%rbx), %ymm0 vmovapd 13728(%rbx), %ymm1 vblendvpd %ymm0, 23168(%rbx), %ymm1, %ymm0 vmovapd %ymm0, 13600(%rbx) vmovapd 13472(%rbx), %ymm0 vmovapd 13440(%rbx), %ymm1 vblendvpd %ymm0, 22912(%rbx), %ymm1, %ymm0 vmovapd %ymm0, 13376(%rbx) vmovapd 13344(%rbx), %ymm0 vmovapd 12384(%rbx), %ymm1 vblendvpd %ymm0, 22784(%rbx), %ymm1, %ymm0 vmovapd %ymm0, 13344(%rbx) vmovapd 31104(%rbx), %ymm0 vmovapd 22720(%rbx), %ymm1 vmulpd %ymm0, %ymm1, %ymm1 vmovapd %ymm1, 13472(%rbx) vmovapd 26848(%rbx), %ymm1 vmovapd 21952(%rbx), %ymm2 vmulpd %ymm1, %ymm2, %ymm2 vmovapd %ymm2, 13440(%rbx) vmovapd 23904(%rbx), %ymm2 vmulpd %ymm0, %ymm2, %ymm2 vmovapd %ymm2, 14496(%rbx) vmovapd 26176(%rbx), %ymm2 vmulpd %ymm1, %ymm2, %ymm2 vmovapd %ymm2, 14144(%rbx) vmovapd 23936(%rbx), %ymm2 vmulpd %ymm0, %ymm2, %ymm2 vmovapd %ymm2, 13760(%rbx) vmovapd 23872(%rbx), %ymm2 vmulpd %ymm1, %ymm2, %ymm2 vmovapd %ymm2, 13728(%rbx) vmovapd 16352(%rbx), %ymm2 vdivpd 23840(%rbx), %ymm2, %ymm2 vmovapd %ymm2, 16384(%rbx) vmovapd 17440(%rbx), %ymm2 vdivpd 26144(%rbx), %ymm2, %ymm2 vmovapd %ymm2, 16320(%rbx) vmovapd 23200(%rbx), %ymm2 vmulpd 26336(%rbx), %ymm2, %ymm2 vmovapd %ymm2, 16256(%rbx) vmovapd 16288(%rbx), %ymm2 vaddpd 17408(%rbx), %ymm2, %ymm2 vmovapd %ymm2, 16352(%rbx) vmovapd 24576(%rbx), %ymm2 vmulpd 24000(%rbx), %ymm2, %ymm2 vmovapd %ymm2, 14112(%rbx) vmulpd 31136(%rbx), %ymm1, %ymm1 vmovapd %ymm1, 15840(%rbx) vmovapd 13792(%rbx), %ymm1 vaddpd 18880(%rbx), %ymm1, %ymm1 vmovapd %ymm1, 16288(%rbx) vmulpd 32800(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 13792(%rbx) vmovapd 13856(%rbx), %ymm0 vaddpd 17376(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 18848(%rbx) vmovapd 13888(%rbx), %ymm0 vaddpd 17344(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 18880(%rbx) vmovapd 13664(%rbx), %ymm0 vaddpd 16832(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 16832(%rbx) vmovapd 13632(%rbx), %ymm0 vaddpd 16416(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 16416(%rbx) vmovapd 17824(%rbx), %ymm0 vaddpd 12672(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 17408(%rbx) vmovapd 17792(%rbx), %ymm0 vaddpd 12640(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 17280(%rbx) vmovapd 16800(%rbx), %ymm0 vaddpd 12608(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 17376(%rbx) vmovapd 16768(%rbx), %ymm0 vaddpd 12576(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 16864(%rbx) vmovapd 18432(%rbx), %ymm0 vaddpd 12544(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 17344(%rbx) vmovapd 17312(%rbx), %ymm0 vaddpd 12512(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 23648(%rbx) vmovapd 19776(%rbx), %ymm0 vaddpd 12480(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 23456(%rbx) vmovapd 20544(%rbx), %ymm0 vaddpd 12416(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 17824(%rbx) vmovapd 22048(%rbx), %ymm0 vaddpd 12032(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 23680(%rbx) vmovapd 21248(%rbx), %ymm0 vaddpd 11968(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 18432(%rbx) movq 32736(%rbx), %rdx vmovupd 33056(%rbx,%rdx,8), %xmm4 movq 20640(%rbx), %rsi vmovupd 33056(%rbx,%rsi,8), %xmm2 vmovupd 33024(%rbx,%rdx,8), %xmm3 vmovupd 33024(%rbx,%rsi,8), %xmm0 movq 18528(%rbx), %rdi vmovupd 33024(%rbx,%rdi,8), %xmm5 vmovupd 33040(%rbx,%rsi,8), %xmm6 vmovupd 33040(%rbx,%rdx,8), %xmm7 vinsertf128 $1, 33072(%rbx,%rdx,8), %ymm4, %ymm1 vmovapd %ymm1, 17792(%rbx) vinsertf128 $1, 33072(%rbx,%rsi,8), %ymm2, %ymm2 vinsertf128 $1, %xmm7, %ymm3, %ymm8 vmovapd %ymm2, %ymm7 vmovapd %ymm8, 17440(%rbx) vinsertf128 $1, %xmm6, %ymm0, %ymm3 vmovupd 33056(%rbx,%rdi,8), %xmm0 vinsertf128 $1, 33072(%rbx,%rdi,8), %ymm0, %ymm14 vinsertf128 $1, 33040(%rbx,%rdi,8), %ymm5, %ymm13 vmovdqa 22688(%rbx), %ymm0 vpshufd $8, %xmm0, %xmm0 vmovaps 22656(%rbx), %xmm2 vmovlhps %xmm2, %xmm0, %xmm0 vmovdqa 22560(%rbx), %ymm2 vpshufd $8, %xmm2, %xmm4 vmovaps 22176(%rbx), %xmm2 vmovlhps %xmm2, %xmm4, %xmm4 vsubpd %ymm3, %ymm8, %ymm5 vsubpd %ymm8, %ymm13, %ymm6 vsubpd %ymm7, %ymm1, %ymm8 vsubpd %ymm1, %ymm14, %ymm9 vmovapd .LCPI1_24(%rip), %ymm11 vmulpd %ymm11, %ymm9, %ymm15 vmulpd %ymm11, %ymm8, %ymm2 vmovapd %ymm2, 24608(%rbx) vmulpd %ymm11, %ymm6, %ymm8 vmulpd %ymm11, %ymm5, %ymm12 vmovdqa .LCPI1_21(%rip), %xmm6 vpshufb %xmm6, %xmm4, %xmm4 vmovdqa .LCPI1_20(%rip), %xmm1 vpshufb %xmm1, %xmm0, %xmm0 vpor %xmm0, %xmm4, %xmm5 vmulpd %ymm15, %ymm2, %ymm0 vxorpd %ymm11, %ymm11, %ymm11 vcmpnlepd %ymm11, %ymm0, %ymm4 vmovapd %ymm4, 24288(%rbx) vextractf128 $1, %ymm4, %xmm0 vpshufd $8, %xmm0, %xmm2 vmovdqa %xmm2, 24256(%rbx) vpshufd $8, %xmm4, %xmm0 vmovlhps %xmm2, %xmm0, %xmm0 vpshufb %xmm1, %xmm0, %xmm0 vmulpd %ymm8, %ymm12, %ymm4 vmovapd %ymm12, %ymm10 vcmpnlepd %ymm11, %ymm4, %ymm1 vmovapd %ymm1, 24032(%rbx) vextractf128 $1, %ymm1, %xmm4 vpshufd $8, %xmm4, %xmm2 vmovdqa %xmm2, 23840(%rbx) vpshufd $8, %xmm1, %xmm4 vmovlhps %xmm2, %xmm4, %xmm4 vpshufb %xmm6, %xmm4, %xmm4 vpor %xmm0, %xmm4, %xmm0 vpsllw $15, %xmm5, %xmm4 vpsraw $15, %xmm4, %xmm5 vpxor .LCPI1_17(%rip), %xmm0, %xmm0 vpunpckhbw %xmm0, %xmm5, %xmm4 vpslld $31, %xmm4, %xmm6 vpmovsxdq %xmm6, %xmm4 vmovhlps %xmm6, %xmm6, %xmm6 vpmovsxdq %xmm6, %xmm6 vinsertf128 $1, %xmm6, %ymm4, %ymm4 vpmovzxwd %xmm0, %xmm6 vpslld $31, %xmm6, %xmm6 vpsrad $31, %xmm6, %xmm6 vpunpckhwd %xmm0, %xmm0, %xmm0 vpslld $31, %xmm0, %xmm0 vpsrad $31, %xmm0, %xmm0 vpunpcklbw %xmm0, %xmm5, %xmm5 vpslld $31, %xmm5, %xmm5 vblendvpd %ymm4, 11904(%rbx), %ymm11, %ymm4 vinsertf128 $1, %xmm0, %ymm6, %ymm0 vmovapd 21184(%rbx), %ymm1 vaddpd %ymm4, %ymm1, %ymm1 vmovapd %ymm1, 26144(%rbx) vpmovsxdq %xmm5, %xmm4 vmovhlps %xmm5, %xmm5, %xmm5 vpmovsxdq %xmm5, %xmm5 vinsertf128 $1, %xmm5, %ymm4, %ymm4 vblendvpd %ymm4, 11936(%rbx), %ymm11, %ymm1 vmovapd 21216(%rbx), %ymm2 vaddpd %ymm1, %ymm2, %ymm1 vmovapd %ymm1, 17312(%rbx) vmovdqa 7200(%rbx), %ymm1 vptest %ymm1, %ymm0 vmovapd 7232(%rbx), %ymm0 vmovapd %ymm0, %ymm1 vmovapd %ymm0, %ymm4 jb .LBB1_3594 vsubpd %ymm3, %ymm13, %ymm0 vsubpd %ymm7, %ymm14, %ymm1 vmovapd .LCPI1_28(%rip), %ymm9 vmulpd %ymm9, %ymm1, %ymm1 vmovapd %ymm1, 24416(%rbx) vmulpd %ymm9, %ymm0, %ymm4 vmovapd %ymm4, 24576(%rbx) vmovapd .LCPI1_56(%rip), %ymm7 vandpd %ymm7, %ymm1, %ymm2 vmovapd 24608(%rbx), %ymm12 vandpd %ymm7, %ymm12, %ymm14 vcmpltpd %ymm2, %ymm14, %ymm0 vextractf128 $1, %ymm0, %xmm1 vpshufd $8, %xmm1, %xmm3 vpshufd $8, %xmm0, %xmm0 vandpd %ymm7, %ymm4, %ymm13 vmovlhps %xmm3, %xmm0, %xmm5 vandpd %ymm7, %ymm10, %ymm0 vcmpltpd %ymm13, %ymm0, %ymm3 vextractf128 $1, %ymm3, %xmm1 vpshufd $8, %xmm1, %xmm4 vpshufd $8, %xmm3, %xmm1 vmovlhps %xmm4, %xmm1, %xmm6 vandpd %ymm7, %ymm15, %ymm11 vcmpltpd %ymm11, %ymm14, %ymm4 vextractf128 $1, %ymm4, %xmm1 vpshufd $8, %xmm1, %xmm1 vpshufd $8, %xmm4, %xmm4 vmovlhps %xmm1, %xmm4, %xmm4 vandpd %ymm7, %ymm8, %ymm14 vcmpltpd %ymm14, %ymm0, %ymm0 vextractf128 $1, %ymm0, %xmm1 vpshufd $8, %xmm1, %xmm1 vpshufd $8, %xmm0, %xmm0 vmovlhps %xmm1, %xmm0, %xmm0 vcmpltpd %ymm13, %ymm14, %ymm13 vmovdqa .LCPI1_21(%rip), %xmm3 vpshufb %xmm3, %xmm0, %xmm0 vmovdqa .LCPI1_20(%rip), %xmm7 vpshufb %xmm7, %xmm4, %xmm1 vpor %xmm1, %xmm0, %xmm0 vpshufb %xmm3, %xmm6, %xmm1 vpshufb %xmm7, %xmm5, %xmm4 vpor %xmm4, %xmm1, %xmm4 vextractf128 $1, %ymm13, %xmm1 vpshufd $8, %xmm1, %xmm1 vpshufd $8, %xmm13, %xmm5 vmovlhps %xmm1, %xmm5, %xmm13 vmovdqa 24032(%rbx), %ymm1 vpshufd $8, %xmm1, %xmm1 vmovaps 23840(%rbx), %xmm6 vmovlhps %xmm6, %xmm1, %xmm5 vcmpltpd %ymm2, %ymm11, %ymm2 vpsllw $15, %xmm4, %xmm1 vpsraw $15, %xmm1, %xmm1 vmovdqa .LCPI1_17(%rip), %xmm4 vpxor %xmm4, %xmm1, %xmm1 vpsllw $15, %xmm0, %xmm0 vpsraw $15, %xmm0, %xmm0 vpxor %xmm4, %xmm0, %xmm0 vpor %xmm1, %xmm0, %xmm0 vextractf128 $1, %ymm2, %xmm1 vpshufd $8, %xmm1, %xmm1 vpshufd $8, %xmm2, %xmm2 vmovlhps %xmm1, %xmm2, %xmm4 vpshufb %xmm3, %xmm13, %xmm6 vpshufb %xmm3, %xmm5, %xmm2 vmovdqa 24288(%rbx), %ymm1 vpshufd $8, %xmm1, %xmm1 vmovaps 24256(%rbx), %xmm5 vmovlhps %xmm5, %xmm1, %xmm1 vpshufb %xmm7, %xmm1, %xmm1 vpor %xmm1, %xmm2, %xmm1 vpsllw $15, %xmm1, %xmm1 vpsraw $15, %xmm1, %xmm1 vpand %xmm0, %xmm1, %xmm2 vpshufb %xmm7, %xmm4, %xmm0 vpunpckhbw %xmm0, %xmm2, %xmm1 vpor %xmm0, %xmm6, %xmm3 vpslld $31, %xmm1, %xmm0 vpsllw $15, %xmm3, %xmm1 vpsraw $15, %xmm1, %xmm3 vpmovsxdq %xmm0, %xmm4 vmovhlps %xmm0, %xmm0, %xmm0 vpmovsxdq %xmm0, %xmm0 vinsertf128 $1, %xmm0, %ymm4, %ymm0 vpunpckhbw %xmm0, %xmm3, %xmm1 vpslld $31, %xmm1, %xmm1 vpmovsxdq %xmm1, %xmm4 vmovhlps %xmm1, %xmm1, %xmm1 vpmovsxdq %xmm1, %xmm1 vinsertf128 $1, %xmm1, %ymm4, %ymm4 vpunpcklbw %xmm0, %xmm2, %xmm1 vpslld $31, %xmm1, %xmm1 vpmovsxdq %xmm1, %xmm2 vmovhlps %xmm1, %xmm1, %xmm1 vpmovsxdq %xmm1, %xmm5 vpunpcklbw %xmm0, %xmm3, %xmm3 vmovapd 24416(%rbx), %ymm1 vblendvpd %ymm4, %ymm15, %ymm1, %ymm1 vblendvpd %ymm0, %ymm1, %ymm12, %ymm0 vmulpd %ymm9, %ymm0, %ymm4 vinsertf128 $1, %xmm5, %ymm2, %ymm0 vpslld $31, %xmm3, %xmm1 vpmovsxdq %xmm1, %xmm2 vmovhlps %xmm1, %xmm1, %xmm1 vpmovsxdq %xmm1, %xmm1 vinsertf128 $1, %xmm1, %ymm2, %ymm1 vmovapd 24576(%rbx), %ymm2 vblendvpd %ymm1, %ymm8, %ymm2, %ymm1 vblendvpd %ymm0, %ymm1, %ymm10, %ymm0 vmulpd %ymm9, %ymm0, %ymm1 .LBB1_3594: vmovapd %ymm1, 16768(%rbx) vmovapd %ymm4, 16800(%rbx) vmovapd 32832(%rbx), %ymm3 vmulpd 23776(%rbx), %ymm3, %ymm0 vmovapd %ymm0, 23232(%rbx) vmovapd 26816(%rbx), %ymm0 vmovapd 24768(%rbx), %ymm2 vmulpd %ymm0, %ymm2, %ymm2 vmovapd %ymm2, 23168(%rbx) vmulpd 24864(%rbx), %ymm3, %ymm2 vmovapd %ymm2, 22912(%rbx) vmovapd 23712(%rbx), %ymm2 vmulpd %ymm0, %ymm2, %ymm2 vmovapd %ymm2, 22688(%rbx) vmovapd 24800(%rbx), %ymm4 vmulpd 23744(%rbx), %ymm4, %ymm2 vmovapd %ymm2, 22592(%rbx) vmovapd 26048(%rbx), %ymm2 vmovapd 22496(%rbx), %ymm5 vmulpd %ymm2, %ymm5, %ymm5 vmovapd %ymm5, 22528(%rbx) vmulpd 24832(%rbx), %ymm4, %ymm5 vmovapd %ymm5, 22496(%rbx) vmovapd 22464(%rbx), %ymm5 vmulpd %ymm2, %ymm5, %ymm5 vmovapd %ymm5, 22176(%rbx) vmovapd 12736(%rbx), %ymm1 vaddpd 12800(%rbx), %ymm1, %ymm5 vmovapd %ymm5, 22400(%rbx) vmovapd 12704(%rbx), %ymm1 vaddpd 12896(%rbx), %ymm1, %ymm5 vmovapd %ymm5, 21920(%rbx) vmulpd %ymm2, %ymm4, %ymm4 vmovapd %ymm4, 22304(%rbx) vmulpd 26080(%rbx), %ymm2, %ymm2 vmovapd %ymm2, 21632(%rbx) vmulpd %ymm0, %ymm3, %ymm2 vmovapd %ymm2, 21600(%rbx) vmulpd 24704(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 21408(%rbx) vmovapd 20256(%rbx), %ymm0 vsubpd 19136(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 22656(%rbx) vmovapd 20224(%rbx), %ymm0 vsubpd 19072(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 22272(%rbx) vmovapd 20032(%rbx), %ymm0 vsubpd 19008(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 21792(%rbx) vmovapd 20000(%rbx), %ymm0 vsubpd 19104(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 22816(%rbx) vmovapd 19840(%rbx), %ymm0 vsubpd 19040(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 22464(%rbx) vmovapd 12992(%rbx), %ymm0 vsubpd 18976(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 22048(%rbx) vmovapd 13824(%rbx), %ymm2 vmovapd 25664(%rbx), %ymm0 vmulpd %ymm2, %ymm0, %ymm0 vmovapd %ymm0, 24608(%rbx) vmovapd 24896(%rbx), %ymm0 vmulpd %ymm2, %ymm0, %ymm0 vmovapd %ymm2, %ymm6 vmovapd %ymm0, 24576(%rbx) vmovapd 20512(%rbx), %ymm0 vsubpd 12864(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 21376(%rbx) vmovapd 21280(%rbx), %ymm0 vsubpd 20480(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 21568(%rbx) vmovaps .LCPI1_56(%rip), %ymm10 vmovaps 12768(%rbx), %ymm0 vandps %ymm10, %ymm0, %ymm0 vmovaps %ymm0, 21888(%rbx) vmovaps 12832(%rbx), %ymm0 vandps %ymm10, %ymm0, %ymm0 vmovaps %ymm0, 26080(%rbx) vmovaps 20448(%rbx), %ymm0 vandps %ymm10, %ymm0, %ymm0 vmovaps %ymm0, 21856(%rbx) vmovaps 21152(%rbx), %ymm0 vandps %ymm10, %ymm0, %ymm0 vmovaps %ymm0, 25664(%rbx) vmovapd 21344(%rbx), %ymm0 vsubpd 17760(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 23200(%rbx) vmovapd 12960(%rbx), %ymm0 vsubpd 17600(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 22560(%rbx) vmovapd 12928(%rbx), %ymm0 vsubpd 17696(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 22784(%rbx) vmovapd 24672(%rbx), %ymm4 vmulpd 22368(%rbx), %ymm4, %ymm0 vmovapd %ymm0, 21344(%rbx) vmovapd 26752(%rbx), %ymm0 vmovapd 23552(%rbx), %ymm2 vmulpd %ymm0, %ymm2, %ymm2 vmovapd %ymm2, 21280(%rbx) vmovapd 26656(%rbx), %ymm5 vmulpd 22336(%rbx), %ymm5, %ymm2 vmovapd %ymm2, 21248(%rbx) vmovapd 32384(%rbx), %ymm2 vmovapd 23488(%rbx), %ymm3 vmulpd %ymm2, %ymm3, %ymm3 vmovapd %ymm3, 21152(%rbx) vmovapd 21088(%rbx), %ymm1 vsubpd 17664(%rbx), %ymm1, %ymm3 vmovapd %ymm3, 21824(%rbx) vmovapd 20608(%rbx), %ymm1 vsubpd 17728(%rbx), %ymm1, %ymm3 vmovapd %ymm3, 22336(%rbx) vmovapd 20576(%rbx), %ymm1 vsubpd 17632(%rbx), %ymm1, %ymm3 vmovapd %ymm3, 22368(%rbx) vmulpd 23584(%rbx), %ymm5, %ymm3 vmovapd %ymm3, 20640(%rbx) vmovapd 23520(%rbx), %ymm3 vmulpd %ymm2, %ymm3, %ymm3 vmovapd %ymm3, 20544(%rbx) vmulpd 23616(%rbx), %ymm4, %ymm3 vmovapd %ymm3, 20512(%rbx) vmovapd 24640(%rbx), %ymm3 vmulpd %ymm0, %ymm3, %ymm3 vmovapd %ymm3, 20256(%rbx) vmovapd 26688(%rbx), %ymm3 vmulpd %ymm6, %ymm3, %ymm3 vmovapd %ymm3, 24416(%rbx) vmulpd %ymm0, %ymm4, %ymm3 vmovapd %ymm3, 21088(%rbx) vmovapd 26720(%rbx), %ymm3 vmulpd %ymm6, %ymm3, %ymm3 vmovapd %ymm3, 24704(%rbx) vmulpd %ymm2, %ymm5, %ymm3 vmovapd %ymm3, 21216(%rbx) vmovapd 21056(%rbx), %ymm1 vaddpd 21312(%rbx), %ymm1, %ymm3 vmovapd %ymm3, 21312(%rbx) vmovapd 20864(%rbx), %ymm1 vaddpd 21120(%rbx), %ymm1, %ymm3 vmovapd %ymm3, 21120(%rbx) vmulpd 23808(%rbx), %ymm2, %ymm2 vmovapd %ymm2, 21056(%rbx) vmovapd 21024(%rbx), %ymm1 vsubpd 20960(%rbx), %ymm1, %ymm2 vmovapd %ymm2, 21184(%rbx) vmulpd 24224(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 20960(%rbx) vmovapd 20928(%rbx), %ymm0 vsubpd 20896(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 20928(%rbx) vmovapd 32256(%rbx), %ymm3 vmulpd 23424(%rbx), %ymm3, %ymm0 vmovapd %ymm0, 21024(%rbx) vmovapd 26624(%rbx), %ymm0 vmovapd 23360(%rbx), %ymm2 vmulpd %ymm0, %ymm2, %ymm2 vmovapd %ymm2, 20896(%rbx) vmulpd 24448(%rbx), %ymm3, %ymm2 vmovapd %ymm2, 20864(%rbx) vmovapd 23328(%rbx), %ymm2 vmulpd %ymm0, %ymm2, %ymm2 vmovapd %ymm2, 20608(%rbx) vmovapd 26592(%rbx), %ymm4 vmulpd 23392(%rbx), %ymm4, %ymm2 vmovapd %ymm2, 20576(%rbx) vmovapd 32288(%rbx), %ymm2 vmovapd 23296(%rbx), %ymm5 vmulpd %ymm2, %ymm5, %ymm5 vmovapd %ymm5, 20480(%rbx) vmulpd 22240(%rbx), %ymm4, %ymm5 vmovapd %ymm5, 20448(%rbx) vmovapd 23264(%rbx), %ymm5 vmulpd %ymm2, %ymm5, %ymm5 vmovapd %ymm5, 20224(%rbx) vmovapd 20160(%rbx), %ymm1 vaddpd 20352(%rbx), %ymm1, %ymm5 vmovapd %ymm5, 20352(%rbx) vmovapd 20064(%rbx), %ymm1 vaddpd 20288(%rbx), %ymm1, %ymm5 vmovapd %ymm5, 20160(%rbx) vmulpd %ymm2, %ymm4, %ymm4 vmovapd %ymm4, 20288(%rbx) vmulpd 24384(%rbx), %ymm2, %ymm2 vmovapd %ymm2, 20032(%rbx) vmulpd %ymm0, %ymm3, %ymm2 vmovapd %ymm2, 20000(%rbx) vmulpd 24352(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 19840(%rbx) vmovapd 20416(%rbx), %ymm0 vsubpd 16704(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 22240(%rbx) vmovapd 20384(%rbx), %ymm0 vsubpd 16736(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 20416(%rbx) vmovapd 20192(%rbx), %ymm0 vsubpd 16672(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 20064(%rbx) vmovapd 19808(%rbx), %ymm0 vsubpd 16640(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 23264(%rbx) vmovapd 13152(%rbx), %ymm0 vsubpd 16608(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 20384(%rbx) vmovapd 13120(%rbx), %ymm0 vsubpd 16576(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 20192(%rbx) vmovapd 24512(%rbx), %ymm0 vmulpd %ymm6, %ymm0, %ymm0 vmovapd %ymm0, 24448(%rbx) vmovapd 24480(%rbx), %ymm0 vmulpd %ymm6, %ymm0, %ymm0 vmovapd %ymm0, 24480(%rbx) vmovapd 20096(%rbx), %ymm0 vsubpd 13088(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 19808(%rbx) vmovapd 20128(%rbx), %ymm0 vsubpd 19968(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 19968(%rbx) vmovaps 13024(%rbx), %ymm0 vandps %ymm10, %ymm0, %ymm0 vmovaps %ymm0, 20128(%rbx) vmovaps 13056(%rbx), %ymm0 vandps %ymm10, %ymm0, %ymm0 vmovaps %ymm0, 24896(%rbx) vmovaps 19904(%rbx), %ymm0 vandps %ymm10, %ymm0, %ymm0 vmovaps %ymm0, 20096(%rbx) vmovaps 19936(%rbx), %ymm0 vandps %ymm10, %ymm0, %ymm0 vmovaps %ymm0, 24768(%rbx) vmovapd 31808(%rbx), %ymm5 vmulpd 23040(%rbx), %ymm5, %ymm0 vmovapd %ymm0, 19936(%rbx) vmovapd 32928(%rbx), %ymm2 vmovapd 22208(%rbx), %ymm0 vmulpd %ymm2, %ymm0, %ymm0 vmovapd %ymm0, 22208(%rbx) vmovapd 23008(%rbx), %ymm4 vmulpd 23104(%rbx), %ymm4, %ymm0 vmovapd %ymm0, 19904(%rbx) vmovapd 31872(%rbx), %ymm0 vmovapd 22944(%rbx), %ymm3 vmulpd %ymm0, %ymm3, %ymm3 vmovapd %ymm3, 22944(%rbx) vmovapd 13184(%rbx), %ymm1 vsubpd 15776(%rbx), %ymm1, %ymm3 vmovapd %ymm3, 23104(%rbx) vmulpd 23136(%rbx), %ymm4, %ymm3 vmovapd %ymm3, 19776(%rbx) vmovapd 22976(%rbx), %ymm3 vmulpd %ymm0, %ymm3, %ymm3 vmovapd %ymm3, 19104(%rbx) vmovapd 19872(%rbx), %ymm1 vsubpd 15616(%rbx), %ymm1, %ymm3 vmovapd %ymm3, 19872(%rbx) vmovapd 15392(%rbx), %ymm1 vsubpd 15744(%rbx), %ymm1, %ymm3 vmovapd %ymm3, 23040(%rbx) vmovapd 13280(%rbx), %ymm1 vsubpd 15680(%rbx), %ymm1, %ymm3 vmovapd %ymm3, 22976(%rbx) vmovapd 13248(%rbx), %ymm1 vsubpd 15712(%rbx), %ymm1, %ymm3 vmovapd %ymm3, 19136(%rbx) vmovapd 13216(%rbx), %ymm1 vsubpd 15648(%rbx), %ymm1, %ymm3 vmovapd %ymm3, 23136(%rbx) vmulpd 23072(%rbx), %ymm5, %ymm3 vmovapd %ymm3, 15648(%rbx) vmovapd 24320(%rbx), %ymm3 vmulpd %ymm2, %ymm3, %ymm3 vmovapd %ymm3, 15392(%rbx) vmovapd 26496(%rbx), %ymm3 vmulpd %ymm6, %ymm3, %ymm3 vmovapd %ymm3, 24672(%rbx) vmulpd %ymm2, %ymm5, %ymm3 vmovapd %ymm3, 19072(%rbx) vmulpd %ymm0, %ymm4, %ymm3 vmovapd %ymm3, 19040(%rbx) vmovapd 26528(%rbx), %ymm3 vmulpd %ymm6, %ymm3, %ymm3 vmovapd %ymm3, 24640(%rbx) vmovapd 14912(%rbx), %ymm1 vaddpd 15808(%rbx), %ymm1, %ymm3 vmovapd %ymm3, 23072(%rbx) vmovapd 13312(%rbx), %ymm1 vaddpd 18752(%rbx), %ymm1, %ymm3 vmovapd %ymm3, 19008(%rbx) vmulpd 24736(%rbx), %ymm2, %ymm2 vmovapd %ymm2, 18752(%rbx) vmovapd 18720(%rbx), %ymm1 vsubpd 14560(%rbx), %ymm1, %ymm2 vmovapd %ymm2, 23008(%rbx) vmulpd 26112(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 18720(%rbx) vmovapd 15584(%rbx), %ymm0 vsubpd 14528(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 15808(%rbx) vmovapd 26400(%rbx), %ymm3 vmulpd 22880(%rbx), %ymm3, %ymm0 vmovapd %ymm0, 22880(%rbx) vmovapd 26464(%rbx), %ymm0 vmovapd 24096(%rbx), %ymm2 vmulpd %ymm0, %ymm2, %ymm2 vmovapd %ymm2, 15776(%rbx) vmulpd 22144(%rbx), %ymm3, %ymm2 vmovapd %ymm2, 22144(%rbx) vmovapd 22080(%rbx), %ymm2 vmulpd %ymm0, %ymm2, %ymm2 vmovapd %ymm2, 22080(%rbx) vmovapd 24064(%rbx), %ymm5 vmulpd 24128(%rbx), %ymm5, %ymm2 vmovapd %ymm2, 15712(%rbx) vmovapd 26432(%rbx), %ymm2 vmovapd 26368(%rbx), %ymm4 vmulpd %ymm2, %ymm4, %ymm4 vmovapd %ymm4, 15616(%rbx) vmulpd 22112(%rbx), %ymm5, %ymm4 vmovapd %ymm4, 15584(%rbx) vmovapd 22848(%rbx), %ymm4 vmulpd %ymm2, %ymm4, %ymm4 vmovapd %ymm4, 14912(%rbx) vmovapd 14848(%rbx), %ymm1 vaddpd 15520(%rbx), %ymm1, %ymm4 vmovapd %ymm4, 15520(%rbx) vmovapd 14592(%rbx), %ymm1 vaddpd 15488(%rbx), %ymm1, %ymm4 vmovapd %ymm4, 14848(%rbx) vmulpd %ymm2, %ymm5, %ymm4 vmovapd %ymm4, 15488(%rbx) vmulpd 26304(%rbx), %ymm2, %ymm2 vmovapd %ymm2, 14592(%rbx) vmulpd %ymm0, %ymm3, %ymm2 vmovapd %ymm2, 14560(%rbx) vmulpd 26272(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 14528(%rbx) vmovapd 15552(%rbx), %ymm0 vsubpd 14784(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 15744(%rbx) vmovapd 14944(%rbx), %ymm0 vsubpd 14752(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 14944(%rbx) vmovapd 14880(%rbx), %ymm0 vsubpd 14720(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 14752(%rbx) vmovapd 13568(%rbx), %ymm0 vsubpd 14688(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 22112(%rbx) vmovapd 13536(%rbx), %ymm0 vsubpd 14656(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 15552(%rbx) vmovapd 13504(%rbx), %ymm0 vsubpd 14624(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 14880(%rbx) vmovapd 24160(%rbx), %ymm0 vmulpd %ymm6, %ymm0, %ymm0 vmovapd %ymm0, 24384(%rbx) vmovapd 24192(%rbx), %ymm0 vmulpd %ymm6, %ymm0, %ymm0 vmovapd %ymm0, 24352(%rbx) vmovapd 14432(%rbx), %ymm0 vsubpd 13408(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 14688(%rbx) vmovapd 14816(%rbx), %ymm0 vsubpd 13696(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 14720(%rbx) vmovaps 13344(%rbx), %ymm0 vandps %ymm10, %ymm0, %ymm0 vmovaps %ymm0, 14816(%rbx) vmovaps 13376(%rbx), %ymm0 vandps %ymm10, %ymm0, %ymm0 vmovaps %ymm0, 24800(%rbx) vmovaps 13600(%rbx), %ymm0 vandps %ymm10, %ymm0, %ymm0 vmovaps %ymm0, 14784(%rbx) vmovaps 14464(%rbx), %ymm0 vandps %ymm10, %ymm0, %ymm0 vmovaps %ymm0, 24736(%rbx) vmovapd 13472(%rbx), %ymm0 vsubpd 13984(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 22848(%rbx) vmovapd 13440(%rbx), %ymm0 vsubpd 13920(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 15680(%rbx) vmovapd 23872(%rbx), %ymm5 vmulpd 21984(%rbx), %ymm5, %ymm0 vmovapd %ymm0, 21984(%rbx) vmovapd 24000(%rbx), %ymm2 vmovapd 21952(%rbx), %ymm0 vmulpd %ymm2, %ymm0, %ymm0 vmovapd %ymm0, 14656(%rbx) vmovapd 23904(%rbx), %ymm4 vmulpd 22016(%rbx), %ymm4, %ymm0 vmovapd %ymm0, 14624(%rbx) vmovapd 26336(%rbx), %ymm0 vmovapd 22720(%rbx), %ymm3 vmulpd %ymm0, %ymm3, %ymm3 vmovapd %ymm3, 14464(%rbx) vmulpd 22752(%rbx), %ymm4, %ymm3 vmovapd %ymm3, 14432(%rbx) vmovapd 23936(%rbx), %ymm3 vmulpd %ymm0, %ymm3, %ymm3 vmovapd %ymm3, 13984(%rbx) vmovapd 14496(%rbx), %ymm1 vsubpd 14048(%rbx), %ymm1, %ymm3 vmovapd %ymm3, 22720(%rbx) vmovapd 14144(%rbx), %ymm1 vsubpd 14016(%rbx), %ymm1, %ymm3 vmovapd %ymm3, 21952(%rbx) vmovapd 13760(%rbx), %ymm1 vsubpd 14080(%rbx), %ymm1, %ymm3 vmovapd %ymm3, 22016(%rbx) vmovapd 13728(%rbx), %ymm1 vsubpd 13952(%rbx), %ymm1, %ymm3 vmovapd %ymm3, 22752(%rbx) vmulpd 23968(%rbx), %ymm5, %ymm3 vmovapd %ymm3, 13888(%rbx) vmovapd 26176(%rbx), %ymm3 vmulpd %ymm2, %ymm3, %ymm3 vmovapd %ymm3, 13856(%rbx) vmovapd 26208(%rbx), %ymm3 vmulpd %ymm6, %ymm3, %ymm3 vmovapd %ymm3, 24320(%rbx) vmulpd %ymm0, %ymm4, %ymm3 vmovapd %ymm3, 14080(%rbx) vmovapd 26240(%rbx), %ymm3 vmulpd %ymm6, %ymm3, %ymm3 vmovapd %ymm3, 24512(%rbx) vmulpd %ymm2, %ymm5, %ymm3 vmovapd %ymm3, 14144(%rbx) vmovapd 16256(%rbx), %ymm1 vaddpd 16320(%rbx), %ymm1, %ymm3 vmovapd %ymm3, 14496(%rbx) vmovapd 14112(%rbx), %ymm1 vaddpd 16384(%rbx), %ymm1, %ymm3 vmovapd %ymm3, 14048(%rbx) vmulpd 31136(%rbx), %ymm2, %ymm2 vmovapd %ymm2, 14016(%rbx) vmovapd 16352(%rbx), %ymm1 vsubpd 15840(%rbx), %ymm1, %ymm2 vmovapd %ymm2, 14112(%rbx) vmulpd 32800(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 13952(%rbx) vmovapd 16288(%rbx), %ymm0 vsubpd 13792(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 13920(%rbx) vmovapd .LCPI1_19(%rip), %ymm6 vmovapd 18880(%rbx), %ymm8 vcmpltpd %ymm6, %ymm8, %ymm0 vextractf128 $1, %ymm0, %xmm2 vpshufd $8, %xmm2, %xmm2 vpshufd $8, %xmm0, %xmm0 vmovlhps %xmm2, %xmm0, %xmm0 vmovapd 18848(%rbx), %ymm1 vcmpltpd %ymm6, %ymm1, %ymm2 vextractf128 $1, %ymm2, %xmm3 vmovdqa .LCPI1_21(%rip), %xmm15 vpshufb %xmm15, %xmm0, %xmm0 vpshufd $8, %xmm3, %xmm3 vpshufd $8, %xmm2, %xmm2 vmovlhps %xmm3, %xmm2, %xmm2 vmovdqa .LCPI1_20(%rip), %xmm3 vmovdqa %xmm3, %xmm4 vpshufb %xmm4, %xmm2, %xmm3 vmovdqa %xmm4, %xmm5 vmovapd 16832(%rbx), %ymm9 vcmpltpd %ymm6, %ymm9, %ymm2 vpor %xmm3, %xmm0, %xmm0 vextractf128 $1, %ymm2, %xmm3 vpshufd $8, %xmm3, %xmm3 vpshufd $8, %xmm2, %xmm2 vmovlhps %xmm3, %xmm2, %xmm2 vmovapd 16416(%rbx), %ymm10 vcmpltpd %ymm6, %ymm10, %ymm3 vextractf128 $1, %ymm3, %xmm4 vpshufd $8, %xmm4, %xmm4 vpshufd $8, %xmm3, %xmm3 vmovlhps %xmm4, %xmm3, %xmm4 vpsllw $15, %xmm0, %xmm0 vpsraw $15, %xmm0, %xmm3 vpshufb %xmm15, %xmm4, %xmm0 vpshufb %xmm5, %xmm2, %xmm2 vmovdqa %xmm5, %xmm7 vpor %xmm2, %xmm0, %xmm0 vpunpckhbw %xmm0, %xmm3, %xmm2 vpslld $31, %xmm2, %xmm4 vpmovsxdq %xmm4, %xmm2 vmovhlps %xmm4, %xmm4, %xmm4 vpmovsxdq %xmm4, %xmm4 vinsertf128 $1, %xmm4, %ymm2, %ymm2 vpsllw $15, %xmm0, %xmm0 vpsraw $15, %xmm0, %xmm0 vpunpckhbw %xmm0, %xmm0, %xmm4 vpslld $31, %xmm4, %xmm5 vpmovsxdq %xmm5, %xmm4 vmovhlps %xmm5, %xmm5, %xmm5 vpmovsxdq %xmm5, %xmm5 vinsertf128 $1, %xmm5, %ymm4, %ymm4 vpunpcklbw %xmm0, %xmm3, %xmm3 vpslld $31, %xmm3, %xmm5 vpmovsxdq %xmm5, %xmm3 vmovhlps %xmm5, %xmm5, %xmm5 vpmovsxdq %xmm5, %xmm5 vinsertf128 $1, %xmm5, %ymm3, %ymm3 vpunpcklbw %xmm0, %xmm0, %xmm0 vpslld $31, %xmm0, %xmm5 vpmovsxdq %xmm5, %xmm0 vmovhlps %xmm5, %xmm5, %xmm5 vpmovsxdq %xmm5, %xmm5 vinsertf128 $1, %xmm5, %ymm0, %ymm0 vblendvpd %ymm0, %ymm6, %ymm10, %ymm0 vmovapd %ymm0, 23968(%rbx) vblendvpd %ymm3, %ymm6, %ymm8, %ymm0 vmovapd %ymm0, 18880(%rbx) vblendvpd %ymm4, %ymm6, %ymm9, %ymm0 vmovapd %ymm0, 24064(%rbx) vblendvpd %ymm2, %ymm6, %ymm1, %ymm0 vmovapd %ymm0, 18848(%rbx) vxorpd %ymm13, %ymm13, %ymm13 vmovapd 17280(%rbx), %ymm1 vmulpd %ymm13, %ymm1, %ymm0 vmovapd 23648(%rbx), %ymm11 vmulpd %ymm0, %ymm11, %ymm2 vmovapd 16864(%rbx), %ymm9 vmulpd %ymm0, %ymm9, %ymm0 vaddpd %ymm2, %ymm0, %ymm2 vmovapd 17408(%rbx), %ymm12 vmulpd %ymm13, %ymm12, %ymm0 vmovapd 17344(%rbx), %ymm10 vmulpd %ymm0, %ymm10, %ymm3 vmovapd 17376(%rbx), %ymm14 vmulpd %ymm0, %ymm14, %ymm0 vaddpd %ymm3, %ymm0, %ymm0 vmulpd %ymm13, %ymm9, %ymm3 vmulpd %ymm3, %ymm11, %ymm3 vaddpd %ymm3, %ymm2, %ymm2 vmulpd %ymm1, %ymm1, %ymm3 vmovapd .LCPI1_23(%rip), %ymm6 vaddpd %ymm6, %ymm3, %ymm3 vmulpd %ymm9, %ymm9, %ymm4 vaddpd %ymm4, %ymm3, %ymm3 vmulpd %ymm11, %ymm11, %ymm4 vaddpd %ymm4, %ymm3, %ymm3 vmovapd .LCPI1_24(%rip), %ymm4 vmulpd %ymm4, %ymm2, %ymm2 vmovapd %ymm4, %ymm8 vaddpd %ymm2, %ymm3, %ymm2 vmulpd %ymm13, %ymm14, %ymm3 vmulpd %ymm3, %ymm10, %ymm3 vaddpd %ymm3, %ymm0, %ymm0 vmovdqa 24288(%rbx), %ymm3 vpshufd $8, %xmm3, %xmm3 vmovaps 24256(%rbx), %xmm4 vmovlhps %xmm4, %xmm3, %xmm3 vmovdqa 24032(%rbx), %ymm4 vpshufd $8, %xmm4, %xmm4 vmovaps 23840(%rbx), %xmm5 vmovlhps %xmm5, %xmm4, %xmm4 vmulpd %ymm12, %ymm12, %ymm5 vaddpd %ymm6, %ymm5, %ymm5 vmulpd %ymm14, %ymm14, %ymm6 vaddpd %ymm6, %ymm5, %ymm5 vmulpd %ymm10, %ymm10, %ymm6 vaddpd %ymm6, %ymm5, %ymm5 vpshufb %xmm15, %xmm4, %xmm4 vpshufb %xmm7, %xmm3, %xmm3 vpor %xmm3, %xmm4, %xmm4 vmulpd %ymm8, %ymm0, %ymm0 vaddpd %ymm0, %ymm5, %ymm3 vsqrtpd %ymm2, %ymm0 vmovapd .LCPI1_25(%rip), %ymm6 vmulpd %ymm6, %ymm0, %ymm2 vmovapd 12096(%rbx), %ymm5 vmulpd %ymm5, %ymm2, %ymm2 vsubpd %ymm2, %ymm11, %ymm7 vmovapd %ymm7, 23648(%rbx) vmovapd %ymm7, %ymm8 vsubpd %ymm2, %ymm9, %ymm7 vmovapd %ymm7, 31808(%rbx) vmovapd %ymm7, %ymm9 vsubpd %ymm2, %ymm1, %ymm2 vmovapd %ymm2, 23808(%rbx) vmovapd %ymm2, %ymm11 vdivpd %ymm5, %ymm0, %ymm0 vmovapd %ymm0, 32832(%rbx) vmovapd %ymm0, %ymm7 vpsllw $15, %xmm4, %xmm0 vpsraw $15, %xmm0, %xmm2 vpunpcklbw %xmm0, %xmm2, %xmm0 vpslld $31, %xmm0, %xmm4 vpmovsxdq %xmm4, %xmm0 vmovhlps %xmm4, %xmm4, %xmm4 vpmovsxdq %xmm4, %xmm4 vinsertf128 $1, %xmm4, %ymm0, %ymm0 vmovaps %ymm0, 32256(%rbx) vpunpckhbw %xmm0, %xmm2, %xmm2 vpslld $31, %xmm2, %xmm4 vpmovsxdq %xmm4, %xmm2 vmovhlps %xmm4, %xmm4, %xmm4 vpmovsxdq %xmm4, %xmm4 vinsertf128 $1, %xmm4, %ymm2, %ymm0 vmovaps %ymm0, 31136(%rbx) vsqrtpd %ymm3, %ymm3 vmulpd %ymm6, %ymm3, %ymm4 vmulpd %ymm5, %ymm4, %ymm4 vsubpd %ymm4, %ymm10, %ymm0 vmovapd %ymm0, 23776(%rbx) vsubpd %ymm4, %ymm14, %ymm15 vmovapd %ymm15, 18976(%rbx) vsubpd %ymm4, %ymm12, %ymm12 vmovapd %ymm12, 23872(%rbx) vdivpd %ymm5, %ymm3, %ymm0 vmovapd %ymm0, 32800(%rbx) vmovapd %ymm0, %ymm1 vmulpd %ymm13, %ymm7, %ymm4 vmulpd %ymm13, %ymm11, %ymm3 vmovapd %ymm3, 24288(%rbx) vaddpd %ymm3, %ymm4, %ymm3 vaddpd %ymm9, %ymm3, %ymm5 vmovapd %ymm8, %ymm14 vmulpd %ymm13, %ymm14, %ymm6 vmovapd %ymm6, 24192(%rbx) vaddpd %ymm6, %ymm5, %ymm0 vmovapd %ymm0, 26688(%rbx) vaddpd %ymm11, %ymm4, %ymm4 vmulpd %ymm13, %ymm9, %ymm10 vmovapd %ymm10, 24160(%rbx) vaddpd %ymm10, %ymm4, %ymm4 vaddpd %ymm6, %ymm4, %ymm4 vmovapd %ymm4, 24032(%rbx) vmovapd 17824(%rbx), %ymm2 vmulpd %ymm4, %ymm2, %ymm4 vmovapd 18432(%rbx), %ymm7 vmulpd %ymm0, %ymm7, %ymm5 vaddpd %ymm5, %ymm4, %ymm4 vaddpd %ymm10, %ymm3, %ymm3 vaddpd %ymm14, %ymm3, %ymm0 vmovapd %ymm0, 26656(%rbx) vmovapd %ymm14, %ymm13 vmovapd 17312(%rbx), %ymm9 vmulpd %ymm0, %ymm9, %ymm3 vaddpd %ymm3, %ymm4, %ymm8 vmovapd %ymm8, 26400(%rbx) vxorpd %ymm4, %ymm4, %ymm4 vmovapd 31136(%rbx), %ymm0 vblendvpd %ymm0, 16800(%rbx), %ymm4, %ymm0 vmovapd %ymm0, 31136(%rbx) vmovapd 32256(%rbx), %ymm0 vblendvpd %ymm0, 16768(%rbx), %ymm4, %ymm0 vmovapd %ymm0, 32256(%rbx) vmulpd %ymm4, %ymm1, %ymm3 vmulpd %ymm4, %ymm12, %ymm1 vxorpd %ymm6, %ymm6, %ymm6 vmovapd %ymm1, 24256(%rbx) vaddpd %ymm1, %ymm3, %ymm1 vaddpd %ymm15, %ymm1, %ymm4 vmovapd 23776(%rbx), %ymm14 vmulpd %ymm6, %ymm14, %ymm5 vmovapd %ymm5, 24128(%rbx) vaddpd %ymm5, %ymm4, %ymm4 vmovapd %ymm4, 26720(%rbx) vaddpd %ymm12, %ymm3, %ymm3 vmovapd %ymm12, %ymm10 vmulpd %ymm6, %ymm15, %ymm6 vmovapd %ymm6, 24224(%rbx) vaddpd %ymm6, %ymm3, %ymm3 vaddpd %ymm5, %ymm3, %ymm3 vmovapd %ymm3, 26592(%rbx) vmovapd 23456(%rbx), %ymm12 vmulpd %ymm3, %ymm12, %ymm3 vmovapd 23680(%rbx), %ymm5 vmulpd %ymm4, %ymm5, %ymm4 vaddpd %ymm4, %ymm3, %ymm3 vaddpd %ymm6, %ymm1, %ymm1 vaddpd %ymm14, %ymm1, %ymm1 vmovapd %ymm1, 24096(%rbx) vmovapd 26144(%rbx), %ymm0 vmulpd %ymm1, %ymm0, %ymm1 vaddpd %ymm1, %ymm3, %ymm15 vmovapd %ymm15, 26368(%rbx) vmovapd 17440(%rbx), %ymm1 vaddpd 32256(%rbx), %ymm1, %ymm0 vmovapd %ymm0, 32256(%rbx) vmovapd 17792(%rbx), %ymm0 vaddpd 31136(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 31136(%rbx) vmulpd %ymm11, %ymm8, %ymm0 vmovapd %ymm0, 17440(%rbx) vaddpd %ymm0, %ymm2, %ymm0 vmovapd 32832(%rbx), %ymm3 vdivpd %ymm3, %ymm0, %ymm4 vmovapd %ymm4, 23712(%rbx) vmovapd .LCPI1_22(%rip), %ymm6 vmulpd %ymm6, %ymm8, %ymm0 vxorpd %ymm11, %ymm11, %ymm11 vmulpd %ymm11, %ymm4, %ymm1 vaddpd %ymm1, %ymm0, %ymm0 vmulpd %ymm11, %ymm8, %ymm2 vaddpd %ymm1, %ymm2, %ymm1 vmovapd %ymm1, 26272(%rbx) vaddpd %ymm4, %ymm2, %ymm1 vmulpd 31808(%rbx), %ymm8, %ymm2 vmovapd %ymm2, 17408(%rbx) vaddpd %ymm2, %ymm7, %ymm2 vdivpd %ymm3, %ymm2, %ymm2 vmovapd %ymm2, 23744(%rbx) vmulpd %ymm11, %ymm2, %ymm7 vaddpd %ymm7, %ymm1, %ymm1 vaddpd %ymm7, %ymm0, %ymm0 vmulpd %ymm13, %ymm8, %ymm2 vmovapd %ymm2, 17376(%rbx) vaddpd %ymm2, %ymm9, %ymm2 vdivpd %ymm3, %ymm2, %ymm4 vmovapd %ymm4, 23616(%rbx) vmulpd %ymm11, %ymm4, %ymm2 vmovapd %ymm4, %ymm13 vaddpd %ymm2, %ymm0, %ymm0 vmovapd %ymm0, 26528(%rbx) vaddpd %ymm2, %ymm1, %ymm0 vmovapd %ymm0, 26304(%rbx) vmulpd %ymm10, %ymm15, %ymm0 vmovapd %ymm0, 17344(%rbx) vaddpd %ymm0, %ymm12, %ymm0 vmovapd 32800(%rbx), %ymm3 vdivpd %ymm3, %ymm0, %ymm4 vmovapd %ymm4, 23840(%rbx) vmulpd %ymm6, %ymm15, %ymm0 vmulpd %ymm11, %ymm4, %ymm1 vaddpd %ymm1, %ymm0, %ymm0 vmulpd %ymm11, %ymm15, %ymm2 vaddpd %ymm1, %ymm2, %ymm10 vaddpd %ymm4, %ymm2, %ymm1 vmulpd 18976(%rbx), %ymm15, %ymm2 vmovapd %ymm2, 17312(%rbx) vaddpd %ymm2, %ymm5, %ymm2 vdivpd %ymm3, %ymm2, %ymm2 vmovapd %ymm2, 23680(%rbx) vmulpd %ymm11, %ymm2, %ymm8 vmovapd %ymm2, %ymm12 vaddpd %ymm8, %ymm1, %ymm1 vaddpd %ymm8, %ymm0, %ymm0 vmulpd %ymm14, %ymm15, %ymm2 vmovapd %ymm2, 17280(%rbx) vmovapd 26144(%rbx), %ymm4 vaddpd %ymm2, %ymm4, %ymm2 vdivpd %ymm3, %ymm2, %ymm4 vmovapd %ymm4, 23584(%rbx) vmulpd %ymm11, %ymm4, %ymm2 vmovapd %ymm4, %ymm11 vaddpd %ymm2, %ymm0, %ymm0 vmovapd %ymm0, 26496(%rbx) vaddpd %ymm2, %ymm1, %ymm15 vmovapd %ymm15, 23392(%rbx) movq 25632(%rbx), %rdi movabsq $-4616189618054758400, %rdx movq %rdx, (%rdi) movq 25600(%rbx), %rdi movq %rdx, (%rdi) movq 25568(%rbx), %rdi movq %rdx, (%rdi) movq 32576(%rbx), %rdi movq %rdx, (%rdi) movq 25760(%rbx), %rdi movq %rdx, (%rdi) movq 32704(%rbx), %rdi movq %rdx, (%rdi) movq 25728(%rbx), %rdi movq %rdx, (%rdi) movq 25696(%rbx), %rdi movq %rdx, (%rdi) vxorpd %xmm0, %xmm0, %xmm0 movq 24976(%rbx), %rdi vmovupd %xmm0, 16(%rdi) vmovupd %xmm0, (%rdi) movq 24928(%rbx), %rdi vmovupd %xmm0, 16(%rdi) vmovupd %xmm0, (%rdi) movq 25216(%rbx), %rdi vmovupd %xmm0, 16(%rdi) vmovupd %xmm0, (%rdi) movq 25184(%rbx), %rdi vmovupd %xmm0, 16(%rdi) vmovupd %xmm0, (%rdi) movq 25152(%rbx), %rdi vmovupd %xmm0, 16(%rdi) vmovupd %xmm0, (%rdi) movq 25136(%rbx), %rdi vmovupd %xmm0, 16(%rdi) vmovupd %xmm0, (%rdi) movq 25120(%rbx), %rdi vmovupd %xmm0, 16(%rdi) vmovupd %xmm0, (%rdi) movq 25088(%rbx), %rdi vmovupd %xmm0, 16(%rdi) vmovupd %xmm0, (%rdi) movabsq $4607182418800017408, %r13 movq %r13, (%rcx) movq 25856(%rbx), %rdi movq %r13, (%rdi) movq 25824(%rbx), %rdi movq %r13, (%rdi) movq 25888(%rbx), %rdi movq %r13, (%rdi) movq 25920(%rbx), %rdi movq %r13, (%rdi) movq 25984(%rbx), %rdi movq %r13, (%rdi) movq %r13, (%r9) movq 26016(%rbx), %rdi movq %r13, (%rdi) movq 25056(%rbx), %rcx vmovupd %xmm0, 16(%rcx) vmovupd %xmm0, (%rcx) movq 25040(%rbx), %rcx vmovupd %xmm0, 16(%rcx) vmovupd %xmm0, (%rcx) movq 24992(%rbx), %rcx vmovupd %xmm0, 16(%rcx) vmovupd %xmm0, (%rcx) movq 25392(%rbx), %rcx vmovupd %xmm0, 16(%rcx) vmovupd %xmm0, (%rcx) movq 25344(%rbx), %rcx vmovupd %xmm0, 16(%rcx) vmovupd %xmm0, (%rcx) movq 25312(%rbx), %rcx vmovupd %xmm0, 16(%rcx) vmovupd %xmm0, (%rcx) movq 25280(%rbx), %rcx vmovupd %xmm0, 16(%rcx) vmovupd %xmm0, (%rcx) movq 25248(%rbx), %rcx vmovupd %xmm0, 16(%rcx) vmovupd %xmm0, (%rcx) movq 31552(%rbx), %rdi movq %r13, (%rdi) movq %r13, (%r10) movq 31616(%rbx), %rdi movq %r13, (%rdi) movq 31648(%rbx), %rcx movq %r13, (%rcx) movq 31904(%rbx), %rsi movq %r13, (%rsi) movq 31936(%rbx), %rsi movq %r13, (%rsi) movq 31680(%rbx), %rcx movq %r13, (%rcx) movq 31968(%rbx), %rcx movq %r13, (%rcx) vmovupd %xmm0, 16(%r8) vmovupd %xmm0, (%r8) vmovupd %xmm0, 16(%r11) vmovupd %xmm0, (%r11) vmovupd %xmm0, 16(%r14) vmovupd %xmm0, (%r14) movq 25456(%rbx), %rcx vmovupd %xmm0, 16(%rcx) vmovupd %xmm0, (%rcx) vmovupd %xmm0, 16(%r15) vmovupd %xmm0, (%r15) movq 25408(%rbx), %rcx vmovupd %xmm0, 16(%rcx) vmovupd %xmm0, (%rcx) movq 32128(%rbx), %rcx vmovupd %xmm0, 16(%rcx) vmovupd %xmm0, (%rcx) movq 32672(%rbx), %rcx vmovupd %xmm0, 16(%rcx) vmovupd %xmm0, (%rcx) movq 31264(%rbx), %r9 movq %r13, (%r9) movq 31296(%rbx), %r10 movq %r13, (%r10) movq 31200(%rbx), %r11 movq %r13, (%r11) movq 31232(%rbx), %r8 movq %r13, (%r8) movq 32000(%rbx), %rdi movq %r13, (%rdi) movq 32032(%rbx), %r14 movq %r13, (%r14) movq 31168(%rbx), %rsi movq %r13, (%rsi) movq 31072(%rbx), %r15 movq %r13, (%r15) movq 30720(%rbx), %rcx movq %rdx, (%rcx) movq 30752(%rbx), %rcx movq %rdx, (%rcx) movq 30656(%rbx), %rcx movq %rdx, (%rcx) movq 30688(%rbx), %rcx movq %rdx, (%rcx) movq 30848(%rbx), %rcx movq %rdx, (%rcx) movq 31008(%rbx), %rcx movq %rdx, (%rcx) movq 30816(%rbx), %rcx movq %rdx, (%rcx) movq 30976(%rbx), %rcx movq %rdx, (%rcx) movabsq $-9223372036854775808, %rcx movq 30592(%rbx), %rdx movq %rcx, (%rdx) movq 30624(%rbx), %rdx movq %rcx, (%rdx) movq 30528(%rbx), %rdx movq %rcx, (%rdx) movq 30560(%rbx), %rdx movq %rcx, (%rdx) movq 30784(%rbx), %rdx movq %rcx, (%rdx) movq 30944(%rbx), %rdx movq %rcx, (%rdx) movq 30880(%rbx), %rdx movq %rcx, (%rdx) movq 30912(%rbx), %rdx movq %rcx, (%rdx) movq 30368(%rbx), %rdx movq %rcx, (%rdx) movq 30336(%rbx), %rdx movq %rcx, (%rdx) movq 30304(%rbx), %rdx movq %rcx, (%rdx) movq 30272(%rbx), %rdx movq %rcx, (%rdx) movq 30496(%rbx), %rdx movq %rcx, (%rdx) movq 30464(%rbx), %rdx movq %rcx, (%rdx) movq 30432(%rbx), %rdx movq %rcx, (%rdx) movq 30400(%rbx), %rdx movq %rcx, (%rdx) movq 28160(%rbx), %rdx movq %rcx, (%rdx) movq 30112(%rbx), %rdx movq %rcx, (%rdx) movq 30080(%rbx), %rdx movq %rcx, (%rdx) movq 30048(%rbx), %rdx movq %rcx, (%rdx) movq 30240(%rbx), %rdx movq %rcx, (%rdx) movq 30208(%rbx), %rdx movq %rcx, (%rdx) movq 30176(%rbx), %rdx movq %rcx, (%rdx) movq 30144(%rbx), %rdx movq %rcx, (%rdx) movq 29312(%rbx), %rdx movq %rcx, (%rdx) movq 29280(%rbx), %rdx movq %rcx, (%rdx) movq 29120(%rbx), %rdx movq %rcx, (%rdx) movq 29088(%rbx), %rdx movq %rcx, (%rdx) movq 29952(%rbx), %rdx movq %rcx, (%rdx) movq 29920(%rbx), %rdx movq %rcx, (%rdx) movq 29760(%rbx), %rdx movq %rcx, (%rdx) movq 29728(%rbx), %rdx movq %rcx, (%rdx) movq 29184(%rbx), %rdx movq %r13, (%rdx) movq 29152(%rbx), %rdx movq %r13, (%rdx) movq 29056(%rbx), %rdx movq %r13, (%rdx) movq 29024(%rbx), %rdx movq %r13, (%rdx) movq 29824(%rbx), %rdx movq %r13, (%rdx) movq 29792(%rbx), %rdx movq %r13, (%rdx) movq 29696(%rbx), %rdx movq %r13, (%rdx) movq 29664(%rbx), %rdx movq %r13, (%rdx) movq 29440(%rbx), %rdx movq %rcx, (%rdx) movq 29408(%rbx), %rdx movq %rcx, (%rdx) movq 29248(%rbx), %rdx movq %rcx, (%rdx) movq 29216(%rbx), %rdx movq %rcx, (%rdx) movq 30016(%rbx), %rdx movq %rcx, (%rdx) movq 29984(%rbx), %rdx movq %rcx, (%rdx) movq 29888(%rbx), %rdx movq %rcx, (%rdx) movq 29856(%rbx), %rdx movq %rcx, (%rdx) movq 28288(%rbx), %rdx movq %rcx, (%rdx) movq 28256(%rbx), %rdx movq %rcx, (%rdx) movq 28128(%rbx), %rdx movq %rcx, (%rdx) movq 28096(%rbx), %rdx movq %rcx, (%rdx) movq 29568(%rbx), %rdx movq %rcx, (%rdx) movq 29536(%rbx), %rdx movq %rcx, (%rdx) movq 29376(%rbx), %rdx movq %rcx, (%rdx) movq 29344(%rbx), %rdx movq %rcx, (%rdx) movq 28672(%rbx), %rdx movq %rcx, (%rdx) movq 28640(%rbx), %rdx movq %rcx, (%rdx) movq 28416(%rbx), %rdx movq %rcx, (%rdx) movq 28384(%rbx), %rdx movq %rcx, (%rdx) movq 28992(%rbx), %rdx movq %rcx, (%rdx) movq 28960(%rbx), %rdx movq %rcx, (%rdx) movq 28864(%rbx), %rdx movq %rcx, (%rdx) movq 28832(%rbx), %rdx movq %rcx, (%rdx) movq 28480(%rbx), %rdx movq %rcx, (%rdx) movq 28448(%rbx), %rdx movq %rcx, (%rdx) movq 28224(%rbx), %rdx movq %rcx, (%rdx) movq 28192(%rbx), %rdx movq %rcx, (%rdx) movq 29632(%rbx), %rdx movq %rcx, (%rdx) movq 29600(%rbx), %rdx movq %rcx, (%rdx) movq 29504(%rbx), %rdx movq %rcx, (%rdx) movq 29472(%rbx), %rdx movq %rcx, (%rdx) movq 27808(%rbx), %rdx movq %r13, (%rdx) movq 27776(%rbx), %rdx movq %r13, (%rdx) movq 27616(%rbx), %rdx movq %r13, (%rdx) movq 27584(%rbx), %rdx movq %r13, (%rdx) movq 28928(%rbx), %rdx movq %r13, (%rdx) movq 28896(%rbx), %rdx movq %r13, (%rdx) movq 28736(%rbx), %rdx movq %r13, (%rdx) movq 28704(%rbx), %rdx movq %r13, (%rdx) movq 27104(%rbx), %rdx movq %rcx, (%rdx) movq 27072(%rbx), %rdx movq %rcx, (%rdx) movq 26976(%rbx), %rdx movq %rcx, (%rdx) movq 26944(%rbx), %rdx movq %rcx, (%rdx) movq 28000(%rbx), %rdx movq %rcx, (%rdx) movq 27968(%rbx), %rdx movq %rcx, (%rdx) movq 27872(%rbx), %rdx movq %rcx, (%rdx) movq 27840(%rbx), %rdx movq %rcx, (%rdx) movq 28064(%rbx), %rdx movq %rcx, (%rdx) movq 28032(%rbx), %rdx movq %rcx, (%rdx) movq 27936(%rbx), %rdx movq %rcx, (%rdx) movq 27904(%rbx), %rdx movq %rcx, (%rdx) movq 28800(%rbx), %rdx movq %rcx, (%rdx) movq 28768(%rbx), %rdx movq %rcx, (%rdx) movq 28544(%rbx), %rdx movq %rcx, (%rdx) movq 28512(%rbx), %rdx movq %rcx, (%rdx) movq 27680(%rbx), %rdx movq %rcx, (%rdx) movq 27648(%rbx), %rdx movq %rcx, (%rdx) movq 27488(%rbx), %rdx movq %rcx, (%rdx) movq 27456(%rbx), %rdx movq %rcx, (%rdx) movq 28608(%rbx), %rdx movq %rcx, (%rdx) movq 28576(%rbx), %rdx movq %rcx, (%rdx) movq 28352(%rbx), %rdx movq %rcx, (%rdx) movq 28320(%rbx), %rdx movq %rcx, (%rdx) movq 27424(%rbx), %rdx movq %rcx, (%rdx) movq 27392(%rbx), %rdx movq %rcx, (%rdx) movq 27232(%rbx), %rdx movq %rcx, (%rdx) movq 27200(%rbx), %rdx movq %rcx, (%rdx) movq 27744(%rbx), %rdx movq %rcx, (%rdx) movq 27712(%rbx), %rdx movq %rcx, (%rdx) movq 27552(%rbx), %rdx movq %rcx, (%rdx) movq 27520(%rbx), %rdx movq %rcx, (%rdx) movq 27296(%rbx), %rcx movq %r13, (%rcx) movq 27264(%rbx), %rcx movq %r13, (%rcx) movq 27040(%rbx), %rcx movq %r13, (%rcx) movq 27008(%rbx), %rcx movq %r13, (%rcx) movq 27360(%rbx), %rcx movq %r13, (%rcx) movq 27328(%rbx), %rcx movq %r13, (%rcx) movq 27168(%rbx), %rcx movq %r13, (%rcx) movq 27136(%rbx), %rcx movq %r13, (%rcx) movq 31712(%rbx), %rcx vmovsd (%rcx), %xmm0 movq 31776(%rbx), %rcx vmovhpd (%rcx), %xmm0, %xmm1 movq 31040(%rbx), %rcx vmovsd (%rcx), %xmm0 movq 31744(%rbx), %rcx vmovhpd (%rcx), %xmm0, %xmm3 vmovsd (%rsi), %xmm0 vmovhpd (%r15), %xmm0, %xmm2 vmovsd (%rdi), %xmm0 vmovhpd (%r14), %xmm0, %xmm4 movq 32192(%rbx), %rcx vmovsd (%rcx), %xmm0 movq 32224(%rbx), %rcx vmovhpd (%rcx), %xmm0, %xmm0 movq 32160(%rbx), %rcx vmovsd (%rcx), %xmm5 movq 32544(%rbx), %rcx vmovhpd (%rcx), %xmm5, %xmm5 vinsertf128 $1, %xmm0, %ymm5, %ymm0 vinsertf128 $1, %xmm2, %ymm4, %ymm2 vinsertf128 $1, %xmm1, %ymm3, %ymm1 vmovsd (%r11), %xmm3 vmovhpd (%r8), %xmm3, %xmm3 vmovsd (%r9), %xmm4 vmovhpd (%r10), %xmm4, %xmm4 vinsertf128 $1, %xmm3, %ymm4, %ymm3 vmovapd 26272(%rbx), %ymm5 vaddpd %ymm7, %ymm5, %ymm4 vmulpd %ymm13, %ymm3, %ymm3 vaddpd %ymm3, %ymm4, %ymm4 vmovapd %ymm4, 23456(%rbx) vmovapd 23744(%rbx), %ymm9 vaddpd %ymm9, %ymm5, %ymm3 vmulpd %ymm13, %ymm1, %ymm1 vaddpd %ymm1, %ymm3, %ymm3 vmovapd %ymm3, 26208(%rbx) vaddpd %ymm8, %ymm10, %ymm1 vmovapd %ymm11, %ymm7 vmulpd %ymm7, %ymm2, %ymm2 vaddpd %ymm2, %ymm1, %ymm8 vmovapd %ymm8, 23488(%rbx) vaddpd %ymm12, %ymm10, %ymm1 vmulpd %ymm7, %ymm0, %ymm0 vmovapd %ymm7, %ymm10 vaddpd %ymm0, %ymm1, %ymm0 vmovapd %ymm0, 26272(%rbx) vmovapd %ymm0, %ymm14 vmovapd 23712(%rbx), %ymm0 vmulpd 26304(%rbx), %ymm0, %ymm2 vmovapd %ymm2, 17760(%rbx) vmovapd 26400(%rbx), %ymm0 vmulpd 26528(%rbx), %ymm0, %ymm1 vaddpd %ymm2, %ymm1, %ymm0 vmulpd %ymm3, %ymm9, %ymm2 vmovapd %ymm2, 18432(%rbx) vaddpd %ymm2, %ymm0, %ymm0 vmulpd %ymm4, %ymm13, %ymm2 vmovapd %ymm2, 17792(%rbx) vaddpd %ymm2, %ymm0, %ymm2 vmovapd %ymm2, 16640(%rbx) vmovapd .LCPI1_26(%rip), %ymm5 vcmpltpd %ymm5, %ymm2, %ymm0 vmovapd %ymm2, %ymm7 vextractf128 $1, %ymm0, %xmm2 vpshufd $8, %xmm2, %xmm2 vpshufd $8, %xmm0, %xmm0 vmovlhps %xmm2, %xmm0, %xmm2 vmovapd 23840(%rbx), %ymm0 vmulpd %ymm15, %ymm0, %ymm3 vmovapd %ymm3, 17696(%rbx) vmovapd 26368(%rbx), %ymm13 vmulpd 26496(%rbx), %ymm13, %ymm0 vaddpd %ymm3, %ymm0, %ymm3 vmulpd %ymm14, %ymm12, %ymm4 vmovapd %ymm4, 17824(%rbx) vaddpd %ymm4, %ymm3, %ymm3 vmulpd %ymm8, %ymm10, %ymm4 vmovapd %ymm4, 17728(%rbx) vaddpd %ymm4, %ymm3, %ymm4 vmovapd %ymm4, 16608(%rbx) vcmpltpd %ymm5, %ymm4, %ymm3 vmovapd %ymm4, %ymm8 vextractf128 $1, %ymm3, %xmm4 vpshufd $8, %xmm4, %xmm4 vpshufd $8, %xmm3, %xmm3 vmovlhps %xmm4, %xmm3, %xmm3 vpshufb .LCPI1_20(%rip), %xmm3, %xmm3 vpshufb .LCPI1_21(%rip), %xmm2, %xmm2 vpor %xmm3, %xmm2, %xmm2 vpsllw $15, %xmm2, %xmm2 vpsraw $15, %xmm2, %xmm3 vpunpckhbw %xmm0, %xmm3, %xmm2 vpslld $31, %xmm2, %xmm4 vpmovsxdq %xmm4, %xmm2 vmovhlps %xmm4, %xmm4, %xmm4 vpmovsxdq %xmm4, %xmm4 vinsertf128 $1, %xmm4, %ymm2, %ymm2 vpunpcklbw %xmm0, %xmm3, %xmm3 vpslld $31, %xmm3, %xmm4 vpmovsxdq %xmm4, %xmm3 vmovhlps %xmm4, %xmm4, %xmm4 vpmovsxdq %xmm4, %xmm4 vinsertf128 $1, %xmm4, %ymm3, %ymm3 vblendvpd %ymm3, %ymm5, %ymm7, %ymm4 vblendvpd %ymm2, %ymm5, %ymm8, %ymm5 vmovapd 23968(%rbx), %ymm3 vmovapd 18880(%rbx), %ymm2 vaddpd %ymm3, %ymm2, %ymm2 vmovapd .LCPI1_27(%rip), %ymm7 vmulpd %ymm7, %ymm3, %ymm8 vmovapd %ymm8, 13792(%rbx) vaddpd %ymm2, %ymm8, %ymm2 vmovapd 32832(%rbx), %ymm10 vmulpd %ymm6, %ymm10, %ymm3 vaddpd 24288(%rbx), %ymm3, %ymm3 vaddpd 24160(%rbx), %ymm3, %ymm3 vaddpd 24192(%rbx), %ymm3, %ymm12 vmovapd %ymm12, 23424(%rbx) vmovapd .LCPI1_28(%rip), %ymm9 vmulpd %ymm9, %ymm4, %ymm3 vaddpd %ymm3, %ymm8, %ymm8 vmovapd %ymm8, 16832(%rbx) vaddpd %ymm2, %ymm4, %ymm2 vmovapd %ymm2, 16864(%rbx) vmulpd %ymm2, %ymm10, %ymm3 vmulpd %ymm3, %ymm12, %ymm2 vmovapd %ymm12, %ymm10 vaddpd %ymm2, %ymm8, %ymm2 vsubpd %ymm1, %ymm2, %ymm1 vmovapd %ymm1, 26176(%rbx) vmovapd 32800(%rbx), %ymm12 vmulpd %ymm6, %ymm12, %ymm2 vmovapd 24064(%rbx), %ymm6 vmovapd 18848(%rbx), %ymm1 vaddpd %ymm6, %ymm1, %ymm1 vmulpd %ymm7, %ymm6, %ymm6 vmovapd %ymm6, 13760(%rbx) vaddpd %ymm1, %ymm6, %ymm1 vaddpd 24256(%rbx), %ymm2, %ymm2 vaddpd 24224(%rbx), %ymm2, %ymm2 vaddpd 24128(%rbx), %ymm2, %ymm7 vmovapd %ymm7, 26112(%rbx) vmulpd %ymm9, %ymm5, %ymm2 vaddpd %ymm2, %ymm6, %ymm2 vmovapd %ymm2, 23360(%rbx) vaddpd %ymm1, %ymm5, %ymm1 vmovapd %ymm1, 23328(%rbx) vmulpd %ymm1, %ymm12, %ymm1 vmovapd %ymm1, 26240(%rbx) vmovapd %ymm12, %ymm14 vmovapd %ymm7, %ymm6 vmulpd %ymm1, %ymm6, %ymm1 vaddpd %ymm1, %ymm2, %ymm1 vsubpd %ymm0, %ymm1, %ymm0 vsqrtpd %ymm5, %ymm5 vmovapd %ymm5, 24864(%rbx) vmovapd 31136(%rbx), %ymm7 vmulpd %ymm7, %ymm13, %ymm1 vdivpd %ymm5, %ymm1, %ymm1 vmovapd %ymm1, 23296(%rbx) vmovapd %ymm5, %ymm11 vmulpd %ymm1, %ymm6, %ymm5 vaddpd %ymm5, %ymm0, %ymm0 vsqrtpd %ymm4, %ymm5 vmovapd %ymm5, 24832(%rbx) vmovapd 32256(%rbx), %ymm9 vmovapd 26400(%rbx), %ymm1 vmulpd %ymm9, %ymm1, %ymm4 vdivpd %ymm5, %ymm4, %ymm15 vmovapd %ymm15, 17664(%rbx) vmovapd %ymm5, %ymm4 vmulpd %ymm15, %ymm10, %ymm5 vmovapd 26176(%rbx), %ymm2 vaddpd %ymm5, %ymm2, %ymm6 vmovapd 26688(%rbx), %ymm12 vmulpd %ymm3, %ymm12, %ymm5 vmulpd .LCPI1_88, %ymm8, %ymm10 vaddpd %ymm5, %ymm10, %ymm5 vmulpd 26208(%rbx), %ymm1, %ymm8 vsubpd %ymm8, %ymm5, %ymm2 vmovapd %ymm2, 26176(%rbx) vmovapd 26528(%rbx), %ymm2 vmulpd %ymm9, %ymm2, %ymm8 vdivpd %ymm4, %ymm8, %ymm5 vmovapd %ymm5, 23904(%rbx) vmovapd 32832(%rbx), %ymm4 vmulpd %ymm5, %ymm4, %ymm8 vaddpd %ymm8, %ymm6, %ymm2 vmovapd %ymm2, 23552(%rbx) vmovapd 26496(%rbx), %ymm2 vmulpd %ymm7, %ymm2, %ymm6 vdivpd %ymm11, %ymm6, %ymm5 vmovapd %ymm5, 23936(%rbx) vmulpd %ymm5, %ymm14, %ymm6 vaddpd %ymm6, %ymm0, %ymm0 vmovapd %ymm0, 23520(%rbx) vmovapd 24032(%rbx), %ymm14 vmulpd %ymm3, %ymm14, %ymm0 vaddpd %ymm0, %ymm10, %ymm0 vmovapd 26304(%rbx), %ymm5 vmulpd %ymm5, %ymm1, %ymm6 vsubpd %ymm6, %ymm0, %ymm8 vmovapd 26592(%rbx), %ymm0 vmulpd 26240(%rbx), %ymm0, %ymm9 vmovapd 23360(%rbx), %ymm2 vmulpd .LCPI1_88, %ymm2, %ymm2 vmovapd %ymm2, 26144(%rbx) vaddpd %ymm9, %ymm2, %ymm9 vmovapd 23392(%rbx), %ymm7 vmulpd %ymm7, %ymm13, %ymm11 vsubpd %ymm11, %ymm9, %ymm9 vmovapd 23296(%rbx), %ymm6 vmulpd %ymm6, %ymm0, %ymm11 vaddpd %ymm11, %ymm9, %ymm9 vmulpd %ymm15, %ymm14, %ymm11 vaddpd %ymm11, %ymm8, %ymm11 vmovaps 23520(%rbx), %ymm0 vmovaps %ymm0, 12000(%rax,%r12) vmovaps 23552(%rbx), %ymm0 vmovaps %ymm0, 11968(%rax,%r12) vmulpd %ymm15, %ymm12, %ymm8 vmovapd 26176(%rbx), %ymm0 vaddpd %ymm8, %ymm0, %ymm0 vmovapd %ymm0, 26176(%rbx) vmovapd 26656(%rbx), %ymm14 vmulpd %ymm3, %ymm14, %ymm3 vaddpd %ymm3, %ymm10, %ymm3 vmovapd 23456(%rbx), %ymm0 vmulpd %ymm0, %ymm1, %ymm8 vsubpd %ymm8, %ymm3, %ymm1 vmovapd %ymm1, 17632(%rbx) vmulpd 32256(%rbx), %ymm5, %ymm8 vmovapd 24832(%rbx), %ymm15 vdivpd %ymm15, %ymm8, %ymm1 vmovapd %ymm1, 23552(%rbx) vmulpd %ymm1, %ymm4, %ymm8 vaddpd %ymm8, %ymm11, %ymm1 vmovapd %ymm1, 16800(%rbx) vmovapd 31136(%rbx), %ymm4 vmulpd %ymm4, %ymm7, %ymm8 vmovapd 24864(%rbx), %ymm12 vdivpd %ymm12, %ymm8, %ymm1 vmovapd %ymm1, 23520(%rbx) vmovapd 32800(%rbx), %ymm3 vmulpd %ymm1, %ymm3, %ymm8 vaddpd %ymm8, %ymm9, %ymm8 vmovapd 26720(%rbx), %ymm13 vmovapd 26240(%rbx), %ymm3 vmulpd %ymm3, %ymm13, %ymm9 vmovapd %ymm2, %ymm7 vaddpd %ymm9, %ymm7, %ymm9 vmovapd 26368(%rbx), %ymm5 vmovapd 26272(%rbx), %ymm1 vmulpd %ymm1, %ymm5, %ymm11 vsubpd %ymm11, %ymm9, %ymm9 vmulpd %ymm6, %ymm13, %ymm11 vaddpd %ymm11, %ymm9, %ymm2 vmovapd %ymm2, 17600(%rbx) vmovapd %ymm8, 12064(%rax,%r12) vmovaps 16800(%rbx), %ymm2 vmovaps %ymm2, 12032(%rax,%r12) vmovapd 24096(%rbx), %ymm11 vmulpd %ymm3, %ymm11, %ymm2 vaddpd %ymm2, %ymm7, %ymm2 vmovapd %ymm7, %ymm9 vmovapd 23488(%rbx), %ymm13 vmulpd %ymm13, %ymm5, %ymm6 vsubpd %ymm6, %ymm2, %ymm2 vmovapd %ymm2, 16800(%rbx) vmulpd 17664(%rbx), %ymm14, %ymm2 vmovapd 17632(%rbx), %ymm3 vaddpd %ymm2, %ymm3, %ymm2 vmovapd %ymm2, 26240(%rbx) vmovapd 26208(%rbx), %ymm5 vmovapd 32256(%rbx), %ymm2 vmulpd %ymm2, %ymm5, %ymm3 vdivpd %ymm15, %ymm3, %ymm3 vmovapd %ymm15, %ymm14 vmovapd %ymm3, 17664(%rbx) vmovapd 32832(%rbx), %ymm7 vmulpd %ymm3, %ymm7, %ymm3 vmovapd 26176(%rbx), %ymm6 vaddpd %ymm3, %ymm6, %ymm3 vmovapd %ymm3, 16768(%rbx) vmulpd %ymm4, %ymm1, %ymm3 vdivpd %ymm12, %ymm3, %ymm1 vmovapd %ymm1, 17632(%rbx) vmovapd 32800(%rbx), %ymm15 vmulpd %ymm1, %ymm15, %ymm3 vmovapd 17600(%rbx), %ymm1 vaddpd %ymm3, %ymm1, %ymm4 vmovapd 23872(%rbx), %ymm1 vmulpd 23328(%rbx), %ymm1, %ymm1 vmovapd %ymm1, 26176(%rbx) vmovapd 26112(%rbx), %ymm8 vmulpd %ymm1, %ymm8, %ymm3 vaddpd %ymm3, %ymm9, %ymm3 vmovapd 23840(%rbx), %ymm9 vmulpd 26496(%rbx), %ymm9, %ymm6 vsubpd %ymm6, %ymm3, %ymm3 vmulpd 23296(%rbx), %ymm11, %ymm1 vmovapd %ymm11, %ymm12 vmovapd 16800(%rbx), %ymm6 vaddpd %ymm1, %ymm6, %ymm1 vmovapd %ymm4, 12128(%rax,%r12) vmovaps 16768(%rbx), %ymm4 vmovaps %ymm4, 12096(%rax,%r12) vmulpd %ymm2, %ymm0, %ymm4 vdivpd %ymm14, %ymm4, %ymm0 vmovapd %ymm0, 23296(%rbx) vmulpd %ymm0, %ymm7, %ymm4 vmovapd 26240(%rbx), %ymm0 vaddpd %ymm4, %ymm0, %ymm0 vmovapd %ymm0, 16704(%rbx) vmovapd 31136(%rbx), %ymm4 vmulpd %ymm4, %ymm13, %ymm2 vmovapd 24864(%rbx), %ymm0 vdivpd %ymm0, %ymm2, %ymm2 vmovapd %ymm2, 17600(%rbx) vmulpd %ymm2, %ymm15, %ymm2 vaddpd %ymm2, %ymm1, %ymm1 vmovapd %ymm1, 16736(%rbx) vmulpd %ymm4, %ymm9, %ymm1 vdivpd %ymm0, %ymm1, %ymm1 vmovapd %ymm1, 26240(%rbx) vmulpd %ymm1, %ymm8, %ymm1 vaddpd %ymm1, %ymm3, %ymm0 vmovapd %ymm0, 16672(%rbx) vmovapd 23808(%rbx), %ymm1 vmovapd 16864(%rbx), %ymm11 vmulpd %ymm11, %ymm1, %ymm8 vmovapd 23424(%rbx), %ymm14 vmulpd %ymm8, %ymm14, %ymm1 vaddpd %ymm1, %ymm10, %ymm1 vmovapd 23712(%rbx), %ymm3 vmulpd 26528(%rbx), %ymm3, %ymm2 vsubpd %ymm2, %ymm1, %ymm0 vmovapd %ymm0, 16384(%rbx) vmovapd 26592(%rbx), %ymm0 vmulpd 26176(%rbx), %ymm0, %ymm1 vmovapd 23360(%rbx), %ymm4 vaddpd %ymm1, %ymm4, %ymm6 vmovapd 18976(%rbx), %ymm1 vmovapd 23328(%rbx), %ymm0 vmulpd %ymm0, %ymm1, %ymm7 vmovapd %ymm7, 16576(%rbx) vmovapd 23776(%rbx), %ymm1 vmulpd %ymm0, %ymm1, %ymm1 vmulpd %ymm1, %ymm12, %ymm2 vaddpd %ymm2, %ymm4, %ymm2 vmovapd 26720(%rbx), %ymm0 vmulpd %ymm7, %ymm0, %ymm9 vaddpd %ymm9, %ymm4, %ymm4 vmovapd %ymm4, 16800(%rbx) vmovapd 24032(%rbx), %ymm13 vmulpd %ymm8, %ymm13, %ymm7 vmovapd 16832(%rbx), %ymm4 vaddpd %ymm7, %ymm4, %ymm7 vsubpd 17760(%rbx), %ymm7, %ymm7 vmovapd %ymm7, 16768(%rbx) vsubpd 17696(%rbx), %ymm6, %ymm6 vmovapd %ymm6, 16416(%rbx) vmovapd 23648(%rbx), %ymm6 vmovapd %ymm11, %ymm9 vmulpd %ymm9, %ymm6, %ymm15 vmovapd 26656(%rbx), %ymm6 vmulpd %ymm15, %ymm6, %ymm6 vaddpd %ymm6, %ymm4, %ymm6 vmovapd 31808(%rbx), %ymm7 vmulpd %ymm9, %ymm7, %ymm9 vmovapd 26688(%rbx), %ymm7 vmulpd %ymm9, %ymm7, %ymm11 vaddpd %ymm11, %ymm4, %ymm4 vmovapd %ymm4, 17696(%rbx) vmovaps 16736(%rbx), %ymm4 vmovaps %ymm4, 12192(%rax,%r12) vmovaps 16704(%rbx), %ymm4 vmovaps %ymm4, 12160(%rax,%r12) vsubpd 17792(%rbx), %ymm6, %ymm4 vmovapd %ymm4, 23360(%rbx) vsubpd 17728(%rbx), %ymm2, %ymm2 vmovapd %ymm2, 23328(%rbx) vmulpd %ymm15, %ymm7, %ymm2 vaddpd %ymm2, %ymm10, %ymm2 vmovapd 23616(%rbx), %ymm6 vmulpd %ymm5, %ymm6, %ymm4 vsubpd %ymm4, %ymm2, %ymm2 vmovapd %ymm2, 17792(%rbx) vmulpd %ymm1, %ymm0, %ymm2 vmovapd 26144(%rbx), %ymm0 vaddpd %ymm2, %ymm0, %ymm2 vmovapd 23584(%rbx), %ymm12 vmulpd 26272(%rbx), %ymm12, %ymm4 vsubpd %ymm4, %ymm2, %ymm0 vmovapd %ymm0, 17760(%rbx) vmulpd %ymm15, %ymm13, %ymm2 vaddpd %ymm2, %ymm10, %ymm2 vmovapd 26304(%rbx), %ymm0 vmulpd %ymm0, %ymm6, %ymm4 vmovapd %ymm6, %ymm11 vsubpd %ymm4, %ymm2, %ymm2 vmovapd %ymm2, 17728(%rbx) vmulpd 32256(%rbx), %ymm3, %ymm2 vdivpd 24832(%rbx), %ymm2, %ymm3 vmovapd %ymm3, 16704(%rbx) vmovapd %ymm14, %ymm4 vmulpd %ymm3, %ymm4, %ymm2 vmovapd %ymm3, %ymm6 vmovapd 16384(%rbx), %ymm3 vaddpd %ymm2, %ymm3, %ymm2 vmovapd %ymm2, 16736(%rbx) vmovapd 23872(%rbx), %ymm2 vmulpd 23936(%rbx), %ymm2, %ymm2 vmovapd 16672(%rbx), %ymm3 vaddpd %ymm2, %ymm3, %ymm2 vmovapd %ymm2, 16384(%rbx) vmulpd %ymm15, %ymm4, %ymm3 vmovapd 26656(%rbx), %ymm5 vmulpd %ymm9, %ymm5, %ymm2 vaddpd %ymm2, %ymm10, %ymm2 vmovapd %ymm2, 16352(%rbx) vaddpd %ymm3, %ymm10, %ymm15 vmulpd %ymm9, %ymm13, %ymm3 vmovapd %ymm13, %ymm2 vaddpd %ymm3, %ymm10, %ymm14 vmulpd %ymm9, %ymm4, %ymm4 vmulpd %ymm8, %ymm7, %ymm9 vmulpd %ymm8, %ymm5, %ymm3 vaddpd %ymm3, %ymm10, %ymm3 vmovapd %ymm3, 16256(%rbx) vaddpd %ymm4, %ymm10, %ymm8 vaddpd %ymm9, %ymm10, %ymm3 vmovapd %ymm3, 16288(%rbx) vmovapd 23744(%rbx), %ymm7 vmulpd %ymm0, %ymm7, %ymm9 vsubpd %ymm9, %ymm14, %ymm0 vmovapd %ymm0, 26304(%rbx) vmovapd 26592(%rbx), %ymm5 vmulpd %ymm1, %ymm5, %ymm9 vmovapd 26144(%rbx), %ymm4 vaddpd %ymm9, %ymm4, %ymm9 vmovapd %ymm12, %ymm13 vmovapd 23392(%rbx), %ymm0 vmulpd %ymm0, %ymm13, %ymm10 vsubpd %ymm10, %ymm9, %ymm3 vmovapd %ymm3, 16864(%rbx) vmovapd 26528(%rbx), %ymm14 vmulpd %ymm14, %ymm11, %ymm9 vsubpd %ymm9, %ymm15, %ymm3 vmovapd %ymm3, 16832(%rbx) vmovapd 26112(%rbx), %ymm3 vmulpd %ymm1, %ymm3, %ymm1 vaddpd %ymm1, %ymm4, %ymm1 vmovapd %ymm4, %ymm11 vmovapd 26496(%rbx), %ymm12 vmulpd %ymm12, %ymm13, %ymm9 vsubpd %ymm9, %ymm1, %ymm1 vmovapd %ymm1, 16672(%rbx) vmovapd 23456(%rbx), %ymm4 vmulpd %ymm4, %ymm7, %ymm1 vmovapd 16352(%rbx), %ymm9 vsubpd %ymm1, %ymm9, %ymm1 vmovapd %ymm1, 16352(%rbx) vmovapd %ymm5, %ymm9 vmulpd 26240(%rbx), %ymm9, %ymm1 vmovapd 16416(%rbx), %ymm5 vaddpd %ymm1, %ymm5, %ymm1 vmovapd %ymm1, 16320(%rbx) vmulpd %ymm6, %ymm2, %ymm1 vmovapd 16768(%rbx), %ymm5 vaddpd %ymm1, %ymm5, %ymm1 vmovapd %ymm1, 16416(%rbx) vmovapd 16800(%rbx), %ymm1 vsubpd 17824(%rbx), %ymm1, %ymm1 vmovapd %ymm1, 17824(%rbx) vmovapd 23680(%rbx), %ymm6 vmulpd %ymm0, %ymm6, %ymm1 vmovapd 16576(%rbx), %ymm5 vmulpd %ymm5, %ymm9, %ymm10 vmovapd %ymm11, %ymm9 vaddpd %ymm10, %ymm9, %ymm10 vsubpd %ymm1, %ymm10, %ymm0 vmovapd %ymm0, 23392(%rbx) vmulpd %ymm14, %ymm7, %ymm1 vsubpd %ymm1, %ymm8, %ymm0 vmovapd %ymm0, 26528(%rbx) vmulpd %ymm12, %ymm6, %ymm1 vmulpd %ymm5, %ymm3, %ymm8 vaddpd %ymm8, %ymm9, %ymm8 vsubpd %ymm1, %ymm8, %ymm0 vmovapd %ymm0, 16800(%rbx) vmovapd 23712(%rbx), %ymm10 vmulpd %ymm4, %ymm10, %ymm1 vmovapd 16256(%rbx), %ymm0 vsubpd %ymm1, %ymm0, %ymm0 vmovapd %ymm0, 23456(%rbx) vmovapd 24096(%rbx), %ymm8 vmulpd %ymm5, %ymm8, %ymm1 vaddpd %ymm1, %ymm9, %ymm1 vmovapd 23488(%rbx), %ymm5 vmulpd %ymm5, %ymm6, %ymm3 vsubpd %ymm3, %ymm1, %ymm0 vmovapd %ymm0, 16768(%rbx) vmovapd 17696(%rbx), %ymm0 vsubpd 18432(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 16576(%rbx) vmovapd 23840(%rbx), %ymm3 vmulpd %ymm5, %ymm3, %ymm3 vmulpd 26176(%rbx), %ymm8, %ymm5 vmovapd %ymm8, %ymm6 vaddpd %ymm5, %ymm9, %ymm5 vsubpd %ymm3, %ymm5, %ymm0 vmovapd %ymm0, 23488(%rbx) vmulpd 26208(%rbx), %ymm10, %ymm3 vmovapd 16288(%rbx), %ymm0 vsubpd %ymm3, %ymm0, %ymm0 vmovapd %ymm0, 18432(%rbx) vmovaps 16384(%rbx), %ymm0 vmovaps %ymm0, 12256(%rax,%r12) vmovapd 23808(%rbx), %ymm0 vmulpd 23904(%rbx), %ymm0, %ymm3 vmovapd 16736(%rbx), %ymm1 vaddpd %ymm3, %ymm1, %ymm1 vmovapd %ymm1, 17696(%rbx) vmovapd 32256(%rbx), %ymm11 vmovapd 23616(%rbx), %ymm1 vmulpd %ymm11, %ymm1, %ymm3 vmovapd 24832(%rbx), %ymm1 vdivpd %ymm1, %ymm3, %ymm3 vmovapd %ymm2, %ymm15 vmulpd %ymm3, %ymm15, %ymm4 vmovapd 17728(%rbx), %ymm5 vaddpd %ymm4, %ymm5, %ymm2 vmovapd %ymm2, 26496(%rbx) vmovapd 31136(%rbx), %ymm12 vmulpd %ymm12, %ymm13, %ymm4 vmovapd 24864(%rbx), %ymm14 vdivpd %ymm14, %ymm4, %ymm10 vmovapd 26720(%rbx), %ymm8 vmulpd %ymm10, %ymm8, %ymm4 vmovapd 17760(%rbx), %ymm5 vaddpd %ymm4, %ymm5, %ymm2 vmovapd %ymm2, 26208(%rbx) vmovapd 26688(%rbx), %ymm9 vmulpd %ymm3, %ymm9, %ymm4 vmovapd 17792(%rbx), %ymm5 vaddpd %ymm4, %ymm5, %ymm2 vmovapd %ymm2, 17792(%rbx) vmulpd %ymm10, %ymm6, %ymm4 vmovapd 23328(%rbx), %ymm5 vaddpd %ymm4, %ymm5, %ymm2 vmovapd %ymm2, 23328(%rbx) vmovapd 26656(%rbx), %ymm13 vmulpd %ymm3, %ymm13, %ymm4 vmovapd 23360(%rbx), %ymm5 vaddpd %ymm4, %ymm5, %ymm2 vmovapd %ymm2, 17728(%rbx) vmulpd 23552(%rbx), %ymm0, %ymm5 vmovapd 16416(%rbx), %ymm0 vaddpd %ymm5, %ymm0, %ymm0 vmovapd %ymm0, 16416(%rbx) vmovapd 23872(%rbx), %ymm2 vmulpd 23520(%rbx), %ymm2, %ymm5 vmovapd 16320(%rbx), %ymm0 vaddpd %ymm5, %ymm0, %ymm0 vmovapd %ymm0, 16384(%rbx) vmulpd %ymm11, %ymm7, %ymm5 vdivpd %ymm1, %ymm5, %ymm7 vmulpd %ymm7, %ymm13, %ymm5 vmovapd %ymm13, %ymm4 vmovapd 16352(%rbx), %ymm0 vaddpd %ymm5, %ymm0, %ymm0 vmovapd %ymm0, 23360(%rbx) vmovapd 26112(%rbx), %ymm11 vmulpd %ymm10, %ymm11, %ymm2 vmovapd 16672(%rbx), %ymm0 vaddpd %ymm2, %ymm0, %ymm0 vmovapd %ymm0, 17760(%rbx) vmovapd 23424(%rbx), %ymm1 vmulpd %ymm3, %ymm1, %ymm2 vmovapd 16832(%rbx), %ymm0 vaddpd %ymm2, %ymm0, %ymm0 vmovapd %ymm0, 16832(%rbx) vmovapd 26592(%rbx), %ymm13 vmulpd %ymm10, %ymm13, %ymm3 vmovapd 16864(%rbx), %ymm0 vaddpd %ymm3, %ymm0, %ymm2 vmulpd %ymm7, %ymm15, %ymm3 vmovapd 26304(%rbx), %ymm0 vaddpd %ymm3, %ymm0, %ymm0 vmovapd %ymm0, 24032(%rbx) vmovapd 23680(%rbx), %ymm0 vmulpd %ymm12, %ymm0, %ymm3 vdivpd %ymm14, %ymm3, %ymm15 vmovapd %ymm8, %ymm0 vmulpd %ymm15, %ymm0, %ymm3 vmovapd 17824(%rbx), %ymm5 vaddpd %ymm3, %ymm5, %ymm3 vmovapd %ymm3, 17824(%rbx) vmulpd %ymm7, %ymm1, %ymm5 vmovapd %ymm9, %ymm10 vmulpd %ymm7, %ymm10, %ymm3 vmovapd 16576(%rbx), %ymm1 vaddpd %ymm3, %ymm1, %ymm1 vmovapd %ymm1, 16736(%rbx) vmulpd %ymm15, %ymm13, %ymm7 vmulpd %ymm15, %ymm11, %ymm1 vmovapd %ymm6, %ymm8 vmulpd %ymm15, %ymm8, %ymm11 vmovapd 16768(%rbx), %ymm3 vaddpd %ymm11, %ymm3, %ymm15 vmovapd 16704(%rbx), %ymm3 vmulpd %ymm3, %ymm4, %ymm11 vmovapd 23456(%rbx), %ymm4 vaddpd %ymm11, %ymm4, %ymm4 vmovapd %ymm4, 26112(%rbx) vmovapd 16800(%rbx), %ymm6 vaddpd %ymm1, %ymm6, %ymm1 vmovapd %ymm1, 23424(%rbx) vmovapd 26528(%rbx), %ymm1 vaddpd %ymm5, %ymm1, %ymm1 vmovapd %ymm1, 16768(%rbx) vmovapd 23392(%rbx), %ymm1 vaddpd %ymm7, %ymm1, %ymm1 vmovapd %ymm1, 23392(%rbx) vmulpd 26176(%rbx), %ymm0, %ymm12 vmovapd 26144(%rbx), %ymm0 vaddpd %ymm12, %ymm0, %ymm0 vmovapd %ymm0, 26176(%rbx) vmovaps 17696(%rbx), %ymm0 vmovaps %ymm0, 12224(%rax,%r12) vmulpd %ymm3, %ymm10, %ymm0 vmovapd 18432(%rbx), %ymm1 vaddpd %ymm0, %ymm1, %ymm0 vmovapd %ymm0, 23456(%rbx) vmulpd 26240(%rbx), %ymm8, %ymm6 vmovapd 23488(%rbx), %ymm0 vaddpd %ymm6, %ymm0, %ymm0 vmovapd %ymm0, 23488(%rbx) vmovaps 16384(%rbx), %ymm0 vmovaps %ymm0, 12320(%rax,%r12) vmovaps 16416(%rbx), %ymm0 vmovaps %ymm0, 12288(%rax,%r12) vmovapd 23648(%rbx), %ymm8 vmovapd 23296(%rbx), %ymm14 vmulpd %ymm14, %ymm8, %ymm6 vmovapd 17728(%rbx), %ymm0 vaddpd %ymm6, %ymm0, %ymm0 vmovapd %ymm0, 26656(%rbx) vmovapd 23776(%rbx), %ymm11 vmovapd 17600(%rbx), %ymm7 vmulpd %ymm7, %ymm11, %ymm4 vmovapd 23328(%rbx), %ymm0 vaddpd %ymm4, %ymm0, %ymm0 vmovapd %ymm0, 26592(%rbx) vmovapd 17664(%rbx), %ymm3 vmulpd %ymm3, %ymm8, %ymm4 vmovapd 17792(%rbx), %ymm0 vaddpd %ymm4, %ymm0, %ymm0 vmovapd %ymm0, 26528(%rbx) vmovapd 17632(%rbx), %ymm0 vmulpd %ymm0, %ymm11, %ymm4 vmovapd 26208(%rbx), %ymm1 vaddpd %ymm4, %ymm1, %ymm1 vmovapd %ymm1, 26304(%rbx) vmovapd 23552(%rbx), %ymm10 vmulpd %ymm10, %ymm8, %ymm4 vmovapd 26496(%rbx), %ymm1 vaddpd %ymm4, %ymm1, %ymm1 vmovapd %ymm1, 26496(%rbx) vmovapd 23520(%rbx), %ymm5 vmulpd %ymm5, %ymm11, %ymm6 vaddpd %ymm6, %ymm2, %ymm1 vmovapd %ymm1, 26208(%rbx) vmovapd 23904(%rbx), %ymm12 vmulpd %ymm12, %ymm8, %ymm9 vmovapd 16832(%rbx), %ymm1 vaddpd %ymm9, %ymm1, %ymm1 vmovapd %ymm1, 26144(%rbx) vmovapd 23936(%rbx), %ymm1 vmulpd %ymm1, %ymm11, %ymm2 vmovapd 17760(%rbx), %ymm4 vaddpd %ymm2, %ymm4, %ymm2 vmovapd %ymm2, 24096(%rbx) vmovapd 31808(%rbx), %ymm6 vmulpd %ymm14, %ymm6, %ymm9 vmovapd 23360(%rbx), %ymm2 vaddpd %ymm9, %ymm2, %ymm2 vmovapd %ymm2, 18432(%rbx) vmovapd 18976(%rbx), %ymm11 vmulpd %ymm7, %ymm11, %ymm9 vmovapd %ymm7, %ymm13 vaddpd %ymm9, %ymm15, %ymm15 vmovapd %ymm15, 16864(%rbx) vmulpd %ymm3, %ymm6, %ymm9 vmovapd %ymm3, %ymm7 vmovapd 16736(%rbx), %ymm2 vaddpd %ymm9, %ymm2, %ymm4 vmovapd %ymm4, 16736(%rbx) vmulpd %ymm0, %ymm11, %ymm3 vmovapd %ymm0, %ymm2 vmovapd 17824(%rbx), %ymm0 vaddpd %ymm3, %ymm0, %ymm9 vmovapd %ymm9, 16832(%rbx) vmulpd %ymm10, %ymm6, %ymm3 vmovapd %ymm6, %ymm8 vmovapd 24032(%rbx), %ymm0 vaddpd %ymm3, %ymm0, %ymm6 vmovapd %ymm6, 16704(%rbx) vmulpd %ymm5, %ymm11, %ymm3 vmovapd 23392(%rbx), %ymm0 vaddpd %ymm3, %ymm0, %ymm10 vmovapd %ymm10, 16800(%rbx) vmulpd %ymm12, %ymm8, %ymm3 vmovapd 16768(%rbx), %ymm0 vaddpd %ymm3, %ymm0, %ymm12 vmovapd %ymm12, 16672(%rbx) vmulpd %ymm1, %ymm11, %ymm3 vmovapd 23424(%rbx), %ymm0 vaddpd %ymm3, %ymm0, %ymm8 vmovapd %ymm8, 16768(%rbx) vmovapd 23808(%rbx), %ymm5 vmulpd %ymm14, %ymm5, %ymm1 vmovapd 26112(%rbx), %ymm0 vaddpd %ymm1, %ymm0, %ymm1 vmovapd 23872(%rbx), %ymm11 vmulpd %ymm13, %ymm11, %ymm3 vmovapd 23488(%rbx), %ymm0 vaddpd %ymm3, %ymm0, %ymm3 vmulpd %ymm7, %ymm5, %ymm5 vmovapd 23456(%rbx), %ymm0 vaddpd %ymm5, %ymm0, %ymm0 vmovapd 23840(%rbx), %ymm5 vmulpd 26272(%rbx), %ymm5, %ymm5 vmovapd 26176(%rbx), %ymm7 vsubpd %ymm5, %ymm7, %ymm5 vmovapd 26720(%rbx), %ymm7 vmulpd 26240(%rbx), %ymm7, %ymm7 vaddpd %ymm7, %ymm5, %ymm5 vmulpd %ymm2, %ymm11, %ymm7 vaddpd %ymm7, %ymm5, %ymm5 vmovapd %ymm5, 12384(%rax,%r12) vmovapd %ymm0, 12352(%rax,%r12) vmovapd %ymm3, 12448(%rax,%r12) vmovapd %ymm1, 12416(%rax,%r12) vmovapd %ymm8, 12512(%rax,%r12) vmovapd %ymm12, 12480(%rax,%r12) vmovapd %ymm10, 12576(%rax,%r12) vmovapd %ymm6, 12544(%rax,%r12) vmovapd %ymm9, 12640(%rax,%r12) vmovapd %ymm4, 12608(%rax,%r12) vmovapd %ymm15, 12704(%rax,%r12) vmovaps 18432(%rbx), %ymm0 vmovaps %ymm0, 12672(%rax,%r12) vmovaps 24096(%rbx), %ymm0 vmovaps %ymm0, 12768(%rax,%r12) vmovaps 26144(%rbx), %ymm0 vmovaps %ymm0, 12736(%rax,%r12) vmovaps 26208(%rbx), %ymm0 vmovaps %ymm0, 12832(%rax,%r12) vmovaps 26496(%rbx), %ymm0 vmovaps %ymm0, 12800(%rax,%r12) vmovaps 26304(%rbx), %ymm0 vmovaps %ymm0, 12896(%rax,%r12) vmovaps 26528(%rbx), %ymm0 vmovaps %ymm0, 12864(%rax,%r12) vmovaps 26592(%rbx), %ymm0 vmovaps %ymm0, 12960(%rax,%r12) vmovaps 26656(%rbx), %ymm0 vmovaps %ymm0, 12928(%rax,%r12) vmovapd 13824(%rbx), %ymm1 vmulpd 12192(%rax,%r12), %ymm1, %ymm0 vmovapd %ymm0, 17792(%rbx) vmulpd 12160(%rax,%r12), %ymm1, %ymm0 vmovapd %ymm0, 17824(%rbx) vmulpd 12128(%rax,%r12), %ymm1, %ymm0 vmovapd %ymm0, 17760(%rbx) vmulpd 12096(%rax,%r12), %ymm1, %ymm0 vmovapd %ymm0, 17696(%rbx) vmulpd 12064(%rax,%r12), %ymm1, %ymm0 vmovapd %ymm0, 17728(%rbx) vmulpd 12032(%rax,%r12), %ymm1, %ymm0 vmovapd %ymm0, 17632(%rbx) vmulpd 12000(%rax,%r12), %ymm1, %ymm0 vmovapd %ymm0, 17664(%rbx) vmulpd 11968(%rax,%r12), %ymm1, %ymm0 vmovapd %ymm0, 17600(%rbx) vmovapd 18880(%rbx), %ymm9 vmovapd %ymm9, %ymm0 vmovaps .LCPI1_30(%rip), %ymm8 vmovaps %ymm8, %ymm1 movq %rax, %r14 callq __ocl_svml_e9_pow4 vmovapd %ymm0, %ymm13 vmovapd 18848(%rbx), %ymm10 vmovapd %ymm10, %ymm0 vmovaps %ymm8, %ymm1 callq __ocl_svml_e9_pow4 vmovapd %ymm0, %ymm1 vmovapd 23968(%rbx), %ymm11 vmulpd %ymm13, %ymm11, %ymm0 vmovapd 24064(%rbx), %ymm12 vmulpd %ymm1, %ymm12, %ymm1 callq __ocl_svml_e9_log8 vmovapd %ymm0, 26592(%rbx) vmovapd %ymm1, 26528(%rbx) vmovaps 32256(%rbx), %ymm0 vmovaps .LCPI1_24(%rip), %ymm8 vmovaps %ymm8, %ymm1 callq __ocl_svml_e9_pow4 vmovaps %ymm0, 26496(%rbx) vmovaps 31136(%rbx), %ymm0 vmovaps %ymm8, %ymm1 callq __ocl_svml_e9_pow4 movq %r14, %rdx movq 30880(%rbx), %r15 movq 30720(%rbx), %r14 vmovaps %ymm0, 26304(%rbx) movq 21664(%rbx), %rcx vxorps %ymm0, %ymm0, %ymm0 vmovaps %ymm0, (%rcx) movq 21680(%rbx), %rcx vmovaps %ymm0, (%rcx) movq 21696(%rbx), %rcx vmovaps %ymm0, (%rcx) movq 21712(%rbx), %rcx vmovaps %ymm0, (%rcx) movq 21728(%rbx), %rcx vmovaps %ymm0, (%rcx) movq 21744(%rbx), %rcx vmovaps %ymm0, (%rcx) movq 21760(%rbx), %rcx vmovaps %ymm0, (%rcx) movq 21776(%rbx), %rcx vmovaps %ymm0, (%rcx) vxorpd %ymm13, %ymm13, %ymm13 movq %r13, 9680(%rdx,%r12) movq %r13, 9712(%rdx,%r12) movq %r13, 9744(%rdx,%r12) movq %r13, 9776(%rdx,%r12) movq %r13, 9808(%rdx,%r12) movq %r13, 9840(%rdx,%r12) movq %r13, 9872(%rdx,%r12) movq %r13, 9904(%rdx,%r12) vmovapd .LCPI1_73(%rip), %ymm0 vmovapd %ymm12, %ymm1 vmulpd %ymm0, %ymm1, %ymm3 vmovapd .LCPI1_74(%rip), %ymm4 vmulpd %ymm4, %ymm1, %ymm1 vmovapd %ymm11, %ymm5 vmulpd %ymm0, %ymm5, %ymm2 vmulpd %ymm4, %ymm5, %ymm0 vmovapd 32800(%rbx), %ymm4 vaddpd 24256(%rbx), %ymm4, %ymm4 vaddpd 24224(%rbx), %ymm4, %ymm4 vmovapd 32832(%rbx), %ymm5 vaddpd 24288(%rbx), %ymm5, %ymm5 vaddpd 24160(%rbx), %ymm5, %ymm5 vmovapd %ymm9, %ymm7 vaddpd %ymm0, %ymm7, %ymm6 vdivpd %ymm6, %ymm2, %ymm2 vmovapd %ymm10, %ymm8 vaddpd %ymm1, %ymm8, %ymm6 vdivpd %ymm6, %ymm3, %ymm3 vaddpd 24192(%rbx), %ymm5, %ymm5 vmovapd %ymm5, 26272(%rbx) vaddpd 24128(%rbx), %ymm4, %ymm4 vmovapd %ymm4, 26656(%rbx) vmovapd 16608(%rbx), %ymm5 vaddpd %ymm5, %ymm8, %ymm4 vaddpd %ymm1, %ymm4, %ymm1 vdivpd %ymm1, %ymm5, %ymm4 vmulpd %ymm3, %ymm4, %ymm1 vaddpd %ymm3, %ymm4, %ymm3 vmovapd 16640(%rbx), %ymm5 vaddpd %ymm5, %ymm7, %ymm4 vaddpd %ymm0, %ymm4, %ymm0 vdivpd %ymm0, %ymm5, %ymm0 vmulpd %ymm2, %ymm0, %ymm4 vaddpd %ymm2, %ymm0, %ymm0 vsubpd %ymm4, %ymm0, %ymm0 vmovapd %ymm0, 26208(%rbx) vsubpd %ymm1, %ymm3, %ymm0 vmovapd %ymm0, 26240(%rbx) vmovsd (%r15), %xmm0 movq 30912(%rbx), %rcx vmovhpd (%rcx), %xmm0, %xmm1 movq 30784(%rbx), %rcx vmovsd (%rcx), %xmm0 movq 30944(%rbx), %rcx vmovhpd (%rcx), %xmm0, %xmm2 movq 30816(%rbx), %rcx vmovsd (%rcx), %xmm0 movq 30976(%rbx), %rcx vmovhpd (%rcx), %xmm0, %xmm3 movq 30848(%rbx), %rcx vmovsd (%rcx), %xmm0 movq 31008(%rbx), %rcx vmovhpd (%rcx), %xmm0, %xmm4 movq 29696(%rbx), %rax vmovsd (%rax), %xmm0 movq 29664(%rbx), %rcx vmovhpd (%rcx), %xmm0, %xmm5 movq 29824(%rbx), %rcx vmovsd (%rcx), %xmm0 movq 29792(%rbx), %rcx vmovhpd (%rcx), %xmm0, %xmm6 movq 29760(%rbx), %rax vmovsd (%rax), %xmm0 movq 29728(%rbx), %rax vmovhpd (%rax), %xmm0, %xmm0 movq 29952(%rbx), %rax vmovsd (%rax), %xmm7 movq 29920(%rbx), %rax vmovhpd (%rax), %xmm7, %xmm7 vinsertf128 $1, %xmm0, %ymm7, %ymm0 vinsertf128 $1, %xmm5, %ymm6, %ymm5 vinsertf128 $1, %xmm3, %ymm4, %ymm7 vinsertf128 $1, %xmm1, %ymm2, %ymm8 movq 28864(%rbx), %rax vmovsd (%rax), %xmm1 movq 28832(%rbx), %rax vmovhpd (%rax), %xmm1, %xmm14 movq 28992(%rbx), %rax vmovsd (%rax), %xmm1 movq 28960(%rbx), %rax vmovhpd (%rax), %xmm1, %xmm6 movq 29888(%rbx), %rax vmovsd (%rax), %xmm1 movq 29856(%rbx), %rax vmovhpd (%rax), %xmm1, %xmm4 movq 30016(%rbx), %rax vmovsd (%rax), %xmm1 movq 29984(%rbx), %rax vmovhpd (%rax), %xmm1, %xmm10 movq 30432(%rbx), %rax vmovsd (%rax), %xmm1 movq 30400(%rbx), %rax vmovhpd (%rax), %xmm1, %xmm1 movq 30496(%rbx), %rax vmovsd (%rax), %xmm3 movq 30464(%rbx), %rax vmovhpd (%rax), %xmm3, %xmm9 movq 29504(%rbx), %rax vmovsd (%rax), %xmm3 movq 29472(%rbx), %rax vmovhpd (%rax), %xmm3, %xmm12 movq 29632(%rbx), %rax vmovsd (%rax), %xmm3 movq 29600(%rbx), %rax vmovhpd (%rax), %xmm3, %xmm3 movq 29056(%rbx), %rax vmovsd (%rax), %xmm2 movq 29024(%rbx), %rax vmovhpd (%rax), %xmm2, %xmm2 vmovapd %xmm2, 24192(%rbx) movq 29184(%rbx), %rax vmovsd (%rax), %xmm2 movq 29152(%rbx), %rax vmovhpd (%rax), %xmm2, %xmm2 vmovapd %ymm2, 24160(%rbx) movq 29120(%rbx), %rax vmovsd (%rax), %xmm2 movq 29088(%rbx), %rax vmovhpd (%rax), %xmm2, %xmm11 movq 29312(%rbx), %rax vmovsd (%rax), %xmm2 movq 29280(%rbx), %rax vmovhpd (%rax), %xmm2, %xmm15 vmulpd %ymm13, %ymm8, %ymm8 vmulpd %ymm13, %ymm7, %ymm2 vaddpd %ymm8, %ymm2, %ymm2 vmovapd %ymm2, 26176(%rbx) vaddpd %ymm8, %ymm7, %ymm2 vmovapd %ymm2, 26144(%rbx) vmulpd %ymm13, %ymm5, %ymm5 vmulpd %ymm13, %ymm0, %ymm2 vaddpd %ymm5, %ymm2, %ymm2 vmovapd %ymm2, 24288(%rbx) vaddpd %ymm5, %ymm0, %ymm0 vmovapd %ymm0, 24256(%rbx) vinsertf128 $1, %xmm1, %ymm9, %ymm9 vinsertf128 $1, %xmm4, %ymm10, %ymm2 vinsertf128 $1, %xmm14, %ymm6, %ymm7 movq 29440(%rbx), %rax vmovsd (%rax), %xmm0 movq 29408(%rbx), %rax vmovhpd (%rax), %xmm0, %xmm0 vmovapd %ymm0, 26112(%rbx) vmovsd (%r14), %xmm0 movq 30752(%rbx), %rax vmovhpd (%rax), %xmm0, %xmm0 vmovapd %ymm0, 24224(%rbx) movq 30304(%rbx), %rax vmovsd (%rax), %xmm0 movq 30272(%rbx), %rax vmovhpd (%rax), %xmm0, %xmm0 vmovapd %xmm0, 24128(%rbx) movq 30368(%rbx), %rsi vmovsd (%rsi), %xmm0 movq 30336(%rbx), %rsi vmovhpd (%rsi), %xmm0, %xmm0 vmovapd %ymm0, 24096(%rbx) movq 30176(%rbx), %rax vmovsd (%rax), %xmm0 movq 30144(%rbx), %rax vmovhpd (%rax), %xmm0, %xmm0 vmovapd %xmm0, 23936(%rbx) movq 30240(%rbx), %rax vmovsd (%rax), %xmm0 movq 30208(%rbx), %rax vmovhpd (%rax), %xmm0, %xmm0 vmovapd %ymm0, 23520(%rbx) vinsertf128 $1, %xmm12, %ymm3, %ymm0 vmovapd %ymm0, 24064(%rbx) movq 29568(%rbx), %rcx vmovsd (%rcx), %xmm0 movq 29536(%rbx), %rcx vmovhpd (%rcx), %xmm0, %xmm0 vmovapd %ymm0, 23904(%rbx) movq 29248(%rbx), %rax vmovsd (%rax), %xmm0 movq 29216(%rbx), %rax vmovhpd (%rax), %xmm0, %xmm0 vmovapd %xmm0, 23456(%rbx) movq 30656(%rbx), %rcx vmovsd (%rcx), %xmm0 movq 30688(%rbx), %rcx vmovhpd (%rcx), %xmm0, %xmm0 vmovapd %xmm0, 23488(%rbx) movq 28608(%rbx), %rax vmovsd (%rax), %xmm0 movq 28576(%rbx), %rax vmovhpd (%rax), %xmm0, %xmm0 vmovapd %ymm0, 24032(%rbx) movq 28800(%rbx), %rax vmovsd (%rax), %xmm0 movq 28768(%rbx), %rax vmovhpd (%rax), %xmm0, %xmm0 vmovapd %ymm0, 23552(%rbx) movq 30592(%rbx), %rax vmovsd (%rax), %xmm0 movq 30624(%rbx), %rax vmovhpd (%rax), %xmm0, %xmm0 vmovapd %ymm0, 23424(%rbx) movq 28928(%rbx), %rax vmovsd (%rax), %xmm0 movq 28896(%rbx), %rax vmovhpd (%rax), %xmm0, %xmm12 movq 28352(%rbx), %rax vmovsd (%rax), %xmm0 movq 28320(%rbx), %rax vmovhpd (%rax), %xmm0, %xmm0 vmovapd %xmm0, 23360(%rbx) movq 28544(%rbx), %rax vmovsd (%rax), %xmm1 movq 28512(%rbx), %rax vmovhpd (%rax), %xmm1, %xmm10 movq 30528(%rbx), %rcx vmovsd (%rcx), %xmm1 movq 30560(%rbx), %rcx vmovhpd (%rcx), %xmm1, %xmm8 movq 28736(%rbx), %rax vmovsd (%rax), %xmm1 movq 28704(%rbx), %rax vmovhpd (%rax), %xmm1, %xmm3 movq 29376(%rbx), %rax vmovsd (%rax), %xmm1 movq 29344(%rbx), %rax vmovhpd (%rax), %xmm1, %xmm5 vinsertf128 $1, %xmm11, %ymm15, %ymm4 vmovapd 24160(%rbx), %ymm0 vinsertf128 $1, 24192(%rbx), %ymm0, %ymm11 movq 28224(%rbx), %rax vmovsd (%rax), %xmm1 movq 28192(%rbx), %rax vmovhpd (%rax), %xmm1, %xmm15 movq 28480(%rbx), %rax vmovsd (%rax), %xmm1 movq 28448(%rbx), %rax vmovhpd (%rax), %xmm1, %xmm1 movq 28416(%rbx), %rdx vmovsd (%rdx), %xmm6 movq 28384(%rbx), %rdx vmovhpd (%rdx), %xmm6, %xmm0 vmovapd %xmm0, 23392(%rbx) movq 28672(%rbx), %rax vmovsd (%rax), %xmm6 movq 28640(%rbx), %rax vmovhpd (%rax), %xmm6, %xmm14 movq 30080(%rbx), %rdx vmovsd (%rdx), %xmm6 movq 30048(%rbx), %rsi vmovhpd (%rsi), %xmm6, %xmm0 vmovapd %xmm0, 24192(%rbx) movq 28160(%rbx), %rdx vmovsd (%rdx), %xmm6 movq 30112(%rbx), %rdx vmovhpd (%rdx), %xmm6, %xmm0 vmovapd %ymm0, 23968(%rbx) vmulpd %ymm13, %ymm2, %ymm6 vmovapd 24256(%rbx), %ymm0 vaddpd %ymm6, %ymm0, %ymm0 vmovapd %ymm0, 24256(%rbx) vmovapd 24288(%rbx), %ymm6 vaddpd %ymm2, %ymm6, %ymm0 vmovapd %ymm0, 24288(%rbx) vmulpd %ymm13, %ymm9, %ymm6 vmovapd 26144(%rbx), %ymm2 vaddpd %ymm6, %ymm2, %ymm0 vmovapd %ymm0, 26144(%rbx) vmovapd 26176(%rbx), %ymm2 vaddpd %ymm9, %ymm2, %ymm0 vmovapd %ymm0, 24160(%rbx) vmovaps 23520(%rbx), %ymm0 vinsertf128 $1, 23936(%rbx), %ymm0, %ymm0 vmovaps %ymm0, 23936(%rbx) vmovaps 24096(%rbx), %ymm0 vinsertf128 $1, 24128(%rbx), %ymm0, %ymm0 vmovaps %ymm0, 23520(%rbx) vmovaps 24224(%rbx), %ymm0 vinsertf128 $1, 23488(%rbx), %ymm0, %ymm0 vmovaps %ymm0, 23488(%rbx) vmovaps 26112(%rbx), %ymm2 vinsertf128 $1, 23456(%rbx), %ymm2, %ymm0 vmovaps %ymm0, 23456(%rbx) vmovapd 23904(%rbx), %ymm0 vinsertf128 $1, %xmm5, %ymm0, %ymm0 vmovapd %ymm0, 23904(%rbx) vmovapd 24064(%rbx), %ymm0 vmulpd %ymm13, %ymm0, %ymm2 vmulpd %ymm13, %ymm7, %ymm5 vaddpd %ymm2, %ymm7, %ymm0 vmovapd %ymm0, 26176(%rbx) vaddpd %ymm2, %ymm5, %ymm0 vmovapd %ymm0, 26112(%rbx) vinsertf128 $1, %xmm3, %ymm12, %ymm9 vmovapd 23424(%rbx), %ymm0 vinsertf128 $1, %xmm8, %ymm0, %ymm12 vmovapd 23552(%rbx), %ymm0 vinsertf128 $1, %xmm10, %ymm0, %ymm7 vmovaps 24032(%rbx), %ymm0 vinsertf128 $1, 23360(%rbx), %ymm0, %ymm0 vmovaps %ymm0, 24224(%rbx) movq 27680(%rbx), %rax vmovsd (%rax), %xmm0 movq 27648(%rbx), %rax vmovhpd (%rax), %xmm0, %xmm0 vmovapd %ymm0, 24064(%rbx) movq 28064(%rbx), %rax vmovsd (%rax), %xmm0 movq 28032(%rbx), %rax vmovhpd (%rax), %xmm0, %xmm0 vmovapd %ymm0, 24032(%rbx) movq 28288(%rbx), %rax vmovsd (%rax), %xmm0 movq 28256(%rbx), %rax vmovhpd (%rax), %xmm0, %xmm0 vmovapd %ymm0, 23360(%rbx) vmulpd %ymm13, %ymm11, %ymm0 vmulpd %ymm13, %ymm4, %ymm3 vaddpd %ymm0, %ymm4, %ymm4 vaddpd %ymm0, %ymm3, %ymm0 vmovapd %ymm0, 24128(%rbx) vinsertf128 $1, %xmm15, %ymm1, %ymm0 vmovapd %ymm0, 24096(%rbx) movq 28000(%rbx), %rax vmovsd (%rax), %xmm0 movq 27968(%rbx), %rax vmovhpd (%rax), %xmm0, %xmm0 vmovapd %ymm0, 23552(%rbx) movq 27808(%rbx), %rax vmovsd (%rax), %xmm0 movq 27776(%rbx), %rax vmovhpd (%rax), %xmm0, %xmm0 vmovapd %ymm0, 23424(%rbx) movq 27744(%rbx), %rax vmovsd (%rax), %xmm0 movq 27712(%rbx), %rax vmovhpd (%rax), %xmm0, %xmm0 vmovapd %ymm0, 23328(%rbx) vinsertf128 $1, 23392(%rbx), %ymm14, %ymm3 movq 27872(%rbx), %rax vmovsd (%rax), %xmm0 movq 27840(%rbx), %rax vmovhpd (%rax), %xmm0, %xmm0 vmovapd %xmm0, 23392(%rbx) movq 27616(%rbx), %rax vmovsd (%rax), %xmm0 movq 27584(%rbx), %rax vmovhpd (%rax), %xmm0, %xmm0 vmovapd %xmm0, 23296(%rbx) movq 27552(%rbx), %rax vmovsd (%rax), %xmm0 movq 27520(%rbx), %rax vmovhpd (%rax), %xmm0, %xmm0 vmovapd %xmm0, 16608(%rbx) movq 27488(%rbx), %rax vmovsd (%rax), %xmm0 movq 27456(%rbx), %rax vmovhpd (%rax), %xmm0, %xmm8 movq 27936(%rbx), %rax vmovsd (%rax), %xmm0 movq 27904(%rbx), %rax vmovhpd (%rax), %xmm0, %xmm6 movq 28128(%rbx), %rax vmovsd (%rax), %xmm0 movq 28096(%rbx), %rax vmovhpd (%rax), %xmm0, %xmm0 vmovaps 23968(%rbx), %ymm1 vinsertf128 $1, 24192(%rbx), %ymm1, %ymm1 vmovaps %ymm1, 24192(%rbx) movq 27168(%rbx), %rax vmovsd (%rax), %xmm1 movq 27136(%rbx), %rax vmovhpd (%rax), %xmm1, %xmm1 vmovapd %xmm1, 16640(%rbx) movq 27360(%rbx), %rax vmovsd (%rax), %xmm1 movq 27328(%rbx), %rax vmovhpd (%rax), %xmm1, %xmm1 vmovapd %ymm1, 16576(%rbx) vmovapd 23936(%rbx), %ymm1 vmulpd %ymm13, %ymm1, %ymm5 vmovapd 24160(%rbx), %ymm1 vaddpd %ymm5, %ymm1, %ymm14 vmovapd 26144(%rbx), %ymm1 vaddpd %ymm5, %ymm1, %ymm1 vmovapd %ymm1, 24160(%rbx) vmovapd 23904(%rbx), %ymm1 vmulpd %ymm13, %ymm1, %ymm5 vmovapd 24288(%rbx), %ymm1 vaddpd %ymm5, %ymm1, %ymm1 vmovapd 24256(%rbx), %ymm2 vaddpd %ymm5, %ymm2, %ymm2 vmovapd %ymm2, 23968(%rbx) vmovapd 23456(%rbx), %ymm2 vmulpd %ymm13, %ymm2, %ymm5 vaddpd %ymm5, %ymm4, %ymm4 vmovapd %ymm4, 23936(%rbx) vmulpd %ymm13, %ymm12, %ymm15 vmovapd 23488(%rbx), %ymm12 vaddpd %ymm15, %ymm12, %ymm5 vmovapd 23520(%rbx), %ymm10 vmulpd %ymm13, %ymm10, %ymm11 vaddpd %ymm11, %ymm5, %ymm5 vmovapd 23360(%rbx), %ymm4 vinsertf128 $1, %xmm0, %ymm4, %ymm4 vmovapd 26112(%rbx), %ymm0 vaddpd %ymm9, %ymm0, %ymm0 vmovapd %ymm0, 26144(%rbx) vmulpd %ymm13, %ymm9, %ymm0 vmovapd 26176(%rbx), %ymm9 vaddpd %ymm0, %ymm9, %ymm0 vmovapd %ymm0, 24288(%rbx) vmovapd 24032(%rbx), %ymm0 vinsertf128 $1, %xmm6, %ymm0, %ymm11 vmovapd 24064(%rbx), %ymm0 vinsertf128 $1, %xmm8, %ymm0, %ymm0 vmovapd %ymm0, 23904(%rbx) vmovapd 24224(%rbx), %ymm0 vmulpd %ymm13, %ymm0, %ymm0 vmulpd %ymm13, %ymm7, %ymm6 vaddpd %ymm0, %ymm7, %ymm7 vmovapd %ymm7, 24224(%rbx) vaddpd %ymm0, %ymm6, %ymm0 vmovapd %ymm0, 24064(%rbx) vmovapd 23328(%rbx), %ymm0 vinsertf128 $1, 16608(%rbx), %ymm0, %ymm6 vmovapd 23424(%rbx), %ymm0 vinsertf128 $1, 23296(%rbx), %ymm0, %ymm7 vmovapd 23552(%rbx), %ymm0 vinsertf128 $1, 23392(%rbx), %ymm0, %ymm9 vmulpd %ymm13, %ymm12, %ymm0 vaddpd %ymm15, %ymm0, %ymm0 vmovapd %ymm0, 26176(%rbx) vmovapd 24128(%rbx), %ymm0 vaddpd %ymm2, %ymm0, %ymm0 vmovapd %ymm0, 24128(%rbx) vmovapd 24096(%rbx), %ymm0 vmulpd %ymm13, %ymm0, %ymm0 vmulpd %ymm13, %ymm3, %ymm15 vaddpd %ymm0, %ymm3, %ymm12 vaddpd %ymm0, %ymm15, %ymm0 vmovapd %ymm0, 24096(%rbx) vmovaps 16576(%rbx), %ymm0 vinsertf128 $1, 16640(%rbx), %ymm0, %ymm0 vmovaps %ymm0, 24032(%rbx) vmulpd %ymm13, %ymm1, %ymm0 vmulpd %ymm13, %ymm14, %ymm1 vaddpd %ymm0, %ymm14, %ymm2 vmovapd %ymm2, 26112(%rbx) vaddpd %ymm0, %ymm1, %ymm0 vmovapd %ymm0, 24256(%rbx) vmovapd 24192(%rbx), %ymm0 vmulpd %ymm13, %ymm0, %ymm0 vmovapd %ymm0, 24192(%rbx) vaddpd %ymm0, %ymm5, %ymm1 vmulpd %ymm13, %ymm4, %ymm3 vmovapd 23936(%rbx), %ymm0 vaddpd %ymm3, %ymm0, %ymm0 vmulpd %ymm13, %ymm0, %ymm0 vaddpd %ymm0, %ymm1, %ymm0 vmovapd %ymm0, 23936(%rbx) vmovapd 23968(%rbx), %ymm0 vmulpd %ymm13, %ymm0, %ymm0 vmovapd 24160(%rbx), %ymm1 vaddpd %ymm0, %ymm1, %ymm8 movq 26976(%rbx), %rsi vmovsd (%rsi), %xmm1 movq 26944(%rbx), %rsi vmovhpd (%rsi), %xmm1, %xmm1 movq 27104(%rbx), %rsi vmovsd (%rsi), %xmm2 movq 27072(%rbx), %rsi vmovhpd (%rsi), %xmm2, %xmm2 vinsertf128 $1, %xmm1, %ymm2, %ymm14 vmovapd 23904(%rbx), %ymm0 vmulpd %ymm13, %ymm0, %ymm1 vmulpd %ymm13, %ymm11, %ymm2 vaddpd %ymm1, %ymm11, %ymm0 vmovapd %ymm0, 24160(%rbx) vaddpd %ymm1, %ymm2, %ymm5 vmulpd %ymm13, %ymm9, %ymm1 vmovapd 24288(%rbx), %ymm0 vaddpd %ymm1, %ymm0, %ymm4 vmovapd 26144(%rbx), %ymm0 vaddpd %ymm1, %ymm0, %ymm9 vmulpd %ymm13, %ymm7, %ymm0 vaddpd %ymm0, %ymm12, %ymm1 vmovapd 24064(%rbx), %ymm0 vaddpd %ymm6, %ymm0, %ymm11 vmulpd %ymm13, %ymm6, %ymm0 vmovapd 24224(%rbx), %ymm2 vaddpd %ymm0, %ymm2, %ymm6 movq 27232(%rbx), %rax vmovsd (%rax), %xmm2 movq 27200(%rbx), %rdx vmovhpd (%rdx), %xmm2, %xmm2 movq 27424(%rbx), %rax vmovsd (%rax), %xmm0 movq 27392(%rbx), %rax vmovhpd (%rax), %xmm0, %xmm0 vinsertf128 $1, %xmm2, %ymm0, %ymm15 vmovapd 24096(%rbx), %ymm0 vaddpd %ymm7, %ymm0, %ymm7 vmovapd 24128(%rbx), %ymm0 vaddpd %ymm3, %ymm0, %ymm0 vmovapd %ymm0, 26144(%rbx) vmovapd 24032(%rbx), %ymm0 vmulpd %ymm13, %ymm0, %ymm0 vaddpd %ymm0, %ymm6, %ymm3 vaddpd %ymm0, %ymm11, %ymm11 vmovapd 26176(%rbx), %ymm0 vaddpd %ymm10, %ymm0, %ymm12 vmulpd %ymm13, %ymm4, %ymm0 vaddpd %ymm0, %ymm8, %ymm6 vmulpd %ymm13, %ymm14, %ymm4 vaddpd %ymm4, %ymm1, %ymm0 vmulpd %ymm13, %ymm0, %ymm0 vmovapd 23936(%rbx), %ymm1 vaddpd %ymm0, %ymm1, %ymm10 vmovapd 24256(%rbx), %ymm0 vaddpd %ymm9, %ymm0, %ymm8 vmulpd %ymm13, %ymm9, %ymm0 vmovapd 26112(%rbx), %ymm1 vaddpd %ymm0, %ymm1, %ymm9 vaddpd %ymm15, %ymm5, %ymm1 vmulpd %ymm13, %ymm15, %ymm0 vmovapd 24160(%rbx), %ymm2 vaddpd %ymm0, %ymm2, %ymm5 movq 27040(%rbx), %rdx vmovsd (%rdx), %xmm0 movq 27008(%rbx), %rdx vmovhpd (%rdx), %xmm0, %xmm2 movq 27296(%rbx), %rax vmovsd (%rax), %xmm0 movq 27264(%rbx), %rax vmovhpd (%rax), %xmm0, %xmm0 vinsertf128 $1, %xmm2, %ymm0, %ymm0 vmulpd %ymm13, %ymm0, %ymm0 vaddpd %ymm0, %ymm5, %ymm5 vaddpd %ymm0, %ymm1, %ymm14 vaddpd %ymm4, %ymm7, %ymm1 vaddpd 24192(%rbx), %ymm12, %ymm0 vmulpd %ymm13, %ymm11, %ymm2 vaddpd %ymm2, %ymm9, %ymm4 vaddpd %ymm2, %ymm8, %ymm8 vmulpd %ymm13, %ymm5, %ymm2 vaddpd %ymm2, %ymm10, %ymm9 vmulpd %ymm13, %ymm3, %ymm2 vaddpd %ymm2, %ymm6, %ymm6 vmovapd 26144(%rbx), %ymm2 vmulpd %ymm13, %ymm2, %ymm5 vmulpd %ymm13, %ymm0, %ymm2 vaddpd %ymm5, %ymm2, %ymm2 vaddpd %ymm1, %ymm2, %ymm3 vmulpd %ymm13, %ymm14, %ymm2 vaddpd %ymm2, %ymm3, %ymm7 vmovapd 26688(%rbx), %ymm10 vmulpd %ymm10, %ymm10, %ymm3 vaddpd %ymm7, %ymm3, %ymm7 vmovapd 26208(%rbx), %ymm11 vmulpd %ymm7, %ymm11, %ymm7 vsubpd %ymm7, %ymm3, %ymm7 vmovapd 26272(%rbx), %ymm12 vmulpd %ymm10, %ymm12, %ymm3 vmulpd %ymm12, %ymm12, %ymm10 vaddpd %ymm10, %ymm9, %ymm9 vmulpd %ymm9, %ymm11, %ymm9 vmovapd %ymm11, %ymm14 vsubpd %ymm9, %ymm10, %ymm11 vmovapd %ymm11, 26144(%rbx) vmovapd 26720(%rbx), %ymm10 vmulpd %ymm10, %ymm10, %ymm9 vaddpd %ymm8, %ymm9, %ymm8 vmovapd 26240(%rbx), %ymm15 vmulpd %ymm8, %ymm15, %ymm8 vsubpd %ymm8, %ymm9, %ymm9 vmovapd 26656(%rbx), %ymm12 vmulpd %ymm10, %ymm12, %ymm8 vmulpd %ymm12, %ymm12, %ymm10 vaddpd %ymm8, %ymm4, %ymm4 vaddpd %ymm10, %ymm6, %ymm12 vmulpd %ymm4, %ymm15, %ymm6 vmulpd %ymm12, %ymm15, %ymm4 vsubpd %ymm4, %ymm10, %ymm4 vmovapd %ymm4, 26112(%rbx) vaddpd %ymm5, %ymm0, %ymm0 vmulpd %ymm13, %ymm1, %ymm1 vaddpd %ymm1, %ymm0, %ymm0 vmovapd .LCPI1_75(%rip), %ymm5 vmulpd %ymm5, %ymm4, %ymm1 vmulpd %ymm9, %ymm1, %ymm4 vmulpd %ymm5, %ymm11, %ymm1 vmulpd %ymm7, %ymm1, %ymm1 vsubpd %ymm6, %ymm8, %ymm5 vaddpd %ymm2, %ymm0, %ymm0 vaddpd %ymm3, %ymm0, %ymm0 vmulpd %ymm0, %ymm14, %ymm0 vsubpd %ymm0, %ymm3, %ymm0 vmovapd .LCPI1_24(%rip), %ymm6 vmulpd %ymm6, %ymm0, %ymm0 vmulpd %ymm0, %ymm0, %ymm2 vsubpd %ymm1, %ymm2, %ymm1 vmulpd %ymm6, %ymm5, %ymm3 vmovapd %ymm6, %ymm14 vmulpd %ymm3, %ymm3, %ymm2 vsubpd %ymm4, %ymm2, %ymm2 movl 18656(%rbx), %ecx movl 18624(%rbx), %esi leal 48(%rcx,%rsi), %eax movslq %eax, %rax vmovupd 33024(%rbx,%rax,8), %xmm4 vinsertf128 $1, 33040(%rbx,%rax,8), %ymm4, %ymm11 vmovapd %ymm11, 26176(%rbx) movq 26880(%rbx), %rdx vmovupd 33024(%rbx,%rdx,8), %xmm4 vinsertf128 $1, 33040(%rbx,%rdx,8), %ymm4, %ymm9 movq 20672(%rbx), %rdi vmovupd 33024(%rbx,%rdi,8), %xmm4 vinsertf128 $1, 33040(%rbx,%rdi,8), %ymm4, %ymm6 vmovapd %ymm6, 16640(%rbx) vmovupd 33056(%rbx,%rax,8), %xmm4 vinsertf128 $1, 33072(%rbx,%rax,8), %ymm4, %ymm12 vmovupd 33056(%rbx,%rdx,8), %xmm4 vinsertf128 $1, 33072(%rbx,%rdx,8), %ymm4, %ymm10 vmovupd 33056(%rbx,%rdi,8), %xmm4 vinsertf128 $1, 33072(%rbx,%rdi,8), %ymm4, %ymm8 vmovapd %ymm8, 16608(%rbx) vsqrtpd %ymm2, %ymm4 vmovapd .LCPI1_25(%rip), %ymm5 vxorpd %ymm5, %ymm3, %ymm2 vsubpd %ymm4, %ymm2, %ymm2 vsubpd %ymm3, %ymm4, %ymm7 vsqrtpd %ymm1, %ymm1 vxorpd %ymm5, %ymm0, %ymm3 vsubpd %ymm0, %ymm1, %ymm0 vmovapd %ymm0, 24288(%rbx) vsubpd %ymm1, %ymm3, %ymm15 vsubpd %ymm6, %ymm11, %ymm0 vmovapd %ymm14, %ymm3 vmulpd %ymm3, %ymm0, %ymm1 vmovapd %ymm1, 26272(%rbx) vsubpd %ymm9, %ymm6, %ymm0 vmulpd %ymm3, %ymm0, %ymm0 vmovapd %ymm0, 26240(%rbx) vmulpd %ymm1, %ymm0, %ymm0 vcmpnlepd %ymm13, %ymm0, %ymm1 vmovapd %ymm1, 26880(%rbx) vextractf128 $1, %ymm1, %xmm0 vpshufd $8, %xmm0, %xmm4 vmovdqa %xmm4, 26720(%rbx) vpshufd $8, %xmm1, %xmm0 vmovlhps %xmm4, %xmm0, %xmm0 vsubpd %ymm8, %ymm12, %ymm1 vmulpd %ymm3, %ymm1, %ymm6 vmovapd %ymm6, 26208(%rbx) vsubpd %ymm10, %ymm8, %ymm1 vmulpd %ymm3, %ymm1, %ymm8 vmovapd %ymm3, %ymm4 vmulpd %ymm6, %ymm8, %ymm1 vcmpnlepd %ymm13, %ymm1, %ymm6 vmovapd %ymm6, 26656(%rbx) vextractf128 $1, %ymm6, %xmm1 vpshufd $8, %xmm1, %xmm3 vmovdqa %xmm3, 26688(%rbx) vpshufd $8, %xmm6, %xmm1 vmovlhps %xmm3, %xmm1, %xmm6 vxorpd %ymm5, %ymm7, %ymm3 vmovapd 26112(%rbx), %ymm1 vmulpd %ymm4, %ymm1, %ymm1 vdivpd %ymm1, %ymm3, %ymm3 vmovapd %ymm3, 16576(%rbx) vxorpd %ymm5, %ymm2, %ymm2 vdivpd %ymm1, %ymm2, %ymm1 vmovapd %ymm1, 16416(%rbx) vcmpltpd %ymm3, %ymm1, %ymm1 vextractf128 $1, %ymm1, %xmm2 vpshufd $8, %xmm2, %xmm2 vpshufd $8, %xmm1, %xmm1 vmovlhps %xmm2, %xmm1, %xmm2 vxorpd %ymm5, %ymm15, %ymm1 vmovapd 24288(%rbx), %ymm3 vxorpd %ymm5, %ymm3, %ymm7 vmovapd 26144(%rbx), %ymm3 vmulpd %ymm4, %ymm3, %ymm11 vmovdqa .LCPI1_20(%rip), %xmm4 vpshufb %xmm4, %xmm6, %xmm3 vmovdqa .LCPI1_21(%rip), %xmm5 vpshufb %xmm5, %xmm0, %xmm0 vpor %xmm3, %xmm0, %xmm0 vdivpd %ymm11, %ymm7, %ymm3 vmovapd %ymm3, 16384(%rbx) vdivpd %ymm11, %ymm1, %ymm1 vmovapd %ymm1, 16352(%rbx) vcmpltpd %ymm3, %ymm1, %ymm6 vpshufb %xmm4, %xmm2, %xmm1 vextractf128 $1, %ymm6, %xmm2 vpshufd $8, %xmm2, %xmm7 vpshufd $8, %xmm6, %xmm3 vmovdqa .LCPI1_17(%rip), %xmm4 vpxor %xmm4, %xmm0, %xmm2 vmovlhps %xmm7, %xmm3, %xmm0 vmovdqa %xmm5, %xmm3 vpshufb %xmm3, %xmm0, %xmm0 vmovdqa %xmm3, %xmm14 vpor %xmm1, %xmm0, %xmm0 vpsllw $15, %xmm0, %xmm0 vpsraw $15, %xmm0, %xmm0 vpmovzxwd %xmm2, %xmm1 vpunpckhbw %xmm0, %xmm0, %xmm3 vpslld $31, %xmm1, %xmm1 vpslld $31, %xmm3, %xmm6 vpsrad $31, %xmm1, %xmm1 vpunpckhwd %xmm0, %xmm2, %xmm2 vpslld $31, %xmm2, %xmm2 vpsrad $31, %xmm2, %xmm2 vpsrad $31, %xmm6, %xmm3 vmovdqa %xmm3, 24288(%rbx) vpmovsxdq %xmm3, %xmm3 vmovdqa %ymm3, 16320(%rbx) vinsertf128 $1, %xmm2, %ymm1, %ymm1 vpunpcklbw %xmm0, %xmm0, %xmm0 vpslld $31, %xmm0, %xmm0 vpsrad $31, %xmm0, %xmm0 vmovdqa %xmm0, 24256(%rbx) vpmovsxdq %xmm0, %xmm0 vmovdqa %ymm0, 16288(%rbx) vmovdqa 7136(%rbx), %ymm0 vptest %ymm0, %ymm1 vmovapd 7168(%rbx), %ymm0 vmovapd %ymm0, %ymm1 vmovapd %ymm0, %ymm5 vmovdqa %xmm4, %xmm11 jb .LBB1_3596 vmovapd 26176(%rbx), %ymm0 vsubpd %ymm9, %ymm0, %ymm0 vsubpd %ymm10, %ymm12, %ymm1 vmovapd .LCPI1_28(%rip), %ymm2 vmulpd %ymm2, %ymm1, %ymm9 vmulpd %ymm2, %ymm0, %ymm2 vmovapd %ymm2, 26176(%rbx) vmovapd .LCPI1_56(%rip), %ymm4 vandpd %ymm4, %ymm9, %ymm10 vmovdqa %xmm11, %xmm5 vandpd %ymm4, %ymm8, %ymm11 vcmpltpd %ymm10, %ymm11, %ymm0 vextractf128 $1, %ymm0, %xmm1 vpshufd $8, %xmm1, %xmm1 vpshufd $8, %xmm0, %xmm0 vandpd %ymm4, %ymm2, %ymm7 vmovlhps %xmm1, %xmm0, %xmm0 vmovapd 26240(%rbx), %ymm13 vandpd %ymm4, %ymm13, %ymm12 vcmpltpd %ymm7, %ymm12, %ymm1 vextractf128 $1, %ymm1, %xmm2 vpshufd $8, %xmm2, %xmm2 vpshufd $8, %xmm1, %xmm1 vmovlhps %xmm2, %xmm1, %xmm6 vmovapd %ymm8, 26144(%rbx) vmovapd 26208(%rbx), %ymm8 vandpd %ymm4, %ymm8, %ymm2 vcmpltpd %ymm2, %ymm11, %ymm1 vextractf128 $1, %ymm1, %xmm3 vpshufd $8, %xmm3, %xmm3 vpshufd $8, %xmm1, %xmm1 vmovlhps %xmm3, %xmm1, %xmm1 vmovapd 26272(%rbx), %ymm15 vandpd %ymm4, %ymm15, %ymm11 vcmpltpd %ymm11, %ymm12, %ymm12 vextractf128 $1, %ymm12, %xmm3 vpshufd $8, %xmm3, %xmm3 vpshufd $8, %xmm12, %xmm4 vmovlhps %xmm3, %xmm4, %xmm3 vcmpltpd %ymm7, %ymm11, %ymm11 vpshufb %xmm14, %xmm3, %xmm3 vmovdqa .LCPI1_20(%rip), %xmm4 vpshufb %xmm4, %xmm1, %xmm1 vpor %xmm1, %xmm3, %xmm7 vpshufb %xmm14, %xmm6, %xmm1 vpshufb %xmm4, %xmm0, %xmm0 vpor %xmm0, %xmm1, %xmm1 vextractf128 $1, %ymm11, %xmm0 vpshufd $8, %xmm0, %xmm0 vpshufd $8, %xmm11, %xmm3 vmovdqa %xmm5, %xmm11 vmovlhps %xmm0, %xmm3, %xmm0 vmovdqa 26880(%rbx), %ymm3 vpshufd $8, %xmm3, %xmm3 vmovaps 26720(%rbx), %xmm5 vmovlhps %xmm5, %xmm3, %xmm6 vcmpltpd %ymm10, %ymm2, %ymm10 vpsllw $15, %xmm1, %xmm1 vpsraw $15, %xmm1, %xmm1 vpxor %xmm11, %xmm1, %xmm1 vpsllw $15, %xmm7, %xmm2 vpsraw $15, %xmm2, %xmm2 vpxor %xmm11, %xmm2, %xmm2 vpor %xmm1, %xmm2, %xmm2 vextractf128 $1, %ymm10, %xmm1 vpshufd $8, %xmm1, %xmm1 vpshufd $8, %xmm10, %xmm3 vmovlhps %xmm1, %xmm3, %xmm1 vpshufb %xmm14, %xmm0, %xmm7 vpshufb %xmm14, %xmm6, %xmm0 vmovdqa 26656(%rbx), %ymm3 vpshufd $8, %xmm3, %xmm3 vmovaps 26688(%rbx), %xmm5 vmovlhps %xmm5, %xmm3, %xmm3 vpshufb %xmm4, %xmm3, %xmm3 vpor %xmm3, %xmm0, %xmm0 vpsllw $15, %xmm0, %xmm0 vpsraw $15, %xmm0, %xmm0 vpand %xmm2, %xmm0, %xmm0 vpshufb %xmm4, %xmm1, %xmm1 vpunpckhbw %xmm0, %xmm0, %xmm2 vpor %xmm1, %xmm7, %xmm3 vpslld $31, %xmm2, %xmm1 vpsllw $15, %xmm3, %xmm2 vpsraw $15, %xmm2, %xmm2 vpmovsxdq %xmm1, %xmm6 vmovhlps %xmm1, %xmm1, %xmm1 vpmovsxdq %xmm1, %xmm1 vinsertf128 $1, %xmm1, %ymm6, %ymm6 vpunpckhbw %xmm0, %xmm2, %xmm1 vpslld $31, %xmm1, %xmm3 vpmovsxdq %xmm3, %xmm1 vmovhlps %xmm3, %xmm3, %xmm3 vpmovsxdq %xmm3, %xmm3 vinsertf128 $1, %xmm3, %ymm1, %ymm1 vpunpcklbw %xmm0, %xmm0, %xmm0 vpslld $31, %xmm0, %xmm3 vpmovsxdq %xmm3, %xmm0 vmovhlps %xmm3, %xmm3, %xmm3 vpmovsxdq %xmm3, %xmm7 vpunpcklbw %xmm0, %xmm2, %xmm2 vblendvpd %ymm1, %ymm8, %ymm9, %ymm1 vmovapd 26144(%rbx), %ymm3 vblendvpd %ymm6, %ymm1, %ymm3, %ymm1 vmovapd .LCPI1_77(%rip), %ymm3 vmulpd %ymm3, %ymm1, %ymm5 vinsertf128 $1, %xmm7, %ymm0, %ymm0 vpslld $31, %xmm2, %xmm2 vpmovsxdq %xmm2, %xmm1 vmovhlps %xmm2, %xmm2, %xmm2 vpmovsxdq %xmm2, %xmm2 vinsertf128 $1, %xmm2, %ymm1, %ymm1 vmovapd 26176(%rbx), %ymm2 vblendvpd %ymm1, %ymm15, %ymm2, %ymm1 vblendvpd %ymm0, %ymm1, %ymm13, %ymm0 vmulpd %ymm3, %ymm0, %ymm1 .LBB1_3596: vmovapd %ymm1, 15840(%rbx) vmovapd %ymm5, 16256(%rbx) vmovapd 23168(%rbx), %ymm0 vsubpd 23232(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 26240(%rbx) vmovapd 22688(%rbx), %ymm0 vsubpd 22912(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 26144(%rbx) vmovapd 22528(%rbx), %ymm0 vsubpd 22592(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 24096(%rbx) vmovapd 22176(%rbx), %ymm0 vsubpd 22496(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 23936(%rbx) vmovapd 21920(%rbx), %ymm0 vsubpd 21408(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 23424(%rbx) vmovapd 22400(%rbx), %ymm0 vsubpd 21632(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 21632(%rbx) vmovapd 21600(%rbx), %ymm0 vsubpd %ymm0, %ymm0, %ymm0 vmovapd %ymm0, 24128(%rbx) vmovapd 22304(%rbx), %ymm0 vsubpd %ymm0, %ymm0, %ymm0 vmovapd %ymm0, 13600(%rbx) vmovapd 24608(%rbx), %ymm0 vmulpd 26784(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 26208(%rbx) vmovapd 24576(%rbx), %ymm0 vmulpd 32992(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 22528(%rbx) vmovapd 13824(%rbx), %ymm0 vmovapd 21792(%rbx), %ymm1 vmulpd %ymm0, %ymm1, %ymm1 vmovapd %ymm1, 26176(%rbx) vmovapd 22272(%rbx), %ymm1 vmulpd %ymm0, %ymm1, %ymm1 vmovapd %ymm1, 22400(%rbx) vmovapd 22656(%rbx), %ymm1 vmulpd %ymm0, %ymm1, %ymm1 vmovapd %ymm1, 22304(%rbx) vmovapd 21376(%rbx), %ymm1 vmulpd %ymm0, %ymm1, %ymm1 vmovapd %ymm1, 24064(%rbx) vmovapd 22048(%rbx), %ymm1 vmulpd %ymm0, %ymm1, %ymm1 vmovapd %ymm1, 21600(%rbx) vmovapd 22464(%rbx), %ymm1 vmulpd %ymm0, %ymm1, %ymm1 vmovapd %ymm1, 22656(%rbx) vmovapd 22816(%rbx), %ymm1 vmulpd %ymm0, %ymm1, %ymm1 vmovapd %ymm1, 22816(%rbx) vmovapd 21568(%rbx), %ymm1 vmulpd %ymm0, %ymm1, %ymm1 vmovapd %ymm1, 23360(%rbx) vmovapd 26080(%rbx), %ymm1 vmovapd 21888(%rbx), %ymm2 vmaxpd %ymm2, %ymm1, %ymm1 vmovapd %ymm1, 26784(%rbx) vcmpunordpd %ymm2, %ymm2, %ymm1 vmovapd %ymm1, 13536(%rbx) vmovapd 25664(%rbx), %ymm1 vmovapd 21856(%rbx), %ymm2 vmaxpd %ymm2, %ymm1, %ymm1 vmovapd %ymm1, 13504(%rbx) vcmpunordpd %ymm2, %ymm2, %ymm1 vmovapd %ymm1, 13440(%rbx) vmovapd 21280(%rbx), %ymm1 vsubpd 21344(%rbx), %ymm1, %ymm1 vmovapd %ymm1, 21568(%rbx) vmovapd 21152(%rbx), %ymm1 vsubpd 21248(%rbx), %ymm1, %ymm1 vmovapd %ymm1, 13568(%rbx) vmovapd 20544(%rbx), %ymm1 vsubpd 20640(%rbx), %ymm1, %ymm1 vmovapd %ymm1, 20544(%rbx) vmovapd 20256(%rbx), %ymm1 vsubpd 20512(%rbx), %ymm1, %ymm1 vmovapd %ymm1, 20640(%rbx) vmovapd 24416(%rbx), %ymm1 vmulpd 32320(%rbx), %ymm1, %ymm1 vmovapd %ymm1, 13248(%rbx) vmovapd 22560(%rbx), %ymm1 vmulpd %ymm0, %ymm1, %ymm1 vmovapd %ymm1, 13216(%rbx) vmovapd 23200(%rbx), %ymm1 vmulpd %ymm0, %ymm1, %ymm1 vmovapd %ymm1, 13184(%rbx) vmovapd 22784(%rbx), %ymm1 vmulpd %ymm0, %ymm1, %ymm1 vmovapd %ymm1, 13376(%rbx) vmovapd 21824(%rbx), %ymm1 vmulpd %ymm0, %ymm1, %ymm1 vmovapd %ymm1, 13344(%rbx) vmovapd 21088(%rbx), %ymm1 vsubpd %ymm1, %ymm1, %ymm1 vmovapd %ymm1, 13312(%rbx) vmovapd 22336(%rbx), %ymm1 vmulpd %ymm0, %ymm1, %ymm1 vmovapd %ymm1, 13280(%rbx) vmovapd 24704(%rbx), %ymm1 vmulpd 32352(%rbx), %ymm1, %ymm1 vmovapd %ymm1, 13408(%rbx) vmovapd 22368(%rbx), %ymm1 vmulpd %ymm0, %ymm1, %ymm1 vmovapd %ymm1, 20512(%rbx) vmovapd 21216(%rbx), %ymm1 vsubpd %ymm1, %ymm1, %ymm1 vmovapd %ymm1, 13472(%rbx) vmovapd 21120(%rbx), %ymm1 vsubpd 21056(%rbx), %ymm1, %ymm1 vmovapd %ymm1, 20256(%rbx) vmovapd 21312(%rbx), %ymm1 vsubpd 20960(%rbx), %ymm1, %ymm1 vmovapd %ymm1, 13664(%rbx) vmovapd 20928(%rbx), %ymm1 vmulpd %ymm0, %ymm1, %ymm1 vmovapd %ymm1, 13632(%rbx) vmovapd 21184(%rbx), %ymm1 vmulpd %ymm0, %ymm1, %ymm1 vmovapd %ymm1, 13696(%rbx) vmovapd 20896(%rbx), %ymm1 vsubpd 21024(%rbx), %ymm1, %ymm1 vmovapd %ymm1, 21824(%rbx) vmovapd 20608(%rbx), %ymm1 vsubpd 20864(%rbx), %ymm1, %ymm1 vmovapd %ymm1, 13728(%rbx) vmovapd 20480(%rbx), %ymm1 vsubpd 20576(%rbx), %ymm1, %ymm1 vmovapd %ymm1, 22368(%rbx) vmovapd 20224(%rbx), %ymm1 vsubpd 20448(%rbx), %ymm1, %ymm1 vmovapd %ymm1, 22272(%rbx) vmovapd 20160(%rbx), %ymm1 vsubpd 19840(%rbx), %ymm1, %ymm1 vmovapd %ymm1, 20896(%rbx) vmovapd 20352(%rbx), %ymm1 vsubpd 20032(%rbx), %ymm1, %ymm1 vmovapd %ymm1, 21888(%rbx) vmovapd 20000(%rbx), %ymm1 vsubpd %ymm1, %ymm1, %ymm1 vmovapd %ymm1, 20352(%rbx) vmovapd 20288(%rbx), %ymm1 vsubpd %ymm1, %ymm1, %ymm1 vmovapd %ymm1, 20864(%rbx) vmovapd 24448(%rbx), %ymm1 vmulpd 32960(%rbx), %ymm1, %ymm1 vmovapd %ymm1, 22784(%rbx) vmovapd 24480(%rbx), %ymm1 vmulpd 24544(%rbx), %ymm1, %ymm1 vmovapd %ymm1, 23200(%rbx) vmovapd 20064(%rbx), %ymm1 vmulpd %ymm0, %ymm1, %ymm1 vmovapd %ymm1, 22336(%rbx) vmovapd 22240(%rbx), %ymm1 vmulpd %ymm0, %ymm1, %ymm1 vmovapd %ymm1, 22592(%rbx) vmovapd 20416(%rbx), %ymm1 vmulpd %ymm0, %ymm1, %ymm1 vmovapd %ymm1, 21920(%rbx) vmovapd 19808(%rbx), %ymm1 vmulpd %ymm0, %ymm1, %ymm1 vmovapd %ymm1, 26272(%rbx) vmovapd 20192(%rbx), %ymm1 vmulpd %ymm0, %ymm1, %ymm1 vmovapd %ymm1, 21088(%rbx) vmovapd 20384(%rbx), %ymm1 vmulpd %ymm0, %ymm1, %ymm1 vmovapd %ymm1, 22912(%rbx) vmovapd 23264(%rbx), %ymm1 vmulpd %ymm0, %ymm1, %ymm1 vmovapd %ymm1, 21792(%rbx) vmovapd 19968(%rbx), %ymm1 vmulpd %ymm0, %ymm1, %ymm1 vmovapd %ymm1, 24544(%rbx) vmovapd 24896(%rbx), %ymm1 vmovapd 20128(%rbx), %ymm2 vmaxpd %ymm2, %ymm1, %ymm1 vmovapd %ymm1, 20288(%rbx) vcmpunordpd %ymm2, %ymm2, %ymm1 vmovapd %ymm1, 20192(%rbx) vmovapd 24768(%rbx), %ymm1 vmovapd 20096(%rbx), %ymm2 vmaxpd %ymm2, %ymm1, %ymm1 vmovapd %ymm1, 20160(%rbx) vcmpunordpd %ymm2, %ymm2, %ymm1 vmovapd %ymm1, 20064(%rbx) vmovapd 22208(%rbx), %ymm1 vsubpd 19936(%rbx), %ymm1, %ymm1 vmovapd %ymm1, 20128(%rbx) vmovapd 22944(%rbx), %ymm1 vsubpd 19904(%rbx), %ymm1, %ymm1 vmovapd %ymm1, 20416(%rbx) vmovapd 19104(%rbx), %ymm1 vsubpd 19776(%rbx), %ymm1, %ymm1 vmovapd %ymm1, 20096(%rbx) vmovapd 15392(%rbx), %ymm1 vsubpd 15648(%rbx), %ymm1, %ymm1 vmovapd %ymm1, 21152(%rbx) vmovapd 24672(%rbx), %ymm1 vmulpd 26560(%rbx), %ymm1, %ymm1 vmovapd %ymm1, 19808(%rbx) vmovapd 19872(%rbx), %ymm1 vmulpd %ymm0, %ymm1, %ymm1 vmovapd %ymm1, 19840(%rbx) vmovapd 23104(%rbx), %ymm1 vmulpd %ymm0, %ymm1, %ymm1 vmovapd %ymm1, 19872(%rbx) vmovapd 19136(%rbx), %ymm1 vmulpd %ymm0, %ymm1, %ymm1 vmovapd %ymm1, 20000(%rbx) vmovapd 22976(%rbx), %ymm1 vmulpd %ymm0, %ymm1, %ymm1 vmovapd %ymm1, 22976(%rbx) vmovapd 23040(%rbx), %ymm1 vmulpd %ymm0, %ymm1, %ymm1 vmovapd %ymm1, 19968(%rbx) vmovapd 19072(%rbx), %ymm1 vsubpd %ymm1, %ymm1, %ymm1 vmovapd %ymm1, 19936(%rbx) vmovapd 19040(%rbx), %ymm1 vsubpd %ymm1, %ymm1, %ymm1 vmovapd %ymm1, 19904(%rbx) vmovapd 24640(%rbx), %ymm1 vmulpd 31840(%rbx), %ymm1, %ymm1 vmovapd %ymm1, 20032(%rbx) vmovapd 23136(%rbx), %ymm1 vmulpd %ymm0, %ymm1, %ymm1 vmovapd %ymm1, 20224(%rbx) vmovapd 19008(%rbx), %ymm1 vsubpd 18752(%rbx), %ymm1, %ymm1 vmovapd %ymm1, 22048(%rbx) vmovapd 23072(%rbx), %ymm1 vsubpd 18720(%rbx), %ymm1, %ymm1 vmovapd %ymm1, 21408(%rbx) vmovapd 15808(%rbx), %ymm1 vmulpd %ymm0, %ymm1, %ymm1 vmovapd %ymm1, 21376(%rbx) vmovapd 23008(%rbx), %ymm1 vmulpd %ymm0, %ymm1, %ymm1 vmovapd %ymm1, 21856(%rbx) vmovapd 15776(%rbx), %ymm1 vsubpd 22880(%rbx), %ymm1, %ymm1 vmovapd %ymm1, 22208(%rbx) vmovapd 22080(%rbx), %ymm1 vsubpd 22144(%rbx), %ymm1, %ymm1 vmovapd %ymm1, 22080(%rbx) vmovapd 15616(%rbx), %ymm1 vsubpd 15712(%rbx), %ymm1, %ymm1 vmovapd %ymm1, 23008(%rbx) vmovapd 14912(%rbx), %ymm1 vsubpd 15584(%rbx), %ymm1, %ymm1 vmovapd %ymm1, 22688(%rbx) vmovapd 14848(%rbx), %ymm1 vsubpd 14528(%rbx), %ymm1, %ymm1 vmovapd %ymm1, 22496(%rbx) vmovapd 15520(%rbx), %ymm1 vsubpd 14592(%rbx), %ymm1, %ymm1 vmovapd %ymm1, 23264(%rbx) vmovapd 14560(%rbx), %ymm1 vsubpd %ymm1, %ymm1, %ymm1 vmovapd %ymm1, 21280(%rbx) vmovapd 15488(%rbx), %ymm1 vsubpd %ymm1, %ymm1, %ymm1 vmovapd %ymm1, 22464(%rbx) vmovapd 24384(%rbx), %ymm1 vmulpd 32864(%rbx), %ymm1, %ymm1 vmovapd %ymm1, 23296(%rbx) vmovapd 24352(%rbx), %ymm1 vmulpd 32896(%rbx), %ymm1, %ymm1 vmovapd %ymm1, 24224(%rbx) vmovapd 14752(%rbx), %ymm1 vmulpd %ymm0, %ymm1, %ymm1 vmovapd %ymm1, 23328(%rbx) vmovapd 14944(%rbx), %ymm1 vmulpd %ymm0, %ymm1, %ymm1 vmovapd %ymm1, 23904(%rbx) vmovapd 15744(%rbx), %ymm1 vmulpd %ymm0, %ymm1, %ymm1 vmovapd %ymm1, 24032(%rbx) vmovapd 14688(%rbx), %ymm1 vmulpd %ymm0, %ymm1, %ymm1 vmovapd %ymm1, 32992(%rbx) vmovapd 14880(%rbx), %ymm1 vmulpd %ymm0, %ymm1, %ymm1 vmovapd %ymm1, 23136(%rbx) vmovapd 15552(%rbx), %ymm1 vmulpd %ymm0, %ymm1, %ymm1 vmovapd %ymm1, 24192(%rbx) vmovapd 22112(%rbx), %ymm1 vmulpd %ymm0, %ymm1, %ymm1 vmovapd %ymm1, 23168(%rbx) vmovapd 14720(%rbx), %ymm1 vmulpd %ymm0, %ymm1, %ymm1 vmovapd %ymm1, 32960(%rbx) vmovapd 24800(%rbx), %ymm1 vmovapd 14816(%rbx), %ymm2 vmaxpd %ymm2, %ymm1, %ymm1 vmovapd %ymm1, 22112(%rbx) vcmpunordpd %ymm2, %ymm2, %ymm1 vmovapd %ymm1, 21344(%rbx) vmovapd 24736(%rbx), %ymm1 vmovapd 14784(%rbx), %ymm2 vmaxpd %ymm2, %ymm1, %ymm1 vmovapd %ymm1, 21312(%rbx) vcmpunordpd %ymm2, %ymm2, %ymm1 vmovapd %ymm1, 21248(%rbx) vmovapd 14656(%rbx), %ymm1 vsubpd 21984(%rbx), %ymm1, %ymm1 vmovapd %ymm1, 21984(%rbx) vmovapd 14464(%rbx), %ymm1 vsubpd 14624(%rbx), %ymm1, %ymm1 vmovapd %ymm1, 22560(%rbx) vmovapd 13984(%rbx), %ymm1 vsubpd 14432(%rbx), %ymm1, %ymm1 vmovapd %ymm1, 22176(%rbx) vmovapd 13856(%rbx), %ymm1 vsubpd 13888(%rbx), %ymm1, %ymm1 vmovapd %ymm1, 22944(%rbx) vmovapd 24320(%rbx), %ymm1 vmulpd 26848(%rbx), %ymm1, %ymm1 vmovapd %ymm1, 20672(%rbx) vmovapd 15680(%rbx), %ymm1 vmulpd %ymm0, %ymm1, %ymm1 vmovapd %ymm1, 21056(%rbx) vmovapd 22848(%rbx), %ymm1 vmulpd %ymm0, %ymm1, %ymm1 vmovapd %ymm1, 21024(%rbx) vmovapd 21952(%rbx), %ymm1 vmulpd %ymm0, %ymm1, %ymm1 vmovapd %ymm1, 20960(%rbx) vmovapd 22720(%rbx), %ymm1 vmulpd %ymm0, %ymm1, %ymm1 vmovapd %ymm1, 20928(%rbx) vmovapd 22016(%rbx), %ymm1 vmulpd %ymm0, %ymm1, %ymm1 vmovapd %ymm1, 21120(%rbx) vmovapd 14080(%rbx), %ymm1 vsubpd %ymm1, %ymm1, %ymm1 vmovapd %ymm1, 21216(%rbx) vmovapd 24512(%rbx), %ymm1 vmulpd 31104(%rbx), %ymm1, %ymm1 vmovapd %ymm1, 21184(%rbx) vmovapd 22752(%rbx), %ymm1 vmulpd %ymm0, %ymm1, %ymm1 vmovapd %ymm1, 22016(%rbx) vmovapd 14144(%rbx), %ymm1 vsubpd %ymm1, %ymm1, %ymm1 vmovapd %ymm1, 21952(%rbx) vmovapd 14048(%rbx), %ymm1 vsubpd 14016(%rbx), %ymm1, %ymm1 vmovapd %ymm1, 26848(%rbx) vmovapd 14496(%rbx), %ymm1 vsubpd 13952(%rbx), %ymm1, %ymm1 vmovapd %ymm1, 23488(%rbx) vmovapd 13920(%rbx), %ymm1 vmulpd %ymm0, %ymm1, %ymm1 vmovapd %ymm1, 23456(%rbx) vmovapd 14112(%rbx), %ymm1 vmulpd %ymm0, %ymm1, %ymm0 vmovapd %ymm0, 23968(%rbx) leal 192(%rcx,%rsi), %eax movslq %eax, %rax vmovupd 33056(%rbx,%rax,8), %xmm4 vmovupd 33024(%rbx,%rax,8), %xmm3 movq 32064(%rbx), %rdx vmovupd 33056(%rbx,%rdx,8), %xmm2 movq 20704(%rbx), %rdi vmovupd 33056(%rbx,%rdi,8), %xmm1 vmovupd 33024(%rbx,%rdx,8), %xmm10 vmovupd 33040(%rbx,%rax,8), %xmm7 vmovupd 33072(%rbx,%rax,8), %xmm0 vmovupd 33024(%rbx,%rdi,8), %xmm6 vmovupd 33040(%rbx,%rdi,8), %xmm5 vinsertf128 $1, %xmm0, %ymm4, %ymm9 vmovupd 33040(%rbx,%rdx,8), %xmm0 vinsertf128 $1, %xmm7, %ymm3, %ymm15 vinsertf128 $1, 33072(%rbx,%rdx,8), %ymm2, %ymm8 vinsertf128 $1, 33072(%rbx,%rdi,8), %ymm1, %ymm4 vmovapd %ymm4, 32064(%rbx) vinsertf128 $1, %xmm0, %ymm10, %ymm13 vinsertf128 $1, %xmm5, %ymm6, %ymm5 vmovapd %ymm5, 31840(%rbx) vmovdqa 26656(%rbx), %ymm0 vpshufd $8, %xmm0, %xmm0 vmovaps 26688(%rbx), %xmm1 vmovlhps %xmm1, %xmm0, %xmm0 vmovdqa 26880(%rbx), %ymm1 vpshufd $8, %xmm1, %xmm1 vmovaps 26720(%rbx), %xmm2 vmovlhps %xmm2, %xmm1, %xmm2 vsubpd %ymm5, %ymm15, %ymm3 vsubpd %ymm13, %ymm5, %ymm5 vsubpd %ymm4, %ymm9, %ymm1 vsubpd %ymm8, %ymm4, %ymm4 vmovapd .LCPI1_24(%rip), %ymm6 vmulpd %ymm6, %ymm4, %ymm4 vmulpd %ymm6, %ymm1, %ymm12 vmovapd %ymm12, 26720(%rbx) vmovdqa %xmm11, %xmm7 vmulpd %ymm6, %ymm5, %ymm10 vmulpd %ymm6, %ymm3, %ymm11 vmovapd %ymm11, 26688(%rbx) vpshufb %xmm14, %xmm2, %xmm2 vmovdqa .LCPI1_20(%rip), %xmm1 vpshufb %xmm1, %xmm0, %xmm0 vpor %xmm0, %xmm2, %xmm0 vmulpd %ymm12, %ymm4, %ymm2 vmovapd %ymm4, %ymm6 vxorpd %ymm4, %ymm4, %ymm4 vcmpnlepd %ymm4, %ymm2, %ymm3 vmovapd %ymm3, 32896(%rbx) vextractf128 $1, %ymm3, %xmm2 vpshufd $8, %xmm2, %xmm5 vmovdqa %xmm5, 32864(%rbx) vpshufd $8, %xmm3, %xmm2 vmovlhps %xmm5, %xmm2, %xmm2 vpshufb %xmm1, %xmm2, %xmm2 vmulpd %ymm11, %ymm10, %ymm3 vmovapd %ymm10, %ymm5 vcmpnlepd %ymm4, %ymm3, %ymm1 vmovapd %ymm1, 32352(%rbx) vextractf128 $1, %ymm1, %xmm3 vpshufd $8, %xmm3, %xmm4 vmovdqa %xmm4, 32320(%rbx) vpshufd $8, %xmm1, %xmm3 vmovlhps %xmm4, %xmm3, %xmm3 vpshufb %xmm14, %xmm3, %xmm3 vpor %xmm2, %xmm3, %xmm2 vpsllw $15, %xmm0, %xmm0 vpsraw $15, %xmm0, %xmm0 vpunpckhbw %xmm0, %xmm0, %xmm3 vpslld $31, %xmm3, %xmm1 vmovdqa %xmm1, 31104(%rbx) vpmovsxdq %xmm1, %xmm1 vmovdqa %ymm1, 23552(%rbx) vpxor %xmm7, %xmm2, %xmm2 vpunpcklbw %xmm0, %xmm0, %xmm0 vpslld $31, %xmm0, %xmm1 vmovdqa %xmm1, 26880(%rbx) vpmovzxwd %xmm2, %xmm0 vpslld $31, %xmm0, %xmm0 vpsrad $31, %xmm0, %xmm0 vpunpckhwd %xmm0, %xmm2, %xmm2 vpslld $31, %xmm2, %xmm2 vpsrad $31, %xmm2, %xmm2 vinsertf128 $1, %xmm2, %ymm0, %ymm0 vpmovsxdq %xmm1, %xmm1 vmovdqa %ymm1, 23520(%rbx) vmovdqa 7072(%rbx), %ymm2 vptest %ymm2, %ymm0 vmovapd 7104(%rbx), %ymm0 vmovapd %ymm0, %ymm1 vmovapd %ymm0, %ymm4 movq 12472(%rbx), %r13 jb .LBB1_3598 vsubpd %ymm13, %ymm15, %ymm0 vsubpd %ymm8, %ymm9, %ymm2 vmovapd .LCPI1_28(%rip), %ymm3 vmulpd %ymm3, %ymm2, %ymm2 vmovapd %ymm2, 26560(%rbx) vmulpd %ymm3, %ymm0, %ymm1 vmovapd %ymm1, 26656(%rbx) vmovapd .LCPI1_56(%rip), %ymm14 vandpd %ymm14, %ymm2, %ymm0 vmovapd %ymm6, %ymm10 vandpd %ymm14, %ymm10, %ymm11 vcmpltpd %ymm0, %ymm11, %ymm2 vextractf128 $1, %ymm2, %xmm3 vpshufd $8, %xmm3, %xmm3 vpshufd $8, %xmm2, %xmm2 vandpd %ymm14, %ymm1, %ymm13 vmovlhps %xmm3, %xmm2, %xmm6 vmovapd %ymm5, %ymm12 vandpd %ymm14, %ymm12, %ymm2 vcmpltpd %ymm13, %ymm2, %ymm3 vextractf128 $1, %ymm3, %xmm4 vpshufd $8, %xmm4, %xmm7 vpshufd $8, %xmm3, %xmm3 vmovlhps %xmm7, %xmm3, %xmm9 vmovapd 26720(%rbx), %ymm15 vandpd %ymm14, %ymm15, %ymm8 vcmpltpd %ymm8, %ymm11, %ymm3 vextractf128 $1, %ymm3, %xmm4 vpshufd $8, %xmm4, %xmm7 vpshufd $8, %xmm3, %xmm3 vmovlhps %xmm7, %xmm3, %xmm3 vmovapd 26688(%rbx), %ymm11 vandpd %ymm14, %ymm11, %ymm7 vcmpltpd %ymm7, %ymm2, %ymm2 vextractf128 $1, %ymm2, %xmm4 vpshufd $8, %xmm4, %xmm4 vpshufd $8, %xmm2, %xmm2 vmovlhps %xmm4, %xmm2, %xmm2 vcmpltpd %ymm13, %ymm7, %ymm7 vmovdqa .LCPI1_21(%rip), %xmm1 vpshufb %xmm1, %xmm2, %xmm2 vmovdqa .LCPI1_20(%rip), %xmm5 vpshufb %xmm5, %xmm3, %xmm3 vpor %xmm3, %xmm2, %xmm2 vpshufb %xmm1, %xmm9, %xmm3 vpshufb %xmm5, %xmm6, %xmm4 vpor %xmm4, %xmm3, %xmm3 vextractf128 $1, %ymm7, %xmm4 vpshufd $8, %xmm4, %xmm4 vpshufd $8, %xmm7, %xmm6 vmovlhps %xmm4, %xmm6, %xmm6 vmovdqa 32352(%rbx), %ymm4 vpshufd $8, %xmm4, %xmm4 vmovaps 32320(%rbx), %xmm7 vmovlhps %xmm7, %xmm4, %xmm7 vcmpltpd %ymm0, %ymm8, %ymm8 vpsllw $15, %xmm3, %xmm0 vpsraw $15, %xmm0, %xmm0 vmovdqa .LCPI1_17(%rip), %xmm3 vpxor %xmm3, %xmm0, %xmm0 vpsllw $15, %xmm2, %xmm2 vpsraw $15, %xmm2, %xmm2 vpxor %xmm3, %xmm2, %xmm2 vpor %xmm0, %xmm2, %xmm0 vextractf128 $1, %ymm8, %xmm2 vpshufd $8, %xmm2, %xmm2 vpshufd $8, %xmm8, %xmm3 vmovlhps %xmm2, %xmm3, %xmm3 vpshufb %xmm1, %xmm6, %xmm2 vpshufb %xmm1, %xmm7, %xmm6 vmovdqa 32896(%rbx), %ymm1 vpshufd $8, %xmm1, %xmm4 vmovaps 32864(%rbx), %xmm1 vmovlhps %xmm1, %xmm4, %xmm4 vpshufb %xmm5, %xmm4, %xmm4 vpor %xmm4, %xmm6, %xmm4 vpsllw $15, %xmm4, %xmm4 vpsraw $15, %xmm4, %xmm4 vpand %xmm0, %xmm4, %xmm0 vpshufb %xmm5, %xmm3, %xmm3 vpunpckhbw %xmm0, %xmm0, %xmm4 vpor %xmm3, %xmm2, %xmm3 vpslld $31, %xmm4, %xmm2 vpsllw $15, %xmm3, %xmm3 vpsraw $15, %xmm3, %xmm6 vpmovsxdq %xmm2, %xmm3 vmovhlps %xmm2, %xmm2, %xmm2 vpmovsxdq %xmm2, %xmm2 vinsertf128 $1, %xmm2, %ymm3, %ymm2 vpunpckhbw %xmm0, %xmm6, %xmm3 vpslld $31, %xmm3, %xmm4 vpmovsxdq %xmm4, %xmm3 vmovhlps %xmm4, %xmm4, %xmm4 vpmovsxdq %xmm4, %xmm4 vinsertf128 $1, %xmm4, %ymm3, %ymm3 vpunpcklbw %xmm0, %xmm0, %xmm0 vpslld $31, %xmm0, %xmm4 vpmovsxdq %xmm4, %xmm0 vmovhlps %xmm4, %xmm4, %xmm4 vpmovsxdq %xmm4, %xmm7 vpunpcklbw %xmm0, %xmm6, %xmm6 vmovapd 26560(%rbx), %ymm1 vblendvpd %ymm3, %ymm15, %ymm1, %ymm1 vblendvpd %ymm2, %ymm1, %ymm10, %ymm1 vmovapd .LCPI1_77(%rip), %ymm3 vmulpd %ymm3, %ymm1, %ymm4 vinsertf128 $1, %xmm7, %ymm0, %ymm0 vpslld $31, %xmm6, %xmm2 vpmovsxdq %xmm2, %xmm1 vmovhlps %xmm2, %xmm2, %xmm2 vpmovsxdq %xmm2, %xmm2 vinsertf128 $1, %xmm2, %ymm1, %ymm1 vmovapd 26656(%rbx), %ymm2 vblendvpd %ymm1, %ymm11, %ymm2, %ymm1 vblendvpd %ymm0, %ymm1, %ymm12, %ymm0 vmulpd %ymm3, %ymm0, %ymm1 .LBB1_3598: vmovapd %ymm1, 15776(%rbx) vmovapd %ymm4, 15808(%rbx) vmovapd 24608(%rbx), %ymm0 vmulpd 26048(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 24160(%rbx) vmovapd 24576(%rbx), %ymm0 vmulpd 26816(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 24608(%rbx) vmovapd 13824(%rbx), %ymm0 vmovapd 26144(%rbx), %ymm1 vmulpd %ymm0, %ymm1, %ymm1 vmovapd %ymm1, 24576(%rbx) vmovapd 26240(%rbx), %ymm1 vmulpd %ymm0, %ymm1, %ymm1 vmovapd %ymm1, 26112(%rbx) vmovapd 24128(%rbx), %ymm1 vmulpd %ymm0, %ymm1, %ymm1 vmovapd %ymm1, 24128(%rbx) vmovapd 21472(%rbx), %ymm1 vmulpd %ymm0, %ymm1, %ymm1 vmovapd %ymm1, 26144(%rbx) vmovapd 21440(%rbx), %ymm1 vmulpd %ymm0, %ymm1, %ymm1 vmovapd %ymm1, 26240(%rbx) vmovapd 23424(%rbx), %ymm1 vmulpd %ymm0, %ymm1, %ymm1 vmovapd %ymm1, 26688(%rbx) vmovapd 23936(%rbx), %ymm1 vmulpd %ymm0, %ymm1, %ymm1 vmovapd %ymm1, 23232(%rbx) vmovapd 24096(%rbx), %ymm1 vmulpd %ymm0, %ymm1, %ymm1 vmovapd %ymm1, 23392(%rbx) vmovapd 13600(%rbx), %ymm1 vmulpd %ymm0, %ymm1, %ymm1 vmovapd %ymm1, 23424(%rbx) vmovapd 21536(%rbx), %ymm1 vmulpd %ymm0, %ymm1, %ymm1 vmovapd %ymm1, 23936(%rbx) vmovapd 21504(%rbx), %ymm1 vmulpd %ymm0, %ymm1, %ymm1 vmovapd %ymm1, 24096(%rbx) vmovapd 21632(%rbx), %ymm1 vmulpd %ymm0, %ymm1, %ymm1 vmovapd %ymm1, 26048(%rbx) vmovapd 26784(%rbx), %ymm1 vmovapd 13536(%rbx), %ymm2 vblendvpd %ymm2, 26080(%rbx), %ymm1, %ymm1 vmovapd %ymm1, 26784(%rbx) vmovapd 13504(%rbx), %ymm1 vmovapd 13440(%rbx), %ymm2 vblendvpd %ymm2, 25664(%rbx), %ymm1, %ymm1 vmovapd %ymm1, 26720(%rbx) vmovapd 13248(%rbx), %ymm1 vsubpd 26208(%rbx), %ymm1, %ymm1 vmovapd %ymm1, 26208(%rbx) vmovapd 13216(%rbx), %ymm1 vsubpd 21600(%rbx), %ymm1, %ymm1 vmovapd %ymm1, 26080(%rbx) vmovapd 13184(%rbx), %ymm1 vsubpd 22304(%rbx), %ymm1, %ymm1 vmovapd %ymm1, 26656(%rbx) vmovapd 24416(%rbx), %ymm1 vmulpd 32384(%rbx), %ymm1, %ymm1 vmovapd %ymm1, 21632(%rbx) vmovapd 13568(%rbx), %ymm1 vmulpd %ymm0, %ymm1, %ymm1 vmovapd %ymm1, 21600(%rbx) vmovapd 21568(%rbx), %ymm1 vmulpd %ymm0, %ymm1, %ymm1 vmovapd %ymm1, 21568(%rbx) vmovapd 13376(%rbx), %ymm1 vsubpd 26176(%rbx), %ymm1, %ymm1 vmovapd %ymm1, 26176(%rbx) vmovapd 13344(%rbx), %ymm1 vsubpd 22816(%rbx), %ymm1, %ymm1 vmovapd %ymm1, 25664(%rbx) vmovapd 13312(%rbx), %ymm1 vmulpd %ymm0, %ymm1, %ymm1 vmovapd %ymm1, 21504(%rbx) vmovapd 13280(%rbx), %ymm1 vsubpd 22400(%rbx), %ymm1, %ymm1 vmovapd %ymm1, 26560(%rbx) vmovapd 24704(%rbx), %ymm1 vmulpd 26752(%rbx), %ymm1, %ymm1 vmovapd %ymm1, 21472(%rbx) vmovapd 13408(%rbx), %ymm1 vsubpd 22528(%rbx), %ymm1, %ymm1 vmovapd %ymm1, 26752(%rbx) vmovapd 20544(%rbx), %ymm1 vmulpd %ymm0, %ymm1, %ymm1 vmovapd %ymm1, 21440(%rbx) vmovapd 20512(%rbx), %ymm1 vsubpd 22656(%rbx), %ymm1, %ymm1 vmovapd %ymm1, 22880(%rbx) vmovapd 13472(%rbx), %ymm1 vmulpd %ymm0, %ymm1, %ymm1 vmovapd %ymm1, 20704(%rbx) vmovapd 20640(%rbx), %ymm1 vmulpd %ymm0, %ymm1, %ymm1 vmovapd %ymm1, 20640(%rbx) vmovapd 18336(%rbx), %ymm1 vmulpd %ymm0, %ymm1, %ymm1 vmovapd %ymm1, 20608(%rbx) vmovapd 18400(%rbx), %ymm1 vmulpd %ymm0, %ymm1, %ymm1 vmovapd %ymm1, 20576(%rbx) vmovapd 18304(%rbx), %ymm1 vmulpd %ymm0, %ymm1, %ymm1 vmovapd %ymm1, 20544(%rbx) vmovapd 18368(%rbx), %ymm1 vmulpd %ymm0, %ymm1, %ymm1 vmovapd %ymm1, 20512(%rbx) vmovapd 17856(%rbx), %ymm1 vsubpd 19232(%rbx), %ymm1, %ymm1 vmovapd %ymm1, 22848(%rbx) vmovapd 17888(%rbx), %ymm1 vsubpd 19264(%rbx), %ymm1, %ymm1 vmovapd %ymm1, 22304(%rbx) vmovapd 17920(%rbx), %ymm1 vsubpd 19168(%rbx), %ymm1, %ymm1 vmovapd %ymm1, 22144(%rbx) vmovapd 17952(%rbx), %ymm1 vsubpd 19328(%rbx), %ymm1, %ymm1 vmovapd %ymm1, 23104(%rbx) vmovapd 18176(%rbx), %ymm1 vsubpd 19360(%rbx), %ymm1, %ymm1 vmovapd %ymm1, 22816(%rbx) vmovapd 18208(%rbx), %ymm1 vsubpd 19200(%rbx), %ymm1, %ymm1 vmovapd %ymm1, 22528(%rbx) vmovapd 18240(%rbx), %ymm1 vsubpd 19296(%rbx), %ymm1, %ymm1 vmovapd %ymm1, 24416(%rbx) vmovapd 18272(%rbx), %ymm1 vsubpd 19392(%rbx), %ymm1, %ymm1 vmovapd %ymm1, 23072(%rbx) vmovapd 13664(%rbx), %ymm1 vmulpd %ymm0, %ymm1, %ymm1 vmovapd %ymm1, 20448(%rbx) vmovapd 13632(%rbx), %ymm1 vsubpd 24064(%rbx), %ymm1, %ymm1 vmovapd %ymm1, 20480(%rbx) vmovapd 20256(%rbx), %ymm1 vmulpd %ymm0, %ymm1, %ymm1 vmovapd %ymm1, 20384(%rbx) vmovapd 13696(%rbx), %ymm1 vsubpd 23360(%rbx), %ymm1, %ymm1 vmovapd %ymm1, 22240(%rbx) vmovapd 24448(%rbx), %ymm1 vmulpd 32288(%rbx), %ymm1, %ymm1 vmovapd %ymm1, 24448(%rbx) vmovapd 24480(%rbx), %ymm1 vmulpd 26624(%rbx), %ymm1, %ymm1 vmovapd %ymm1, 24704(%rbx) vmovapd 13728(%rbx), %ymm1 vmulpd %ymm0, %ymm1, %ymm1 vmovapd %ymm1, 22656(%rbx) vmovapd 21824(%rbx), %ymm1 vmulpd %ymm0, %ymm1, %ymm1 vmovapd %ymm1, 22400(%rbx) vmovapd 20352(%rbx), %ymm1 vmulpd %ymm0, %ymm1, %ymm1 vmovapd %ymm1, 22720(%rbx) vmovapd 17088(%rbx), %ymm1 vmulpd %ymm0, %ymm1, %ymm1 vmovapd %ymm1, 23360(%rbx) vmovapd 16928(%rbx), %ymm1 vmulpd %ymm0, %ymm1, %ymm1 vmovapd %ymm1, 24480(%rbx) vmovapd 20896(%rbx), %ymm1 vmulpd %ymm0, %ymm1, %ymm1 vmovapd %ymm1, 26624(%rbx) vmovapd 22272(%rbx), %ymm1 vmulpd %ymm0, %ymm1, %ymm1 vmovapd %ymm1, 21536(%rbx) vmovapd 22368(%rbx), %ymm1 vmulpd %ymm0, %ymm1, %ymm1 vmovapd %ymm1, 22368(%rbx) vmovapd 20864(%rbx), %ymm1 vmulpd %ymm0, %ymm1, %ymm1 vmovapd %ymm1, 21824(%rbx) vmovapd 17216(%rbx), %ymm1 vmulpd %ymm0, %ymm1, %ymm1 vmovapd %ymm1, 22752(%rbx) vmovapd 16896(%rbx), %ymm1 vmulpd %ymm0, %ymm1, %ymm1 vmovapd %ymm1, 22272(%rbx) vmovapd 21888(%rbx), %ymm1 vmulpd %ymm0, %ymm1, %ymm1 vmovapd %ymm1, 24064(%rbx) vmovapd 20288(%rbx), %ymm1 vmovapd 20192(%rbx), %ymm2 vblendvpd %ymm2, 24896(%rbx), %ymm1, %ymm1 vmovapd %ymm1, 19392(%rbx) vmovapd 20160(%rbx), %ymm1 vmovapd 20064(%rbx), %ymm2 vblendvpd %ymm2, 24768(%rbx), %ymm1, %ymm1 vmovapd %ymm1, 19360(%rbx) vmovapd 19808(%rbx), %ymm1 vsubpd 22784(%rbx), %ymm1, %ymm1 vmovapd %ymm1, 24896(%rbx) vmovapd 20128(%rbx), %ymm1 vmulpd %ymm0, %ymm1, %ymm1 vmovapd %ymm1, 20896(%rbx) vmovapd 19840(%rbx), %ymm1 vsubpd 21088(%rbx), %ymm1, %ymm1 vmovapd %ymm1, 22784(%rbx) vmovapd 20096(%rbx), %ymm1 vmulpd %ymm0, %ymm1, %ymm1 vmovapd %ymm1, 20864(%rbx) vmovapd 19872(%rbx), %ymm1 vsubpd 21920(%rbx), %ymm1, %ymm1 vmovapd %ymm1, 23040(%rbx) vmovapd 20416(%rbx), %ymm1 vmulpd %ymm0, %ymm1, %ymm1 vmovapd %ymm1, 20416(%rbx) vmovapd 20000(%rbx), %ymm1 vsubpd 22336(%rbx), %ymm1, %ymm1 vmovapd %ymm1, 24768(%rbx) vmovapd 22976(%rbx), %ymm1 vsubpd 21792(%rbx), %ymm1, %ymm1 vmovapd %ymm1, 22976(%rbx) vmovapd 19968(%rbx), %ymm1 vsubpd 22592(%rbx), %ymm1, %ymm1 vmovapd %ymm1, 22592(%rbx) vmovapd 19936(%rbx), %ymm1 vmulpd %ymm0, %ymm1, %ymm1 vmovapd %ymm1, 20352(%rbx) vmovapd 19904(%rbx), %ymm1 vmulpd %ymm0, %ymm1, %ymm1 vmovapd %ymm1, 20288(%rbx) vmovapd 24672(%rbx), %ymm1 vmulpd 32928(%rbx), %ymm1, %ymm1 vmovapd %ymm1, 20256(%rbx) vmovapd 20032(%rbx), %ymm1 vsubpd 23200(%rbx), %ymm1, %ymm1 vmovapd %ymm1, 24672(%rbx) vmovapd 24640(%rbx), %ymm1 vmulpd 31872(%rbx), %ymm1, %ymm1 vmovapd %ymm1, 20192(%rbx) vmovapd 21152(%rbx), %ymm1 vmulpd %ymm0, %ymm1, %ymm1 vmovapd %ymm1, 20160(%rbx) vmovapd 20224(%rbx), %ymm1 vsubpd 22912(%rbx), %ymm1, %ymm1 vmovapd %ymm1, 24640(%rbx) vmovapd 16192(%rbx), %ymm1 vmulpd %ymm0, %ymm1, %ymm1 vmovapd %ymm1, 20224(%rbx) vmovapd 16128(%rbx), %ymm1 vmulpd %ymm0, %ymm1, %ymm1 vmovapd %ymm1, 20128(%rbx) vmovapd 16160(%rbx), %ymm1 vmulpd %ymm0, %ymm1, %ymm1 vmovapd %ymm1, 20096(%rbx) vmovapd 16224(%rbx), %ymm1 vmulpd %ymm0, %ymm1, %ymm1 vmovapd %ymm1, 20064(%rbx) vmovapd 15872(%rbx), %ymm1 vsubpd 17056(%rbx), %ymm1, %ymm1 vmovapd %ymm1, 21792(%rbx) vmovapd 15904(%rbx), %ymm1 vsubpd 16960(%rbx), %ymm1, %ymm1 vmovapd %ymm1, 21088(%rbx) vmovapd 15936(%rbx), %ymm1 vsubpd 17120(%rbx), %ymm1, %ymm1 vmovapd %ymm1, 23200(%rbx) vmovapd 15968(%rbx), %ymm1 vsubpd 17024(%rbx), %ymm1, %ymm1 vmovapd %ymm1, 22336(%rbx) vmovapd 16000(%rbx), %ymm1 vsubpd 16992(%rbx), %ymm1, %ymm1 vmovapd %ymm1, 21888(%rbx) vmovapd 16032(%rbx), %ymm1 vsubpd 17184(%rbx), %ymm1, %ymm1 vmovapd %ymm1, 21152(%rbx) vmovapd 16064(%rbx), %ymm1 vsubpd 17152(%rbx), %ymm1, %ymm1 vmovapd %ymm1, 22912(%rbx) vmovapd 16096(%rbx), %ymm1 vsubpd 17248(%rbx), %ymm1, %ymm1 vmovapd %ymm1, 21920(%rbx) vmovapd 21408(%rbx), %ymm1 vmulpd %ymm0, %ymm1, %ymm1 vmovapd %ymm1, 20000(%rbx) vmovapd 21376(%rbx), %ymm1 vsubpd 26272(%rbx), %ymm1, %ymm1 vmovapd %ymm1, 20032(%rbx) vmovapd 22048(%rbx), %ymm1 vmulpd %ymm0, %ymm1, %ymm1 vmovapd %ymm1, 19968(%rbx) vmovapd 21856(%rbx), %ymm1 vsubpd 24544(%rbx), %ymm1, %ymm1 vmovapd %ymm1, 21408(%rbx) vmovapd 24384(%rbx), %ymm1 vmulpd 26432(%rbx), %ymm1, %ymm1 vmovapd %ymm1, 22048(%rbx) vmovapd 24352(%rbx), %ymm1 vmulpd 26464(%rbx), %ymm1, %ymm1 vmovapd %ymm1, 24544(%rbx) vmovapd 22080(%rbx), %ymm1 vmulpd %ymm0, %ymm1, %ymm1 vmovapd %ymm1, 22080(%rbx) vmovapd 22208(%rbx), %ymm1 vmulpd %ymm0, %ymm1, %ymm1 vmovapd %ymm1, 21856(%rbx) vmovapd 21280(%rbx), %ymm1 vmulpd %ymm0, %ymm1, %ymm1 vmovapd %ymm1, 22208(%rbx) vmovapd 20992(%rbx), %ymm1 vmulpd %ymm0, %ymm1, %ymm1 vmovapd %ymm1, 24352(%rbx) vmovapd 15296(%rbx), %ymm1 vmulpd %ymm0, %ymm1, %ymm1 vmovapd %ymm1, 26272(%rbx) vmovapd 15200(%rbx), %ymm1 vmulpd %ymm0, %ymm1, %ymm1 vmovapd %ymm1, 26464(%rbx) vmovapd 15072(%rbx), %ymm1 vmulpd %ymm0, %ymm1, %ymm1 vmovapd %ymm1, 24384(%rbx) vmovapd 22496(%rbx), %ymm1 vmulpd %ymm0, %ymm1, %ymm1 vmovapd %ymm1, 26432(%rbx) vmovapd 22688(%rbx), %ymm1 vmulpd %ymm0, %ymm1, %ymm1 vmovapd %ymm1, 20992(%rbx) vmovapd 23008(%rbx), %ymm1 vmulpd %ymm0, %ymm1, %ymm1 vmovapd %ymm1, 21376(%rbx) vmovapd 22464(%rbx), %ymm1 vmulpd %ymm0, %ymm1, %ymm1 vmovapd %ymm1, 22464(%rbx) vmovapd 15456(%rbx), %ymm1 vmulpd %ymm0, %ymm1, %ymm1 vmovapd %ymm1, 23008(%rbx) vmovapd 15424(%rbx), %ymm1 vmulpd %ymm0, %ymm1, %ymm1 vmovapd %ymm1, 22496(%rbx) vmovapd 15360(%rbx), %ymm1 vmulpd %ymm0, %ymm1, %ymm1 vmovapd %ymm1, 21280(%rbx) vmovapd 15264(%rbx), %ymm1 vmulpd %ymm0, %ymm1, %ymm1 vmovapd %ymm1, 22688(%rbx) vmovapd 23264(%rbx), %ymm1 vmulpd %ymm0, %ymm1, %ymm1 vmovapd %ymm1, 23264(%rbx) vmovapd 22112(%rbx), %ymm1 vmovapd 21344(%rbx), %ymm2 vblendvpd %ymm2, 24800(%rbx), %ymm1, %ymm1 vmovapd %ymm1, 19328(%rbx) vmovapd 21312(%rbx), %ymm1 vmovapd 21248(%rbx), %ymm2 vblendvpd %ymm2, 24736(%rbx), %ymm1, %ymm1 vmovapd %ymm1, 19296(%rbx) vmovapd 24320(%rbx), %ymm1 vmulpd 24000(%rbx), %ymm1, %ymm1 vmovapd %ymm1, 22112(%rbx) vmovapd 20672(%rbx), %ymm1 vsubpd 23296(%rbx), %ymm1, %ymm1 vmovapd %ymm1, 24320(%rbx) vmovapd 21984(%rbx), %ymm1 vmulpd %ymm0, %ymm1, %ymm1 vmovapd %ymm1, 21984(%rbx) vmovapd 21056(%rbx), %ymm1 vsubpd 23136(%rbx), %ymm1, %ymm1 vmovapd %ymm1, 23296(%rbx) vmovapd 21024(%rbx), %ymm1 vsubpd 23328(%rbx), %ymm1, %ymm1 vmovapd %ymm1, 24800(%rbx) vmovapd 20960(%rbx), %ymm1 vsubpd 23168(%rbx), %ymm1, %ymm1 vmovapd %ymm1, 24736(%rbx) vmovapd 20928(%rbx), %ymm1 vsubpd 23904(%rbx), %ymm1, %ymm1 vmovapd %ymm1, 24000(%rbx) vmovapd 22176(%rbx), %ymm1 vmulpd %ymm0, %ymm1, %ymm1 vmovapd %ymm1, 21344(%rbx) vmovapd 21120(%rbx), %ymm1 vsubpd 24032(%rbx), %ymm1, %ymm1 vmovapd %ymm1, 24032(%rbx) vmovapd 22560(%rbx), %ymm1 vmulpd %ymm0, %ymm1, %ymm1 vmovapd %ymm1, 21312(%rbx) vmovapd 21216(%rbx), %ymm1 vmulpd %ymm0, %ymm1, %ymm1 vmovapd %ymm1, 21248(%rbx) vmovapd 21184(%rbx), %ymm1 vsubpd 24224(%rbx), %ymm1, %ymm1 vmovapd %ymm1, 24224(%rbx) vmovapd 24512(%rbx), %ymm1 vmulpd 26336(%rbx), %ymm1, %ymm1 vmovapd %ymm1, 21216(%rbx) vmovapd 22944(%rbx), %ymm1 vmulpd %ymm0, %ymm1, %ymm1 vmovapd %ymm1, 21184(%rbx) vmovapd 22016(%rbx), %ymm1 vsubpd 24192(%rbx), %ymm1, %ymm1 vmovapd %ymm1, 26336(%rbx) vmovapd 21952(%rbx), %ymm1 vmulpd %ymm0, %ymm1, %ymm1 vmovapd %ymm1, 21120(%rbx) vmovapd 22624(%rbx), %ymm1 vmulpd %ymm0, %ymm1, %ymm1 vmovapd %ymm1, 21056(%rbx) vmovapd 19552(%rbx), %ymm1 vmulpd %ymm0, %ymm1, %ymm1 vmovapd %ymm1, 21024(%rbx) vmovapd 19648(%rbx), %ymm1 vmulpd %ymm0, %ymm1, %ymm1 vmovapd %ymm1, 20960(%rbx) vmovapd 19712(%rbx), %ymm1 vmulpd %ymm0, %ymm1, %ymm1 vmovapd %ymm1, 20928(%rbx) vmovapd 19584(%rbx), %ymm1 vmulpd %ymm0, %ymm1, %ymm1 vmovapd %ymm1, 20672(%rbx) vmovapd 19744(%rbx), %ymm1 vmulpd %ymm0, %ymm1, %ymm1 vmovapd %ymm1, 19936(%rbx) vmovapd 19680(%rbx), %ymm1 vmulpd %ymm0, %ymm1, %ymm1 vmovapd %ymm1, 19904(%rbx) vmovapd 19616(%rbx), %ymm1 vmulpd %ymm0, %ymm1, %ymm1 vmovapd %ymm1, 19872(%rbx) vmovapd 14176(%rbx), %ymm1 vsubpd 15104(%rbx), %ymm1, %ymm1 vmovapd %ymm1, 22624(%rbx) vmovapd 14208(%rbx), %ymm1 vsubpd 14976(%rbx), %ymm1, %ymm1 vmovapd %ymm1, 22016(%rbx) vmovapd 14240(%rbx), %ymm1 vsubpd 15136(%rbx), %ymm1, %ymm1 vmovapd %ymm1, 23904(%rbx) vmovapd 14272(%rbx), %ymm1 vsubpd 15040(%rbx), %ymm1, %ymm1 vmovapd %ymm1, 23168(%rbx) vmovapd 14304(%rbx), %ymm1 vsubpd 15008(%rbx), %ymm1, %ymm1 vmovapd %ymm1, 22944(%rbx) vmovapd 14336(%rbx), %ymm1 vsubpd 15232(%rbx), %ymm1, %ymm1 vmovapd %ymm1, 22560(%rbx) vmovapd 14368(%rbx), %ymm1 vsubpd 15168(%rbx), %ymm1, %ymm1 vmovapd %ymm1, 23328(%rbx) vmovapd 14400(%rbx), %ymm1 vsubpd 15328(%rbx), %ymm1, %ymm1 vmovapd %ymm1, 23136(%rbx) vmovapd 23488(%rbx), %ymm1 vmulpd %ymm0, %ymm1, %ymm1 vmovapd %ymm1, 19808(%rbx) vmovapd 23456(%rbx), %ymm1 vsubpd 32992(%rbx), %ymm1, %ymm1 vmovapd %ymm1, 19840(%rbx) vmovapd 26848(%rbx), %ymm1 vmulpd %ymm0, %ymm1, %ymm0 vmovapd %ymm0, 19776(%rbx) vmovapd 23968(%rbx), %ymm0 vsubpd 32960(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 23456(%rbx) vmovapd 13792(%rbx), %ymm0 vdivpd 18880(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 32992(%rbx) vmovapd 13760(%rbx), %ymm0 vdivpd 18848(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 32960(%rbx) leal 336(%rcx,%rsi), %eax movslq %eax, %rax vmovupd 33056(%rbx,%rax,8), %xmm7 vmovupd 33024(%rbx,%rax,8), %xmm11 movq 32096(%rbx), %rdx vmovupd 33056(%rbx,%rdx,8), %xmm6 movq 20736(%rbx), %rdi vmovupd 33056(%rbx,%rdi,8), %xmm5 vmovupd 33024(%rbx,%rdx,8), %xmm2 vmovupd 33040(%rbx,%rax,8), %xmm4 vmovupd 33072(%rbx,%rax,8), %xmm0 vmovupd 33024(%rbx,%rdi,8), %xmm3 vmovupd 33040(%rbx,%rdi,8), %xmm1 vinsertf128 $1, %xmm0, %ymm7, %ymm15 vmovupd 33040(%rbx,%rdx,8), %xmm7 vinsertf128 $1, %xmm4, %ymm11, %ymm0 vinsertf128 $1, 33072(%rbx,%rdx,8), %ymm6, %ymm14 vinsertf128 $1, 33072(%rbx,%rdi,8), %ymm5, %ymm6 vmovapd %ymm6, 32384(%rbx) vinsertf128 $1, %xmm7, %ymm2, %ymm11 vinsertf128 $1, %xmm1, %ymm3, %ymm4 vmovapd %ymm4, 32288(%rbx) vmovdqa 32896(%rbx), %ymm1 vpshufd $8, %xmm1, %xmm1 vmovaps 32864(%rbx), %xmm2 vmovlhps %xmm2, %xmm1, %xmm2 vmovdqa 32352(%rbx), %ymm1 vpshufd $8, %xmm1, %xmm1 vmovaps 32320(%rbx), %xmm3 vmovlhps %xmm3, %xmm1, %xmm3 vsubpd %ymm4, %ymm0, %ymm1 vsubpd %ymm11, %ymm4, %ymm4 vsubpd %ymm6, %ymm15, %ymm5 vsubpd %ymm14, %ymm6, %ymm6 vmovapd .LCPI1_24(%rip), %ymm7 vmulpd %ymm7, %ymm6, %ymm10 vmulpd %ymm7, %ymm5, %ymm6 vmovapd %ymm6, 32352(%rbx) vmulpd %ymm7, %ymm4, %ymm8 vmulpd %ymm7, %ymm1, %ymm13 vmovdqa .LCPI1_21(%rip), %xmm5 vpshufb %xmm5, %xmm3, %xmm1 vmovdqa .LCPI1_20(%rip), %xmm3 vpshufb %xmm3, %xmm2, %xmm2 vpor %xmm2, %xmm1, %xmm2 vmulpd %ymm6, %ymm10, %ymm1 vxorpd %ymm4, %ymm4, %ymm4 vcmpnlepd %ymm4, %ymm1, %ymm12 vextractf128 $1, %ymm12, %xmm1 vpshufd $8, %xmm1, %xmm6 vmovdqa %xmm6, 32928(%rbx) vpshufd $8, %xmm12, %xmm1 vmovlhps %xmm6, %xmm1, %xmm1 vpshufb %xmm3, %xmm1, %xmm3 vmulpd %ymm13, %ymm8, %ymm1 vmovapd %ymm8, %ymm7 vcmpnlepd %ymm4, %ymm1, %ymm4 vmovapd %ymm4, 32896(%rbx) vextractf128 $1, %ymm4, %xmm1 vpshufd $8, %xmm1, %xmm6 vmovdqa %xmm6, 32864(%rbx) vpshufd $8, %xmm4, %xmm1 vmovlhps %xmm6, %xmm1, %xmm1 vpshufb %xmm5, %xmm1, %xmm1 vpor %xmm3, %xmm1, %xmm3 vpsllw $15, %xmm2, %xmm1 vpsraw $15, %xmm1, %xmm1 vpunpckhbw %xmm0, %xmm1, %xmm2 vpslld $31, %xmm2, %xmm2 vmovdqa %xmm2, 26848(%rbx) vpmovsxdq %xmm2, %xmm2 vmovdqa %ymm2, 31872(%rbx) vpxor .LCPI1_17(%rip), %xmm3, %xmm2 vpunpcklbw %xmm0, %xmm1, %xmm1 vpslld $31, %xmm1, %xmm3 vmovdqa %xmm3, 26816(%rbx) vpmovzxwd %xmm2, %xmm1 vpslld $31, %xmm1, %xmm1 vpsrad $31, %xmm1, %xmm1 vpunpckhwd %xmm0, %xmm2, %xmm2 vpslld $31, %xmm2, %xmm2 vpsrad $31, %xmm2, %xmm2 vinsertf128 $1, %xmm2, %ymm1, %ymm1 vpmovsxdq %xmm3, %xmm2 vmovdqa %ymm2, 23488(%rbx) vmovdqa 7008(%rbx), %ymm2 vptest %ymm2, %ymm1 vmovapd 7040(%rbx), %ymm1 vmovapd %ymm1, %ymm2 vmovapd %ymm1, %ymm3 movabsq $-9223372036854775808, %r8 movq 25472(%rbx), %r9 movq 25136(%rbx), %r14 movq 25120(%rbx), %r15 jb .LBB1_3600 vsubpd %ymm11, %ymm0, %ymm0 vsubpd %ymm14, %ymm15, %ymm1 vmovapd .LCPI1_28(%rip), %ymm2 vmulpd %ymm2, %ymm1, %ymm1 vmovapd %ymm1, 32096(%rbx) vmulpd %ymm2, %ymm0, %ymm3 vmovapd %ymm3, 32320(%rbx) vmovapd .LCPI1_56(%rip), %ymm4 vandpd %ymm4, %ymm1, %ymm0 vandpd %ymm4, %ymm10, %ymm6 vcmpltpd %ymm0, %ymm6, %ymm1 vextractf128 $1, %ymm1, %xmm2 vpshufd $8, %xmm2, %xmm2 vpshufd $8, %xmm1, %xmm1 vmovdqa %ymm12, %ymm5 vandpd %ymm4, %ymm3, %ymm12 vmovlhps %xmm2, %xmm1, %xmm2 vmovapd %ymm7, %ymm15 vandpd %ymm4, %ymm15, %ymm7 vcmpltpd %ymm12, %ymm7, %ymm1 vextractf128 $1, %ymm1, %xmm3 vpshufd $8, %xmm3, %xmm3 vpshufd $8, %xmm1, %xmm1 vmovlhps %xmm3, %xmm1, %xmm11 vmovapd 32352(%rbx), %ymm9 vandpd %ymm4, %ymm9, %ymm14 vcmpltpd %ymm14, %ymm6, %ymm1 vextractf128 $1, %ymm1, %xmm3 vpshufd $8, %xmm3, %xmm3 vpshufd $8, %xmm1, %xmm1 vmovlhps %xmm3, %xmm1, %xmm6 vmovapd %ymm13, %ymm8 vandpd %ymm4, %ymm8, %ymm1 vcmpltpd %ymm1, %ymm7, %ymm3 vextractf128 $1, %ymm3, %xmm4 vpshufd $8, %xmm4, %xmm4 vpshufd $8, %xmm3, %xmm3 vmovlhps %xmm4, %xmm3, %xmm3 vcmpltpd %ymm12, %ymm1, %ymm7 vmovdqa %ymm5, %ymm12 vmovdqa .LCPI1_21(%rip), %xmm4 vpshufb %xmm4, %xmm3, %xmm1 vmovdqa .LCPI1_20(%rip), %xmm5 vpshufb %xmm5, %xmm6, %xmm3 vpor %xmm3, %xmm1, %xmm6 vpshufb %xmm4, %xmm11, %xmm1 vpshufb %xmm5, %xmm2, %xmm2 vpor %xmm2, %xmm1, %xmm3 vextractf128 $1, %ymm7, %xmm1 vpshufd $8, %xmm1, %xmm1 vpshufd $8, %xmm7, %xmm2 vmovlhps %xmm1, %xmm2, %xmm2 vmovdqa 32896(%rbx), %ymm1 vpshufd $8, %xmm1, %xmm1 vmovaps 32864(%rbx), %xmm7 vmovlhps %xmm7, %xmm1, %xmm11 vcmpltpd %ymm0, %ymm14, %ymm7 vpsllw $15, %xmm3, %xmm0 vpsraw $15, %xmm0, %xmm0 vmovdqa .LCPI1_17(%rip), %xmm3 vpxor %xmm3, %xmm0, %xmm0 vpsllw $15, %xmm6, %xmm1 vpsraw $15, %xmm1, %xmm1 vpxor %xmm3, %xmm1, %xmm1 vpor %xmm0, %xmm1, %xmm0 vextractf128 $1, %ymm7, %xmm1 vpshufd $8, %xmm1, %xmm1 vpshufd $8, %xmm7, %xmm3 vmovlhps %xmm1, %xmm3, %xmm6 vpshufb %xmm4, %xmm2, %xmm2 vpshufb %xmm4, %xmm11, %xmm1 vpshufd $8, %xmm12, %xmm3 vmovaps 32928(%rbx), %xmm4 vmovlhps %xmm4, %xmm3, %xmm3 vpshufb %xmm5, %xmm3, %xmm3 vpor %xmm3, %xmm1, %xmm1 vpsllw $15, %xmm1, %xmm1 vpsraw $15, %xmm1, %xmm1 vpand %xmm0, %xmm1, %xmm0 vpshufb %xmm5, %xmm6, %xmm1 vpunpckhbw %xmm0, %xmm0, %xmm3 vpor %xmm1, %xmm2, %xmm2 vpslld $31, %xmm3, %xmm1 vpsllw $15, %xmm2, %xmm2 vpsraw $15, %xmm2, %xmm2 vpmovsxdq %xmm1, %xmm3 vmovhlps %xmm1, %xmm1, %xmm1 vpmovsxdq %xmm1, %xmm1 vinsertf128 $1, %xmm1, %ymm3, %ymm5 vpunpckhbw %xmm0, %xmm2, %xmm1 vpslld $31, %xmm1, %xmm3 vpmovsxdq %xmm3, %xmm1 vmovhlps %xmm3, %xmm3, %xmm3 vpmovsxdq %xmm3, %xmm3 vinsertf128 $1, %xmm3, %ymm1, %ymm3 vpunpcklbw %xmm0, %xmm0, %xmm0 vpslld $31, %xmm0, %xmm1 vpmovsxdq %xmm1, %xmm0 vmovhlps %xmm1, %xmm1, %xmm1 vpmovsxdq %xmm1, %xmm1 vpunpcklbw %xmm0, %xmm2, %xmm2 vmovapd 32096(%rbx), %ymm4 vblendvpd %ymm3, %ymm9, %ymm4, %ymm3 vblendvpd %ymm5, %ymm3, %ymm10, %ymm3 vmovapd .LCPI1_77(%rip), %ymm4 vmulpd %ymm4, %ymm3, %ymm3 vinsertf128 $1, %xmm1, %ymm0, %ymm0 vpslld $31, %xmm2, %xmm2 vpmovsxdq %xmm2, %xmm1 vmovhlps %xmm2, %xmm2, %xmm2 vpmovsxdq %xmm2, %xmm2 vinsertf128 $1, %xmm2, %ymm1, %ymm1 vmovapd 32320(%rbx), %ymm2 vblendvpd %ymm1, %ymm8, %ymm2, %ymm1 vblendvpd %ymm0, %ymm1, %ymm15, %ymm0 vmulpd %ymm4, %ymm0, %ymm2 .LBB1_3600: vmovapd %ymm2, 32096(%rbx) vmovapd %ymm3, 32320(%rbx) vmovapd 24160(%rbx), %ymm0 vaddpd 21632(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 24512(%rbx) vmovapd 23232(%rbx), %ymm0 vaddpd 21600(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 23968(%rbx) vmovapd 24576(%rbx), %ymm0 vaddpd 21568(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 24576(%rbx) vmovapd 24128(%rbx), %ymm0 vaddpd 21504(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 24192(%rbx) vmovapd 24608(%rbx), %ymm0 vaddpd 21472(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 24608(%rbx) vmovapd 23392(%rbx), %ymm0 vaddpd 21440(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 22176(%rbx) vmovapd 23424(%rbx), %ymm0 vaddpd 20704(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 24160(%rbx) vmovapd 26112(%rbx), %ymm0 vaddpd 20640(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 26112(%rbx) vmovapd 23936(%rbx), %ymm0 vaddpd 20608(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 23936(%rbx) vmovapd 26144(%rbx), %ymm0 vaddpd 20576(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 23232(%rbx) vmovapd 24096(%rbx), %ymm0 vaddpd 20544(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 26144(%rbx) vmovapd 26240(%rbx), %ymm0 vaddpd 20512(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 24128(%rbx) vmovapd 19456(%rbx), %ymm0 vaddpd 18784(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 21952(%rbx) vmovapd 19424(%rbx), %ymm0 vaddpd 18816(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 23392(%rbx) vmovapd 19488(%rbx), %ymm0 vaddpd 18912(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 26240(%rbx) vmovapd 19520(%rbx), %ymm0 vaddpd 18944(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 24096(%rbx) vmovapd 26688(%rbx), %ymm0 vaddpd 20448(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 21632(%rbx) vmovapd 26048(%rbx), %ymm0 vaddpd 20384(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 26688(%rbx) vmovapd 26720(%rbx), %ymm1 vmulpd 22880(%rbx), %ymm1, %ymm0 vmovapd %ymm0, 22880(%rbx) vmovapd 26784(%rbx), %ymm0 vmulpd 20480(%rbx), %ymm0, %ymm2 vmovapd %ymm2, 21600(%rbx) vmulpd 26080(%rbx), %ymm1, %ymm2 vmovapd %ymm2, 21568(%rbx) vmulpd 26208(%rbx), %ymm1, %ymm2 vmovapd %ymm2, 21504(%rbx) vmulpd 22144(%rbx), %ymm1, %ymm2 vmovapd %ymm2, 22144(%rbx) vmulpd 22304(%rbx), %ymm0, %ymm2 vmovapd %ymm2, 22304(%rbx) vmulpd 26656(%rbx), %ymm0, %ymm2 vmovapd %ymm2, 21472(%rbx) vmulpd 22848(%rbx), %ymm1, %ymm2 vmovapd %ymm2, 22848(%rbx) vmulpd 25664(%rbx), %ymm1, %ymm2 vmovapd %ymm2, 21440(%rbx) vmulpd 26176(%rbx), %ymm0, %ymm2 vmovapd %ymm2, 20736(%rbx) vmulpd 22528(%rbx), %ymm0, %ymm2 vmovapd %ymm2, 22528(%rbx) vmulpd 22816(%rbx), %ymm0, %ymm2 vmovapd %ymm2, 22816(%rbx) vmulpd 23104(%rbx), %ymm1, %ymm2 vmovapd %ymm2, 20704(%rbx) vmulpd 26560(%rbx), %ymm0, %ymm2 vmovapd %ymm2, 20640(%rbx) vmulpd 22240(%rbx), %ymm1, %ymm2 vmovapd %ymm2, 22240(%rbx) vmulpd 26752(%rbx), %ymm0, %ymm2 vmovapd %ymm2, 26048(%rbx) vmulpd 23072(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 25664(%rbx) vmulpd 24416(%rbx), %ymm1, %ymm0 vmovapd %ymm0, 23072(%rbx) vmovapd 21536(%rbx), %ymm0 vaddpd 20896(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 24416(%rbx) vmovapd 22400(%rbx), %ymm0 vaddpd 20864(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 26656(%rbx) vmovapd 22656(%rbx), %ymm0 vaddpd 20416(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 26752(%rbx) vmovapd 21824(%rbx), %ymm0 vaddpd 20352(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 26208(%rbx) vmovapd 22720(%rbx), %ymm0 vaddpd 20288(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 23104(%rbx) vmovapd 24448(%rbx), %ymm0 vaddpd 20256(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 24448(%rbx) vmovapd 24704(%rbx), %ymm0 vaddpd 20192(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 26784(%rbx) vmovapd 22368(%rbx), %ymm0 vaddpd 20160(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 26560(%rbx) vmovapd 23360(%rbx), %ymm0 vaddpd 20224(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 23360(%rbx) vmovapd 22272(%rbx), %ymm0 vaddpd 20128(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 26176(%rbx) vmovapd 24480(%rbx), %ymm0 vaddpd 20096(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 24704(%rbx) vmovapd 22752(%rbx), %ymm0 vaddpd 20064(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 26720(%rbx) vmovapd 17504(%rbx), %ymm0 vaddpd 16448(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 22720(%rbx) vmovapd 17472(%rbx), %ymm0 vaddpd 16480(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 22752(%rbx) vmovapd 17536(%rbx), %ymm0 vaddpd 16512(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 26080(%rbx) vmovapd 17568(%rbx), %ymm0 vaddpd 16544(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 24480(%rbx) vmovapd 26624(%rbx), %ymm0 vaddpd 20000(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 22656(%rbx) vmovapd 24064(%rbx), %ymm0 vaddpd 19968(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 26624(%rbx) vmovapd 19360(%rbx), %ymm2 vmulpd 20032(%rbx), %ymm2, %ymm0 vmovapd %ymm0, 22400(%rbx) vmovapd 19392(%rbx), %ymm1 vmulpd 22784(%rbx), %ymm1, %ymm0 vmovapd %ymm0, 22368(%rbx) vmulpd 24896(%rbx), %ymm1, %ymm0 vmovapd %ymm0, 22272(%rbx) vmulpd 21088(%rbx), %ymm1, %ymm0 vmovapd %ymm0, 21824(%rbx) vmulpd 21792(%rbx), %ymm2, %ymm0 vmovapd %ymm0, 21792(%rbx) vmulpd 23040(%rbx), %ymm2, %ymm0 vmovapd %ymm0, 21536(%rbx) vmulpd 22592(%rbx), %ymm2, %ymm0 vmovapd %ymm0, 21088(%rbx) vmulpd 22976(%rbx), %ymm1, %ymm0 vmovapd %ymm0, 20896(%rbx) vmulpd 24768(%rbx), %ymm2, %ymm0 vmovapd %ymm0, 20864(%rbx) vmulpd 21152(%rbx), %ymm2, %ymm0 vmovapd %ymm0, 22784(%rbx) vmulpd 21888(%rbx), %ymm2, %ymm0 vmovapd %ymm0, 21888(%rbx) vmulpd 24672(%rbx), %ymm2, %ymm0 vmovapd %ymm0, 24064(%rbx) vmulpd 22336(%rbx), %ymm2, %ymm0 vmovapd %ymm0, 23040(%rbx) vmulpd 23200(%rbx), %ymm1, %ymm0 vmovapd %ymm0, 21152(%rbx) vmulpd 24640(%rbx), %ymm1, %ymm0 vmovapd %ymm0, 20608(%rbx) vmulpd 21408(%rbx), %ymm1, %ymm0 vmovapd %ymm0, 21408(%rbx) vmulpd 21920(%rbx), %ymm1, %ymm0 vmovapd %ymm0, 22592(%rbx) vmulpd 22912(%rbx), %ymm1, %ymm0 vmovapd %ymm0, 21920(%rbx) vmovapd 22048(%rbx), %ymm0 vaddpd 22112(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 22976(%rbx) vmovapd 20992(%rbx), %ymm0 vaddpd 21984(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 22336(%rbx) vmovapd 21856(%rbx), %ymm0 vaddpd 21344(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 23200(%rbx) vmovapd 22080(%rbx), %ymm0 vaddpd 21312(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 24768(%rbx) vmovapd 22208(%rbx), %ymm0 vaddpd 21248(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 22912(%rbx) vmovapd 24544(%rbx), %ymm0 vaddpd 21216(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 24896(%rbx) vmovapd 21376(%rbx), %ymm0 vaddpd 21184(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 24544(%rbx) vmovapd 22464(%rbx), %ymm0 vaddpd 21120(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 24672(%rbx) vmovapd 24352(%rbx), %ymm0 vaddpd 21056(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 22208(%rbx) vmovapd 21280(%rbx), %ymm0 vaddpd 21024(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 22112(%rbx) vmovapd 22496(%rbx), %ymm0 vaddpd 20960(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 24352(%rbx) vmovapd 26272(%rbx), %ymm0 vaddpd 20928(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 22496(%rbx) vmovapd 24384(%rbx), %ymm0 vaddpd 20672(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 22464(%rbx) vmovapd 23008(%rbx), %ymm0 vaddpd 19936(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 24640(%rbx) vmovapd 26464(%rbx), %ymm0 vaddpd 19904(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 26464(%rbx) vmovapd 22688(%rbx), %ymm0 vaddpd 19872(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 24384(%rbx) vmovapd 26432(%rbx), %ymm0 vaddpd 19808(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 26272(%rbx) vmovapd 23264(%rbx), %ymm0 vaddpd 19776(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 23264(%rbx) vmovapd 19296(%rbx), %ymm2 vmulpd 19840(%rbx), %ymm2, %ymm0 vmovapd %ymm0, 21856(%rbx) vmovapd 19328(%rbx), %ymm1 vmulpd 23296(%rbx), %ymm1, %ymm0 vmovapd %ymm0, 21376(%rbx) vmulpd 24320(%rbx), %ymm1, %ymm0 vmovapd %ymm0, 21344(%rbx) vmulpd 22016(%rbx), %ymm1, %ymm0 vmovapd %ymm0, 21312(%rbx) vmulpd 22624(%rbx), %ymm2, %ymm0 vmovapd %ymm0, 21280(%rbx) vmulpd 24032(%rbx), %ymm2, %ymm0 vmovapd %ymm0, 21248(%rbx) vmulpd 24000(%rbx), %ymm2, %ymm0 vmovapd %ymm0, 21216(%rbx) vmulpd 24736(%rbx), %ymm1, %ymm0 vmovapd %ymm0, 21184(%rbx) vmulpd 24800(%rbx), %ymm2, %ymm0 vmovapd %ymm0, 21120(%rbx) vmulpd 22560(%rbx), %ymm2, %ymm0 vmovapd %ymm0, 22688(%rbx) vmulpd 22944(%rbx), %ymm2, %ymm0 vmovapd %ymm0, 21056(%rbx) vmulpd 24224(%rbx), %ymm2, %ymm0 vmovapd %ymm0, 22944(%rbx) vmulpd 23168(%rbx), %ymm2, %ymm0 vmovapd %ymm0, 22560(%rbx) vmulpd 23904(%rbx), %ymm1, %ymm0 vmovapd %ymm0, 21024(%rbx) vmulpd 26336(%rbx), %ymm1, %ymm0 vmovapd %ymm0, 20992(%rbx) vmulpd 23456(%rbx), %ymm1, %ymm0 vmovapd %ymm0, 20960(%rbx) vmulpd 23136(%rbx), %ymm1, %ymm0 vmovapd %ymm0, 22048(%rbx) vmulpd 23328(%rbx), %ymm1, %ymm0 vmovapd %ymm0, 20928(%rbx) vmovapd 32256(%rbx), %ymm0 vdivpd 32992(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 22016(%rbx) vmovapd 31136(%rbx), %ymm0 vdivpd 32960(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 23136(%rbx) vmovapd .LCPI1_27(%rip), %ymm0 vmovapd 18848(%rbx), %ymm1 vdivpd %ymm0, %ymm1, %ymm1 vmovapd %ymm1, 22080(%rbx) vmovapd 18880(%rbx), %ymm1 vdivpd %ymm0, %ymm1, %ymm0 vmovapd %ymm0, 21984(%rbx) leal 480(%rcx,%rsi), %eax movslq %eax, %rax vmovupd 33056(%rbx,%rax,8), %xmm4 vmovupd 33024(%rbx,%rax,8), %xmm3 movq 32416(%rbx), %rdi vmovupd 33056(%rbx,%rdi,8), %xmm2 movq 20768(%rbx), %rdx vmovupd 33056(%rbx,%rdx,8), %xmm1 vmovupd 33024(%rbx,%rdi,8), %xmm8 vmovupd 33040(%rbx,%rax,8), %xmm5 vmovupd 33072(%rbx,%rax,8), %xmm0 vmovupd 33024(%rbx,%rdx,8), %xmm7 vmovupd 33040(%rbx,%rdx,8), %xmm6 vinsertf128 $1, %xmm0, %ymm4, %ymm13 vmovupd 33040(%rbx,%rdi,8), %xmm0 vinsertf128 $1, %xmm5, %ymm3, %ymm5 vinsertf128 $1, 33072(%rbx,%rdi,8), %ymm2, %ymm9 vinsertf128 $1, 33072(%rbx,%rdx,8), %ymm1, %ymm10 vmovapd %ymm10, 32416(%rbx) vinsertf128 $1, %xmm0, %ymm8, %ymm2 vinsertf128 $1, %xmm6, %ymm7, %ymm3 vmovapd %ymm3, 32352(%rbx) vpshufd $8, %xmm12, %xmm0 vmovaps 32928(%rbx), %xmm1 vmovlhps %xmm1, %xmm0, %xmm0 vmovdqa 32896(%rbx), %ymm1 vpshufd $8, %xmm1, %xmm1 vmovaps 32864(%rbx), %xmm6 vmovlhps %xmm6, %xmm1, %xmm1 vsubpd %ymm3, %ymm5, %ymm6 vsubpd %ymm2, %ymm3, %ymm7 vsubpd %ymm10, %ymm13, %ymm3 vsubpd %ymm9, %ymm10, %ymm8 vmovapd .LCPI1_24(%rip), %ymm10 vmulpd %ymm10, %ymm8, %ymm11 vmulpd %ymm10, %ymm3, %ymm4 vmovapd %ymm4, 32256(%rbx) vmulpd %ymm10, %ymm7, %ymm15 vmulpd %ymm10, %ymm6, %ymm12 vmovdqa .LCPI1_21(%rip), %xmm3 vpshufb %xmm3, %xmm1, %xmm1 vmovdqa .LCPI1_20(%rip), %xmm6 vpshufb %xmm6, %xmm0, %xmm0 vpor %xmm0, %xmm1, %xmm1 vmulpd %ymm4, %ymm11, %ymm0 vxorpd %ymm7, %ymm7, %ymm7 vcmpnlepd %ymm7, %ymm0, %ymm10 vextractf128 $1, %ymm10, %xmm0 vpshufd $8, %xmm0, %xmm14 vpshufd $8, %xmm10, %xmm0 vmovlhps %xmm14, %xmm0, %xmm0 vpshufb %xmm6, %xmm0, %xmm0 vmulpd %ymm12, %ymm15, %ymm6 vcmpnlepd %ymm7, %ymm6, %ymm7 vmovapd %ymm7, 32928(%rbx) vextractf128 $1, %ymm7, %xmm6 vpshufd $8, %xmm6, %xmm4 vmovdqa %xmm4, 32896(%rbx) vpshufd $8, %xmm7, %xmm6 vmovlhps %xmm4, %xmm6, %xmm6 vpshufb %xmm3, %xmm6, %xmm6 vpor %xmm0, %xmm6, %xmm0 vpsllw $15, %xmm1, %xmm1 vpsraw $15, %xmm1, %xmm1 vpunpckhbw %xmm0, %xmm1, %xmm6 vpslld $31, %xmm6, %xmm3 vmovdqa %xmm3, 32864(%rbx) vpmovsxdq %xmm3, %xmm3 vmovdqa %ymm3, 23456(%rbx) vpxor .LCPI1_17(%rip), %xmm0, %xmm0 vpunpcklbw %xmm0, %xmm1, %xmm1 vpslld $31, %xmm1, %xmm3 vmovdqa %xmm3, 20768(%rbx) vpmovzxwd %xmm0, %xmm1 vpslld $31, %xmm1, %xmm1 vpsrad $31, %xmm1, %xmm1 vpunpckhwd %xmm0, %xmm0, %xmm0 vpslld $31, %xmm0, %xmm0 vpsrad $31, %xmm0, %xmm0 vinsertf128 $1, %xmm0, %ymm1, %ymm0 vpmovsxdq %xmm3, %xmm1 vmovdqa %ymm1, 23424(%rbx) vmovdqa 6944(%rbx), %ymm1 vptest %ymm1, %ymm0 vmovapd 6976(%rbx), %ymm0 vmovapd %ymm0, %ymm1 vmovapd %ymm0, %ymm8 jb .LBB1_3602 vsubpd %ymm2, %ymm5, %ymm0 vsubpd %ymm9, %ymm13, %ymm1 vmovapd .LCPI1_28(%rip), %ymm2 vmulpd %ymm2, %ymm1, %ymm1 vmovapd %ymm1, 26432(%rbx) vmulpd %ymm2, %ymm0, %ymm4 vmovapd %ymm4, 31136(%rbx) vmovaps %xmm14, %xmm5 vmovapd .LCPI1_56(%rip), %ymm14 vandpd %ymm14, %ymm1, %ymm6 vmovdqa %ymm10, %ymm3 vandpd %ymm14, %ymm11, %ymm10 vcmpltpd %ymm6, %ymm10, %ymm0 vextractf128 $1, %ymm0, %xmm1 vpshufd $8, %xmm1, %xmm2 vpshufd $8, %xmm0, %xmm0 vandpd %ymm14, %ymm4, %ymm1 vmovlhps %xmm2, %xmm0, %xmm7 vandpd %ymm14, %ymm15, %ymm2 vcmpltpd %ymm1, %ymm2, %ymm0 vextractf128 $1, %ymm0, %xmm4 vpshufd $8, %xmm4, %xmm4 vpshufd $8, %xmm0, %xmm0 vmovlhps %xmm4, %xmm0, %xmm8 vmovapd 32256(%rbx), %ymm13 vandpd %ymm14, %ymm13, %ymm9 vcmpltpd %ymm9, %ymm10, %ymm0 vextractf128 $1, %ymm0, %xmm4 vpshufd $8, %xmm4, %xmm4 vpshufd $8, %xmm0, %xmm0 vmovlhps %xmm4, %xmm0, %xmm0 vandpd %ymm14, %ymm12, %ymm10 vmovaps %xmm5, %xmm14 vcmpltpd %ymm10, %ymm2, %ymm2 vextractf128 $1, %ymm2, %xmm4 vpshufd $8, %xmm4, %xmm4 vpshufd $8, %xmm2, %xmm2 vmovlhps %xmm4, %xmm2, %xmm2 vcmpltpd %ymm1, %ymm10, %ymm1 vmovdqa %ymm3, %ymm10 vmovdqa .LCPI1_21(%rip), %xmm3 vpshufb %xmm3, %xmm2, %xmm2 vmovdqa .LCPI1_20(%rip), %xmm5 vpshufb %xmm5, %xmm0, %xmm0 vpor %xmm0, %xmm2, %xmm2 vpshufb %xmm3, %xmm8, %xmm0 vpshufb %xmm5, %xmm7, %xmm4 vpor %xmm4, %xmm0, %xmm0 vextractf128 $1, %ymm1, %xmm4 vpshufd $8, %xmm4, %xmm4 vpshufd $8, %xmm1, %xmm1 vmovlhps %xmm4, %xmm1, %xmm1 vmovdqa 32928(%rbx), %ymm4 vpshufd $8, %xmm4, %xmm4 vmovaps 32896(%rbx), %xmm7 vmovlhps %xmm7, %xmm4, %xmm7 vcmpltpd %ymm6, %ymm9, %ymm6 vpsllw $15, %xmm0, %xmm0 vpsraw $15, %xmm0, %xmm0 vmovdqa .LCPI1_17(%rip), %xmm4 vpxor %xmm4, %xmm0, %xmm0 vpsllw $15, %xmm2, %xmm2 vpsraw $15, %xmm2, %xmm2 vpxor %xmm4, %xmm2, %xmm2 vpor %xmm0, %xmm2, %xmm2 vextractf128 $1, %ymm6, %xmm0 vpshufd $8, %xmm0, %xmm0 vpshufd $8, %xmm6, %xmm4 vmovlhps %xmm0, %xmm4, %xmm0 vpshufb %xmm3, %xmm1, %xmm6 vpshufb %xmm3, %xmm7, %xmm1 vpshufd $8, %xmm10, %xmm4 vmovlhps %xmm14, %xmm4, %xmm4 vpshufb %xmm5, %xmm4, %xmm4 vpor %xmm4, %xmm1, %xmm1 vpsllw $15, %xmm1, %xmm1 vpsraw $15, %xmm1, %xmm1 vpand %xmm2, %xmm1, %xmm1 vpshufb %xmm5, %xmm0, %xmm0 vpunpckhbw %xmm0, %xmm1, %xmm2 vpor %xmm0, %xmm6, %xmm4 vpslld $31, %xmm2, %xmm0 vpsllw $15, %xmm4, %xmm2 vpsraw $15, %xmm2, %xmm6 vpmovsxdq %xmm0, %xmm2 vmovhlps %xmm0, %xmm0, %xmm0 vpmovsxdq %xmm0, %xmm0 vinsertf128 $1, %xmm0, %ymm2, %ymm2 vpunpckhbw %xmm0, %xmm6, %xmm0 vpslld $31, %xmm0, %xmm4 vpmovsxdq %xmm4, %xmm0 vmovhlps %xmm4, %xmm4, %xmm4 vpmovsxdq %xmm4, %xmm4 vinsertf128 $1, %xmm4, %ymm0, %ymm0 vpunpcklbw %xmm0, %xmm1, %xmm1 vpslld $31, %xmm1, %xmm4 vpmovsxdq %xmm4, %xmm1 vmovhlps %xmm4, %xmm4, %xmm4 vpmovsxdq %xmm4, %xmm7 vpunpcklbw %xmm0, %xmm6, %xmm6 vmovapd 26432(%rbx), %ymm3 vblendvpd %ymm0, %ymm13, %ymm3, %ymm0 vblendvpd %ymm2, %ymm0, %ymm11, %ymm0 vmovapd .LCPI1_77(%rip), %ymm3 vmulpd %ymm3, %ymm0, %ymm8 vinsertf128 $1, %xmm7, %ymm1, %ymm0 vpslld $31, %xmm6, %xmm2 vpmovsxdq %xmm2, %xmm1 vmovhlps %xmm2, %xmm2, %xmm2 vpmovsxdq %xmm2, %xmm2 vinsertf128 $1, %xmm2, %ymm1, %ymm1 vmovapd 31136(%rbx), %ymm2 vblendvpd %ymm1, %ymm12, %ymm2, %ymm1 vblendvpd %ymm0, %ymm1, %ymm15, %ymm0 vmulpd %ymm3, %ymm0, %ymm1 .LBB1_3602: vmovapd %ymm1, 18368(%rbx) vmovapd %ymm8, 18400(%rbx) vmovapd 22176(%rbx), %ymm0 vsubpd 22880(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 26336(%rbx) vmovapd 21632(%rbx), %ymm0 vsubpd 21600(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 24032(%rbx) vmovapd 23968(%rbx), %ymm0 vsubpd 21568(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 23296(%rbx) vmovapd 24512(%rbx), %ymm0 vsubpd 21504(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 31136(%rbx) vmovapd 21952(%rbx), %ymm0 vsubpd 22144(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 26432(%rbx) vmovapd 23232(%rbx), %ymm0 vsubpd 22304(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 24736(%rbx) vmovapd 24192(%rbx), %ymm0 vsubpd 21472(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 24512(%rbx) vmovapd 23936(%rbx), %ymm0 vsubpd 22848(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 24000(%rbx) vmovapd 24160(%rbx), %ymm0 vsubpd 21440(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 23008(%rbx) vmovapd 24576(%rbx), %ymm0 vsubpd 20736(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 22624(%rbx) vmovapd 23392(%rbx), %ymm0 vsubpd 22528(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 24800(%rbx) vmovapd 24128(%rbx), %ymm0 vsubpd 22816(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 24320(%rbx) vmovapd 26144(%rbx), %ymm0 vsubpd 20704(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 22880(%rbx) vmovapd 26112(%rbx), %ymm0 vsubpd 20640(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 26112(%rbx) vmovapd 26688(%rbx), %ymm0 vsubpd 22240(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 22304(%rbx) vmovapd 24096(%rbx), %ymm0 vsubpd 23072(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 24224(%rbx) vmovapd 24608(%rbx), %ymm0 vsubpd 26048(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 26048(%rbx) vmovapd 26240(%rbx), %ymm0 vsubpd 25664(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 26240(%rbx) vmovapd 22656(%rbx), %ymm0 vsubpd 22400(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 24192(%rbx) vmovapd 24416(%rbx), %ymm0 vsubpd 22368(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 23968(%rbx) vmovapd 24448(%rbx), %ymm0 vsubpd 22272(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 32256(%rbx) vmovapd 22720(%rbx), %ymm0 vsubpd 21824(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 26688(%rbx) vmovapd 23360(%rbx), %ymm0 vsubpd 21792(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 26144(%rbx) vmovapd 23104(%rbx), %ymm0 vsubpd 21536(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 24608(%rbx) vmovapd 26656(%rbx), %ymm0 vsubpd 21088(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 23936(%rbx) vmovapd 26208(%rbx), %ymm0 vsubpd 20896(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 23104(%rbx) vmovapd 26752(%rbx), %ymm0 vsubpd 20864(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 22720(%rbx) vmovapd 22752(%rbx), %ymm0 vsubpd 21888(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 26752(%rbx) vmovapd 24704(%rbx), %ymm0 vsubpd 22784(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 24704(%rbx) vmovapd 26176(%rbx), %ymm0 vsubpd 21152(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 23072(%rbx) vmovapd 26560(%rbx), %ymm0 vsubpd 20608(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 22784(%rbx) vmovapd 26624(%rbx), %ymm0 vsubpd 21408(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 22656(%rbx) vmovapd 24480(%rbx), %ymm0 vsubpd 21920(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 26624(%rbx) vmovapd 26784(%rbx), %ymm0 vsubpd 24064(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 23168(%rbx) vmovapd 26080(%rbx), %ymm0 vsubpd 23040(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 22848(%rbx) vmovapd 26720(%rbx), %ymm0 vsubpd 22592(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 22592(%rbx) vmovapd 26272(%rbx), %ymm0 vsubpd 21856(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 26560(%rbx) vmovapd 22336(%rbx), %ymm0 vsubpd 21376(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 23904(%rbx) vmovapd 22976(%rbx), %ymm0 vsubpd 21344(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 26080(%rbx) vmovapd 22112(%rbx), %ymm0 vsubpd 21312(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 26272(%rbx) vmovapd 22208(%rbx), %ymm0 vsubpd 21280(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 26208(%rbx) vmovapd 23200(%rbx), %ymm0 vsubpd 21248(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 24576(%rbx) vmovapd 22912(%rbx), %ymm0 vsubpd 21216(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 23328(%rbx) vmovapd 24544(%rbx), %ymm0 vsubpd 21184(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 23040(%rbx) vmovapd 24768(%rbx), %ymm0 vsubpd 21120(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 22752(%rbx) vmovapd 22464(%rbx), %ymm0 vsubpd 21056(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 25664(%rbx) vmovapd 22496(%rbx), %ymm0 vsubpd 22688(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 24544(%rbx) vmovapd 24352(%rbx), %ymm0 vsubpd 21024(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 22976(%rbx) vmovapd 24672(%rbx), %ymm0 vsubpd 20992(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 22688(%rbx) vmovapd 23264(%rbx), %ymm0 vsubpd 20960(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 22528(%rbx) vmovapd 24384(%rbx), %ymm0 vsubpd 20928(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 24672(%rbx) vmovapd 24896(%rbx), %ymm0 vsubpd 22944(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 23264(%rbx) vmovapd 26464(%rbx), %ymm0 vsubpd 22560(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 22816(%rbx) vmovapd 24640(%rbx), %ymm0 vsubpd 22048(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 22560(%rbx) vmovapd 22016(%rbx), %ymm1 vmulpd 26400(%rbx), %ymm1, %ymm0 vmovapd %ymm0, 24160(%rbx) vmulpd 23744(%rbx), %ymm1, %ymm0 vmovapd %ymm0, 23200(%rbx) vmovapd 23136(%rbx), %ymm1 vmulpd 26368(%rbx), %ymm1, %ymm0 vmovapd %ymm0, 24128(%rbx) vmulpd 23680(%rbx), %ymm1, %ymm0 vmovapd %ymm0, 23136(%rbx) vmovapd 21984(%rbx), %ymm0 vmulpd 26592(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 24768(%rbx) vmovapd 22080(%rbx), %ymm0 vmulpd 26528(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 24096(%rbx) vmovapd .LCPI1_24(%rip), %ymm15 vmovapd 32960(%rbx), %ymm0 vmulpd %ymm15, %ymm0, %ymm0 vmovapd %ymm0, 22944(%rbx) vmovapd .LCPI1_32(%rip), %ymm0 vmovapd 26304(%rbx), %ymm1 vmulpd %ymm0, %ymm1, %ymm1 vmovapd %ymm1, 22912(%rbx) vmovapd 26496(%rbx), %ymm1 vmulpd %ymm0, %ymm1, %ymm0 vmovapd %ymm0, 24064(%rbx) vmovapd 32992(%rbx), %ymm0 vmulpd %ymm15, %ymm0, %ymm0 vmovapd %ymm0, 23232(%rbx) vmovaps 31104(%rbx), %xmm0 vmovhlps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 24640(%rbx) vmovaps 26880(%rbx), %xmm0 vmovhlps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 24480(%rbx) vmovaps 26848(%rbx), %xmm0 vmovhlps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 24448(%rbx) vmovaps 26816(%rbx), %xmm0 vmovhlps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 24416(%rbx) vmovaps 32864(%rbx), %xmm0 vmovhlps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 24384(%rbx) vmovaps 20768(%rbx), %xmm0 vmovhlps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 24352(%rbx) leal 624(%rcx,%rsi), %eax movslq %eax, %rax vmovupd 33056(%rbx,%rax,8), %xmm5 vmovupd 33024(%rbx,%rax,8), %xmm4 movq 32448(%rbx), %rdi vmovupd 33056(%rbx,%rdi,8), %xmm3 movq 20800(%rbx), %rdx vmovupd 33056(%rbx,%rdx,8), %xmm2 vmovupd 33024(%rbx,%rdi,8), %xmm8 vmovupd 33040(%rbx,%rax,8), %xmm6 vmovupd 33072(%rbx,%rax,8), %xmm1 vmovupd 33024(%rbx,%rdx,8), %xmm0 vmovupd 33040(%rbx,%rdx,8), %xmm7 vinsertf128 $1, %xmm1, %ymm5, %ymm13 vmovupd 33040(%rbx,%rdi,8), %xmm1 vinsertf128 $1, %xmm6, %ymm4, %ymm9 vinsertf128 $1, 33072(%rbx,%rdi,8), %ymm3, %ymm11 vinsertf128 $1, 33072(%rbx,%rdx,8), %ymm2, %ymm6 vmovapd %ymm6, 32864(%rbx) vinsertf128 $1, %xmm1, %ymm8, %ymm4 vinsertf128 $1, %xmm7, %ymm0, %ymm5 vmovapd %ymm5, 32448(%rbx) vpshufd $8, %xmm10, %xmm0 vmovlhps %xmm14, %xmm0, %xmm1 vmovdqa 32928(%rbx), %ymm0 vpshufd $8, %xmm0, %xmm0 vmovaps 32896(%rbx), %xmm2 vmovlhps %xmm2, %xmm0, %xmm2 vsubpd %ymm5, %ymm9, %ymm3 vsubpd %ymm4, %ymm5, %ymm0 vsubpd %ymm6, %ymm13, %ymm5 vsubpd %ymm11, %ymm6, %ymm6 vmulpd %ymm15, %ymm6, %ymm12 vmulpd %ymm15, %ymm5, %ymm14 vmulpd %ymm15, %ymm0, %ymm8 vmulpd %ymm15, %ymm3, %ymm10 vmovapd %ymm10, 31104(%rbx) vmovdqa .LCPI1_21(%rip), %xmm0 vpshufb %xmm0, %xmm2, %xmm2 vmovdqa .LCPI1_20(%rip), %xmm3 vpshufb %xmm3, %xmm1, %xmm1 vpor %xmm1, %xmm2, %xmm2 vmulpd %ymm14, %ymm12, %ymm1 vxorpd %ymm5, %ymm5, %ymm5 vcmpnlepd %ymm5, %ymm1, %ymm6 vmovapd %ymm6, 32992(%rbx) vextractf128 $1, %ymm6, %xmm1 vpshufd $8, %xmm1, %xmm7 vmovdqa %xmm7, 32960(%rbx) vpshufd $8, %xmm6, %xmm1 vmovlhps %xmm7, %xmm1, %xmm1 vpshufb %xmm3, %xmm1, %xmm3 vmulpd %ymm10, %ymm8, %ymm1 vmovapd %ymm8, %ymm7 vcmpnlepd %ymm5, %ymm1, %ymm5 vmovapd %ymm5, 32928(%rbx) vextractf128 $1, %ymm5, %xmm1 vpshufd $8, %xmm1, %xmm6 vmovdqa %xmm6, 32896(%rbx) vpshufd $8, %xmm5, %xmm1 vmovlhps %xmm6, %xmm1, %xmm1 vpshufb %xmm0, %xmm1, %xmm1 vpor %xmm3, %xmm1, %xmm3 vpsllw $15, %xmm2, %xmm1 vpsraw $15, %xmm1, %xmm2 vpunpckhbw %xmm0, %xmm2, %xmm1 vpslld $31, %xmm1, %xmm1 vpmovsxdq %xmm1, %xmm0 vmovdqa %ymm0, 23392(%rbx) vmovhlps %xmm1, %xmm1, %xmm0 vmovaps %xmm0, 22496(%rbx) vpxor .LCPI1_17(%rip), %xmm3, %xmm1 vpunpcklbw %xmm0, %xmm2, %xmm2 vpslld $31, %xmm2, %xmm2 vpmovzxwd %xmm1, %xmm3 vpslld $31, %xmm3, %xmm3 vpsrad $31, %xmm3, %xmm3 vpunpckhwd %xmm0, %xmm1, %xmm1 vpslld $31, %xmm1, %xmm1 vpsrad $31, %xmm1, %xmm1 vinsertf128 $1, %xmm1, %ymm3, %ymm1 vpmovsxdq %xmm2, %xmm0 vmovdqa %ymm0, 23360(%rbx) vmovhlps %xmm2, %xmm2, %xmm0 vmovaps %xmm0, 22464(%rbx) vmovdqa 6880(%rbx), %ymm0 vptest %ymm0, %ymm1 vmovapd 6912(%rbx), %ymm0 vmovapd %ymm0, %ymm1 vmovapd %ymm0, %ymm6 vmovapd .LCPI1_28(%rip), %ymm10 jb .LBB1_3604 vsubpd %ymm4, %ymm9, %ymm1 vsubpd %ymm11, %ymm13, %ymm2 vmulpd %ymm10, %ymm2, %ymm13 vmulpd %ymm10, %ymm1, %ymm3 vmovapd %ymm3, 26880(%rbx) vmovapd .LCPI1_56(%rip), %ymm0 vandpd %ymm0, %ymm13, %ymm4 vandpd %ymm0, %ymm12, %ymm15 vcmpltpd %ymm4, %ymm15, %ymm1 vextractf128 $1, %ymm1, %xmm2 vpshufd $8, %xmm2, %xmm2 vpshufd $8, %xmm1, %xmm1 vandpd %ymm0, %ymm3, %ymm11 vmovlhps %xmm2, %xmm1, %xmm2 vmovapd %ymm7, %ymm8 vandpd %ymm0, %ymm8, %ymm3 vcmpltpd %ymm11, %ymm3, %ymm1 vextractf128 $1, %ymm1, %xmm5 vpshufd $8, %xmm5, %xmm5 vpshufd $8, %xmm1, %xmm1 vmovlhps %xmm5, %xmm1, %xmm7 vandpd %ymm0, %ymm14, %ymm9 vcmpltpd %ymm9, %ymm15, %ymm1 vextractf128 $1, %ymm1, %xmm5 vpshufd $8, %xmm5, %xmm5 vpshufd $8, %xmm1, %xmm1 vmovlhps %xmm5, %xmm1, %xmm6 vmovapd 31104(%rbx), %ymm15 vandpd %ymm0, %ymm15, %ymm1 vcmpltpd %ymm1, %ymm3, %ymm3 vextractf128 $1, %ymm3, %xmm5 vpshufd $8, %xmm5, %xmm5 vpshufd $8, %xmm3, %xmm3 vmovlhps %xmm5, %xmm3, %xmm3 vcmpltpd %ymm11, %ymm1, %ymm11 vmovdqa .LCPI1_21(%rip), %xmm0 vpshufb %xmm0, %xmm3, %xmm1 vmovdqa .LCPI1_20(%rip), %xmm5 vpshufb %xmm5, %xmm6, %xmm3 vpor %xmm3, %xmm1, %xmm3 vpshufb %xmm0, %xmm7, %xmm1 vpshufb %xmm5, %xmm2, %xmm2 vpor %xmm2, %xmm1, %xmm6 vextractf128 $1, %ymm11, %xmm1 vpshufd $8, %xmm1, %xmm1 vpshufd $8, %xmm11, %xmm2 vmovlhps %xmm1, %xmm2, %xmm2 vmovdqa 32928(%rbx), %ymm1 vpshufd $8, %xmm1, %xmm1 vmovaps 32896(%rbx), %xmm7 vmovlhps %xmm7, %xmm1, %xmm7 vcmpltpd %ymm4, %ymm9, %ymm4 vpsllw $15, %xmm6, %xmm1 vpsraw $15, %xmm1, %xmm1 vmovdqa .LCPI1_17(%rip), %xmm6 vpxor %xmm6, %xmm1, %xmm1 vpsllw $15, %xmm3, %xmm3 vpsraw $15, %xmm3, %xmm3 vpxor %xmm6, %xmm3, %xmm3 vpor %xmm1, %xmm3, %xmm3 vextractf128 $1, %ymm4, %xmm1 vpshufd $8, %xmm1, %xmm1 vpshufd $8, %xmm4, %xmm4 vmovlhps %xmm1, %xmm4, %xmm6 vpshufb %xmm0, %xmm2, %xmm4 vpshufb %xmm0, %xmm7, %xmm1 vmovdqa 32992(%rbx), %ymm0 vpshufd $8, %xmm0, %xmm2 vmovaps 32960(%rbx), %xmm0 vmovlhps %xmm0, %xmm2, %xmm2 vpshufb %xmm5, %xmm2, %xmm2 vpor %xmm2, %xmm1, %xmm1 vpsllw $15, %xmm1, %xmm1 vpsraw $15, %xmm1, %xmm1 vpand %xmm3, %xmm1, %xmm2 vpshufb %xmm5, %xmm6, %xmm1 vpunpckhbw %xmm0, %xmm2, %xmm3 vpor %xmm1, %xmm4, %xmm4 vpslld $31, %xmm3, %xmm1 vpsllw $15, %xmm4, %xmm3 vpsraw $15, %xmm3, %xmm4 vpmovsxdq %xmm1, %xmm3 vmovhlps %xmm1, %xmm1, %xmm1 vpmovsxdq %xmm1, %xmm1 vinsertf128 $1, %xmm1, %ymm3, %ymm3 vpunpckhbw %xmm0, %xmm4, %xmm1 vpslld $31, %xmm1, %xmm5 vpmovsxdq %xmm5, %xmm1 vmovhlps %xmm5, %xmm5, %xmm5 vpmovsxdq %xmm5, %xmm5 vinsertf128 $1, %xmm5, %ymm1, %ymm6 vpunpcklbw %xmm0, %xmm2, %xmm1 vpslld $31, %xmm1, %xmm1 vpmovsxdq %xmm1, %xmm2 vmovhlps %xmm1, %xmm1, %xmm1 vpmovsxdq %xmm1, %xmm1 vpunpcklbw %xmm0, %xmm4, %xmm4 vblendvpd %ymm6, %ymm14, %ymm13, %ymm5 vblendvpd %ymm3, %ymm5, %ymm12, %ymm3 vmovapd .LCPI1_77(%rip), %ymm5 vmulpd %ymm5, %ymm3, %ymm6 vinsertf128 $1, %xmm1, %ymm2, %ymm2 vpslld $31, %xmm4, %xmm3 vpmovsxdq %xmm3, %xmm1 vmovhlps %xmm3, %xmm3, %xmm3 vpmovsxdq %xmm3, %xmm3 vinsertf128 $1, %xmm3, %ymm1, %ymm1 vmovapd 26880(%rbx), %ymm0 vblendvpd %ymm1, %ymm15, %ymm0, %ymm1 vblendvpd %ymm2, %ymm1, %ymm8, %ymm0 vmulpd %ymm5, %ymm0, %ymm1 .LBB1_3604: vmovapd %ymm1, 18304(%rbx) vmovapd %ymm6, 18336(%rbx) vmovapd 22624(%rbx), %ymm0 vmulpd %ymm10, %ymm0, %ymm0 vmovapd %ymm0, 26720(%rbx) vmovapd 23296(%rbx), %ymm0 vmulpd %ymm10, %ymm0, %ymm0 vmovapd %ymm0, 26784(%rbx) vmovapd 24032(%rbx), %ymm0 vmulpd %ymm10, %ymm0, %ymm0 vmovapd %ymm0, 26848(%rbx) vmovapd 22304(%rbx), %ymm0 vmulpd %ymm10, %ymm0, %ymm0 vmovapd %ymm0, 31104(%rbx) vmovapd 26112(%rbx), %ymm0 vmulpd %ymm10, %ymm0, %ymm0 vmovapd %ymm0, 26592(%rbx) vmovapd 26336(%rbx), %ymm0 vmulpd %ymm10, %ymm0, %ymm0 vmovapd %ymm0, 26656(%rbx) vmovapd 23008(%rbx), %ymm0 vmulpd %ymm10, %ymm0, %ymm0 vmovapd %ymm0, 26528(%rbx) vmovapd 24000(%rbx), %ymm0 vmulpd %ymm10, %ymm0, %ymm0 vmovapd %ymm0, 26400(%rbx) vmovapd 24512(%rbx), %ymm0 vmulpd %ymm10, %ymm0, %ymm0 vmovapd %ymm0, 26464(%rbx) vmovapd 22880(%rbx), %ymm0 vmulpd %ymm10, %ymm0, %ymm0 vmovapd %ymm0, 26304(%rbx) vmovapd 24736(%rbx), %ymm0 vmulpd %ymm10, %ymm0, %ymm0 vmovapd %ymm0, 26336(%rbx) vmovapd 26240(%rbx), %ymm0 vmulpd %ymm10, %ymm0, %ymm0 vmovapd %ymm0, 26112(%rbx) vmovapd 26432(%rbx), %ymm0 vmulpd %ymm10, %ymm0, %ymm0 vmovapd %ymm0, 26176(%rbx) vmovapd 24320(%rbx), %ymm0 vmulpd %ymm10, %ymm0, %ymm0 vmovapd %ymm0, 26240(%rbx) vmovapd 26048(%rbx), %ymm0 vmulpd %ymm10, %ymm0, %ymm0 vmovapd %ymm0, 21504(%rbx) vmovapd 31136(%rbx), %ymm0 vmulpd %ymm10, %ymm0, %ymm0 vmovapd %ymm0, 21568(%rbx) vmovapd 24800(%rbx), %ymm0 vmulpd %ymm10, %ymm0, %ymm0 vmovapd %ymm0, 24896(%rbx) vmovapd 24224(%rbx), %ymm0 vmulpd %ymm10, %ymm0, %ymm0 vmovapd %ymm0, 26048(%rbx) vmovapd 22720(%rbx), %ymm0 vmulpd %ymm10, %ymm0, %ymm0 vmovapd %ymm0, 21376(%rbx) vmovapd 23968(%rbx), %ymm0 vmulpd %ymm10, %ymm0, %ymm0 vmovapd %ymm0, 21408(%rbx) vmovapd 24192(%rbx), %ymm0 vmulpd %ymm10, %ymm0, %ymm0 vmovapd %ymm0, 21440(%rbx) vmovapd 22656(%rbx), %ymm0 vmulpd %ymm10, %ymm0, %ymm0 vmovapd %ymm0, 21472(%rbx) vmovapd 22784(%rbx), %ymm0 vmulpd %ymm10, %ymm0, %ymm0 vmovapd %ymm0, 21344(%rbx) vmovapd 23104(%rbx), %ymm0 vmulpd %ymm10, %ymm0, %ymm0 vmovapd %ymm0, 21280(%rbx) vmovapd 23936(%rbx), %ymm0 vmulpd %ymm10, %ymm0, %ymm0 vmovapd %ymm0, 21312(%rbx) vmovapd 22592(%rbx), %ymm0 vmulpd %ymm10, %ymm0, %ymm0 vmovapd %ymm0, 21216(%rbx) vmovapd 24608(%rbx), %ymm0 vmulpd %ymm10, %ymm0, %ymm0 vmovapd %ymm0, 21248(%rbx) vmovapd 23072(%rbx), %ymm0 vmulpd %ymm10, %ymm0, %ymm0 vmovapd %ymm0, 21152(%rbx) vmovapd 26144(%rbx), %ymm0 vmulpd %ymm10, %ymm0, %ymm0 vmovapd %ymm0, 21184(%rbx) vmovapd 22848(%rbx), %ymm0 vmulpd %ymm10, %ymm0, %ymm0 vmovapd %ymm0, 21056(%rbx) vmovapd 26688(%rbx), %ymm0 vmulpd %ymm10, %ymm0, %ymm0 vmovapd %ymm0, 21088(%rbx) vmovapd 24704(%rbx), %ymm0 vmulpd %ymm10, %ymm0, %ymm0 vmovapd %ymm0, 21120(%rbx) vmovapd 23168(%rbx), %ymm0 vmulpd %ymm10, %ymm0, %ymm0 vmovapd %ymm0, 19008(%rbx) vmovapd 32256(%rbx), %ymm0 vmulpd %ymm10, %ymm0, %ymm0 vmovapd %ymm0, 19040(%rbx) vmovapd 26752(%rbx), %ymm0 vmulpd %ymm10, %ymm0, %ymm0 vmovapd %ymm0, 20992(%rbx) vmovapd 26624(%rbx), %ymm0 vmulpd %ymm10, %ymm0, %ymm0 vmovapd %ymm0, 21024(%rbx) vmovapd 22752(%rbx), %ymm0 vmulpd %ymm10, %ymm0, %ymm0 vmovapd %ymm0, 26752(%rbx) vmovapd 23904(%rbx), %ymm0 vmulpd %ymm10, %ymm0, %ymm0 vmovapd %ymm0, 26816(%rbx) vmovapd 26560(%rbx), %ymm0 vmulpd %ymm10, %ymm0, %ymm0 vmovapd %ymm0, 26880(%rbx) vmovapd 22528(%rbx), %ymm0 vmulpd %ymm10, %ymm0, %ymm0 vmovapd %ymm0, 31136(%rbx) vmovapd 22688(%rbx), %ymm0 vmulpd %ymm10, %ymm0, %ymm0 vmovapd %ymm0, 26688(%rbx) vmovapd 23040(%rbx), %ymm0 vmulpd %ymm10, %ymm0, %ymm0 vmovapd %ymm0, 26560(%rbx) vmovapd 23328(%rbx), %ymm0 vmulpd %ymm10, %ymm0, %ymm0 vmovapd %ymm0, 26624(%rbx) vmovapd 22560(%rbx), %ymm0 vmulpd %ymm10, %ymm0, %ymm0 vmovapd %ymm0, 26432(%rbx) vmovapd 24576(%rbx), %ymm0 vmulpd %ymm10, %ymm0, %ymm0 vmovapd %ymm0, 26496(%rbx) vmovapd 22976(%rbx), %ymm0 vmulpd %ymm10, %ymm0, %ymm0 vmovapd %ymm0, 21792(%rbx) vmovapd 26208(%rbx), %ymm0 vmulpd %ymm10, %ymm0, %ymm0 vmovapd %ymm0, 26368(%rbx) vmovapd 22816(%rbx), %ymm0 vmulpd %ymm10, %ymm0, %ymm0 vmovapd %ymm0, 26144(%rbx) vmovapd 26272(%rbx), %ymm0 vmulpd %ymm10, %ymm0, %ymm0 vmovapd %ymm0, 26208(%rbx) vmovapd 24544(%rbx), %ymm0 vmulpd %ymm10, %ymm0, %ymm0 vmovapd %ymm0, 26272(%rbx) vmovapd 23264(%rbx), %ymm0 vmulpd %ymm10, %ymm0, %ymm0 vmovapd %ymm0, 21536(%rbx) vmovapd 26080(%rbx), %ymm0 vmulpd %ymm10, %ymm0, %ymm0 vmovapd %ymm0, 21600(%rbx) vmovapd 25664(%rbx), %ymm0 vmulpd %ymm10, %ymm0, %ymm0 vmovapd %ymm0, 25664(%rbx) vmovapd 24672(%rbx), %ymm0 vmulpd %ymm10, %ymm0, %ymm0 vmovapd %ymm0, 26080(%rbx) vmovapd 24832(%rbx), %ymm0 vmovapd 23200(%rbx), %ymm1 vdivpd %ymm0, %ymm1, %ymm1 vmovapd %ymm1, 23328(%rbx) vmovapd 24160(%rbx), %ymm1 vdivpd %ymm0, %ymm1, %ymm0 vmovapd %ymm0, 23264(%rbx) vmovapd 24864(%rbx), %ymm0 vmovapd 23136(%rbx), %ymm1 vdivpd %ymm0, %ymm1, %ymm1 vmovapd %ymm1, 22880(%rbx) vmovapd 24128(%rbx), %ymm1 vdivpd %ymm0, %ymm1, %ymm0 vmovapd %ymm0, 22848(%rbx) vmovapd 22912(%rbx), %ymm0 vdivpd 22944(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 23296(%rbx) vmovapd 24096(%rbx), %ymm1 vmulpd 32800(%rbx), %ymm1, %ymm0 vmovapd %ymm0, 22816(%rbx) vmulpd 18976(%rbx), %ymm1, %ymm0 vmovapd %ymm0, 22784(%rbx) vmovapd 24768(%rbx), %ymm1 vmulpd 32832(%rbx), %ymm1, %ymm0 vmovapd %ymm0, 22752(%rbx) vmulpd 31808(%rbx), %ymm1, %ymm0 vmovapd %ymm0, 22720(%rbx) vmovapd 24064(%rbx), %ymm0 vdivpd 23232(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 23232(%rbx) vmovaps 24288(%rbx), %xmm0 vmovhlps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 23200(%rbx) vmovaps 24256(%rbx), %xmm0 vmovhlps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 23168(%rbx) vmovdqa 24640(%rbx), %xmm0 vpmovsxdq %xmm0, %xmm0 vmovdqa %xmm0, 23136(%rbx) vmovdqa 24480(%rbx), %xmm0 vpmovsxdq %xmm0, %xmm0 vmovdqa %xmm0, 23104(%rbx) vmovdqa 24448(%rbx), %xmm0 vpmovsxdq %xmm0, %xmm0 vmovdqa %xmm0, 23072(%rbx) vmovdqa 24416(%rbx), %xmm0 vpmovsxdq %xmm0, %xmm0 vmovdqa %xmm0, 23040(%rbx) vmovdqa 24384(%rbx), %xmm0 vpmovsxdq %xmm0, %xmm0 vmovdqa %xmm0, 23008(%rbx) vmovdqa 24352(%rbx), %xmm0 vpmovsxdq %xmm0, %xmm0 vmovdqa %xmm0, 22976(%rbx) vmovdqa 22496(%rbx), %xmm0 vpmovsxdq %xmm0, %xmm0 vmovdqa %xmm0, 22944(%rbx) vmovdqa 22464(%rbx), %xmm0 vpmovsxdq %xmm0, %xmm0 vmovdqa %xmm0, 22912(%rbx) leal 768(%rcx,%rsi), %eax movslq %eax, %rax vmovupd 33056(%rbx,%rax,8), %xmm0 vmovupd 33024(%rbx,%rax,8), %xmm7 movq 32480(%rbx), %rdi vmovupd 33056(%rbx,%rdi,8), %xmm8 movq 20832(%rbx), %rdx vmovupd 33056(%rbx,%rdx,8), %xmm4 vmovupd 33024(%rbx,%rdi,8), %xmm3 vmovupd 33040(%rbx,%rax,8), %xmm1 vmovupd 33072(%rbx,%rax,8), %xmm2 vmovupd 33024(%rbx,%rdx,8), %xmm6 vmovupd 33040(%rbx,%rdx,8), %xmm5 vinsertf128 $1, %xmm2, %ymm0, %ymm15 vmovupd 33040(%rbx,%rdi,8), %xmm0 vinsertf128 $1, %xmm1, %ymm7, %ymm14 vinsertf128 $1, 33072(%rbx,%rdi,8), %ymm8, %ymm2 vinsertf128 $1, 33072(%rbx,%rdx,8), %ymm4, %ymm7 vmovapd %ymm7, 32480(%rbx) vinsertf128 $1, %xmm0, %ymm3, %ymm4 vinsertf128 $1, %xmm5, %ymm6, %ymm5 vmovapd %ymm5, 32256(%rbx) vmovdqa 32992(%rbx), %ymm0 vpshufd $8, %xmm0, %xmm0 vmovaps 32960(%rbx), %xmm1 vmovlhps %xmm1, %xmm0, %xmm0 vmovdqa 32928(%rbx), %ymm1 vpshufd $8, %xmm1, %xmm1 vmovaps 32896(%rbx), %xmm3 vmovlhps %xmm3, %xmm1, %xmm1 vsubpd %ymm5, %ymm14, %ymm3 vsubpd %ymm4, %ymm5, %ymm5 vsubpd %ymm7, %ymm15, %ymm6 vsubpd %ymm2, %ymm7, %ymm7 vmovapd .LCPI1_24(%rip), %ymm8 vmulpd %ymm8, %ymm7, %ymm12 vmulpd %ymm8, %ymm6, %ymm9 vmovapd %ymm9, 24864(%rbx) vmulpd %ymm8, %ymm5, %ymm7 vmulpd %ymm8, %ymm3, %ymm8 vmovapd %ymm8, 32896(%rbx) vmovdqa .LCPI1_21(%rip), %xmm6 vpshufb %xmm6, %xmm1, %xmm1 vmovdqa .LCPI1_20(%rip), %xmm3 vpshufb %xmm3, %xmm0, %xmm0 vpor %xmm0, %xmm1, %xmm1 vmulpd %ymm9, %ymm12, %ymm0 vxorpd %ymm5, %ymm5, %ymm5 vcmpnlepd %ymm5, %ymm0, %ymm11 vextractf128 $1, %ymm11, %xmm0 vpshufd $8, %xmm0, %xmm13 vpshufd $8, %xmm11, %xmm0 vmovlhps %xmm13, %xmm0, %xmm0 vpshufb %xmm3, %xmm0, %xmm0 vmulpd %ymm8, %ymm7, %ymm3 vmovapd %ymm7, %ymm8 vcmpnlepd %ymm5, %ymm3, %ymm5 vmovapd %ymm5, 32992(%rbx) vextractf128 $1, %ymm5, %xmm3 vpshufd $8, %xmm3, %xmm7 vmovdqa %xmm7, 32960(%rbx) vpshufd $8, %xmm5, %xmm3 vmovlhps %xmm7, %xmm3, %xmm3 vpshufb %xmm6, %xmm3, %xmm3 vpor %xmm0, %xmm3, %xmm0 vpsllw $15, %xmm1, %xmm1 vpsraw $15, %xmm1, %xmm1 vpunpckhbw %xmm0, %xmm1, %xmm3 vpslld $31, %xmm3, %xmm3 vpmovsxdq %xmm3, %xmm5 vmovdqa %ymm5, 32928(%rbx) vmovhlps %xmm3, %xmm3, %xmm3 vpmovsxdq %xmm3, %xmm3 vmovdqa %xmm3, 22688(%rbx) vpxor .LCPI1_17(%rip), %xmm0, %xmm3 vpunpcklbw %xmm0, %xmm1, %xmm0 vpslld $31, %xmm0, %xmm0 vpmovzxwd %xmm3, %xmm1 vpslld $31, %xmm1, %xmm1 vpsrad $31, %xmm1, %xmm1 vpunpckhwd %xmm0, %xmm3, %xmm3 vpslld $31, %xmm3, %xmm3 vpsrad $31, %xmm3, %xmm3 vinsertf128 $1, %xmm3, %ymm1, %ymm1 vpmovsxdq %xmm0, %xmm3 vmovdqa %ymm3, 22656(%rbx) vmovhlps %xmm0, %xmm0, %xmm0 vpmovsxdq %xmm0, %xmm0 vmovdqa %xmm0, 22624(%rbx) vmovdqa 6816(%rbx), %ymm0 vptest %ymm0, %ymm1 vmovapd 6848(%rbx), %ymm0 vmovapd %ymm0, %ymm1 vmovapd %ymm0, %ymm5 jb .LBB1_3606 vsubpd %ymm4, %ymm14, %ymm0 vsubpd %ymm2, %ymm15, %ymm1 vmulpd %ymm10, %ymm1, %ymm1 vmovapd %ymm1, 24800(%rbx) vmulpd %ymm10, %ymm0, %ymm2 vmovapd %ymm2, 24832(%rbx) vmovapd .LCPI1_56(%rip), %ymm6 vandpd %ymm6, %ymm1, %ymm9 vandpd %ymm6, %ymm12, %ymm0 vcmpltpd %ymm9, %ymm0, %ymm1 vextractf128 $1, %ymm1, %xmm3 vpshufd $8, %xmm3, %xmm3 vpshufd $8, %xmm1, %xmm1 vandpd %ymm6, %ymm2, %ymm14 vmovlhps %xmm3, %xmm1, %xmm1 vmovaps %xmm13, %xmm5 vmovapd %ymm12, 24768(%rbx) vmovapd %ymm8, %ymm12 vandpd %ymm6, %ymm12, %ymm13 vcmpltpd %ymm14, %ymm13, %ymm3 vextractf128 $1, %ymm3, %xmm4 vpshufd $8, %xmm4, %xmm4 vpshufd $8, %xmm3, %xmm3 vmovdqa %ymm11, %ymm8 vmovlhps %xmm4, %xmm3, %xmm11 vmovapd 24864(%rbx), %ymm15 vandpd %ymm6, %ymm15, %ymm4 vcmpltpd %ymm4, %ymm0, %ymm0 vextractf128 $1, %ymm0, %xmm3 vpshufd $8, %xmm3, %xmm3 vpshufd $8, %xmm0, %xmm0 vmovlhps %xmm3, %xmm0, %xmm0 vmovapd 32896(%rbx), %ymm10 vandpd %ymm6, %ymm10, %ymm3 vcmpltpd %ymm3, %ymm13, %ymm6 vmovaps %xmm5, %xmm13 vextractf128 $1, %ymm6, %xmm7 vpshufd $8, %xmm7, %xmm7 vpshufd $8, %xmm6, %xmm6 vmovlhps %xmm7, %xmm6, %xmm6 vcmpltpd %ymm14, %ymm3, %ymm3 vmovdqa .LCPI1_21(%rip), %xmm7 vpshufb %xmm7, %xmm6, %xmm6 vmovdqa .LCPI1_20(%rip), %xmm5 vpshufb %xmm5, %xmm0, %xmm0 vpor %xmm0, %xmm6, %xmm0 vpshufb %xmm7, %xmm11, %xmm6 vmovdqa %ymm8, %ymm11 vpshufb %xmm5, %xmm1, %xmm1 vpor %xmm1, %xmm6, %xmm6 vextractf128 $1, %ymm3, %xmm1 vpshufd $8, %xmm1, %xmm1 vpshufd $8, %xmm3, %xmm3 vmovlhps %xmm1, %xmm3, %xmm1 vmovdqa 32992(%rbx), %ymm3 vpshufd $8, %xmm3, %xmm3 vmovaps 32960(%rbx), %xmm2 vmovlhps %xmm2, %xmm3, %xmm3 vcmpltpd %ymm9, %ymm4, %ymm2 vpsllw $15, %xmm6, %xmm4 vpsraw $15, %xmm4, %xmm4 vmovdqa .LCPI1_17(%rip), %xmm6 vpxor %xmm6, %xmm4, %xmm4 vpsllw $15, %xmm0, %xmm0 vpsraw $15, %xmm0, %xmm0 vpxor %xmm6, %xmm0, %xmm0 vpor %xmm4, %xmm0, %xmm0 vextractf128 $1, %ymm2, %xmm4 vpshufd $8, %xmm4, %xmm4 vpshufd $8, %xmm2, %xmm2 vmovlhps %xmm4, %xmm2, %xmm4 vpshufb %xmm7, %xmm1, %xmm2 vpshufb %xmm7, %xmm3, %xmm1 vpshufd $8, %xmm11, %xmm3 vmovlhps %xmm13, %xmm3, %xmm3 vpshufb %xmm5, %xmm3, %xmm3 vpor %xmm3, %xmm1, %xmm1 vpsllw $15, %xmm1, %xmm1 vpsraw $15, %xmm1, %xmm1 vpand %xmm0, %xmm1, %xmm1 vpshufb %xmm5, %xmm4, %xmm0 vpunpckhbw %xmm0, %xmm1, %xmm3 vpor %xmm0, %xmm2, %xmm2 vpslld $31, %xmm3, %xmm0 vpsllw $15, %xmm2, %xmm2 vpsraw $15, %xmm2, %xmm2 vpmovsxdq %xmm0, %xmm3 vmovhlps %xmm0, %xmm0, %xmm0 vpmovsxdq %xmm0, %xmm0 vinsertf128 $1, %xmm0, %ymm3, %ymm0 vpunpckhbw %xmm0, %xmm2, %xmm3 vpslld $31, %xmm3, %xmm4 vpmovsxdq %xmm4, %xmm3 vmovhlps %xmm4, %xmm4, %xmm4 vpmovsxdq %xmm4, %xmm4 vinsertf128 $1, %xmm4, %ymm3, %ymm3 vpunpcklbw %xmm0, %xmm1, %xmm1 vpslld $31, %xmm1, %xmm4 vpmovsxdq %xmm4, %xmm1 vmovhlps %xmm4, %xmm4, %xmm4 vpmovsxdq %xmm4, %xmm4 vpunpcklbw %xmm0, %xmm2, %xmm2 vmovapd 24800(%rbx), %ymm5 vblendvpd %ymm3, %ymm15, %ymm5, %ymm3 vmovapd 24768(%rbx), %ymm5 vblendvpd %ymm0, %ymm3, %ymm5, %ymm0 vmovapd .LCPI1_77(%rip), %ymm3 vmulpd %ymm3, %ymm0, %ymm5 vinsertf128 $1, %xmm4, %ymm1, %ymm0 vpslld $31, %xmm2, %xmm2 vpmovsxdq %xmm2, %xmm1 vmovhlps %xmm2, %xmm2, %xmm2 vpmovsxdq %xmm2, %xmm2 vinsertf128 $1, %xmm2, %ymm1, %ymm1 vmovapd 24832(%rbx), %ymm2 vblendvpd %ymm1, %ymm10, %ymm2, %ymm1 vblendvpd %ymm0, %ymm1, %ymm12, %ymm0 vmulpd %ymm3, %ymm0, %ymm1 .LBB1_3606: vmovapd %ymm1, 18272(%rbx) vmovapd %ymm5, 32896(%rbx) vmovaps 31104(%rbx), %ymm0 vextractf128 $1, %ymm0, 24864(%rbx) vmovaps 26848(%rbx), %ymm0 vextractf128 $1, %ymm0, 24800(%rbx) vmovaps 26784(%rbx), %ymm0 vextractf128 $1, %ymm0, 24736(%rbx) vmovaps 26720(%rbx), %ymm0 vextractf128 $1, %ymm0, 24672(%rbx) vmovaps 26656(%rbx), %ymm0 vextractf128 $1, %ymm0, 24608(%rbx) vmovaps 26592(%rbx), %ymm0 vextractf128 $1, %ymm0, 24544(%rbx) vmovaps 26528(%rbx), %ymm0 vextractf128 $1, %ymm0, 24480(%rbx) vmovaps 26464(%rbx), %ymm0 vextractf128 $1, %ymm0, 24416(%rbx) vmovaps 26400(%rbx), %ymm0 vextractf128 $1, %ymm0, 24384(%rbx) vmovaps 26336(%rbx), %ymm0 vextractf128 $1, %ymm0, 24320(%rbx) vmovaps 26304(%rbx), %ymm0 vextractf128 $1, %ymm0, 24256(%rbx) vmovaps 26240(%rbx), %ymm0 vextractf128 $1, %ymm0, 24192(%rbx) vmovaps 26176(%rbx), %ymm0 vextractf128 $1, %ymm0, 24128(%rbx) vmovaps 26112(%rbx), %ymm0 vextractf128 $1, %ymm0, 24064(%rbx) vmovaps 26048(%rbx), %ymm0 vextractf128 $1, %ymm0, 24000(%rbx) vmovaps 24896(%rbx), %ymm0 vextractf128 $1, %ymm0, 23936(%rbx) vmovaps 21568(%rbx), %ymm0 vextractf128 $1, %ymm0, 20960(%rbx) vmovaps 21504(%rbx), %ymm0 vextractf128 $1, %ymm0, 20896(%rbx) vmovaps 21472(%rbx), %ymm0 vextractf128 $1, %ymm0, 20832(%rbx) vmovaps 21440(%rbx), %ymm0 vextractf128 $1, %ymm0, 20800(%rbx) vmovaps 21408(%rbx), %ymm0 vextractf128 $1, %ymm0, 20768(%rbx) vmovaps 21376(%rbx), %ymm0 vextractf128 $1, %ymm0, 20736(%rbx) vmovaps 21344(%rbx), %ymm0 vextractf128 $1, %ymm0, 20704(%rbx) vmovaps 21312(%rbx), %ymm0 vextractf128 $1, %ymm0, 20672(%rbx) vmovaps 21280(%rbx), %ymm0 vextractf128 $1, %ymm0, 20640(%rbx) vmovaps 21248(%rbx), %ymm0 vextractf128 $1, %ymm0, 20608(%rbx) vmovaps 21216(%rbx), %ymm0 vextractf128 $1, %ymm0, 20576(%rbx) vmovaps 21184(%rbx), %ymm0 vextractf128 $1, %ymm0, 20544(%rbx) vmovaps 21152(%rbx), %ymm0 vextractf128 $1, %ymm0, 20512(%rbx) vmovaps 21120(%rbx), %ymm0 vextractf128 $1, %ymm0, 20480(%rbx) vmovaps 21088(%rbx), %ymm0 vextractf128 $1, %ymm0, 20448(%rbx) vmovaps 21056(%rbx), %ymm0 vextractf128 $1, %ymm0, 20416(%rbx) vmovaps 21024(%rbx), %ymm0 vextractf128 $1, %ymm0, 20384(%rbx) vmovaps 20992(%rbx), %ymm0 vextractf128 $1, %ymm0, 20352(%rbx) vmovaps 19040(%rbx), %ymm0 vextractf128 $1, %ymm0, 18944(%rbx) vmovaps 19008(%rbx), %ymm0 vextractf128 $1, %ymm0, 18912(%rbx) vmovaps 31136(%rbx), %ymm0 vextractf128 $1, %ymm0, 24832(%rbx) vmovaps 26880(%rbx), %ymm0 vextractf128 $1, %ymm0, 24768(%rbx) vmovaps 26816(%rbx), %ymm0 vextractf128 $1, %ymm0, 24704(%rbx) vmovaps 26752(%rbx), %ymm0 vextractf128 $1, %ymm0, 24640(%rbx) vmovaps 26688(%rbx), %ymm0 vextractf128 $1, %ymm0, 24576(%rbx) vmovaps 26624(%rbx), %ymm0 vextractf128 $1, %ymm0, 24512(%rbx) vmovaps 26560(%rbx), %ymm0 vextractf128 $1, %ymm0, 24448(%rbx) vmovaps 26496(%rbx), %ymm0 vextractf128 $1, %ymm0, 21632(%rbx) vmovaps 26432(%rbx), %ymm0 vextractf128 $1, %ymm0, 24352(%rbx) vmovaps 26368(%rbx), %ymm0 vextractf128 $1, %ymm0, 24288(%rbx) vmovaps 21792(%rbx), %ymm0 vextractf128 $1, %ymm0, 24224(%rbx) vmovaps 26272(%rbx), %ymm0 vextractf128 $1, %ymm0, 24160(%rbx) vmovaps 26208(%rbx), %ymm0 vextractf128 $1, %ymm0, 24096(%rbx) vmovaps 26144(%rbx), %ymm0 vextractf128 $1, %ymm0, 24032(%rbx) vmovaps 26080(%rbx), %ymm0 vextractf128 $1, %ymm0, 23968(%rbx) vmovaps 25664(%rbx), %ymm0 vextractf128 $1, %ymm0, 23904(%rbx) vmovaps 21600(%rbx), %ymm0 vextractf128 $1, %ymm0, 20928(%rbx) vmovaps 21536(%rbx), %ymm0 vextractf128 $1, %ymm0, 20864(%rbx) vmovapd 23744(%rbx), %ymm4 vmulpd 23808(%rbx), %ymm4, %ymm0 vmovapd %ymm0, 18240(%rbx) vmovapd 31808(%rbx), %ymm0 vmovapd 23712(%rbx), %ymm2 vmulpd %ymm0, %ymm2, %ymm1 vmovapd %ymm1, 18208(%rbx) vmulpd 23648(%rbx), %ymm4, %ymm1 vmovapd %ymm1, 17920(%rbx) vmovapd 23616(%rbx), %ymm3 vmulpd %ymm0, %ymm3, %ymm1 vmovapd %ymm1, 17888(%rbx) vmovapd 32832(%rbx), %ymm1 vmulpd %ymm1, %ymm2, %ymm2 vmovapd %ymm2, 17568(%rbx) vmulpd %ymm1, %ymm4, %ymm2 vmovapd %ymm2, 17536(%rbx) vmulpd %ymm1, %ymm3, %ymm2 vmovapd %ymm2, 17504(%rbx) vmovapd 23680(%rbx), %ymm6 vmulpd 23872(%rbx), %ymm6, %ymm2 vmovapd %ymm2, 17472(%rbx) vmovapd 18976(%rbx), %ymm2 vmovapd 23840(%rbx), %ymm5 vmulpd %ymm2, %ymm5, %ymm3 vmovapd %ymm3, 17216(%rbx) vmulpd 23776(%rbx), %ymm6, %ymm3 vmovapd %ymm3, 17184(%rbx) vmovapd 23584(%rbx), %ymm7 vmulpd %ymm2, %ymm7, %ymm3 vmovapd %ymm3, 17120(%rbx) vmovapd 32800(%rbx), %ymm3 vmulpd %ymm3, %ymm5, %ymm5 vmovapd %ymm5, 17088(%rbx) vmulpd %ymm3, %ymm6, %ymm5 vmovapd %ymm5, 17056(%rbx) vmulpd %ymm3, %ymm7, %ymm5 vmovapd %ymm5, 17024(%rbx) vmovapd 22816(%rbx), %ymm5 vaddpd 22848(%rbx), %ymm5, %ymm5 vmovapd %ymm5, 18176(%rbx) vmovapd 22784(%rbx), %ymm5 vaddpd 22880(%rbx), %ymm5, %ymm5 vmovapd %ymm5, 17856(%rbx) vmovapd 22752(%rbx), %ymm5 vaddpd 23264(%rbx), %ymm5, %ymm5 vmovapd %ymm5, 17152(%rbx) vmovapd 22720(%rbx), %ymm5 vaddpd 23328(%rbx), %ymm5, %ymm5 vmovapd %ymm5, 16960(%rbx) vmulpd %ymm2, %ymm6, %ymm5 vmovapd %ymm5, 17248(%rbx) vmovapd 23296(%rbx), %ymm5 vmulpd %ymm5, %ymm3, %ymm3 vmovapd %ymm3, 16992(%rbx) vmulpd %ymm5, %ymm2, %ymm2 vmovapd %ymm2, 16896(%rbx) vmulpd %ymm0, %ymm4, %ymm2 vmovapd %ymm2, 16928(%rbx) vmovapd 23232(%rbx), %ymm2 vmulpd %ymm2, %ymm1, %ymm1 vmovapd %ymm1, 15968(%rbx) vmulpd %ymm2, %ymm0, %ymm0 vmovapd %ymm0, 15936(%rbx) vmovdqa 23200(%rbx), %xmm0 vpmovsxdq %xmm0, %xmm0 vmovdqa %xmm0, 16544(%rbx) vmovdqa 23168(%rbx), %xmm0 vpmovsxdq %xmm0, %xmm0 vmovdqa %xmm0, 16512(%rbx) vmovaps 23552(%rbx), %ymm0 vinsertf128 $1, 23136(%rbx), %ymm0, %ymm0 vmovaps %ymm0, 16480(%rbx) vmovaps 23520(%rbx), %ymm0 vinsertf128 $1, 23104(%rbx), %ymm0, %ymm0 vmovaps %ymm0, 16448(%rbx) vmovaps 31872(%rbx), %ymm0 vinsertf128 $1, 23072(%rbx), %ymm0, %ymm0 vmovaps %ymm0, 16224(%rbx) vmovaps 23488(%rbx), %ymm0 vinsertf128 $1, 23040(%rbx), %ymm0, %ymm0 vmovaps %ymm0, 16192(%rbx) vmovaps 23456(%rbx), %ymm0 vinsertf128 $1, 23008(%rbx), %ymm0, %ymm0 vmovaps %ymm0, 16160(%rbx) vmovaps 23424(%rbx), %ymm0 vinsertf128 $1, 22976(%rbx), %ymm0, %ymm0 vmovaps %ymm0, 16128(%rbx) vmovaps 23392(%rbx), %ymm0 vinsertf128 $1, 22944(%rbx), %ymm0, %ymm0 vmovaps %ymm0, 16096(%rbx) vmovaps 23360(%rbx), %ymm0 vinsertf128 $1, 22912(%rbx), %ymm0, %ymm0 vmovaps %ymm0, 16064(%rbx) vmovaps 32928(%rbx), %ymm0 vinsertf128 $1, 22688(%rbx), %ymm0, %ymm0 vmovaps %ymm0, 16032(%rbx) vmovaps 22656(%rbx), %ymm0 vinsertf128 $1, 22624(%rbx), %ymm0, %ymm0 vmovaps %ymm0, 16000(%rbx) leal 912(%rcx,%rsi), %eax movslq %eax, %rax vmovupd 33056(%rbx,%rax,8), %xmm3 vmovupd 33024(%rbx,%rax,8), %xmm4 movq 32512(%rbx), %rdi vmovupd 33056(%rbx,%rdi,8), %xmm2 movq 20320(%rbx), %rdx vmovupd 33056(%rbx,%rdx,8), %xmm1 vmovupd 33024(%rbx,%rdi,8), %xmm10 vmovupd 33040(%rbx,%rax,8), %xmm5 vmovupd 33072(%rbx,%rax,8), %xmm0 vmovupd 33024(%rbx,%rdx,8), %xmm6 vmovupd 33040(%rbx,%rdx,8), %xmm7 vinsertf128 $1, %xmm0, %ymm3, %ymm9 vmovupd 33040(%rbx,%rdi,8), %xmm0 vinsertf128 $1, %xmm5, %ymm4, %ymm15 vinsertf128 $1, 33072(%rbx,%rdi,8), %ymm2, %ymm12 vinsertf128 $1, 33072(%rbx,%rdx,8), %ymm1, %ymm8 vmovapd %ymm8, 32512(%rbx) vinsertf128 $1, %xmm0, %ymm10, %ymm5 vinsertf128 $1, %xmm7, %ymm6, %ymm3 vmovapd %ymm3, 31872(%rbx) vpshufd $8, %xmm11, %xmm0 vmovlhps %xmm13, %xmm0, %xmm0 vmovdqa 32992(%rbx), %ymm1 vpshufd $8, %xmm1, %xmm1 vmovaps 32960(%rbx), %xmm2 vmovlhps %xmm2, %xmm1, %xmm1 vsubpd %ymm3, %ymm15, %ymm2 vsubpd %ymm5, %ymm3, %ymm3 vsubpd %ymm8, %ymm9, %ymm4 vsubpd %ymm12, %ymm8, %ymm6 vmovapd .LCPI1_24(%rip), %ymm7 vmulpd %ymm7, %ymm6, %ymm14 vmulpd %ymm7, %ymm4, %ymm13 vmulpd %ymm7, %ymm3, %ymm10 vmulpd %ymm7, %ymm2, %ymm11 vmovdqa .LCPI1_21(%rip), %xmm4 vpshufb %xmm4, %xmm1, %xmm1 vmovdqa .LCPI1_20(%rip), %xmm2 vpshufb %xmm2, %xmm0, %xmm0 vpor %xmm0, %xmm1, %xmm1 vmulpd %ymm13, %ymm14, %ymm0 vxorpd %ymm3, %ymm3, %ymm3 vcmpnlepd %ymm3, %ymm0, %ymm8 vextractf128 $1, %ymm8, %xmm0 vpshufd $8, %xmm0, %xmm6 vmovdqa %xmm6, 32992(%rbx) vpshufd $8, %xmm8, %xmm0 vmovlhps %xmm6, %xmm0, %xmm0 vpshufb %xmm2, %xmm0, %xmm0 vmulpd %ymm11, %ymm10, %ymm2 vmovapd %ymm10, %ymm7 vcmpnlepd %ymm3, %ymm2, %ymm3 vmovapd %ymm3, 32960(%rbx) vextractf128 $1, %ymm3, %xmm2 vpshufd $8, %xmm2, %xmm6 vmovdqa %xmm6, 32928(%rbx) vpshufd $8, %xmm3, %xmm2 vmovlhps %xmm6, %xmm2, %xmm2 vpshufb %xmm4, %xmm2, %xmm2 vpor %xmm0, %xmm2, %xmm2 vpsllw $15, %xmm1, %xmm0 vpsraw $15, %xmm0, %xmm0 vpunpckhbw %xmm0, %xmm0, %xmm1 vpslld $31, %xmm1, %xmm3 vpmovsxdq %xmm3, %xmm1 vmovhlps %xmm3, %xmm3, %xmm3 vpmovsxdq %xmm3, %xmm3 vinsertf128 $1, %xmm3, %ymm1, %ymm1 vmovaps %ymm1, 15904(%rbx) vpxor .LCPI1_17(%rip), %xmm2, %xmm2 vpunpcklbw %xmm0, %xmm0, %xmm0 vpslld $31, %xmm0, %xmm1 vpmovzxwd %xmm2, %xmm0 vpslld $31, %xmm0, %xmm0 vpsrad $31, %xmm0, %xmm0 vpunpckhwd %xmm0, %xmm2, %xmm2 vpslld $31, %xmm2, %xmm2 vpsrad $31, %xmm2, %xmm2 vinsertf128 $1, %xmm2, %ymm0, %ymm0 vpmovsxdq %xmm1, %xmm2 vmovhlps %xmm1, %xmm1, %xmm1 vpmovsxdq %xmm1, %xmm1 vinsertf128 $1, %xmm1, %ymm2, %ymm1 vmovaps %ymm1, 15872(%rbx) vmovdqa 6752(%rbx), %ymm1 vptest %ymm1, %ymm0 vmovapd 6784(%rbx), %ymm0 vmovapd %ymm0, %ymm1 vmovapd %ymm0, %ymm6 jb .LBB1_3608 vsubpd %ymm5, %ymm15, %ymm0 vsubpd %ymm12, %ymm9, %ymm1 vmovapd .LCPI1_28(%rip), %ymm2 vmulpd %ymm2, %ymm1, %ymm1 vmovapd %ymm1, 23840(%rbx) vmulpd %ymm2, %ymm0, %ymm2 vmovapd %ymm2, 23872(%rbx) vmovdqa %ymm8, %ymm6 vmovapd .LCPI1_56(%rip), %ymm8 vandpd %ymm8, %ymm1, %ymm5 vandpd %ymm8, %ymm14, %ymm15 vcmpltpd %ymm5, %ymm15, %ymm0 vextractf128 $1, %ymm0, %xmm1 vpshufd $8, %xmm1, %xmm1 vpshufd $8, %xmm0, %xmm0 vandpd %ymm8, %ymm2, %ymm12 vmovlhps %xmm1, %xmm0, %xmm4 vmovapd %ymm7, %ymm10 vandpd %ymm8, %ymm10, %ymm2 vcmpltpd %ymm12, %ymm2, %ymm0 vextractf128 $1, %ymm0, %xmm1 vpshufd $8, %xmm1, %xmm1 vpshufd $8, %xmm0, %xmm0 vmovlhps %xmm1, %xmm0, %xmm1 vandpd %ymm8, %ymm13, %ymm9 vcmpltpd %ymm9, %ymm15, %ymm0 vextractf128 $1, %ymm0, %xmm3 vpshufd $8, %xmm3, %xmm3 vpshufd $8, %xmm0, %xmm0 vmovlhps %xmm3, %xmm0, %xmm0 vandpd %ymm8, %ymm11, %ymm15 vmovdqa %ymm6, %ymm8 vcmpltpd %ymm15, %ymm2, %ymm2 vextractf128 $1, %ymm2, %xmm3 vpshufd $8, %xmm3, %xmm3 vpshufd $8, %xmm2, %xmm2 vmovlhps %xmm3, %xmm2, %xmm2 vcmpltpd %ymm12, %ymm15, %ymm12 vmovdqa .LCPI1_21(%rip), %xmm6 vpshufb %xmm6, %xmm2, %xmm2 vmovdqa .LCPI1_20(%rip), %xmm7 vpshufb %xmm7, %xmm0, %xmm0 vpor %xmm0, %xmm2, %xmm2 vpshufb %xmm6, %xmm1, %xmm0 vpshufb %xmm7, %xmm4, %xmm1 vpor %xmm1, %xmm0, %xmm0 vextractf128 $1, %ymm12, %xmm1 vpshufd $8, %xmm1, %xmm1 vpshufd $8, %xmm12, %xmm3 vmovlhps %xmm1, %xmm3, %xmm1 vmovdqa 32960(%rbx), %ymm3 vpshufd $8, %xmm3, %xmm3 vmovaps 32928(%rbx), %xmm4 vmovlhps %xmm4, %xmm3, %xmm4 vcmpltpd %ymm5, %ymm9, %ymm5 vpsllw $15, %xmm0, %xmm0 vpsraw $15, %xmm0, %xmm0 vmovdqa .LCPI1_17(%rip), %xmm3 vpxor %xmm3, %xmm0, %xmm0 vpsllw $15, %xmm2, %xmm2 vpsraw $15, %xmm2, %xmm2 vpxor %xmm3, %xmm2, %xmm2 vpor %xmm0, %xmm2, %xmm2 vextractf128 $1, %ymm5, %xmm0 vpshufd $8, %xmm0, %xmm0 vpshufd $8, %xmm5, %xmm3 vmovlhps %xmm0, %xmm3, %xmm0 vpshufb %xmm6, %xmm1, %xmm5 vpshufb %xmm6, %xmm4, %xmm1 vpshufd $8, %xmm8, %xmm3 vmovaps 32992(%rbx), %xmm4 vmovlhps %xmm4, %xmm3, %xmm3 vpshufb %xmm7, %xmm3, %xmm3 vpor %xmm3, %xmm1, %xmm1 vpsllw $15, %xmm1, %xmm1 vpsraw $15, %xmm1, %xmm1 vpand %xmm2, %xmm1, %xmm1 vpshufb %xmm7, %xmm0, %xmm0 vpunpckhbw %xmm0, %xmm1, %xmm2 vpor %xmm0, %xmm5, %xmm3 vpslld $31, %xmm2, %xmm0 vpsllw $15, %xmm3, %xmm2 vpsraw $15, %xmm2, %xmm4 vpmovsxdq %xmm0, %xmm2 vmovhlps %xmm0, %xmm0, %xmm0 vpmovsxdq %xmm0, %xmm0 vinsertf128 $1, %xmm0, %ymm2, %ymm2 vpunpckhbw %xmm0, %xmm4, %xmm0 vpslld $31, %xmm0, %xmm3 vpmovsxdq %xmm3, %xmm0 vmovhlps %xmm3, %xmm3, %xmm3 vpmovsxdq %xmm3, %xmm3 vinsertf128 $1, %xmm3, %ymm0, %ymm0 vpunpcklbw %xmm0, %xmm1, %xmm1 vpslld $31, %xmm1, %xmm3 vpmovsxdq %xmm3, %xmm1 vmovhlps %xmm3, %xmm3, %xmm3 vpmovsxdq %xmm3, %xmm3 vpunpcklbw %xmm0, %xmm4, %xmm4 vmovapd 23840(%rbx), %ymm5 vblendvpd %ymm0, %ymm13, %ymm5, %ymm0 vblendvpd %ymm2, %ymm0, %ymm14, %ymm0 vmovapd .LCPI1_77(%rip), %ymm5 vmulpd %ymm5, %ymm0, %ymm6 vinsertf128 $1, %xmm3, %ymm1, %ymm0 vpslld $31, %xmm4, %xmm2 vpmovsxdq %xmm2, %xmm1 vmovhlps %xmm2, %xmm2, %xmm2 vpmovsxdq %xmm2, %xmm2 vinsertf128 $1, %xmm2, %ymm1, %ymm1 vmovapd 23872(%rbx), %ymm2 vblendvpd %ymm1, %ymm11, %ymm2, %ymm1 vblendvpd %ymm0, %ymm1, %ymm10, %ymm0 vmulpd %ymm5, %ymm0, %ymm1 .LBB1_3608: vmovapd %ymm6, 15712(%rbx) vmovapd %ymm1, 15744(%rbx) vmovapd 24864(%rbx), %xmm0 vunpckhpd %xmm0, %xmm0, %xmm0 vmovapd %xmm0, 23872(%rbx) vmovapd 31104(%rbx), %ymm0 vunpckhpd %xmm0, %xmm0, %xmm0 vmovapd %xmm0, 23840(%rbx) vmovapd 24800(%rbx), %xmm0 vunpckhpd %xmm0, %xmm0, %xmm0 vmovapd %xmm0, 23776(%rbx) vmovapd 26848(%rbx), %ymm0 vunpckhpd %xmm0, %xmm0, %xmm0 vmovapd %xmm0, 23712(%rbx) vmovapd 24736(%rbx), %xmm0 vunpckhpd %xmm0, %xmm0, %xmm0 vmovapd %xmm0, 23616(%rbx) vmovapd 26784(%rbx), %ymm0 vunpckhpd %xmm0, %xmm0, %xmm0 vmovapd %xmm0, 23584(%rbx) vmovapd 24672(%rbx), %xmm0 vunpckhpd %xmm0, %xmm0, %xmm0 vmovapd %xmm0, 23488(%rbx) vmovapd 26720(%rbx), %ymm0 vunpckhpd %xmm0, %xmm0, %xmm0 vmovapd %xmm0, 23424(%rbx) vmovapd 24608(%rbx), %xmm0 vunpckhpd %xmm0, %xmm0, %xmm0 vmovapd %xmm0, 23360(%rbx) vmovapd 26656(%rbx), %ymm0 vunpckhpd %xmm0, %xmm0, %xmm0 vmovapd %xmm0, 23328(%rbx) vmovapd 24544(%rbx), %xmm0 vunpckhpd %xmm0, %xmm0, %xmm0 vmovapd %xmm0, 23264(%rbx) vmovapd 26592(%rbx), %ymm0 vunpckhpd %xmm0, %xmm0, %xmm0 vmovapd %xmm0, 23200(%rbx) vmovapd 24480(%rbx), %xmm0 vunpckhpd %xmm0, %xmm0, %xmm0 vmovapd %xmm0, 23104(%rbx) vmovapd 26528(%rbx), %ymm0 vunpckhpd %xmm0, %xmm0, %xmm0 vmovapd %xmm0, 23072(%rbx) vmovapd 24416(%rbx), %xmm0 vunpckhpd %xmm0, %xmm0, %xmm0 vmovapd %xmm0, 23008(%rbx) vmovapd 26464(%rbx), %ymm0 vunpckhpd %xmm0, %xmm0, %xmm0 vmovapd %xmm0, 22944(%rbx) vmovapd 24384(%rbx), %xmm0 vunpckhpd %xmm0, %xmm0, %xmm0 vmovapd %xmm0, 22848(%rbx) vmovapd 26400(%rbx), %ymm0 vunpckhpd %xmm0, %xmm0, %xmm0 vmovapd %xmm0, 22816(%rbx) vmovapd 24320(%rbx), %xmm0 vunpckhpd %xmm0, %xmm0, %xmm0 vmovapd %xmm0, 22752(%rbx) vmovapd 26336(%rbx), %ymm0 vunpckhpd %xmm0, %xmm0, %xmm0 vmovapd %xmm0, 22688(%rbx) vmovapd 24256(%rbx), %xmm0 vunpckhpd %xmm0, %xmm0, %xmm0 vmovapd %xmm0, 22592(%rbx) vmovapd 26304(%rbx), %ymm0 vunpckhpd %xmm0, %xmm0, %xmm0 vmovapd %xmm0, 22560(%rbx) vmovapd 24192(%rbx), %xmm0 vunpckhpd %xmm0, %xmm0, %xmm0 vmovapd %xmm0, 22496(%rbx) vmovapd 26240(%rbx), %ymm0 vunpckhpd %xmm0, %xmm0, %xmm0 vmovapd %xmm0, 22400(%rbx) vmovapd 24128(%rbx), %xmm0 vunpckhpd %xmm0, %xmm0, %xmm0 vmovapd %xmm0, 22304(%rbx) vmovapd 26176(%rbx), %ymm0 vunpckhpd %xmm0, %xmm0, %xmm0 vmovapd %xmm0, 22272(%rbx) vmovapd 24064(%rbx), %xmm0 vunpckhpd %xmm0, %xmm0, %xmm0 vmovapd %xmm0, 22208(%rbx) vmovapd 21504(%rbx), %ymm0 vunpckhpd %xmm0, %xmm0, %xmm0 vmovapd %xmm0, 20160(%rbx) vmovapd 20896(%rbx), %xmm0 vunpckhpd %xmm0, %xmm0, %xmm0 vmovapd %xmm0, 20224(%rbx) vmovapd 21568(%rbx), %ymm0 vunpckhpd %xmm0, %xmm0, %xmm0 vmovapd %xmm0, 20288(%rbx) vmovapd 20960(%rbx), %xmm0 vunpckhpd %xmm0, %xmm0, %xmm0 vmovapd %xmm0, 20320(%rbx) vmovapd 24896(%rbx), %ymm0 vunpckhpd %xmm0, %xmm0, %xmm0 vmovapd %xmm0, 21888(%rbx) vmovapd 23936(%rbx), %xmm0 vunpckhpd %xmm0, %xmm0, %xmm0 vmovapd %xmm0, 21952(%rbx) vmovapd 26048(%rbx), %ymm0 vunpckhpd %xmm0, %xmm0, %xmm0 vmovapd %xmm0, 22016(%rbx) vmovapd 24000(%rbx), %xmm0 vunpckhpd %xmm0, %xmm0, %xmm0 vmovapd %xmm0, 22048(%rbx) vmovapd 26112(%rbx), %ymm0 vunpckhpd %xmm0, %xmm0, %xmm0 vmovapd %xmm0, 22112(%rbx) vmovapd 20832(%rbx), %xmm0 vunpckhpd %xmm0, %xmm0, %xmm0 vmovapd %xmm0, 20064(%rbx) vmovapd 21472(%rbx), %ymm0 vunpckhpd %xmm0, %xmm0, %xmm0 vmovapd %xmm0, 20032(%rbx) vmovapd 20800(%rbx), %xmm0 vunpckhpd %xmm0, %xmm0, %xmm0 vmovapd %xmm0, 20000(%rbx) vmovapd 21440(%rbx), %ymm0 vunpckhpd %xmm0, %xmm0, %xmm0 vmovapd %xmm0, 19968(%rbx) vmovapd 20768(%rbx), %xmm0 vunpckhpd %xmm0, %xmm0, %xmm0 vmovapd %xmm0, 19936(%rbx) vmovapd 21408(%rbx), %ymm0 vunpckhpd %xmm0, %xmm0, %xmm0 vmovapd %xmm0, 19904(%rbx) vmovapd 20736(%rbx), %xmm0 vunpckhpd %xmm0, %xmm0, %xmm0 vmovapd %xmm0, 19872(%rbx) vmovapd 21376(%rbx), %ymm0 vunpckhpd %xmm0, %xmm0, %xmm0 vmovapd %xmm0, 19840(%rbx) vmovapd 20704(%rbx), %xmm0 vunpckhpd %xmm0, %xmm0, %xmm0 vmovapd %xmm0, 19808(%rbx) vmovapd 21344(%rbx), %ymm0 vunpckhpd %xmm0, %xmm0, %xmm0 vmovapd %xmm0, 19776(%rbx) vmovapd 20672(%rbx), %xmm0 vunpckhpd %xmm0, %xmm0, %xmm0 vmovapd %xmm0, 19744(%rbx) vmovapd 21312(%rbx), %ymm0 vunpckhpd %xmm0, %xmm0, %xmm0 vmovapd %xmm0, 19712(%rbx) vmovapd 20640(%rbx), %xmm0 vunpckhpd %xmm0, %xmm0, %xmm0 vmovapd %xmm0, 19680(%rbx) vmovapd 21280(%rbx), %ymm0 vunpckhpd %xmm0, %xmm0, %xmm0 vmovapd %xmm0, 19648(%rbx) vmovapd 20608(%rbx), %xmm0 vunpckhpd %xmm0, %xmm0, %xmm0 vmovapd %xmm0, 19616(%rbx) vmovapd 21248(%rbx), %ymm0 vunpckhpd %xmm0, %xmm0, %xmm0 vmovapd %xmm0, 19584(%rbx) vmovapd 20576(%rbx), %xmm0 vunpckhpd %xmm0, %xmm0, %xmm0 vmovapd %xmm0, 19552(%rbx) vmovapd 21216(%rbx), %ymm0 vunpckhpd %xmm0, %xmm0, %xmm0 vmovapd %xmm0, 19520(%rbx) vmovapd 20544(%rbx), %xmm0 vunpckhpd %xmm0, %xmm0, %xmm0 vmovapd %xmm0, 19488(%rbx) vmovapd 21184(%rbx), %ymm0 vunpckhpd %xmm0, %xmm0, %xmm0 vmovapd %xmm0, 19456(%rbx) vmovapd 20512(%rbx), %xmm0 vunpckhpd %xmm0, %xmm0, %xmm0 vmovapd %xmm0, 19424(%rbx) vmovapd 21152(%rbx), %ymm0 vunpckhpd %xmm0, %xmm0, %xmm0 vmovapd %xmm0, 19392(%rbx) vmovapd 20480(%rbx), %xmm0 vunpckhpd %xmm0, %xmm0, %xmm0 vmovapd %xmm0, 19360(%rbx) vmovapd 21120(%rbx), %ymm0 vunpckhpd %xmm0, %xmm0, %xmm0 vmovapd %xmm0, 19328(%rbx) vmovapd 20448(%rbx), %xmm0 vunpckhpd %xmm0, %xmm0, %xmm0 vmovapd %xmm0, 19296(%rbx) vmovapd 21088(%rbx), %ymm0 vunpckhpd %xmm0, %xmm0, %xmm0 vmovapd %xmm0, 19264(%rbx) vmovapd 20416(%rbx), %xmm0 vunpckhpd %xmm0, %xmm0, %xmm0 vmovapd %xmm0, 19232(%rbx) vmovapd 19008(%rbx), %ymm0 vunpckhpd %xmm0, %xmm0, %xmm0 vmovapd %xmm0, 18720(%rbx) vmovapd 18912(%rbx), %xmm0 vunpckhpd %xmm0, %xmm0, %xmm0 vmovapd %xmm0, 18752(%rbx) vmovapd 19040(%rbx), %ymm0 vunpckhpd %xmm0, %xmm0, %xmm0 vmovapd %xmm0, 18784(%rbx) vmovapd 18944(%rbx), %xmm0 vunpckhpd %xmm0, %xmm0, %xmm0 vmovapd %xmm0, 18816(%rbx) vmovapd 20992(%rbx), %ymm0 vunpckhpd %xmm0, %xmm0, %xmm0 vmovapd %xmm0, 19072(%rbx) vmovapd 20352(%rbx), %xmm0 vunpckhpd %xmm0, %xmm0, %xmm0 vmovapd %xmm0, 19104(%rbx) vmovapd 21024(%rbx), %ymm0 vunpckhpd %xmm0, %xmm0, %xmm0 vmovapd %xmm0, 19136(%rbx) vmovapd 20384(%rbx), %xmm0 vunpckhpd %xmm0, %xmm0, %xmm0 vmovapd %xmm0, 19168(%rbx) vmovapd 21056(%rbx), %ymm0 vunpckhpd %xmm0, %xmm0, %xmm0 vmovapd %xmm0, 19200(%rbx) vmovapd 24832(%rbx), %xmm0 vunpckhpd %xmm0, %xmm0, %xmm0 vmovapd %xmm0, 23808(%rbx) vmovapd 31136(%rbx), %ymm0 vunpckhpd %xmm0, %xmm0, %xmm0 vmovapd %xmm0, 23744(%rbx) vmovapd 24768(%rbx), %xmm0 vunpckhpd %xmm0, %xmm0, %xmm0 vmovapd %xmm0, 23680(%rbx) vmovapd 26880(%rbx), %ymm0 vunpckhpd %xmm0, %xmm0, %xmm0 vmovapd %xmm0, 23648(%rbx) vmovapd 24704(%rbx), %xmm0 vunpckhpd %xmm0, %xmm0, %xmm0 vmovapd %xmm0, 23552(%rbx) vmovapd 26816(%rbx), %ymm0 vunpckhpd %xmm0, %xmm0, %xmm0 vmovapd %xmm0, 23520(%rbx) vmovapd 24640(%rbx), %xmm0 vunpckhpd %xmm0, %xmm0, %xmm0 vmovapd %xmm0, 23456(%rbx) vmovapd 26752(%rbx), %ymm0 vunpckhpd %xmm0, %xmm0, %xmm0 vmovapd %xmm0, 23392(%rbx) vmovapd 24576(%rbx), %xmm0 vunpckhpd %xmm0, %xmm0, %xmm0 vmovapd %xmm0, 23296(%rbx) vmovapd 26688(%rbx), %ymm0 vunpckhpd %xmm0, %xmm0, %xmm0 vmovapd %xmm0, 23232(%rbx) vmovapd 24512(%rbx), %xmm0 vunpckhpd %xmm0, %xmm0, %xmm0 vmovapd %xmm0, 23168(%rbx) vmovapd 26624(%rbx), %ymm0 vunpckhpd %xmm0, %xmm0, %xmm0 vmovapd %xmm0, 23136(%rbx) vmovapd 24448(%rbx), %xmm0 vunpckhpd %xmm0, %xmm0, %xmm0 vmovapd %xmm0, 23040(%rbx) vmovapd 26560(%rbx), %ymm0 vunpckhpd %xmm0, %xmm0, %xmm0 vmovapd %xmm0, 22976(%rbx) vmovapd 21632(%rbx), %xmm0 vunpckhpd %xmm0, %xmm0, %xmm0 vmovapd %xmm0, 22912(%rbx) vmovapd 26496(%rbx), %ymm0 vunpckhpd %xmm0, %xmm0, %xmm0 vmovapd %xmm0, 22880(%rbx) vmovapd 24352(%rbx), %xmm0 vunpckhpd %xmm0, %xmm0, %xmm0 vmovapd %xmm0, 22784(%rbx) vmovapd 26432(%rbx), %ymm0 vunpckhpd %xmm0, %xmm0, %xmm0 vmovapd %xmm0, 22720(%rbx) vmovapd 24288(%rbx), %xmm0 vunpckhpd %xmm0, %xmm0, %xmm0 vmovapd %xmm0, 22656(%rbx) vmovapd 26368(%rbx), %ymm0 vunpckhpd %xmm0, %xmm0, %xmm0 vmovapd %xmm0, 22624(%rbx) vmovapd 24224(%rbx), %xmm0 vunpckhpd %xmm0, %xmm0, %xmm0 vmovapd %xmm0, 22528(%rbx) vmovapd 21792(%rbx), %ymm0 vunpckhpd %xmm0, %xmm0, %xmm0 vmovapd %xmm0, 22464(%rbx) vmovapd 24160(%rbx), %xmm0 vunpckhpd %xmm0, %xmm0, %xmm0 vmovapd %xmm0, 22368(%rbx) vmovapd 26272(%rbx), %ymm0 vunpckhpd %xmm0, %xmm0, %xmm0 vmovapd %xmm0, 22336(%rbx) vmovapd 24096(%rbx), %xmm0 vunpckhpd %xmm0, %xmm0, %xmm0 vmovapd %xmm0, 22240(%rbx) vmovapd 26208(%rbx), %ymm0 vunpckhpd %xmm0, %xmm0, %xmm0 vmovapd %xmm0, 22176(%rbx) vmovapd 24032(%rbx), %xmm0 vunpckhpd %xmm0, %xmm0, %xmm0 vmovapd %xmm0, 22144(%rbx) vmovapd 21536(%rbx), %ymm0 vunpckhpd %xmm0, %xmm0, %xmm0 vmovapd %xmm0, 20096(%rbx) vmovapd 20864(%rbx), %xmm0 vunpckhpd %xmm0, %xmm0, %xmm0 vmovapd %xmm0, 20128(%rbx) vmovapd 21600(%rbx), %ymm0 vunpckhpd %xmm0, %xmm0, %xmm0 vmovapd %xmm0, 20192(%rbx) vmovapd 20928(%rbx), %xmm0 vunpckhpd %xmm0, %xmm0, %xmm0 vmovapd %xmm0, 20256(%rbx) vmovapd 25664(%rbx), %ymm0 vunpckhpd %xmm0, %xmm0, %xmm0 vmovapd %xmm0, 21824(%rbx) vmovapd 23904(%rbx), %xmm0 vunpckhpd %xmm0, %xmm0, %xmm0 vmovapd %xmm0, 21856(%rbx) vmovapd 26080(%rbx), %ymm0 vunpckhpd %xmm0, %xmm0, %xmm0 vmovapd %xmm0, 21920(%rbx) vmovapd 23968(%rbx), %xmm0 vunpckhpd %xmm0, %xmm0, %xmm0 vmovapd %xmm0, 21984(%rbx) vmovapd 26144(%rbx), %ymm0 vunpckhpd %xmm0, %xmm0, %xmm0 vmovapd %xmm0, 22080(%rbx) vmovapd 18208(%rbx), %ymm0 vsubpd 18240(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 17952(%rbx) vmovapd 17888(%rbx), %ymm0 vsubpd 17920(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 17920(%rbx) vmovapd 17568(%rbx), %ymm0 vsubpd 17440(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 17568(%rbx) vmovapd 17536(%rbx), %ymm0 vsubpd 17408(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 17536(%rbx) vmovapd 17504(%rbx), %ymm0 vsubpd 17376(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 17504(%rbx) vmovapd 17216(%rbx), %ymm0 vsubpd 17472(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 18240(%rbx) vmovapd 17120(%rbx), %ymm0 vsubpd 17184(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 18208(%rbx) vmovapd 17088(%rbx), %ymm0 vsubpd 17344(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 17888(%rbx) vmovapd 17056(%rbx), %ymm0 vsubpd 17312(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 17472(%rbx) vmovapd 17024(%rbx), %ymm0 vsubpd 17280(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 17408(%rbx) vmovapd 13824(%rbx), %ymm0 vmovapd 18848(%rbx), %ymm1 vmulpd %ymm0, %ymm1, %ymm1 vmovapd %ymm1, 17280(%rbx) vmovapd 18880(%rbx), %ymm1 vmulpd %ymm0, %ymm1, %ymm0 vmovapd %ymm0, 17344(%rbx) vmovapd 16960(%rbx), %ymm0 vsubpd 15936(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 17312(%rbx) vmovapd 17152(%rbx), %ymm0 vsubpd 15968(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 17216(%rbx) vmovapd 17856(%rbx), %ymm0 vsubpd 16896(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 18880(%rbx) vmovapd 18176(%rbx), %ymm0 vsubpd 16992(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 17856(%rbx) vmovapd 16928(%rbx), %ymm0 vsubpd %ymm0, %ymm0, %ymm0 vmovapd %ymm0, 17440(%rbx) vmovapd 17248(%rbx), %ymm0 vsubpd %ymm0, %ymm0, %ymm0 vmovapd %ymm0, 17376(%rbx) vmovaps 16320(%rbx), %ymm0 vinsertf128 $1, 16544(%rbx), %ymm0, %ymm0 vmovaps %ymm0, 18176(%rbx) vmovaps 16288(%rbx), %ymm0 vinsertf128 $1, 16512(%rbx), %ymm0, %ymm0 vmovaps %ymm0, 16544(%rbx) vmovapd .LCPI1_25(%rip), %ymm14 vmovapd 16480(%rbx), %ymm0 vblendvpd %ymm0, 16256(%rbx), %ymm14, %ymm0 vmovapd %ymm0, 16512(%rbx) vmovapd 16448(%rbx), %ymm0 vblendvpd %ymm0, 15840(%rbx), %ymm14, %ymm0 vmovapd %ymm0, 16480(%rbx) vmovapd 16224(%rbx), %ymm0 vblendvpd %ymm0, 15808(%rbx), %ymm14, %ymm0 vmovapd %ymm0, 16448(%rbx) vmovapd 16192(%rbx), %ymm0 vblendvpd %ymm0, 15776(%rbx), %ymm14, %ymm0 vmovapd %ymm0, 16320(%rbx) vmovapd 16160(%rbx), %ymm0 vblendvpd %ymm0, 32320(%rbx), %ymm14, %ymm0 vmovapd %ymm0, 16288(%rbx) vmovapd 16128(%rbx), %ymm0 vblendvpd %ymm0, 32096(%rbx), %ymm14, %ymm0 vmovapd %ymm0, 32096(%rbx) vmovapd 16096(%rbx), %ymm0 vblendvpd %ymm0, 18400(%rbx), %ymm14, %ymm0 vmovapd %ymm0, 18400(%rbx) vmovapd 16064(%rbx), %ymm0 vblendvpd %ymm0, 18368(%rbx), %ymm14, %ymm0 vmovapd %ymm0, 18368(%rbx) vmovapd 16032(%rbx), %ymm0 vblendvpd %ymm0, 18336(%rbx), %ymm14, %ymm0 vmovapd %ymm0, 18336(%rbx) vmovapd 16000(%rbx), %ymm0 vblendvpd %ymm0, 18304(%rbx), %ymm14, %ymm0 vmovapd %ymm0, 18304(%rbx) vmovapd 15904(%rbx), %ymm0 vblendvpd %ymm0, 32896(%rbx), %ymm14, %ymm0 vmovapd %ymm0, 16256(%rbx) vmovapd 15872(%rbx), %ymm0 vblendvpd %ymm0, 18272(%rbx), %ymm14, %ymm0 vmovapd %ymm0, 18272(%rbx) leal 1056(%rcx,%rsi), %eax movslq %eax, %rax vmovupd 33056(%rbx,%rax,8), %xmm6 vmovupd 33024(%rbx,%rax,8), %xmm4 movq 32640(%rbx), %rdi vmovupd 33056(%rbx,%rdi,8), %xmm5 movq 18496(%rbx), %rdx vmovupd 33056(%rbx,%rdx,8), %xmm2 vmovupd 33024(%rbx,%rdi,8), %xmm9 vmovupd 33040(%rbx,%rax,8), %xmm7 vmovupd 33072(%rbx,%rax,8), %xmm1 vmovupd 33024(%rbx,%rdx,8), %xmm0 vmovupd 33040(%rbx,%rdx,8), %xmm3 vinsertf128 $1, %xmm1, %ymm6, %ymm15 vmovupd 33040(%rbx,%rdi,8), %xmm1 vinsertf128 $1, %xmm7, %ymm4, %ymm4 vinsertf128 $1, 33072(%rbx,%rdi,8), %ymm5, %ymm12 vinsertf128 $1, 33072(%rbx,%rdx,8), %ymm2, %ymm6 vmovapd %ymm6, 18848(%rbx) vinsertf128 $1, %xmm1, %ymm9, %ymm10 vinsertf128 $1, %xmm3, %ymm0, %ymm5 vmovapd %ymm5, 32320(%rbx) vpshufd $8, %xmm8, %xmm0 vmovaps 32992(%rbx), %xmm1 vmovlhps %xmm1, %xmm0, %xmm0 vmovdqa 32960(%rbx), %ymm1 vpshufd $8, %xmm1, %xmm1 vmovaps 32928(%rbx), %xmm2 vmovlhps %xmm2, %xmm1, %xmm2 vsubpd %ymm5, %ymm4, %ymm3 vsubpd %ymm10, %ymm5, %ymm1 vsubpd %ymm6, %ymm15, %ymm5 vsubpd %ymm12, %ymm6, %ymm6 vmovapd .LCPI1_24(%rip), %ymm7 vmulpd %ymm7, %ymm6, %ymm11 vmulpd %ymm7, %ymm5, %ymm13 vmovapd %ymm13, 32640(%rbx) vmulpd %ymm7, %ymm1, %ymm8 vmulpd %ymm7, %ymm3, %ymm9 vmovdqa .LCPI1_21(%rip), %xmm5 vpshufb %xmm5, %xmm2, %xmm1 vmovdqa .LCPI1_20(%rip), %xmm6 vpshufb %xmm6, %xmm0, %xmm0 vpor %xmm0, %xmm1, %xmm2 vmulpd %ymm13, %ymm11, %ymm0 vxorpd %ymm3, %ymm3, %ymm3 vcmpnlepd %ymm3, %ymm0, %ymm1 vmovapd %ymm1, 32992(%rbx) vextractf128 $1, %ymm1, %xmm0 vpshufd $8, %xmm0, %xmm7 vmovdqa %xmm7, 32960(%rbx) vpshufd $8, %xmm1, %xmm0 vmovlhps %xmm7, %xmm0, %xmm0 vpshufb %xmm6, %xmm0, %xmm0 vmulpd %ymm9, %ymm8, %ymm1 vmovapd %ymm8, %ymm7 vcmpnlepd %ymm3, %ymm1, %ymm3 vmovapd %ymm3, 32928(%rbx) vextractf128 $1, %ymm3, %xmm1 vpshufd $8, %xmm1, %xmm6 vmovdqa %xmm6, 32896(%rbx) vpshufd $8, %xmm3, %xmm1 vmovlhps %xmm6, %xmm1, %xmm1 vpshufb %xmm5, %xmm1, %xmm1 vpor %xmm0, %xmm1, %xmm3 vpsllw $15, %xmm2, %xmm0 vpsraw $15, %xmm0, %xmm2 vpunpckhbw %xmm0, %xmm2, %xmm0 vpslld $31, %xmm0, %xmm5 vpmovsxdq %xmm5, %xmm0 vmovhlps %xmm5, %xmm5, %xmm1 vpmovsxdq %xmm1, %xmm1 vinsertf128 $1, %xmm1, %ymm0, %ymm0 vblendvpd %ymm0, 15712(%rbx), %ymm14, %ymm0 vmovapd %ymm0, 16224(%rbx) vpxor .LCPI1_17(%rip), %xmm3, %xmm0 vpunpcklbw %xmm0, %xmm2, %xmm1 vpslld $31, %xmm1, %xmm2 vpmovzxwd %xmm0, %xmm1 vpslld $31, %xmm1, %xmm1 vpsrad $31, %xmm1, %xmm3 vpunpckhwd %xmm0, %xmm0, %xmm0 vpslld $31, %xmm0, %xmm0 vpsrad $31, %xmm0, %xmm0 vinsertf128 $1, %xmm0, %ymm3, %ymm0 vpmovsxdq %xmm2, %xmm3 vmovhlps %xmm2, %xmm2, %xmm1 vpmovsxdq %xmm1, %xmm1 vinsertf128 $1, %xmm1, %ymm3, %ymm1 vblendvpd %ymm1, 15744(%rbx), %ymm14, %ymm1 vmovapd %ymm1, 16192(%rbx) vmovdqa 6688(%rbx), %ymm1 vptest %ymm1, %ymm0 vmovapd 6720(%rbx), %ymm0 vmovapd %ymm0, %ymm1 vmovapd %ymm0, %ymm5 movq 25456(%rbx), %r10 movq 25600(%rbx), %rdi jb .LBB1_3610 vsubpd %ymm10, %ymm4, %ymm0 vsubpd %ymm12, %ymm15, %ymm1 vmovapd .LCPI1_28(%rip), %ymm2 vmulpd %ymm2, %ymm1, %ymm8 vmulpd %ymm2, %ymm0, %ymm3 vmovapd %ymm3, 17248(%rbx) vmovapd .LCPI1_56(%rip), %ymm15 vandpd %ymm15, %ymm8, %ymm4 vandpd %ymm15, %ymm11, %ymm14 vcmpltpd %ymm4, %ymm14, %ymm0 vextractf128 $1, %ymm0, %xmm1 vpshufd $8, %xmm1, %xmm2 vpshufd $8, %xmm0, %xmm0 vandpd %ymm15, %ymm3, %ymm12 vmovlhps %xmm2, %xmm0, %xmm6 vmovapd %ymm11, 18496(%rbx) vmovapd %ymm7, %ymm11 vandpd %ymm15, %ymm11, %ymm5 vcmpltpd %ymm12, %ymm5, %ymm0 vextractf128 $1, %ymm0, %xmm1 vpshufd $8, %xmm1, %xmm2 vpshufd $8, %xmm0, %xmm0 vmovlhps %xmm2, %xmm0, %xmm2 vmovapd 32640(%rbx), %ymm13 vandpd %ymm15, %ymm13, %ymm10 vcmpltpd %ymm10, %ymm14, %ymm0 vextractf128 $1, %ymm0, %xmm1 vpshufd $8, %xmm1, %xmm1 vpshufd $8, %xmm0, %xmm0 vmovlhps %xmm1, %xmm0, %xmm0 vandpd %ymm15, %ymm9, %ymm14 vcmpltpd %ymm14, %ymm5, %ymm5 vextractf128 $1, %ymm5, %xmm1 vpshufd $8, %xmm1, %xmm1 vpshufd $8, %xmm5, %xmm5 vmovlhps %xmm1, %xmm5, %xmm1 vcmpltpd %ymm12, %ymm14, %ymm12 vmovdqa .LCPI1_21(%rip), %xmm7 vpshufb %xmm7, %xmm1, %xmm1 vmovdqa .LCPI1_20(%rip), %xmm3 vpshufb %xmm3, %xmm0, %xmm0 vpor %xmm0, %xmm1, %xmm5 vpshufb %xmm7, %xmm2, %xmm0 vpshufb %xmm3, %xmm6, %xmm1 vpor %xmm1, %xmm0, %xmm0 vextractf128 $1, %ymm12, %xmm1 vpshufd $8, %xmm1, %xmm1 vpshufd $8, %xmm12, %xmm2 vmovlhps %xmm1, %xmm2, %xmm2 vmovdqa 32928(%rbx), %ymm1 vpshufd $8, %xmm1, %xmm1 vmovaps 32896(%rbx), %xmm6 vmovlhps %xmm6, %xmm1, %xmm6 vcmpltpd %ymm4, %ymm10, %ymm10 vpsllw $15, %xmm0, %xmm0 vpsraw $15, %xmm0, %xmm0 vmovdqa .LCPI1_17(%rip), %xmm4 vpxor %xmm4, %xmm0, %xmm0 vpsllw $15, %xmm5, %xmm1 vpsraw $15, %xmm1, %xmm1 vpxor %xmm4, %xmm1, %xmm1 vpor %xmm0, %xmm1, %xmm4 vextractf128 $1, %ymm10, %xmm0 vpshufd $8, %xmm0, %xmm0 vpshufd $8, %xmm10, %xmm1 vmovlhps %xmm0, %xmm1, %xmm0 vpshufb %xmm7, %xmm2, %xmm5 vpshufb %xmm7, %xmm6, %xmm2 vmovdqa 32992(%rbx), %ymm1 vpshufd $8, %xmm1, %xmm1 vmovaps 32960(%rbx), %xmm6 vmovlhps %xmm6, %xmm1, %xmm1 vpshufb %xmm3, %xmm1, %xmm1 vpor %xmm1, %xmm2, %xmm1 vpsllw $15, %xmm1, %xmm1 vpsraw $15, %xmm1, %xmm1 vpand %xmm4, %xmm1, %xmm2 vpshufb %xmm3, %xmm0, %xmm0 vpunpckhbw %xmm0, %xmm2, %xmm1 vpor %xmm0, %xmm5, %xmm4 vpslld $31, %xmm1, %xmm0 vpsllw $15, %xmm4, %xmm1 vpsraw $15, %xmm1, %xmm4 vpmovsxdq %xmm0, %xmm5 vmovhlps %xmm0, %xmm0, %xmm0 vpmovsxdq %xmm0, %xmm0 vinsertf128 $1, %xmm0, %ymm5, %ymm5 vpunpckhbw %xmm0, %xmm4, %xmm0 vpslld $31, %xmm0, %xmm1 vpmovsxdq %xmm1, %xmm0 vmovhlps %xmm1, %xmm1, %xmm1 vpmovsxdq %xmm1, %xmm1 vinsertf128 $1, %xmm1, %ymm0, %ymm0 vpunpcklbw %xmm0, %xmm2, %xmm1 vpslld $31, %xmm1, %xmm1 vpmovsxdq %xmm1, %xmm2 vmovhlps %xmm1, %xmm1, %xmm1 vpmovsxdq %xmm1, %xmm6 vpunpcklbw %xmm0, %xmm4, %xmm4 vblendvpd %ymm0, %ymm13, %ymm8, %ymm0 vmovapd 18496(%rbx), %ymm1 vblendvpd %ymm5, %ymm0, %ymm1, %ymm0 vmovapd .LCPI1_77(%rip), %ymm3 vmulpd %ymm3, %ymm0, %ymm5 vinsertf128 $1, %xmm6, %ymm2, %ymm0 vpslld $31, %xmm4, %xmm1 vpmovsxdq %xmm1, %xmm2 vmovhlps %xmm1, %xmm1, %xmm1 vpmovsxdq %xmm1, %xmm1 vinsertf128 $1, %xmm1, %ymm2, %ymm1 vmovapd 17248(%rbx), %ymm2 vblendvpd %ymm1, %ymm9, %ymm2, %ymm1 vblendvpd %ymm0, %ymm1, %ymm11, %ymm0 vmulpd %ymm3, %ymm0, %ymm1 .LBB1_3610: vmovapd %ymm1, 16160(%rbx) vmovapd 17280(%rbx), %ymm1 vmulpd 32800(%rbx), %ymm1, %ymm0 vmovapd %ymm0, 17024(%rbx) vmulpd 18976(%rbx), %ymm1, %ymm0 vmovapd %ymm0, 17184(%rbx) vmovapd 17344(%rbx), %ymm1 vmulpd 32832(%rbx), %ymm1, %ymm0 vmovapd %ymm0, 17280(%rbx) vmulpd 31808(%rbx), %ymm1, %ymm0 vmovapd %ymm0, 17344(%rbx) vmovapd 13824(%rbx), %ymm0 vmovapd 17504(%rbx), %ymm1 vmulpd %ymm0, %ymm1, %ymm1 vmovapd %ymm1, 17056(%rbx) vmovapd 17536(%rbx), %ymm1 vmulpd %ymm0, %ymm1, %ymm1 vmovapd %ymm1, 17120(%rbx) vmovapd 17568(%rbx), %ymm1 vmulpd %ymm0, %ymm1, %ymm1 vmovapd %ymm1, 16896(%rbx) vmovapd 17920(%rbx), %ymm1 vmulpd %ymm0, %ymm1, %ymm1 vmovapd %ymm1, 16992(%rbx) vmovapd 17952(%rbx), %ymm1 vmulpd %ymm0, %ymm1, %ymm1 vmovapd %ymm1, 17088(%rbx) vmovapd 17440(%rbx), %ymm1 vmulpd %ymm0, %ymm1, %ymm1 vmovapd %ymm1, 17248(%rbx) vmovapd 18432(%rbx), %ymm1 vmulpd %ymm0, %ymm1, %ymm1 vmovapd %ymm1, 17504(%rbx) vmovapd 16736(%rbx), %ymm1 vmulpd %ymm0, %ymm1, %ymm1 vmovapd %ymm1, 17536(%rbx) vmovapd 16704(%rbx), %ymm1 vmulpd %ymm0, %ymm1, %ymm1 vmovapd %ymm1, 17568(%rbx) vmovapd 16672(%rbx), %ymm1 vmulpd %ymm0, %ymm1, %ymm1 vmovapd %ymm1, 17440(%rbx) vmovapd 17216(%rbx), %ymm1 vmulpd %ymm0, %ymm1, %ymm1 vmovapd %ymm1, 17920(%rbx) vmovapd 17312(%rbx), %ymm1 vmulpd %ymm0, %ymm1, %ymm1 vmovapd %ymm1, 17952(%rbx) vmovapd 17408(%rbx), %ymm1 vmulpd %ymm0, %ymm1, %ymm1 vmovapd %ymm1, 16736(%rbx) vmovapd 17472(%rbx), %ymm1 vmulpd %ymm0, %ymm1, %ymm1 vmovapd %ymm1, 16928(%rbx) vmovapd 17888(%rbx), %ymm1 vmulpd %ymm0, %ymm1, %ymm1 vmovapd %ymm1, 16960(%rbx) vmovapd 18208(%rbx), %ymm1 vmulpd %ymm0, %ymm1, %ymm1 vmovapd %ymm1, 16704(%rbx) vmovapd 18240(%rbx), %ymm1 vmulpd %ymm0, %ymm1, %ymm1 vmovapd %ymm1, 17152(%rbx) vmovapd 17376(%rbx), %ymm1 vmulpd %ymm0, %ymm1, %ymm1 vmovapd %ymm1, 17216(%rbx) vmovapd 16864(%rbx), %ymm1 vmulpd %ymm0, %ymm1, %ymm1 vmovapd %ymm1, 17312(%rbx) vmovapd 16832(%rbx), %ymm1 vmulpd %ymm0, %ymm1, %ymm1 vmovapd %ymm1, 17376(%rbx) vmovapd 16800(%rbx), %ymm1 vmulpd %ymm0, %ymm1, %ymm1 vmovapd %ymm1, 17472(%rbx) vmovapd 16768(%rbx), %ymm1 vmulpd %ymm0, %ymm1, %ymm1 vmovapd %ymm1, 17408(%rbx) vmovapd 17856(%rbx), %ymm1 vmulpd %ymm0, %ymm1, %ymm1 vmovapd %ymm1, 17888(%rbx) vmovapd 18880(%rbx), %ymm1 vmulpd %ymm0, %ymm1, %ymm0 vmovapd %ymm0, 17856(%rbx) vmovapd 16576(%rbx), %ymm0 vmovapd 16416(%rbx), %ymm1 vmovapd %ymm5, %ymm14 vmovapd 18176(%rbx), %ymm5 vblendvpd %ymm5, %ymm1, %ymm0, %ymm2 vmovapd %ymm2, 16832(%rbx) vmovapd 16384(%rbx), %ymm2 vmovapd 16352(%rbx), %ymm3 vmovapd 16544(%rbx), %ymm6 vblendvpd %ymm6, %ymm3, %ymm2, %ymm4 vmovapd %ymm4, 16768(%rbx) vblendvpd %ymm5, %ymm0, %ymm1, %ymm0 vmovapd %ymm0, 16864(%rbx) vblendvpd %ymm6, %ymm2, %ymm3, %ymm0 vmovapd %ymm0, 16800(%rbx) vmovapd 16608(%rbx), %ymm0 vaddpd 16512(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 18976(%rbx) vmovapd 16640(%rbx), %ymm0 vaddpd 16480(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 18496(%rbx) vmovapd 32064(%rbx), %ymm0 vaddpd 16448(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 32064(%rbx) vmovapd 31840(%rbx), %ymm0 vaddpd 16320(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 18432(%rbx) vmovapd 32384(%rbx), %ymm0 vaddpd 16288(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 32800(%rbx) vmovapd 32288(%rbx), %ymm0 vaddpd 32096(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 32384(%rbx) vmovapd 32416(%rbx), %ymm0 vaddpd 18400(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 32640(%rbx) vmovapd 32352(%rbx), %ymm0 vaddpd 18368(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 32832(%rbx) vmovapd 32864(%rbx), %ymm0 vaddpd 18336(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 32416(%rbx) vmovapd 32448(%rbx), %ymm0 vaddpd 18304(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 32352(%rbx) vmovapd 32480(%rbx), %ymm0 vaddpd 16256(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 18880(%rbx) vmovapd 32256(%rbx), %ymm0 vaddpd 18272(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 32448(%rbx) vmovapd 32512(%rbx), %ymm0 vaddpd 16224(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 31808(%rbx) vmovapd 31872(%rbx), %ymm0 vaddpd 16192(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 32864(%rbx) leal 1200(%rcx,%rsi), %eax movslq %eax, %rax vmovupd 33056(%rbx,%rax,8), %xmm5 vmovupd 33024(%rbx,%rax,8), %xmm4 movq 32736(%rbx), %rcx vmovupd 33056(%rbx,%rcx,8), %xmm3 movq 18528(%rbx), %rsi vmovupd 33056(%rbx,%rsi,8), %xmm2 vmovupd 33024(%rbx,%rcx,8), %xmm8 vmovupd 33040(%rbx,%rax,8), %xmm6 vmovupd 33072(%rbx,%rax,8), %xmm1 vmovupd 33024(%rbx,%rsi,8), %xmm0 vmovupd 33040(%rbx,%rsi,8), %xmm7 vinsertf128 $1, %xmm1, %ymm5, %ymm15 vmovupd 33040(%rbx,%rcx,8), %xmm1 vinsertf128 $1, %xmm6, %ymm4, %ymm12 vinsertf128 $1, 33072(%rbx,%rcx,8), %ymm3, %ymm9 vinsertf128 $1, 33072(%rbx,%rsi,8), %ymm2, %ymm10 vmovapd %ymm10, 32096(%rbx) vinsertf128 $1, %xmm1, %ymm8, %ymm3 vinsertf128 $1, %xmm7, %ymm0, %ymm1 vmovapd %ymm1, 31840(%rbx) vmovdqa 32992(%rbx), %ymm0 vpshufd $8, %xmm0, %xmm0 vmovaps 32960(%rbx), %xmm2 vmovlhps %xmm2, %xmm0, %xmm2 vmovdqa 32928(%rbx), %ymm0 vpshufd $8, %xmm0, %xmm0 vmovaps 32896(%rbx), %xmm4 vmovlhps %xmm4, %xmm0, %xmm0 vsubpd %ymm1, %ymm12, %ymm5 vsubpd %ymm3, %ymm1, %ymm6 vsubpd %ymm10, %ymm15, %ymm7 vsubpd %ymm9, %ymm10, %ymm1 vmovapd .LCPI1_24(%rip), %ymm11 vmulpd %ymm11, %ymm1, %ymm4 vmulpd %ymm11, %ymm7, %ymm10 vmulpd %ymm11, %ymm6, %ymm13 vmulpd %ymm11, %ymm5, %ymm8 vmovdqa .LCPI1_21(%rip), %xmm6 vpshufb %xmm6, %xmm0, %xmm0 vmovdqa .LCPI1_20(%rip), %xmm7 vpshufb %xmm7, %xmm2, %xmm1 vpor %xmm1, %xmm0, %xmm0 vmulpd %ymm10, %ymm4, %ymm1 vmovapd %ymm4, %ymm11 vxorpd %ymm5, %ymm5, %ymm5 vcmpnlepd %ymm5, %ymm1, %ymm2 vmovapd %ymm2, 32992(%rbx) vextractf128 $1, %ymm2, %xmm1 vpshufd $8, %xmm1, %xmm4 vmovdqa %xmm4, 32960(%rbx) vpshufd $8, %xmm2, %xmm1 vmovlhps %xmm4, %xmm1, %xmm1 vpshufb %xmm7, %xmm1, %xmm2 vmulpd %ymm8, %ymm13, %ymm1 vcmpnlepd %ymm5, %ymm1, %ymm4 vmovapd %ymm4, 32928(%rbx) vextractf128 $1, %ymm4, %xmm1 vpshufd $8, %xmm1, %xmm5 vmovdqa %xmm5, 32896(%rbx) vpshufd $8, %xmm4, %xmm1 vmovlhps %xmm5, %xmm1, %xmm1 vpshufb %xmm6, %xmm1, %xmm1 vpor %xmm2, %xmm1, %xmm2 vpsllw $15, %xmm0, %xmm0 vpsraw $15, %xmm0, %xmm6 vpunpckhbw %xmm0, %xmm6, %xmm0 vpslld $31, %xmm0, %xmm5 vpmovsxdq %xmm5, %xmm0 vmovhlps %xmm5, %xmm5, %xmm1 vpmovsxdq %xmm1, %xmm1 vinsertf128 $1, %xmm1, %ymm0, %ymm0 vmovapd .LCPI1_25(%rip), %ymm7 vblendvpd %ymm0, %ymm14, %ymm7, %ymm0 vpxor .LCPI1_17(%rip), %xmm2, %xmm5 vpunpcklbw %xmm0, %xmm6, %xmm1 vpslld $31, %xmm1, %xmm2 vpmovzxwd %xmm5, %xmm1 vpslld $31, %xmm1, %xmm1 vpsrad $31, %xmm1, %xmm6 vpunpckhwd %xmm0, %xmm5, %xmm1 vpslld $31, %xmm1, %xmm1 vpsrad $31, %xmm1, %xmm1 vinsertf128 $1, %xmm1, %ymm6, %ymm5 vmovapd 18848(%rbx), %ymm1 vaddpd %ymm0, %ymm1, %ymm0 vmovapd %ymm0, 18624(%rbx) vpmovsxdq %xmm2, %xmm0 vmovhlps %xmm2, %xmm2, %xmm1 vpmovsxdq %xmm1, %xmm1 vinsertf128 $1, %xmm1, %ymm0, %ymm0 vblendvpd %ymm0, 16160(%rbx), %ymm7, %ymm0 vmovapd 32320(%rbx), %ymm1 vaddpd %ymm0, %ymm1, %ymm0 vmovapd %ymm0, 32736(%rbx) vmovdqa 6624(%rbx), %ymm0 vptest %ymm0, %ymm5 vmovapd 6656(%rbx), %ymm0 vmovapd %ymm0, %ymm1 vmovapd %ymm0, %ymm4 jb .LBB1_3612 vsubpd %ymm3, %ymm12, %ymm0 vsubpd %ymm9, %ymm15, %ymm1 vmovapd .LCPI1_28(%rip), %ymm2 vmulpd %ymm2, %ymm1, %ymm1 vmovapd %ymm1, 32480(%rbx) vmulpd %ymm2, %ymm0, %ymm4 vmovapd %ymm4, 32512(%rbx) vmovapd .LCPI1_56(%rip), %ymm3 vandpd %ymm3, %ymm1, %ymm7 vmovapd %ymm11, %ymm14 vandpd %ymm3, %ymm14, %ymm9 vcmpltpd %ymm7, %ymm9, %ymm0 vextractf128 $1, %ymm0, %xmm1 vpshufd $8, %xmm1, %xmm2 vpshufd $8, %xmm0, %xmm0 vandpd %ymm3, %ymm4, %ymm6 vmovlhps %xmm2, %xmm0, %xmm11 vandpd %ymm3, %ymm13, %ymm12 vcmpltpd %ymm6, %ymm12, %ymm0 vextractf128 $1, %ymm0, %xmm1 vpshufd $8, %xmm1, %xmm5 vpshufd $8, %xmm0, %xmm0 vmovlhps %xmm5, %xmm0, %xmm0 vandpd %ymm3, %ymm10, %ymm15 vcmpltpd %ymm15, %ymm9, %ymm5 vextractf128 $1, %ymm5, %xmm1 vpshufd $8, %xmm1, %xmm1 vpshufd $8, %xmm5, %xmm5 vmovlhps %xmm1, %xmm5, %xmm5 vandpd %ymm3, %ymm8, %ymm9 vcmpltpd %ymm9, %ymm12, %ymm12 vextractf128 $1, %ymm12, %xmm1 vpshufd $8, %xmm1, %xmm1 vpshufd $8, %xmm12, %xmm3 vmovlhps %xmm1, %xmm3, %xmm1 vcmpltpd %ymm6, %ymm9, %ymm9 vmovdqa .LCPI1_21(%rip), %xmm4 vpshufb %xmm4, %xmm1, %xmm1 vmovdqa .LCPI1_20(%rip), %xmm2 vpshufb %xmm2, %xmm5, %xmm3 vpor %xmm3, %xmm1, %xmm6 vpshufb %xmm4, %xmm0, %xmm0 vpshufb %xmm2, %xmm11, %xmm1 vpor %xmm1, %xmm0, %xmm5 vextractf128 $1, %ymm9, %xmm0 vpshufd $8, %xmm0, %xmm0 vpshufd $8, %xmm9, %xmm1 vmovlhps %xmm0, %xmm1, %xmm9 vmovdqa 32928(%rbx), %ymm0 vpshufd $8, %xmm0, %xmm1 vmovaps 32896(%rbx), %xmm0 vmovlhps %xmm0, %xmm1, %xmm0 vcmpltpd %ymm7, %ymm15, %ymm7 vpsllw $15, %xmm5, %xmm1 vpsraw $15, %xmm1, %xmm1 vmovdqa .LCPI1_17(%rip), %xmm3 vpxor %xmm3, %xmm1, %xmm5 vpsllw $15, %xmm6, %xmm1 vpsraw $15, %xmm1, %xmm1 vpxor %xmm3, %xmm1, %xmm1 vpor %xmm5, %xmm1, %xmm6 vextractf128 $1, %ymm7, %xmm1 vpshufd $8, %xmm1, %xmm1 vpshufd $8, %xmm7, %xmm3 vmovlhps %xmm1, %xmm3, %xmm5 vpshufb %xmm4, %xmm9, %xmm7 vpshufb %xmm4, %xmm0, %xmm0 vmovdqa 32992(%rbx), %ymm1 vpshufd $8, %xmm1, %xmm1 vmovaps 32960(%rbx), %xmm3 vmovlhps %xmm3, %xmm1, %xmm1 vpshufb %xmm2, %xmm1, %xmm1 vpor %xmm1, %xmm0, %xmm0 vpsllw $15, %xmm0, %xmm0 vpsraw $15, %xmm0, %xmm0 vpand %xmm6, %xmm0, %xmm0 vpshufb %xmm2, %xmm5, %xmm1 vpunpckhbw %xmm0, %xmm0, %xmm2 vpor %xmm1, %xmm7, %xmm1 vpslld $31, %xmm2, %xmm5 vpsllw $15, %xmm1, %xmm1 vpsraw $15, %xmm1, %xmm2 vpmovsxdq %xmm5, %xmm6 vmovhlps %xmm5, %xmm5, %xmm1 vpmovsxdq %xmm1, %xmm1 vinsertf128 $1, %xmm1, %ymm6, %ymm6 vpunpckhbw %xmm0, %xmm2, %xmm1 vpslld $31, %xmm1, %xmm1 vpmovsxdq %xmm1, %xmm5 vmovhlps %xmm1, %xmm1, %xmm1 vpmovsxdq %xmm1, %xmm1 vinsertf128 $1, %xmm1, %ymm5, %ymm5 vpunpcklbw %xmm0, %xmm0, %xmm0 vpslld $31, %xmm0, %xmm1 vpmovsxdq %xmm1, %xmm0 vmovhlps %xmm1, %xmm1, %xmm1 vpmovsxdq %xmm1, %xmm7 vpunpcklbw %xmm0, %xmm2, %xmm2 vmovapd 32480(%rbx), %ymm1 vblendvpd %ymm5, %ymm10, %ymm1, %ymm1 vblendvpd %ymm6, %ymm1, %ymm14, %ymm1 vmovapd .LCPI1_77(%rip), %ymm3 vmulpd %ymm3, %ymm1, %ymm4 vinsertf128 $1, %xmm7, %ymm0, %ymm0 vpslld $31, %xmm2, %xmm2 vpmovsxdq %xmm2, %xmm1 vmovhlps %xmm2, %xmm2, %xmm2 vpmovsxdq %xmm2, %xmm2 vinsertf128 $1, %xmm2, %ymm1, %ymm1 vmovapd 32512(%rbx), %ymm2 vblendvpd %ymm1, %ymm8, %ymm2, %ymm1 vblendvpd %ymm0, %ymm1, %ymm13, %ymm0 vmulpd %ymm3, %ymm0, %ymm1 .LBB1_3612: vmovapd %ymm4, 32320(%rbx) vmovapd %ymm1, 32480(%rbx) vmovapd .LCPI1_19(%rip), %ymm0 vmovapd %ymm0, %ymm5 vmovapd 18496(%rbx), %ymm9 vcmpltpd %ymm5, %ymm9, %ymm0 vextractf128 $1, %ymm0, %xmm1 vpshufd $8, %xmm1, %xmm1 vpshufd $8, %xmm0, %xmm0 vmovlhps %xmm1, %xmm0, %xmm0 vmovapd 18976(%rbx), %ymm8 vcmpltpd %ymm5, %ymm8, %ymm1 vextractf128 $1, %ymm1, %xmm2 vmovdqa .LCPI1_21(%rip), %xmm3 vpshufb %xmm3, %xmm0, %xmm0 vmovdqa %xmm3, %xmm4 vpshufd $8, %xmm2, %xmm2 vpshufd $8, %xmm1, %xmm1 vmovlhps %xmm2, %xmm1, %xmm1 vmovdqa .LCPI1_20(%rip), %xmm2 vmovdqa %xmm2, %xmm3 vpshufb %xmm3, %xmm1, %xmm2 vmovdqa %xmm3, %xmm6 vmovapd 32064(%rbx), %ymm10 vcmpltpd %ymm5, %ymm10, %ymm1 vpor %xmm2, %xmm0, %xmm0 vextractf128 $1, %ymm1, %xmm2 vpshufd $8, %xmm2, %xmm2 vpshufd $8, %xmm1, %xmm1 vmovlhps %xmm2, %xmm1, %xmm1 vmovapd 18432(%rbx), %ymm11 vcmpltpd %ymm5, %ymm11, %ymm2 vextractf128 $1, %ymm2, %xmm3 vpshufd $8, %xmm3, %xmm3 vpshufd $8, %xmm2, %xmm2 vmovlhps %xmm3, %xmm2, %xmm3 vpsllw $15, %xmm0, %xmm0 vpsraw $15, %xmm0, %xmm2 vpshufb %xmm4, %xmm3, %xmm0 vmovdqa %xmm4, %xmm7 vpshufb %xmm6, %xmm1, %xmm1 vpor %xmm1, %xmm0, %xmm0 vpunpckhbw %xmm0, %xmm2, %xmm1 vpslld $31, %xmm1, %xmm3 vpmovsxdq %xmm3, %xmm1 vmovhlps %xmm3, %xmm3, %xmm3 vpmovsxdq %xmm3, %xmm3 vinsertf128 $1, %xmm3, %ymm1, %ymm1 vpsllw $15, %xmm0, %xmm0 vpsraw $15, %xmm0, %xmm3 vpunpckhbw %xmm0, %xmm3, %xmm0 vpslld $31, %xmm0, %xmm4 vpmovsxdq %xmm4, %xmm0 vmovhlps %xmm4, %xmm4, %xmm4 vpmovsxdq %xmm4, %xmm4 vinsertf128 $1, %xmm4, %ymm0, %ymm0 vpunpcklbw %xmm0, %xmm2, %xmm2 vpslld $31, %xmm2, %xmm4 vpmovsxdq %xmm4, %xmm2 vmovhlps %xmm4, %xmm4, %xmm4 vpmovsxdq %xmm4, %xmm4 vinsertf128 $1, %xmm4, %ymm2, %ymm2 vpunpcklbw %xmm0, %xmm3, %xmm3 vpslld $31, %xmm3, %xmm4 vpmovsxdq %xmm4, %xmm3 vmovhlps %xmm4, %xmm4, %xmm4 vpmovsxdq %xmm4, %xmm4 vinsertf128 $1, %xmm4, %ymm3, %ymm3 vblendvpd %ymm3, %ymm5, %ymm11, %ymm3 vmovapd %ymm3, 18240(%rbx) vblendvpd %ymm2, %ymm5, %ymm9, %ymm2 vmovapd %ymm2, 31872(%rbx) vblendvpd %ymm0, %ymm5, %ymm10, %ymm0 vmovapd %ymm0, 18272(%rbx) vblendvpd %ymm1, %ymm5, %ymm8, %ymm0 vmovapd %ymm0, 32512(%rbx) vxorpd %ymm4, %ymm4, %ymm4 vmovapd 32384(%rbx), %ymm11 vmulpd %ymm4, %ymm11, %ymm0 vmovapd 32352(%rbx), %ymm13 vmulpd %ymm0, %ymm13, %ymm1 vmovapd 32832(%rbx), %ymm12 vmulpd %ymm0, %ymm12, %ymm0 vaddpd %ymm1, %ymm0, %ymm1 vmovapd 32800(%rbx), %ymm15 vmulpd %ymm4, %ymm15, %ymm0 vmovapd 32416(%rbx), %ymm10 vmulpd %ymm0, %ymm10, %ymm2 vmovapd 32640(%rbx), %ymm9 vmulpd %ymm0, %ymm9, %ymm0 vaddpd %ymm2, %ymm0, %ymm2 vmovdqa 32992(%rbx), %ymm0 vpshufd $8, %xmm0, %xmm0 vmovaps 32960(%rbx), %xmm3 vmovlhps %xmm3, %xmm0, %xmm0 vmovdqa 32928(%rbx), %ymm3 vpshufd $8, %xmm3, %xmm3 vmovaps 32896(%rbx), %xmm5 vmovlhps %xmm5, %xmm3, %xmm3 vpshufb %xmm7, %xmm3, %xmm3 vpshufb %xmm6, %xmm0, %xmm0 vpor %xmm0, %xmm3, %xmm0 vmulpd %ymm4, %ymm9, %ymm3 vmulpd %ymm3, %ymm10, %ymm3 vaddpd %ymm3, %ymm2, %ymm2 vmulpd %ymm4, %ymm12, %ymm3 vmulpd %ymm3, %ymm13, %ymm3 vaddpd %ymm3, %ymm1, %ymm1 vmulpd %ymm11, %ymm11, %ymm3 vmovapd .LCPI1_23(%rip), %ymm5 vaddpd %ymm5, %ymm3, %ymm3 vmulpd %ymm15, %ymm15, %ymm4 vaddpd %ymm5, %ymm4, %ymm4 vmulpd %ymm9, %ymm9, %ymm5 vaddpd %ymm5, %ymm4, %ymm4 vmulpd %ymm10, %ymm10, %ymm5 vaddpd %ymm5, %ymm4, %ymm4 vmulpd %ymm12, %ymm12, %ymm5 vaddpd %ymm5, %ymm3, %ymm3 vmulpd %ymm13, %ymm13, %ymm5 vaddpd %ymm5, %ymm3, %ymm3 vmovapd .LCPI1_24(%rip), %ymm5 vmulpd %ymm5, %ymm1, %ymm1 vaddpd %ymm1, %ymm3, %ymm1 vmulpd %ymm5, %ymm2, %ymm2 vaddpd %ymm2, %ymm4, %ymm2 vpsllw $15, %xmm0, %xmm0 vpsraw $15, %xmm0, %xmm0 vpunpcklbw %xmm0, %xmm0, %xmm3 vpslld $31, %xmm3, %xmm4 vpmovsxdq %xmm4, %xmm3 vmovhlps %xmm4, %xmm4, %xmm4 vpmovsxdq %xmm4, %xmm4 vinsertf128 $1, %xmm4, %ymm3, %ymm3 vpunpckhbw %xmm0, %xmm0, %xmm0 vpslld $31, %xmm0, %xmm4 vpmovsxdq %xmm4, %xmm0 vmovhlps %xmm4, %xmm4, %xmm4 vpmovsxdq %xmm4, %xmm4 vinsertf128 $1, %xmm4, %ymm0, %ymm0 vsqrtpd %ymm1, %ymm1 vmovapd .LCPI1_25(%rip), %ymm6 vmulpd %ymm6, %ymm1, %ymm4 vmovapd 12096(%rbx), %ymm5 vmulpd %ymm5, %ymm4, %ymm4 vsubpd %ymm4, %ymm13, %ymm14 vmovapd %ymm14, 18656(%rbx) vsubpd %ymm4, %ymm12, %ymm7 vmovapd %ymm7, 32832(%rbx) vsubpd %ymm4, %ymm11, %ymm4 vmovapd %ymm4, 32384(%rbx) vdivpd %ymm5, %ymm1, %ymm8 vmovapd %ymm8, 32928(%rbx) vblendvpd %ymm0, 32320(%rbx), %ymm6, %ymm0 vmovapd %ymm0, 32960(%rbx) vblendvpd %ymm3, 32480(%rbx), %ymm6, %ymm0 vmovapd %ymm0, 32896(%rbx) vsqrtpd %ymm2, %ymm2 vmulpd %ymm6, %ymm2, %ymm3 vmulpd %ymm5, %ymm3, %ymm3 vsubpd %ymm3, %ymm10, %ymm11 vmovapd %ymm11, 18848(%rbx) vsubpd %ymm3, %ymm9, %ymm13 vmovapd %ymm13, 32416(%rbx) vsubpd %ymm3, %ymm15, %ymm10 vmovapd %ymm10, 32800(%rbx) vdivpd %ymm5, %ymm2, %ymm0 vmovapd %ymm0, 32992(%rbx) vmovapd %ymm0, %ymm6 vxorpd %ymm1, %ymm1, %ymm1 vmulpd %ymm1, %ymm8, %ymm3 vmovapd %ymm4, %ymm9 vmulpd %ymm1, %ymm9, %ymm2 vmovapd %ymm2, 18496(%rbx) vaddpd %ymm2, %ymm3, %ymm2 vmovapd %ymm7, %ymm5 vaddpd %ymm5, %ymm2, %ymm4 vmulpd %ymm1, %ymm14, %ymm7 vmovapd %ymm7, 18528(%rbx) vaddpd %ymm7, %ymm4, %ymm0 vmovapd %ymm0, 32352(%rbx) vaddpd %ymm9, %ymm3, %ymm3 vmovapd %ymm9, %ymm15 vmulpd %ymm1, %ymm5, %ymm9 vmovapd %ymm9, 18432(%rbx) vaddpd %ymm9, %ymm3, %ymm3 vaddpd %ymm7, %ymm3, %ymm3 vmovapd %ymm3, 32288(%rbx) vmovapd 32448(%rbx), %ymm1 vmulpd %ymm3, %ymm1, %ymm3 vmovapd 32864(%rbx), %ymm4 vmulpd %ymm0, %ymm4, %ymm4 vaddpd %ymm4, %ymm3, %ymm3 vaddpd %ymm9, %ymm2, %ymm2 vaddpd %ymm14, %ymm2, %ymm2 vmovapd %ymm2, 32320(%rbx) vmovapd 32736(%rbx), %ymm0 vmulpd %ymm2, %ymm0, %ymm2 vaddpd %ymm2, %ymm3, %ymm5 vmovapd %ymm5, 32064(%rbx) vxorpd %ymm7, %ymm7, %ymm7 vmulpd %ymm7, %ymm6, %ymm3 vmulpd %ymm7, %ymm10, %ymm2 vmovapd %ymm2, 18400(%rbx) vaddpd %ymm2, %ymm3, %ymm2 vaddpd %ymm13, %ymm2, %ymm4 vmulpd %ymm7, %ymm11, %ymm9 vxorpd %ymm0, %ymm0, %ymm0 vmovapd %ymm9, 18368(%rbx) vaddpd %ymm9, %ymm4, %ymm4 vmovapd %ymm4, 32640(%rbx) vaddpd %ymm10, %ymm3, %ymm3 vmovapd %ymm10, %ymm12 vmulpd %ymm0, %ymm13, %ymm10 vmovapd %ymm10, 18336(%rbx) vaddpd %ymm10, %ymm3, %ymm3 vaddpd %ymm9, %ymm3, %ymm0 vmovapd %ymm0, 32256(%rbx) vmovapd 18880(%rbx), %ymm9 vmulpd %ymm0, %ymm9, %ymm3 vmovapd 31808(%rbx), %ymm13 vmulpd %ymm4, %ymm13, %ymm4 vaddpd %ymm4, %ymm3, %ymm3 vaddpd %ymm10, %ymm2, %ymm2 vaddpd %ymm11, %ymm2, %ymm0 vmovapd %ymm0, 18208(%rbx) vmovapd 18624(%rbx), %ymm10 vmulpd %ymm0, %ymm10, %ymm2 vaddpd %ymm2, %ymm3, %ymm6 vmovapd %ymm6, 32480(%rbx) vmovapd 31840(%rbx), %ymm2 vaddpd 32896(%rbx), %ymm2, %ymm0 vmovapd %ymm0, 32896(%rbx) vmovapd 32096(%rbx), %ymm0 vaddpd 32960(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 32960(%rbx) vmulpd %ymm15, %ymm5, %ymm0 vmovapd %ymm0, 16640(%rbx) vaddpd %ymm0, %ymm1, %ymm0 vdivpd %ymm8, %ymm0, %ymm4 vmovapd %ymm4, 32448(%rbx) vmovapd .LCPI1_22(%rip), %ymm7 vmulpd %ymm7, %ymm5, %ymm0 vmovapd %ymm7, %ymm3 vxorpd %ymm7, %ymm7, %ymm7 vmulpd %ymm7, %ymm4, %ymm1 vaddpd %ymm1, %ymm0, %ymm0 vmulpd %ymm7, %ymm5, %ymm2 vaddpd %ymm1, %ymm2, %ymm1 vmovapd %ymm1, 16480(%rbx) vaddpd %ymm4, %ymm2, %ymm1 vmulpd 32832(%rbx), %ymm5, %ymm2 vmovapd %ymm2, 16672(%rbx) vmovapd 32864(%rbx), %ymm4 vaddpd %ymm2, %ymm4, %ymm2 vmovapd %ymm8, %ymm4 vdivpd %ymm4, %ymm2, %ymm2 vmovapd %ymm2, 18976(%rbx) vmulpd %ymm7, %ymm2, %ymm8 vaddpd %ymm8, %ymm1, %ymm1 vaddpd %ymm8, %ymm0, %ymm0 vmulpd %ymm14, %ymm5, %ymm2 vmovapd %ymm2, 16576(%rbx) vmovapd 32736(%rbx), %ymm5 vaddpd %ymm2, %ymm5, %ymm2 vdivpd %ymm4, %ymm2, %ymm15 vmovapd %ymm15, 18304(%rbx) vmulpd %ymm7, %ymm15, %ymm2 vaddpd %ymm2, %ymm0, %ymm0 vmovapd %ymm0, 32096(%rbx) vaddpd %ymm2, %ymm1, %ymm0 vmovapd %ymm0, 31840(%rbx) vmovapd %ymm6, %ymm4 vmulpd %ymm12, %ymm4, %ymm0 vmovapd %ymm0, 16608(%rbx) vaddpd %ymm0, %ymm9, %ymm0 vmovapd 32992(%rbx), %ymm6 vdivpd %ymm6, %ymm0, %ymm5 vmovapd %ymm5, 32736(%rbx) vmulpd %ymm3, %ymm4, %ymm0 vmulpd %ymm7, %ymm5, %ymm1 vaddpd %ymm1, %ymm0, %ymm0 vmulpd %ymm7, %ymm4, %ymm3 vaddpd %ymm1, %ymm3, %ymm2 vaddpd %ymm5, %ymm3, %ymm1 vmulpd 32416(%rbx), %ymm4, %ymm3 vmovapd %ymm3, 16544(%rbx) vaddpd %ymm3, %ymm13, %ymm3 vdivpd %ymm6, %ymm3, %ymm3 vmovapd %ymm3, 18880(%rbx) vmulpd %ymm7, %ymm3, %ymm13 vxorpd %ymm5, %ymm5, %ymm5 vmovapd %ymm3, %ymm9 vaddpd %ymm13, %ymm1, %ymm1 vaddpd %ymm13, %ymm0, %ymm0 vmulpd %ymm11, %ymm4, %ymm3 vmovapd %ymm3, 16512(%rbx) vaddpd %ymm3, %ymm10, %ymm3 vdivpd %ymm6, %ymm3, %ymm12 vmovapd %ymm12, 31808(%rbx) vmulpd %ymm5, %ymm12, %ymm3 vaddpd %ymm3, %ymm0, %ymm10 vmovapd %ymm10, 18624(%rbx) vaddpd %ymm3, %ymm1, %ymm7 vmovapd %ymm7, 18176(%rbx) movq 25632(%rbx), %rax movabsq $-4616189618054758400, %r11 movq %r11, (%rax) movq %r11, (%rdi) movq 25568(%rbx), %rax movq %r11, (%rax) movq 32576(%rbx), %rax movq %r11, (%rax) movq 25760(%rbx), %rax movq %r11, (%rax) movq 32704(%rbx), %rax movq %r11, (%rax) movq 25728(%rbx), %rax movq %r11, (%rax) movq 25696(%rbx), %rax movq %r11, (%rax) vxorpd %xmm0, %xmm0, %xmm0 movq 24976(%rbx), %rax vmovupd %xmm0, 16(%rax) vmovupd %xmm0, (%rax) movq 24928(%rbx), %rax vmovupd %xmm0, 16(%rax) vmovupd %xmm0, (%rax) movq 25216(%rbx), %rax vmovupd %xmm0, 16(%rax) vmovupd %xmm0, (%rax) movq 25184(%rbx), %rax vmovupd %xmm0, 16(%rax) vmovupd %xmm0, (%rax) movq 25152(%rbx), %rax vmovupd %xmm0, 16(%rax) vmovupd %xmm0, (%rax) vmovupd %xmm0, 16(%r14) vmovupd %xmm0, (%r14) vmovupd %xmm0, 16(%r15) vmovupd %xmm0, (%r15) movq 25088(%rbx), %rax vmovupd %xmm0, 16(%rax) vmovupd %xmm0, (%rax) movabsq $4607182418800017408, %r15 movq 25792(%rbx), %rax movq %r15, (%rax) movq 25856(%rbx), %rax movq %r15, (%rax) movq 25824(%rbx), %rax movq %r15, (%rax) movq 25888(%rbx), %rax movq %r15, (%rax) movq 25920(%rbx), %rax movq %r15, (%rax) movq 25984(%rbx), %rax movq %r15, (%rax) movq 25952(%rbx), %rax movq %r15, (%rax) movq 26016(%rbx), %rax movq %r15, (%rax) movq 25056(%rbx), %rax vmovupd %xmm0, 16(%rax) vmovupd %xmm0, (%rax) movq 25040(%rbx), %rax vmovupd %xmm0, 16(%rax) vmovupd %xmm0, (%rax) movq 24992(%rbx), %rax vmovupd %xmm0, 16(%rax) vmovupd %xmm0, (%rax) movq 25392(%rbx), %rax vmovupd %xmm0, 16(%rax) vmovupd %xmm0, (%rax) movq 25344(%rbx), %rax vmovupd %xmm0, 16(%rax) vmovupd %xmm0, (%rax) movq 25312(%rbx), %rax vmovupd %xmm0, 16(%rax) vmovupd %xmm0, (%rax) movq 25280(%rbx), %rax vmovupd %xmm0, 16(%rax) vmovupd %xmm0, (%rax) movq 25248(%rbx), %rax vmovupd %xmm0, 16(%rax) vmovupd %xmm0, (%rax) movq 31552(%rbx), %rax movq %r15, (%rax) movq 31584(%rbx), %rax movq %r15, (%rax) movq 31616(%rbx), %rax movq %r15, (%rax) movq 31648(%rbx), %rax movq %r15, (%rax) movq 31904(%rbx), %rax movq %r15, (%rax) movq 31936(%rbx), %rax movq %r15, (%rax) movq 31680(%rbx), %rax movq %r15, (%rax) movq 31968(%rbx), %rax movq %r15, (%rax) movq 25536(%rbx), %rax vmovupd %xmm0, 16(%rax) vmovupd %xmm0, (%rax) movq 25504(%rbx), %rax vmovupd %xmm0, 16(%rax) vmovupd %xmm0, (%rax) vmovupd %xmm0, 16(%r9) vmovupd %xmm0, (%r9) vmovupd %xmm0, 16(%r10) vmovupd %xmm0, (%r10) movq 25440(%rbx), %rax vmovupd %xmm0, 16(%rax) vmovupd %xmm0, (%rax) movq 25408(%rbx), %rax vmovupd %xmm0, 16(%rax) vmovupd %xmm0, (%rax) movq 32128(%rbx), %rax vmovupd %xmm0, 16(%rax) vmovupd %xmm0, (%rax) movq 32672(%rbx), %rax vmovupd %xmm0, 16(%rax) vmovupd %xmm0, (%rax) movq 31264(%rbx), %rdi movq %r15, (%rdi) movq 31296(%rbx), %rax movq %r15, (%rax) movq 31200(%rbx), %rax movq %r15, (%rax) movq 31232(%rbx), %rsi movq %r15, (%rsi) movq 32000(%rbx), %r9 movq %r15, (%r9) movq 32032(%rbx), %r14 movq %r15, (%r14) movq 31168(%rbx), %rcx movq %r15, (%rcx) movq 31072(%rbx), %r10 movq %r15, (%r10) movq 30720(%rbx), %rdx movq %r11, (%rdx) movq 30752(%rbx), %rdx movq %r11, (%rdx) movq 30656(%rbx), %rdx movq %r11, (%rdx) movq 30688(%rbx), %rdx movq %r11, (%rdx) movq 30848(%rbx), %rdx movq %r11, (%rdx) movq 31008(%rbx), %rdx movq %r11, (%rdx) movq 30816(%rbx), %rdx movq %r11, (%rdx) movq 30976(%rbx), %rdx movq %r11, (%rdx) movq 30592(%rbx), %rdx movq %r8, (%rdx) movq 30624(%rbx), %rdx movq %r8, (%rdx) movq 30528(%rbx), %rdx movq %r8, (%rdx) movq 30560(%rbx), %rdx movq %r8, (%rdx) movq 30784(%rbx), %rdx movq %r8, (%rdx) movq 30944(%rbx), %rdx movq %r8, (%rdx) movq 30880(%rbx), %rdx movq %r8, (%rdx) movq 30912(%rbx), %rdx movq %r8, (%rdx) movq 30368(%rbx), %rdx movq %r8, (%rdx) movq 30336(%rbx), %rdx movq %r8, (%rdx) movq 30304(%rbx), %rdx movq %r8, (%rdx) movq 30272(%rbx), %rdx movq %r8, (%rdx) movq 30496(%rbx), %rdx movq %r8, (%rdx) movq 30464(%rbx), %rdx movq %r8, (%rdx) movq 30432(%rbx), %rdx movq %r8, (%rdx) movq 30400(%rbx), %rdx movq %r8, (%rdx) movq 28160(%rbx), %rdx movq %r8, (%rdx) movq 30112(%rbx), %rdx movq %r8, (%rdx) movq 30080(%rbx), %rdx movq %r8, (%rdx) movq 30048(%rbx), %rdx movq %r8, (%rdx) movq 30240(%rbx), %rdx movq %r8, (%rdx) movq 30208(%rbx), %rdx movq %r8, (%rdx) movq 30176(%rbx), %rdx movq %r8, (%rdx) movq 30144(%rbx), %rdx movq %r8, (%rdx) movq 29312(%rbx), %rdx movq %r8, (%rdx) movq 29280(%rbx), %rdx movq %r8, (%rdx) movq 29120(%rbx), %rdx movq %r8, (%rdx) movq 29088(%rbx), %rdx movq %r8, (%rdx) movq 29952(%rbx), %rdx movq %r8, (%rdx) movq 29920(%rbx), %rdx movq %r8, (%rdx) movq 29760(%rbx), %rdx movq %r8, (%rdx) movq 29728(%rbx), %rdx movq %r8, (%rdx) movq 29184(%rbx), %rdx movq %r15, (%rdx) movq 29152(%rbx), %rdx movq %r15, (%rdx) movq 29056(%rbx), %rdx movq %r15, (%rdx) movq 29024(%rbx), %rdx movq %r15, (%rdx) movq 29824(%rbx), %rdx movq %r15, (%rdx) movq 29792(%rbx), %rdx movq %r15, (%rdx) movq 29696(%rbx), %rdx movq %r15, (%rdx) movq 29664(%rbx), %rdx movq %r15, (%rdx) movq 29440(%rbx), %rdx movq %r8, (%rdx) movq 29408(%rbx), %rdx movq %r8, (%rdx) movq 29248(%rbx), %rdx movq %r8, (%rdx) movq 29216(%rbx), %rdx movq %r8, (%rdx) movq 30016(%rbx), %rdx movq %r8, (%rdx) movq 29984(%rbx), %rdx movq %r8, (%rdx) movq 29888(%rbx), %rdx movq %r8, (%rdx) movq 29856(%rbx), %rdx movq %r8, (%rdx) movq 28288(%rbx), %rdx movq %r8, (%rdx) movq 28256(%rbx), %rdx movq %r8, (%rdx) movq 28128(%rbx), %rdx movq %r8, (%rdx) movq 28096(%rbx), %rdx movq %r8, (%rdx) movq 29568(%rbx), %rdx movq %r8, (%rdx) movq 29536(%rbx), %rdx movq %r8, (%rdx) movq 29376(%rbx), %rdx movq %r8, (%rdx) movq 29344(%rbx), %rdx movq %r8, (%rdx) movq 28672(%rbx), %rdx movq %r8, (%rdx) movq 28640(%rbx), %rdx movq %r8, (%rdx) movq 28416(%rbx), %rdx movq %r8, (%rdx) movq 28384(%rbx), %rdx movq %r8, (%rdx) movq 28992(%rbx), %rdx movq %r8, (%rdx) movq 28960(%rbx), %rdx movq %r8, (%rdx) movq 28864(%rbx), %rdx movq %r8, (%rdx) movq 28832(%rbx), %rdx movq %r8, (%rdx) movq 28480(%rbx), %rdx movq %r8, (%rdx) movq 28448(%rbx), %rdx movq %r8, (%rdx) movq 28224(%rbx), %rdx movq %r8, (%rdx) movq 28192(%rbx), %rdx movq %r8, (%rdx) movq 29632(%rbx), %rdx movq %r8, (%rdx) movq 29600(%rbx), %rdx movq %r8, (%rdx) movq 29504(%rbx), %rdx movq %r8, (%rdx) movq 29472(%rbx), %rdx movq %r8, (%rdx) movq 27808(%rbx), %rdx movq %r15, (%rdx) movq 27776(%rbx), %rdx movq %r15, (%rdx) movq 27616(%rbx), %rdx movq %r15, (%rdx) movq 27584(%rbx), %rdx movq %r15, (%rdx) movq 28928(%rbx), %rdx movq %r15, (%rdx) movq 28896(%rbx), %rdx movq %r15, (%rdx) movq 28736(%rbx), %rdx movq %r15, (%rdx) movq 28704(%rbx), %rdx movq %r15, (%rdx) movq 27104(%rbx), %rdx movq %r8, (%rdx) movq 27072(%rbx), %rdx movq %r8, (%rdx) movq 26976(%rbx), %rdx movq %r8, (%rdx) movq 26944(%rbx), %rdx movq %r8, (%rdx) movq 28000(%rbx), %rdx movq %r8, (%rdx) movq 27968(%rbx), %rdx movq %r8, (%rdx) movq 27872(%rbx), %rdx movq %r8, (%rdx) movq 27840(%rbx), %rdx movq %r8, (%rdx) movq 28064(%rbx), %rdx movq %r8, (%rdx) movq 28032(%rbx), %rdx movq %r8, (%rdx) movq 27936(%rbx), %rdx movq %r8, (%rdx) movq 27904(%rbx), %rdx movq %r8, (%rdx) movq 28800(%rbx), %rdx movq %r8, (%rdx) movq 28768(%rbx), %rdx movq %r8, (%rdx) movq 28544(%rbx), %rdx movq %r8, (%rdx) movq 28512(%rbx), %rdx movq %r8, (%rdx) movq 27680(%rbx), %rdx movq %r8, (%rdx) movq 27648(%rbx), %rdx movq %r8, (%rdx) movq 27488(%rbx), %rdx movq %r8, (%rdx) movq 27456(%rbx), %rdx movq %r8, (%rdx) movq 28608(%rbx), %rdx movq %r8, (%rdx) movq 28576(%rbx), %rdx movq %r8, (%rdx) movq 28352(%rbx), %rdx movq %r8, (%rdx) movq 28320(%rbx), %rdx movq %r8, (%rdx) movq 27424(%rbx), %rdx movq %r8, (%rdx) movq 27392(%rbx), %rdx movq %r8, (%rdx) movq 27232(%rbx), %rdx movq %r8, (%rdx) movq 27200(%rbx), %rdx movq %r8, (%rdx) movq 27744(%rbx), %rdx movq %r8, (%rdx) movq 27712(%rbx), %rdx movq %r8, (%rdx) movq 27552(%rbx), %rdx movq %r8, (%rdx) movq 27520(%rbx), %rdx movq %r8, (%rdx) movq 27296(%rbx), %rdx movq %r15, (%rdx) movq 27264(%rbx), %rdx movq %r15, (%rdx) movq 27040(%rbx), %rdx movq %r15, (%rdx) movq 27008(%rbx), %rdx movq %r15, (%rdx) movq 27360(%rbx), %rdx movq %r15, (%rdx) movq 27328(%rbx), %rdx movq %r15, (%rdx) movq 27168(%rbx), %rdx movq %r15, (%rdx) movq 27136(%rbx), %rdx movq %r15, (%rdx) movq 31712(%rbx), %rdx vmovsd (%rdx), %xmm0 movq 31776(%rbx), %rdx vmovhpd (%rdx), %xmm0, %xmm1 movq 31040(%rbx), %rdx vmovsd (%rdx), %xmm0 movq 31744(%rbx), %rdx vmovhpd (%rdx), %xmm0, %xmm4 vmovsd (%rcx), %xmm0 vmovhpd (%r10), %xmm0, %xmm3 vmovsd (%r9), %xmm0 vmovhpd (%r14), %xmm0, %xmm5 movq 32192(%rbx), %rcx vmovsd (%rcx), %xmm0 movq 32224(%rbx), %rcx vmovhpd (%rcx), %xmm0, %xmm0 movq 32160(%rbx), %rcx vmovsd (%rcx), %xmm6 movq 32544(%rbx), %rcx vmovhpd (%rcx), %xmm6, %xmm6 vinsertf128 $1, %xmm0, %ymm6, %ymm0 vinsertf128 $1, %xmm3, %ymm5, %ymm3 vinsertf128 $1, %xmm1, %ymm4, %ymm1 vmovsd (%rax), %xmm4 vmovhpd (%rsi), %xmm4, %xmm4 vmovsd (%rdi), %xmm5 movq 31296(%rbx), %rax vmovhpd (%rax), %xmm5, %xmm5 vinsertf128 $1, %xmm4, %ymm5, %ymm4 vmovapd 16480(%rbx), %ymm6 vaddpd %ymm8, %ymm6, %ymm5 vmulpd %ymm15, %ymm4, %ymm4 vaddpd %ymm4, %ymm5, %ymm14 vmovapd %ymm14, 31904(%rbx) vmovapd 18976(%rbx), %ymm5 vaddpd %ymm5, %ymm6, %ymm4 vmulpd %ymm15, %ymm1, %ymm1 vaddpd %ymm1, %ymm4, %ymm6 vmovapd %ymm6, 32672(%rbx) vaddpd %ymm13, %ymm2, %ymm1 vmulpd %ymm12, %ymm3, %ymm3 vaddpd %ymm3, %ymm1, %ymm11 vmovapd %ymm11, 31936(%rbx) vaddpd %ymm9, %ymm2, %ymm1 vmulpd %ymm12, %ymm0, %ymm0 vmovapd %ymm12, %ymm8 vaddpd %ymm0, %ymm1, %ymm4 vmovapd %ymm4, 32576(%rbx) vmovapd 32448(%rbx), %ymm0 vmulpd 31840(%rbx), %ymm0, %ymm1 vmovapd %ymm1, 31584(%rbx) vmovapd 32064(%rbx), %ymm0 vmulpd 32096(%rbx), %ymm0, %ymm0 vaddpd %ymm1, %ymm0, %ymm1 vmulpd %ymm6, %ymm5, %ymm2 vmovapd %ymm2, 31680(%rbx) vaddpd %ymm2, %ymm1, %ymm1 vmulpd %ymm14, %ymm15, %ymm2 vmovapd %ymm2, 31616(%rbx) vaddpd %ymm2, %ymm1, %ymm2 vmovapd %ymm2, 31296(%rbx) vmovapd .LCPI1_26(%rip), %ymm5 vcmpltpd %ymm5, %ymm2, %ymm1 vmovapd %ymm2, %ymm6 vextractf128 $1, %ymm1, %xmm2 vpshufd $8, %xmm2, %xmm2 vpshufd $8, %xmm1, %xmm1 vmovlhps %xmm2, %xmm1, %xmm2 vmovapd 32736(%rbx), %ymm1 vmulpd %ymm7, %ymm1, %ymm3 vmovapd %ymm3, 31232(%rbx) vmovapd 32480(%rbx), %ymm12 vmulpd %ymm10, %ymm12, %ymm1 vaddpd %ymm3, %ymm1, %ymm3 vmulpd %ymm4, %ymm9, %ymm7 vmovapd %ymm7, 31648(%rbx) vaddpd %ymm7, %ymm3, %ymm3 vmulpd %ymm11, %ymm8, %ymm4 vmovapd %ymm4, 31264(%rbx) vaddpd %ymm4, %ymm3, %ymm4 vmovapd %ymm4, 31552(%rbx) vcmpltpd %ymm5, %ymm4, %ymm3 vmovapd %ymm4, %ymm8 vextractf128 $1, %ymm3, %xmm4 vpshufd $8, %xmm4, %xmm4 vpshufd $8, %xmm3, %xmm3 vmovlhps %xmm4, %xmm3, %xmm3 vpshufb .LCPI1_20(%rip), %xmm3, %xmm3 vpshufb .LCPI1_21(%rip), %xmm2, %xmm2 vpor %xmm3, %xmm2, %xmm2 vpsllw $15, %xmm2, %xmm2 vpsraw $15, %xmm2, %xmm2 vpunpckhbw %xmm0, %xmm2, %xmm3 vpslld $31, %xmm3, %xmm4 vpmovsxdq %xmm4, %xmm3 vmovhlps %xmm4, %xmm4, %xmm4 vpmovsxdq %xmm4, %xmm4 vinsertf128 $1, %xmm4, %ymm3, %ymm3 vpunpcklbw %xmm0, %xmm2, %xmm2 vpslld $31, %xmm2, %xmm4 vpmovsxdq %xmm4, %xmm2 vmovhlps %xmm4, %xmm4, %xmm4 vpmovsxdq %xmm4, %xmm4 vinsertf128 $1, %xmm4, %ymm2, %ymm2 vblendvpd %ymm2, %ymm5, %ymm6, %ymm2 vblendvpd %ymm3, %ymm5, %ymm8, %ymm3 vmovapd 18240(%rbx), %ymm6 vmovapd 31872(%rbx), %ymm4 vaddpd %ymm6, %ymm4, %ymm4 vmovapd .LCPI1_27(%rip), %ymm5 vmulpd %ymm5, %ymm6, %ymm9 vmovapd %ymm9, 31744(%rbx) vmovapd %ymm5, %ymm10 vaddpd %ymm4, %ymm9, %ymm4 vmovapd 32928(%rbx), %ymm8 vmovapd .LCPI1_22(%rip), %ymm7 vmulpd %ymm7, %ymm8, %ymm5 vaddpd 18496(%rbx), %ymm5, %ymm5 vaddpd 18432(%rbx), %ymm5, %ymm5 vaddpd 18528(%rbx), %ymm5, %ymm13 vmovapd %ymm13, 32192(%rbx) vmovapd .LCPI1_28(%rip), %ymm5 vmovapd %ymm5, %ymm6 vmulpd %ymm6, %ymm2, %ymm5 vaddpd %ymm5, %ymm9, %ymm9 vmovapd %ymm9, 25984(%rbx) vaddpd %ymm4, %ymm2, %ymm4 vmovapd %ymm4, 26016(%rbx) vmulpd %ymm4, %ymm8, %ymm5 vmulpd %ymm5, %ymm13, %ymm4 vaddpd %ymm4, %ymm9, %ymm4 vmovapd %ymm9, %ymm11 vsubpd %ymm0, %ymm4, %ymm9 vmovapd 32992(%rbx), %ymm8 vmulpd %ymm7, %ymm8, %ymm0 vmovapd 32512(%rbx), %ymm4 vmovapd 18272(%rbx), %ymm7 vaddpd %ymm7, %ymm4, %ymm4 vmulpd %ymm10, %ymm7, %ymm10 vmovapd %ymm10, 31712(%rbx) vaddpd %ymm4, %ymm10, %ymm4 vaddpd 18400(%rbx), %ymm0, %ymm0 vaddpd 18336(%rbx), %ymm0, %ymm0 vaddpd 18368(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 32160(%rbx) vmulpd %ymm6, %ymm3, %ymm6 vaddpd %ymm6, %ymm10, %ymm7 vmovapd %ymm7, 25952(%rbx) vaddpd %ymm4, %ymm3, %ymm4 vmovapd %ymm4, 31776(%rbx) vmulpd %ymm4, %ymm8, %ymm4 vmovapd %ymm4, 31200(%rbx) vmulpd %ymm4, %ymm0, %ymm6 vaddpd %ymm6, %ymm7, %ymm6 vmovapd %ymm7, %ymm8 vsubpd %ymm1, %ymm6, %ymm1 vsqrtpd %ymm3, %ymm4 vmovapd %ymm4, 32704(%rbx) vmovapd 32960(%rbx), %ymm7 vmulpd %ymm7, %ymm12, %ymm3 vdivpd %ymm4, %ymm3, %ymm3 vmovapd %ymm3, 32544(%rbx) vmovapd %ymm4, %ymm10 vmulpd %ymm3, %ymm0, %ymm6 vaddpd %ymm6, %ymm1, %ymm1 vsqrtpd %ymm2, %ymm0 vmovapd %ymm0, 32864(%rbx) vmovapd 32064(%rbx), %ymm14 vmovapd 32896(%rbx), %ymm3 vmulpd %ymm3, %ymm14, %ymm2 vdivpd %ymm0, %ymm2, %ymm2 vmovapd %ymm2, 32224(%rbx) vmovapd %ymm0, %ymm4 vmulpd %ymm2, %ymm13, %ymm2 vaddpd %ymm2, %ymm9, %ymm6 vmovapd 32352(%rbx), %ymm12 vmulpd %ymm5, %ymm12, %ymm9 vmulpd .LCPI1_88, %ymm11, %ymm2 vaddpd %ymm9, %ymm2, %ymm9 vmulpd 32672(%rbx), %ymm14, %ymm13 vsubpd %ymm13, %ymm9, %ymm0 vmovapd %ymm0, 32000(%rbx) vmovapd 32096(%rbx), %ymm0 vmulpd %ymm3, %ymm0, %ymm13 vdivpd %ymm4, %ymm13, %ymm0 vmovapd %ymm0, 32128(%rbx) vmovapd 32928(%rbx), %ymm4 vmulpd %ymm0, %ymm4, %ymm13 vaddpd %ymm13, %ymm6, %ymm0 vmovapd %ymm0, 31968(%rbx) vmovapd 18624(%rbx), %ymm0 vmulpd %ymm7, %ymm0, %ymm6 vdivpd %ymm10, %ymm6, %ymm0 vmovapd %ymm0, 32032(%rbx) vmovapd 32992(%rbx), %ymm15 vmulpd %ymm0, %ymm15, %ymm6 vaddpd %ymm6, %ymm1, %ymm0 vmovapd %ymm0, 31168(%rbx) vmovapd 32288(%rbx), %ymm9 vmulpd %ymm5, %ymm9, %ymm1 vaddpd %ymm1, %ymm2, %ymm1 vmovapd 31840(%rbx), %ymm3 vmulpd %ymm3, %ymm14, %ymm6 vmovapd %ymm14, %ymm0 vsubpd %ymm6, %ymm1, %ymm10 vmovapd 32256(%rbx), %ymm1 vmovapd 31200(%rbx), %ymm6 vmulpd %ymm6, %ymm1, %ymm14 vmulpd .LCPI1_88, %ymm8, %ymm8 vmovapd %ymm8, 25600(%rbx) vaddpd %ymm14, %ymm8, %ymm14 vmovapd 18176(%rbx), %ymm7 vmovapd 32480(%rbx), %ymm11 vmulpd %ymm7, %ymm11, %ymm11 vsubpd %ymm11, %ymm14, %ymm14 vmovapd 32544(%rbx), %ymm13 vmulpd %ymm13, %ymm1, %ymm11 vaddpd %ymm11, %ymm14, %ymm1 vmovapd %ymm1, 31040(%rbx) vmovapd 32224(%rbx), %ymm14 vmulpd %ymm14, %ymm9, %ymm11 vaddpd %ymm11, %ymm10, %ymm1 movq 32792(%rbx), %rax vmovaps 31168(%rbx), %ymm9 vmovaps %ymm9, 12000(%rax,%r12) vmovaps 31968(%rbx), %ymm9 vmovaps %ymm9, 11968(%rax,%r12) vmulpd %ymm14, %ymm12, %ymm11 vmovapd 32000(%rbx), %ymm9 vaddpd %ymm11, %ymm9, %ymm9 vmovapd %ymm9, 31072(%rbx) vmovapd 32320(%rbx), %ymm9 vmulpd %ymm5, %ymm9, %ymm5 vaddpd %ymm5, %ymm2, %ymm5 vmovapd 31904(%rbx), %ymm10 vmulpd %ymm10, %ymm0, %ymm11 vsubpd %ymm11, %ymm5, %ymm0 vmovapd %ymm0, 31168(%rbx) vmovapd 32896(%rbx), %ymm12 vmulpd %ymm12, %ymm3, %ymm11 vdivpd 32864(%rbx), %ymm11, %ymm0 vmovapd %ymm0, 32000(%rbx) vmulpd %ymm0, %ymm4, %ymm11 vaddpd %ymm11, %ymm1, %ymm5 vmulpd 32960(%rbx), %ymm7, %ymm11 vmovapd 32704(%rbx), %ymm3 vdivpd %ymm3, %ymm11, %ymm0 vmovapd %ymm0, 31968(%rbx) vmulpd %ymm0, %ymm15, %ymm11 vmovapd 31040(%rbx), %ymm0 vaddpd %ymm11, %ymm0, %ymm7 vmovapd 32640(%rbx), %ymm0 vmovapd %ymm6, %ymm4 vmulpd %ymm4, %ymm0, %ymm11 vaddpd %ymm11, %ymm8, %ymm14 vmovapd 32480(%rbx), %ymm15 vmovapd 32576(%rbx), %ymm1 vmulpd %ymm1, %ymm15, %ymm11 vsubpd %ymm11, %ymm14, %ymm14 vmulpd %ymm13, %ymm0, %ymm11 vaddpd %ymm11, %ymm14, %ymm14 vmovapd %ymm7, 12064(%rax,%r12) vmovapd %ymm5, 12032(%rax,%r12) vmovapd 18208(%rbx), %ymm7 vmulpd %ymm4, %ymm7, %ymm4 vaddpd %ymm4, %ymm8, %ymm4 vmovapd 31936(%rbx), %ymm13 vmulpd %ymm13, %ymm15, %ymm6 vsubpd %ymm6, %ymm4, %ymm0 vmovapd %ymm0, 25920(%rbx) vmulpd 32224(%rbx), %ymm9, %ymm4 vmovapd 31168(%rbx), %ymm0 vaddpd %ymm4, %ymm0, %ymm0 vmovapd %ymm0, 31040(%rbx) vmovapd 32672(%rbx), %ymm0 vmulpd %ymm12, %ymm0, %ymm5 vmovapd %ymm12, %ymm4 vmovapd 32864(%rbx), %ymm12 vdivpd %ymm12, %ymm5, %ymm0 vmovapd %ymm0, 31200(%rbx) vmovapd 32928(%rbx), %ymm15 vmulpd %ymm0, %ymm15, %ymm5 vmovapd 31072(%rbx), %ymm0 vaddpd %ymm5, %ymm0, %ymm0 vmovapd %ymm0, 31072(%rbx) vmulpd 32960(%rbx), %ymm1, %ymm5 vdivpd %ymm3, %ymm5, %ymm1 vmovapd %ymm1, 31168(%rbx) vmovapd 32992(%rbx), %ymm0 vmulpd %ymm1, %ymm0, %ymm5 vaddpd %ymm5, %ymm14, %ymm6 vmovapd 32800(%rbx), %ymm5 vmulpd 31776(%rbx), %ymm5, %ymm1 vmovapd %ymm1, 32224(%rbx) vmovapd 32160(%rbx), %ymm14 vmulpd %ymm1, %ymm14, %ymm5 vaddpd %ymm5, %ymm8, %ymm5 vmovapd 32736(%rbx), %ymm11 vmulpd 18624(%rbx), %ymm11, %ymm9 vsubpd %ymm9, %ymm5, %ymm5 vmulpd 32544(%rbx), %ymm7, %ymm3 vmovapd %ymm7, %ymm9 vmovapd 25920(%rbx), %ymm1 vaddpd %ymm3, %ymm1, %ymm3 vmovapd %ymm6, 12128(%rax,%r12) vmovaps 31072(%rbx), %ymm1 vmovaps %ymm1, 12096(%rax,%r12) vmulpd %ymm4, %ymm10, %ymm6 vdivpd %ymm12, %ymm6, %ymm1 vmovapd %ymm1, 31072(%rbx) vmulpd %ymm1, %ymm15, %ymm6 vmovapd 31040(%rbx), %ymm1 vaddpd %ymm6, %ymm1, %ymm15 vmovapd 32960(%rbx), %ymm6 vmulpd %ymm6, %ymm13, %ymm4 vmovapd 32704(%rbx), %ymm7 vdivpd %ymm7, %ymm4, %ymm1 vmovapd %ymm1, 31040(%rbx) vmulpd %ymm1, %ymm0, %ymm4 vaddpd %ymm4, %ymm3, %ymm0 vmovapd %ymm0, 25728(%rbx) vmulpd %ymm6, %ymm11, %ymm3 vdivpd %ymm7, %ymm3, %ymm0 vmovapd %ymm0, 32544(%rbx) vmulpd %ymm0, %ymm14, %ymm3 vaddpd %ymm3, %ymm5, %ymm0 vmovapd %ymm0, 25920(%rbx) vmovapd 32384(%rbx), %ymm0 vmovapd 26016(%rbx), %ymm4 vmulpd %ymm4, %ymm0, %ymm14 vmovapd 32192(%rbx), %ymm0 vmulpd %ymm14, %ymm0, %ymm3 vaddpd %ymm3, %ymm2, %ymm3 vmovapd 32448(%rbx), %ymm13 vmulpd 32096(%rbx), %ymm13, %ymm5 vsubpd %ymm5, %ymm3, %ymm0 vmovapd %ymm0, 25856(%rbx) vmovapd 32256(%rbx), %ymm0 vmulpd 32224(%rbx), %ymm0, %ymm3 vmovapd 25952(%rbx), %ymm7 vaddpd %ymm3, %ymm7, %ymm6 vmovapd 32416(%rbx), %ymm0 vmovapd 31776(%rbx), %ymm1 vmulpd %ymm1, %ymm0, %ymm10 vmovapd %ymm10, 25792(%rbx) vmovapd 18848(%rbx), %ymm0 vmulpd %ymm1, %ymm0, %ymm0 vmovapd %ymm0, 25824(%rbx) vmulpd %ymm0, %ymm9, %ymm3 vmovapd %ymm0, %ymm5 vaddpd %ymm3, %ymm7, %ymm3 vmovapd 32640(%rbx), %ymm9 vmulpd %ymm10, %ymm9, %ymm11 vaddpd %ymm11, %ymm7, %ymm0 vmovapd %ymm0, 25952(%rbx) vmovapd 32288(%rbx), %ymm10 vmulpd %ymm14, %ymm10, %ymm7 vmovapd 25984(%rbx), %ymm1 vaddpd %ymm7, %ymm1, %ymm7 vsubpd 31584(%rbx), %ymm7, %ymm0 vmovapd %ymm0, 25888(%rbx) vsubpd 31232(%rbx), %ymm6, %ymm0 vmovapd %ymm0, 25760(%rbx) vmovapd 18656(%rbx), %ymm0 vmulpd %ymm4, %ymm0, %ymm7 vmovapd 32320(%rbx), %ymm0 vmulpd %ymm7, %ymm0, %ymm6 vaddpd %ymm6, %ymm1, %ymm6 vmovapd 32832(%rbx), %ymm0 vmulpd %ymm4, %ymm0, %ymm12 vmovapd 32352(%rbx), %ymm4 vmulpd %ymm12, %ymm4, %ymm11 vaddpd %ymm11, %ymm1, %ymm0 vmovapd %ymm0, 31232(%rbx) vmovaps 25728(%rbx), %ymm0 vmovaps %ymm0, 12192(%rax,%r12) vmovapd %ymm15, 12160(%rax,%r12) vsubpd 31616(%rbx), %ymm6, %ymm0 vmovapd %ymm0, 31776(%rbx) vsubpd 31264(%rbx), %ymm3, %ymm0 vmovapd %ymm0, 31616(%rbx) vmulpd %ymm7, %ymm4, %ymm3 vmovapd %ymm4, %ymm15 vaddpd %ymm3, %ymm2, %ymm3 vmovapd 18304(%rbx), %ymm0 vmulpd 32672(%rbx), %ymm0, %ymm6 vsubpd %ymm6, %ymm3, %ymm1 vmovapd %ymm1, 31584(%rbx) vmulpd %ymm5, %ymm9, %ymm3 vaddpd %ymm3, %ymm8, %ymm3 vmovapd 31808(%rbx), %ymm1 vmulpd 32576(%rbx), %ymm1, %ymm6 vsubpd %ymm6, %ymm3, %ymm3 vmovapd %ymm3, 31264(%rbx) vmovapd %ymm10, %ymm5 vmulpd %ymm7, %ymm5, %ymm3 vaddpd %ymm3, %ymm2, %ymm3 vmovapd 31840(%rbx), %ymm11 vmulpd %ymm11, %ymm0, %ymm6 vmovapd %ymm0, %ymm9 vsubpd %ymm6, %ymm3, %ymm0 vmovapd %ymm0, 26016(%rbx) vmulpd 32896(%rbx), %ymm13, %ymm3 vdivpd 32864(%rbx), %ymm3, %ymm4 vmovapd %ymm4, 25696(%rbx) vmovapd 32192(%rbx), %ymm0 vmulpd %ymm4, %ymm0, %ymm3 vmovapd %ymm4, %ymm13 vmovapd 25856(%rbx), %ymm4 vaddpd %ymm3, %ymm4, %ymm3 vmovapd %ymm3, 25856(%rbx) vmovapd 32800(%rbx), %ymm3 vmulpd 32032(%rbx), %ymm3, %ymm3 vmovapd 25920(%rbx), %ymm4 vaddpd %ymm3, %ymm4, %ymm3 vmovapd %ymm3, 25728(%rbx) vmulpd %ymm7, %ymm0, %ymm3 vmovapd %ymm0, %ymm6 vmovapd 32320(%rbx), %ymm0 vmulpd %ymm12, %ymm0, %ymm4 vaddpd %ymm4, %ymm2, %ymm4 vmovapd %ymm4, 25632(%rbx) vaddpd %ymm3, %ymm2, %ymm3 vmulpd %ymm12, %ymm5, %ymm5 vaddpd %ymm5, %ymm2, %ymm10 vmulpd %ymm12, %ymm6, %ymm7 vmulpd %ymm14, %ymm15, %ymm12 vmulpd %ymm14, %ymm0, %ymm5 vaddpd %ymm5, %ymm2, %ymm0 vmovapd %ymm0, 25472(%rbx) vaddpd %ymm7, %ymm2, %ymm7 vaddpd %ymm12, %ymm2, %ymm0 vmovapd %ymm0, 25536(%rbx) vmovapd 18976(%rbx), %ymm12 vmulpd %ymm11, %ymm12, %ymm11 vsubpd %ymm11, %ymm10, %ymm0 vmovapd %ymm0, 31840(%rbx) vmovapd 32256(%rbx), %ymm14 vmovapd 25824(%rbx), %ymm6 vmulpd %ymm6, %ymm14, %ymm10 vaddpd %ymm10, %ymm8, %ymm10 vmovapd %ymm1, %ymm0 vmovapd 18176(%rbx), %ymm5 vmulpd %ymm5, %ymm0, %ymm11 vsubpd %ymm11, %ymm10, %ymm1 vmovapd %ymm1, 25984(%rbx) vmovapd 32096(%rbx), %ymm1 vmulpd %ymm1, %ymm9, %ymm10 vmovapd %ymm9, %ymm4 vsubpd %ymm10, %ymm3, %ymm2 vmovapd %ymm2, 25920(%rbx) vmovapd 32160(%rbx), %ymm2 vmulpd %ymm6, %ymm2, %ymm3 vaddpd %ymm3, %ymm8, %ymm3 vmovapd 18624(%rbx), %ymm10 vmulpd %ymm10, %ymm0, %ymm9 vsubpd %ymm9, %ymm3, %ymm0 vmovapd %ymm0, 25824(%rbx) vmovapd 31904(%rbx), %ymm9 vmulpd %ymm9, %ymm12, %ymm3 vmovapd 25632(%rbx), %ymm0 vsubpd %ymm3, %ymm0, %ymm0 vmovapd %ymm0, 25632(%rbx) vmovapd %ymm14, %ymm0 vmulpd 32544(%rbx), %ymm0, %ymm3 vmovapd 25760(%rbx), %ymm6 vaddpd %ymm3, %ymm6, %ymm3 vmovapd %ymm3, 25568(%rbx) vmovapd 32288(%rbx), %ymm15 vmulpd %ymm13, %ymm15, %ymm3 vmovapd 25888(%rbx), %ymm6 vaddpd %ymm3, %ymm6, %ymm3 vmovapd %ymm3, 25504(%rbx) vmovapd 25952(%rbx), %ymm3 vsubpd 31648(%rbx), %ymm3, %ymm3 vmovapd %ymm3, 25952(%rbx) vmovapd 18880(%rbx), %ymm14 vmulpd %ymm5, %ymm14, %ymm3 vmovapd 25792(%rbx), %ymm5 vmulpd %ymm5, %ymm0, %ymm11 vaddpd %ymm11, %ymm8, %ymm11 vsubpd %ymm3, %ymm11, %ymm0 vmovapd %ymm0, 31648(%rbx) vmulpd %ymm1, %ymm12, %ymm3 vsubpd %ymm3, %ymm7, %ymm0 vmovapd %ymm0, 32096(%rbx) vmulpd %ymm10, %ymm14, %ymm3 vmulpd %ymm5, %ymm2, %ymm7 vaddpd %ymm7, %ymm8, %ymm7 vsubpd %ymm3, %ymm7, %ymm0 vmovapd %ymm0, 25888(%rbx) vmovapd 32448(%rbx), %ymm0 vmulpd %ymm9, %ymm0, %ymm3 vmovapd 25472(%rbx), %ymm1 vsubpd %ymm3, %ymm1, %ymm2 vmovapd %ymm2, 31904(%rbx) vmovapd 18208(%rbx), %ymm6 vmulpd %ymm5, %ymm6, %ymm3 vaddpd %ymm3, %ymm8, %ymm3 vmovapd 31936(%rbx), %ymm7 vmulpd %ymm7, %ymm14, %ymm5 vsubpd %ymm5, %ymm3, %ymm2 vmovapd %ymm2, 25792(%rbx) vmovapd 31232(%rbx), %ymm2 vsubpd 31680(%rbx), %ymm2, %ymm2 vmovapd %ymm2, 25760(%rbx) vmovapd 32736(%rbx), %ymm2 vmulpd %ymm7, %ymm2, %ymm3 vmulpd 32224(%rbx), %ymm6, %ymm5 vaddpd %ymm5, %ymm8, %ymm5 vsubpd %ymm3, %ymm5, %ymm1 vmovapd %ymm1, 31936(%rbx) vmulpd 32672(%rbx), %ymm0, %ymm3 vmovapd 25536(%rbx), %ymm0 vsubpd %ymm3, %ymm0, %ymm0 vmovapd %ymm0, 31232(%rbx) vmovaps 25728(%rbx), %ymm0 vmovaps %ymm0, 12256(%rax,%r12) vmovapd 32384(%rbx), %ymm5 vmulpd 32128(%rbx), %ymm5, %ymm2 vmovapd 25856(%rbx), %ymm0 vaddpd %ymm2, %ymm0, %ymm0 vmovapd %ymm0, 25856(%rbx) vmovapd 32896(%rbx), %ymm0 vmulpd %ymm0, %ymm4, %ymm2 vmovapd 32864(%rbx), %ymm11 vdivpd %ymm11, %ymm2, %ymm2 vmulpd %ymm2, %ymm15, %ymm3 vmovapd 26016(%rbx), %ymm1 vaddpd %ymm3, %ymm1, %ymm1 vmovapd %ymm1, 32672(%rbx) vmovapd 32960(%rbx), %ymm14 vmovapd 31808(%rbx), %ymm1 vmulpd %ymm14, %ymm1, %ymm3 vmovapd 32704(%rbx), %ymm9 vdivpd %ymm9, %ymm3, %ymm13 vmovapd 32640(%rbx), %ymm15 vmulpd %ymm13, %ymm15, %ymm3 vmovapd 31264(%rbx), %ymm1 vaddpd %ymm3, %ymm1, %ymm1 vmovapd %ymm1, 31680(%rbx) vmovapd 32352(%rbx), %ymm1 vmulpd %ymm2, %ymm1, %ymm3 vmovapd 31584(%rbx), %ymm4 vaddpd %ymm3, %ymm4, %ymm3 vmovapd %ymm3, 31584(%rbx) vmulpd %ymm13, %ymm6, %ymm3 vmovapd 31616(%rbx), %ymm4 vaddpd %ymm3, %ymm4, %ymm3 vmovapd %ymm3, 31616(%rbx) vmovapd 32320(%rbx), %ymm8 vmulpd %ymm2, %ymm8, %ymm3 vmovapd 31776(%rbx), %ymm4 vaddpd %ymm3, %ymm4, %ymm3 vmovapd %ymm3, 25728(%rbx) vmulpd 32000(%rbx), %ymm5, %ymm5 vmovapd 25504(%rbx), %ymm3 vaddpd %ymm5, %ymm3, %ymm5 vmovapd 32800(%rbx), %ymm3 vmulpd 31968(%rbx), %ymm3, %ymm7 vmovapd 25568(%rbx), %ymm3 vaddpd %ymm7, %ymm3, %ymm7 vmulpd %ymm0, %ymm12, %ymm10 vdivpd %ymm11, %ymm10, %ymm10 vmulpd %ymm10, %ymm8, %ymm11 vmovapd %ymm8, %ymm3 vmovapd 25632(%rbx), %ymm0 vaddpd %ymm11, %ymm0, %ymm0 vmovapd %ymm0, 31776(%rbx) vmovapd 32160(%rbx), %ymm11 vmulpd %ymm13, %ymm11, %ymm4 vmovapd 25824(%rbx), %ymm0 vaddpd %ymm4, %ymm0, %ymm0 vmovapd %ymm0, 31264(%rbx) vmovapd 32192(%rbx), %ymm8 vmulpd %ymm2, %ymm8, %ymm2 vmovapd 25920(%rbx), %ymm0 vaddpd %ymm2, %ymm0, %ymm0 vmovapd %ymm0, 25920(%rbx) vmovapd 32256(%rbx), %ymm2 vmulpd %ymm13, %ymm2, %ymm4 vmovapd 25984(%rbx), %ymm0 vaddpd %ymm4, %ymm0, %ymm13 vmovapd 32288(%rbx), %ymm0 vmulpd %ymm10, %ymm0, %ymm4 vmovapd 31840(%rbx), %ymm0 vaddpd %ymm4, %ymm0, %ymm0 vmovapd %ymm0, 32288(%rbx) vmovapd 18880(%rbx), %ymm0 vmulpd %ymm14, %ymm0, %ymm4 vdivpd %ymm9, %ymm4, %ymm14 vmulpd %ymm14, %ymm15, %ymm4 vmovapd 25952(%rbx), %ymm0 vaddpd %ymm4, %ymm0, %ymm0 vmovapd %ymm0, 25984(%rbx) vmulpd %ymm10, %ymm8, %ymm9 vmovapd %ymm1, %ymm12 vmulpd %ymm10, %ymm12, %ymm4 vmovapd 25760(%rbx), %ymm0 vaddpd %ymm4, %ymm0, %ymm0 vmovapd %ymm0, 25824(%rbx) vmulpd %ymm14, %ymm2, %ymm10 vmulpd %ymm14, %ymm11, %ymm0 vmulpd %ymm14, %ymm6, %ymm8 vmovapd 25792(%rbx), %ymm1 vaddpd %ymm8, %ymm1, %ymm11 vmovapd 25696(%rbx), %ymm1 vmulpd %ymm1, %ymm3, %ymm8 vmovapd 31904(%rbx), %ymm2 vaddpd %ymm8, %ymm2, %ymm2 vmovapd %ymm2, 26016(%rbx) vmovapd 25888(%rbx), %ymm2 vaddpd %ymm0, %ymm2, %ymm0 vmovapd %ymm0, 25952(%rbx) vmovapd 32096(%rbx), %ymm0 vaddpd %ymm9, %ymm0, %ymm0 vmovapd %ymm0, 25792(%rbx) vmovapd 31648(%rbx), %ymm0 vaddpd %ymm10, %ymm0, %ymm0 vmovapd %ymm0, 32320(%rbx) vmulpd 32224(%rbx), %ymm15, %ymm0 vmovapd 25600(%rbx), %ymm2 vaddpd %ymm0, %ymm2, %ymm0 vmovapd %ymm0, 31648(%rbx) vmovaps 25856(%rbx), %ymm0 vmovaps %ymm0, 12224(%rax,%r12) vmulpd %ymm1, %ymm12, %ymm0 vmovapd 31232(%rbx), %ymm1 vaddpd %ymm0, %ymm1, %ymm0 vmovapd %ymm0, 31232(%rbx) vmulpd 32544(%rbx), %ymm6, %ymm1 vmovapd 31936(%rbx), %ymm0 vaddpd %ymm1, %ymm0, %ymm0 vmovapd %ymm0, 25888(%rbx) vmovapd %ymm7, 12320(%rax,%r12) vmovapd %ymm5, 12288(%rax,%r12) vmovapd 18656(%rbx), %ymm6 vmovapd 31072(%rbx), %ymm10 vmulpd %ymm10, %ymm6, %ymm5 vmovapd 25728(%rbx), %ymm0 vaddpd %ymm5, %ymm0, %ymm0 vmovapd %ymm0, 32224(%rbx) vmovapd 18848(%rbx), %ymm7 vmovapd 31040(%rbx), %ymm4 vmulpd %ymm4, %ymm7, %ymm3 vmovapd 31616(%rbx), %ymm0 vaddpd %ymm3, %ymm0, %ymm0 vmovapd %ymm0, 32192(%rbx) vmovapd 31200(%rbx), %ymm14 vmulpd %ymm14, %ymm6, %ymm3 vmovapd 31584(%rbx), %ymm0 vaddpd %ymm3, %ymm0, %ymm0 vmovapd %ymm0, 32096(%rbx) vmovapd 31168(%rbx), %ymm1 vmulpd %ymm1, %ymm7, %ymm3 vmovapd 31680(%rbx), %ymm0 vaddpd %ymm3, %ymm0, %ymm0 vmovapd %ymm0, 31840(%rbx) vmovapd 32000(%rbx), %ymm15 vmulpd %ymm15, %ymm6, %ymm5 vmovapd %ymm6, %ymm12 vmovapd 32672(%rbx), %ymm0 vaddpd %ymm5, %ymm0, %ymm0 vmovapd %ymm0, 31680(%rbx) vmovapd 31968(%rbx), %ymm9 vmulpd %ymm9, %ymm7, %ymm6 vmovapd %ymm7, %ymm3 vaddpd %ymm6, %ymm13, %ymm0 vmovapd %ymm0, 31616(%rbx) vmovapd 32128(%rbx), %ymm8 vmulpd %ymm8, %ymm12, %ymm7 vmovapd 25920(%rbx), %ymm0 vaddpd %ymm7, %ymm0, %ymm0 vmovapd %ymm0, 31584(%rbx) vmovapd 32032(%rbx), %ymm0 vmulpd %ymm0, %ymm3, %ymm2 vmovapd 31264(%rbx), %ymm3 vaddpd %ymm2, %ymm3, %ymm2 vmovapd %ymm2, 31264(%rbx) vmovapd 32832(%rbx), %ymm3 vmulpd %ymm10, %ymm3, %ymm13 vmovapd 31776(%rbx), %ymm2 vaddpd %ymm13, %ymm2, %ymm2 vmovapd %ymm2, 32672(%rbx) vmovapd 32416(%rbx), %ymm6 vmulpd %ymm4, %ymm6, %ymm13 vmovapd %ymm4, %ymm12 vaddpd %ymm13, %ymm11, %ymm7 vmovapd %ymm7, 31904(%rbx) vmovapd %ymm3, %ymm13 vmulpd %ymm14, %ymm13, %ymm11 vmovapd 25824(%rbx), %ymm2 vaddpd %ymm11, %ymm2, %ymm5 vmovapd %ymm5, 31936(%rbx) vmovapd %ymm6, %ymm11 vmulpd %ymm1, %ymm11, %ymm4 vmovapd %ymm1, %ymm2 vmovapd 25984(%rbx), %ymm1 vaddpd %ymm4, %ymm1, %ymm6 vmovapd %ymm6, 32160(%rbx) vmulpd %ymm15, %ymm13, %ymm4 vmovapd 32288(%rbx), %ymm1 vaddpd %ymm4, %ymm1, %ymm15 vmovapd %ymm15, 32256(%rbx) vmulpd %ymm9, %ymm11, %ymm4 vmovapd 32320(%rbx), %ymm1 vaddpd %ymm4, %ymm1, %ymm3 vmovapd %ymm3, 32320(%rbx) vmulpd %ymm8, %ymm13, %ymm4 vmovapd 25792(%rbx), %ymm1 vaddpd %ymm4, %ymm1, %ymm13 vmovapd %ymm13, 32000(%rbx) vmulpd %ymm0, %ymm11, %ymm4 vmovapd 25952(%rbx), %ymm0 vaddpd %ymm4, %ymm0, %ymm11 vmovapd %ymm11, 32288(%rbx) vmovapd 32384(%rbx), %ymm9 vmulpd %ymm10, %ymm9, %ymm4 vmovapd 26016(%rbx), %ymm0 vaddpd %ymm4, %ymm0, %ymm4 vmovapd 32800(%rbx), %ymm10 vmulpd %ymm12, %ymm10, %ymm8 vmovapd 25888(%rbx), %ymm0 vaddpd %ymm8, %ymm0, %ymm1 vmulpd %ymm14, %ymm9, %ymm8 vmovapd 31232(%rbx), %ymm0 vaddpd %ymm8, %ymm0, %ymm0 vmovapd 32736(%rbx), %ymm8 vmulpd 32576(%rbx), %ymm8, %ymm8 vmovapd 31648(%rbx), %ymm9 vsubpd %ymm8, %ymm9, %ymm8 vmovapd 32640(%rbx), %ymm9 vmulpd 32544(%rbx), %ymm9, %ymm9 vaddpd %ymm9, %ymm8, %ymm8 vmulpd %ymm2, %ymm10, %ymm9 vaddpd %ymm9, %ymm8, %ymm8 vmovapd %ymm8, 12384(%rax,%r12) vmovapd %ymm0, 12352(%rax,%r12) vmovapd %ymm1, 12448(%rax,%r12) vmovapd %ymm4, 12416(%rax,%r12) vmovapd %ymm11, 12512(%rax,%r12) vmovapd %ymm13, 12480(%rax,%r12) vmovapd %ymm3, 12576(%rax,%r12) vmovapd %ymm15, 12544(%rax,%r12) vmovapd %ymm6, 12640(%rax,%r12) vmovapd %ymm5, 12608(%rax,%r12) vmovapd %ymm7, 12704(%rax,%r12) vmovaps 32672(%rbx), %ymm0 vmovaps %ymm0, 12672(%rax,%r12) vmovaps 31264(%rbx), %ymm0 vmovaps %ymm0, 12768(%rax,%r12) vmovaps 31584(%rbx), %ymm0 vmovaps %ymm0, 12736(%rax,%r12) vmovaps 31616(%rbx), %ymm0 vmovaps %ymm0, 12832(%rax,%r12) vmovaps 31680(%rbx), %ymm0 vmovaps %ymm0, 12800(%rax,%r12) vmovaps 31840(%rbx), %ymm0 vmovaps %ymm0, 12896(%rax,%r12) vmovaps 32096(%rbx), %ymm0 vmovaps %ymm0, 12864(%rax,%r12) vmovaps 32192(%rbx), %ymm0 vmovaps %ymm0, 12960(%rax,%r12) vmovaps 32224(%rbx), %ymm0 vmovaps %ymm0, 12928(%rax,%r12) vmovapd 13824(%rbx), %ymm0 vmulpd 12160(%rax,%r12), %ymm0, %ymm1 vmovapd %ymm1, 32544(%rbx) vmulpd 12192(%rax,%r12), %ymm0, %ymm1 vmovapd %ymm1, 32224(%rbx) vmulpd 12128(%rax,%r12), %ymm0, %ymm1 vmovapd %ymm1, 32192(%rbx) vmulpd 12000(%rax,%r12), %ymm0, %ymm1 vmovapd %ymm1, 32128(%rbx) vmulpd 12064(%rax,%r12), %ymm0, %ymm1 vmovapd %ymm1, 32096(%rbx) vmulpd 12096(%rax,%r12), %ymm0, %ymm1 vmovapd %ymm1, 32032(%rbx) vmulpd 12032(%rax,%r12), %ymm0, %ymm1 vmovapd %ymm1, 31968(%rbx) vmulpd 11968(%rax,%r12), %ymm0, %ymm1 vmovapd %ymm1, 31776(%rbx) vmovapd 31872(%rbx), %ymm10 vmovapd %ymm10, %ymm0 vmovaps .LCPI1_30(%rip), %ymm8 vmovaps %ymm8, %ymm1 movq %rax, %r14 callq __ocl_svml_e9_pow4 vmovapd %ymm0, %ymm13 vmovapd 32512(%rbx), %ymm0 vmovaps %ymm8, %ymm1 callq __ocl_svml_e9_pow4 vmovapd %ymm0, %ymm1 vmovapd 18240(%rbx), %ymm14 vmulpd %ymm13, %ymm14, %ymm0 vmovapd 18272(%rbx), %ymm15 vmulpd %ymm1, %ymm15, %ymm1 callq __ocl_svml_e9_log8 vmovapd %ymm0, 31616(%rbx) vmovapd %ymm1, 31584(%rbx) vmovaps 32896(%rbx), %ymm0 vmovaps .LCPI1_24(%rip), %ymm8 vmovaps %ymm8, %ymm1 callq __ocl_svml_e9_pow4 vmovaps %ymm0, 31680(%rbx) vmovaps 32960(%rbx), %ymm0 vmovaps %ymm8, %ymm1 callq __ocl_svml_e9_pow4 movq %r14, %r11 vmovaps %ymm0, 31648(%rbx) vmovapd .LCPI1_25(%rip), %ymm0 vmovapd %ymm0, %ymm4 vmovapd 16768(%rbx), %ymm0 vxorpd %ymm4, %ymm0, %ymm0 vxorpd %ymm3, %ymm3, %ymm3 vmaxpd %ymm3, %ymm0, %ymm1 vmovapd 18464(%rbx), %ymm2 vblendvpd %ymm2, %ymm0, %ymm1, %ymm0 vmovapd %ymm0, 31168(%rbx) vmovapd 16800(%rbx), %ymm1 vmaxpd %ymm3, %ymm1, %ymm0 vblendvpd %ymm2, %ymm1, %ymm0, %ymm0 vmovapd %ymm0, 31200(%rbx) vmovapd 16832(%rbx), %ymm0 vxorpd %ymm4, %ymm0, %ymm0 vmaxpd %ymm3, %ymm0, %ymm1 vblendvpd %ymm2, %ymm0, %ymm1, %ymm0 vmovapd %ymm0, 31232(%rbx) vmovapd 16864(%rbx), %ymm1 vmaxpd %ymm3, %ymm1, %ymm0 vblendvpd %ymm2, %ymm1, %ymm0, %ymm0 vmovapd %ymm0, 31264(%rbx) movq 21664(%rbx), %rax vmovapd %ymm3, (%rax) movq 21680(%rbx), %rax vmovapd %ymm3, (%rax) movq 21696(%rbx), %rax vmovapd %ymm3, (%rax) movq 21712(%rbx), %rax vmovapd %ymm3, (%rax) movq 21728(%rbx), %rax vmovapd %ymm3, (%rax) movq 21744(%rbx), %rax vmovapd %ymm3, (%rax) movq 21760(%rbx), %rax vmovapd %ymm3, (%rax) movq 21776(%rbx), %rax vmovapd %ymm3, (%rax) movq %r15, 9680(%r11,%r12) movq %r15, 9712(%r11,%r12) movq %r15, 9744(%r11,%r12) movq %r15, 9776(%r11,%r12) movq %r15, 9808(%r11,%r12) movq %r15, 9840(%r11,%r12) movq %r15, 9872(%r11,%r12) movq %r15, 9904(%r11,%r12) movq 26976(%rbx), %rax vmovsd (%rax), %xmm0 movq 26944(%rbx), %rax vmovhpd (%rax), %xmm0, %xmm0 vmovapd %xmm0, 26976(%rbx) movq 27104(%rbx), %rax vmovsd (%rax), %xmm0 movq 27072(%rbx), %rax vmovhpd (%rax), %xmm0, %xmm0 vmovapd %ymm0, 27104(%rbx) movq 27040(%rbx), %rax vmovsd (%rax), %xmm0 movq 27008(%rbx), %rax vmovhpd (%rax), %xmm0, %xmm0 vmovapd %xmm0, 27072(%rbx) movq 27296(%rbx), %rax vmovsd (%rax), %xmm0 movq 27264(%rbx), %rax vmovhpd (%rax), %xmm0, %xmm0 vmovapd %ymm0, 27296(%rbx) movq 27232(%rbx), %rax vmovsd (%rax), %xmm0 movq 27200(%rbx), %rax vmovhpd (%rax), %xmm0, %xmm0 vmovapd %xmm0, 27264(%rbx) movq 27424(%rbx), %rax vmovsd (%rax), %xmm0 movq 27392(%rbx), %rax vmovhpd (%rax), %xmm0, %xmm0 vmovapd %ymm0, 27424(%rbx) movq 27168(%rbx), %rax vmovsd (%rax), %xmm0 movq 27136(%rbx), %rax vmovhpd (%rax), %xmm0, %xmm0 vmovapd %xmm0, 27392(%rbx) movq 27360(%rbx), %rax vmovsd (%rax), %xmm0 movq 27328(%rbx), %rax vmovhpd (%rax), %xmm0, %xmm0 vmovapd %ymm0, 27360(%rbx) movq 27488(%rbx), %rax vmovsd (%rax), %xmm0 movq 27456(%rbx), %rax vmovhpd (%rax), %xmm0, %xmm0 vmovapd %xmm0, 27488(%rbx) movq 27680(%rbx), %rax vmovsd (%rax), %xmm0 movq 27648(%rbx), %rax vmovhpd (%rax), %xmm0, %xmm0 vmovapd %ymm0, 27680(%rbx) movq 27616(%rbx), %rax vmovsd (%rax), %xmm0 movq 27584(%rbx), %rax vmovhpd (%rax), %xmm0, %xmm0 vmovapd %xmm0, 27648(%rbx) movq 27808(%rbx), %rax vmovsd (%rax), %xmm0 movq 27776(%rbx), %rax vmovhpd (%rax), %xmm0, %xmm0 vmovapd %ymm0, 27808(%rbx) movq 27552(%rbx), %rax vmovsd (%rax), %xmm0 movq 27520(%rbx), %rax vmovhpd (%rax), %xmm0, %xmm0 vmovapd %xmm0, 27776(%rbx) movq 27744(%rbx), %rax vmovsd (%rax), %xmm0 movq 27712(%rbx), %rax vmovhpd (%rax), %xmm0, %xmm0 vmovapd %ymm0, 27744(%rbx) movq 27936(%rbx), %rax vmovsd (%rax), %xmm0 movq 27904(%rbx), %rax vmovhpd (%rax), %xmm0, %xmm0 vmovapd %xmm0, 27936(%rbx) movq 28064(%rbx), %rax vmovsd (%rax), %xmm0 movq 28032(%rbx), %rax vmovhpd (%rax), %xmm0, %xmm0 vmovapd %ymm0, 28032(%rbx) movq 27872(%rbx), %rax vmovsd (%rax), %xmm0 movq 27840(%rbx), %rax vmovhpd (%rax), %xmm0, %xmm0 vmovapd %xmm0, 27904(%rbx) movq 28000(%rbx), %rax vmovsd (%rax), %xmm0 movq 27968(%rbx), %rax vmovhpd (%rax), %xmm0, %xmm0 vmovapd %ymm0, 28000(%rbx) movq 30080(%rbx), %rax vmovsd (%rax), %xmm0 movq 30048(%rbx), %rax vmovhpd (%rax), %xmm0, %xmm0 vmovapd %xmm0, 30080(%rbx) movq 28160(%rbx), %rax vmovsd (%rax), %xmm0 movq 30112(%rbx), %rax vmovhpd (%rax), %xmm0, %xmm0 vmovapd %ymm0, 30112(%rbx) movq 28128(%rbx), %rax vmovsd (%rax), %xmm0 movq 28096(%rbx), %rax vmovhpd (%rax), %xmm0, %xmm0 vmovapd %xmm0, 30048(%rbx) movq 28288(%rbx), %rax vmovsd (%rax), %xmm0 movq 28256(%rbx), %rax vmovhpd (%rax), %xmm0, %xmm0 vmovapd %ymm0, 28288(%rbx) movq 28224(%rbx), %rax vmovsd (%rax), %xmm0 movq 28192(%rbx), %rax vmovhpd (%rax), %xmm0, %xmm0 vmovapd %xmm0, 28256(%rbx) movq 28480(%rbx), %rax vmovsd (%rax), %xmm0 movq 28448(%rbx), %rax vmovhpd (%rax), %xmm0, %xmm0 vmovapd %ymm0, 28480(%rbx) movq 28416(%rbx), %rax vmovsd (%rax), %xmm0 movq 28384(%rbx), %rax vmovhpd (%rax), %xmm0, %xmm0 vmovapd %xmm0, 28448(%rbx) movq 28672(%rbx), %rax vmovsd (%rax), %xmm0 movq 28640(%rbx), %rax vmovhpd (%rax), %xmm0, %xmm0 vmovapd %ymm0, 28672(%rbx) movq 28352(%rbx), %rax vmovsd (%rax), %xmm0 movq 28320(%rbx), %rax vmovhpd (%rax), %xmm0, %xmm0 vmovapd %xmm0, 28640(%rbx) movq 28608(%rbx), %rax vmovsd (%rax), %xmm0 movq 28576(%rbx), %rax vmovhpd (%rax), %xmm0, %xmm0 vmovapd %ymm0, 28608(%rbx) movq 28544(%rbx), %rax vmovsd (%rax), %xmm0 movq 28512(%rbx), %rax vmovhpd (%rax), %xmm0, %xmm0 vmovapd %xmm0, 28576(%rbx) movq 28800(%rbx), %rax vmovsd (%rax), %xmm0 movq 28768(%rbx), %rax vmovhpd (%rax), %xmm0, %xmm0 vmovapd %ymm0, 28800(%rbx) movq 28736(%rbx), %rax vmovsd (%rax), %xmm0 movq 28704(%rbx), %rax vmovhpd (%rax), %xmm0, %xmm0 vmovapd %xmm0, 28768(%rbx) movq 28928(%rbx), %rax vmovsd (%rax), %xmm0 movq 28896(%rbx), %rax vmovhpd (%rax), %xmm0, %xmm0 vmovapd %ymm0, 28928(%rbx) movq 28864(%rbx), %rax vmovsd (%rax), %xmm0 movq 28832(%rbx), %rax vmovhpd (%rax), %xmm0, %xmm0 vmovapd %xmm0, 28896(%rbx) movq 28992(%rbx), %rax vmovsd (%rax), %xmm0 movq 28960(%rbx), %rax vmovhpd (%rax), %xmm0, %xmm0 vmovapd %ymm0, 28992(%rbx) movq 29056(%rbx), %rax vmovsd (%rax), %xmm0 movq 29024(%rbx), %rax vmovhpd (%rax), %xmm0, %xmm0 vmovapd %xmm0, 29056(%rbx) movq 29184(%rbx), %rax vmovsd (%rax), %xmm0 movq 29152(%rbx), %rax vmovhpd (%rax), %xmm0, %xmm0 vmovapd %ymm0, 29184(%rbx) movq 29120(%rbx), %rax vmovsd (%rax), %xmm0 movq 29088(%rbx), %rax vmovhpd (%rax), %xmm0, %xmm0 vmovapd %xmm0, 29152(%rbx) movq 29312(%rbx), %rax vmovsd (%rax), %xmm0 movq 29280(%rbx), %rax vmovhpd (%rax), %xmm0, %xmm0 vmovapd %ymm0, 29312(%rbx) movq 29248(%rbx), %rax vmovsd (%rax), %xmm0 movq 29216(%rbx), %rax vmovhpd (%rax), %xmm0, %xmm0 vmovapd %xmm0, 29280(%rbx) movq 29440(%rbx), %rax vmovsd (%rax), %xmm0 movq 29408(%rbx), %rax vmovhpd (%rax), %xmm0, %xmm0 vmovapd %ymm0, 29440(%rbx) movq 30176(%rbx), %rax vmovsd (%rax), %xmm0 movq 30144(%rbx), %rax vmovhpd (%rax), %xmm0, %xmm0 vmovapd %xmm0, 30176(%rbx) movq 30240(%rbx), %rax vmovsd (%rax), %xmm0 movq 30208(%rbx), %rax vmovhpd (%rax), %xmm0, %xmm0 vmovapd %ymm0, 30240(%rbx) movq 29376(%rbx), %rax vmovsd (%rax), %xmm0 movq 29344(%rbx), %rax vmovhpd (%rax), %xmm0, %xmm0 vmovapd %xmm0, 30208(%rbx) movq 29568(%rbx), %rax vmovsd (%rax), %xmm0 movq 29536(%rbx), %rax vmovhpd (%rax), %xmm0, %xmm0 vmovapd %ymm0, 30144(%rbx) movq 29504(%rbx), %rax vmovsd (%rax), %xmm0 movq 29472(%rbx), %rax vmovhpd (%rax), %xmm0, %xmm0 vmovapd %xmm0, 29568(%rbx) movq 29632(%rbx), %rax vmovsd (%rax), %xmm0 movq 29600(%rbx), %rax vmovhpd (%rax), %xmm0, %xmm0 vmovapd %ymm0, 29632(%rbx) movq 30528(%rbx), %rax vmovsd (%rax), %xmm0 movq 30560(%rbx), %rax vmovhpd (%rax), %xmm0, %xmm0 vmovapd %xmm0, 30560(%rbx) movq 30592(%rbx), %rax vmovsd (%rax), %xmm0 movq 30624(%rbx), %rax vmovhpd (%rax), %xmm0, %xmm0 vmovapd %ymm0, 30624(%rbx) movq 30656(%rbx), %rax vmovsd (%rax), %xmm0 movq 30688(%rbx), %rax vmovhpd (%rax), %xmm0, %xmm0 vmovapd %xmm0, 30688(%rbx) movq 30720(%rbx), %rax vmovsd (%rax), %xmm0 movq 30752(%rbx), %rax vmovhpd (%rax), %xmm0, %xmm0 vmovapd %ymm0, 30752(%rbx) movq 30304(%rbx), %rax vmovsd (%rax), %xmm0 movq 30272(%rbx), %rax vmovhpd (%rax), %xmm0, %xmm0 vmovapd %xmm0, 30720(%rbx) movq 30368(%rbx), %rax vmovsd (%rax), %xmm0 movq 30336(%rbx), %rax vmovhpd (%rax), %xmm0, %xmm0 vmovapd %ymm0, 30656(%rbx) movq 29696(%rbx), %rax vmovsd (%rax), %xmm0 movq 29664(%rbx), %rax vmovhpd (%rax), %xmm0, %xmm0 vmovapd %xmm0, 30592(%rbx) movq 29824(%rbx), %rax vmovsd (%rax), %xmm0 movq 29792(%rbx), %rax vmovhpd (%rax), %xmm0, %xmm0 vmovapd %ymm0, 30528(%rbx) movq 29760(%rbx), %rax vmovsd (%rax), %xmm0 movq 29728(%rbx), %rax vmovhpd (%rax), %xmm0, %xmm0 vmovapd %xmm0, 30368(%rbx) movq 29952(%rbx), %rax vmovsd (%rax), %xmm0 movq 29920(%rbx), %rax vmovhpd (%rax), %xmm0, %xmm0 vmovapd %ymm0, 30336(%rbx) movq 29888(%rbx), %rax vmovsd (%rax), %xmm0 movq 29856(%rbx), %rax vmovhpd (%rax), %xmm0, %xmm0 vmovapd %xmm0, 30304(%rbx) movq 30784(%rbx), %rax vmovsd (%rax), %xmm5 movq 30816(%rbx), %rax vmovsd (%rax), %xmm0 movq 30848(%rbx), %rax vmovsd (%rax), %xmm4 movq 30880(%rbx), %rax vmovsd (%rax), %xmm6 movq 30016(%rbx), %rax vmovsd (%rax), %xmm7 movq 29984(%rbx), %rax vmovhpd (%rax), %xmm7, %xmm12 movq 30912(%rbx), %rax vmovhpd (%rax), %xmm6, %xmm8 movq 30944(%rbx), %rax vmovhpd (%rax), %xmm5, %xmm9 movq 30976(%rbx), %rax vmovhpd (%rax), %xmm0, %xmm0 movq 31008(%rbx), %rax vmovhpd (%rax), %xmm4, %xmm6 movq 30432(%rbx), %rax vmovsd (%rax), %xmm4 movq 30400(%rbx), %rax vmovhpd (%rax), %xmm4, %xmm4 movq 30496(%rbx), %rax vmovsd (%rax), %xmm5 movq 30464(%rbx), %rax vmovhpd (%rax), %xmm5, %xmm11 vmovaps (%r11,%r12), %ymm2 vmovaps %ymm2, 31072(%rbx) vmovaps 32(%r11,%r12), %ymm3 vmovaps %ymm3, 31040(%rbx) vmovaps 64(%r11,%r12), %ymm1 vmovaps %ymm1, 31840(%rbx) vextractf128 $1, %ymm3, 30976(%rbx) vextractf128 $1, %ymm2, 31008(%rbx) vextractf128 $1, %ymm1, 28064(%rbx) vmovapd .LCPI1_73(%rip), %ymm1 vmovapd %ymm14, %ymm2 vmulpd %ymm1, %ymm2, %ymm5 vmovapd .LCPI1_74(%rip), %ymm14 vmulpd %ymm14, %ymm2, %ymm7 vmovapd %ymm10, %ymm2 vaddpd %ymm7, %ymm2, %ymm10 vdivpd %ymm10, %ymm5, %ymm13 vmovapd %ymm15, %ymm3 vmulpd %ymm1, %ymm3, %ymm10 vmulpd %ymm14, %ymm3, %ymm5 vmovapd 32928(%rbx), %ymm1 vaddpd 18496(%rbx), %ymm1, %ymm14 vaddpd 18432(%rbx), %ymm14, %ymm14 vmovapd 32992(%rbx), %ymm1 vaddpd 18400(%rbx), %ymm1, %ymm15 vaddpd 18336(%rbx), %ymm15, %ymm15 vmovapd 32512(%rbx), %ymm3 vaddpd %ymm5, %ymm3, %ymm1 vdivpd %ymm1, %ymm10, %ymm10 vaddpd 18368(%rbx), %ymm15, %ymm1 vmovapd %ymm1, 30912(%rbx) vaddpd 18528(%rbx), %ymm14, %ymm1 vmovapd %ymm1, 30944(%rbx) vmovapd 31296(%rbx), %ymm14 vaddpd %ymm14, %ymm2, %ymm1 vaddpd %ymm7, %ymm1, %ymm1 vdivpd %ymm1, %ymm14, %ymm14 vmulpd %ymm13, %ymm14, %ymm7 vaddpd %ymm13, %ymm14, %ymm13 vmovapd 31552(%rbx), %ymm2 vaddpd %ymm2, %ymm3, %ymm1 vaddpd %ymm5, %ymm1, %ymm1 vdivpd %ymm1, %ymm2, %ymm5 vmulpd %ymm10, %ymm5, %ymm14 vaddpd %ymm10, %ymm5, %ymm1 vsubpd %ymm14, %ymm1, %ymm1 vmovapd %ymm1, 32576(%rbx) vsubpd %ymm7, %ymm13, %ymm1 vmovapd %ymm1, 31552(%rbx) vinsertf128 $1, %xmm4, %ymm11, %ymm10 vmovapd %ymm10, 31296(%rbx) vinsertf128 $1, %xmm0, %ymm6, %ymm6 vinsertf128 $1, %xmm8, %ymm9, %ymm0 vinsertf128 $1, 30304(%rbx), %ymm12, %ymm9 vmovapd %ymm9, 30816(%rbx) vmovapd 30336(%rbx), %ymm1 vinsertf128 $1, 30368(%rbx), %ymm1, %ymm3 vmovapd 30528(%rbx), %ymm1 vinsertf128 $1, 30592(%rbx), %ymm1, %ymm2 vmovapd 30656(%rbx), %ymm1 vinsertf128 $1, 30720(%rbx), %ymm1, %ymm1 vmovapd %ymm1, 30880(%rbx) vmovapd 30752(%rbx), %ymm4 vinsertf128 $1, 30688(%rbx), %ymm4, %ymm7 vmovapd 30624(%rbx), %ymm4 vinsertf128 $1, 30560(%rbx), %ymm4, %ymm12 vmovaps 29632(%rbx), %ymm4 vinsertf128 $1, 29568(%rbx), %ymm4, %ymm4 vmovaps %ymm4, 30784(%rbx) vxorpd %ymm8, %ymm8, %ymm8 vmulpd %ymm8, %ymm2, %ymm5 vaddpd %ymm5, %ymm3, %ymm2 vmulpd %ymm8, %ymm9, %ymm4 vaddpd %ymm4, %ymm2, %ymm2 vmovapd %ymm2, 30752(%rbx) vmulpd %ymm8, %ymm0, %ymm11 vaddpd %ymm11, %ymm6, %ymm0 vmulpd %ymm8, %ymm10, %ymm2 vxorpd %ymm10, %ymm10, %ymm10 vaddpd %ymm2, %ymm0, %ymm0 vmovapd %ymm0, 30688(%rbx) vmovaps 30144(%rbx), %ymm0 vinsertf128 $1, 30208(%rbx), %ymm0, %ymm0 vmovaps %ymm0, 30624(%rbx) vmovaps 30240(%rbx), %ymm0 vinsertf128 $1, 30176(%rbx), %ymm0, %ymm0 vmovaps %ymm0, 30496(%rbx) vmovapd 29440(%rbx), %ymm0 vinsertf128 $1, 29280(%rbx), %ymm0, %ymm8 vmovapd 29312(%rbx), %ymm0 vinsertf128 $1, 29152(%rbx), %ymm0, %ymm13 vmovapd 29184(%rbx), %ymm0 vinsertf128 $1, 29056(%rbx), %ymm0, %ymm2 vmovapd 28992(%rbx), %ymm0 vinsertf128 $1, 28896(%rbx), %ymm0, %ymm4 vmovapd 28928(%rbx), %ymm0 vinsertf128 $1, 28768(%rbx), %ymm0, %ymm14 vmovapd 28800(%rbx), %ymm0 vinsertf128 $1, 28576(%rbx), %ymm0, %ymm15 vmovaps 28608(%rbx), %ymm0 vinsertf128 $1, 28640(%rbx), %ymm0, %ymm0 vmovaps %ymm0, 30464(%rbx) vmovapd 28672(%rbx), %ymm9 vinsertf128 $1, 28448(%rbx), %ymm9, %ymm9 vmulpd %ymm10, %ymm6, %ymm6 vaddpd %ymm11, %ymm6, %ymm0 vmovapd %ymm0, 30848(%rbx) vmulpd %ymm10, %ymm12, %ymm12 vmovapd %ymm7, %ymm0 vaddpd %ymm12, %ymm0, %ymm6 vmulpd %ymm10, %ymm1, %ymm7 vaddpd %ymm7, %ymm6, %ymm1 vmovapd %ymm1, 30720(%rbx) vxorpd %ymm7, %ymm7, %ymm7 vmulpd %ymm7, %ymm3, %ymm3 vaddpd %ymm5, %ymm3, %ymm1 vmovapd %ymm1, 30560(%rbx) vmovapd 28480(%rbx), %ymm3 vinsertf128 $1, 28256(%rbx), %ymm3, %ymm11 vmovaps 28288(%rbx), %ymm3 vinsertf128 $1, 30048(%rbx), %ymm3, %ymm1 vmovaps %ymm1, 30656(%rbx) vmovaps 30112(%rbx), %ymm3 vinsertf128 $1, 30080(%rbx), %ymm3, %ymm1 vmovaps %ymm1, 30528(%rbx) vmovapd 30784(%rbx), %ymm1 vmulpd %ymm7, %ymm1, %ymm5 vmulpd %ymm7, %ymm4, %ymm6 vaddpd %ymm5, %ymm4, %ymm3 vaddpd %ymm5, %ymm6, %ymm1 vmovapd %ymm1, 30592(%rbx) vmulpd %ymm7, %ymm2, %ymm5 vaddpd %ymm5, %ymm13, %ymm4 vmulpd %ymm7, %ymm8, %ymm6 vaddpd %ymm6, %ymm4, %ymm4 vmovapd 30496(%rbx), %ymm1 vmulpd %ymm7, %ymm1, %ymm1 vmovapd %ymm1, 30784(%rbx) vmovapd 30688(%rbx), %ymm2 vaddpd %ymm1, %ymm2, %ymm2 vmovapd 30624(%rbx), %ymm1 vmulpd %ymm7, %ymm1, %ymm6 vmovapd 30752(%rbx), %ymm1 vaddpd %ymm6, %ymm1, %ymm10 vmulpd %ymm7, %ymm10, %ymm10 vaddpd %ymm10, %ymm2, %ymm1 vmovapd %ymm1, 30688(%rbx) vmulpd %ymm7, %ymm14, %ymm2 vaddpd %ymm2, %ymm3, %ymm1 vmovapd %ymm1, 30624(%rbx) vmulpd %ymm7, %ymm13, %ymm2 vaddpd %ymm5, %ymm2, %ymm5 vmovaps 28000(%rbx), %ymm2 vinsertf128 $1, 27904(%rbx), %ymm2, %ymm1 vmovaps %ymm1, 30400(%rbx) vmulpd %ymm7, %ymm0, %ymm1 vaddpd %ymm12, %ymm1, %ymm0 vmovapd %ymm0, 30752(%rbx) vmovapd 30464(%rbx), %ymm0 vmulpd %ymm7, %ymm0, %ymm0 vmulpd %ymm7, %ymm15, %ymm1 vaddpd %ymm0, %ymm1, %ymm3 vaddpd %ymm0, %ymm15, %ymm0 vmovapd %ymm0, 30464(%rbx) vmovapd 28032(%rbx), %ymm0 vinsertf128 $1, 27936(%rbx), %ymm0, %ymm13 vmovapd 27744(%rbx), %ymm0 vinsertf128 $1, 27776(%rbx), %ymm0, %ymm2 vmulpd %ymm7, %ymm11, %ymm0 vmulpd %ymm7, %ymm9, %ymm1 vaddpd %ymm0, %ymm9, %ymm9 vmovapd %ymm9, 30496(%rbx) vaddpd %ymm0, %ymm1, %ymm0 vmovapd %ymm0, 30432(%rbx) vmovapd 30560(%rbx), %ymm0 vaddpd 30816(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 30560(%rbx) vmovapd 27808(%rbx), %ymm0 vinsertf128 $1, 27648(%rbx), %ymm0, %ymm12 vmovapd 27680(%rbx), %ymm0 vinsertf128 $1, 27488(%rbx), %ymm0, %ymm15 vmovapd 30528(%rbx), %ymm0 vmulpd %ymm7, %ymm0, %ymm1 vmovapd 30720(%rbx), %ymm0 vaddpd %ymm1, %ymm0, %ymm9 vmovapd 30656(%rbx), %ymm0 vmulpd %ymm7, %ymm0, %ymm0 vaddpd %ymm0, %ymm4, %ymm4 vmulpd %ymm7, %ymm4, %ymm4 vaddpd %ymm4, %ymm9, %ymm10 vmovapd 30848(%rbx), %ymm4 vaddpd 31296(%rbx), %ymm4, %ymm4 vmovapd %ymm4, 30848(%rbx) vmovapd 30592(%rbx), %ymm4 vaddpd %ymm14, %ymm4, %ymm4 vmovapd %ymm4, 30816(%rbx) vmovaps 27360(%rbx), %ymm4 vinsertf128 $1, 27392(%rbx), %ymm4, %ymm4 vmovaps %ymm4, 30656(%rbx) vmovapd 27424(%rbx), %ymm4 vinsertf128 $1, 27264(%rbx), %ymm4, %ymm9 vaddpd %ymm8, %ymm5, %ymm4 vmovapd %ymm4, 31296(%rbx) vmovaps 27296(%rbx), %ymm4 vinsertf128 $1, 27072(%rbx), %ymm4, %ymm4 vmovaps %ymm4, 30720(%rbx) vmovapd 30400(%rbx), %ymm4 vmulpd %ymm7, %ymm4, %ymm14 vmovapd 30624(%rbx), %ymm4 vaddpd %ymm14, %ymm4, %ymm4 vmulpd %ymm7, %ymm4, %ymm4 vmovapd 30688(%rbx), %ymm5 vaddpd %ymm4, %ymm5, %ymm5 vaddpd %ymm2, %ymm3, %ymm11 vmulpd %ymm7, %ymm2, %ymm2 vmovapd 30464(%rbx), %ymm3 vaddpd %ymm2, %ymm3, %ymm2 vmulpd %ymm7, %ymm15, %ymm3 vmulpd %ymm7, %ymm13, %ymm8 vaddpd %ymm3, %ymm13, %ymm4 vaddpd %ymm3, %ymm8, %ymm8 vmovapd 30560(%rbx), %ymm3 vaddpd %ymm6, %ymm3, %ymm3 vmovapd %ymm3, 30688(%rbx) vmovapd 30752(%rbx), %ymm3 vaddpd 30880(%rbx), %ymm3, %ymm3 vmovapd 30432(%rbx), %ymm6 vaddpd %ymm12, %ymm6, %ymm13 vmulpd %ymm7, %ymm12, %ymm6 vmovapd 30496(%rbx), %ymm12 vaddpd %ymm6, %ymm12, %ymm6 vmovapd 27104(%rbx), %ymm12 vinsertf128 $1, 26976(%rbx), %ymm12, %ymm12 vmulpd %ymm7, %ymm12, %ymm12 vaddpd %ymm12, %ymm6, %ymm6 vmulpd %ymm7, %ymm6, %ymm6 vaddpd %ymm6, %ymm10, %ymm15 vaddpd %ymm9, %ymm8, %ymm8 vmulpd %ymm7, %ymm9, %ymm6 vaddpd %ymm6, %ymm4, %ymm4 vmovapd 30656(%rbx), %ymm6 vmulpd %ymm7, %ymm6, %ymm6 vaddpd %ymm6, %ymm2, %ymm10 vaddpd %ymm6, %ymm11, %ymm9 vmovapd 30816(%rbx), %ymm2 vaddpd %ymm14, %ymm2, %ymm2 vmovapd 30848(%rbx), %ymm6 vaddpd 30784(%rbx), %ymm6, %ymm6 vmulpd %ymm7, %ymm10, %ymm10 vaddpd %ymm10, %ymm5, %ymm10 vmovapd 30720(%rbx), %ymm5 vmulpd %ymm7, %ymm5, %ymm11 vaddpd %ymm11, %ymm4, %ymm5 vaddpd %ymm11, %ymm8, %ymm8 vaddpd %ymm12, %ymm13, %ymm4 vaddpd %ymm1, %ymm3, %ymm1 vmovapd 31296(%rbx), %ymm3 vaddpd %ymm0, %ymm3, %ymm12 vmulpd %ymm7, %ymm5, %ymm3 vaddpd %ymm3, %ymm15, %ymm0 vmovapd %ymm0, 31296(%rbx) vmovapd 30688(%rbx), %ymm0 vmulpd %ymm7, %ymm0, %ymm11 vmulpd %ymm7, %ymm6, %ymm0 vaddpd %ymm11, %ymm0, %ymm0 vaddpd %ymm2, %ymm0, %ymm0 vmulpd %ymm7, %ymm9, %ymm5 vxorpd %ymm14, %ymm14, %ymm14 vaddpd %ymm5, %ymm0, %ymm7 vmovapd 32640(%rbx), %ymm13 vmulpd %ymm13, %ymm13, %ymm0 vaddpd %ymm7, %ymm0, %ymm7 vmovapd 32576(%rbx), %ymm3 vmulpd %ymm7, %ymm3, %ymm7 vsubpd %ymm7, %ymm0, %ymm9 vmovapd 30912(%rbx), %ymm0 vmulpd %ymm13, %ymm0, %ymm7 vmulpd %ymm0, %ymm0, %ymm0 vaddpd %ymm0, %ymm10, %ymm10 vmulpd %ymm10, %ymm3, %ymm10 vsubpd %ymm10, %ymm0, %ymm0 vaddpd %ymm11, %ymm6, %ymm11 vmulpd %ymm14, %ymm12, %ymm12 vmulpd %ymm14, %ymm1, %ymm6 vaddpd %ymm12, %ymm6, %ymm6 vaddpd %ymm4, %ymm6, %ymm10 vmulpd %ymm14, %ymm8, %ymm6 vaddpd %ymm6, %ymm10, %ymm10 vmovapd 32352(%rbx), %ymm13 vmulpd %ymm13, %ymm13, %ymm8 vaddpd %ymm10, %ymm8, %ymm10 vmovapd 31552(%rbx), %ymm15 vmulpd %ymm10, %ymm15, %ymm10 vsubpd %ymm10, %ymm8, %ymm10 vmovapd 30944(%rbx), %ymm3 vmulpd %ymm13, %ymm3, %ymm8 vmulpd %ymm3, %ymm3, %ymm13 vmovapd 31296(%rbx), %ymm3 vaddpd %ymm13, %ymm3, %ymm3 vmulpd %ymm3, %ymm15, %ymm3 vsubpd %ymm3, %ymm13, %ymm3 vaddpd %ymm12, %ymm1, %ymm1 vmulpd %ymm14, %ymm2, %ymm12 vmulpd %ymm14, %ymm4, %ymm2 vmovapd .LCPI1_75(%rip), %ymm13 vmulpd %ymm13, %ymm0, %ymm4 vmulpd %ymm9, %ymm4, %ymm4 vaddpd %ymm12, %ymm11, %ymm9 vaddpd %ymm5, %ymm9, %ymm5 vaddpd %ymm7, %ymm5, %ymm5 vmovapd 32576(%rbx), %ymm9 vmulpd %ymm5, %ymm9, %ymm5 vsubpd %ymm5, %ymm7, %ymm5 vmovapd .LCPI1_24(%rip), %ymm9 vmulpd %ymm9, %ymm5, %ymm5 vmulpd %ymm5, %ymm5, %ymm7 vsubpd %ymm4, %ymm7, %ymm4 vsqrtpd %ymm4, %ymm7 vmovapd .LCPI1_25(%rip), %ymm11 vxorpd %ymm11, %ymm5, %ymm4 vsubpd %ymm7, %ymm4, %ymm4 vsubpd %ymm5, %ymm7, %ymm7 vmulpd %ymm13, %ymm3, %ymm5 vmulpd %ymm10, %ymm5, %ymm5 vaddpd %ymm2, %ymm1, %ymm1 vaddpd %ymm6, %ymm1, %ymm1 vaddpd %ymm8, %ymm1, %ymm1 vmulpd %ymm1, %ymm15, %ymm1 vsubpd %ymm1, %ymm8, %ymm1 vmovapd %ymm9, %ymm8 vmulpd %ymm8, %ymm1, %ymm2 vmulpd %ymm2, %ymm2, %ymm1 vsubpd %ymm5, %ymm1, %ymm5 vmovapd %ymm11, %ymm9 vxorpd %ymm9, %ymm7, %ymm6 vmulpd %ymm8, %ymm0, %ymm1 vdivpd %ymm1, %ymm6, %ymm0 vxorpd %ymm9, %ymm4, %ymm4 vdivpd %ymm1, %ymm4, %ymm1 vcmpltpd %ymm0, %ymm1, %ymm4 vextractf128 $1, %ymm4, %xmm6 vpshufd $8, %xmm6, %xmm6 vpshufd $8, %xmm4, %xmm4 vmovlhps %xmm6, %xmm4, %xmm4 vsqrtpd %ymm5, %ymm6 vxorpd %ymm9, %ymm2, %ymm5 vsubpd %ymm6, %ymm5, %ymm5 vsubpd %ymm2, %ymm6, %ymm2 vxorpd %ymm9, %ymm2, %ymm2 vmulpd %ymm8, %ymm3, %ymm3 vdivpd %ymm3, %ymm2, %ymm2 vxorpd %ymm9, %ymm5, %ymm5 vmovapd %ymm9, %ymm7 vdivpd %ymm3, %ymm5, %ymm3 vpshufb .LCPI1_20(%rip), %xmm4, %xmm4 vcmpltpd %ymm2, %ymm3, %ymm5 vextractf128 $1, %ymm5, %xmm6 vpshufd $8, %xmm6, %xmm6 vpshufd $8, %xmm5, %xmm5 vmovlhps %xmm6, %xmm5, %xmm5 vpshufb .LCPI1_21(%rip), %xmm5, %xmm5 vpor %xmm4, %xmm5, %xmm4 vpsllw $15, %xmm4, %xmm4 vpsraw $15, %xmm4, %xmm4 vpunpcklbw %xmm0, %xmm4, %xmm5 vpslld $31, %xmm5, %xmm5 vpsrad $31, %xmm5, %xmm6 vpmovsxdq %xmm6, %xmm5 vmovhlps %xmm6, %xmm6, %xmm6 vpmovsxdq %xmm6, %xmm6 vinsertf128 $1, %xmm6, %ymm5, %ymm6 vblendvpd %ymm6, %ymm2, %ymm3, %ymm5 vblendvpd %ymm6, %ymm3, %ymm2, %ymm2 vxorpd %ymm7, %ymm2, %ymm2 vmovapd 31168(%rbx), %ymm6 vcmpunordpd %ymm6, %ymm6, %ymm3 vmaxpd %ymm6, %ymm2, %ymm6 vblendvpd %ymm3, %ymm2, %ymm6, %ymm2 vmovapd 31200(%rbx), %ymm6 vcmpunordpd %ymm6, %ymm6, %ymm3 vmaxpd %ymm6, %ymm5, %ymm6 vblendvpd %ymm3, %ymm5, %ymm6, %ymm3 vpunpckhbw %xmm0, %xmm4, %xmm4 vpslld $31, %xmm4, %xmm4 vpsrad $31, %xmm4, %xmm5 vpmovsxdq %xmm5, %xmm4 vmovhlps %xmm5, %xmm5, %xmm5 vpmovsxdq %xmm5, %xmm5 vinsertf128 $1, %xmm5, %ymm4, %ymm4 vblendvpd %ymm4, %ymm1, %ymm0, %ymm5 vxorpd %ymm7, %ymm5, %ymm5 vmovapd 31232(%rbx), %ymm7 vcmpunordpd %ymm7, %ymm7, %ymm6 vmaxpd %ymm7, %ymm5, %ymm7 vblendvpd %ymm6, %ymm5, %ymm7, %ymm5 vblendvpd %ymm4, %ymm0, %ymm1, %ymm0 vmovapd 31264(%rbx), %ymm4 vcmpunordpd %ymm4, %ymm4, %ymm1 vmaxpd %ymm4, %ymm0, %ymm4 vblendvpd %ymm1, %ymm0, %ymm4, %ymm0 vmovapd .LCPI1_56(%rip), %ymm6 vandpd %ymm6, %ymm0, %ymm0 vandpd %ymm6, %ymm5, %ymm1 vmaxpd %ymm0, %ymm1, %ymm4 vcmpunordpd %ymm0, %ymm0, %ymm0 vblendvpd %ymm0, %ymm1, %ymm4, %ymm0 vmovapd %ymm0, 32352(%rbx) vandpd %ymm6, %ymm3, %ymm0 vandpd %ymm6, %ymm2, %ymm1 vmaxpd %ymm0, %ymm1, %ymm2 vcmpunordpd %ymm0, %ymm0, %ymm0 vblendvpd %ymm0, %ymm1, %ymm2, %ymm0 vmovapd %ymm0, 31552(%rbx) vmovapd 32928(%rbx), %ymm1 vmovapd 32448(%rbx), %ymm5 vmulpd %ymm1, %ymm5, %ymm0 vsubpd 16640(%rbx), %ymm0, %ymm11 vmovapd 18304(%rbx), %ymm3 vmulpd %ymm1, %ymm3, %ymm0 vmovapd %ymm1, %ymm8 vsubpd 16576(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 32640(%rbx) vmovapd 18976(%rbx), %ymm2 vmulpd 18656(%rbx), %ymm2, %ymm0 vmovapd 32832(%rbx), %ymm6 vmulpd %ymm6, %ymm3, %ymm1 vsubpd %ymm0, %ymm1, %ymm0 vmovapd %ymm0, 32576(%rbx) vmovapd 32992(%rbx), %ymm3 vmovapd 31808(%rbx), %ymm1 vmulpd %ymm3, %ymm1, %ymm0 vsubpd 16512(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 31264(%rbx) vmovapd 18880(%rbx), %ymm4 vmulpd 18848(%rbx), %ymm4, %ymm0 vmovapd 32416(%rbx), %ymm9 vmulpd %ymm9, %ymm1, %ymm1 vsubpd %ymm0, %ymm1, %ymm15 vmulpd 32384(%rbx), %ymm2, %ymm0 vmulpd %ymm6, %ymm5, %ymm1 vsubpd %ymm0, %ymm1, %ymm0 vmovapd %ymm0, 32448(%rbx) vmovapd %ymm3, %ymm1 vmovapd 32736(%rbx), %ymm5 vmulpd %ymm1, %ymm5, %ymm0 vsubpd 16608(%rbx), %ymm0, %ymm13 vmulpd %ymm1, %ymm4, %ymm0 vmovapd %ymm1, %ymm10 vsubpd 16544(%rbx), %ymm0, %ymm14 vmulpd %ymm8, %ymm2, %ymm0 vmovapd %ymm8, %ymm6 vmovapd %ymm2, %ymm3 vsubpd 16672(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 31808(%rbx) vmulpd 32800(%rbx), %ymm4, %ymm0 vmulpd %ymm9, %ymm5, %ymm1 vmovapd %ymm9, %ymm12 vsubpd %ymm0, %ymm1, %ymm0 vmovapd %ymm0, 32800(%rbx) vmovapd 32512(%rbx), %ymm2 vmovapd 31712(%rbx), %ymm0 vdivpd %ymm2, %ymm0, %ymm0 vmovapd 31744(%rbx), %ymm1 vmovapd 31872(%rbx), %ymm8 vdivpd %ymm8, %ymm1, %ymm1 vmovapd 32896(%rbx), %ymm5 vdivpd %ymm1, %ymm5, %ymm9 vmovapd 32960(%rbx), %ymm5 vdivpd %ymm0, %ymm5, %ymm5 vmovapd .LCPI1_24(%rip), %ymm7 vmulpd %ymm7, %ymm0, %ymm0 vmovapd %ymm0, 32960(%rbx) vmulpd %ymm7, %ymm1, %ymm0 vmovapd %ymm0, 32896(%rbx) vmovapd 13824(%rbx), %ymm7 vmulpd %ymm7, %ymm11, %ymm0 vsubpd 16896(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 32384(%rbx) vmulpd %ymm7, %ymm2, %ymm11 vmulpd %ymm10, %ymm11, %ymm0 vsubpd 17024(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 31744(%rbx) vmulpd %ymm7, %ymm15, %ymm0 vmovapd 16704(%rbx), %ymm1 vaddpd %ymm0, %ymm1, %ymm0 vmovapd %ymm0, 31296(%rbx) vmovapd 31264(%rbx), %ymm0 vmulpd %ymm7, %ymm0, %ymm0 vsubpd 16736(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 31200(%rbx) vmovapd 32576(%rbx), %ymm0 vmulpd %ymm7, %ymm0, %ymm0 vmovapd 16992(%rbx), %ymm1 vaddpd %ymm0, %ymm1, %ymm0 vmovapd %ymm0, 30912(%rbx) vmovapd 32640(%rbx), %ymm0 vmulpd %ymm7, %ymm0, %ymm0 vsubpd 17056(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 30848(%rbx) vmulpd %ymm7, %ymm14, %ymm0 vsubpd 16928(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 31712(%rbx) vmulpd %ymm7, %ymm13, %ymm0 vsubpd 16960(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 31264(%rbx) vmovapd 32448(%rbx), %ymm0 vmulpd %ymm7, %ymm0, %ymm0 vmovapd 17088(%rbx), %ymm1 vaddpd %ymm0, %ymm1, %ymm0 vmovapd %ymm0, 30880(%rbx) vmulpd %ymm12, %ymm11, %ymm0 vmovapd 17184(%rbx), %ymm1 vaddpd %ymm0, %ymm1, %ymm0 vmovapd %ymm0, 30816(%rbx) vmovapd 31808(%rbx), %ymm0 vmulpd %ymm7, %ymm0, %ymm0 vsubpd 17120(%rbx), %ymm0, %ymm0 vmovapd %ymm0, 31168(%rbx) vmovapd .LCPI1_27(%rip), %ymm1 vdivpd %ymm1, %ymm2, %ymm15 vmovapd %ymm8, %ymm0 vdivpd %ymm1, %ymm0, %ymm14 vmulpd %ymm7, %ymm0, %ymm0 vmulpd %ymm6, %ymm0, %ymm1 vsubpd 17280(%rbx), %ymm1, %ymm1 vmovapd %ymm1, 30944(%rbx) vmulpd 32064(%rbx), %ymm9, %ymm10 vmulpd %ymm3, %ymm9, %ymm11 vmovapd 32832(%rbx), %ymm2 vmulpd %ymm2, %ymm3, %ymm1 vsubpd %ymm1, %ymm1, %ymm1 vmulpd %ymm7, %ymm1, %ymm1 vmovapd 17248(%rbx), %ymm8 vaddpd %ymm1, %ymm8, %ymm1 vmovapd %ymm1, 30784(%rbx) vmulpd %ymm2, %ymm0, %ymm0 vmovapd %ymm2, %ymm13 vmovapd 17344(%rbx), %ymm1 vaddpd %ymm0, %ymm1, %ymm0 vmovapd %ymm0, 31232(%rbx) vmovapd 32800(%rbx), %ymm0 vmulpd %ymm7, %ymm0, %ymm0 vmovapd 17152(%rbx), %ymm1 vaddpd %ymm0, %ymm1, %ymm0 vmovapd %ymm0, 30656(%rbx) vmulpd 32480(%rbx), %ymm5, %ymm0 vmulpd %ymm4, %ymm5, %ymm1 vmulpd %ymm12, %ymm4, %ymm4 vsubpd %ymm4, %ymm4, %ymm4 vmulpd %ymm7, %ymm4, %ymm4 vmovapd 17216(%rbx), %ymm5 vaddpd %ymm4, %ymm5, %ymm2 vmovapd %ymm2, 30592(%rbx) vmovapd 32704(%rbx), %ymm2 vdivpd %ymm2, %ymm1, %ymm5 vdivpd %ymm2, %ymm0, %ymm8 vmovapd 32864(%rbx), %ymm0 vdivpd %ymm0, %ymm10, %ymm9 vdivpd %ymm0, %ymm11, %ymm4 vmovapd 32000(%rbx), %ymm0 vmulpd %ymm7, %ymm0, %ymm0 vmovapd 17440(%rbx), %ymm1 vaddpd %ymm0, %ymm1, %ymm0 vmovapd %ymm0, 30560(%rbx) vmovapd 31904(%rbx), %ymm0 vmulpd %ymm7, %ymm0, %ymm0 vmovapd 17312(%rbx), %ymm1 vaddpd %ymm0, %ymm1, %ymm0 vmovapd %ymm0, 30752(%rbx) vmovapd 32672(%rbx), %ymm0 vmulpd %ymm7, %ymm0, %ymm0 vmovapd 17504(%rbx), %ymm1 vaddpd %ymm0, %ymm1, %ymm0 vmovapd %ymm0, 30720(%rbx) vmovapd 31936(%rbx), %ymm0 vmulpd %ymm7, %ymm0, %ymm0 vmovapd 17536(%rbx), %ymm1 vaddpd %ymm0, %ymm1, %ymm0 vmovapd %ymm0, 30688(%rbx) vmovapd 32160(%rbx), %ymm0 vmulpd %ymm7, %ymm0, %ymm0 vmovapd 17376(%rbx), %ymm1 vaddpd %ymm0, %ymm1, %ymm0 vmovapd %ymm0, 30624(%rbx) vmovapd 32288(%rbx), %ymm0 vmulpd %ymm7, %ymm0, %ymm0 vmovapd 17408(%rbx), %ymm1 vaddpd %ymm0, %ymm1, %ymm0 vmovapd %ymm0, 32288(%rbx) vmovapd 32256(%rbx), %ymm0 vmulpd %ymm7, %ymm0, %ymm0 vmovapd 17568(%rbx), %ymm1 vaddpd %ymm0, %ymm1, %ymm0 vmovapd %ymm0, 32256(%rbx) vmovapd 32320(%rbx), %ymm0 vmulpd %ymm7, %ymm0, %ymm0 vmovapd %ymm7, %ymm10 vmovapd 17472(%rbx), %ymm1 vaddpd %ymm0, %ymm1, %ymm0 vmovapd %ymm0, 32320(%rbx) vmulpd 31584(%rbx), %ymm15, %ymm0 vmulpd 31616(%rbx), %ymm14, %ymm6 vmovapd 31776(%rbx), %ymm1 vsubpd 17600(%rbx), %ymm1, %ymm1 vmovapd %ymm1, 30464(%rbx) vmovapd 31968(%rbx), %ymm1 vsubpd 17632(%rbx), %ymm1, %ymm1 vmovapd %ymm1, 31584(%rbx) vmovapd 32032(%rbx), %ymm1 vsubpd 17696(%rbx), %ymm1, %ymm1 vmovapd %ymm1, 30528(%rbx) vmovapd 32096(%rbx), %ymm1 vsubpd 17728(%rbx), %ymm1, %ymm1 vmovapd %ymm1, 31776(%rbx) vmovapd 32128(%rbx), %ymm1 vsubpd 17664(%rbx), %ymm1, %ymm1 vmovapd %ymm1, 31616(%rbx) vmovapd 32192(%rbx), %ymm1 vsubpd 17760(%rbx), %ymm1, %ymm1 vmovapd %ymm1, 32192(%rbx) vmovapd 32224(%rbx), %ymm1 vsubpd 17792(%rbx), %ymm1, %ymm1 vmovapd %ymm1, 32224(%rbx) vmovapd 32544(%rbx), %ymm1 vsubpd 17824(%rbx), %ymm1, %ymm1 vmovapd %ymm1, 30496(%rbx) vmovapd 32928(%rbx), %ymm11 vmulpd %ymm11, %ymm6, %ymm1 vaddpd %ymm9, %ymm1, %ymm7 vmovapd 32992(%rbx), %ymm9 vmulpd %ymm9, %ymm0, %ymm1 vaddpd %ymm8, %ymm1, %ymm8 vmulpd %ymm12, %ymm0, %ymm0 vaddpd %ymm5, %ymm0, %ymm1 vmovapd .LCPI1_32(%rip), %ymm5 vmovapd 31680(%rbx), %ymm0 vmulpd %ymm5, %ymm0, %ymm0 vdivpd 32896(%rbx), %ymm0, %ymm0 vmovapd 31648(%rbx), %ymm2 vmulpd %ymm5, %ymm2, %ymm3 vdivpd 32960(%rbx), %ymm3, %ymm2 vmulpd %ymm2, %ymm9, %ymm3 vmulpd %ymm2, %ymm12, %ymm2 vsubpd %ymm2, %ymm1, %ymm2 vsubpd %ymm3, %ymm8, %ymm1 vmulpd %ymm0, %ymm11, %ymm3 vsubpd %ymm3, %ymm7, %ymm3 vmulpd %ymm13, %ymm6, %ymm5 vaddpd %ymm4, %ymm5, %ymm4 vmulpd %ymm0, %ymm13, %ymm0 vsubpd %ymm0, %ymm4, %ymm0 vmulpd %ymm10, %ymm0, %ymm0 vmulpd %ymm10, %ymm3, %ymm3 vmulpd %ymm10, %ymm1, %ymm1 vmulpd %ymm10, %ymm2, %ymm2 vmovapd 17856(%rbx), %ymm4 vaddpd %ymm2, %ymm4, %ymm2 vmovapd %ymm2, 31648(%rbx) vsubpd 17888(%rbx), %ymm1, %ymm1 vmovapd %ymm1, 30432(%rbx) vsubpd 17920(%rbx), %ymm3, %ymm1 vmovapd %ymm1, 31680(%rbx) vmovapd 17952(%rbx), %ymm1 vaddpd %ymm0, %ymm1, %ymm0 vmovapd %ymm0, 32416(%rbx) imulq $68, 96(%r11,%r12), %rax vmovd %rax, %xmm0 vmovlhps %xmm0, %xmm0, %xmm3 vpaddq 30976(%rbx), %xmm3, %xmm5 vmovdqa .LCPI1_79(%rip), %xmm4 vpsrlq $32, %xmm4, %xmm2 vpmuludq %xmm2, %xmm5, %xmm0 vpsllq $32, %xmm0, %xmm0 vpmuludq %xmm4, %xmm5, %xmm1 vpaddq %xmm0, %xmm1, %xmm0 vpaddq 31008(%rbx), %xmm3, %xmm9 vpmuludq %xmm2, %xmm9, %xmm1 vpsllq $32, %xmm1, %xmm1 vpmuludq %xmm4, %xmm9, %xmm6 vpaddq %xmm1, %xmm6, %xmm8 vmovdqa 31040(%rbx), %ymm1 vpaddq %xmm1, %xmm3, %xmm1 vpmuludq %xmm2, %xmm1, %xmm6 vpsllq $32, %xmm6, %xmm6 vpmuludq %xmm4, %xmm1, %xmm7 vpaddq %xmm6, %xmm7, %xmm7 vmovdqa 31072(%rbx), %ymm6 vpaddq %xmm6, %xmm3, %xmm6 vpsrlq $32, %xmm5, %xmm3 vpmuludq %xmm4, %xmm3, %xmm3 vpsllq $32, %xmm3, %xmm3 vpaddq %xmm3, %xmm0, %xmm3 vpsrlq $32, %xmm1, %xmm0 vpmuludq %xmm4, %xmm0, %xmm0 vpsllq $32, %xmm0, %xmm0 vpaddq %xmm0, %xmm7, %xmm5 vpsrlq $32, %xmm9, %xmm0 vpmuludq %xmm4, %xmm0, %xmm0 vpsllq $32, %xmm0, %xmm0 vpaddq %xmm0, %xmm8, %xmm7 vpmuludq %xmm2, %xmm6, %xmm0 vpsllq $32, %xmm0, %xmm0 vpmuludq %xmm4, %xmm6, %xmm1 vpaddq %xmm0, %xmm1, %xmm0 vpsrlq $32, %xmm6, %xmm1 vpmuludq %xmm4, %xmm1, %xmm1 vpsllq $32, %xmm1, %xmm1 vpaddq %xmm1, %xmm0, %xmm2 vmovaps .LCPI1_6(%rip), %ymm0 vandps 256(%r11,%r12), %ymm0, %ymm14 vmovaps %ymm14, 28128(%rbx) vmovdqa .LCPI1_80(%rip), %xmm1 vpaddq %xmm1, %xmm7, %xmm0 vmovq %xmm0, 32544(%rbx) vpextrq $1, %xmm0, %rax movq %rax, 32576(%rbx) vpaddq %xmm1, %xmm5, %xmm0 vmovq %xmm0, 32640(%rbx) vpextrq $1, %xmm0, %rax movq %rax, 32672(%rbx) vpaddq %xmm1, %xmm3, %xmm0 vmovq %xmm0, 32704(%rbx) vpextrq $1, %xmm0, %rsi vmovdqa .LCPI1_82(%rip), %xmm6 vpaddq %xmm6, %xmm3, %xmm4 vmovdqa .LCPI1_81(%rip), %xmm0 vpaddq %xmm0, %xmm3, %xmm12 vpaddq %xmm0, %xmm5, %xmm8 vpaddq %xmm6, %xmm5, %xmm15 vpaddq %xmm1, %xmm2, %xmm9 vpaddq %xmm0, %xmm7, %xmm13 vpaddq %xmm6, %xmm7, %xmm5 vpaddq %xmm6, %xmm2, %xmm10 vpaddq %xmm0, %xmm2, %xmm7 movq 31456(%rbx), %rax movl 104(%r11,%rax), %eax movl %eax, 27392(%rbx) imull $68, %eax, %eax vmovd %eax, %xmm0 vpshufd $0, %xmm0, %xmm0 vpaddd 28064(%rbx), %xmm0, %xmm2 vmovdqa 31840(%rbx), %ymm1 vpaddd %xmm1, %xmm0, %xmm11 vextractf128 $1, %ymm14, %xmm0 vpxor %xmm1, %xmm1, %xmm1 vpcmpeqd %xmm1, %xmm0, %xmm0 vmovdqa %xmm0, 31904(%rbx) vpcmpeqd %xmm1, %xmm14, %xmm14 movq 31456(%rbx), %rax imull $12, 224(%r11,%rax), %eax movq 31456(%rbx), %rcx addl 112(%r11,%rcx), %eax shlq $32, %rax movabsq $5059471474688, %rcx addq %rcx, %rax vmovq %xmm13, 32096(%rbx) vpextrq $1, %xmm13, %rcx movq %rcx, 32128(%rbx) vmovq %xmm8, 32160(%rbx) vpextrq $1, %xmm8, %r9 vmovd %xmm12, %r15 vpextrq $1, %xmm12, %r8 vpextrq $1, %xmm9, %rcx vmovd %xmm9, %rdi vmovq %xmm15, 32896(%rbx) vpextrq $1, %xmm15, %rdx movq %rdx, 32928(%rbx) vmovq %xmm4, 32960(%rbx) vpextrq $1, %xmm4, %rdx movq %rdx, 32992(%rbx) vmovd %xmm7, %r10 vpextrq $1, %xmm7, %r14 vmovq %xmm10, 32832(%rbx) vpextrq $1, %xmm10, %r12 movq %r12, 32864(%rbx) vpextrq $1, %xmm5, %rdx vmovd %xmm5, %r12 sarq $32, %rax sarq $32, %rsi movq %rsi, 32512(%rbx) sarq $32, 32704(%rbx) sarq $32, 32672(%rbx) sarq $32, 32640(%rbx) sarq $32, 32576(%rbx) sarq $32, 32544(%rbx) sarq $32, %rcx movq %rcx, 32480(%rbx) sarq $32, %rdi movq %rdi, 32448(%rbx) sarq $32, %r8 movq %r8, 32064(%rbx) sarq $32, %r15 movq %r15, 32032(%rbx) sarq $32, %r9 movq %r9, 32000(%rbx) sarq $32, 32160(%rbx) sarq $32, 32128(%rbx) sarq $32, 32096(%rbx) sarq $32, %r14 movq %r14, 31968(%rbx) sarq $32, %r10 movq %r10, 31936(%rbx) sarq $32, 32992(%rbx) sarq $32, 32960(%rbx) sarq $32, 32928(%rbx) sarq $32, 32896(%rbx) sarq $32, %rdx movq %rdx, 32800(%rbx) sarq $32, %r12 movq %r12, 32736(%rbx) sarq $32, 32864(%rbx) sarq $32, 32832(%rbx) cmpl $63, 27392(%rbx) movq 31456(%rbx), %r12 sete %cl testb $1, 320(%r11,%r12) vmovaps 352(%r11,%r12), %ymm4 vmovdqa .LCPI1_8(%rip), %xmm3 vpmulld %xmm3, %xmm11, %xmm1 vpmulld %xmm3, %xmm2, %xmm0 vmovdqa .LCPI1_83(%rip), %xmm6 vpaddd %xmm6, %xmm0, %xmm11 vpaddd %xmm6, %xmm1, %xmm7 vmovdqa .LCPI1_84(%rip), %xmm2 vpaddd %xmm2, %xmm0, %xmm6 vpaddd %xmm2, %xmm1, %xmm8 vmovdqa .LCPI1_85(%rip), %xmm2 vpaddd %xmm2, %xmm0, %xmm0 vpaddd %xmm2, %xmm1, %xmm9 vextractf128 $1, %ymm4, %xmm1 vpmulld %xmm3, %xmm4, %xmm10 vmovdqa %ymm10, 31872(%rbx) vpmulld %xmm3, %xmm1, %xmm5 vmovdqa %xmm5, 31808(%rbx) vpcmpeqd %xmm2, %xmm2, %xmm2 vpxor %xmm2, %xmm14, %xmm1 vmovdqa 31904(%rbx), %xmm3 vpxor %xmm2, %xmm3, %xmm3 vmovdqa %xmm3, 31904(%rbx) vmovdqa .LCPI1_5(%rip), %xmm2 vpshufb %xmm2, %xmm3, %xmm4 vmovdqa %xmm4, 25984(%rbx) vpshufb %xmm2, %xmm1, %xmm3 vmovdqa .LCPI1_86(%rip), %xmm1 vpaddd %xmm1, %xmm10, %xmm2 vmovdqa %xmm2, 31040(%rbx) vpaddd %xmm1, %xmm5, %xmm1 vmovdqa %xmm1, 31008(%rbx) vinsertf128 $1, %xmm0, %ymm9, %ymm0 vmovaps %ymm0, 27872(%rbx) vinsertf128 $1, %xmm6, %ymm8, %ymm0 vmovaps %ymm0, 27904(%rbx) vinsertf128 $1, %xmm11, %ymm7, %ymm0 vmovaps %ymm0, 27936(%rbx) vmovups 33056(%rbx,%rax,8), %xmm0 vinsertf128 $1, 33072(%rbx,%rax,8), %ymm0, %ymm0 vmovaps %ymm0, 27360(%rbx) vmovups 33024(%rbx,%rax,8), %xmm0 vinsertf128 $1, 33040(%rbx,%rax,8), %ymm0, %ymm0 vmovaps %ymm0, 27328(%rbx) vmovlhps %xmm4, %xmm3, %xmm0 vmovaps %xmm0, 31072(%rbx) vmovapd 31552(%rbx), %ymm4 vmulpd 30848(%rbx), %ymm4, %ymm0 vmovapd 30912(%rbx), %ymm1 vsubpd %ymm0, %ymm1, %ymm0 vmovapd %ymm0, 30976(%rbx) vmovapd 32352(%rbx), %ymm12 vmulpd 31200(%rbx), %ymm12, %ymm0 vmovapd 31296(%rbx), %ymm1 vsubpd %ymm0, %ymm1, %ymm0 vmovapd %ymm0, 31296(%rbx) vmulpd 30432(%rbx), %ymm12, %ymm0 vmovapd 31648(%rbx), %ymm1 vsubpd %ymm0, %ymm1, %ymm7 vmulpd 31744(%rbx), %ymm12, %ymm0 vmovapd 30816(%rbx), %ymm1 vsubpd %ymm0, %ymm1, %ymm0 vmovapd %ymm0, 31744(%rbx) vmulpd 32384(%rbx), %ymm4, %ymm0 vmovapd 30880(%rbx), %ymm1 vsubpd %ymm0, %ymm1, %ymm0 vmovapd %ymm0, 31648(%rbx) vmulpd 30464(%rbx), %ymm4, %ymm0 vmovapd 30560(%rbx), %ymm1 vsubpd %ymm0, %ymm1, %ymm0 vmovapd %ymm0, 32384(%rbx) vmulpd 31264(%rbx), %ymm12, %ymm0 vmovapd 30656(%rbx), %ymm1 vsubpd %ymm0, %ymm1, %ymm14 vmulpd 31712(%rbx), %ymm12, %ymm0 vmovapd 30592(%rbx), %ymm1 vsubpd %ymm0, %ymm1, %ymm8 vmulpd 31168(%rbx), %ymm4, %ymm0 vmovapd 30784(%rbx), %ymm1 vsubpd %ymm0, %ymm1, %ymm9 vmulpd 30528(%rbx), %ymm4, %ymm2 vmulpd 30944(%rbx), %ymm4, %ymm3 vmulpd 31584(%rbx), %ymm4, %ymm1 vmulpd 31680(%rbx), %ymm4, %ymm6 vmulpd 30496(%rbx), %ymm4, %ymm4 vmulpd 32224(%rbx), %ymm12, %ymm11 vmulpd 32192(%rbx), %ymm12, %ymm5 vmulpd 31616(%rbx), %ymm12, %ymm15 vmulpd 31776(%rbx), %ymm12, %ymm0 vmovapd 32320(%rbx), %ymm12 vsubpd %ymm0, %ymm12, %ymm0 vmovapd 32256(%rbx), %ymm12 vsubpd %ymm1, %ymm12, %ymm1 vmovapd 32288(%rbx), %ymm12 vsubpd %ymm15, %ymm12, %ymm15 vmovapd 31232(%rbx), %ymm12 vsubpd %ymm3, %ymm12, %ymm3 vmovapd 30624(%rbx), %ymm12 vsubpd %ymm5, %ymm12, %ymm5 vmovapd 30688(%rbx), %ymm12 vsubpd %ymm2, %ymm12, %ymm2 vmovapd 30720(%rbx), %ymm12 vsubpd %ymm4, %ymm12, %ymm4 vmovapd 30752(%rbx), %ymm12 vsubpd %ymm11, %ymm12, %ymm11 vmovapd 32416(%rbx), %ymm12 vsubpd %ymm6, %ymm12, %ymm6 vmovapd .LCPI1_28(%rip), %ymm12 vmulpd %ymm12, %ymm6, %ymm6 vmovapd %ymm6, 30368(%rbx) vmovapd %ymm6, %ymm13 vmulpd %ymm12, %ymm7, %ymm6 vmovapd %ymm6, 30400(%rbx) vmovapd %ymm6, %ymm10 vmovapd 31296(%rbx), %ymm6 vmulpd %ymm12, %ymm6, %ymm6 vmovapd %ymm6, 30304(%rbx) vmulpd %ymm12, %ymm9, %ymm7 vmovapd %ymm7, 30784(%rbx) vmulpd %ymm12, %ymm8, %ymm7 vmovapd %ymm7, 30176(%rbx) vmovapd %ymm7, %ymm9 vmovapd 30976(%rbx), %ymm7 vmulpd %ymm12, %ymm7, %ymm7 vmovapd %ymm7, 30240(%rbx) vmovapd %ymm7, %ymm8 vmulpd %ymm12, %ymm11, %ymm7 vmovapd %ymm7, 30752(%rbx) vmovapd 31648(%rbx), %ymm7 vmulpd %ymm12, %ymm7, %ymm7 vmovapd %ymm7, 30048(%rbx) vmovapd %ymm7, %ymm11 vmulpd %ymm12, %ymm14, %ymm7 vmovapd %ymm7, 30080(%rbx) vmovapd %ymm7, %ymm14 vmulpd %ymm12, %ymm4, %ymm4 vmovapd %ymm4, 30016(%rbx) vmulpd %ymm12, %ymm2, %ymm2 vmovapd %ymm2, 30720(%rbx) vmulpd %ymm12, %ymm5, %ymm2 vmovapd %ymm2, 29952(%rbx) vmovapd %ymm2, %ymm5 vmulpd %ymm12, %ymm3, %ymm2 vmovapd %ymm2, 29760(%rbx) vmovapd 31744(%rbx), %ymm2 vmulpd %ymm12, %ymm2, %ymm2 vmovapd %ymm2, 29792(%rbx) vmovapd 32384(%rbx), %ymm2 vmulpd %ymm12, %ymm2, %ymm2 vmovapd %ymm2, 29824(%rbx) vmulpd %ymm12, %ymm15, %ymm2 vmovapd %ymm2, 29856(%rbx) vmovapd %ymm2, %ymm15 vmulpd %ymm12, %ymm1, %ymm1 vmovapd %ymm1, 29888(%rbx) vmulpd %ymm12, %ymm0, %ymm0 vmovapd %ymm0, 29920(%rbx) vmovapd %ymm0, %ymm2 vmovdqa 31008(%rbx), %xmm7 vpmovsxdq %xmm7, %xmm0 vpextrq $1, %xmm0, %rax movq %rax, 32384(%rbx) vmovq %xmm0, 32320(%rbx) vmovdqa 31040(%rbx), %xmm3 vpmovsxdq %xmm3, %xmm0 vpextrq $1, %xmm0, %rax movq %rax, 32256(%rbx) vmovq %xmm0, 32192(%rbx) vmovhlps %xmm7, %xmm7, %xmm0 vpmovsxdq %xmm0, %xmm0 vpextrq $1, %xmm0, %rax movq %rax, 32416(%rbx) vmovq %xmm0, 32352(%rbx) vmovhlps %xmm3, %xmm3, %xmm0 vpmovsxdq %xmm0, %xmm0 vpextrq $1, %xmm0, %rax movq %rax, 32288(%rbx) vmovq %xmm0, 32224(%rbx) movzbl %cl, %eax vmovd %eax, %xmm0 vpunpcklwd %xmm0, %xmm0, %xmm0 vpshufd $0, %xmm0, %xmm0 vmovdqa %xmm0, 31296(%rbx) vmovaps .LCPI1_17(%rip), %xmm0 vmovaps 31072(%rbx), %xmm3 vxorps %xmm0, %xmm3, %xmm0 vmovaps %xmm0, 25952(%rbx) vextractf128 $1, %ymm10, %xmm0 vmovapd %xmm0, 29664(%rbx) vextractf128 $1, %ymm13, 30336(%rbx) vextractf128 $1, %ymm6, 30272(%rbx) vextractf128 $1, %ymm8, 30208(%rbx) vextractf128 $1, %ymm9, 30144(%rbx) vmovaps 30784(%rbx), %ymm6 vextractf128 $1, %ymm6, 30112(%rbx) vextractf128 $1, %ymm14, %xmm6 vmovapd %xmm6, 29248(%rbx) vextractf128 $1, %ymm11, %xmm12 vmovapd %xmm12, 29216(%rbx) vmovaps 30752(%rbx), %ymm8 vextractf128 $1, %ymm8, 29984(%rbx) vextractf128 $1, %ymm4, %xmm14 vmovapd %xmm14, 29056(%rbx) vextractf128 $1, %ymm5, %xmm13 vmovapd %xmm13, 28896(%rbx) vmovapd 30720(%rbx), %ymm3 vextractf128 $1, %ymm3, %xmm11 vmovapd %xmm11, 28864(%rbx) vextractf128 $1, %ymm2, %xmm9 vmovapd %xmm9, 28704(%rbx) vextractf128 $1, %ymm1, %xmm8 vmovapd %xmm8, 28672(%rbx) vextractf128 $1, %ymm15, %xmm7 vmovapd %xmm7, 28512(%rbx) vmovapd 29824(%rbx), %ymm3 vextractf128 $1, %ymm3, %xmm10 vmovapd %xmm10, 28480(%rbx) vmovapd 29792(%rbx), %ymm4 vextractf128 $1, %ymm4, %xmm1 vmovapd %xmm1, 28320(%rbx) vmovapd 29760(%rbx), %ymm5 vextractf128 $1, %ymm5, %xmm2 vmovapd %xmm2, 28288(%rbx) vunpckhpd %xmm0, %xmm0, %xmm0 vmovapd %xmm0, 29632(%rbx) vmovapd 30400(%rbx), %ymm0 vunpckhpd %xmm0, %xmm0, %xmm0 vmovapd %xmm0, 29600(%rbx) vmovapd 30336(%rbx), %xmm0 vunpckhpd %xmm0, %xmm0, %xmm0 vmovapd %xmm0, 29568(%rbx) vmovapd 30368(%rbx), %ymm0 vunpckhpd %xmm0, %xmm0, %xmm0 vmovapd %xmm0, 29536(%rbx) vmovapd 30272(%rbx), %xmm0 vunpckhpd %xmm0, %xmm0, %xmm0 vmovapd %xmm0, 29504(%rbx) vmovapd 30304(%rbx), %ymm0 vunpckhpd %xmm0, %xmm0, %xmm0 vmovapd %xmm0, 29472(%rbx) vmovapd 30208(%rbx), %xmm0 vunpckhpd %xmm0, %xmm0, %xmm0 vmovapd %xmm0, 29440(%rbx) vmovapd 30240(%rbx), %ymm0 vunpckhpd %xmm0, %xmm0, %xmm0 vmovapd %xmm0, 29408(%rbx) vmovapd 30144(%rbx), %xmm0 vunpckhpd %xmm0, %xmm0, %xmm0 vmovapd %xmm0, 29376(%rbx) vmovapd 30176(%rbx), %ymm0 vunpckhpd %xmm0, %xmm0, %xmm0 vmovapd %xmm0, 29344(%rbx) vmovapd 30112(%rbx), %xmm0 vunpckhpd %xmm0, %xmm0, %xmm0 vmovapd %xmm0, 29312(%rbx) vmovapd 30784(%rbx), %ymm0 vunpckhpd %xmm0, %xmm0, %xmm0 vmovapd %xmm0, 29280(%rbx) vunpckhpd %xmm6, %xmm6, %xmm0 vmovapd %xmm0, 29184(%rbx) vmovapd 30080(%rbx), %ymm0 vunpckhpd %xmm0, %xmm0, %xmm0 vmovapd %xmm0, 29152(%rbx) vunpckhpd %xmm12, %xmm12, %xmm0 vmovapd %xmm0, 29120(%rbx) vmovapd 30048(%rbx), %ymm0 vunpckhpd %xmm0, %xmm0, %xmm0 vmovapd %xmm0, 29088(%rbx) vmovapd 29984(%rbx), %xmm0 vunpckhpd %xmm0, %xmm0, %xmm0 vmovapd %xmm0, 29024(%rbx) vmovapd 30752(%rbx), %ymm0 vunpckhpd %xmm0, %xmm0, %xmm0 vmovapd %xmm0, 28992(%rbx) vunpckhpd %xmm14, %xmm14, %xmm0 vmovapd %xmm0, 28960(%rbx) vmovapd 30016(%rbx), %ymm0 vunpckhpd %xmm0, %xmm0, %xmm0 vmovapd %xmm0, 28928(%rbx) vunpckhpd %xmm13, %xmm13, %xmm0 vmovapd %xmm0, 28832(%rbx) vmovapd 29952(%rbx), %ymm0 vunpckhpd %xmm0, %xmm0, %xmm0 vmovapd %xmm0, 28800(%rbx) vunpckhpd %xmm11, %xmm11, %xmm0 vmovapd %xmm0, 28768(%rbx) vmovapd 30720(%rbx), %ymm0 vunpckhpd %xmm0, %xmm0, %xmm0 vmovapd %xmm0, 28736(%rbx) vunpckhpd %xmm9, %xmm9, %xmm0 vmovapd %xmm0, 28640(%rbx) vmovapd 29920(%rbx), %ymm0 vunpckhpd %xmm0, %xmm0, %xmm0 vmovapd %xmm0, 28608(%rbx) vunpckhpd %xmm8, %xmm8, %xmm0 vmovapd %xmm0, 28576(%rbx) vunpckhpd %xmm5, %xmm5, %xmm0 vmovapd %xmm0, 28160(%rbx) vunpckhpd %xmm2, %xmm2, %xmm0 vmovapd %xmm0, 28192(%rbx) vunpckhpd %xmm4, %xmm4, %xmm0 vmovapd %xmm0, 28224(%rbx) vunpckhpd %xmm1, %xmm1, %xmm0 vmovapd %xmm0, 28256(%rbx) vunpckhpd %xmm3, %xmm3, %xmm0 vmovapd %xmm0, 28352(%rbx) vunpckhpd %xmm10, %xmm10, %xmm0 vmovapd %xmm0, 28384(%rbx) vmovapd 29856(%rbx), %ymm0 vunpckhpd %xmm0, %xmm0, %xmm0 vmovapd %xmm0, 28416(%rbx) vunpckhpd %xmm7, %xmm7, %xmm0 vmovapd %xmm0, 28448(%rbx) vmovapd 29888(%rbx), %ymm0 vunpckhpd %xmm0, %xmm0, %xmm0 vmovapd %xmm0, 28544(%rbx) vmovaps .LCPI1_17(%rip), %xmm14 jne .LBB1_3613 vmovapd 18112(%rbx), %ymm0 vdivpd 18560(%rbx), %ymm0, %ymm0 vmovapd 18144(%rbx), %ymm1 vdivpd 18592(%rbx), %ymm1, %ymm2 vmovapd .LCPI1_71(%rip), %ymm3 vmulpd %ymm3, %ymm0, %ymm1 vmulpd %ymm3, %ymm2, %ymm3 vmulpd %ymm3, %ymm2, %ymm2 vmulpd %ymm1, %ymm0, %ymm0 vmovapd 17984(%rbx), %ymm1 vdivpd %ymm0, %ymm1, %ymm0 vmovapd 18080(%rbx), %ymm1 vdivpd %ymm2, %ymm1, %ymm1 vmovapd 13824(%rbx), %ymm2 vmulpd %ymm2, %ymm1, %ymm1 vmulpd %ymm2, %ymm0, %ymm0 vmovapd 18016(%rbx), %ymm2 vsubpd %ymm0, %ymm2, %ymm0 vmovapd %ymm0, 28096(%rbx) vmovapd 18048(%rbx), %ymm0 vsubpd %ymm1, %ymm0, %ymm0 vmovapd %ymm0, 28000(%rbx) vmovapd 31488(%rbx), %ymm1 vextractf128 $1, %ymm1, %xmm14 vmovapd %xmm14, 27648(%rbx) vmovapd 18688(%rbx), %ymm3 vextractf128 $1, %ymm3, %xmm8 vmovapd %xmm8, 27456(%rbx) vmovapd 31360(%rbx), %ymm5 vextractf128 $1, %ymm5, %xmm13 vmovapd %xmm13, 27200(%rbx) vmovapd 26912(%rbx), %ymm7 vextractf128 $1, %ymm7, %xmm10 vmovapd %xmm10, 27008(%rbx) vmovapd 31520(%rbx), %ymm15 vextractf128 $1, %ymm15, %xmm11 vmovapd %xmm11, 27712(%rbx) vmovapd 31424(%rbx), %ymm2 vextractf128 $1, %ymm2, %xmm12 vmovapd %xmm12, 27520(%rbx) vmovapd 31392(%rbx), %ymm4 vextractf128 $1, %ymm4, %xmm9 vmovapd %xmm9, 27072(%rbx) vmovapd 31328(%rbx), %ymm6 vextractf128 $1, %ymm6, 25856(%rbx) vextractf128 $1, %ymm0, 27968(%rbx) vmovaps 28096(%rbx), %ymm0 vextractf128 $1, %ymm0, 28032(%rbx) vunpckhpd %xmm14, %xmm14, %xmm0 vmovapd %xmm0, 27584(%rbx) vunpckhpd %xmm1, %xmm1, %xmm0 vmovapd %xmm0, 27552(%rbx) vunpckhpd %xmm8, %xmm8, %xmm0 vmovapd %xmm0, 27296(%rbx) vunpckhpd %xmm3, %xmm3, %xmm0 vmovapd %xmm0, 27264(%rbx) vunpckhpd %xmm13, %xmm13, %xmm0 vmovapd %xmm0, 27136(%rbx) vunpckhpd %xmm5, %xmm5, %xmm0 vmovapd %xmm0, 27104(%rbx) vunpckhpd %xmm10, %xmm10, %xmm0 vmovapd %xmm0, 26944(%rbx) vunpckhpd %xmm7, %xmm7, %xmm0 vmovapd %xmm0, 26016(%rbx) vunpckhpd %xmm11, %xmm11, %xmm1 vmovapd %xmm1, 27680(%rbx) vunpckhpd %xmm15, %xmm15, %xmm0 vmovapd %xmm0, 27616(%rbx) vunpckhpd %xmm12, %xmm12, %xmm0 vmovapd %xmm0, 27488(%rbx) vunpckhpd %xmm2, %xmm2, %xmm0 vmovapd %xmm0, 27424(%rbx) vunpckhpd %xmm9, %xmm9, %xmm0 vmovapd %xmm0, 27232(%rbx) vunpckhpd %xmm4, %xmm4, %xmm0 vmovapd %xmm0, 27168(%rbx) vmovapd 25856(%rbx), %xmm1 vunpckhpd %xmm1, %xmm1, %xmm0 vmovapd %xmm0, 27040(%rbx) vmovapd %xmm1, %xmm12 vunpckhpd %xmm6, %xmm6, %xmm0 vmovapd %xmm0, 26976(%rbx) vmovapd 27968(%rbx), %xmm0 vunpckhpd %xmm0, %xmm0, %xmm0 vmovapd %xmm0, 27776(%rbx) vmovapd 28000(%rbx), %ymm0 vunpckhpd %xmm0, %xmm0, %xmm0 vmovapd %xmm0, 27744(%rbx) vmovapd 28032(%rbx), %xmm0 vunpckhpd %xmm0, %xmm0, %xmm0 vmovapd %xmm0, 27840(%rbx) vmovapd 28096(%rbx), %ymm0 vunpckhpd %xmm0, %xmm0, %xmm0 vmovapd %xmm0, 27808(%rbx) vmovaps 31872(%rbx), %ymm0 vinsertf128 $1, 31808(%rbx), %ymm0, %ymm4 vmovdqa 28128(%rbx), %ymm0 vpcmpeqd .LCPI1_89, %xmm0, %xmm0 vpcmpeqd %xmm1, %xmm1, %xmm1 vpxor %xmm1, %xmm0, %xmm1 vmovaps 27872(%rbx), %ymm6 vextractf128 $1, %ymm6, %xmm3 vmovhlps %xmm6, %xmm6, %xmm2 vmovaps 27904(%rbx), %ymm11 vextractf128 $1, %ymm11, %xmm5 vpmovsxdq %xmm5, %xmm0 vpmovsxdq %xmm2, %xmm9 vpmovsxdq %xmm6, %xmm2 vmovhlps %xmm5, %xmm5, %xmm5 vmovhlps %xmm3, %xmm3, %xmm6 vpmovsxdq %xmm6, %xmm7 vpmovsxdq %xmm3, %xmm6 vinsertf128 $1, 31904(%rbx), %ymm1, %ymm1 vinsertf128 $1, %xmm7, %ymm6, %ymm3 vmovaps %ymm3, 30688(%rbx) vpmovsxdq %xmm5, %xmm3 vpextrq $1, %xmm6, %rax movq %rax, 31904(%rbx) vmovq %xmm6, 30560(%rbx) vinsertf128 $1, %xmm9, %ymm2, %ymm5 vmovaps %ymm5, 30656(%rbx) vpextrq $1, %xmm2, %rax movq %rax, 30432(%rbx) vmovq %xmm2, 29728(%rbx) vpextrq $1, %xmm0, %rax movq %rax, 31776(%rbx) vmovq %xmm0, 31232(%rbx) vinsertf128 $1, %xmm3, %ymm0, %ymm0 vmovapd %ymm0, 30624(%rbx) vmovdqa 6592(%rbx), %ymm0 vptest %ymm0, %ymm1 vmovaps 27936(%rbx), %ymm10 vextractf128 $1, %ymm10, %xmm0 vpmovsxdq %xmm0, %xmm13 vmovhlps %xmm0, %xmm0, %xmm5 vpmovsxdq %xmm11, %xmm8 vmovhlps %xmm11, %xmm11, %xmm0 vpextrq $1, %xmm13, %rax movq %rax, 31552(%rbx) vmovq %xmm13, 31264(%rbx) vpextrq $1, %xmm8, %rax movq %rax, 31008(%rbx) vmovq %xmm8, 30944(%rbx) vpmovsxdq %xmm0, %xmm2 vextractf128 $1, %ymm4, %xmm6 vmovhlps %xmm6, %xmm6, %xmm0 vpmovsxdq %xmm0, %xmm0 vmovhlps %xmm10, %xmm10, %xmm1 vpmovsxdq %xmm1, %xmm1 vpmovsxdq %xmm5, %xmm5 vpmovsxdq %xmm6, %xmm15 vpmovsxdq %xmm10, %xmm14 vmovhlps %xmm4, %xmm4, %xmm6 vpmovsxdq %xmm6, %xmm6 vpmovsxdq %xmm4, %xmm10 vpextrq $1, %xmm14, %rax movq %rax, 31584(%rbx) vmovq %xmm14, 31648(%rbx) vinsertf128 $1, %xmm2, %ymm8, %ymm4 vmovapd %ymm4, 30592(%rbx) vpextrq $1, %xmm15, %rdx vmovd %xmm15, %r12 vinsertf128 $1, %xmm5, %ymm13, %ymm13 vinsertf128 $1, %xmm1, %ymm14, %ymm4 vinsertf128 $1, %xmm0, %ymm15, %ymm8 vmovapd %ymm8, 25920(%rbx) vinsertf128 $1, %xmm6, %ymm10, %ymm8 vmovaps %ymm8, 30528(%rbx) vpextrq $1, %xmm10, %rcx vmovd %xmm10, %rsi vpextrq $1, %xmm7, %rax movq %rax, 31872(%rbx) vmovq %xmm7, 31808(%rbx) vpextrq $1, %xmm9, %rax movq %rax, 29696(%rbx) vmovq %xmm9, 25888(%rbx) vpextrq $1, %xmm3, %rax movq %rax, 31712(%rbx) vmovq %xmm3, 31680(%rbx) vpextrq $1, %xmm2, %rax movq %rax, 30912(%rbx) vmovq %xmm2, 30880(%rbx) sbbl %eax, %eax andl $1, %eax vpextrq $1, %xmm5, %rdi vmovd %xmm5, %r11 vpextrq $1, %xmm1, %r8 vmovd %xmm1, %r9 vpextrq $1, %xmm0, %r15 vmovd %xmm0, %r10 vpextrq $1, %xmm6, %r14 vmovd %xmm6, %r13 andl $1, %eax movl %eax, 31744(%rbx) je .LBB1_4801 movq 32792(%rbx), %rax movq %rdi, 31616(%rbx) movq %rdx, 31200(%rbx) movq 31456(%rbx), %rdx vmovsd 1024(%rdx,%rax), %xmm0 movq 22456(%rbx), %rdi vmovsd %xmm0, (%rdi,%rsi,8) vmovsd 1032(%rdx,%rax), %xmm0 vmovsd %xmm0, (%rdi,%rcx,8) vmovsd 1040(%rdx,%rax), %xmm0 vmovsd %xmm0, (%rdi,%r13,8) vmovsd 1048(%rdx,%rax), %xmm0 vmovsd %xmm0, (%rdi,%r14,8) vmovsd 1056(%rdx,%rax), %xmm0 vmovsd %xmm0, (%rdi,%r12,8) vmovsd 1064(%rdx,%rax), %xmm0 movq 31200(%rbx), %rcx vmovsd %xmm0, (%rdi,%rcx,8) vmovsd 1072(%rdx,%rax), %xmm0 vmovsd %xmm0, (%rdi,%r10,8) vmovsd 1080(%rdx,%rax), %xmm0 vmovsd %xmm0, (%rdi,%r15,8) movq %rax, %r10 movq 32632(%rbx), %r15 vmovaps 21504(%rbx), %ymm0 movq 31648(%rbx), %r13 vmovsd %xmm0, (%r15,%r13,8) vmovaps 20160(%rbx), %xmm0 movq 31584(%rbx), %rax vmovsd %xmm0, (%r15,%rax,8) vmovaps 20896(%rbx), %xmm0 vmovsd %xmm0, (%r15,%r9,8) vmovaps 20224(%rbx), %xmm0 vmovsd %xmm0, (%r15,%r8,8) vmovaps 21568(%rbx), %ymm0 movq 31264(%rbx), %rsi vmovsd %xmm0, (%r15,%rsi,8) vmovaps 20288(%rbx), %xmm0 movq 31552(%rbx), %rcx vmovsd %xmm0, (%r15,%rcx,8) vmovaps 20960(%rbx), %xmm0 vmovsd %xmm0, (%r15,%r11,8) vmovaps 20320(%rbx), %xmm0 movq 31616(%rbx), %r12 vmovsd %xmm0, (%r15,%r12,8) movq 12472(%rbx), %r14 vmovaps 21536(%rbx), %ymm0 vmovsd %xmm0, (%r14,%r13,8) vmovaps 20096(%rbx), %xmm0 vmovsd %xmm0, (%r14,%rax,8) vmovaps 20864(%rbx), %xmm0 vmovsd %xmm0, (%r14,%r9,8) vmovaps 20128(%rbx), %xmm0 vmovsd %xmm0, (%r14,%r8,8) vmovaps 21600(%rbx), %ymm0 vmovsd %xmm0, (%r14,%rsi,8) vmovaps 20192(%rbx), %xmm0 vmovsd %xmm0, (%r14,%rcx,8) vmovaps 20928(%rbx), %xmm0 vmovsd %xmm0, (%r14,%r11,8) movq %rdi, %r13 vmovapd 20256(%rbx), %xmm0 vmovsd %xmm0, (%r14,%r12,8) movq %rdx, %r12 vmovapd .LCPI1_6(%rip), %ymm15 vmovaps .LCPI1_17(%rip), %xmm14 vmovapd %ymm15, %ymm9 vpcmpeqd %xmm8, %xmm8, %xmm8 vmovaps 31296(%rbx), %xmm15 jmp .LBB1_4849 .align 16, 0x90 .LBB1_3613: vmovdqa 28128(%rbx), %ymm2 vpcmpeqd .LCPI1_89, %xmm2, %xmm0 vpcmpeqd %xmm1, %xmm1, %xmm1 vpxor %xmm1, %xmm0, %xmm0 vinsertf128 $1, 31904(%rbx), %ymm0, %ymm0 vmovdqa 1088(%rbx), %ymm1 vptest %ymm1, %ymm0 sbbl %eax, %eax andl $1, %eax movl %eax, 31744(%rbx) movq 32632(%rbx), %r15 vmovdqa 13824(%rbx), %ymm12 movq 22456(%rbx), %r14 vmovaps 31296(%rbx), %xmm15 vmovdqa %ymm2, %ymm6 jmp .LBB1_3614 .align 16, 0x90 .LBB1_4801: movq %r10, 31040(%rbx) movq %r12, %r10 movq %r15, 31072(%rbx) movq %r9, 31616(%rbx) movq %r8, 31168(%rbx) movq 31584(%rbx), %r8 movq %r11, 31200(%rbx) movq %rdi, %r11 movq 31264(%rbx), %r9 movq 32792(%rbx), %rdi movq 31456(%rbx), %r12 testb $1, 288(%r12,%rdi) je .LBB1_4803 vmovsd 1024(%r12,%rdi), %xmm0 movq 22456(%rbx), %rax vmovsd %xmm0, (%rax,%rsi,8) .LBB1_4803: testb $1, 292(%r12,%rdi) vmovaps .LCPI1_17(%rip), %xmm14 je .LBB1_4805 vmovsd 1032(%r12,%rdi), %xmm0 movq 22456(%rbx), %rax vmovsd %xmm0, (%rax,%rcx,8) .LBB1_4805: testb $1, 296(%r12,%rdi) vmovapd .LCPI1_6(%rip), %ymm15 vmovapd %ymm15, %ymm1 movq %r14, %rcx je .LBB1_4807 vmovsd 1040(%r12,%rdi), %xmm0 movq 22456(%rbx), %rax vmovsd %xmm0, (%rax,%r13,8) .LBB1_4807: testb $1, 300(%r12,%rdi) movq 32632(%rbx), %r15 movq %r10, %r14 je .LBB1_4809 vmovsd 1048(%r12,%rdi), %xmm0 movq 22456(%rbx), %rax vmovsd %xmm0, (%rax,%rcx,8) .LBB1_4809: testb $1, 304(%r12,%rdi) movq 22456(%rbx), %rsi je .LBB1_4811 vmovsd 1056(%r12,%rdi), %xmm0 vmovsd %xmm0, (%rsi,%r14,8) .LBB1_4811: testb $1, 308(%r12,%rdi) movq 12472(%rbx), %r14 movq 31040(%rbx), %rcx je .LBB1_4813 vmovsd 1064(%r12,%rdi), %xmm0 vmovsd %xmm0, (%rsi,%rdx,8) .LBB1_4813: testb $1, 312(%r12,%rdi) movq 31072(%rbx), %rax je .LBB1_4815 vmovsd 1072(%r12,%rdi), %xmm0 vmovsd %xmm0, (%rsi,%rcx,8) .LBB1_4815: testb $1, 316(%r12,%rdi) movq %r8, %rcx je .LBB1_4817 vmovsd 1080(%r12,%rdi), %xmm0 vmovsd %xmm0, (%rsi,%rax,8) .LBB1_4817: testb $1, 288(%rdi,%r12) movq %r12, %rax movq %rdi, %r10 movq 31648(%rbx), %rdx je .LBB1_4819 vmovapd 21504(%rbx), %ymm0 vmovsd %xmm0, (%r15,%rdx,8) .LBB1_4819: testb $1, 292(%r10,%rax) movq 31168(%rbx), %r12 je .LBB1_4821 vmovapd 20160(%rbx), %xmm0 vmovsd %xmm0, (%r15,%rcx,8) .LBB1_4821: testb $1, 296(%r10,%rax) je .LBB1_4823 vmovapd 20896(%rbx), %xmm0 movq 31616(%rbx), %rdi vmovsd %xmm0, (%r15,%rdi,8) .LBB1_4823: testb $1, 300(%r10,%rax) movq 31552(%rbx), %r8 je .LBB1_4825 vmovapd 20224(%rbx), %xmm0 vmovsd %xmm0, (%r15,%r12,8) .LBB1_4825: testb $1, 304(%r10,%rax) vmovaps 31296(%rbx), %xmm15 movq 31200(%rbx), %rdi je .LBB1_4827 vmovapd 21568(%rbx), %ymm0 vmovsd %xmm0, (%r15,%r9,8) .LBB1_4827: testb $1, 308(%r10,%rax) je .LBB1_4829 vmovapd 20288(%rbx), %xmm0 vmovsd %xmm0, (%r15,%r8,8) .LBB1_4829: testb $1, 312(%r10,%rax) je .LBB1_4831 vmovapd 20960(%rbx), %xmm0 vmovsd %xmm0, (%r15,%rdi,8) .LBB1_4831: testb $1, 316(%r10,%rax) je .LBB1_4833 vmovapd 20320(%rbx), %xmm0 vmovsd %xmm0, (%r15,%r11,8) .LBB1_4833: testb $1, 288(%r10,%rax) movq %rsi, %r13 je .LBB1_4835 vmovapd 21536(%rbx), %ymm0 vmovsd %xmm0, (%r14,%rdx,8) .LBB1_4835: testb $1, 292(%r10,%rax) movq 31616(%rbx), %rdx je .LBB1_4837 vmovapd 20096(%rbx), %xmm0 vmovsd %xmm0, (%r14,%rcx,8) .LBB1_4837: testb $1, 296(%r10,%rax) vmovapd %ymm1, %ymm9 je .LBB1_4839 vmovapd 20864(%rbx), %xmm0 vmovsd %xmm0, (%r14,%rdx,8) .LBB1_4839: testb $1, 300(%r10,%rax) vpcmpeqd %xmm8, %xmm8, %xmm8 je .LBB1_4841 vmovapd 20128(%rbx), %xmm0 vmovsd %xmm0, (%r14,%r12,8) .LBB1_4841: movq %rax, %r12 testb $1, 304(%r10,%r12) je .LBB1_4843 vmovapd 21600(%rbx), %ymm0 vmovsd %xmm0, (%r14,%r9,8) .LBB1_4843: testb $1, 308(%r10,%r12) je .LBB1_4845 vmovapd 20192(%rbx), %xmm0 vmovsd %xmm0, (%r14,%r8,8) .LBB1_4845: testb $1, 312(%r10,%r12) je .LBB1_4847 vmovapd 20928(%rbx), %xmm0 vmovsd %xmm0, (%r14,%rdi,8) .LBB1_4847: testb $1, 316(%r10,%r12) je .LBB1_4849 vmovapd 20256(%rbx), %xmm0 vmovsd %xmm0, (%r14,%r11,8) .LBB1_4849: vmovdqa .LCPI1_36(%rip), %xmm5 vmovdqa 28064(%rbx), %xmm0 vpcmpeqd %xmm5, %xmm0, %xmm1 vandpd 256(%r10,%r12), %ymm9, %ymm0 vextractf128 $1, %ymm0, %xmm2 vpxor %xmm6, %xmm6, %xmm6 vpcmpeqd %xmm6, %xmm2, %xmm2 vpxor %xmm8, %xmm2, %xmm2 vmovdqa .LCPI1_5(%rip), %xmm3 vpshufb %xmm3, %xmm1, %xmm11 vmovdqa 31840(%rbx), %ymm1 vpcmpeqd %xmm5, %xmm1, %xmm1 vpshufb %xmm3, %xmm1, %xmm1 vmovlhps %xmm11, %xmm1, %xmm1 vpshufb %xmm3, %xmm2, %xmm2 vpcmpeqd %xmm6, %xmm0, %xmm0 vpxor %xmm8, %xmm0, %xmm0 vpshufb %xmm3, %xmm0, %xmm0 vmovdqa %xmm3, %xmm5 vmovlhps %xmm2, %xmm0, %xmm0 vandps %xmm1, %xmm0, %xmm10 vxorps %xmm14, %xmm10, %xmm0 vpmovzxwd %xmm0, %xmm1 vpextrb $12, %xmm10, %eax movl %eax, 31616(%rbx) vpextrb $14, %xmm10, %eax movl %eax, 31648(%rbx) vpslld $31, %xmm1, %xmm1 vpsrad $31, %xmm1, %xmm1 vpunpckhwd %xmm0, %xmm0, %xmm0 vpslld $31, %xmm0, %xmm0 vpsrad $31, %xmm0, %xmm0 vinsertf128 $1, %xmm0, %ymm1, %ymm0 vpextrb $4, %xmm10, %eax movl %eax, 31072(%rbx) vpextrb $0, %xmm10, %eax movl %eax, 30976(%rbx) vpextrb $2, %xmm10, %eax movl %eax, 31040(%rbx) vpextrb $6, %xmm10, %eax movl %eax, 31168(%rbx) vpextrb $8, %xmm10, %eax movl %eax, 31200(%rbx) vpextrb $10, %xmm10, %eax movl %eax, 31264(%rbx) vmovdqa 6560(%rbx), %ymm1 vptest %ymm1, %ymm0 sbbl %eax, %eax andl $1, %eax andl $1, %eax movl %eax, 30496(%rbx) movq 31232(%rbx), %r8 movq 31008(%rbx), %rsi movq 30944(%rbx), %rdi movq 30912(%rbx), %r9 movq 30880(%rbx), %rdx jne .LBB1_4868 vpmovzxwd %xmm10, %xmm0 vpslld $31, %xmm0, %xmm0 vpsrad $31, %xmm0, %xmm0 vpunpckhwd %xmm0, %xmm10, %xmm1 vpslld $31, %xmm1, %xmm1 vpsrad $31, %xmm1, %xmm1 vinsertf128 $1, %xmm1, %ymm0, %ymm0 vmovdqa 4480(%rbx), %ymm1 vptest %ymm1, %ymm0 jb .LBB1_4851 movl 30976(%rbx), %eax testb $1, %al je .LBB1_4854 vmovaps 19008(%rbx), %ymm0 vmovsd %xmm0, (%r15,%rdi,8) .LBB1_4854: movl 31040(%rbx), %eax testb $1, %al je .LBB1_4856 vmovaps 18720(%rbx), %xmm0 vmovsd %xmm0, (%r15,%rsi,8) .LBB1_4856: movl 31072(%rbx), %eax testb $1, %al je .LBB1_4858 vmovaps 18912(%rbx), %xmm0 vmovsd %xmm0, (%r15,%rdx,8) .LBB1_4858: movl 31168(%rbx), %eax testb $1, %al je .LBB1_4860 vmovaps 18752(%rbx), %xmm0 vmovsd %xmm0, (%r15,%r9,8) .LBB1_4860: movl 31200(%rbx), %eax testb $1, %al je .LBB1_4862 vmovaps 19040(%rbx), %ymm0 vmovsd %xmm0, (%r15,%r8,8) .LBB1_4862: movl 31264(%rbx), %eax testb $1, %al je .LBB1_4864 vmovaps 18784(%rbx), %xmm0 movq 31776(%rbx), %rax vmovsd %xmm0, (%r15,%rax,8) .LBB1_4864: movl 31616(%rbx), %eax testb $1, %al je .LBB1_4866 vmovaps 18944(%rbx), %xmm0 movq 31680(%rbx), %rax vmovsd %xmm0, (%r15,%rax,8) .LBB1_4866: movl 31648(%rbx), %eax testb $1, %al je .LBB1_4868 jmp .LBB1_4867 .LBB1_4851: vmovaps 19008(%rbx), %ymm0 vmovsd %xmm0, (%r15,%rdi,8) vmovaps 18720(%rbx), %xmm0 vmovsd %xmm0, (%r15,%rsi,8) vmovaps 18912(%rbx), %xmm0 vmovsd %xmm0, (%r15,%rdx,8) vmovaps 18752(%rbx), %xmm0 vmovsd %xmm0, (%r15,%r9,8) vmovaps 19040(%rbx), %ymm0 vmovsd %xmm0, (%r15,%r8,8) vmovaps 18784(%rbx), %xmm0 movq 31776(%rbx), %rax vmovsd %xmm0, (%r15,%rax,8) vmovaps 18944(%rbx), %xmm0 movq 31680(%rbx), %rax vmovsd %xmm0, (%r15,%rax,8) .LBB1_4867: vmovaps 18816(%rbx), %xmm0 movq 31712(%rbx), %rax vmovsd %xmm0, (%r15,%rax,8) .LBB1_4868: vandpd 256(%r10,%r12), %ymm9, %ymm0 vextractf128 $1, %ymm0, %xmm1 vpxor %xmm2, %xmm2, %xmm2 vpcmpeqd %xmm2, %xmm1, %xmm1 vpxor %xmm8, %xmm1, %xmm1 vpshufb %xmm5, %xmm1, %xmm1 vpcmpeqd %xmm2, %xmm0, %xmm0 vpxor %xmm8, %xmm0, %xmm0 vpshufb %xmm5, %xmm0, %xmm0 vmovdqa %xmm5, %xmm6 vmovlhps %xmm1, %xmm0, %xmm0 vandps %xmm15, %xmm0, %xmm7 vxorps %xmm14, %xmm7, %xmm0 vpmovzxwd %xmm0, %xmm1 vpextrb $12, %xmm7, %eax movl %eax, 31232(%rbx) vpextrb $14, %xmm7, %eax movl %eax, 31552(%rbx) vpslld $31, %xmm1, %xmm1 vpsrad $31, %xmm1, %xmm1 vpunpckhwd %xmm0, %xmm0, %xmm0 vpslld $31, %xmm0, %xmm0 vpsrad $31, %xmm0, %xmm0 vinsertf128 $1, %xmm0, %ymm1, %ymm0 vpextrb $4, %xmm7, %eax movl %eax, 30880(%rbx) vpextrb $0, %xmm7, %eax movl %eax, 30816(%rbx) vpextrb $2, %xmm7, %eax movl %eax, 30848(%rbx) vpextrb $6, %xmm7, %eax movl %eax, 30912(%rbx) vpextrb $8, %xmm7, %eax movl %eax, 30944(%rbx) vpextrb $10, %xmm7, %eax movl %eax, 31008(%rbx) vmovdqa 6528(%rbx), %ymm1 vptest %ymm1, %ymm0 sbbl %eax, %eax andl $1, %eax andl $1, %eax movl %eax, 30464(%rbx) movq 30560(%rbx), %r8 movq 30432(%rbx), %rsi movq 29728(%rbx), %rdi movq 29696(%rbx), %r9 movq 25888(%rbx), %rdx jne .LBB1_4887 vpmovzxwd %xmm7, %xmm0 vpslld $31, %xmm0, %xmm0 vpsrad $31, %xmm0, %xmm0 vpunpckhwd %xmm0, %xmm7, %xmm1 vpslld $31, %xmm1, %xmm1 vpsrad $31, %xmm1, %xmm1 vinsertf128 $1, %xmm1, %ymm0, %ymm0 vmovdqa 4512(%rbx), %ymm1 vptest %ymm1, %ymm0 jb .LBB1_4870 movl 30816(%rbx), %eax testb $1, %al je .LBB1_4873 vmovaps 29760(%rbx), %ymm0 vmovsd %xmm0, (%r14,%rdi,8) .LBB1_4873: movl 30848(%rbx), %eax testb $1, %al je .LBB1_4875 vmovaps 28160(%rbx), %xmm0 vmovsd %xmm0, (%r14,%rsi,8) .LBB1_4875: movl 30880(%rbx), %eax testb $1, %al je .LBB1_4877 vmovaps 28288(%rbx), %xmm0 vmovsd %xmm0, (%r14,%rdx,8) .LBB1_4877: movl 30912(%rbx), %eax testb $1, %al je .LBB1_4879 vmovaps 28192(%rbx), %xmm0 vmovsd %xmm0, (%r14,%r9,8) .LBB1_4879: movl 30944(%rbx), %eax testb $1, %al je .LBB1_4881 vmovaps 29792(%rbx), %ymm0 vmovsd %xmm0, (%r14,%r8,8) .LBB1_4881: movl 31008(%rbx), %eax testb $1, %al je .LBB1_4883 vmovaps 28224(%rbx), %xmm0 movq 31904(%rbx), %rax vmovsd %xmm0, (%r14,%rax,8) .LBB1_4883: movl 31232(%rbx), %eax testb $1, %al je .LBB1_4885 vmovaps 28320(%rbx), %xmm0 movq 31808(%rbx), %rax vmovsd %xmm0, (%r14,%rax,8) .LBB1_4885: movl 31552(%rbx), %eax testb $1, %al je .LBB1_4887 jmp .LBB1_4886 .LBB1_4870: vmovaps 29760(%rbx), %ymm0 vmovsd %xmm0, (%r14,%rdi,8) vmovaps 28160(%rbx), %xmm0 vmovsd %xmm0, (%r14,%rsi,8) vmovaps 28288(%rbx), %xmm0 vmovsd %xmm0, (%r14,%rdx,8) vmovaps 28192(%rbx), %xmm0 vmovsd %xmm0, (%r14,%r9,8) vmovaps 29792(%rbx), %ymm0 vmovsd %xmm0, (%r14,%r8,8) vmovaps 28224(%rbx), %xmm0 movq 31904(%rbx), %rax vmovsd %xmm0, (%r14,%rax,8) vmovaps 28320(%rbx), %xmm0 movq 31808(%rbx), %rax vmovsd %xmm0, (%r14,%rax,8) .LBB1_4886: vmovaps 28256(%rbx), %xmm0 movq 31872(%rbx), %rax vmovsd %xmm0, (%r14,%rax,8) .LBB1_4887: vmovapd .LCPI1_70(%rip), %ymm2 vmovapd 27328(%rbx), %ymm0 vcmpltpd %ymm2, %ymm0, %ymm1 vextractf128 $1, %ymm1, %xmm0 vpshufd $8, %xmm0, %xmm0 vpshufd $8, %xmm1, %xmm1 vmovapd 27360(%rbx), %ymm3 vcmpltpd %ymm2, %ymm3, %ymm2 vextractf128 $1, %ymm2, %xmm5 vpshufd $8, %xmm5, %xmm5 vpshufd $8, %xmm2, %xmm2 vmovlhps %xmm5, %xmm2, %xmm2 vmovlhps %xmm0, %xmm1, %xmm1 vandpd 256(%r10,%r12), %ymm9, %ymm0 vpshufb .LCPI1_21(%rip), %xmm1, %xmm1 vpshufb .LCPI1_20(%rip), %xmm2, %xmm2 vextractf128 $1, %ymm0, %xmm5 vxorpd %xmm3, %xmm3, %xmm3 vpcmpeqd %xmm3, %xmm5, %xmm5 vpxor %xmm8, %xmm5, %xmm5 vpor %xmm2, %xmm1, %xmm1 vpsllw $15, %xmm1, %xmm1 vpshufb %xmm6, %xmm5, %xmm2 vpcmpeqd %xmm3, %xmm0, %xmm0 vpcmpeqd %xmm3, %xmm3, %xmm3 vpxor %xmm3, %xmm0, %xmm0 vpshufb %xmm6, %xmm0, %xmm0 vmovlhps %xmm2, %xmm0, %xmm0 vpsraw $15, %xmm1, %xmm1 vandps %xmm1, %xmm0, %xmm9 vxorps %xmm14, %xmm9, %xmm0 vpmovzxwd %xmm0, %xmm1 vpextrb $12, %xmm9, %eax movl %eax, 31680(%rbx) vpextrb $14, %xmm9, %eax movl %eax, 31712(%rbx) vpslld $31, %xmm1, %xmm1 vpsrad $31, %xmm1, %xmm1 vpunpckhwd %xmm0, %xmm0, %xmm0 vpslld $31, %xmm0, %xmm0 vpsrad $31, %xmm0, %xmm0 vinsertf128 $1, %xmm0, %ymm1, %ymm0 vpextrb $4, %xmm9, %eax movl %eax, 31776(%rbx) vpextrb $0, %xmm9, %eax movl %eax, 31872(%rbx) vpextrb $2, %xmm9, %eax movl %eax, 31904(%rbx) vpextrb $6, %xmm9, %eax movl %eax, 31808(%rbx) vpextrb $8, %xmm9, %eax movl %eax, 31584(%rbx) vpextrb $10, %xmm9, %edi vmovdqa 6496(%rbx), %ymm1 vptest %ymm1, %ymm0 sbbl %eax, %eax andl $1, %eax andl $1, %eax movl %eax, 30432(%rbx) jne .LBB1_4977 vpmovzxwd %xmm9, %xmm0 vpslld $31, %xmm0, %xmm0 vpsrad $31, %xmm0, %xmm0 vpunpckhwd %xmm0, %xmm9, %xmm1 vpslld $31, %xmm1, %xmm1 vpsrad $31, %xmm1, %xmm1 vinsertf128 $1, %xmm1, %ymm0, %ymm0 vmovdqa 4672(%rbx), %ymm1 vptest %ymm1, %ymm0 jb .LBB1_4889 movl 31872(%rbx), %eax testb $1, %al je .LBB1_4892 movq 32192(%rbx), %rax movq $0, (%r13,%rax,8) .LBB1_4892: movl 31904(%rbx), %eax testb $1, %al movl 31712(%rbx), %ecx movl 31680(%rbx), %edx movl 31584(%rbx), %esi je .LBB1_4894 movq 32256(%rbx), %rax movq $0, (%r13,%rax,8) .LBB1_4894: movl 31776(%rbx), %eax testb $1, %al je .LBB1_4896 movq 32224(%rbx), %rax movq $0, (%r13,%rax,8) .LBB1_4896: movl 31808(%rbx), %eax testb $1, %al je .LBB1_4898 movq 32288(%rbx), %rax movq $0, (%r13,%rax,8) .LBB1_4898: testb $1, %sil je .LBB1_4900 movq 32320(%rbx), %rax movq $0, (%r13,%rax,8) .LBB1_4900: testb $1, %dil je .LBB1_4902 movq 32384(%rbx), %rax movq $0, (%r13,%rax,8) .LBB1_4902: testb $1, %dl je .LBB1_4904 movq 32352(%rbx), %rax movq $0, (%r13,%rax,8) .LBB1_4904: testb $1, %cl je .LBB1_4906 movq 32416(%rbx), %rax movq $0, (%r13,%rax,8) .LBB1_4906: movl 31872(%rbx), %eax testb $1, %al je .LBB1_4908 movq 32832(%rbx), %rax movq $0, (%r15,%rax,8) .LBB1_4908: movl 31904(%rbx), %eax testb $1, %al je .LBB1_4910 movq 32864(%rbx), %rax movq $0, (%r15,%rax,8) .LBB1_4910: movl 31776(%rbx), %eax testb $1, %al je .LBB1_4912 movq 32736(%rbx), %rax movq $0, (%r15,%rax,8) .LBB1_4912: movl 31808(%rbx), %eax testb $1, %al je .LBB1_4914 movq 32800(%rbx), %rax movq $0, (%r15,%rax,8) .LBB1_4914: testb $1, %sil je .LBB1_4916 movq 32896(%rbx), %rax movq $0, (%r15,%rax,8) .LBB1_4916: testb $1, %dil je .LBB1_4918 movq 32928(%rbx), %rax movq $0, (%r15,%rax,8) .LBB1_4918: testb $1, %dl je .LBB1_4920 movq 32960(%rbx), %rax movq $0, (%r15,%rax,8) .LBB1_4920: testb $1, %cl je .LBB1_4922 movq 32992(%rbx), %rax movq $0, (%r15,%rax,8) .LBB1_4922: movl 31872(%rbx), %eax testb $1, %al je .LBB1_4924 movq 32832(%rbx), %rax movq $0, (%r14,%rax,8) .LBB1_4924: movl 31904(%rbx), %eax testb $1, %al je .LBB1_4926 movq 32864(%rbx), %rax movq $0, (%r14,%rax,8) .LBB1_4926: movl 31776(%rbx), %eax testb $1, %al je .LBB1_4928 movq 32736(%rbx), %rax movq $0, (%r14,%rax,8) .LBB1_4928: movl 31808(%rbx), %eax testb $1, %al je .LBB1_4930 movq 32800(%rbx), %rax movq $0, (%r14,%rax,8) .LBB1_4930: testb $1, %sil je .LBB1_4932 movq 32896(%rbx), %rax movq $0, (%r14,%rax,8) .LBB1_4932: testb $1, %dil je .LBB1_4934 movq 32928(%rbx), %rax movq $0, (%r14,%rax,8) .LBB1_4934: testb $1, %dl je .LBB1_4936 movq 32960(%rbx), %rax movq $0, (%r14,%rax,8) .LBB1_4936: testb $1, %cl je .LBB1_4939 movq 32992(%rbx), %rax jmp .LBB1_4938 .LBB1_4889: movq 32192(%rbx), %rax movq $0, (%r13,%rax,8) movq 32256(%rbx), %rax movq $0, (%r13,%rax,8) movq 32224(%rbx), %rax movq $0, (%r13,%rax,8) movq 32288(%rbx), %rax movq $0, (%r13,%rax,8) movq 32320(%rbx), %rax movq $0, (%r13,%rax,8) movq 32384(%rbx), %rax movq $0, (%r13,%rax,8) movq 32352(%rbx), %rax movq $0, (%r13,%rax,8) movq 32416(%rbx), %rax movq $0, (%r13,%rax,8) movq 32832(%rbx), %r10 movq $0, (%r15,%r10,8) movq 32864(%rbx), %r9 movq $0, (%r15,%r9,8) movq 32736(%rbx), %r8 movq $0, (%r15,%r8,8) movq 32800(%rbx), %rsi movq $0, (%r15,%rsi,8) movl %edi, %r11d movq 32896(%rbx), %rdi movq $0, (%r15,%rdi,8) movq 32928(%rbx), %rdx movq $0, (%r15,%rdx,8) movq 32960(%rbx), %rcx movq $0, (%r15,%rcx,8) movq 32992(%rbx), %rax movq $0, (%r15,%rax,8) movq $0, (%r14,%r10,8) movq $0, (%r14,%r9,8) movq $0, (%r14,%r8,8) movq $0, (%r14,%rsi,8) movq $0, (%r14,%rdi,8) movl %r11d, %edi movq $0, (%r14,%rdx,8) movq $0, (%r14,%rcx,8) .LBB1_4938: movq $0, (%r14,%rax,8) .LBB1_4939: vmovdqa 31840(%rbx), %ymm0 vpcmpeqd .LCPI1_36(%rip), %xmm0, %xmm0 vpshufb .LCPI1_5(%rip), %xmm0, %xmm0 vmovlhps %xmm11, %xmm0, %xmm0 vandps %xmm0, %xmm9, %xmm5 vxorps %xmm14, %xmm5, %xmm0 vpmovzxwd %xmm0, %xmm1 vpslld $31, %xmm1, %xmm1 vpsrad $31, %xmm1, %xmm1 vpunpckhwd %xmm0, %xmm0, %xmm0 vpslld $31, %xmm0, %xmm0 vpsrad $31, %xmm0, %xmm0 vinsertf128 $1, %xmm0, %ymm1, %ymm0 vmovdqa 4640(%rbx), %ymm1 vptest %ymm1, %ymm0 jb .LBB1_4958 vpmovzxwd %xmm5, %xmm0 vpslld $31, %xmm0, %xmm0 vpsrad $31, %xmm0, %xmm0 vpunpckhwd %xmm0, %xmm5, %xmm1 vpslld $31, %xmm1, %xmm1 vpsrad $31, %xmm1, %xmm1 vinsertf128 $1, %xmm1, %ymm0, %ymm0 vmovdqa 4608(%rbx), %ymm1 vptest %ymm1, %ymm0 jb .LBB1_4941 vpextrb $0, %xmm5, %ecx vpextrb $2, %xmm5, %edx vpextrb $4, %xmm5, %eax testb $1, %cl je .LBB1_4944 movq 31936(%rbx), %rcx movq $0, (%r15,%rcx,8) .LBB1_4944: vpextrb $6, %xmm5, %ecx testb $1, %dl je .LBB1_4946 movq 31968(%rbx), %rdx movq $0, (%r15,%rdx,8) .LBB1_4946: vpextrb $8, %xmm5, %edx testb $1, %al je .LBB1_4948 movq 32096(%rbx), %rax movq $0, (%r15,%rax,8) .LBB1_4948: vpextrb $10, %xmm5, %eax testb $1, %cl je .LBB1_4950 movq 32128(%rbx), %rcx movq $0, (%r15,%rcx,8) .LBB1_4950: vpextrb $12, %xmm5, %ecx testb $1, %dl je .LBB1_4952 movq 32160(%rbx), %rdx movq $0, (%r15,%rdx,8) .LBB1_4952: vpextrb $14, %xmm5, %edx testb $1, %al je .LBB1_4954 movq 32000(%rbx), %rax movq $0, (%r15,%rax,8) .LBB1_4954: testb $1, %cl je .LBB1_4956 movq 32032(%rbx), %rax movq $0, (%r15,%rax,8) .LBB1_4956: testb $1, %dl je .LBB1_4958 jmp .LBB1_4957 .LBB1_4941: movq 31936(%rbx), %rax movq $0, (%r15,%rax,8) movq 31968(%rbx), %rax movq $0, (%r15,%rax,8) movq 32096(%rbx), %rax movq $0, (%r15,%rax,8) movq 32128(%rbx), %rax movq $0, (%r15,%rax,8) movq 32160(%rbx), %rax movq $0, (%r15,%rax,8) movq 32000(%rbx), %rax movq $0, (%r15,%rax,8) movq 32032(%rbx), %rax movq $0, (%r15,%rax,8) .LBB1_4957: movq 32064(%rbx), %rax movq $0, (%r15,%rax,8) .LBB1_4958: vandps %xmm15, %xmm9, %xmm5 vxorps %xmm14, %xmm5, %xmm0 vpmovzxwd %xmm0, %xmm1 vpslld $31, %xmm1, %xmm1 vpsrad $31, %xmm1, %xmm1 vpunpckhwd %xmm0, %xmm0, %xmm0 vpslld $31, %xmm0, %xmm0 vpsrad $31, %xmm0, %xmm0 vinsertf128 $1, %xmm0, %ymm1, %ymm0 vmovdqa 4576(%rbx), %ymm1 vptest %ymm1, %ymm0 jb .LBB1_4977 vpmovzxwd %xmm5, %xmm0 vpslld $31, %xmm0, %xmm0 vpsrad $31, %xmm0, %xmm0 vpunpckhwd %xmm0, %xmm5, %xmm1 vpslld $31, %xmm1, %xmm1 vpsrad $31, %xmm1, %xmm1 vinsertf128 $1, %xmm1, %ymm0, %ymm0 vmovdqa 4544(%rbx), %ymm1 vptest %ymm1, %ymm0 jb .LBB1_4960 vpextrb $0, %xmm5, %ecx vpextrb $2, %xmm5, %edx vpextrb $4, %xmm5, %eax testb $1, %cl je .LBB1_4963 movq 32448(%rbx), %rcx movq $0, (%r14,%rcx,8) .LBB1_4963: vpextrb $6, %xmm5, %ecx testb $1, %dl je .LBB1_4965 movq 32480(%rbx), %rdx movq $0, (%r14,%rdx,8) .LBB1_4965: vpextrb $8, %xmm5, %edx testb $1, %al je .LBB1_4967 movq 32544(%rbx), %rax movq $0, (%r14,%rax,8) .LBB1_4967: vpextrb $10, %xmm5, %eax testb $1, %cl je .LBB1_4969 movq 32576(%rbx), %rcx movq $0, (%r14,%rcx,8) .LBB1_4969: vpextrb $12, %xmm5, %ecx testb $1, %dl je .LBB1_4971 movq 32640(%rbx), %rdx movq $0, (%r14,%rdx,8) .LBB1_4971: vpextrb $14, %xmm5, %edx testb $1, %al je .LBB1_4973 movq 32672(%rbx), %rax movq $0, (%r14,%rax,8) .LBB1_4973: testb $1, %cl je .LBB1_4975 movq 32704(%rbx), %rax movq $0, (%r14,%rax,8) .LBB1_4975: testb $1, %dl je .LBB1_4977 jmp .LBB1_4976 .LBB1_4960: movq 32448(%rbx), %rax movq $0, (%r14,%rax,8) movq 32480(%rbx), %rax movq $0, (%r14,%rax,8) movq 32544(%rbx), %rax movq $0, (%r14,%rax,8) movq 32576(%rbx), %rax movq $0, (%r14,%rax,8) movq 32640(%rbx), %rax movq $0, (%r14,%rax,8) movq 32672(%rbx), %rax movq $0, (%r14,%rax,8) movq 32704(%rbx), %rax movq $0, (%r14,%rax,8) .LBB1_4976: movq 32512(%rbx), %rax movq $0, (%r14,%rax,8) .align 16, 0x90 .LBB1_4977: movl %edi, 30560(%rbx) vmovaps 30528(%rbx), %ymm3 vextractf128 $1, %ymm3, %xmm0 vmovaps %xmm0, 29696(%rbx) vmovdqa .LCPI1_9(%rip), %xmm5 vpaddq %xmm5, %xmm0, %xmm0 vmovaps 25920(%rbx), %ymm2 vextractf128 $1, %ymm2, %xmm1 vmovaps %xmm1, 29728(%rbx) vpextrq $1, %xmm0, %r9 vmovd %xmm0, %rax vpaddq %xmm5, %xmm1, %xmm0 vpaddq %xmm5, %xmm3, %xmm1 vpextrq $1, %xmm1, %rcx vmovd %xmm1, %rdx vpextrq $1, %xmm0, %r11 vpaddq %xmm5, %xmm2, %xmm1 vmovdqa %ymm2, %ymm8 vmovd %xmm0, %rsi vpextrq $1, %xmm1, %r8 vmovd %xmm1, %r10 cmpl $0, 31744(%rbx) je .LBB1_6776 vmovaps 26912(%rbx), %ymm0 vmovsd %xmm0, (%r13,%rdx,8) vmovaps 26016(%rbx), %xmm0 vmovsd %xmm0, (%r13,%rcx,8) vmovaps 27008(%rbx), %xmm0 vmovsd %xmm0, (%r13,%rax,8) vmovaps 26944(%rbx), %xmm0 vmovsd %xmm0, (%r13,%r9,8) vmovaps 31328(%rbx), %ymm0 vmovsd %xmm0, (%r13,%r10,8) vmovaps 26976(%rbx), %xmm0 vmovsd %xmm0, (%r13,%r8,8) vmovsd %xmm12, (%r13,%rsi,8) vmovaps 27040(%rbx), %xmm0 vmovsd %xmm0, (%r13,%r11,8) vpaddq %xmm5, %xmm4, %xmm2 vmovd %xmm2, %r8 vextractf128 $1, %ymm4, %xmm0 vpaddq %xmm5, %xmm0, %xmm0 vextractf128 $1, %ymm13, %xmm1 vmovaps 24896(%rbx), %ymm3 vmovsd %xmm3, (%r15,%r8,8) vpaddq %xmm5, %xmm1, %xmm1 vpextrq $1, %xmm2, %r9 vpaddq %xmm5, %xmm13, %xmm2 vpextrq $1, %xmm2, %r11 vpextrq $1, %xmm0, %rdi vmovaps 21888(%rbx), %xmm3 vmovsd %xmm3, (%r15,%r9,8) vpextrq $1, %xmm1, %r10 vmovd %xmm1, %rax vmovd %xmm2, %rcx vmovd %xmm0, %rdx vmovaps 23936(%rbx), %xmm0 vmovsd %xmm0, (%r15,%rdx,8) vmovaps 21952(%rbx), %xmm0 vmovsd %xmm0, (%r15,%rdi,8) vmovaps 26048(%rbx), %ymm0 vmovsd %xmm0, (%r15,%rcx,8) vmovaps 22016(%rbx), %xmm0 vmovsd %xmm0, (%r15,%r11,8) vmovaps 24000(%rbx), %xmm0 vmovsd %xmm0, (%r15,%rax,8) vmovaps 22048(%rbx), %xmm0 vmovsd %xmm0, (%r15,%r10,8) vmovaps 25664(%rbx), %ymm0 vmovsd %xmm0, (%r14,%r8,8) vmovaps 21824(%rbx), %xmm0 vmovsd %xmm0, (%r14,%r9,8) vmovaps 23904(%rbx), %xmm0 vmovsd %xmm0, (%r14,%rdx,8) vmovaps 21856(%rbx), %xmm0 vmovsd %xmm0, (%r14,%rdi,8) vmovaps 26080(%rbx), %ymm0 vmovsd %xmm0, (%r14,%rcx,8) vmovaps 21920(%rbx), %xmm0 vmovsd %xmm0, (%r14,%r11,8) vmovaps 23968(%rbx), %xmm0 vmovsd %xmm0, (%r14,%rax,8) vmovapd 21984(%rbx), %xmm0 vmovsd %xmm0, (%r14,%r10,8) jmp .LBB1_6824 .align 16, 0x90 .LBB1_6776: movq 32792(%rbx), %rdi testb $1, 288(%r12,%rdi) vmovaps 26912(%rbx), %ymm0 je .LBB1_6778 vmovsd %xmm0, (%r13,%rdx,8) .LBB1_6778: movq 32792(%rbx), %rdx testb $1, 292(%r12,%rdx) je .LBB1_6780 vmovaps 26016(%rbx), %xmm0 vmovsd %xmm0, (%r13,%rcx,8) .LBB1_6780: movq 32792(%rbx), %rcx testb $1, 296(%r12,%rcx) je .LBB1_6782 vmovaps 27008(%rbx), %xmm0 vmovsd %xmm0, (%r13,%rax,8) .LBB1_6782: movq 32792(%rbx), %rax testb $1, 300(%r12,%rax) vmovaps 31328(%rbx), %ymm0 je .LBB1_6784 vmovapd 26944(%rbx), %xmm1 vmovsd %xmm1, (%r13,%r9,8) .LBB1_6784: movq 32792(%rbx), %rax testb $1, 304(%r12,%rax) je .LBB1_6786 vmovsd %xmm0, (%r13,%r10,8) .LBB1_6786: movq 32792(%rbx), %rax testb $1, 308(%r12,%rax) je .LBB1_6788 vmovaps 26976(%rbx), %xmm0 vmovsd %xmm0, (%r13,%r8,8) .LBB1_6788: movq 32792(%rbx), %rax testb $1, 312(%r12,%rax) je .LBB1_6790 vmovsd %xmm12, (%r13,%rsi,8) .LBB1_6790: movq 32792(%rbx), %rax testb $1, 316(%r12,%rax) je .LBB1_6792 vmovaps 27040(%rbx), %xmm0 vmovsd %xmm0, (%r13,%r11,8) .LBB1_6792: vextractf128 $1, %ymm4, %xmm0 vpaddq .LCPI1_9(%rip), %xmm4, %xmm1 vmovd %xmm1, %r11 movq 32792(%rbx), %rax testb $1, 288(%rax,%r12) je .LBB1_6794 vmovaps 24896(%rbx), %ymm2 vmovsd %xmm2, (%r15,%r11,8) .LBB1_6794: vpaddq .LCPI1_9(%rip), %xmm0, %xmm0 vpextrq $1, %xmm1, %r8 movq 32792(%rbx), %rax testb $1, 292(%rax,%r12) je .LBB1_6796 vmovapd 21888(%rbx), %xmm1 vmovsd %xmm1, (%r15,%r8,8) .LBB1_6796: vmovd %xmm0, %r9 movq 32792(%rbx), %rax testb $1, 296(%rax,%r12) je .LBB1_6798 vmovapd 23936(%rbx), %xmm1 vmovsd %xmm1, (%r15,%r9,8) .LBB1_6798: vpaddq .LCPI1_9(%rip), %xmm13, %xmm1 vpextrq $1, %xmm0, %r10 movq 32792(%rbx), %rax testb $1, 300(%rax,%r12) je .LBB1_6800 vmovapd 21952(%rbx), %xmm0 vmovsd %xmm0, (%r15,%r10,8) .LBB1_6800: vextractf128 $1, %ymm13, %xmm0 vmovd %xmm1, %rdi movq 32792(%rbx), %rax testb $1, 304(%rax,%r12) je .LBB1_6802 vmovaps 26048(%rbx), %ymm2 vmovsd %xmm2, (%r15,%rdi,8) .LBB1_6802: movq %r14, %rsi vpaddq .LCPI1_9(%rip), %xmm0, %xmm0 vpextrq $1, %xmm1, %rax movq 32792(%rbx), %rdx testb $1, 308(%rdx,%r12) je .LBB1_6804 vmovapd 22016(%rbx), %xmm1 vmovsd %xmm1, (%r15,%rax,8) .LBB1_6804: vmovd %xmm0, %r13 movq 32792(%rbx), %rdx testb $1, 312(%rdx,%r12) je .LBB1_6806 vmovapd 24000(%rbx), %xmm1 vmovsd %xmm1, (%r15,%r13,8) .LBB1_6806: vpextrq $1, %xmm0, %rcx movq 32792(%rbx), %rdx testb $1, 316(%rdx,%r12) je .LBB1_6808 vmovapd 22048(%rbx), %xmm0 vmovsd %xmm0, (%r15,%rcx,8) .LBB1_6808: movq 32792(%rbx), %rdx testb $1, 288(%rdx,%r12) je .LBB1_6810 vmovapd 25664(%rbx), %ymm0 vmovsd %xmm0, (%rsi,%r11,8) .LBB1_6810: movq 32792(%rbx), %rdx testb $1, 292(%rdx,%r12) je .LBB1_6812 vmovapd 21824(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%r8,8) .LBB1_6812: testb $1, 296(%rdx,%r12) je .LBB1_6814 vmovapd 23904(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%r9,8) .LBB1_6814: testb $1, 300(%rdx,%r12) je .LBB1_6816 vmovapd 21856(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%r10,8) .LBB1_6816: testb $1, 304(%rdx,%r12) je .LBB1_6818 vmovapd 26080(%rbx), %ymm0 vmovsd %xmm0, (%rsi,%rdi,8) .LBB1_6818: testb $1, 308(%rdx,%r12) je .LBB1_6820 vmovapd 21920(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%rax,8) .LBB1_6820: testb $1, 312(%rdx,%r12) je .LBB1_6822 vmovapd 23968(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%r13,8) .LBB1_6822: testb $1, 316(%rdx,%r12) movq %rsi, %r14 je .LBB1_6824 vmovapd 21984(%rbx), %xmm0 vmovsd %xmm0, (%r14,%rcx,8) .LBB1_6824: movq %r14, %r8 cmpl $0, 30496(%rbx) jne .LBB1_6843 vmovaps 30592(%rbx), %ymm2 vextractf128 $1, %ymm2, %xmm1 vmovaps 30624(%rbx), %ymm3 vextractf128 $1, %ymm3, %xmm0 vmovdqa .LCPI1_9(%rip), %xmm6 vpaddq %xmm6, %xmm0, %xmm0 vpaddq %xmm6, %xmm2, %xmm2 vpaddq %xmm6, %xmm1, %xmm5 vpmovzxwd %xmm10, %xmm1 vpslld $31, %xmm1, %xmm1 vpextrq $1, %xmm5, %r9 vmovd %xmm5, %rax vpextrq $1, %xmm2, %rcx vmovd %xmm2, %rdx vpextrq $1, %xmm0, %r11 vmovd %xmm0, %r14 vpaddq %xmm6, %xmm3, %xmm0 vpsrad $31, %xmm1, %xmm1 vpunpckhwd %xmm0, %xmm10, %xmm2 vpslld $31, %xmm2, %xmm2 vpsrad $31, %xmm2, %xmm2 vinsertf128 $1, %xmm2, %ymm1, %ymm1 vpextrq $1, %xmm0, %r13 vmovd %xmm0, %rdi vmovdqa 4704(%rbx), %ymm0 vptest %ymm0, %ymm1 jb .LBB1_6826 movl 30976(%rbx), %esi testb $1, %sil je .LBB1_6829 vmovdqa 20992(%rbx), %ymm0 vmovsd %xmm0, (%r15,%rdx,8) .LBB1_6829: movl 31040(%rbx), %edx testb $1, %dl je .LBB1_6831 vmovdqa 19072(%rbx), %xmm0 vmovsd %xmm0, (%r15,%rcx,8) .LBB1_6831: movl 31072(%rbx), %ecx testb $1, %cl je .LBB1_6833 vmovdqa 20352(%rbx), %xmm0 vmovsd %xmm0, (%r15,%rax,8) .LBB1_6833: movl 31168(%rbx), %eax testb $1, %al je .LBB1_6835 vmovdqa 19104(%rbx), %xmm0 vmovsd %xmm0, (%r15,%r9,8) .LBB1_6835: movl 31200(%rbx), %eax testb $1, %al je .LBB1_6837 vmovdqa 21024(%rbx), %ymm0 vmovsd %xmm0, (%r15,%rdi,8) .LBB1_6837: movl 31264(%rbx), %eax testb $1, %al je .LBB1_6839 vmovdqa 19136(%rbx), %xmm0 vmovsd %xmm0, (%r15,%r13,8) .LBB1_6839: movl 31616(%rbx), %eax testb $1, %al je .LBB1_6841 vmovdqa 20384(%rbx), %xmm0 vmovsd %xmm0, (%r15,%r14,8) .LBB1_6841: movl 31648(%rbx), %eax testb $1, %al je .LBB1_6843 jmp .LBB1_6842 .LBB1_6826: vmovaps 20992(%rbx), %ymm0 vmovsd %xmm0, (%r15,%rdx,8) vmovaps 19072(%rbx), %xmm0 vmovsd %xmm0, (%r15,%rcx,8) vmovaps 20352(%rbx), %xmm0 vmovsd %xmm0, (%r15,%rax,8) vmovaps 19104(%rbx), %xmm0 vmovsd %xmm0, (%r15,%r9,8) vmovaps 21024(%rbx), %ymm0 vmovsd %xmm0, (%r15,%rdi,8) vmovaps 19136(%rbx), %xmm0 vmovsd %xmm0, (%r15,%r13,8) vmovdqa 20384(%rbx), %xmm0 vmovsd %xmm0, (%r15,%r14,8) .LBB1_6842: vmovapd 19168(%rbx), %xmm0 vmovsd %xmm0, (%r15,%r11,8) .LBB1_6843: cmpl $0, 30464(%rbx) movq %r8, %rsi jne .LBB1_6862 vmovaps 30656(%rbx), %ymm2 vextractf128 $1, %ymm2, %xmm1 vmovaps 30688(%rbx), %ymm3 vextractf128 $1, %ymm3, %xmm0 vmovdqa .LCPI1_9(%rip), %xmm6 vpaddq %xmm6, %xmm0, %xmm0 vpaddq %xmm6, %xmm2, %xmm2 vpaddq %xmm6, %xmm1, %xmm5 vpmovzxwd %xmm7, %xmm1 vpslld $31, %xmm1, %xmm1 vpextrq $1, %xmm5, %r8 vmovd %xmm5, %rax vpextrq $1, %xmm2, %rcx vmovd %xmm2, %rdx vpextrq $1, %xmm0, %r11 vmovd %xmm0, %r14 vpaddq %xmm6, %xmm3, %xmm0 vpsrad $31, %xmm1, %xmm1 vpunpckhwd %xmm0, %xmm7, %xmm2 vpslld $31, %xmm2, %xmm2 vpsrad $31, %xmm2, %xmm2 vinsertf128 $1, %xmm2, %ymm1, %ymm1 vpextrq $1, %xmm0, %r13 vmovd %xmm0, %r9 vmovdqa 4736(%rbx), %ymm0 vptest %ymm0, %ymm1 jb .LBB1_6845 movl 30816(%rbx), %edi testb $1, %dil je .LBB1_6848 vmovdqa 29824(%rbx), %ymm0 vmovsd %xmm0, (%rsi,%rdx,8) .LBB1_6848: movl 30848(%rbx), %edx testb $1, %dl je .LBB1_6850 vmovdqa 28352(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%rcx,8) .LBB1_6850: movl 30880(%rbx), %ecx testb $1, %cl je .LBB1_6852 vmovdqa 28480(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%rax,8) .LBB1_6852: movl 30912(%rbx), %eax testb $1, %al je .LBB1_6854 vmovdqa 28384(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%r8,8) .LBB1_6854: movl 30944(%rbx), %eax testb $1, %al je .LBB1_6856 vmovdqa 29856(%rbx), %ymm0 vmovsd %xmm0, (%rsi,%r9,8) .LBB1_6856: movl 31008(%rbx), %eax testb $1, %al je .LBB1_6858 vmovdqa 28416(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%r13,8) .LBB1_6858: movl 31232(%rbx), %eax testb $1, %al je .LBB1_6860 vmovdqa 28512(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%r14,8) .LBB1_6860: movl 31552(%rbx), %eax testb $1, %al je .LBB1_6862 jmp .LBB1_6861 .LBB1_6845: vmovaps 29824(%rbx), %ymm0 vmovsd %xmm0, (%rsi,%rdx,8) vmovaps 28352(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%rcx,8) vmovaps 28480(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%rax,8) vmovaps 28384(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%r8,8) vmovaps 29856(%rbx), %ymm0 vmovsd %xmm0, (%rsi,%r9,8) vmovaps 28416(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%r13,8) vmovdqa 28512(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%r14,8) .LBB1_6861: vmovapd 28448(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%r11,8) .LBB1_6862: cmpl $0, 30432(%rbx) movq 22456(%rbx), %r13 vmovdqa .LCPI1_10(%rip), %xmm5 movl 31808(%rbx), %r9d movl 31776(%rbx), %r10d jne .LBB1_6952 vpmovzxwd %xmm9, %xmm0 vpslld $31, %xmm0, %xmm0 vpsrad $31, %xmm0, %xmm0 vpunpckhwd %xmm0, %xmm9, %xmm1 vpslld $31, %xmm1, %xmm1 vpsrad $31, %xmm1, %xmm1 vinsertf128 $1, %xmm1, %ymm0, %ymm0 vmovdqa 4896(%rbx), %ymm1 vptest %ymm1, %ymm0 jb .LBB1_6864 movl 31872(%rbx), %eax testb $1, %al movl 31712(%rbx), %r8d movl 31680(%rbx), %edx movl 30560(%rbx), %edi movl 31584(%rbx), %ecx je .LBB1_6867 movq 32192(%rbx), %rax movq $0, (%r13,%rax,8) .LBB1_6867: movl 31904(%rbx), %eax testb $1, %al je .LBB1_6869 movq 32256(%rbx), %rax movq $0, (%r13,%rax,8) .LBB1_6869: testb $1, %r10b je .LBB1_6871 movq 32224(%rbx), %rax movq $0, (%r13,%rax,8) .LBB1_6871: testb $1, %r9b je .LBB1_6873 movq 32288(%rbx), %rax movq $0, (%r13,%rax,8) .LBB1_6873: testb $1, %cl je .LBB1_6875 movq 32320(%rbx), %rax movq $0, (%r13,%rax,8) .LBB1_6875: testb $1, %dil je .LBB1_6877 movq 32384(%rbx), %rax movq $0, (%r13,%rax,8) .LBB1_6877: testb $1, %dl je .LBB1_6879 movq 32352(%rbx), %rax movq $0, (%r13,%rax,8) .LBB1_6879: testb $1, %r8b je .LBB1_6881 movq 32416(%rbx), %rax movq $0, (%r13,%rax,8) .LBB1_6881: movl 31872(%rbx), %eax testb $1, %al je .LBB1_6883 movq 32832(%rbx), %rax movq $0, (%r15,%rax,8) .LBB1_6883: movl 31904(%rbx), %eax testb $1, %al je .LBB1_6885 movq 32864(%rbx), %rax movq $0, (%r15,%rax,8) .LBB1_6885: testb $1, %r10b je .LBB1_6887 movq 32736(%rbx), %rax movq $0, (%r15,%rax,8) .LBB1_6887: testb $1, %r9b je .LBB1_6889 movq 32800(%rbx), %rax movq $0, (%r15,%rax,8) .LBB1_6889: testb $1, %cl je .LBB1_6891 movq 32896(%rbx), %rax movq $0, (%r15,%rax,8) .LBB1_6891: testb $1, %dil je .LBB1_6893 movq 32928(%rbx), %rax movq $0, (%r15,%rax,8) .LBB1_6893: testb $1, %dl je .LBB1_6895 movq 32960(%rbx), %rax movq $0, (%r15,%rax,8) .LBB1_6895: testb $1, %r8b je .LBB1_6897 movq 32992(%rbx), %rax movq $0, (%r15,%rax,8) .LBB1_6897: movl 31872(%rbx), %eax testb $1, %al je .LBB1_6899 movq 32832(%rbx), %rax movq $0, (%rsi,%rax,8) .LBB1_6899: movl 31904(%rbx), %eax testb $1, %al je .LBB1_6901 movq 32864(%rbx), %rax movq $0, (%rsi,%rax,8) .LBB1_6901: testb $1, %r10b je .LBB1_6903 movq 32736(%rbx), %rax movq $0, (%rsi,%rax,8) .LBB1_6903: testb $1, %r9b je .LBB1_6905 movq 32800(%rbx), %rax movq $0, (%rsi,%rax,8) .LBB1_6905: testb $1, %cl je .LBB1_6907 movq 32896(%rbx), %rax movq $0, (%rsi,%rax,8) .LBB1_6907: testb $1, %dil je .LBB1_6909 movq 32928(%rbx), %rax movq $0, (%rsi,%rax,8) .LBB1_6909: testb $1, %dl je .LBB1_6911 movq 32960(%rbx), %rax movq $0, (%rsi,%rax,8) .LBB1_6911: testb $1, %r8b je .LBB1_6914 movq 32992(%rbx), %rax jmp .LBB1_6913 .LBB1_6864: movq 32192(%rbx), %rax movq $0, (%r13,%rax,8) movq 32256(%rbx), %rax movq $0, (%r13,%rax,8) movq 32224(%rbx), %rax movq $0, (%r13,%rax,8) movq 32288(%rbx), %rax movq $0, (%r13,%rax,8) movq 32320(%rbx), %rax movq $0, (%r13,%rax,8) movq 32384(%rbx), %rax movq $0, (%r13,%rax,8) movq 32352(%rbx), %rax movq $0, (%r13,%rax,8) movq 32416(%rbx), %rax movq $0, (%r13,%rax,8) movq 32832(%rbx), %r11 movq $0, (%r15,%r11,8) movq 32864(%rbx), %r10 movq $0, (%r15,%r10,8) movq 32736(%rbx), %r9 movq $0, (%r15,%r9,8) movq 32800(%rbx), %r8 movq $0, (%r15,%r8,8) movq 32896(%rbx), %rdi movq $0, (%r15,%rdi,8) movq 32928(%rbx), %rdx movq $0, (%r15,%rdx,8) movq 32960(%rbx), %rcx movq $0, (%r15,%rcx,8) movq 32992(%rbx), %rax movq $0, (%r15,%rax,8) movq $0, (%rsi,%r11,8) movq $0, (%rsi,%r10,8) movq $0, (%rsi,%r9,8) movq $0, (%rsi,%r8,8) movq $0, (%rsi,%rdi,8) movq $0, (%rsi,%rdx,8) movq $0, (%rsi,%rcx,8) .LBB1_6913: movq $0, (%rsi,%rax,8) .LBB1_6914: vmovdqa 31840(%rbx), %ymm0 vpcmpeqd .LCPI1_36(%rip), %xmm0, %xmm0 vpshufb .LCPI1_5(%rip), %xmm0, %xmm0 vmovlhps %xmm11, %xmm0, %xmm0 vandps %xmm0, %xmm9, %xmm0 vxorps %xmm14, %xmm0, %xmm1 vpmovzxwd %xmm1, %xmm2 vpslld $31, %xmm2, %xmm2 vpsrad $31, %xmm2, %xmm2 vpunpckhwd %xmm0, %xmm1, %xmm1 vpslld $31, %xmm1, %xmm1 vpsrad $31, %xmm1, %xmm1 vinsertf128 $1, %xmm1, %ymm2, %ymm1 vmovdqa 4864(%rbx), %ymm2 vptest %ymm2, %ymm1 jb .LBB1_6933 vpmovzxwd %xmm0, %xmm1 vpslld $31, %xmm1, %xmm1 vpsrad $31, %xmm1, %xmm1 vpunpckhwd %xmm0, %xmm0, %xmm2 vpslld $31, %xmm2, %xmm2 vpsrad $31, %xmm2, %xmm2 vinsertf128 $1, %xmm2, %ymm1, %ymm1 vmovdqa 4832(%rbx), %ymm2 vptest %ymm2, %ymm1 jb .LBB1_6916 vpextrb $0, %xmm0, %ecx vpextrb $2, %xmm0, %edx vpextrb $4, %xmm0, %eax testb $1, %cl je .LBB1_6919 movq 31936(%rbx), %rcx movq $0, (%r15,%rcx,8) .LBB1_6919: vpextrb $6, %xmm0, %ecx testb $1, %dl je .LBB1_6921 movq 31968(%rbx), %rdx movq $0, (%r15,%rdx,8) .LBB1_6921: vpextrb $8, %xmm0, %edx testb $1, %al je .LBB1_6923 movq 32096(%rbx), %rax movq $0, (%r15,%rax,8) .LBB1_6923: vpextrb $10, %xmm0, %eax testb $1, %cl je .LBB1_6925 movq 32128(%rbx), %rcx movq $0, (%r15,%rcx,8) .LBB1_6925: vpextrb $12, %xmm0, %ecx testb $1, %dl je .LBB1_6927 movq 32160(%rbx), %rdx movq $0, (%r15,%rdx,8) .LBB1_6927: vpextrb $14, %xmm0, %edx testb $1, %al je .LBB1_6929 movq 32000(%rbx), %rax movq $0, (%r15,%rax,8) .LBB1_6929: testb $1, %cl je .LBB1_6931 movq 32032(%rbx), %rax movq $0, (%r15,%rax,8) .LBB1_6931: testb $1, %dl je .LBB1_6933 jmp .LBB1_6932 .LBB1_6916: movq 31936(%rbx), %rax movq $0, (%r15,%rax,8) movq 31968(%rbx), %rax movq $0, (%r15,%rax,8) movq 32096(%rbx), %rax movq $0, (%r15,%rax,8) movq 32128(%rbx), %rax movq $0, (%r15,%rax,8) movq 32160(%rbx), %rax movq $0, (%r15,%rax,8) movq 32000(%rbx), %rax movq $0, (%r15,%rax,8) movq 32032(%rbx), %rax movq $0, (%r15,%rax,8) .LBB1_6932: movq 32064(%rbx), %rax movq $0, (%r15,%rax,8) .LBB1_6933: vandps %xmm15, %xmm9, %xmm0 vxorps %xmm14, %xmm0, %xmm1 vpmovzxwd %xmm1, %xmm2 vpslld $31, %xmm2, %xmm2 vpsrad $31, %xmm2, %xmm2 vpunpckhwd %xmm0, %xmm1, %xmm1 vpslld $31, %xmm1, %xmm1 vpsrad $31, %xmm1, %xmm1 vinsertf128 $1, %xmm1, %ymm2, %ymm1 vmovdqa 4800(%rbx), %ymm2 vptest %ymm2, %ymm1 jb .LBB1_6952 vpmovzxwd %xmm0, %xmm1 vpslld $31, %xmm1, %xmm1 vpsrad $31, %xmm1, %xmm1 vpunpckhwd %xmm0, %xmm0, %xmm2 vpslld $31, %xmm2, %xmm2 vpsrad $31, %xmm2, %xmm2 vinsertf128 $1, %xmm2, %ymm1, %ymm1 vmovdqa 4768(%rbx), %ymm2 vptest %ymm2, %ymm1 jb .LBB1_6935 vpextrb $0, %xmm0, %ecx vpextrb $2, %xmm0, %edx vpextrb $4, %xmm0, %eax testb $1, %cl je .LBB1_6938 movq 32448(%rbx), %rcx movq $0, (%rsi,%rcx,8) .LBB1_6938: vpextrb $6, %xmm0, %ecx testb $1, %dl je .LBB1_6940 movq 32480(%rbx), %rdx movq $0, (%rsi,%rdx,8) .LBB1_6940: vpextrb $8, %xmm0, %edx testb $1, %al je .LBB1_6942 movq 32544(%rbx), %rax movq $0, (%rsi,%rax,8) .LBB1_6942: vpextrb $10, %xmm0, %eax testb $1, %cl je .LBB1_6944 movq 32576(%rbx), %rcx movq $0, (%rsi,%rcx,8) .LBB1_6944: vpextrb $12, %xmm0, %ecx testb $1, %dl je .LBB1_6946 movq 32640(%rbx), %rdx movq $0, (%rsi,%rdx,8) .LBB1_6946: vpextrb $14, %xmm0, %edx testb $1, %al je .LBB1_6948 movq 32672(%rbx), %rax movq $0, (%rsi,%rax,8) .LBB1_6948: testb $1, %cl je .LBB1_6950 movq 32704(%rbx), %rax movq $0, (%rsi,%rax,8) .LBB1_6950: testb $1, %dl je .LBB1_6952 jmp .LBB1_6951 .LBB1_6935: movq 32448(%rbx), %rax movq $0, (%rsi,%rax,8) movq 32480(%rbx), %rax movq $0, (%rsi,%rax,8) movq 32544(%rbx), %rax movq $0, (%rsi,%rax,8) movq 32576(%rbx), %rax movq $0, (%rsi,%rax,8) movq 32640(%rbx), %rax movq $0, (%rsi,%rax,8) movq 32672(%rbx), %rax movq $0, (%rsi,%rax,8) movq 32704(%rbx), %rax movq $0, (%rsi,%rax,8) .LBB1_6951: movq 32512(%rbx), %rax movq $0, (%rsi,%rax,8) .align 16, 0x90 .LBB1_6952: vmovdqa 29696(%rbx), %xmm0 vpaddq %xmm5, %xmm0, %xmm0 vpextrq $1, %xmm0, %r9 vmovd %xmm0, %rax vmovdqa 29728(%rbx), %xmm0 vpaddq %xmm5, %xmm0, %xmm0 vmovdqa 30528(%rbx), %ymm1 vpaddq %xmm5, %xmm1, %xmm1 vpextrq $1, %xmm1, %rcx vmovd %xmm1, %rdx vpextrq $1, %xmm0, %r11 vpaddq %xmm5, %xmm8, %xmm1 vmovd %xmm0, %r14 vpextrq $1, %xmm1, %r8 vmovd %xmm1, %r10 cmpl $0, 31744(%rbx) je .LBB1_6954 vmovaps 31360(%rbx), %ymm0 vmovsd %xmm0, (%r13,%rdx,8) vmovaps 27104(%rbx), %xmm0 vmovsd %xmm0, (%r13,%rcx,8) vmovaps 27200(%rbx), %xmm0 vmovsd %xmm0, (%r13,%rax,8) vmovaps 27136(%rbx), %xmm0 vmovsd %xmm0, (%r13,%r9,8) vmovaps 31392(%rbx), %ymm0 vmovsd %xmm0, (%r13,%r10,8) vmovaps 27168(%rbx), %xmm0 vmovsd %xmm0, (%r13,%r8,8) vmovaps 27072(%rbx), %xmm0 vmovsd %xmm0, (%r13,%r14,8) vmovaps 27232(%rbx), %xmm0 vmovsd %xmm0, (%r13,%r11,8) vpaddq %xmm5, %xmm4, %xmm2 vmovd %xmm2, %r8 vextractf128 $1, %ymm4, %xmm0 vpaddq %xmm5, %xmm0, %xmm0 vextractf128 $1, %ymm13, %xmm1 vmovaps 26112(%rbx), %ymm3 vmovsd %xmm3, (%r15,%r8,8) vpaddq %xmm5, %xmm1, %xmm1 vpextrq $1, %xmm2, %r9 vpaddq %xmm5, %xmm13, %xmm2 vpextrq $1, %xmm2, %r11 vpextrq $1, %xmm0, %rdi vmovaps 22112(%rbx), %xmm3 vmovsd %xmm3, (%r15,%r9,8) vpextrq $1, %xmm1, %r10 vmovd %xmm1, %rax vmovd %xmm2, %rcx vmovd %xmm0, %rdx vmovaps 24064(%rbx), %xmm0 vmovsd %xmm0, (%r15,%rdx,8) vmovaps 22208(%rbx), %xmm0 vmovsd %xmm0, (%r15,%rdi,8) vmovaps 26176(%rbx), %ymm0 vmovsd %xmm0, (%r15,%rcx,8) vmovaps 22272(%rbx), %xmm0 vmovsd %xmm0, (%r15,%r11,8) vmovaps 24128(%rbx), %xmm0 vmovsd %xmm0, (%r15,%rax,8) vmovaps 22304(%rbx), %xmm0 vmovsd %xmm0, (%r15,%r10,8) vmovaps 26144(%rbx), %ymm0 vmovsd %xmm0, (%rsi,%r8,8) vmovaps 22080(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%r9,8) vmovaps 24032(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%rdx,8) vmovaps 22144(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%rdi,8) vmovaps 26208(%rbx), %ymm0 vmovsd %xmm0, (%rsi,%rcx,8) vmovaps 22176(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%r11,8) vmovaps 24096(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%rax,8) vmovapd 22240(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%r10,8) jmp .LBB1_7002 .align 16, 0x90 .LBB1_6954: movq 32792(%rbx), %rdi testb $1, 288(%r12,%rdi) vmovaps 31360(%rbx), %ymm0 je .LBB1_6956 vmovsd %xmm0, (%r13,%rdx,8) .LBB1_6956: movq 32792(%rbx), %rdx testb $1, 292(%r12,%rdx) je .LBB1_6958 vmovaps 27104(%rbx), %xmm0 vmovsd %xmm0, (%r13,%rcx,8) .LBB1_6958: movq 32792(%rbx), %rcx testb $1, 296(%r12,%rcx) je .LBB1_6960 vmovaps 27200(%rbx), %xmm0 vmovsd %xmm0, (%r13,%rax,8) .LBB1_6960: movq 32792(%rbx), %rax testb $1, 300(%r12,%rax) vmovaps 31392(%rbx), %ymm0 je .LBB1_6962 vmovapd 27136(%rbx), %xmm1 vmovsd %xmm1, (%r13,%r9,8) .LBB1_6962: movq 32792(%rbx), %rax testb $1, 304(%r12,%rax) je .LBB1_6964 vmovsd %xmm0, (%r13,%r10,8) .LBB1_6964: movq 32792(%rbx), %rax testb $1, 308(%r12,%rax) je .LBB1_6966 vmovaps 27168(%rbx), %xmm0 vmovsd %xmm0, (%r13,%r8,8) .LBB1_6966: movq 32792(%rbx), %rax testb $1, 312(%r12,%rax) je .LBB1_6968 vmovaps 27072(%rbx), %xmm0 vmovsd %xmm0, (%r13,%r14,8) .LBB1_6968: movq 32792(%rbx), %rax testb $1, 316(%r12,%rax) je .LBB1_6970 vmovaps 27232(%rbx), %xmm0 vmovsd %xmm0, (%r13,%r11,8) .LBB1_6970: movq %r13, %r9 vextractf128 $1, %ymm4, %xmm0 vpaddq %xmm5, %xmm4, %xmm1 vmovd %xmm1, %r11 movq 32792(%rbx), %rax testb $1, 288(%rax,%r12) je .LBB1_6972 vmovaps 26112(%rbx), %ymm2 vmovsd %xmm2, (%r15,%r11,8) .LBB1_6972: vpaddq %xmm5, %xmm0, %xmm0 vpextrq $1, %xmm1, %r13 movq 32792(%rbx), %rax testb $1, 292(%rax,%r12) je .LBB1_6974 vmovapd 22112(%rbx), %xmm1 vmovsd %xmm1, (%r15,%r13,8) .LBB1_6974: vmovd %xmm0, %r14 movq 32792(%rbx), %rax testb $1, 296(%rax,%r12) je .LBB1_6976 vmovapd 24064(%rbx), %xmm1 vmovsd %xmm1, (%r15,%r14,8) .LBB1_6976: vpaddq %xmm5, %xmm13, %xmm1 vpextrq $1, %xmm0, %r8 movq 32792(%rbx), %rax testb $1, 300(%rax,%r12) je .LBB1_6978 vmovapd 22208(%rbx), %xmm0 vmovsd %xmm0, (%r15,%r8,8) .LBB1_6978: vextractf128 $1, %ymm13, %xmm0 vmovd %xmm1, %r10 movq 32792(%rbx), %rax testb $1, 304(%rax,%r12) je .LBB1_6980 vmovaps 26176(%rbx), %ymm2 vmovsd %xmm2, (%r15,%r10,8) .LBB1_6980: vpaddq %xmm5, %xmm0, %xmm0 vpextrq $1, %xmm1, %rax movq 32792(%rbx), %rcx testb $1, 308(%rcx,%r12) je .LBB1_6982 vmovapd 22272(%rbx), %xmm1 vmovsd %xmm1, (%r15,%rax,8) .LBB1_6982: vmovd %xmm0, %rcx movq 32792(%rbx), %rdx testb $1, 312(%rdx,%r12) je .LBB1_6984 vmovapd 24128(%rbx), %xmm1 vmovsd %xmm1, (%r15,%rcx,8) .LBB1_6984: vpextrq $1, %xmm0, %rdx movq 32792(%rbx), %rdi testb $1, 316(%rdi,%r12) je .LBB1_6986 vmovapd 22304(%rbx), %xmm0 vmovsd %xmm0, (%r15,%rdx,8) .LBB1_6986: movq 32792(%rbx), %rdi testb $1, 288(%rdi,%r12) je .LBB1_6988 vmovapd 26144(%rbx), %ymm0 vmovsd %xmm0, (%rsi,%r11,8) .LBB1_6988: movq 32792(%rbx), %rdi testb $1, 292(%rdi,%r12) je .LBB1_6990 vmovapd 22080(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%r13,8) .LBB1_6990: testb $1, 296(%rdi,%r12) je .LBB1_6992 vmovapd 24032(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%r14,8) .LBB1_6992: testb $1, 300(%rdi,%r12) movq %r9, %r13 je .LBB1_6994 vmovapd 22144(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%r8,8) .LBB1_6994: testb $1, 304(%rdi,%r12) je .LBB1_6996 vmovapd 26208(%rbx), %ymm0 vmovsd %xmm0, (%rsi,%r10,8) .LBB1_6996: testb $1, 308(%rdi,%r12) je .LBB1_6998 vmovapd 22176(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%rax,8) .LBB1_6998: testb $1, 312(%rdi,%r12) je .LBB1_7000 vmovapd 24096(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%rcx,8) .LBB1_7000: testb $1, 316(%rdi,%r12) je .LBB1_7002 vmovapd 22240(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%rdx,8) .LBB1_7002: movq %r13, %r9 movq %rsi, %r8 cmpl $0, 30496(%rbx) jne .LBB1_7021 vmovaps 30592(%rbx), %ymm2 vextractf128 $1, %ymm2, %xmm1 vmovaps 30624(%rbx), %ymm3 vextractf128 $1, %ymm3, %xmm0 vpaddq %xmm5, %xmm0, %xmm0 vpaddq %xmm5, %xmm2, %xmm2 vmovdqa %xmm5, %xmm6 vpaddq %xmm6, %xmm1, %xmm5 vpmovzxwd %xmm10, %xmm1 vpslld $31, %xmm1, %xmm1 vpextrq $1, %xmm5, %r10 vmovd %xmm5, %rax vmovdqa %xmm6, %xmm5 vpextrq $1, %xmm2, %rcx vmovd %xmm2, %rdx vpextrq $1, %xmm0, %r11 vmovd %xmm0, %r14 vpaddq %xmm5, %xmm3, %xmm0 vpsrad $31, %xmm1, %xmm1 vpunpckhwd %xmm0, %xmm10, %xmm2 vpslld $31, %xmm2, %xmm2 vpsrad $31, %xmm2, %xmm2 vinsertf128 $1, %xmm2, %ymm1, %ymm1 vpextrq $1, %xmm0, %r13 vmovd %xmm0, %rdi vmovdqa 4928(%rbx), %ymm0 vptest %ymm0, %ymm1 jb .LBB1_7004 movl 30976(%rbx), %esi testb $1, %sil je .LBB1_7007 vmovdqa 21056(%rbx), %ymm0 vmovsd %xmm0, (%r15,%rdx,8) .LBB1_7007: movl 31040(%rbx), %edx testb $1, %dl je .LBB1_7009 vmovdqa 19200(%rbx), %xmm0 vmovsd %xmm0, (%r15,%rcx,8) .LBB1_7009: movl 31072(%rbx), %ecx testb $1, %cl je .LBB1_7011 vmovdqa 20416(%rbx), %xmm0 vmovsd %xmm0, (%r15,%rax,8) .LBB1_7011: movl 31168(%rbx), %eax testb $1, %al je .LBB1_7013 vmovdqa 19232(%rbx), %xmm0 vmovsd %xmm0, (%r15,%r10,8) .LBB1_7013: movl 31200(%rbx), %eax testb $1, %al je .LBB1_7015 vmovdqa 21088(%rbx), %ymm0 vmovsd %xmm0, (%r15,%rdi,8) .LBB1_7015: movl 31264(%rbx), %eax testb $1, %al je .LBB1_7017 vmovdqa 19264(%rbx), %xmm0 vmovsd %xmm0, (%r15,%r13,8) .LBB1_7017: movl 31616(%rbx), %eax testb $1, %al je .LBB1_7019 vmovdqa 20448(%rbx), %xmm0 vmovsd %xmm0, (%r15,%r14,8) .LBB1_7019: movl 31648(%rbx), %eax testb $1, %al je .LBB1_7021 jmp .LBB1_7020 .LBB1_7004: vmovaps 21056(%rbx), %ymm0 vmovsd %xmm0, (%r15,%rdx,8) vmovaps 19200(%rbx), %xmm0 vmovsd %xmm0, (%r15,%rcx,8) vmovaps 20416(%rbx), %xmm0 vmovsd %xmm0, (%r15,%rax,8) vmovaps 19232(%rbx), %xmm0 vmovsd %xmm0, (%r15,%r10,8) vmovaps 21088(%rbx), %ymm0 vmovsd %xmm0, (%r15,%rdi,8) vmovaps 19264(%rbx), %xmm0 vmovsd %xmm0, (%r15,%r13,8) vmovdqa 20448(%rbx), %xmm0 vmovsd %xmm0, (%r15,%r14,8) .LBB1_7020: vmovapd 19296(%rbx), %xmm0 vmovsd %xmm0, (%r15,%r11,8) .LBB1_7021: cmpl $0, 30464(%rbx) movq %r8, %rsi jne .LBB1_7040 vmovaps 30656(%rbx), %ymm2 vextractf128 $1, %ymm2, %xmm1 vmovaps 30688(%rbx), %ymm3 vextractf128 $1, %ymm3, %xmm0 vpaddq %xmm5, %xmm0, %xmm0 vpaddq %xmm5, %xmm2, %xmm2 vmovdqa %xmm5, %xmm6 vpaddq %xmm6, %xmm1, %xmm5 vpmovzxwd %xmm7, %xmm1 vpslld $31, %xmm1, %xmm1 vpextrq $1, %xmm5, %r8 vmovd %xmm5, %rax vpextrq $1, %xmm2, %rcx vmovd %xmm2, %rdx vpextrq $1, %xmm0, %r11 vmovd %xmm0, %r14 vpaddq %xmm6, %xmm3, %xmm0 vpsrad $31, %xmm1, %xmm1 vpunpckhwd %xmm0, %xmm7, %xmm2 vpslld $31, %xmm2, %xmm2 vpsrad $31, %xmm2, %xmm2 vinsertf128 $1, %xmm2, %ymm1, %ymm1 vpextrq $1, %xmm0, %r13 vmovd %xmm0, %r10 vmovdqa 4960(%rbx), %ymm0 vptest %ymm0, %ymm1 jb .LBB1_7023 movl 30816(%rbx), %edi testb $1, %dil je .LBB1_7026 vmovdqa 29888(%rbx), %ymm0 vmovsd %xmm0, (%rsi,%rdx,8) .LBB1_7026: movl 30848(%rbx), %edx testb $1, %dl je .LBB1_7028 vmovdqa 28544(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%rcx,8) .LBB1_7028: movl 30880(%rbx), %ecx testb $1, %cl je .LBB1_7030 vmovdqa 28672(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%rax,8) .LBB1_7030: movl 30912(%rbx), %eax testb $1, %al je .LBB1_7032 vmovdqa 28576(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%r8,8) .LBB1_7032: movl 30944(%rbx), %eax testb $1, %al je .LBB1_7034 vmovdqa 29920(%rbx), %ymm0 vmovsd %xmm0, (%rsi,%r10,8) .LBB1_7034: movl 31008(%rbx), %eax testb $1, %al je .LBB1_7036 vmovdqa 28608(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%r13,8) .LBB1_7036: movl 31232(%rbx), %eax testb $1, %al je .LBB1_7038 vmovdqa 28704(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%r14,8) .LBB1_7038: movl 31552(%rbx), %eax testb $1, %al je .LBB1_7040 jmp .LBB1_7039 .LBB1_7023: vmovaps 29888(%rbx), %ymm0 vmovsd %xmm0, (%rsi,%rdx,8) vmovaps 28544(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%rcx,8) vmovaps 28672(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%rax,8) vmovaps 28576(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%r8,8) vmovaps 29920(%rbx), %ymm0 vmovsd %xmm0, (%rsi,%r10,8) vmovaps 28608(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%r13,8) vmovdqa 28704(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%r14,8) .LBB1_7039: vmovapd 28640(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%r11,8) .LBB1_7040: cmpl $0, 30432(%rbx) movq %r9, %r13 movl 31808(%rbx), %r9d movl 31776(%rbx), %r10d jne .LBB1_7130 vpmovzxwd %xmm9, %xmm0 vpslld $31, %xmm0, %xmm0 vpsrad $31, %xmm0, %xmm0 vpunpckhwd %xmm0, %xmm9, %xmm1 vpslld $31, %xmm1, %xmm1 vpsrad $31, %xmm1, %xmm1 vinsertf128 $1, %xmm1, %ymm0, %ymm0 vmovdqa 5120(%rbx), %ymm1 vptest %ymm1, %ymm0 jb .LBB1_7042 movl 31872(%rbx), %eax testb $1, %al movl 31712(%rbx), %r8d movl 31680(%rbx), %edx movl 30560(%rbx), %edi movl 31584(%rbx), %ecx je .LBB1_7045 movq 32192(%rbx), %rax movq $0, (%r13,%rax,8) .LBB1_7045: movl 31904(%rbx), %eax testb $1, %al je .LBB1_7047 movq 32256(%rbx), %rax movq $0, (%r13,%rax,8) .LBB1_7047: testb $1, %r10b je .LBB1_7049 movq 32224(%rbx), %rax movq $0, (%r13,%rax,8) .LBB1_7049: testb $1, %r9b je .LBB1_7051 movq 32288(%rbx), %rax movq $0, (%r13,%rax,8) .LBB1_7051: testb $1, %cl je .LBB1_7053 movq 32320(%rbx), %rax movq $0, (%r13,%rax,8) .LBB1_7053: testb $1, %dil je .LBB1_7055 movq 32384(%rbx), %rax movq $0, (%r13,%rax,8) .LBB1_7055: testb $1, %dl je .LBB1_7057 movq 32352(%rbx), %rax movq $0, (%r13,%rax,8) .LBB1_7057: testb $1, %r8b je .LBB1_7059 movq 32416(%rbx), %rax movq $0, (%r13,%rax,8) .LBB1_7059: movl 31872(%rbx), %eax testb $1, %al je .LBB1_7061 movq 32832(%rbx), %rax movq $0, (%r15,%rax,8) .LBB1_7061: movl 31904(%rbx), %eax testb $1, %al je .LBB1_7063 movq 32864(%rbx), %rax movq $0, (%r15,%rax,8) .LBB1_7063: testb $1, %r10b je .LBB1_7065 movq 32736(%rbx), %rax movq $0, (%r15,%rax,8) .LBB1_7065: testb $1, %r9b je .LBB1_7067 movq 32800(%rbx), %rax movq $0, (%r15,%rax,8) .LBB1_7067: testb $1, %cl je .LBB1_7069 movq 32896(%rbx), %rax movq $0, (%r15,%rax,8) .LBB1_7069: testb $1, %dil je .LBB1_7071 movq 32928(%rbx), %rax movq $0, (%r15,%rax,8) .LBB1_7071: testb $1, %dl je .LBB1_7073 movq 32960(%rbx), %rax movq $0, (%r15,%rax,8) .LBB1_7073: testb $1, %r8b je .LBB1_7075 movq 32992(%rbx), %rax movq $0, (%r15,%rax,8) .LBB1_7075: movl 31872(%rbx), %eax testb $1, %al je .LBB1_7077 movq 32832(%rbx), %rax movq $0, (%rsi,%rax,8) .LBB1_7077: movl 31904(%rbx), %eax testb $1, %al je .LBB1_7079 movq 32864(%rbx), %rax movq $0, (%rsi,%rax,8) .LBB1_7079: testb $1, %r10b je .LBB1_7081 movq 32736(%rbx), %rax movq $0, (%rsi,%rax,8) .LBB1_7081: testb $1, %r9b je .LBB1_7083 movq 32800(%rbx), %rax movq $0, (%rsi,%rax,8) .LBB1_7083: testb $1, %cl je .LBB1_7085 movq 32896(%rbx), %rax movq $0, (%rsi,%rax,8) .LBB1_7085: testb $1, %dil je .LBB1_7087 movq 32928(%rbx), %rax movq $0, (%rsi,%rax,8) .LBB1_7087: testb $1, %dl je .LBB1_7089 movq 32960(%rbx), %rax movq $0, (%rsi,%rax,8) .LBB1_7089: testb $1, %r8b je .LBB1_7092 movq 32992(%rbx), %rax jmp .LBB1_7091 .LBB1_7042: movq 32192(%rbx), %rax movq $0, (%r13,%rax,8) movq 32256(%rbx), %rax movq $0, (%r13,%rax,8) movq 32224(%rbx), %rax movq $0, (%r13,%rax,8) movq 32288(%rbx), %rax movq $0, (%r13,%rax,8) movq 32320(%rbx), %rax movq $0, (%r13,%rax,8) movq 32384(%rbx), %rax movq $0, (%r13,%rax,8) movq 32352(%rbx), %rax movq $0, (%r13,%rax,8) movq 32416(%rbx), %rax movq $0, (%r13,%rax,8) movq 32832(%rbx), %r11 movq $0, (%r15,%r11,8) movq 32864(%rbx), %r10 movq $0, (%r15,%r10,8) movq 32736(%rbx), %r9 movq $0, (%r15,%r9,8) movq 32800(%rbx), %r8 movq $0, (%r15,%r8,8) movq 32896(%rbx), %rdi movq $0, (%r15,%rdi,8) movq 32928(%rbx), %rdx movq $0, (%r15,%rdx,8) movq 32960(%rbx), %rcx movq $0, (%r15,%rcx,8) movq 32992(%rbx), %rax movq $0, (%r15,%rax,8) movq $0, (%rsi,%r11,8) movq $0, (%rsi,%r10,8) movq $0, (%rsi,%r9,8) movq $0, (%rsi,%r8,8) movq $0, (%rsi,%rdi,8) movq $0, (%rsi,%rdx,8) movq $0, (%rsi,%rcx,8) .LBB1_7091: movq $0, (%rsi,%rax,8) .LBB1_7092: vmovdqa 31840(%rbx), %ymm0 vpcmpeqd .LCPI1_36(%rip), %xmm0, %xmm0 vpshufb .LCPI1_5(%rip), %xmm0, %xmm0 vmovlhps %xmm11, %xmm0, %xmm0 vandps %xmm0, %xmm9, %xmm0 vxorps %xmm14, %xmm0, %xmm1 vpmovzxwd %xmm1, %xmm2 vpslld $31, %xmm2, %xmm2 vpsrad $31, %xmm2, %xmm2 vpunpckhwd %xmm0, %xmm1, %xmm1 vpslld $31, %xmm1, %xmm1 vpsrad $31, %xmm1, %xmm1 vinsertf128 $1, %xmm1, %ymm2, %ymm1 vmovdqa 5088(%rbx), %ymm2 vptest %ymm2, %ymm1 jb .LBB1_7111 vpmovzxwd %xmm0, %xmm1 vpslld $31, %xmm1, %xmm1 vpsrad $31, %xmm1, %xmm1 vpunpckhwd %xmm0, %xmm0, %xmm2 vpslld $31, %xmm2, %xmm2 vpsrad $31, %xmm2, %xmm2 vinsertf128 $1, %xmm2, %ymm1, %ymm1 vmovdqa 5056(%rbx), %ymm2 vptest %ymm2, %ymm1 jb .LBB1_7094 vpextrb $0, %xmm0, %ecx vpextrb $2, %xmm0, %edx vpextrb $4, %xmm0, %eax testb $1, %cl je .LBB1_7097 movq 31936(%rbx), %rcx movq $0, (%r15,%rcx,8) .LBB1_7097: vpextrb $6, %xmm0, %ecx testb $1, %dl je .LBB1_7099 movq 31968(%rbx), %rdx movq $0, (%r15,%rdx,8) .LBB1_7099: vpextrb $8, %xmm0, %edx testb $1, %al je .LBB1_7101 movq 32096(%rbx), %rax movq $0, (%r15,%rax,8) .LBB1_7101: vpextrb $10, %xmm0, %eax testb $1, %cl je .LBB1_7103 movq 32128(%rbx), %rcx movq $0, (%r15,%rcx,8) .LBB1_7103: vpextrb $12, %xmm0, %ecx testb $1, %dl je .LBB1_7105 movq 32160(%rbx), %rdx movq $0, (%r15,%rdx,8) .LBB1_7105: vpextrb $14, %xmm0, %edx testb $1, %al je .LBB1_7107 movq 32000(%rbx), %rax movq $0, (%r15,%rax,8) .LBB1_7107: testb $1, %cl je .LBB1_7109 movq 32032(%rbx), %rax movq $0, (%r15,%rax,8) .LBB1_7109: testb $1, %dl je .LBB1_7111 jmp .LBB1_7110 .LBB1_7094: movq 31936(%rbx), %rax movq $0, (%r15,%rax,8) movq 31968(%rbx), %rax movq $0, (%r15,%rax,8) movq 32096(%rbx), %rax movq $0, (%r15,%rax,8) movq 32128(%rbx), %rax movq $0, (%r15,%rax,8) movq 32160(%rbx), %rax movq $0, (%r15,%rax,8) movq 32000(%rbx), %rax movq $0, (%r15,%rax,8) movq 32032(%rbx), %rax movq $0, (%r15,%rax,8) .LBB1_7110: movq 32064(%rbx), %rax movq $0, (%r15,%rax,8) .LBB1_7111: vandps %xmm15, %xmm9, %xmm0 vxorps %xmm14, %xmm0, %xmm1 vpmovzxwd %xmm1, %xmm2 vpslld $31, %xmm2, %xmm2 vpsrad $31, %xmm2, %xmm2 vpunpckhwd %xmm0, %xmm1, %xmm1 vpslld $31, %xmm1, %xmm1 vpsrad $31, %xmm1, %xmm1 vinsertf128 $1, %xmm1, %ymm2, %ymm1 vmovdqa 5024(%rbx), %ymm2 vptest %ymm2, %ymm1 jb .LBB1_7130 vpmovzxwd %xmm0, %xmm1 vpslld $31, %xmm1, %xmm1 vpsrad $31, %xmm1, %xmm1 vpunpckhwd %xmm0, %xmm0, %xmm2 vpslld $31, %xmm2, %xmm2 vpsrad $31, %xmm2, %xmm2 vinsertf128 $1, %xmm2, %ymm1, %ymm1 vmovdqa 4992(%rbx), %ymm2 vptest %ymm2, %ymm1 jb .LBB1_7113 vpextrb $0, %xmm0, %ecx vpextrb $2, %xmm0, %edx vpextrb $4, %xmm0, %eax testb $1, %cl je .LBB1_7116 movq 32448(%rbx), %rcx movq $0, (%rsi,%rcx,8) .LBB1_7116: vpextrb $6, %xmm0, %ecx testb $1, %dl je .LBB1_7118 movq 32480(%rbx), %rdx movq $0, (%rsi,%rdx,8) .LBB1_7118: vpextrb $8, %xmm0, %edx testb $1, %al je .LBB1_7120 movq 32544(%rbx), %rax movq $0, (%rsi,%rax,8) .LBB1_7120: vpextrb $10, %xmm0, %eax testb $1, %cl je .LBB1_7122 movq 32576(%rbx), %rcx movq $0, (%rsi,%rcx,8) .LBB1_7122: vpextrb $12, %xmm0, %ecx testb $1, %dl je .LBB1_7124 movq 32640(%rbx), %rdx movq $0, (%rsi,%rdx,8) .LBB1_7124: vpextrb $14, %xmm0, %edx testb $1, %al je .LBB1_7126 movq 32672(%rbx), %rax movq $0, (%rsi,%rax,8) .LBB1_7126: testb $1, %cl je .LBB1_7128 movq 32704(%rbx), %rax movq $0, (%rsi,%rax,8) .LBB1_7128: testb $1, %dl je .LBB1_7130 jmp .LBB1_7129 .LBB1_7113: movq 32448(%rbx), %rax movq $0, (%rsi,%rax,8) movq 32480(%rbx), %rax movq $0, (%rsi,%rax,8) movq 32544(%rbx), %rax movq $0, (%rsi,%rax,8) movq 32576(%rbx), %rax movq $0, (%rsi,%rax,8) movq 32640(%rbx), %rax movq $0, (%rsi,%rax,8) movq 32672(%rbx), %rax movq $0, (%rsi,%rax,8) movq 32704(%rbx), %rax movq $0, (%rsi,%rax,8) .LBB1_7129: movq 32512(%rbx), %rax movq $0, (%rsi,%rax,8) .align 16, 0x90 .LBB1_7130: vmovdqa .LCPI1_11(%rip), %xmm5 vmovdqa 29696(%rbx), %xmm0 vpaddq %xmm5, %xmm0, %xmm0 vpextrq $1, %xmm0, %r9 vmovd %xmm0, %rax vmovdqa 29728(%rbx), %xmm0 vpaddq %xmm5, %xmm0, %xmm0 vmovdqa 30528(%rbx), %ymm1 vpaddq %xmm5, %xmm1, %xmm1 vpextrq $1, %xmm1, %rcx vmovd %xmm1, %rdx vpextrq $1, %xmm0, %r11 vpaddq %xmm5, %xmm8, %xmm1 vmovd %xmm0, %r14 vpextrq $1, %xmm1, %r8 vmovd %xmm1, %r10 cmpl $0, 31744(%rbx) je .LBB1_7132 vmovaps 18688(%rbx), %ymm0 vmovsd %xmm0, (%r13,%rdx,8) vmovaps 27264(%rbx), %xmm0 vmovsd %xmm0, (%r13,%rcx,8) vmovaps 27456(%rbx), %xmm0 vmovsd %xmm0, (%r13,%rax,8) vmovaps 27296(%rbx), %xmm0 vmovsd %xmm0, (%r13,%r9,8) vmovaps 31424(%rbx), %ymm0 vmovsd %xmm0, (%r13,%r10,8) vmovaps 27424(%rbx), %xmm0 vmovsd %xmm0, (%r13,%r8,8) vmovaps 27520(%rbx), %xmm0 vmovsd %xmm0, (%r13,%r14,8) vmovaps 27488(%rbx), %xmm0 vmovsd %xmm0, (%r13,%r11,8) vpaddq %xmm5, %xmm4, %xmm2 vmovd %xmm2, %r8 vextractf128 $1, %ymm4, %xmm0 vpaddq %xmm5, %xmm0, %xmm0 vextractf128 $1, %ymm13, %xmm1 vmovaps 26240(%rbx), %ymm3 vmovsd %xmm3, (%r15,%r8,8) vpaddq %xmm5, %xmm1, %xmm1 vpextrq $1, %xmm2, %r9 vpaddq %xmm5, %xmm13, %xmm2 vpextrq $1, %xmm2, %r11 vpextrq $1, %xmm0, %rdi vmovaps 22400(%rbx), %xmm3 vmovsd %xmm3, (%r15,%r9,8) vpextrq $1, %xmm1, %r10 vmovd %xmm1, %rax vmovd %xmm2, %rcx vmovd %xmm0, %rdx vmovaps 24192(%rbx), %xmm0 vmovsd %xmm0, (%r15,%rdx,8) vmovaps 22496(%rbx), %xmm0 vmovsd %xmm0, (%r15,%rdi,8) vmovaps 26304(%rbx), %ymm0 vmovsd %xmm0, (%r15,%rcx,8) vmovaps 22560(%rbx), %xmm0 vmovsd %xmm0, (%r15,%r11,8) vmovaps 24256(%rbx), %xmm0 vmovsd %xmm0, (%r15,%rax,8) vmovaps 22592(%rbx), %xmm0 vmovsd %xmm0, (%r15,%r10,8) vmovaps 26272(%rbx), %ymm0 vmovsd %xmm0, (%rsi,%r8,8) vmovaps 22336(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%r9,8) vmovaps 24160(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%rdx,8) vmovaps 22368(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%rdi,8) vmovaps 21792(%rbx), %ymm0 vmovsd %xmm0, (%rsi,%rcx,8) vmovaps 22464(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%r11,8) vmovaps 24224(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%rax,8) vmovapd 22528(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%r10,8) jmp .LBB1_7180 .align 16, 0x90 .LBB1_7132: movq 32792(%rbx), %rdi testb $1, 288(%r12,%rdi) vmovaps 18688(%rbx), %ymm0 je .LBB1_7134 vmovsd %xmm0, (%r13,%rdx,8) .LBB1_7134: movq 32792(%rbx), %rdx testb $1, 292(%r12,%rdx) je .LBB1_7136 vmovaps 27264(%rbx), %xmm0 vmovsd %xmm0, (%r13,%rcx,8) .LBB1_7136: movq 32792(%rbx), %rcx testb $1, 296(%r12,%rcx) je .LBB1_7138 vmovaps 27456(%rbx), %xmm0 vmovsd %xmm0, (%r13,%rax,8) .LBB1_7138: movq 32792(%rbx), %rax testb $1, 300(%r12,%rax) vmovaps 31424(%rbx), %ymm0 je .LBB1_7140 vmovapd 27296(%rbx), %xmm1 vmovsd %xmm1, (%r13,%r9,8) .LBB1_7140: movq 32792(%rbx), %rax testb $1, 304(%r12,%rax) je .LBB1_7142 vmovsd %xmm0, (%r13,%r10,8) .LBB1_7142: movq 32792(%rbx), %rax testb $1, 308(%r12,%rax) je .LBB1_7144 vmovaps 27424(%rbx), %xmm0 vmovsd %xmm0, (%r13,%r8,8) .LBB1_7144: movq 32792(%rbx), %rax testb $1, 312(%r12,%rax) je .LBB1_7146 vmovaps 27520(%rbx), %xmm0 vmovsd %xmm0, (%r13,%r14,8) .LBB1_7146: movq 32792(%rbx), %rax testb $1, 316(%r12,%rax) je .LBB1_7148 vmovaps 27488(%rbx), %xmm0 vmovsd %xmm0, (%r13,%r11,8) .LBB1_7148: movq %r13, %r9 vextractf128 $1, %ymm4, %xmm0 vpaddq .LCPI1_11(%rip), %xmm4, %xmm1 vmovd %xmm1, %r11 movq 32792(%rbx), %rax testb $1, 288(%rax,%r12) je .LBB1_7150 vmovaps 26240(%rbx), %ymm2 vmovsd %xmm2, (%r15,%r11,8) .LBB1_7150: vpaddq .LCPI1_11(%rip), %xmm0, %xmm0 vpextrq $1, %xmm1, %r13 movq 32792(%rbx), %rax testb $1, 292(%rax,%r12) je .LBB1_7152 vmovapd 22400(%rbx), %xmm1 vmovsd %xmm1, (%r15,%r13,8) .LBB1_7152: vmovd %xmm0, %r14 movq 32792(%rbx), %rax testb $1, 296(%rax,%r12) je .LBB1_7154 vmovapd 24192(%rbx), %xmm1 vmovsd %xmm1, (%r15,%r14,8) .LBB1_7154: vpaddq .LCPI1_11(%rip), %xmm13, %xmm1 vpextrq $1, %xmm0, %r8 movq 32792(%rbx), %rax testb $1, 300(%rax,%r12) je .LBB1_7156 vmovapd 22496(%rbx), %xmm0 vmovsd %xmm0, (%r15,%r8,8) .LBB1_7156: vextractf128 $1, %ymm13, %xmm0 vmovd %xmm1, %r10 movq 32792(%rbx), %rax testb $1, 304(%rax,%r12) je .LBB1_7158 vmovaps 26304(%rbx), %ymm2 vmovsd %xmm2, (%r15,%r10,8) .LBB1_7158: vpaddq .LCPI1_11(%rip), %xmm0, %xmm0 vpextrq $1, %xmm1, %rax movq 32792(%rbx), %rcx testb $1, 308(%rcx,%r12) je .LBB1_7160 vmovapd 22560(%rbx), %xmm1 vmovsd %xmm1, (%r15,%rax,8) .LBB1_7160: vmovd %xmm0, %rcx movq 32792(%rbx), %rdx testb $1, 312(%rdx,%r12) je .LBB1_7162 vmovapd 24256(%rbx), %xmm1 vmovsd %xmm1, (%r15,%rcx,8) .LBB1_7162: vpextrq $1, %xmm0, %rdx movq 32792(%rbx), %rdi testb $1, 316(%rdi,%r12) je .LBB1_7164 vmovapd 22592(%rbx), %xmm0 vmovsd %xmm0, (%r15,%rdx,8) .LBB1_7164: movq 32792(%rbx), %rdi testb $1, 288(%rdi,%r12) je .LBB1_7166 vmovapd 26272(%rbx), %ymm0 vmovsd %xmm0, (%rsi,%r11,8) .LBB1_7166: movq 32792(%rbx), %rdi testb $1, 292(%rdi,%r12) je .LBB1_7168 vmovapd 22336(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%r13,8) .LBB1_7168: testb $1, 296(%rdi,%r12) je .LBB1_7170 vmovapd 24160(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%r14,8) .LBB1_7170: testb $1, 300(%rdi,%r12) movq %r9, %r13 je .LBB1_7172 vmovapd 22368(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%r8,8) .LBB1_7172: testb $1, 304(%rdi,%r12) je .LBB1_7174 vmovapd 21792(%rbx), %ymm0 vmovsd %xmm0, (%rsi,%r10,8) .LBB1_7174: testb $1, 308(%rdi,%r12) je .LBB1_7176 vmovapd 22464(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%rax,8) .LBB1_7176: testb $1, 312(%rdi,%r12) je .LBB1_7178 vmovapd 24224(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%rcx,8) .LBB1_7178: testb $1, 316(%rdi,%r12) je .LBB1_7180 vmovapd 22528(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%rdx,8) .LBB1_7180: movq %r13, %r9 movq %rsi, %r8 cmpl $0, 30496(%rbx) jne .LBB1_7199 vmovaps 30592(%rbx), %ymm2 vextractf128 $1, %ymm2, %xmm1 vmovaps 30624(%rbx), %ymm3 vextractf128 $1, %ymm3, %xmm0 vmovdqa .LCPI1_11(%rip), %xmm6 vpaddq %xmm6, %xmm0, %xmm0 vpaddq %xmm6, %xmm2, %xmm2 vpaddq %xmm6, %xmm1, %xmm5 vpmovzxwd %xmm10, %xmm1 vpslld $31, %xmm1, %xmm1 vpextrq $1, %xmm5, %r10 vmovd %xmm5, %rax vpextrq $1, %xmm2, %rcx vmovd %xmm2, %rdx vpextrq $1, %xmm0, %r11 vmovd %xmm0, %r14 vpaddq %xmm6, %xmm3, %xmm0 vpsrad $31, %xmm1, %xmm1 vpunpckhwd %xmm0, %xmm10, %xmm2 vpslld $31, %xmm2, %xmm2 vpsrad $31, %xmm2, %xmm2 vinsertf128 $1, %xmm2, %ymm1, %ymm1 vpextrq $1, %xmm0, %r13 vmovd %xmm0, %rdi vmovdqa 5152(%rbx), %ymm0 vptest %ymm0, %ymm1 jb .LBB1_7182 movl 30976(%rbx), %esi testb $1, %sil je .LBB1_7185 vmovdqa 21120(%rbx), %ymm0 vmovsd %xmm0, (%r15,%rdx,8) .LBB1_7185: movl 31040(%rbx), %edx testb $1, %dl je .LBB1_7187 vmovdqa 19328(%rbx), %xmm0 vmovsd %xmm0, (%r15,%rcx,8) .LBB1_7187: movl 31072(%rbx), %ecx testb $1, %cl je .LBB1_7189 vmovdqa 20480(%rbx), %xmm0 vmovsd %xmm0, (%r15,%rax,8) .LBB1_7189: movl 31168(%rbx), %eax testb $1, %al je .LBB1_7191 vmovdqa 19360(%rbx), %xmm0 vmovsd %xmm0, (%r15,%r10,8) .LBB1_7191: movl 31200(%rbx), %eax testb $1, %al je .LBB1_7193 vmovdqa 21152(%rbx), %ymm0 vmovsd %xmm0, (%r15,%rdi,8) .LBB1_7193: movl 31264(%rbx), %eax testb $1, %al je .LBB1_7195 vmovdqa 19392(%rbx), %xmm0 vmovsd %xmm0, (%r15,%r13,8) .LBB1_7195: movl 31616(%rbx), %eax testb $1, %al je .LBB1_7197 vmovdqa 20512(%rbx), %xmm0 vmovsd %xmm0, (%r15,%r14,8) .LBB1_7197: movl 31648(%rbx), %eax testb $1, %al je .LBB1_7199 jmp .LBB1_7198 .LBB1_7182: vmovaps 21120(%rbx), %ymm0 vmovsd %xmm0, (%r15,%rdx,8) vmovaps 19328(%rbx), %xmm0 vmovsd %xmm0, (%r15,%rcx,8) vmovaps 20480(%rbx), %xmm0 vmovsd %xmm0, (%r15,%rax,8) vmovaps 19360(%rbx), %xmm0 vmovsd %xmm0, (%r15,%r10,8) vmovaps 21152(%rbx), %ymm0 vmovsd %xmm0, (%r15,%rdi,8) vmovaps 19392(%rbx), %xmm0 vmovsd %xmm0, (%r15,%r13,8) vmovdqa 20512(%rbx), %xmm0 vmovsd %xmm0, (%r15,%r14,8) .LBB1_7198: vmovapd 19424(%rbx), %xmm0 vmovsd %xmm0, (%r15,%r11,8) .LBB1_7199: cmpl $0, 30464(%rbx) movq %r8, %rsi jne .LBB1_7218 vmovaps 30656(%rbx), %ymm2 vextractf128 $1, %ymm2, %xmm1 vmovaps 30688(%rbx), %ymm3 vextractf128 $1, %ymm3, %xmm0 vmovdqa .LCPI1_11(%rip), %xmm6 vpaddq %xmm6, %xmm0, %xmm0 vpaddq %xmm6, %xmm2, %xmm2 vpaddq %xmm6, %xmm1, %xmm5 vpmovzxwd %xmm7, %xmm1 vpslld $31, %xmm1, %xmm1 vpextrq $1, %xmm5, %r8 vmovd %xmm5, %rax vpextrq $1, %xmm2, %rcx vmovd %xmm2, %rdx vpextrq $1, %xmm0, %r11 vmovd %xmm0, %r14 vpaddq %xmm6, %xmm3, %xmm0 vpsrad $31, %xmm1, %xmm1 vpunpckhwd %xmm0, %xmm7, %xmm2 vpslld $31, %xmm2, %xmm2 vpsrad $31, %xmm2, %xmm2 vinsertf128 $1, %xmm2, %ymm1, %ymm1 vpextrq $1, %xmm0, %r13 vmovd %xmm0, %r10 vmovdqa 5184(%rbx), %ymm0 vptest %ymm0, %ymm1 jb .LBB1_7201 movl 30816(%rbx), %edi testb $1, %dil je .LBB1_7204 vmovdqa 30720(%rbx), %ymm0 vmovsd %xmm0, (%rsi,%rdx,8) .LBB1_7204: movl 30848(%rbx), %edx testb $1, %dl je .LBB1_7206 vmovdqa 28736(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%rcx,8) .LBB1_7206: movl 30880(%rbx), %ecx testb $1, %cl je .LBB1_7208 vmovdqa 28864(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%rax,8) .LBB1_7208: movl 30912(%rbx), %eax testb $1, %al je .LBB1_7210 vmovdqa 28768(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%r8,8) .LBB1_7210: movl 30944(%rbx), %eax testb $1, %al je .LBB1_7212 vmovdqa 29952(%rbx), %ymm0 vmovsd %xmm0, (%rsi,%r10,8) .LBB1_7212: movl 31008(%rbx), %eax testb $1, %al je .LBB1_7214 vmovdqa 28800(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%r13,8) .LBB1_7214: movl 31232(%rbx), %eax testb $1, %al je .LBB1_7216 vmovdqa 28896(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%r14,8) .LBB1_7216: movl 31552(%rbx), %eax testb $1, %al je .LBB1_7218 jmp .LBB1_7217 .LBB1_7201: vmovaps 30720(%rbx), %ymm0 vmovsd %xmm0, (%rsi,%rdx,8) vmovaps 28736(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%rcx,8) vmovaps 28864(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%rax,8) vmovaps 28768(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%r8,8) vmovaps 29952(%rbx), %ymm0 vmovsd %xmm0, (%rsi,%r10,8) vmovaps 28800(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%r13,8) vmovdqa 28896(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%r14,8) .LBB1_7217: vmovapd 28832(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%r11,8) .LBB1_7218: cmpl $0, 30432(%rbx) movq %r9, %r13 vmovdqa .LCPI1_12(%rip), %xmm5 movl 31808(%rbx), %r9d movl 31776(%rbx), %r10d jne .LBB1_7308 vpmovzxwd %xmm9, %xmm0 vpslld $31, %xmm0, %xmm0 vpsrad $31, %xmm0, %xmm0 vpunpckhwd %xmm0, %xmm9, %xmm1 vpslld $31, %xmm1, %xmm1 vpsrad $31, %xmm1, %xmm1 vinsertf128 $1, %xmm1, %ymm0, %ymm0 vmovdqa 5344(%rbx), %ymm1 vptest %ymm1, %ymm0 jb .LBB1_7220 movl 31872(%rbx), %eax testb $1, %al movl 31712(%rbx), %r8d movl 31680(%rbx), %edx movl 30560(%rbx), %edi movl 31584(%rbx), %ecx je .LBB1_7223 movq 32192(%rbx), %rax movq $0, (%r13,%rax,8) .LBB1_7223: movl 31904(%rbx), %eax testb $1, %al je .LBB1_7225 movq 32256(%rbx), %rax movq $0, (%r13,%rax,8) .LBB1_7225: testb $1, %r10b je .LBB1_7227 movq 32224(%rbx), %rax movq $0, (%r13,%rax,8) .LBB1_7227: testb $1, %r9b je .LBB1_7229 movq 32288(%rbx), %rax movq $0, (%r13,%rax,8) .LBB1_7229: testb $1, %cl je .LBB1_7231 movq 32320(%rbx), %rax movq $0, (%r13,%rax,8) .LBB1_7231: testb $1, %dil je .LBB1_7233 movq 32384(%rbx), %rax movq $0, (%r13,%rax,8) .LBB1_7233: testb $1, %dl je .LBB1_7235 movq 32352(%rbx), %rax movq $0, (%r13,%rax,8) .LBB1_7235: testb $1, %r8b je .LBB1_7237 movq 32416(%rbx), %rax movq $0, (%r13,%rax,8) .LBB1_7237: movl 31872(%rbx), %eax testb $1, %al je .LBB1_7239 movq 32832(%rbx), %rax movq $0, (%r15,%rax,8) .LBB1_7239: movl 31904(%rbx), %eax testb $1, %al je .LBB1_7241 movq 32864(%rbx), %rax movq $0, (%r15,%rax,8) .LBB1_7241: testb $1, %r10b je .LBB1_7243 movq 32736(%rbx), %rax movq $0, (%r15,%rax,8) .LBB1_7243: testb $1, %r9b je .LBB1_7245 movq 32800(%rbx), %rax movq $0, (%r15,%rax,8) .LBB1_7245: testb $1, %cl je .LBB1_7247 movq 32896(%rbx), %rax movq $0, (%r15,%rax,8) .LBB1_7247: testb $1, %dil je .LBB1_7249 movq 32928(%rbx), %rax movq $0, (%r15,%rax,8) .LBB1_7249: testb $1, %dl je .LBB1_7251 movq 32960(%rbx), %rax movq $0, (%r15,%rax,8) .LBB1_7251: testb $1, %r8b je .LBB1_7253 movq 32992(%rbx), %rax movq $0, (%r15,%rax,8) .LBB1_7253: movl 31872(%rbx), %eax testb $1, %al je .LBB1_7255 movq 32832(%rbx), %rax movq $0, (%rsi,%rax,8) .LBB1_7255: movl 31904(%rbx), %eax testb $1, %al je .LBB1_7257 movq 32864(%rbx), %rax movq $0, (%rsi,%rax,8) .LBB1_7257: testb $1, %r10b je .LBB1_7259 movq 32736(%rbx), %rax movq $0, (%rsi,%rax,8) .LBB1_7259: testb $1, %r9b je .LBB1_7261 movq 32800(%rbx), %rax movq $0, (%rsi,%rax,8) .LBB1_7261: testb $1, %cl je .LBB1_7263 movq 32896(%rbx), %rax movq $0, (%rsi,%rax,8) .LBB1_7263: testb $1, %dil je .LBB1_7265 movq 32928(%rbx), %rax movq $0, (%rsi,%rax,8) .LBB1_7265: testb $1, %dl je .LBB1_7267 movq 32960(%rbx), %rax movq $0, (%rsi,%rax,8) .LBB1_7267: testb $1, %r8b je .LBB1_7270 movq 32992(%rbx), %rax jmp .LBB1_7269 .LBB1_7220: movq 32192(%rbx), %rax movq $0, (%r13,%rax,8) movq 32256(%rbx), %rax movq $0, (%r13,%rax,8) movq 32224(%rbx), %rax movq $0, (%r13,%rax,8) movq 32288(%rbx), %rax movq $0, (%r13,%rax,8) movq 32320(%rbx), %rax movq $0, (%r13,%rax,8) movq 32384(%rbx), %rax movq $0, (%r13,%rax,8) movq 32352(%rbx), %rax movq $0, (%r13,%rax,8) movq 32416(%rbx), %rax movq $0, (%r13,%rax,8) movq 32832(%rbx), %r11 movq $0, (%r15,%r11,8) movq 32864(%rbx), %r10 movq $0, (%r15,%r10,8) movq 32736(%rbx), %r9 movq $0, (%r15,%r9,8) movq 32800(%rbx), %r8 movq $0, (%r15,%r8,8) movq 32896(%rbx), %rdi movq $0, (%r15,%rdi,8) movq 32928(%rbx), %rdx movq $0, (%r15,%rdx,8) movq 32960(%rbx), %rcx movq $0, (%r15,%rcx,8) movq 32992(%rbx), %rax movq $0, (%r15,%rax,8) movq $0, (%rsi,%r11,8) movq $0, (%rsi,%r10,8) movq $0, (%rsi,%r9,8) movq $0, (%rsi,%r8,8) movq $0, (%rsi,%rdi,8) movq $0, (%rsi,%rdx,8) movq $0, (%rsi,%rcx,8) .LBB1_7269: movq $0, (%rsi,%rax,8) .LBB1_7270: vmovdqa 31840(%rbx), %ymm0 vpcmpeqd .LCPI1_36(%rip), %xmm0, %xmm0 vpshufb .LCPI1_5(%rip), %xmm0, %xmm0 vmovlhps %xmm11, %xmm0, %xmm0 vandps %xmm0, %xmm9, %xmm0 vxorps %xmm14, %xmm0, %xmm1 vpmovzxwd %xmm1, %xmm2 vpslld $31, %xmm2, %xmm2 vpsrad $31, %xmm2, %xmm2 vpunpckhwd %xmm0, %xmm1, %xmm1 vpslld $31, %xmm1, %xmm1 vpsrad $31, %xmm1, %xmm1 vinsertf128 $1, %xmm1, %ymm2, %ymm1 vmovdqa 5312(%rbx), %ymm2 vptest %ymm2, %ymm1 jb .LBB1_7289 vpmovzxwd %xmm0, %xmm1 vpslld $31, %xmm1, %xmm1 vpsrad $31, %xmm1, %xmm1 vpunpckhwd %xmm0, %xmm0, %xmm2 vpslld $31, %xmm2, %xmm2 vpsrad $31, %xmm2, %xmm2 vinsertf128 $1, %xmm2, %ymm1, %ymm1 vmovdqa 5280(%rbx), %ymm2 vptest %ymm2, %ymm1 jb .LBB1_7272 vpextrb $0, %xmm0, %ecx vpextrb $2, %xmm0, %edx vpextrb $4, %xmm0, %eax testb $1, %cl je .LBB1_7275 movq 31936(%rbx), %rcx movq $0, (%r15,%rcx,8) .LBB1_7275: vpextrb $6, %xmm0, %ecx testb $1, %dl je .LBB1_7277 movq 31968(%rbx), %rdx movq $0, (%r15,%rdx,8) .LBB1_7277: vpextrb $8, %xmm0, %edx testb $1, %al je .LBB1_7279 movq 32096(%rbx), %rax movq $0, (%r15,%rax,8) .LBB1_7279: vpextrb $10, %xmm0, %eax testb $1, %cl je .LBB1_7281 movq 32128(%rbx), %rcx movq $0, (%r15,%rcx,8) .LBB1_7281: vpextrb $12, %xmm0, %ecx testb $1, %dl je .LBB1_7283 movq 32160(%rbx), %rdx movq $0, (%r15,%rdx,8) .LBB1_7283: vpextrb $14, %xmm0, %edx testb $1, %al je .LBB1_7285 movq 32000(%rbx), %rax movq $0, (%r15,%rax,8) .LBB1_7285: testb $1, %cl je .LBB1_7287 movq 32032(%rbx), %rax movq $0, (%r15,%rax,8) .LBB1_7287: testb $1, %dl je .LBB1_7289 jmp .LBB1_7288 .LBB1_7272: movq 31936(%rbx), %rax movq $0, (%r15,%rax,8) movq 31968(%rbx), %rax movq $0, (%r15,%rax,8) movq 32096(%rbx), %rax movq $0, (%r15,%rax,8) movq 32128(%rbx), %rax movq $0, (%r15,%rax,8) movq 32160(%rbx), %rax movq $0, (%r15,%rax,8) movq 32000(%rbx), %rax movq $0, (%r15,%rax,8) movq 32032(%rbx), %rax movq $0, (%r15,%rax,8) .LBB1_7288: movq 32064(%rbx), %rax movq $0, (%r15,%rax,8) .LBB1_7289: vandps %xmm15, %xmm9, %xmm0 vxorps %xmm14, %xmm0, %xmm1 vpmovzxwd %xmm1, %xmm2 vpslld $31, %xmm2, %xmm2 vpsrad $31, %xmm2, %xmm2 vpunpckhwd %xmm0, %xmm1, %xmm1 vpslld $31, %xmm1, %xmm1 vpsrad $31, %xmm1, %xmm1 vinsertf128 $1, %xmm1, %ymm2, %ymm1 vmovdqa 5248(%rbx), %ymm2 vptest %ymm2, %ymm1 jb .LBB1_7308 vpmovzxwd %xmm0, %xmm1 vpslld $31, %xmm1, %xmm1 vpsrad $31, %xmm1, %xmm1 vpunpckhwd %xmm0, %xmm0, %xmm2 vpslld $31, %xmm2, %xmm2 vpsrad $31, %xmm2, %xmm2 vinsertf128 $1, %xmm2, %ymm1, %ymm1 vmovdqa 5216(%rbx), %ymm2 vptest %ymm2, %ymm1 jb .LBB1_7291 vpextrb $0, %xmm0, %ecx vpextrb $2, %xmm0, %edx vpextrb $4, %xmm0, %eax testb $1, %cl je .LBB1_7294 movq 32448(%rbx), %rcx movq $0, (%rsi,%rcx,8) .LBB1_7294: vpextrb $6, %xmm0, %ecx testb $1, %dl je .LBB1_7296 movq 32480(%rbx), %rdx movq $0, (%rsi,%rdx,8) .LBB1_7296: vpextrb $8, %xmm0, %edx testb $1, %al je .LBB1_7298 movq 32544(%rbx), %rax movq $0, (%rsi,%rax,8) .LBB1_7298: vpextrb $10, %xmm0, %eax testb $1, %cl je .LBB1_7300 movq 32576(%rbx), %rcx movq $0, (%rsi,%rcx,8) .LBB1_7300: vpextrb $12, %xmm0, %ecx testb $1, %dl je .LBB1_7302 movq 32640(%rbx), %rdx movq $0, (%rsi,%rdx,8) .LBB1_7302: vpextrb $14, %xmm0, %edx testb $1, %al je .LBB1_7304 movq 32672(%rbx), %rax movq $0, (%rsi,%rax,8) .LBB1_7304: testb $1, %cl je .LBB1_7306 movq 32704(%rbx), %rax movq $0, (%rsi,%rax,8) .LBB1_7306: testb $1, %dl je .LBB1_7308 jmp .LBB1_7307 .LBB1_7291: movq 32448(%rbx), %rax movq $0, (%rsi,%rax,8) movq 32480(%rbx), %rax movq $0, (%rsi,%rax,8) movq 32544(%rbx), %rax movq $0, (%rsi,%rax,8) movq 32576(%rbx), %rax movq $0, (%rsi,%rax,8) movq 32640(%rbx), %rax movq $0, (%rsi,%rax,8) movq 32672(%rbx), %rax movq $0, (%rsi,%rax,8) movq 32704(%rbx), %rax movq $0, (%rsi,%rax,8) .LBB1_7307: movq 32512(%rbx), %rax movq $0, (%rsi,%rax,8) .align 16, 0x90 .LBB1_7308: vmovdqa 29696(%rbx), %xmm0 vpaddq %xmm5, %xmm0, %xmm0 vpextrq $1, %xmm0, %r9 vmovd %xmm0, %rax vmovdqa 29728(%rbx), %xmm0 vpaddq %xmm5, %xmm0, %xmm0 vmovdqa 30528(%rbx), %ymm1 vpaddq %xmm5, %xmm1, %xmm1 vpextrq $1, %xmm1, %rcx vmovd %xmm1, %rdx vpextrq $1, %xmm0, %r11 vpaddq %xmm5, %xmm8, %xmm1 vmovd %xmm0, %r14 vpextrq $1, %xmm1, %r8 vmovd %xmm1, %r10 cmpl $0, 31744(%rbx) je .LBB1_7310 vmovaps 31488(%rbx), %ymm0 vmovsd %xmm0, (%r13,%rdx,8) vmovaps 27552(%rbx), %xmm0 vmovsd %xmm0, (%r13,%rcx,8) vmovaps 27648(%rbx), %xmm0 vmovsd %xmm0, (%r13,%rax,8) vmovaps 27584(%rbx), %xmm0 vmovsd %xmm0, (%r13,%r9,8) vmovaps 31520(%rbx), %ymm0 vmovsd %xmm0, (%r13,%r10,8) vmovaps 27616(%rbx), %xmm0 vmovsd %xmm0, (%r13,%r8,8) vmovaps 27712(%rbx), %xmm0 vmovsd %xmm0, (%r13,%r14,8) vmovaps 27680(%rbx), %xmm0 vmovsd %xmm0, (%r13,%r11,8) vpaddq %xmm5, %xmm4, %xmm2 vmovd %xmm2, %r8 vextractf128 $1, %ymm4, %xmm0 vpaddq %xmm5, %xmm0, %xmm0 vextractf128 $1, %ymm13, %xmm1 vmovaps 26336(%rbx), %ymm3 vmovsd %xmm3, (%r15,%r8,8) vpaddq %xmm5, %xmm1, %xmm1 vpextrq $1, %xmm2, %r9 vpaddq %xmm5, %xmm13, %xmm2 vpextrq $1, %xmm2, %r11 vpextrq $1, %xmm0, %rdi vmovaps 22688(%rbx), %xmm3 vmovsd %xmm3, (%r15,%r9,8) vpextrq $1, %xmm1, %r10 vmovd %xmm1, %rax vmovd %xmm2, %rcx vmovd %xmm0, %rdx vmovaps 24320(%rbx), %xmm0 vmovsd %xmm0, (%r15,%rdx,8) vmovaps 22752(%rbx), %xmm0 vmovsd %xmm0, (%r15,%rdi,8) vmovaps 26400(%rbx), %ymm0 vmovsd %xmm0, (%r15,%rcx,8) vmovaps 22816(%rbx), %xmm0 vmovsd %xmm0, (%r15,%r11,8) vmovaps 24384(%rbx), %xmm0 vmovsd %xmm0, (%r15,%rax,8) vmovaps 22848(%rbx), %xmm0 vmovsd %xmm0, (%r15,%r10,8) vmovaps 26368(%rbx), %ymm0 vmovsd %xmm0, (%rsi,%r8,8) vmovaps 22624(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%r9,8) vmovaps 24288(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%rdx,8) vmovaps 22656(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%rdi,8) vmovaps 26432(%rbx), %ymm0 vmovsd %xmm0, (%rsi,%rcx,8) vmovaps 22720(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%r11,8) vmovaps 24352(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%rax,8) vmovapd 22784(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%r10,8) jmp .LBB1_7358 .align 16, 0x90 .LBB1_7310: movq 32792(%rbx), %rdi testb $1, 288(%r12,%rdi) vmovaps 31488(%rbx), %ymm0 je .LBB1_7312 vmovsd %xmm0, (%r13,%rdx,8) .LBB1_7312: movq 32792(%rbx), %rdx testb $1, 292(%r12,%rdx) je .LBB1_7314 vmovaps 27552(%rbx), %xmm0 vmovsd %xmm0, (%r13,%rcx,8) .LBB1_7314: movq 32792(%rbx), %rcx testb $1, 296(%r12,%rcx) je .LBB1_7316 vmovaps 27648(%rbx), %xmm0 vmovsd %xmm0, (%r13,%rax,8) .LBB1_7316: movq 32792(%rbx), %rax testb $1, 300(%r12,%rax) vmovaps 31520(%rbx), %ymm0 je .LBB1_7318 vmovapd 27584(%rbx), %xmm1 vmovsd %xmm1, (%r13,%r9,8) .LBB1_7318: movq 32792(%rbx), %rax testb $1, 304(%r12,%rax) je .LBB1_7320 vmovsd %xmm0, (%r13,%r10,8) .LBB1_7320: movq 32792(%rbx), %rax testb $1, 308(%r12,%rax) je .LBB1_7322 vmovaps 27616(%rbx), %xmm0 vmovsd %xmm0, (%r13,%r8,8) .LBB1_7322: movq 32792(%rbx), %rax testb $1, 312(%r12,%rax) je .LBB1_7324 vmovaps 27712(%rbx), %xmm0 vmovsd %xmm0, (%r13,%r14,8) .LBB1_7324: movq 32792(%rbx), %rax testb $1, 316(%r12,%rax) je .LBB1_7326 vmovaps 27680(%rbx), %xmm0 vmovsd %xmm0, (%r13,%r11,8) .LBB1_7326: movq %r13, %r9 vextractf128 $1, %ymm4, %xmm0 vpaddq %xmm5, %xmm4, %xmm1 vmovd %xmm1, %r11 movq 32792(%rbx), %rax testb $1, 288(%rax,%r12) je .LBB1_7328 vmovaps 26336(%rbx), %ymm2 vmovsd %xmm2, (%r15,%r11,8) .LBB1_7328: vpaddq %xmm5, %xmm0, %xmm0 vpextrq $1, %xmm1, %r13 movq 32792(%rbx), %rax testb $1, 292(%rax,%r12) je .LBB1_7330 vmovapd 22688(%rbx), %xmm1 vmovsd %xmm1, (%r15,%r13,8) .LBB1_7330: vmovd %xmm0, %r14 movq 32792(%rbx), %rax testb $1, 296(%rax,%r12) je .LBB1_7332 vmovapd 24320(%rbx), %xmm1 vmovsd %xmm1, (%r15,%r14,8) .LBB1_7332: vpaddq %xmm5, %xmm13, %xmm1 vpextrq $1, %xmm0, %r8 movq 32792(%rbx), %rax testb $1, 300(%rax,%r12) je .LBB1_7334 vmovapd 22752(%rbx), %xmm0 vmovsd %xmm0, (%r15,%r8,8) .LBB1_7334: vextractf128 $1, %ymm13, %xmm0 vmovd %xmm1, %r10 movq 32792(%rbx), %rax testb $1, 304(%rax,%r12) je .LBB1_7336 vmovaps 26400(%rbx), %ymm2 vmovsd %xmm2, (%r15,%r10,8) .LBB1_7336: vpaddq %xmm5, %xmm0, %xmm0 vpextrq $1, %xmm1, %rax movq 32792(%rbx), %rcx testb $1, 308(%rcx,%r12) je .LBB1_7338 vmovapd 22816(%rbx), %xmm1 vmovsd %xmm1, (%r15,%rax,8) .LBB1_7338: vmovd %xmm0, %rcx movq 32792(%rbx), %rdx testb $1, 312(%rdx,%r12) je .LBB1_7340 vmovapd 24384(%rbx), %xmm1 vmovsd %xmm1, (%r15,%rcx,8) .LBB1_7340: vpextrq $1, %xmm0, %rdx movq 32792(%rbx), %rdi testb $1, 316(%rdi,%r12) je .LBB1_7342 vmovapd 22848(%rbx), %xmm0 vmovsd %xmm0, (%r15,%rdx,8) .LBB1_7342: movq 32792(%rbx), %rdi testb $1, 288(%rdi,%r12) je .LBB1_7344 vmovapd 26368(%rbx), %ymm0 vmovsd %xmm0, (%rsi,%r11,8) .LBB1_7344: movq 32792(%rbx), %rdi testb $1, 292(%rdi,%r12) je .LBB1_7346 vmovapd 22624(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%r13,8) .LBB1_7346: testb $1, 296(%rdi,%r12) je .LBB1_7348 vmovapd 24288(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%r14,8) .LBB1_7348: testb $1, 300(%rdi,%r12) movq %r9, %r13 je .LBB1_7350 vmovapd 22656(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%r8,8) .LBB1_7350: testb $1, 304(%rdi,%r12) je .LBB1_7352 vmovapd 26432(%rbx), %ymm0 vmovsd %xmm0, (%rsi,%r10,8) .LBB1_7352: testb $1, 308(%rdi,%r12) je .LBB1_7354 vmovapd 22720(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%rax,8) .LBB1_7354: testb $1, 312(%rdi,%r12) je .LBB1_7356 vmovapd 24352(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%rcx,8) .LBB1_7356: testb $1, 316(%rdi,%r12) je .LBB1_7358 vmovapd 22784(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%rdx,8) .LBB1_7358: movq %r13, %r9 movq %rsi, %r8 cmpl $0, 30496(%rbx) jne .LBB1_7377 vmovaps 30592(%rbx), %ymm2 vextractf128 $1, %ymm2, %xmm1 vmovaps 30624(%rbx), %ymm3 vextractf128 $1, %ymm3, %xmm0 vpaddq %xmm5, %xmm0, %xmm0 vpaddq %xmm5, %xmm2, %xmm2 vmovdqa %xmm5, %xmm6 vpaddq %xmm6, %xmm1, %xmm5 vpmovzxwd %xmm10, %xmm1 vpslld $31, %xmm1, %xmm1 vpextrq $1, %xmm5, %r10 vmovd %xmm5, %rax vmovdqa %xmm6, %xmm5 vpextrq $1, %xmm2, %rcx vmovd %xmm2, %rdx vpextrq $1, %xmm0, %r11 vmovd %xmm0, %r14 vpaddq %xmm5, %xmm3, %xmm0 vpsrad $31, %xmm1, %xmm1 vpunpckhwd %xmm0, %xmm10, %xmm2 vpslld $31, %xmm2, %xmm2 vpsrad $31, %xmm2, %xmm2 vinsertf128 $1, %xmm2, %ymm1, %ymm1 vpextrq $1, %xmm0, %r13 vmovd %xmm0, %rdi vmovdqa 5376(%rbx), %ymm0 vptest %ymm0, %ymm1 jb .LBB1_7360 movl 30976(%rbx), %esi testb $1, %sil je .LBB1_7363 vmovdqa 21184(%rbx), %ymm0 vmovsd %xmm0, (%r15,%rdx,8) .LBB1_7363: movl 31040(%rbx), %edx testb $1, %dl je .LBB1_7365 vmovdqa 19456(%rbx), %xmm0 vmovsd %xmm0, (%r15,%rcx,8) .LBB1_7365: movl 31072(%rbx), %ecx testb $1, %cl je .LBB1_7367 vmovdqa 20544(%rbx), %xmm0 vmovsd %xmm0, (%r15,%rax,8) .LBB1_7367: movl 31168(%rbx), %eax testb $1, %al je .LBB1_7369 vmovdqa 19488(%rbx), %xmm0 vmovsd %xmm0, (%r15,%r10,8) .LBB1_7369: movl 31200(%rbx), %eax testb $1, %al je .LBB1_7371 vmovdqa 21216(%rbx), %ymm0 vmovsd %xmm0, (%r15,%rdi,8) .LBB1_7371: movl 31264(%rbx), %eax testb $1, %al je .LBB1_7373 vmovdqa 19520(%rbx), %xmm0 vmovsd %xmm0, (%r15,%r13,8) .LBB1_7373: movl 31616(%rbx), %eax testb $1, %al je .LBB1_7375 vmovdqa 20576(%rbx), %xmm0 vmovsd %xmm0, (%r15,%r14,8) .LBB1_7375: movl 31648(%rbx), %eax testb $1, %al je .LBB1_7377 jmp .LBB1_7376 .LBB1_7360: vmovaps 21184(%rbx), %ymm0 vmovsd %xmm0, (%r15,%rdx,8) vmovaps 19456(%rbx), %xmm0 vmovsd %xmm0, (%r15,%rcx,8) vmovaps 20544(%rbx), %xmm0 vmovsd %xmm0, (%r15,%rax,8) vmovaps 19488(%rbx), %xmm0 vmovsd %xmm0, (%r15,%r10,8) vmovaps 21216(%rbx), %ymm0 vmovsd %xmm0, (%r15,%rdi,8) vmovaps 19520(%rbx), %xmm0 vmovsd %xmm0, (%r15,%r13,8) vmovdqa 20576(%rbx), %xmm0 vmovsd %xmm0, (%r15,%r14,8) .LBB1_7376: vmovapd 19552(%rbx), %xmm0 vmovsd %xmm0, (%r15,%r11,8) .LBB1_7377: cmpl $0, 30464(%rbx) movq %r8, %rsi jne .LBB1_7396 vmovaps 30656(%rbx), %ymm2 vextractf128 $1, %ymm2, %xmm1 vmovaps 30688(%rbx), %ymm3 vextractf128 $1, %ymm3, %xmm0 vpaddq %xmm5, %xmm0, %xmm0 vpaddq %xmm5, %xmm2, %xmm2 vmovdqa %xmm5, %xmm6 vpaddq %xmm6, %xmm1, %xmm5 vpmovzxwd %xmm7, %xmm1 vpslld $31, %xmm1, %xmm1 vpextrq $1, %xmm5, %r8 vmovd %xmm5, %rax vpextrq $1, %xmm2, %rcx vmovd %xmm2, %rdx vpextrq $1, %xmm0, %r11 vmovd %xmm0, %r14 vpaddq %xmm6, %xmm3, %xmm0 vpsrad $31, %xmm1, %xmm1 vpunpckhwd %xmm0, %xmm7, %xmm2 vpslld $31, %xmm2, %xmm2 vpsrad $31, %xmm2, %xmm2 vinsertf128 $1, %xmm2, %ymm1, %ymm1 vpextrq $1, %xmm0, %r13 vmovd %xmm0, %r10 vmovdqa 5408(%rbx), %ymm0 vptest %ymm0, %ymm1 jb .LBB1_7379 movl 30816(%rbx), %edi testb $1, %dil je .LBB1_7382 vmovdqa 30016(%rbx), %ymm0 vmovsd %xmm0, (%rsi,%rdx,8) .LBB1_7382: movl 30848(%rbx), %edx testb $1, %dl je .LBB1_7384 vmovdqa 28928(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%rcx,8) .LBB1_7384: movl 30880(%rbx), %ecx testb $1, %cl je .LBB1_7386 vmovdqa 29056(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%rax,8) .LBB1_7386: movl 30912(%rbx), %eax testb $1, %al je .LBB1_7388 vmovdqa 28960(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%r8,8) .LBB1_7388: movl 30944(%rbx), %eax testb $1, %al je .LBB1_7390 vmovdqa 30752(%rbx), %ymm0 vmovsd %xmm0, (%rsi,%r10,8) .LBB1_7390: movl 31008(%rbx), %eax testb $1, %al je .LBB1_7392 vmovdqa 28992(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%r13,8) .LBB1_7392: movl 31232(%rbx), %eax testb $1, %al je .LBB1_7394 vmovdqa 29984(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%r14,8) .LBB1_7394: movl 31552(%rbx), %eax testb $1, %al je .LBB1_7396 jmp .LBB1_7395 .LBB1_7379: vmovaps 30016(%rbx), %ymm0 vmovsd %xmm0, (%rsi,%rdx,8) vmovaps 28928(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%rcx,8) vmovaps 29056(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%rax,8) vmovaps 28960(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%r8,8) vmovaps 30752(%rbx), %ymm0 vmovsd %xmm0, (%rsi,%r10,8) vmovaps 28992(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%r13,8) vmovdqa 29984(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%r14,8) .LBB1_7395: vmovapd 29024(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%r11,8) .LBB1_7396: movq %r12, %r13 cmpl $0, 30432(%rbx) jne .LBB1_7486 vpmovzxwd %xmm9, %xmm0 vpslld $31, %xmm0, %xmm0 vpsrad $31, %xmm0, %xmm0 vpunpckhwd %xmm0, %xmm9, %xmm1 vpslld $31, %xmm1, %xmm1 vpsrad $31, %xmm1, %xmm1 vinsertf128 $1, %xmm1, %ymm0, %ymm0 vmovdqa 5568(%rbx), %ymm1 vptest %ymm1, %ymm0 jb .LBB1_7398 movl 31872(%rbx), %eax testb $1, %al movl 31712(%rbx), %r8d movl 31680(%rbx), %r10d movl 30560(%rbx), %edi movl 31584(%rbx), %r11d movl 31808(%rbx), %edx movl 31776(%rbx), %ecx je .LBB1_7401 movq 32192(%rbx), %rax movq $0, (%r9,%rax,8) .LBB1_7401: movl 31904(%rbx), %eax testb $1, %al je .LBB1_7403 movq 32256(%rbx), %rax movq $0, (%r9,%rax,8) .LBB1_7403: testb $1, %cl je .LBB1_7405 movq 32224(%rbx), %rax movq $0, (%r9,%rax,8) .LBB1_7405: testb $1, %dl je .LBB1_7407 movq 32288(%rbx), %rax movq $0, (%r9,%rax,8) .LBB1_7407: testb $1, %r11b je .LBB1_7409 movq 32320(%rbx), %rax movq $0, (%r9,%rax,8) .LBB1_7409: testb $1, %dil je .LBB1_7411 movq 32384(%rbx), %rax movq $0, (%r9,%rax,8) .LBB1_7411: testb $1, %r10b je .LBB1_7413 movq 32352(%rbx), %rax movq $0, (%r9,%rax,8) .LBB1_7413: testb $1, %r8b je .LBB1_7415 movq 32416(%rbx), %rax movq $0, (%r9,%rax,8) .LBB1_7415: movl 31872(%rbx), %eax testb $1, %al je .LBB1_7417 movq 32832(%rbx), %rax movq $0, (%r15,%rax,8) .LBB1_7417: movl 31904(%rbx), %eax testb $1, %al je .LBB1_7419 movq 32864(%rbx), %rax movq $0, (%r15,%rax,8) .LBB1_7419: testb $1, %cl je .LBB1_7421 movq 32736(%rbx), %rax movq $0, (%r15,%rax,8) .LBB1_7421: testb $1, %dl je .LBB1_7423 movq 32800(%rbx), %rax movq $0, (%r15,%rax,8) .LBB1_7423: testb $1, %r11b je .LBB1_7425 movq 32896(%rbx), %rax movq $0, (%r15,%rax,8) .LBB1_7425: testb $1, %dil je .LBB1_7427 movq 32928(%rbx), %rax movq $0, (%r15,%rax,8) .LBB1_7427: testb $1, %r10b je .LBB1_7429 movq 32960(%rbx), %rax movq $0, (%r15,%rax,8) .LBB1_7429: testb $1, %r8b je .LBB1_7431 movq 32992(%rbx), %rax movq $0, (%r15,%rax,8) .LBB1_7431: movl 31872(%rbx), %eax testb $1, %al je .LBB1_7433 movq 32832(%rbx), %rax movq $0, (%rsi,%rax,8) .LBB1_7433: movl 31904(%rbx), %eax testb $1, %al je .LBB1_7435 movq 32864(%rbx), %rax movq $0, (%rsi,%rax,8) .LBB1_7435: testb $1, %cl je .LBB1_7437 movq 32736(%rbx), %rax movq $0, (%rsi,%rax,8) .LBB1_7437: testb $1, %dl je .LBB1_7439 movq 32800(%rbx), %rax movq $0, (%rsi,%rax,8) .LBB1_7439: testb $1, %r11b je .LBB1_7441 movq 32896(%rbx), %rax movq $0, (%rsi,%rax,8) .LBB1_7441: testb $1, %dil je .LBB1_7443 movq 32928(%rbx), %rax movq $0, (%rsi,%rax,8) .LBB1_7443: testb $1, %r10b je .LBB1_7445 movq 32960(%rbx), %rax movq $0, (%rsi,%rax,8) .LBB1_7445: testb $1, %r8b je .LBB1_7448 movq 32992(%rbx), %rax jmp .LBB1_7447 .LBB1_7398: movq 32192(%rbx), %rax movq $0, (%r9,%rax,8) movq 32256(%rbx), %rax movq $0, (%r9,%rax,8) movq 32224(%rbx), %rax movq $0, (%r9,%rax,8) movq 32288(%rbx), %rax movq $0, (%r9,%rax,8) movq 32320(%rbx), %rax movq $0, (%r9,%rax,8) movq 32384(%rbx), %rax movq $0, (%r9,%rax,8) movq 32352(%rbx), %rax movq $0, (%r9,%rax,8) movq 32416(%rbx), %rax movq $0, (%r9,%rax,8) movq 32832(%rbx), %r14 movq $0, (%r15,%r14,8) movq 32864(%rbx), %r11 movq $0, (%r15,%r11,8) movq 32736(%rbx), %r10 movq $0, (%r15,%r10,8) movq 32800(%rbx), %r8 movq $0, (%r15,%r8,8) movq 32896(%rbx), %rdi movq $0, (%r15,%rdi,8) movq 32928(%rbx), %rdx movq $0, (%r15,%rdx,8) movq 32960(%rbx), %rcx movq $0, (%r15,%rcx,8) movq 32992(%rbx), %rax movq $0, (%r15,%rax,8) movq $0, (%rsi,%r14,8) movq $0, (%rsi,%r11,8) movq $0, (%rsi,%r10,8) movq $0, (%rsi,%r8,8) movq $0, (%rsi,%rdi,8) movq $0, (%rsi,%rdx,8) movq $0, (%rsi,%rcx,8) .LBB1_7447: movq $0, (%rsi,%rax,8) .LBB1_7448: vmovdqa 31840(%rbx), %ymm0 vpcmpeqd .LCPI1_36(%rip), %xmm0, %xmm0 vpshufb .LCPI1_5(%rip), %xmm0, %xmm0 vmovlhps %xmm11, %xmm0, %xmm0 vandps %xmm0, %xmm9, %xmm0 vxorps %xmm14, %xmm0, %xmm1 vpmovzxwd %xmm1, %xmm2 vpslld $31, %xmm2, %xmm2 vpsrad $31, %xmm2, %xmm2 vpunpckhwd %xmm0, %xmm1, %xmm1 vpslld $31, %xmm1, %xmm1 vpsrad $31, %xmm1, %xmm1 vinsertf128 $1, %xmm1, %ymm2, %ymm1 vmovdqa 5536(%rbx), %ymm2 vptest %ymm2, %ymm1 jb .LBB1_7467 vpmovzxwd %xmm0, %xmm1 vpslld $31, %xmm1, %xmm1 vpsrad $31, %xmm1, %xmm1 vpunpckhwd %xmm0, %xmm0, %xmm2 vpslld $31, %xmm2, %xmm2 vpsrad $31, %xmm2, %xmm2 vinsertf128 $1, %xmm2, %ymm1, %ymm1 vmovdqa 5504(%rbx), %ymm2 vptest %ymm2, %ymm1 jb .LBB1_7450 vpextrb $0, %xmm0, %ecx vpextrb $2, %xmm0, %edx vpextrb $4, %xmm0, %eax testb $1, %cl je .LBB1_7453 movq 31936(%rbx), %rcx movq $0, (%r15,%rcx,8) .LBB1_7453: vpextrb $6, %xmm0, %ecx testb $1, %dl je .LBB1_7455 movq 31968(%rbx), %rdx movq $0, (%r15,%rdx,8) .LBB1_7455: vpextrb $8, %xmm0, %edx testb $1, %al je .LBB1_7457 movq 32096(%rbx), %rax movq $0, (%r15,%rax,8) .LBB1_7457: vpextrb $10, %xmm0, %eax testb $1, %cl je .LBB1_7459 movq 32128(%rbx), %rcx movq $0, (%r15,%rcx,8) .LBB1_7459: vpextrb $12, %xmm0, %ecx testb $1, %dl je .LBB1_7461 movq 32160(%rbx), %rdx movq $0, (%r15,%rdx,8) .LBB1_7461: vpextrb $14, %xmm0, %edx testb $1, %al je .LBB1_7463 movq 32000(%rbx), %rax movq $0, (%r15,%rax,8) .LBB1_7463: testb $1, %cl je .LBB1_7465 movq 32032(%rbx), %rax movq $0, (%r15,%rax,8) .LBB1_7465: testb $1, %dl je .LBB1_7467 jmp .LBB1_7466 .LBB1_7450: movq 31936(%rbx), %rax movq $0, (%r15,%rax,8) movq 31968(%rbx), %rax movq $0, (%r15,%rax,8) movq 32096(%rbx), %rax movq $0, (%r15,%rax,8) movq 32128(%rbx), %rax movq $0, (%r15,%rax,8) movq 32160(%rbx), %rax movq $0, (%r15,%rax,8) movq 32000(%rbx), %rax movq $0, (%r15,%rax,8) movq 32032(%rbx), %rax movq $0, (%r15,%rax,8) .LBB1_7466: movq 32064(%rbx), %rax movq $0, (%r15,%rax,8) .LBB1_7467: vandps %xmm15, %xmm9, %xmm0 vxorps %xmm14, %xmm0, %xmm1 vpmovzxwd %xmm1, %xmm2 vpslld $31, %xmm2, %xmm2 vpsrad $31, %xmm2, %xmm2 vpunpckhwd %xmm0, %xmm1, %xmm1 vpslld $31, %xmm1, %xmm1 vpsrad $31, %xmm1, %xmm1 vinsertf128 $1, %xmm1, %ymm2, %ymm1 vmovdqa 5472(%rbx), %ymm2 vptest %ymm2, %ymm1 jb .LBB1_7486 vpmovzxwd %xmm0, %xmm1 vpslld $31, %xmm1, %xmm1 vpsrad $31, %xmm1, %xmm1 vpunpckhwd %xmm0, %xmm0, %xmm2 vpslld $31, %xmm2, %xmm2 vpsrad $31, %xmm2, %xmm2 vinsertf128 $1, %xmm2, %ymm1, %ymm1 vmovdqa 5440(%rbx), %ymm2 vptest %ymm2, %ymm1 jb .LBB1_7469 vpextrb $0, %xmm0, %ecx vpextrb $2, %xmm0, %edx vpextrb $4, %xmm0, %eax testb $1, %cl je .LBB1_7472 movq 32448(%rbx), %rcx movq $0, (%rsi,%rcx,8) .LBB1_7472: vpextrb $6, %xmm0, %ecx testb $1, %dl je .LBB1_7474 movq 32480(%rbx), %rdx movq $0, (%rsi,%rdx,8) .LBB1_7474: vpextrb $8, %xmm0, %edx testb $1, %al je .LBB1_7476 movq 32544(%rbx), %rax movq $0, (%rsi,%rax,8) .LBB1_7476: vpextrb $10, %xmm0, %eax testb $1, %cl je .LBB1_7478 movq 32576(%rbx), %rcx movq $0, (%rsi,%rcx,8) .LBB1_7478: vpextrb $12, %xmm0, %ecx testb $1, %dl je .LBB1_7480 movq 32640(%rbx), %rdx movq $0, (%rsi,%rdx,8) .LBB1_7480: vpextrb $14, %xmm0, %edx testb $1, %al je .LBB1_7482 movq 32672(%rbx), %rax movq $0, (%rsi,%rax,8) .LBB1_7482: testb $1, %cl je .LBB1_7484 movq 32704(%rbx), %rax movq $0, (%rsi,%rax,8) .LBB1_7484: testb $1, %dl je .LBB1_7486 jmp .LBB1_7485 .LBB1_7469: movq 32448(%rbx), %rax movq $0, (%rsi,%rax,8) movq 32480(%rbx), %rax movq $0, (%rsi,%rax,8) movq 32544(%rbx), %rax movq $0, (%rsi,%rax,8) movq 32576(%rbx), %rax movq $0, (%rsi,%rax,8) movq 32640(%rbx), %rax movq $0, (%rsi,%rax,8) movq 32672(%rbx), %rax movq $0, (%rsi,%rax,8) movq 32704(%rbx), %rax movq $0, (%rsi,%rax,8) .LBB1_7485: movq 32512(%rbx), %rax movq $0, (%rsi,%rax,8) .align 16, 0x90 .LBB1_7486: movq %r9, %rdi vmovdqa .LCPI1_13(%rip), %xmm6 vmovdqa 29696(%rbx), %xmm0 vpaddq %xmm6, %xmm0, %xmm0 vpextrq $1, %xmm0, %r10 vmovd %xmm0, %rsi vmovdqa 29728(%rbx), %xmm0 vpaddq %xmm6, %xmm0, %xmm0 vmovdqa 30528(%rbx), %ymm1 vpaddq %xmm6, %xmm1, %xmm1 vpextrq $1, %xmm1, %rax vmovd %xmm1, %rcx vpextrq $1, %xmm0, %r9 vpaddq %xmm6, %xmm8, %xmm1 vmovd %xmm0, %r12 vpextrq $1, %xmm1, %r14 vmovd %xmm1, %r11 cmpl $0, 31744(%rbx) je .LBB1_7488 movq 32792(%rbx), %rdx vmovsd 960(%r13,%rdx), %xmm0 vmovsd %xmm0, (%rdi,%rcx,8) vmovsd 968(%r13,%rdx), %xmm0 vmovsd %xmm0, (%rdi,%rax,8) vmovsd 976(%r13,%rdx), %xmm1 vextractf128 $1, %ymm4, %xmm0 vextractf128 $1, %ymm13, %xmm2 vmovsd %xmm1, (%rdi,%rsi,8) vpaddq %xmm6, %xmm2, %xmm5 vpaddq %xmm6, %xmm13, %xmm2 vpaddq %xmm6, %xmm0, %xmm1 vpaddq %xmm6, %xmm4, %xmm0 vpextrq $1, %xmm5, %rax movq %rax, 31520(%rbx) movq %r15, %rcx vmovd %xmm5, %r15 vmovsd 984(%r13,%rdx), %xmm5 vmovsd %xmm5, (%rdi,%r10,8) vmovsd 992(%r13,%rdx), %xmm5 vmovd %xmm1, %r10 vmovsd %xmm5, (%rdi,%r11,8) vpextrq $1, %xmm2, %r11 vmovsd 1000(%r13,%rdx), %xmm5 vmovsd %xmm5, (%rdi,%r14,8) vmovd %xmm2, %r8 vmovsd 1008(%r13,%rdx), %xmm2 vmovsd %xmm2, (%rdi,%r12,8) movq %rdi, %r14 vpextrq $1, %xmm1, %rsi vpextrq $1, %xmm0, %rax vmovsd 1016(%r13,%rdx), %xmm1 vmovd %xmm0, %rdx vmovsd %xmm1, (%r14,%r9,8) vmovaps 26464(%rbx), %ymm0 vmovsd %xmm0, (%rcx,%rdx,8) vmovaps 22944(%rbx), %xmm0 vmovsd %xmm0, (%rcx,%rax,8) vmovaps 24416(%rbx), %xmm0 vmovsd %xmm0, (%rcx,%r10,8) vmovaps 23008(%rbx), %xmm0 vmovsd %xmm0, (%rcx,%rsi,8) vmovaps 26528(%rbx), %ymm0 vmovsd %xmm0, (%rcx,%r8,8) vmovaps 23072(%rbx), %xmm0 vmovsd %xmm0, (%rcx,%r11,8) vmovaps 24480(%rbx), %xmm0 vmovsd %xmm0, (%rcx,%r15,8) vmovaps 23104(%rbx), %xmm0 movq 31520(%rbx), %rdi vmovsd %xmm0, (%rcx,%rdi,8) movq 12472(%rbx), %r9 vmovaps 26496(%rbx), %ymm0 vmovsd %xmm0, (%r9,%rdx,8) vmovaps 22880(%rbx), %xmm0 vmovsd %xmm0, (%r9,%rax,8) vmovaps 21632(%rbx), %xmm0 vmovsd %xmm0, (%r9,%r10,8) vmovaps 22912(%rbx), %xmm0 vmovsd %xmm0, (%r9,%rsi,8) vmovaps 26560(%rbx), %ymm0 vmovsd %xmm0, (%r9,%r8,8) vmovaps 22976(%rbx), %xmm0 vmovsd %xmm0, (%r9,%r11,8) vmovaps 24448(%rbx), %xmm0 vmovsd %xmm0, (%r9,%r15,8) movq %rcx, %r15 vmovapd 23040(%rbx), %xmm0 vmovsd %xmm0, (%r9,%rdi,8) jmp .LBB1_7536 .align 16, 0x90 .LBB1_7488: movq %r9, %r8 movq 32792(%rbx), %rdx testb $1, 288(%r13,%rdx) je .LBB1_7490 vmovsd 960(%r13,%rdx), %xmm0 vmovsd %xmm0, (%rdi,%rcx,8) .LBB1_7490: testb $1, 292(%r13,%rdx) je .LBB1_7492 vmovsd 968(%r13,%rdx), %xmm0 vmovsd %xmm0, (%rdi,%rax,8) .LBB1_7492: testb $1, 296(%r13,%rdx) je .LBB1_7494 vmovsd 976(%r13,%rdx), %xmm0 vmovsd %xmm0, (%rdi,%rsi,8) .LBB1_7494: testb $1, 300(%r13,%rdx) je .LBB1_7496 vmovsd 984(%r13,%rdx), %xmm0 vmovsd %xmm0, (%rdi,%r10,8) .LBB1_7496: testb $1, 304(%r13,%rdx) je .LBB1_7498 vmovsd 992(%r13,%rdx), %xmm0 vmovsd %xmm0, (%rdi,%r11,8) .LBB1_7498: testb $1, 308(%r13,%rdx) je .LBB1_7500 vmovsd 1000(%r13,%rdx), %xmm0 vmovsd %xmm0, (%rdi,%r14,8) .LBB1_7500: testb $1, 312(%r13,%rdx) je .LBB1_7502 vmovsd 1008(%r13,%rdx), %xmm0 vmovsd %xmm0, (%rdi,%r12,8) .LBB1_7502: testb $1, 316(%r13,%rdx) movq %r13, %rax je .LBB1_7504 vmovsd 1016(%rax,%rdx), %xmm0 vmovsd %xmm0, (%rdi,%r8,8) .LBB1_7504: vextractf128 $1, %ymm4, %xmm0 vpaddq .LCPI1_13(%rip), %xmm4, %xmm1 vmovd %xmm1, %r11 testb $1, 288(%rdx,%rax) movq %rdx, %rdi je .LBB1_7506 vmovaps 26464(%rbx), %ymm2 vmovsd %xmm2, (%r15,%r11,8) .LBB1_7506: vpaddq .LCPI1_13(%rip), %xmm0, %xmm0 vpextrq $1, %xmm1, %r13 testb $1, 292(%rdi,%rax) je .LBB1_7508 vmovapd 22944(%rbx), %xmm1 vmovsd %xmm1, (%r15,%r13,8) .LBB1_7508: vmovd %xmm0, %r14 testb $1, 296(%rdi,%rax) je .LBB1_7510 vmovapd 24416(%rbx), %xmm1 vmovsd %xmm1, (%r15,%r14,8) .LBB1_7510: vpaddq .LCPI1_13(%rip), %xmm13, %xmm1 vpextrq $1, %xmm0, %r10 testb $1, 300(%rdi,%rax) je .LBB1_7512 vmovapd 23008(%rbx), %xmm0 vmovsd %xmm0, (%r15,%r10,8) .LBB1_7512: vextractf128 $1, %ymm13, %xmm0 vmovd %xmm1, %r8 testb $1, 304(%rdi,%rax) je .LBB1_7514 vmovaps 26528(%rbx), %ymm2 vmovsd %xmm2, (%r15,%r8,8) .LBB1_7514: vpaddq .LCPI1_13(%rip), %xmm0, %xmm0 vpextrq $1, %xmm1, %r12 testb $1, 308(%rdi,%rax) je .LBB1_7516 vmovapd 23072(%rbx), %xmm1 vmovsd %xmm1, (%r15,%r12,8) .LBB1_7516: vmovd %xmm0, %rcx testb $1, 312(%rdi,%rax) je .LBB1_7518 vmovapd 24480(%rbx), %xmm1 vmovsd %xmm1, (%r15,%rcx,8) .LBB1_7518: vpextrq $1, %xmm0, %rdx testb $1, 316(%rdi,%rax) je .LBB1_7520 vmovapd 23104(%rbx), %xmm0 vmovsd %xmm0, (%r15,%rdx,8) .LBB1_7520: testb $1, 288(%rdi,%rax) je .LBB1_7522 movq 12472(%rbx), %rsi vmovapd 26496(%rbx), %ymm0 vmovsd %xmm0, (%rsi,%r11,8) .LBB1_7522: testb $1, 292(%rdi,%rax) je .LBB1_7524 movq 12472(%rbx), %rsi vmovapd 22880(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%r13,8) .LBB1_7524: testb $1, 296(%rdi,%rax) movq 12472(%rbx), %r9 je .LBB1_7526 vmovapd 21632(%rbx), %xmm0 vmovsd %xmm0, (%r9,%r14,8) .LBB1_7526: testb $1, 300(%rdi,%rax) movq 22456(%rbx), %r14 je .LBB1_7528 vmovapd 22912(%rbx), %xmm0 vmovsd %xmm0, (%r9,%r10,8) .LBB1_7528: testb $1, 304(%rdi,%rax) je .LBB1_7530 vmovapd 26560(%rbx), %ymm0 vmovsd %xmm0, (%r9,%r8,8) .LBB1_7530: testb $1, 308(%rdi,%rax) je .LBB1_7532 vmovapd 22976(%rbx), %xmm0 vmovsd %xmm0, (%r9,%r12,8) .LBB1_7532: testb $1, 312(%rdi,%rax) je .LBB1_7534 vmovapd 24448(%rbx), %xmm0 vmovsd %xmm0, (%r9,%rcx,8) .LBB1_7534: testb $1, 316(%rdi,%rax) je .LBB1_7536 vmovapd 23040(%rbx), %xmm0 vmovsd %xmm0, (%r9,%rdx,8) .LBB1_7536: movq %r14, %r10 movq %r9, %r8 cmpl $0, 30496(%rbx) jne .LBB1_7555 vmovaps 30592(%rbx), %ymm2 vextractf128 $1, %ymm2, %xmm1 vmovaps 30624(%rbx), %ymm3 vextractf128 $1, %ymm3, %xmm0 vmovdqa .LCPI1_13(%rip), %xmm6 vpaddq %xmm6, %xmm0, %xmm0 vpaddq %xmm6, %xmm2, %xmm2 vpaddq %xmm6, %xmm1, %xmm5 vpmovzxwd %xmm10, %xmm1 vpslld $31, %xmm1, %xmm1 vpextrq $1, %xmm5, %r9 vmovd %xmm5, %rax vpextrq $1, %xmm2, %rcx vmovd %xmm2, %rdx vpextrq $1, %xmm0, %r11 vmovd %xmm0, %r14 vpaddq %xmm6, %xmm3, %xmm0 vpsrad $31, %xmm1, %xmm1 vpunpckhwd %xmm0, %xmm10, %xmm2 vpslld $31, %xmm2, %xmm2 vpsrad $31, %xmm2, %xmm2 vinsertf128 $1, %xmm2, %ymm1, %ymm1 vpextrq $1, %xmm0, %r13 vmovd %xmm0, %rdi vmovdqa 5600(%rbx), %ymm0 vptest %ymm0, %ymm1 jb .LBB1_7538 movl 30976(%rbx), %esi testb $1, %sil je .LBB1_7541 vmovdqa 21248(%rbx), %ymm0 vmovsd %xmm0, (%r15,%rdx,8) .LBB1_7541: movl 31040(%rbx), %edx testb $1, %dl je .LBB1_7543 vmovdqa 19584(%rbx), %xmm0 vmovsd %xmm0, (%r15,%rcx,8) .LBB1_7543: movl 31072(%rbx), %ecx testb $1, %cl je .LBB1_7545 vmovdqa 20608(%rbx), %xmm0 vmovsd %xmm0, (%r15,%rax,8) .LBB1_7545: movl 31168(%rbx), %eax testb $1, %al je .LBB1_7547 vmovdqa 19616(%rbx), %xmm0 vmovsd %xmm0, (%r15,%r9,8) .LBB1_7547: movl 31200(%rbx), %eax testb $1, %al je .LBB1_7549 vmovdqa 21280(%rbx), %ymm0 vmovsd %xmm0, (%r15,%rdi,8) .LBB1_7549: movl 31264(%rbx), %eax testb $1, %al je .LBB1_7551 vmovdqa 19648(%rbx), %xmm0 vmovsd %xmm0, (%r15,%r13,8) .LBB1_7551: movl 31616(%rbx), %eax testb $1, %al je .LBB1_7553 vmovdqa 20640(%rbx), %xmm0 vmovsd %xmm0, (%r15,%r14,8) .LBB1_7553: movl 31648(%rbx), %eax testb $1, %al je .LBB1_7555 jmp .LBB1_7554 .LBB1_7538: vmovaps 21248(%rbx), %ymm0 vmovsd %xmm0, (%r15,%rdx,8) vmovaps 19584(%rbx), %xmm0 vmovsd %xmm0, (%r15,%rcx,8) vmovaps 20608(%rbx), %xmm0 vmovsd %xmm0, (%r15,%rax,8) vmovaps 19616(%rbx), %xmm0 vmovsd %xmm0, (%r15,%r9,8) vmovaps 21280(%rbx), %ymm0 vmovsd %xmm0, (%r15,%rdi,8) vmovaps 19648(%rbx), %xmm0 vmovsd %xmm0, (%r15,%r13,8) vmovdqa 20640(%rbx), %xmm0 vmovsd %xmm0, (%r15,%r14,8) .LBB1_7554: vmovapd 19680(%rbx), %xmm0 vmovsd %xmm0, (%r15,%r11,8) .LBB1_7555: cmpl $0, 30464(%rbx) movq %r8, %rsi jne .LBB1_7574 vmovaps 30656(%rbx), %ymm2 vextractf128 $1, %ymm2, %xmm1 vmovaps 30688(%rbx), %ymm3 vextractf128 $1, %ymm3, %xmm0 vmovdqa .LCPI1_13(%rip), %xmm6 vpaddq %xmm6, %xmm0, %xmm0 vpaddq %xmm6, %xmm2, %xmm2 vpaddq %xmm6, %xmm1, %xmm5 vpmovzxwd %xmm7, %xmm1 vpslld $31, %xmm1, %xmm1 vpextrq $1, %xmm5, %r8 vmovd %xmm5, %rax vpextrq $1, %xmm2, %rcx vmovd %xmm2, %rdx vpextrq $1, %xmm0, %r11 vmovd %xmm0, %r14 vpaddq %xmm6, %xmm3, %xmm0 vpsrad $31, %xmm1, %xmm1 vpunpckhwd %xmm0, %xmm7, %xmm2 vpslld $31, %xmm2, %xmm2 vpsrad $31, %xmm2, %xmm2 vinsertf128 $1, %xmm2, %ymm1, %ymm1 vpextrq $1, %xmm0, %r13 vmovd %xmm0, %r9 vmovdqa 5632(%rbx), %ymm0 vptest %ymm0, %ymm1 jb .LBB1_7557 movl 30816(%rbx), %edi testb $1, %dil je .LBB1_7560 vmovdqa 30048(%rbx), %ymm0 vmovsd %xmm0, (%rsi,%rdx,8) .LBB1_7560: movl 30848(%rbx), %edx testb $1, %dl je .LBB1_7562 vmovdqa 29088(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%rcx,8) .LBB1_7562: movl 30880(%rbx), %ecx testb $1, %cl je .LBB1_7564 vmovdqa 29216(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%rax,8) .LBB1_7564: movl 30912(%rbx), %eax testb $1, %al je .LBB1_7566 vmovdqa 29120(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%r8,8) .LBB1_7566: movl 30944(%rbx), %eax testb $1, %al je .LBB1_7568 vmovdqa 30080(%rbx), %ymm0 vmovsd %xmm0, (%rsi,%r9,8) .LBB1_7568: movl 31008(%rbx), %eax testb $1, %al je .LBB1_7570 vmovdqa 29152(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%r13,8) .LBB1_7570: movl 31232(%rbx), %eax testb $1, %al je .LBB1_7572 vmovdqa 29248(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%r14,8) .LBB1_7572: movl 31552(%rbx), %eax testb $1, %al je .LBB1_7574 jmp .LBB1_7573 .LBB1_7557: vmovaps 30048(%rbx), %ymm0 vmovsd %xmm0, (%rsi,%rdx,8) vmovaps 29088(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%rcx,8) vmovaps 29216(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%rax,8) vmovaps 29120(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%r8,8) vmovaps 30080(%rbx), %ymm0 vmovsd %xmm0, (%rsi,%r9,8) vmovaps 29152(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%r13,8) vmovdqa 29248(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%r14,8) .LBB1_7573: vmovapd 29184(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%r11,8) .LBB1_7574: cmpl $0, 30432(%rbx) movq 32792(%rbx), %r11 vmovaps .LCPI1_14(%rip), %xmm0 vmovaps %xmm0, %xmm6 jne .LBB1_7664 vpmovzxwd %xmm9, %xmm0 vpslld $31, %xmm0, %xmm0 vpsrad $31, %xmm0, %xmm0 vpunpckhwd %xmm0, %xmm9, %xmm1 vpslld $31, %xmm1, %xmm1 vpsrad $31, %xmm1, %xmm1 vinsertf128 $1, %xmm1, %ymm0, %ymm0 vmovdqa 5792(%rbx), %ymm1 vptest %ymm1, %ymm0 jb .LBB1_7576 movl 31872(%rbx), %eax testb $1, %al movl 31712(%rbx), %r8d movl 31680(%rbx), %r9d movl 30560(%rbx), %edi movl 31584(%rbx), %r14d movl 31808(%rbx), %edx movl 31776(%rbx), %ecx je .LBB1_7579 movq 32192(%rbx), %rax movq $0, (%r10,%rax,8) .LBB1_7579: movl 31904(%rbx), %eax testb $1, %al je .LBB1_7581 movq 32256(%rbx), %rax movq $0, (%r10,%rax,8) .LBB1_7581: testb $1, %cl je .LBB1_7583 movq 32224(%rbx), %rax movq $0, (%r10,%rax,8) .LBB1_7583: testb $1, %dl je .LBB1_7585 movq 32288(%rbx), %rax movq $0, (%r10,%rax,8) .LBB1_7585: testb $1, %r14b je .LBB1_7587 movq 32320(%rbx), %rax movq $0, (%r10,%rax,8) .LBB1_7587: testb $1, %dil je .LBB1_7589 movq 32384(%rbx), %rax movq $0, (%r10,%rax,8) .LBB1_7589: testb $1, %r9b je .LBB1_7591 movq 32352(%rbx), %rax movq $0, (%r10,%rax,8) .LBB1_7591: testb $1, %r8b je .LBB1_7593 movq 32416(%rbx), %rax movq $0, (%r10,%rax,8) .LBB1_7593: movl 31872(%rbx), %eax testb $1, %al je .LBB1_7595 movq 32832(%rbx), %rax movq $0, (%r15,%rax,8) .LBB1_7595: movl 31904(%rbx), %eax testb $1, %al je .LBB1_7597 movq 32864(%rbx), %rax movq $0, (%r15,%rax,8) .LBB1_7597: testb $1, %cl je .LBB1_7599 movq 32736(%rbx), %rax movq $0, (%r15,%rax,8) .LBB1_7599: testb $1, %dl je .LBB1_7601 movq 32800(%rbx), %rax movq $0, (%r15,%rax,8) .LBB1_7601: testb $1, %r14b je .LBB1_7603 movq 32896(%rbx), %rax movq $0, (%r15,%rax,8) .LBB1_7603: testb $1, %dil je .LBB1_7605 movq 32928(%rbx), %rax movq $0, (%r15,%rax,8) .LBB1_7605: testb $1, %r9b je .LBB1_7607 movq 32960(%rbx), %rax movq $0, (%r15,%rax,8) .LBB1_7607: testb $1, %r8b je .LBB1_7609 movq 32992(%rbx), %rax movq $0, (%r15,%rax,8) .LBB1_7609: movl 31872(%rbx), %eax testb $1, %al je .LBB1_7611 movq 32832(%rbx), %rax movq $0, (%rsi,%rax,8) .LBB1_7611: movl 31904(%rbx), %eax testb $1, %al je .LBB1_7613 movq 32864(%rbx), %rax movq $0, (%rsi,%rax,8) .LBB1_7613: testb $1, %cl je .LBB1_7615 movq 32736(%rbx), %rax movq $0, (%rsi,%rax,8) .LBB1_7615: testb $1, %dl je .LBB1_7617 movq 32800(%rbx), %rax movq $0, (%rsi,%rax,8) .LBB1_7617: testb $1, %r14b je .LBB1_7619 movq 32896(%rbx), %rax movq $0, (%rsi,%rax,8) .LBB1_7619: testb $1, %dil je .LBB1_7621 movq 32928(%rbx), %rax movq $0, (%rsi,%rax,8) .LBB1_7621: testb $1, %r9b je .LBB1_7623 movq 32960(%rbx), %rax movq $0, (%rsi,%rax,8) .LBB1_7623: testb $1, %r8b je .LBB1_7626 movq 32992(%rbx), %rax jmp .LBB1_7625 .LBB1_7576: movq 32192(%rbx), %rax movq $0, (%r10,%rax,8) movq 32256(%rbx), %rax movq $0, (%r10,%rax,8) movq 32224(%rbx), %rax movq $0, (%r10,%rax,8) movq 32288(%rbx), %rax movq $0, (%r10,%rax,8) movq 32320(%rbx), %rax movq $0, (%r10,%rax,8) movq 32384(%rbx), %rax movq $0, (%r10,%rax,8) movq 32352(%rbx), %rax movq $0, (%r10,%rax,8) movq 32416(%rbx), %rax movq $0, (%r10,%rax,8) movq 32832(%rbx), %r13 movq $0, (%r15,%r13,8) movq 32864(%rbx), %r14 movq $0, (%r15,%r14,8) movq 32736(%rbx), %r9 movq $0, (%r15,%r9,8) movq 32800(%rbx), %r8 movq $0, (%r15,%r8,8) movq 32896(%rbx), %rdi movq $0, (%r15,%rdi,8) movq 32928(%rbx), %rdx movq $0, (%r15,%rdx,8) movq 32960(%rbx), %rcx movq $0, (%r15,%rcx,8) movq 32992(%rbx), %rax movq $0, (%r15,%rax,8) movq $0, (%rsi,%r13,8) movq $0, (%rsi,%r14,8) movq $0, (%rsi,%r9,8) movq $0, (%rsi,%r8,8) movq $0, (%rsi,%rdi,8) movq $0, (%rsi,%rdx,8) movq $0, (%rsi,%rcx,8) .LBB1_7625: movq $0, (%rsi,%rax,8) .LBB1_7626: vmovdqa 31840(%rbx), %ymm0 vpcmpeqd .LCPI1_36(%rip), %xmm0, %xmm0 vpshufb .LCPI1_5(%rip), %xmm0, %xmm0 vmovlhps %xmm11, %xmm0, %xmm0 vandps %xmm0, %xmm9, %xmm0 vxorps %xmm14, %xmm0, %xmm1 vpmovzxwd %xmm1, %xmm2 vpslld $31, %xmm2, %xmm2 vpsrad $31, %xmm2, %xmm2 vpunpckhwd %xmm0, %xmm1, %xmm1 vpslld $31, %xmm1, %xmm1 vpsrad $31, %xmm1, %xmm1 vinsertf128 $1, %xmm1, %ymm2, %ymm1 vmovdqa 5760(%rbx), %ymm2 vptest %ymm2, %ymm1 jb .LBB1_7645 vpmovzxwd %xmm0, %xmm1 vpslld $31, %xmm1, %xmm1 vpsrad $31, %xmm1, %xmm1 vpunpckhwd %xmm0, %xmm0, %xmm2 vpslld $31, %xmm2, %xmm2 vpsrad $31, %xmm2, %xmm2 vinsertf128 $1, %xmm2, %ymm1, %ymm1 vmovdqa 5728(%rbx), %ymm2 vptest %ymm2, %ymm1 jb .LBB1_7628 vpextrb $0, %xmm0, %ecx vpextrb $2, %xmm0, %edx vpextrb $4, %xmm0, %eax testb $1, %cl je .LBB1_7631 movq 31936(%rbx), %rcx movq $0, (%r15,%rcx,8) .LBB1_7631: vpextrb $6, %xmm0, %ecx testb $1, %dl je .LBB1_7633 movq 31968(%rbx), %rdx movq $0, (%r15,%rdx,8) .LBB1_7633: vpextrb $8, %xmm0, %edx testb $1, %al je .LBB1_7635 movq 32096(%rbx), %rax movq $0, (%r15,%rax,8) .LBB1_7635: vpextrb $10, %xmm0, %eax testb $1, %cl je .LBB1_7637 movq 32128(%rbx), %rcx movq $0, (%r15,%rcx,8) .LBB1_7637: vpextrb $12, %xmm0, %ecx testb $1, %dl je .LBB1_7639 movq 32160(%rbx), %rdx movq $0, (%r15,%rdx,8) .LBB1_7639: vpextrb $14, %xmm0, %edx testb $1, %al je .LBB1_7641 movq 32000(%rbx), %rax movq $0, (%r15,%rax,8) .LBB1_7641: testb $1, %cl je .LBB1_7643 movq 32032(%rbx), %rax movq $0, (%r15,%rax,8) .LBB1_7643: testb $1, %dl je .LBB1_7645 jmp .LBB1_7644 .LBB1_7628: movq 31936(%rbx), %rax movq $0, (%r15,%rax,8) movq 31968(%rbx), %rax movq $0, (%r15,%rax,8) movq 32096(%rbx), %rax movq $0, (%r15,%rax,8) movq 32128(%rbx), %rax movq $0, (%r15,%rax,8) movq 32160(%rbx), %rax movq $0, (%r15,%rax,8) movq 32000(%rbx), %rax movq $0, (%r15,%rax,8) movq 32032(%rbx), %rax movq $0, (%r15,%rax,8) .LBB1_7644: movq 32064(%rbx), %rax movq $0, (%r15,%rax,8) .LBB1_7645: vandps %xmm15, %xmm9, %xmm0 vxorps %xmm14, %xmm0, %xmm1 vpmovzxwd %xmm1, %xmm2 vpslld $31, %xmm2, %xmm2 vpsrad $31, %xmm2, %xmm2 vpunpckhwd %xmm0, %xmm1, %xmm1 vpslld $31, %xmm1, %xmm1 vpsrad $31, %xmm1, %xmm1 vinsertf128 $1, %xmm1, %ymm2, %ymm1 vmovdqa 5696(%rbx), %ymm2 vptest %ymm2, %ymm1 jb .LBB1_7664 vpmovzxwd %xmm0, %xmm1 vpslld $31, %xmm1, %xmm1 vpsrad $31, %xmm1, %xmm1 vpunpckhwd %xmm0, %xmm0, %xmm2 vpslld $31, %xmm2, %xmm2 vpsrad $31, %xmm2, %xmm2 vinsertf128 $1, %xmm2, %ymm1, %ymm1 vmovdqa 5664(%rbx), %ymm2 vptest %ymm2, %ymm1 jb .LBB1_7647 vpextrb $0, %xmm0, %ecx vpextrb $2, %xmm0, %edx vpextrb $4, %xmm0, %eax testb $1, %cl je .LBB1_7650 movq 32448(%rbx), %rcx movq $0, (%rsi,%rcx,8) .LBB1_7650: vpextrb $6, %xmm0, %ecx testb $1, %dl je .LBB1_7652 movq 32480(%rbx), %rdx movq $0, (%rsi,%rdx,8) .LBB1_7652: vpextrb $8, %xmm0, %edx testb $1, %al je .LBB1_7654 movq 32544(%rbx), %rax movq $0, (%rsi,%rax,8) .LBB1_7654: vpextrb $10, %xmm0, %eax testb $1, %cl je .LBB1_7656 movq 32576(%rbx), %rcx movq $0, (%rsi,%rcx,8) .LBB1_7656: vpextrb $12, %xmm0, %ecx testb $1, %dl je .LBB1_7658 movq 32640(%rbx), %rdx movq $0, (%rsi,%rdx,8) .LBB1_7658: vpextrb $14, %xmm0, %edx testb $1, %al je .LBB1_7660 movq 32672(%rbx), %rax movq $0, (%rsi,%rax,8) .LBB1_7660: testb $1, %cl je .LBB1_7662 movq 32704(%rbx), %rax movq $0, (%rsi,%rax,8) .LBB1_7662: testb $1, %dl je .LBB1_7664 jmp .LBB1_7663 .LBB1_7647: movq 32448(%rbx), %rax movq $0, (%rsi,%rax,8) movq 32480(%rbx), %rax movq $0, (%rsi,%rax,8) movq 32544(%rbx), %rax movq $0, (%rsi,%rax,8) movq 32576(%rbx), %rax movq $0, (%rsi,%rax,8) movq 32640(%rbx), %rax movq $0, (%rsi,%rax,8) movq 32672(%rbx), %rax movq $0, (%rsi,%rax,8) movq 32704(%rbx), %rax movq $0, (%rsi,%rax,8) .LBB1_7663: movq 32512(%rbx), %rax movq $0, (%rsi,%rax,8) .align 16, 0x90 .LBB1_7664: movq %r10, %rdi vmovdqa 29696(%rbx), %xmm0 vpaddq %xmm6, %xmm0, %xmm0 vpextrq $1, %xmm0, %r14 vmovd %xmm0, %rax vmovdqa 29728(%rbx), %xmm0 vpaddq %xmm6, %xmm0, %xmm0 vmovdqa 30528(%rbx), %ymm1 vpaddq %xmm6, %xmm1, %xmm1 vpextrq $1, %xmm1, %rcx vmovd %xmm1, %rdx vpextrq $1, %xmm0, %r10 vpaddq %xmm6, %xmm8, %xmm1 vmovd %xmm0, %r12 vpextrq $1, %xmm1, %rsi vmovd %xmm1, %r9 cmpl $0, 31744(%rbx) je .LBB1_7666 movq 31456(%rbx), %r13 vmovsd 896(%r13,%r11), %xmm0 vmovsd %xmm0, (%rdi,%rdx,8) vmovsd 904(%r13,%r11), %xmm0 vmovsd %xmm0, (%rdi,%rcx,8) vmovsd 912(%r13,%r11), %xmm1 vextractf128 $1, %ymm4, %xmm0 vextractf128 $1, %ymm13, %xmm2 vmovsd %xmm1, (%rdi,%rax,8) vpaddq %xmm6, %xmm2, %xmm5 vpaddq %xmm6, %xmm13, %xmm2 vpaddq %xmm6, %xmm0, %xmm1 vpaddq %xmm6, %xmm4, %xmm0 vpextrq $1, %xmm5, %r8 movq %r11, %rdx movq %r15, %r11 vmovd %xmm5, %r15 vmovsd 920(%r13,%rdx), %xmm5 vmovsd %xmm5, (%rdi,%r14,8) vmovsd 928(%r13,%rdx), %xmm5 vmovd %xmm1, %r14 vmovsd %xmm5, (%rdi,%r9,8) vpextrq $1, %xmm2, %r9 vmovsd 936(%r13,%rdx), %xmm5 vmovsd %xmm5, (%rdi,%rsi,8) vmovd %xmm2, %rsi vmovsd 944(%r13,%rdx), %xmm2 vmovsd %xmm2, (%rdi,%r12,8) movq %r13, %r12 vpextrq $1, %xmm1, %rax vpextrq $1, %xmm0, %rcx vmovsd 952(%r12,%rdx), %xmm1 vmovd %xmm0, %rdx vmovsd %xmm1, (%rdi,%r10,8) vmovaps 26592(%rbx), %ymm0 vmovsd %xmm0, (%r11,%rdx,8) vmovaps 23200(%rbx), %xmm0 vmovsd %xmm0, (%r11,%rcx,8) vmovaps 24544(%rbx), %xmm0 vmovsd %xmm0, (%r11,%r14,8) vmovaps 23264(%rbx), %xmm0 vmovsd %xmm0, (%r11,%rax,8) vmovaps 26656(%rbx), %ymm0 vmovsd %xmm0, (%r11,%rsi,8) vmovaps 23328(%rbx), %xmm0 vmovsd %xmm0, (%r11,%r9,8) vmovaps 24608(%rbx), %xmm0 vmovsd %xmm0, (%r11,%r15,8) vmovaps 23360(%rbx), %xmm0 vmovsd %xmm0, (%r11,%r8,8) movq 12472(%rbx), %r10 vmovaps 26624(%rbx), %ymm0 vmovsd %xmm0, (%r10,%rdx,8) vmovaps 23136(%rbx), %xmm0 vmovsd %xmm0, (%r10,%rcx,8) vmovaps 24512(%rbx), %xmm0 vmovsd %xmm0, (%r10,%r14,8) vmovaps 23168(%rbx), %xmm0 vmovsd %xmm0, (%r10,%rax,8) vmovaps 26688(%rbx), %ymm0 vmovsd %xmm0, (%r10,%rsi,8) vmovaps 23232(%rbx), %xmm0 vmovsd %xmm0, (%r10,%r9,8) vmovaps 24576(%rbx), %xmm0 vmovsd %xmm0, (%r10,%r15,8) movq %r11, %r15 vmovapd 23296(%rbx), %xmm0 vmovsd %xmm0, (%r10,%r8,8) jmp .LBB1_7714 .align 16, 0x90 .LBB1_7666: movq %rsi, %r13 movq %r10, %r8 movq 31456(%rbx), %rsi testb $1, 288(%rsi,%r11) je .LBB1_7668 vmovsd 896(%rsi,%r11), %xmm0 vmovsd %xmm0, (%rdi,%rdx,8) .LBB1_7668: testb $1, 292(%rsi,%r11) je .LBB1_7670 vmovsd 904(%rsi,%r11), %xmm0 vmovsd %xmm0, (%rdi,%rcx,8) .LBB1_7670: testb $1, 296(%rsi,%r11) je .LBB1_7672 vmovsd 912(%rsi,%r11), %xmm0 vmovsd %xmm0, (%rdi,%rax,8) .LBB1_7672: testb $1, 300(%rsi,%r11) je .LBB1_7674 vmovsd 920(%rsi,%r11), %xmm0 vmovsd %xmm0, (%rdi,%r14,8) .LBB1_7674: testb $1, 304(%rsi,%r11) je .LBB1_7676 vmovsd 928(%rsi,%r11), %xmm0 vmovsd %xmm0, (%rdi,%r9,8) .LBB1_7676: testb $1, 308(%rsi,%r11) je .LBB1_7678 vmovsd 936(%rsi,%r11), %xmm0 vmovsd %xmm0, (%rdi,%r13,8) .LBB1_7678: testb $1, 312(%rsi,%r11) je .LBB1_7680 vmovsd 944(%rsi,%r11), %xmm0 vmovsd %xmm0, (%rdi,%r12,8) .LBB1_7680: testb $1, 316(%rsi,%r11) movq %rsi, %r12 je .LBB1_7682 vmovsd 952(%r12,%r11), %xmm0 vmovsd %xmm0, (%rdi,%r8,8) .LBB1_7682: vextractf128 $1, %ymm4, %xmm0 vpaddq %xmm6, %xmm4, %xmm1 vmovd %xmm1, %r10 testb $1, 288(%r11,%r12) movq %r11, %rax je .LBB1_7684 vmovaps 26592(%rbx), %ymm2 vmovsd %xmm2, (%r15,%r10,8) .LBB1_7684: vpaddq %xmm6, %xmm0, %xmm0 vpextrq $1, %xmm1, %r13 testb $1, 292(%rax,%r12) je .LBB1_7686 vmovapd 23200(%rbx), %xmm1 vmovsd %xmm1, (%r15,%r13,8) .LBB1_7686: vmovd %xmm0, %r14 testb $1, 296(%rax,%r12) je .LBB1_7688 vmovapd 24544(%rbx), %xmm1 vmovsd %xmm1, (%r15,%r14,8) .LBB1_7688: vpaddq %xmm6, %xmm13, %xmm1 vpextrq $1, %xmm0, %r8 testb $1, 300(%rax,%r12) je .LBB1_7690 vmovapd 23264(%rbx), %xmm0 vmovsd %xmm0, (%r15,%r8,8) .LBB1_7690: vextractf128 $1, %ymm13, %xmm0 vmovd %xmm1, %r9 testb $1, 304(%rax,%r12) je .LBB1_7692 vmovaps 26656(%rbx), %ymm2 vmovsd %xmm2, (%r15,%r9,8) .LBB1_7692: vpaddq %xmm6, %xmm0, %xmm0 vpextrq $1, %xmm1, %r11 testb $1, 308(%rax,%r12) je .LBB1_7694 vmovapd 23328(%rbx), %xmm1 vmovsd %xmm1, (%r15,%r11,8) .LBB1_7694: vmovd %xmm0, %rcx testb $1, 312(%rax,%r12) je .LBB1_7696 vmovapd 24608(%rbx), %xmm1 vmovsd %xmm1, (%r15,%rcx,8) .LBB1_7696: vpextrq $1, %xmm0, %rdx testb $1, 316(%rax,%r12) je .LBB1_7698 vmovapd 23360(%rbx), %xmm0 vmovsd %xmm0, (%r15,%rdx,8) .LBB1_7698: testb $1, 288(%rax,%r12) je .LBB1_7700 movq 12472(%rbx), %rsi vmovapd 26624(%rbx), %ymm0 vmovsd %xmm0, (%rsi,%r10,8) .LBB1_7700: testb $1, 292(%rax,%r12) je .LBB1_7702 movq 12472(%rbx), %rsi vmovapd 23136(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%r13,8) .LBB1_7702: testb $1, 296(%rax,%r12) movq 12472(%rbx), %r10 je .LBB1_7704 vmovapd 24512(%rbx), %xmm0 vmovsd %xmm0, (%r10,%r14,8) .LBB1_7704: testb $1, 300(%rax,%r12) je .LBB1_7706 vmovapd 23168(%rbx), %xmm0 vmovsd %xmm0, (%r10,%r8,8) .LBB1_7706: testb $1, 304(%rax,%r12) je .LBB1_7708 vmovapd 26688(%rbx), %ymm0 vmovsd %xmm0, (%r10,%r9,8) .LBB1_7708: testb $1, 308(%rax,%r12) je .LBB1_7710 vmovapd 23232(%rbx), %xmm0 vmovsd %xmm0, (%r10,%r11,8) .LBB1_7710: testb $1, 312(%rax,%r12) je .LBB1_7712 vmovapd 24576(%rbx), %xmm0 vmovsd %xmm0, (%r10,%rcx,8) .LBB1_7712: testb $1, 316(%rax,%r12) je .LBB1_7714 vmovapd 23296(%rbx), %xmm0 vmovsd %xmm0, (%r10,%rdx,8) .LBB1_7714: movq %rdi, %r9 movq %r10, %r8 cmpl $0, 30496(%rbx) jne .LBB1_7733 vmovaps 30592(%rbx), %ymm2 vextractf128 $1, %ymm2, %xmm1 vmovaps 30624(%rbx), %ymm3 vextractf128 $1, %ymm3, %xmm0 vpaddq %xmm6, %xmm0, %xmm0 vpaddq %xmm6, %xmm2, %xmm2 vpaddq %xmm6, %xmm1, %xmm5 vpmovzxwd %xmm10, %xmm1 vpslld $31, %xmm1, %xmm1 vpextrq $1, %xmm5, %r10 vmovd %xmm5, %rax vpextrq $1, %xmm2, %rcx vmovd %xmm2, %rdx vpextrq $1, %xmm0, %r11 vmovd %xmm0, %r14 vpaddq %xmm6, %xmm3, %xmm0 vpsrad $31, %xmm1, %xmm1 vpunpckhwd %xmm0, %xmm10, %xmm2 vpslld $31, %xmm2, %xmm2 vpsrad $31, %xmm2, %xmm2 vinsertf128 $1, %xmm2, %ymm1, %ymm1 vpextrq $1, %xmm0, %r13 vmovd %xmm0, %rdi vmovdqa 5824(%rbx), %ymm0 vptest %ymm0, %ymm1 jb .LBB1_7716 movl 30976(%rbx), %esi testb $1, %sil je .LBB1_7719 vmovdqa 21312(%rbx), %ymm0 vmovsd %xmm0, (%r15,%rdx,8) .LBB1_7719: movl 31040(%rbx), %edx testb $1, %dl je .LBB1_7721 vmovdqa 19712(%rbx), %xmm0 vmovsd %xmm0, (%r15,%rcx,8) .LBB1_7721: movl 31072(%rbx), %ecx testb $1, %cl je .LBB1_7723 vmovdqa 20672(%rbx), %xmm0 vmovsd %xmm0, (%r15,%rax,8) .LBB1_7723: movl 31168(%rbx), %eax testb $1, %al je .LBB1_7725 vmovdqa 19744(%rbx), %xmm0 vmovsd %xmm0, (%r15,%r10,8) .LBB1_7725: movl 31200(%rbx), %eax testb $1, %al je .LBB1_7727 vmovdqa 21344(%rbx), %ymm0 vmovsd %xmm0, (%r15,%rdi,8) .LBB1_7727: movl 31264(%rbx), %eax testb $1, %al je .LBB1_7729 vmovdqa 19776(%rbx), %xmm0 vmovsd %xmm0, (%r15,%r13,8) .LBB1_7729: movl 31616(%rbx), %eax testb $1, %al je .LBB1_7731 vmovdqa 20704(%rbx), %xmm0 vmovsd %xmm0, (%r15,%r14,8) .LBB1_7731: movl 31648(%rbx), %eax testb $1, %al je .LBB1_7733 jmp .LBB1_7732 .LBB1_7716: vmovaps 21312(%rbx), %ymm0 vmovsd %xmm0, (%r15,%rdx,8) vmovaps 19712(%rbx), %xmm0 vmovsd %xmm0, (%r15,%rcx,8) vmovaps 20672(%rbx), %xmm0 vmovsd %xmm0, (%r15,%rax,8) vmovaps 19744(%rbx), %xmm0 vmovsd %xmm0, (%r15,%r10,8) vmovaps 21344(%rbx), %ymm0 vmovsd %xmm0, (%r15,%rdi,8) vmovaps 19776(%rbx), %xmm0 vmovsd %xmm0, (%r15,%r13,8) vmovdqa 20704(%rbx), %xmm0 vmovsd %xmm0, (%r15,%r14,8) .LBB1_7732: vmovapd 19808(%rbx), %xmm0 vmovsd %xmm0, (%r15,%r11,8) .LBB1_7733: cmpl $0, 30464(%rbx) movq %r8, %rsi jne .LBB1_7752 vmovaps 30656(%rbx), %ymm2 vextractf128 $1, %ymm2, %xmm1 vmovaps 30688(%rbx), %ymm3 vextractf128 $1, %ymm3, %xmm0 vpaddq %xmm6, %xmm0, %xmm0 vpaddq %xmm6, %xmm2, %xmm2 vpaddq %xmm6, %xmm1, %xmm5 vpmovzxwd %xmm7, %xmm1 vpslld $31, %xmm1, %xmm1 vpextrq $1, %xmm5, %r8 vmovd %xmm5, %rax vpextrq $1, %xmm2, %rcx vmovd %xmm2, %rdx vpextrq $1, %xmm0, %r11 vmovd %xmm0, %r14 vpaddq %xmm6, %xmm3, %xmm0 vpsrad $31, %xmm1, %xmm1 vpunpckhwd %xmm0, %xmm7, %xmm2 vpslld $31, %xmm2, %xmm2 vpsrad $31, %xmm2, %xmm2 vinsertf128 $1, %xmm2, %ymm1, %ymm1 vpextrq $1, %xmm0, %r13 vmovd %xmm0, %r10 vmovdqa 5856(%rbx), %ymm0 vptest %ymm0, %ymm1 jb .LBB1_7735 movl 30816(%rbx), %edi testb $1, %dil je .LBB1_7738 vmovdqa 30784(%rbx), %ymm0 vmovsd %xmm0, (%rsi,%rdx,8) .LBB1_7738: movl 30848(%rbx), %edx testb $1, %dl je .LBB1_7740 vmovdqa 29280(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%rcx,8) .LBB1_7740: movl 30880(%rbx), %ecx testb $1, %cl je .LBB1_7742 vmovdqa 30112(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%rax,8) .LBB1_7742: movl 30912(%rbx), %eax testb $1, %al je .LBB1_7744 vmovdqa 29312(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%r8,8) .LBB1_7744: movl 30944(%rbx), %eax testb $1, %al je .LBB1_7746 vmovdqa 30176(%rbx), %ymm0 vmovsd %xmm0, (%rsi,%r10,8) .LBB1_7746: movl 31008(%rbx), %eax testb $1, %al je .LBB1_7748 vmovdqa 29344(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%r13,8) .LBB1_7748: movl 31232(%rbx), %eax testb $1, %al je .LBB1_7750 vmovdqa 30144(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%r14,8) .LBB1_7750: movl 31552(%rbx), %eax testb $1, %al je .LBB1_7752 jmp .LBB1_7751 .LBB1_7735: vmovaps 30784(%rbx), %ymm0 vmovsd %xmm0, (%rsi,%rdx,8) vmovaps 29280(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%rcx,8) vmovaps 30112(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%rax,8) vmovaps 29312(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%r8,8) vmovaps 30176(%rbx), %ymm0 vmovsd %xmm0, (%rsi,%r10,8) vmovaps 29344(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%r13,8) vmovdqa 30144(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%r14,8) .LBB1_7751: vmovapd 29376(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%r11,8) .LBB1_7752: cmpl $0, 30432(%rbx) movq 32792(%rbx), %r11 jne .LBB1_7842 vpmovzxwd %xmm9, %xmm0 vpslld $31, %xmm0, %xmm0 vpsrad $31, %xmm0, %xmm0 vpunpckhwd %xmm0, %xmm9, %xmm1 vpslld $31, %xmm1, %xmm1 vpsrad $31, %xmm1, %xmm1 vinsertf128 $1, %xmm1, %ymm0, %ymm0 vmovdqa 6016(%rbx), %ymm1 vptest %ymm1, %ymm0 jb .LBB1_7754 movq %r12, %rdi movl 31872(%rbx), %eax testb $1, %al movl 31712(%rbx), %r8d movl 31680(%rbx), %r10d movl 30560(%rbx), %r12d movl 31584(%rbx), %r14d movl 31808(%rbx), %edx movl 31776(%rbx), %ecx je .LBB1_7757 movq 32192(%rbx), %rax movq $0, (%r9,%rax,8) .LBB1_7757: movl 31904(%rbx), %eax testb $1, %al je .LBB1_7759 movq 32256(%rbx), %rax movq $0, (%r9,%rax,8) .LBB1_7759: testb $1, %cl je .LBB1_7761 movq 32224(%rbx), %rax movq $0, (%r9,%rax,8) .LBB1_7761: testb $1, %dl je .LBB1_7763 movq 32288(%rbx), %rax movq $0, (%r9,%rax,8) .LBB1_7763: testb $1, %r14b je .LBB1_7765 movq 32320(%rbx), %rax movq $0, (%r9,%rax,8) .LBB1_7765: testb $1, %r12b je .LBB1_7767 movq 32384(%rbx), %rax movq $0, (%r9,%rax,8) .LBB1_7767: testb $1, %r10b je .LBB1_7769 movq 32352(%rbx), %rax movq $0, (%r9,%rax,8) .LBB1_7769: testb $1, %r8b je .LBB1_7771 movq 32416(%rbx), %rax movq $0, (%r9,%rax,8) .LBB1_7771: movl 31872(%rbx), %eax testb $1, %al je .LBB1_7773 movq 32832(%rbx), %rax movq $0, (%r15,%rax,8) .LBB1_7773: movl 31904(%rbx), %eax testb $1, %al je .LBB1_7775 movq 32864(%rbx), %rax movq $0, (%r15,%rax,8) .LBB1_7775: testb $1, %cl je .LBB1_7777 movq 32736(%rbx), %rax movq $0, (%r15,%rax,8) .LBB1_7777: testb $1, %dl je .LBB1_7779 movq 32800(%rbx), %rax movq $0, (%r15,%rax,8) .LBB1_7779: testb $1, %r14b je .LBB1_7781 movq 32896(%rbx), %rax movq $0, (%r15,%rax,8) .LBB1_7781: testb $1, %r12b je .LBB1_7783 movq 32928(%rbx), %rax movq $0, (%r15,%rax,8) .LBB1_7783: testb $1, %r10b je .LBB1_7785 movq 32960(%rbx), %rax movq $0, (%r15,%rax,8) .LBB1_7785: testb $1, %r8b je .LBB1_7787 movq 32992(%rbx), %rax movq $0, (%r15,%rax,8) .LBB1_7787: movl 31872(%rbx), %eax testb $1, %al je .LBB1_7789 movq 32832(%rbx), %rax movq $0, (%rsi,%rax,8) .LBB1_7789: movl 31904(%rbx), %eax testb $1, %al je .LBB1_7791 movq 32864(%rbx), %rax movq $0, (%rsi,%rax,8) .LBB1_7791: testb $1, %cl je .LBB1_7793 movq 32736(%rbx), %rax movq $0, (%rsi,%rax,8) .LBB1_7793: testb $1, %dl je .LBB1_7795 movq 32800(%rbx), %rax movq $0, (%rsi,%rax,8) .LBB1_7795: testb $1, %r14b je .LBB1_7797 movq 32896(%rbx), %rax movq $0, (%rsi,%rax,8) .LBB1_7797: testb $1, %r12b je .LBB1_7799 movq 32928(%rbx), %rax movq $0, (%rsi,%rax,8) .LBB1_7799: testb $1, %r10b movq %rdi, %r12 je .LBB1_7801 movq 32960(%rbx), %rax movq $0, (%rsi,%rax,8) .LBB1_7801: testb $1, %r8b je .LBB1_7804 movq 32992(%rbx), %rax jmp .LBB1_7803 .LBB1_7754: movq 32192(%rbx), %rax movq $0, (%r9,%rax,8) movq 32256(%rbx), %rax movq $0, (%r9,%rax,8) movq 32224(%rbx), %rax movq $0, (%r9,%rax,8) movq 32288(%rbx), %rax movq $0, (%r9,%rax,8) movq 32320(%rbx), %rax movq $0, (%r9,%rax,8) movq 32384(%rbx), %rax movq $0, (%r9,%rax,8) movq 32352(%rbx), %rax movq $0, (%r9,%rax,8) movq 32416(%rbx), %rax movq $0, (%r9,%rax,8) movq 32832(%rbx), %r13 movq $0, (%r15,%r13,8) movq 32864(%rbx), %r14 movq $0, (%r15,%r14,8) movq 32736(%rbx), %r10 movq $0, (%r15,%r10,8) movq 32800(%rbx), %r8 movq $0, (%r15,%r8,8) movq 32896(%rbx), %rdi movq $0, (%r15,%rdi,8) movq 32928(%rbx), %rdx movq $0, (%r15,%rdx,8) movq 32960(%rbx), %rcx movq $0, (%r15,%rcx,8) movq 32992(%rbx), %rax movq $0, (%r15,%rax,8) movq $0, (%rsi,%r13,8) movq $0, (%rsi,%r14,8) movq $0, (%rsi,%r10,8) movq $0, (%rsi,%r8,8) movq $0, (%rsi,%rdi,8) movq $0, (%rsi,%rdx,8) movq $0, (%rsi,%rcx,8) .LBB1_7803: movq $0, (%rsi,%rax,8) .LBB1_7804: vmovdqa 31840(%rbx), %ymm0 vpcmpeqd .LCPI1_36(%rip), %xmm0, %xmm0 vpshufb .LCPI1_5(%rip), %xmm0, %xmm0 vmovlhps %xmm11, %xmm0, %xmm0 vandps %xmm0, %xmm9, %xmm0 vxorps %xmm14, %xmm0, %xmm1 vpmovzxwd %xmm1, %xmm2 vpslld $31, %xmm2, %xmm2 vpsrad $31, %xmm2, %xmm2 vpunpckhwd %xmm0, %xmm1, %xmm1 vpslld $31, %xmm1, %xmm1 vpsrad $31, %xmm1, %xmm1 vinsertf128 $1, %xmm1, %ymm2, %ymm1 vmovdqa 5984(%rbx), %ymm2 vptest %ymm2, %ymm1 jb .LBB1_7823 vpmovzxwd %xmm0, %xmm1 vpslld $31, %xmm1, %xmm1 vpsrad $31, %xmm1, %xmm1 vpunpckhwd %xmm0, %xmm0, %xmm2 vpslld $31, %xmm2, %xmm2 vpsrad $31, %xmm2, %xmm2 vinsertf128 $1, %xmm2, %ymm1, %ymm1 vmovdqa 5952(%rbx), %ymm2 vptest %ymm2, %ymm1 jb .LBB1_7806 vpextrb $0, %xmm0, %ecx vpextrb $2, %xmm0, %edx vpextrb $4, %xmm0, %eax testb $1, %cl je .LBB1_7809 movq 31936(%rbx), %rcx movq $0, (%r15,%rcx,8) .LBB1_7809: vpextrb $6, %xmm0, %ecx testb $1, %dl je .LBB1_7811 movq 31968(%rbx), %rdx movq $0, (%r15,%rdx,8) .LBB1_7811: vpextrb $8, %xmm0, %edx testb $1, %al je .LBB1_7813 movq 32096(%rbx), %rax movq $0, (%r15,%rax,8) .LBB1_7813: vpextrb $10, %xmm0, %eax testb $1, %cl je .LBB1_7815 movq 32128(%rbx), %rcx movq $0, (%r15,%rcx,8) .LBB1_7815: vpextrb $12, %xmm0, %ecx testb $1, %dl je .LBB1_7817 movq 32160(%rbx), %rdx movq $0, (%r15,%rdx,8) .LBB1_7817: vpextrb $14, %xmm0, %edx testb $1, %al je .LBB1_7819 movq 32000(%rbx), %rax movq $0, (%r15,%rax,8) .LBB1_7819: testb $1, %cl je .LBB1_7821 movq 32032(%rbx), %rax movq $0, (%r15,%rax,8) .LBB1_7821: testb $1, %dl je .LBB1_7823 jmp .LBB1_7822 .LBB1_7806: movq 31936(%rbx), %rax movq $0, (%r15,%rax,8) movq 31968(%rbx), %rax movq $0, (%r15,%rax,8) movq 32096(%rbx), %rax movq $0, (%r15,%rax,8) movq 32128(%rbx), %rax movq $0, (%r15,%rax,8) movq 32160(%rbx), %rax movq $0, (%r15,%rax,8) movq 32000(%rbx), %rax movq $0, (%r15,%rax,8) movq 32032(%rbx), %rax movq $0, (%r15,%rax,8) .LBB1_7822: movq 32064(%rbx), %rax movq $0, (%r15,%rax,8) .LBB1_7823: vandps %xmm15, %xmm9, %xmm0 vxorps %xmm14, %xmm0, %xmm1 vpmovzxwd %xmm1, %xmm2 vpslld $31, %xmm2, %xmm2 vpsrad $31, %xmm2, %xmm2 vpunpckhwd %xmm0, %xmm1, %xmm1 vpslld $31, %xmm1, %xmm1 vpsrad $31, %xmm1, %xmm1 vinsertf128 $1, %xmm1, %ymm2, %ymm1 vmovdqa 5920(%rbx), %ymm2 vptest %ymm2, %ymm1 jb .LBB1_7842 vpmovzxwd %xmm0, %xmm1 vpslld $31, %xmm1, %xmm1 vpsrad $31, %xmm1, %xmm1 vpunpckhwd %xmm0, %xmm0, %xmm2 vpslld $31, %xmm2, %xmm2 vpsrad $31, %xmm2, %xmm2 vinsertf128 $1, %xmm2, %ymm1, %ymm1 vmovdqa 5888(%rbx), %ymm2 vptest %ymm2, %ymm1 jb .LBB1_7825 vpextrb $0, %xmm0, %ecx vpextrb $2, %xmm0, %edx vpextrb $4, %xmm0, %eax testb $1, %cl je .LBB1_7828 movq 32448(%rbx), %rcx movq $0, (%rsi,%rcx,8) .LBB1_7828: vpextrb $6, %xmm0, %ecx testb $1, %dl je .LBB1_7830 movq 32480(%rbx), %rdx movq $0, (%rsi,%rdx,8) .LBB1_7830: vpextrb $8, %xmm0, %edx testb $1, %al je .LBB1_7832 movq 32544(%rbx), %rax movq $0, (%rsi,%rax,8) .LBB1_7832: vpextrb $10, %xmm0, %eax testb $1, %cl je .LBB1_7834 movq 32576(%rbx), %rcx movq $0, (%rsi,%rcx,8) .LBB1_7834: vpextrb $12, %xmm0, %ecx testb $1, %dl je .LBB1_7836 movq 32640(%rbx), %rdx movq $0, (%rsi,%rdx,8) .LBB1_7836: vpextrb $14, %xmm0, %edx testb $1, %al je .LBB1_7838 movq 32672(%rbx), %rax movq $0, (%rsi,%rax,8) .LBB1_7838: testb $1, %cl je .LBB1_7840 movq 32704(%rbx), %rax movq $0, (%rsi,%rax,8) .LBB1_7840: testb $1, %dl je .LBB1_7842 jmp .LBB1_7841 .LBB1_7825: movq 32448(%rbx), %rax movq $0, (%rsi,%rax,8) movq 32480(%rbx), %rax movq $0, (%rsi,%rax,8) movq 32544(%rbx), %rax movq $0, (%rsi,%rax,8) movq 32576(%rbx), %rax movq $0, (%rsi,%rax,8) movq 32640(%rbx), %rax movq $0, (%rsi,%rax,8) movq 32672(%rbx), %rax movq $0, (%rsi,%rax,8) movq 32704(%rbx), %rax movq $0, (%rsi,%rax,8) .LBB1_7841: movq 32512(%rbx), %rax movq $0, (%rsi,%rax,8) .align 16, 0x90 .LBB1_7842: movq %r12, %rsi movq %r9, %rdi vmovdqa .LCPI1_15(%rip), %xmm6 vmovdqa 29696(%rbx), %xmm0 vpaddq %xmm6, %xmm0, %xmm0 vpextrq $1, %xmm0, %r14 vmovd %xmm0, %r8 vmovdqa 29728(%rbx), %xmm0 vpaddq %xmm6, %xmm0, %xmm0 vmovdqa 30528(%rbx), %ymm1 vpaddq %xmm6, %xmm1, %xmm1 vpextrq $1, %xmm1, %rcx vmovd %xmm1, %rdx vpextrq $1, %xmm0, %r10 vpaddq %xmm6, %xmm8, %xmm1 vmovd %xmm0, %r12 vpextrq $1, %xmm1, %rax vmovd %xmm1, %r9 cmpl $0, 31744(%rbx) je .LBB1_7844 movq %rsi, %r13 vmovsd 832(%r13,%r11), %xmm0 vmovsd %xmm0, (%rdi,%rdx,8) vmovsd 840(%r13,%r11), %xmm0 vmovsd %xmm0, (%rdi,%rcx,8) vmovsd 848(%r13,%r11), %xmm1 vextractf128 $1, %ymm4, %xmm0 vextractf128 $1, %ymm13, %xmm2 vmovsd %xmm1, (%rdi,%r8,8) vpaddq %xmm6, %xmm2, %xmm5 vpaddq %xmm6, %xmm13, %xmm2 vpaddq %xmm6, %xmm0, %xmm1 vpaddq %xmm6, %xmm4, %xmm0 vpextrq $1, %xmm5, %r8 movq %r11, %rdx movq %r15, %r11 vmovd %xmm5, %r15 vmovsd 856(%r13,%rdx), %xmm5 vmovsd %xmm5, (%rdi,%r14,8) vmovsd 864(%r13,%rdx), %xmm5 vmovd %xmm1, %r14 vmovsd %xmm5, (%rdi,%r9,8) vpextrq $1, %xmm2, %r9 vmovsd 872(%r13,%rdx), %xmm5 vmovsd %xmm5, (%rdi,%rax,8) vmovd %xmm2, %rsi vmovsd 880(%r13,%rdx), %xmm2 vmovsd %xmm2, (%rdi,%r12,8) movq %r13, %r12 vpextrq $1, %xmm1, %rax vpextrq $1, %xmm0, %rcx vmovsd 888(%r12,%rdx), %xmm1 vmovd %xmm0, %rdx vmovsd %xmm1, (%rdi,%r10,8) vmovaps 26720(%rbx), %ymm0 vmovsd %xmm0, (%r11,%rdx,8) vmovaps 23424(%rbx), %xmm0 vmovsd %xmm0, (%r11,%rcx,8) vmovaps 24672(%rbx), %xmm0 vmovsd %xmm0, (%r11,%r14,8) vmovaps 23488(%rbx), %xmm0 vmovsd %xmm0, (%r11,%rax,8) vmovaps 26784(%rbx), %ymm0 vmovsd %xmm0, (%r11,%rsi,8) vmovaps 23584(%rbx), %xmm0 vmovsd %xmm0, (%r11,%r9,8) vmovaps 24736(%rbx), %xmm0 vmovsd %xmm0, (%r11,%r15,8) vmovaps 23616(%rbx), %xmm0 vmovsd %xmm0, (%r11,%r8,8) movq 12472(%rbx), %r10 vmovaps 26752(%rbx), %ymm0 vmovsd %xmm0, (%r10,%rdx,8) vmovaps 23392(%rbx), %xmm0 vmovsd %xmm0, (%r10,%rcx,8) vmovaps 24640(%rbx), %xmm0 vmovsd %xmm0, (%r10,%r14,8) vmovaps 23456(%rbx), %xmm0 vmovsd %xmm0, (%r10,%rax,8) vmovaps 26816(%rbx), %ymm0 vmovsd %xmm0, (%r10,%rsi,8) vmovaps 23520(%rbx), %xmm0 vmovsd %xmm0, (%r10,%r9,8) vmovaps 24704(%rbx), %xmm0 vmovsd %xmm0, (%r10,%r15,8) movq %r11, %r15 vmovapd 23552(%rbx), %xmm0 vmovsd %xmm0, (%r10,%r8,8) jmp .LBB1_7892 .align 16, 0x90 .LBB1_7844: testb $1, 288(%rsi,%r11) je .LBB1_7846 vmovsd 832(%rsi,%r11), %xmm0 vmovsd %xmm0, (%rdi,%rdx,8) .LBB1_7846: testb $1, 292(%rsi,%r11) je .LBB1_7848 vmovsd 840(%rsi,%r11), %xmm0 vmovsd %xmm0, (%rdi,%rcx,8) .LBB1_7848: testb $1, 296(%rsi,%r11) je .LBB1_7850 vmovsd 848(%rsi,%r11), %xmm0 vmovsd %xmm0, (%rdi,%r8,8) .LBB1_7850: testb $1, 300(%rsi,%r11) je .LBB1_7852 vmovsd 856(%rsi,%r11), %xmm0 vmovsd %xmm0, (%rdi,%r14,8) .LBB1_7852: testb $1, 304(%rsi,%r11) je .LBB1_7854 vmovsd 864(%rsi,%r11), %xmm0 vmovsd %xmm0, (%rdi,%r9,8) .LBB1_7854: testb $1, 308(%rsi,%r11) je .LBB1_7856 vmovsd 872(%rsi,%r11), %xmm0 vmovsd %xmm0, (%rdi,%rax,8) .LBB1_7856: testb $1, 312(%rsi,%r11) movq %r10, %r8 je .LBB1_7858 vmovsd 880(%rsi,%r11), %xmm0 vmovsd %xmm0, (%rdi,%r12,8) .LBB1_7858: testb $1, 316(%rsi,%r11) movq %rsi, %r12 je .LBB1_7860 vmovsd 888(%r12,%r11), %xmm0 vmovsd %xmm0, (%rdi,%r8,8) .LBB1_7860: vextractf128 $1, %ymm4, %xmm0 vpaddq .LCPI1_15(%rip), %xmm4, %xmm1 vmovd %xmm1, %r10 testb $1, 288(%r11,%r12) movq %r11, %rax je .LBB1_7862 vmovaps 26720(%rbx), %ymm2 vmovsd %xmm2, (%r15,%r10,8) .LBB1_7862: vpaddq .LCPI1_15(%rip), %xmm0, %xmm0 vpextrq $1, %xmm1, %r13 testb $1, 292(%rax,%r12) je .LBB1_7864 vmovapd 23424(%rbx), %xmm1 vmovsd %xmm1, (%r15,%r13,8) .LBB1_7864: vmovd %xmm0, %r14 testb $1, 296(%rax,%r12) je .LBB1_7866 vmovapd 24672(%rbx), %xmm1 vmovsd %xmm1, (%r15,%r14,8) .LBB1_7866: vpaddq .LCPI1_15(%rip), %xmm13, %xmm1 vpextrq $1, %xmm0, %r8 testb $1, 300(%rax,%r12) je .LBB1_7868 vmovapd 23488(%rbx), %xmm0 vmovsd %xmm0, (%r15,%r8,8) .LBB1_7868: vextractf128 $1, %ymm13, %xmm0 vmovd %xmm1, %r9 testb $1, 304(%rax,%r12) je .LBB1_7870 vmovaps 26784(%rbx), %ymm2 vmovsd %xmm2, (%r15,%r9,8) .LBB1_7870: vpaddq .LCPI1_15(%rip), %xmm0, %xmm0 vpextrq $1, %xmm1, %r11 testb $1, 308(%rax,%r12) je .LBB1_7872 vmovapd 23584(%rbx), %xmm1 vmovsd %xmm1, (%r15,%r11,8) .LBB1_7872: vmovd %xmm0, %rcx testb $1, 312(%rax,%r12) je .LBB1_7874 vmovapd 24736(%rbx), %xmm1 vmovsd %xmm1, (%r15,%rcx,8) .LBB1_7874: vpextrq $1, %xmm0, %rdx testb $1, 316(%rax,%r12) je .LBB1_7876 vmovapd 23616(%rbx), %xmm0 vmovsd %xmm0, (%r15,%rdx,8) .LBB1_7876: testb $1, 288(%rax,%r12) je .LBB1_7878 movq 12472(%rbx), %rsi vmovapd 26752(%rbx), %ymm0 vmovsd %xmm0, (%rsi,%r10,8) .LBB1_7878: testb $1, 292(%rax,%r12) je .LBB1_7880 movq 12472(%rbx), %rsi vmovapd 23392(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%r13,8) .LBB1_7880: testb $1, 296(%rax,%r12) movq 12472(%rbx), %r10 je .LBB1_7882 vmovapd 24640(%rbx), %xmm0 vmovsd %xmm0, (%r10,%r14,8) .LBB1_7882: testb $1, 300(%rax,%r12) je .LBB1_7884 vmovapd 23456(%rbx), %xmm0 vmovsd %xmm0, (%r10,%r8,8) .LBB1_7884: testb $1, 304(%rax,%r12) je .LBB1_7886 vmovapd 26816(%rbx), %ymm0 vmovsd %xmm0, (%r10,%r9,8) .LBB1_7886: testb $1, 308(%rax,%r12) je .LBB1_7888 vmovapd 23520(%rbx), %xmm0 vmovsd %xmm0, (%r10,%r11,8) .LBB1_7888: testb $1, 312(%rax,%r12) je .LBB1_7890 vmovapd 24704(%rbx), %xmm0 vmovsd %xmm0, (%r10,%rcx,8) .LBB1_7890: testb $1, 316(%rax,%r12) je .LBB1_7892 vmovapd 23552(%rbx), %xmm0 vmovsd %xmm0, (%r10,%rdx,8) .LBB1_7892: movq %rdi, %r9 movq %r10, %r8 cmpl $0, 30496(%rbx) jne .LBB1_7911 vmovaps 30592(%rbx), %ymm2 vextractf128 $1, %ymm2, %xmm1 vmovaps 30624(%rbx), %ymm3 vextractf128 $1, %ymm3, %xmm0 vmovdqa .LCPI1_15(%rip), %xmm6 vpaddq %xmm6, %xmm0, %xmm0 vpaddq %xmm6, %xmm2, %xmm2 vpaddq %xmm6, %xmm1, %xmm5 vpmovzxwd %xmm10, %xmm1 vpslld $31, %xmm1, %xmm1 vpextrq $1, %xmm5, %r10 vmovd %xmm5, %rax vpextrq $1, %xmm2, %rcx vmovd %xmm2, %rdx vpextrq $1, %xmm0, %r11 vmovd %xmm0, %r14 vpaddq %xmm6, %xmm3, %xmm0 vpsrad $31, %xmm1, %xmm1 vpunpckhwd %xmm0, %xmm10, %xmm2 vpslld $31, %xmm2, %xmm2 vpsrad $31, %xmm2, %xmm2 vinsertf128 $1, %xmm2, %ymm1, %ymm1 vpextrq $1, %xmm0, %r13 vmovd %xmm0, %rdi vmovdqa 6048(%rbx), %ymm0 vptest %ymm0, %ymm1 jb .LBB1_7894 movl 30976(%rbx), %esi testb $1, %sil je .LBB1_7897 vmovdqa 21376(%rbx), %ymm0 vmovsd %xmm0, (%r15,%rdx,8) .LBB1_7897: movl 31040(%rbx), %edx testb $1, %dl je .LBB1_7899 vmovdqa 19840(%rbx), %xmm0 vmovsd %xmm0, (%r15,%rcx,8) .LBB1_7899: movl 31072(%rbx), %ecx testb $1, %cl je .LBB1_7901 vmovdqa 20736(%rbx), %xmm0 vmovsd %xmm0, (%r15,%rax,8) .LBB1_7901: movl 31168(%rbx), %eax testb $1, %al je .LBB1_7903 vmovdqa 19872(%rbx), %xmm0 vmovsd %xmm0, (%r15,%r10,8) .LBB1_7903: movl 31200(%rbx), %eax testb $1, %al je .LBB1_7905 vmovdqa 21408(%rbx), %ymm0 vmovsd %xmm0, (%r15,%rdi,8) .LBB1_7905: movl 31264(%rbx), %eax testb $1, %al je .LBB1_7907 vmovdqa 19904(%rbx), %xmm0 vmovsd %xmm0, (%r15,%r13,8) .LBB1_7907: movl 31616(%rbx), %eax testb $1, %al je .LBB1_7909 vmovdqa 20768(%rbx), %xmm0 vmovsd %xmm0, (%r15,%r14,8) .LBB1_7909: movl 31648(%rbx), %eax testb $1, %al je .LBB1_7911 jmp .LBB1_7910 .LBB1_7894: vmovaps 21376(%rbx), %ymm0 vmovsd %xmm0, (%r15,%rdx,8) vmovaps 19840(%rbx), %xmm0 vmovsd %xmm0, (%r15,%rcx,8) vmovaps 20736(%rbx), %xmm0 vmovsd %xmm0, (%r15,%rax,8) vmovaps 19872(%rbx), %xmm0 vmovsd %xmm0, (%r15,%r10,8) vmovaps 21408(%rbx), %ymm0 vmovsd %xmm0, (%r15,%rdi,8) vmovaps 19904(%rbx), %xmm0 vmovsd %xmm0, (%r15,%r13,8) vmovdqa 20768(%rbx), %xmm0 vmovsd %xmm0, (%r15,%r14,8) .LBB1_7910: vmovapd 19936(%rbx), %xmm0 vmovsd %xmm0, (%r15,%r11,8) .LBB1_7911: cmpl $0, 30464(%rbx) movq %r8, %rsi jne .LBB1_7930 vmovaps 30656(%rbx), %ymm2 vextractf128 $1, %ymm2, %xmm1 vmovaps 30688(%rbx), %ymm3 vextractf128 $1, %ymm3, %xmm0 vmovdqa .LCPI1_15(%rip), %xmm6 vpaddq %xmm6, %xmm0, %xmm0 vpaddq %xmm6, %xmm2, %xmm2 vpaddq %xmm6, %xmm1, %xmm5 vpmovzxwd %xmm7, %xmm1 vpslld $31, %xmm1, %xmm1 vpextrq $1, %xmm5, %r8 vmovd %xmm5, %rax vpextrq $1, %xmm2, %rcx vmovd %xmm2, %rdx vpextrq $1, %xmm0, %r11 vmovd %xmm0, %r14 vpaddq %xmm6, %xmm3, %xmm0 vpsrad $31, %xmm1, %xmm1 vpunpckhwd %xmm0, %xmm7, %xmm2 vpslld $31, %xmm2, %xmm2 vpsrad $31, %xmm2, %xmm2 vinsertf128 $1, %xmm2, %ymm1, %ymm1 vpextrq $1, %xmm0, %r13 vmovd %xmm0, %r10 vmovdqa 6080(%rbx), %ymm0 vptest %ymm0, %ymm1 jb .LBB1_7913 movl 30816(%rbx), %edi testb $1, %dil je .LBB1_7916 vmovdqa 30240(%rbx), %ymm0 vmovsd %xmm0, (%rsi,%rdx,8) .LBB1_7916: movl 30848(%rbx), %edx testb $1, %dl je .LBB1_7918 vmovdqa 29408(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%rcx,8) .LBB1_7918: movl 30880(%rbx), %ecx testb $1, %cl je .LBB1_7920 vmovdqa 30208(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%rax,8) .LBB1_7920: movl 30912(%rbx), %eax testb $1, %al je .LBB1_7922 vmovdqa 29440(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%r8,8) .LBB1_7922: movl 30944(%rbx), %eax testb $1, %al je .LBB1_7924 vmovdqa 30304(%rbx), %ymm0 vmovsd %xmm0, (%rsi,%r10,8) .LBB1_7924: movl 31008(%rbx), %eax testb $1, %al je .LBB1_7926 vmovdqa 29472(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%r13,8) .LBB1_7926: movl 31232(%rbx), %eax testb $1, %al je .LBB1_7928 vmovdqa 30272(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%r14,8) .LBB1_7928: movl 31552(%rbx), %eax testb $1, %al je .LBB1_7930 jmp .LBB1_7929 .LBB1_7913: vmovaps 30240(%rbx), %ymm0 vmovsd %xmm0, (%rsi,%rdx,8) vmovaps 29408(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%rcx,8) vmovaps 30208(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%rax,8) vmovaps 29440(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%r8,8) vmovaps 30304(%rbx), %ymm0 vmovsd %xmm0, (%rsi,%r10,8) vmovaps 29472(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%r13,8) vmovdqa 30272(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%r14,8) .LBB1_7929: vmovapd 29504(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%r11,8) .LBB1_7930: cmpl $0, 30432(%rbx) movq %r9, %r13 vmovaps .LCPI1_16(%rip), %xmm0 vmovaps %xmm0, %xmm5 movl 31808(%rbx), %r9d movl 31776(%rbx), %r10d jne .LBB1_8020 vpmovzxwd %xmm9, %xmm0 vpslld $31, %xmm0, %xmm0 vpsrad $31, %xmm0, %xmm0 vpunpckhwd %xmm0, %xmm9, %xmm1 vpslld $31, %xmm1, %xmm1 vpsrad $31, %xmm1, %xmm1 vinsertf128 $1, %xmm1, %ymm0, %ymm0 vmovdqa 6240(%rbx), %ymm1 vptest %ymm1, %ymm0 jb .LBB1_7932 movl 31872(%rbx), %eax testb $1, %al movl 31712(%rbx), %r8d movl 31680(%rbx), %edx movl 30560(%rbx), %edi movl 31584(%rbx), %ecx je .LBB1_7935 movq 32192(%rbx), %rax movq $0, (%r13,%rax,8) .LBB1_7935: movl 31904(%rbx), %eax testb $1, %al je .LBB1_7937 movq 32256(%rbx), %rax movq $0, (%r13,%rax,8) .LBB1_7937: testb $1, %r10b je .LBB1_7939 movq 32224(%rbx), %rax movq $0, (%r13,%rax,8) .LBB1_7939: testb $1, %r9b je .LBB1_7941 movq 32288(%rbx), %rax movq $0, (%r13,%rax,8) .LBB1_7941: testb $1, %cl je .LBB1_7943 movq 32320(%rbx), %rax movq $0, (%r13,%rax,8) .LBB1_7943: testb $1, %dil je .LBB1_7945 movq 32384(%rbx), %rax movq $0, (%r13,%rax,8) .LBB1_7945: testb $1, %dl je .LBB1_7947 movq 32352(%rbx), %rax movq $0, (%r13,%rax,8) .LBB1_7947: testb $1, %r8b je .LBB1_7949 movq 32416(%rbx), %rax movq $0, (%r13,%rax,8) .LBB1_7949: movl 31872(%rbx), %eax testb $1, %al je .LBB1_7951 movq 32832(%rbx), %rax movq $0, (%r15,%rax,8) .LBB1_7951: movl 31904(%rbx), %eax testb $1, %al je .LBB1_7953 movq 32864(%rbx), %rax movq $0, (%r15,%rax,8) .LBB1_7953: testb $1, %r10b je .LBB1_7955 movq 32736(%rbx), %rax movq $0, (%r15,%rax,8) .LBB1_7955: testb $1, %r9b je .LBB1_7957 movq 32800(%rbx), %rax movq $0, (%r15,%rax,8) .LBB1_7957: testb $1, %cl je .LBB1_7959 movq 32896(%rbx), %rax movq $0, (%r15,%rax,8) .LBB1_7959: testb $1, %dil je .LBB1_7961 movq 32928(%rbx), %rax movq $0, (%r15,%rax,8) .LBB1_7961: testb $1, %dl je .LBB1_7963 movq 32960(%rbx), %rax movq $0, (%r15,%rax,8) .LBB1_7963: testb $1, %r8b je .LBB1_7965 movq 32992(%rbx), %rax movq $0, (%r15,%rax,8) .LBB1_7965: movl 31872(%rbx), %eax testb $1, %al je .LBB1_7967 movq 32832(%rbx), %rax movq $0, (%rsi,%rax,8) .LBB1_7967: movl 31904(%rbx), %eax testb $1, %al je .LBB1_7969 movq 32864(%rbx), %rax movq $0, (%rsi,%rax,8) .LBB1_7969: testb $1, %r10b je .LBB1_7971 movq 32736(%rbx), %rax movq $0, (%rsi,%rax,8) .LBB1_7971: testb $1, %r9b je .LBB1_7973 movq 32800(%rbx), %rax movq $0, (%rsi,%rax,8) .LBB1_7973: testb $1, %cl je .LBB1_7975 movq 32896(%rbx), %rax movq $0, (%rsi,%rax,8) .LBB1_7975: testb $1, %dil je .LBB1_7977 movq 32928(%rbx), %rax movq $0, (%rsi,%rax,8) .LBB1_7977: testb $1, %dl je .LBB1_7979 movq 32960(%rbx), %rax movq $0, (%rsi,%rax,8) .LBB1_7979: testb $1, %r8b je .LBB1_7982 movq 32992(%rbx), %rax jmp .LBB1_7981 .LBB1_7932: movq 32192(%rbx), %rax movq $0, (%r13,%rax,8) movq 32256(%rbx), %rax movq $0, (%r13,%rax,8) movq 32224(%rbx), %rax movq $0, (%r13,%rax,8) movq 32288(%rbx), %rax movq $0, (%r13,%rax,8) movq 32320(%rbx), %rax movq $0, (%r13,%rax,8) movq 32384(%rbx), %rax movq $0, (%r13,%rax,8) movq 32352(%rbx), %rax movq $0, (%r13,%rax,8) movq 32416(%rbx), %rax movq $0, (%r13,%rax,8) movq 32832(%rbx), %r11 movq $0, (%r15,%r11,8) movq 32864(%rbx), %r10 movq $0, (%r15,%r10,8) movq 32736(%rbx), %r9 movq $0, (%r15,%r9,8) movq 32800(%rbx), %r8 movq $0, (%r15,%r8,8) movq 32896(%rbx), %rdi movq $0, (%r15,%rdi,8) movq 32928(%rbx), %rdx movq $0, (%r15,%rdx,8) movq 32960(%rbx), %rcx movq $0, (%r15,%rcx,8) movq 32992(%rbx), %rax movq $0, (%r15,%rax,8) movq $0, (%rsi,%r11,8) movq $0, (%rsi,%r10,8) movq $0, (%rsi,%r9,8) movq $0, (%rsi,%r8,8) movq $0, (%rsi,%rdi,8) movq $0, (%rsi,%rdx,8) movq $0, (%rsi,%rcx,8) .LBB1_7981: movq $0, (%rsi,%rax,8) .LBB1_7982: vmovdqa 31840(%rbx), %ymm0 vpcmpeqd .LCPI1_36(%rip), %xmm0, %xmm0 vpshufb .LCPI1_5(%rip), %xmm0, %xmm0 vmovlhps %xmm11, %xmm0, %xmm0 vandps %xmm0, %xmm9, %xmm0 vxorps %xmm14, %xmm0, %xmm1 vpmovzxwd %xmm1, %xmm2 vpslld $31, %xmm2, %xmm2 vpsrad $31, %xmm2, %xmm2 vpunpckhwd %xmm0, %xmm1, %xmm1 vpslld $31, %xmm1, %xmm1 vpsrad $31, %xmm1, %xmm1 vinsertf128 $1, %xmm1, %ymm2, %ymm1 vmovdqa 6208(%rbx), %ymm2 vptest %ymm2, %ymm1 jb .LBB1_8001 vpmovzxwd %xmm0, %xmm1 vpslld $31, %xmm1, %xmm1 vpsrad $31, %xmm1, %xmm1 vpunpckhwd %xmm0, %xmm0, %xmm2 vpslld $31, %xmm2, %xmm2 vpsrad $31, %xmm2, %xmm2 vinsertf128 $1, %xmm2, %ymm1, %ymm1 vmovdqa 6176(%rbx), %ymm2 vptest %ymm2, %ymm1 jb .LBB1_7984 vpextrb $0, %xmm0, %ecx vpextrb $2, %xmm0, %edx vpextrb $4, %xmm0, %eax testb $1, %cl je .LBB1_7987 movq 31936(%rbx), %rcx movq $0, (%r15,%rcx,8) .LBB1_7987: vpextrb $6, %xmm0, %ecx testb $1, %dl je .LBB1_7989 movq 31968(%rbx), %rdx movq $0, (%r15,%rdx,8) .LBB1_7989: vpextrb $8, %xmm0, %edx testb $1, %al je .LBB1_7991 movq 32096(%rbx), %rax movq $0, (%r15,%rax,8) .LBB1_7991: vpextrb $10, %xmm0, %eax testb $1, %cl je .LBB1_7993 movq 32128(%rbx), %rcx movq $0, (%r15,%rcx,8) .LBB1_7993: vpextrb $12, %xmm0, %ecx testb $1, %dl je .LBB1_7995 movq 32160(%rbx), %rdx movq $0, (%r15,%rdx,8) .LBB1_7995: vpextrb $14, %xmm0, %edx testb $1, %al je .LBB1_7997 movq 32000(%rbx), %rax movq $0, (%r15,%rax,8) .LBB1_7997: testb $1, %cl je .LBB1_7999 movq 32032(%rbx), %rax movq $0, (%r15,%rax,8) .LBB1_7999: testb $1, %dl je .LBB1_8001 jmp .LBB1_8000 .LBB1_7984: movq 31936(%rbx), %rax movq $0, (%r15,%rax,8) movq 31968(%rbx), %rax movq $0, (%r15,%rax,8) movq 32096(%rbx), %rax movq $0, (%r15,%rax,8) movq 32128(%rbx), %rax movq $0, (%r15,%rax,8) movq 32160(%rbx), %rax movq $0, (%r15,%rax,8) movq 32000(%rbx), %rax movq $0, (%r15,%rax,8) movq 32032(%rbx), %rax movq $0, (%r15,%rax,8) .LBB1_8000: movq 32064(%rbx), %rax movq $0, (%r15,%rax,8) .LBB1_8001: vandps %xmm15, %xmm9, %xmm0 vxorps %xmm14, %xmm0, %xmm1 vpmovzxwd %xmm1, %xmm2 vpslld $31, %xmm2, %xmm2 vpsrad $31, %xmm2, %xmm2 vpunpckhwd %xmm0, %xmm1, %xmm1 vpslld $31, %xmm1, %xmm1 vpsrad $31, %xmm1, %xmm1 vinsertf128 $1, %xmm1, %ymm2, %ymm1 vmovdqa 6144(%rbx), %ymm2 vptest %ymm2, %ymm1 jb .LBB1_8020 vpmovzxwd %xmm0, %xmm1 vpslld $31, %xmm1, %xmm1 vpsrad $31, %xmm1, %xmm1 vpunpckhwd %xmm0, %xmm0, %xmm2 vpslld $31, %xmm2, %xmm2 vpsrad $31, %xmm2, %xmm2 vinsertf128 $1, %xmm2, %ymm1, %ymm1 vmovdqa 6112(%rbx), %ymm2 vptest %ymm2, %ymm1 jb .LBB1_8003 vpextrb $0, %xmm0, %ecx vpextrb $2, %xmm0, %edx vpextrb $4, %xmm0, %eax testb $1, %cl je .LBB1_8006 movq 32448(%rbx), %rcx movq $0, (%rsi,%rcx,8) .LBB1_8006: vpextrb $6, %xmm0, %ecx testb $1, %dl je .LBB1_8008 movq 32480(%rbx), %rdx movq $0, (%rsi,%rdx,8) .LBB1_8008: vpextrb $8, %xmm0, %edx testb $1, %al je .LBB1_8010 movq 32544(%rbx), %rax movq $0, (%rsi,%rax,8) .LBB1_8010: vpextrb $10, %xmm0, %eax testb $1, %cl je .LBB1_8012 movq 32576(%rbx), %rcx movq $0, (%rsi,%rcx,8) .LBB1_8012: vpextrb $12, %xmm0, %ecx testb $1, %dl je .LBB1_8014 movq 32640(%rbx), %rdx movq $0, (%rsi,%rdx,8) .LBB1_8014: vpextrb $14, %xmm0, %edx testb $1, %al je .LBB1_8016 movq 32672(%rbx), %rax movq $0, (%rsi,%rax,8) .LBB1_8016: testb $1, %cl je .LBB1_8018 movq 32704(%rbx), %rax movq $0, (%rsi,%rax,8) .LBB1_8018: testb $1, %dl je .LBB1_8020 jmp .LBB1_8019 .LBB1_8003: movq 32448(%rbx), %rax movq $0, (%rsi,%rax,8) movq 32480(%rbx), %rax movq $0, (%rsi,%rax,8) movq 32544(%rbx), %rax movq $0, (%rsi,%rax,8) movq 32576(%rbx), %rax movq $0, (%rsi,%rax,8) movq 32640(%rbx), %rax movq $0, (%rsi,%rax,8) movq 32672(%rbx), %rax movq $0, (%rsi,%rax,8) movq 32704(%rbx), %rax movq $0, (%rsi,%rax,8) .LBB1_8019: movq 32512(%rbx), %rax movq $0, (%rsi,%rax,8) .align 16, 0x90 .LBB1_8020: vmovdqa 29696(%rbx), %xmm0 vpaddq %xmm5, %xmm0, %xmm0 vpextrq $1, %xmm0, %r9 vmovd %xmm0, %rax vmovdqa 29728(%rbx), %xmm0 vpaddq %xmm5, %xmm0, %xmm0 vmovdqa 30528(%rbx), %ymm1 vpaddq %xmm5, %xmm1, %xmm1 vpextrq $1, %xmm1, %rcx vmovd %xmm1, %rdx vpextrq $1, %xmm0, %r11 vpaddq %xmm5, %xmm8, %xmm1 vmovd %xmm0, %r14 vpextrq $1, %xmm1, %r8 vmovd %xmm1, %r10 cmpl $0, 31744(%rbx) je .LBB1_8022 vmovaps 28000(%rbx), %ymm0 vmovsd %xmm0, (%r13,%rdx,8) vmovaps 27744(%rbx), %xmm0 vmovsd %xmm0, (%r13,%rcx,8) vmovaps 27968(%rbx), %xmm0 vmovsd %xmm0, (%r13,%rax,8) vmovaps 27776(%rbx), %xmm0 vmovsd %xmm0, (%r13,%r9,8) vmovaps 28096(%rbx), %ymm0 vmovsd %xmm0, (%r13,%r10,8) vmovaps 27808(%rbx), %xmm0 vmovsd %xmm0, (%r13,%r8,8) vmovaps 28032(%rbx), %xmm0 vmovsd %xmm0, (%r13,%r14,8) vmovaps 27840(%rbx), %xmm0 vmovsd %xmm0, (%r13,%r11,8) vpaddq %xmm5, %xmm4, %xmm2 vmovd %xmm2, %r8 vextractf128 $1, %ymm4, %xmm0 vpaddq %xmm5, %xmm0, %xmm0 vextractf128 $1, %ymm13, %xmm1 vmovaps 26848(%rbx), %ymm3 vmovsd %xmm3, (%r15,%r8,8) vpaddq %xmm5, %xmm1, %xmm1 vpextrq $1, %xmm2, %r9 vpaddq %xmm5, %xmm13, %xmm2 vpextrq $1, %xmm2, %r11 vpextrq $1, %xmm0, %rdi vmovaps 23712(%rbx), %xmm3 vmovsd %xmm3, (%r15,%r9,8) vpextrq $1, %xmm1, %r10 vmovd %xmm1, %rax vmovd %xmm2, %rcx vmovd %xmm0, %rdx vmovaps 24800(%rbx), %xmm0 vmovsd %xmm0, (%r15,%rdx,8) vmovaps 23776(%rbx), %xmm0 vmovsd %xmm0, (%r15,%rdi,8) vmovaps 31104(%rbx), %ymm0 vmovsd %xmm0, (%r15,%rcx,8) vmovaps 23840(%rbx), %xmm0 vmovsd %xmm0, (%r15,%r11,8) vmovaps 24864(%rbx), %xmm0 vmovsd %xmm0, (%r15,%rax,8) vmovaps 23872(%rbx), %xmm0 vmovsd %xmm0, (%r15,%r10,8) vmovaps 26880(%rbx), %ymm0 vmovsd %xmm0, (%rsi,%r8,8) vmovaps 23648(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%r9,8) vmovaps 24768(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%rdx,8) vmovaps 23680(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%rdi,8) vmovaps 31136(%rbx), %ymm0 vmovsd %xmm0, (%rsi,%rcx,8) vmovaps 23744(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%r11,8) vmovaps 24832(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%rax,8) vmovapd 23808(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%r10,8) vmovdqa 28128(%rbx), %ymm6 vmovdqa 13824(%rbx), %ymm12 jmp .LBB1_8070 .align 16, 0x90 .LBB1_8022: movq 32792(%rbx), %rdi testb $1, 288(%r12,%rdi) je .LBB1_8024 vmovapd 28000(%rbx), %ymm0 vmovsd %xmm0, (%r13,%rdx,8) .LBB1_8024: movq 32792(%rbx), %rdx testb $1, 292(%r12,%rdx) je .LBB1_8026 vmovapd 27744(%rbx), %xmm0 vmovsd %xmm0, (%r13,%rcx,8) .LBB1_8026: movq 32792(%rbx), %rcx testb $1, 296(%r12,%rcx) je .LBB1_8028 vmovapd 27968(%rbx), %xmm0 vmovsd %xmm0, (%r13,%rax,8) .LBB1_8028: movq 32792(%rbx), %rax testb $1, 300(%r12,%rax) je .LBB1_8030 vmovapd 27776(%rbx), %xmm0 vmovsd %xmm0, (%r13,%r9,8) .LBB1_8030: movq 32792(%rbx), %rax testb $1, 304(%r12,%rax) je .LBB1_8032 vmovapd 28096(%rbx), %ymm0 vmovsd %xmm0, (%r13,%r10,8) .LBB1_8032: movq 32792(%rbx), %rax testb $1, 308(%r12,%rax) je .LBB1_8034 vmovapd 27808(%rbx), %xmm0 vmovsd %xmm0, (%r13,%r8,8) .LBB1_8034: movq 32792(%rbx), %rax testb $1, 312(%r12,%rax) je .LBB1_8036 vmovapd 28032(%rbx), %xmm0 vmovsd %xmm0, (%r13,%r14,8) .LBB1_8036: movq 32792(%rbx), %rax testb $1, 316(%r12,%rax) je .LBB1_8038 vmovapd 27840(%rbx), %xmm0 vmovsd %xmm0, (%r13,%r11,8) .LBB1_8038: movq %r13, %r9 vextractf128 $1, %ymm4, %xmm0 vpaddq %xmm5, %xmm4, %xmm1 vmovd %xmm1, %r11 movq 32792(%rbx), %rax testb $1, 288(%rax,%r12) je .LBB1_8040 vmovaps 26848(%rbx), %ymm2 vmovsd %xmm2, (%r15,%r11,8) .LBB1_8040: vpaddq %xmm5, %xmm0, %xmm0 vpextrq $1, %xmm1, %r13 movq 32792(%rbx), %rax testb $1, 292(%rax,%r12) je .LBB1_8042 vmovapd 23712(%rbx), %xmm1 vmovsd %xmm1, (%r15,%r13,8) .LBB1_8042: vmovd %xmm0, %r14 movq 32792(%rbx), %rax testb $1, 296(%rax,%r12) je .LBB1_8044 vmovapd 24800(%rbx), %xmm1 vmovsd %xmm1, (%r15,%r14,8) .LBB1_8044: vpaddq %xmm5, %xmm13, %xmm1 vpextrq $1, %xmm0, %r8 movq 32792(%rbx), %rax testb $1, 300(%rax,%r12) je .LBB1_8046 vmovapd 23776(%rbx), %xmm0 vmovsd %xmm0, (%r15,%r8,8) .LBB1_8046: vextractf128 $1, %ymm13, %xmm0 vmovd %xmm1, %r10 movq 32792(%rbx), %rax testb $1, 304(%rax,%r12) je .LBB1_8048 vmovaps 31104(%rbx), %ymm2 vmovsd %xmm2, (%r15,%r10,8) .LBB1_8048: vpaddq %xmm5, %xmm0, %xmm0 vpextrq $1, %xmm1, %rax movq 32792(%rbx), %rcx testb $1, 308(%rcx,%r12) vmovdqa 13824(%rbx), %ymm12 je .LBB1_8050 vmovapd 23840(%rbx), %xmm1 vmovsd %xmm1, (%r15,%rax,8) .LBB1_8050: vmovd %xmm0, %rcx movq 32792(%rbx), %rdx testb $1, 312(%rdx,%r12) vmovdqa 28128(%rbx), %ymm6 je .LBB1_8052 vmovapd 24864(%rbx), %xmm1 vmovsd %xmm1, (%r15,%rcx,8) .LBB1_8052: vpextrq $1, %xmm0, %rdx movq 32792(%rbx), %rdi testb $1, 316(%rdi,%r12) je .LBB1_8054 vmovapd 23872(%rbx), %xmm0 vmovsd %xmm0, (%r15,%rdx,8) .LBB1_8054: movq 32792(%rbx), %rdi testb $1, 288(%rdi,%r12) je .LBB1_8056 vmovapd 26880(%rbx), %ymm0 vmovsd %xmm0, (%rsi,%r11,8) .LBB1_8056: movq 32792(%rbx), %rdi testb $1, 292(%rdi,%r12) je .LBB1_8058 vmovapd 23648(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%r13,8) .LBB1_8058: testb $1, 296(%rdi,%r12) je .LBB1_8060 vmovapd 24768(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%r14,8) .LBB1_8060: testb $1, 300(%rdi,%r12) movq %r9, %r13 je .LBB1_8062 vmovapd 23680(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%r8,8) .LBB1_8062: testb $1, 304(%rdi,%r12) je .LBB1_8064 vmovapd 31136(%rbx), %ymm0 vmovsd %xmm0, (%rsi,%r10,8) .LBB1_8064: testb $1, 308(%rdi,%r12) je .LBB1_8066 vmovapd 23744(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%rax,8) .LBB1_8066: testb $1, 312(%rdi,%r12) je .LBB1_8068 vmovapd 24832(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%rcx,8) .LBB1_8068: testb $1, 316(%rdi,%r12) je .LBB1_8070 vmovapd 23808(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%rdx,8) .LBB1_8070: movq %r13, %r9 movq %rsi, %r8 cmpl $0, 30496(%rbx) jne .LBB1_8089 vmovaps 30592(%rbx), %ymm2 vextractf128 $1, %ymm2, %xmm1 vmovaps 30624(%rbx), %ymm3 vextractf128 $1, %ymm3, %xmm0 vpaddq %xmm5, %xmm0, %xmm0 vpaddq %xmm5, %xmm2, %xmm2 vpaddq %xmm5, %xmm1, %xmm4 vpmovzxwd %xmm10, %xmm1 vpslld $31, %xmm1, %xmm1 vpextrq $1, %xmm4, %r10 vmovd %xmm4, %rax vpextrq $1, %xmm2, %rcx vmovd %xmm2, %rdx vpextrq $1, %xmm0, %r11 vmovd %xmm0, %r14 vpaddq %xmm5, %xmm3, %xmm0 vpsrad $31, %xmm1, %xmm1 vpunpckhwd %xmm0, %xmm10, %xmm2 vpslld $31, %xmm2, %xmm2 vpsrad $31, %xmm2, %xmm2 vinsertf128 $1, %xmm2, %ymm1, %ymm1 vpextrq $1, %xmm0, %r13 vmovd %xmm0, %rdi vmovdqa 6272(%rbx), %ymm0 vptest %ymm0, %ymm1 jb .LBB1_8072 movl 30976(%rbx), %esi testb $1, %sil je .LBB1_8075 vmovdqa 21440(%rbx), %ymm0 vmovsd %xmm0, (%r15,%rdx,8) .LBB1_8075: movl 31040(%rbx), %edx testb $1, %dl je .LBB1_8077 vmovdqa 19968(%rbx), %xmm0 vmovsd %xmm0, (%r15,%rcx,8) .LBB1_8077: movl 31072(%rbx), %ecx testb $1, %cl je .LBB1_8079 vmovdqa 20800(%rbx), %xmm0 vmovsd %xmm0, (%r15,%rax,8) .LBB1_8079: movl 31168(%rbx), %eax testb $1, %al je .LBB1_8081 vmovdqa 20000(%rbx), %xmm0 vmovsd %xmm0, (%r15,%r10,8) .LBB1_8081: movl 31200(%rbx), %eax testb $1, %al je .LBB1_8083 vmovdqa 21472(%rbx), %ymm0 vmovsd %xmm0, (%r15,%rdi,8) .LBB1_8083: movl 31264(%rbx), %eax testb $1, %al je .LBB1_8085 vmovdqa 20032(%rbx), %xmm0 vmovsd %xmm0, (%r15,%r13,8) .LBB1_8085: movl 31616(%rbx), %eax testb $1, %al je .LBB1_8087 vmovdqa 20832(%rbx), %xmm0 vmovsd %xmm0, (%r15,%r14,8) .LBB1_8087: movl 31648(%rbx), %eax testb $1, %al je .LBB1_8089 jmp .LBB1_8088 .LBB1_8072: vmovaps 21440(%rbx), %ymm0 vmovsd %xmm0, (%r15,%rdx,8) vmovaps 19968(%rbx), %xmm0 vmovsd %xmm0, (%r15,%rcx,8) vmovaps 20800(%rbx), %xmm0 vmovsd %xmm0, (%r15,%rax,8) vmovaps 20000(%rbx), %xmm0 vmovsd %xmm0, (%r15,%r10,8) vmovaps 21472(%rbx), %ymm0 vmovsd %xmm0, (%r15,%rdi,8) vmovaps 20032(%rbx), %xmm0 vmovsd %xmm0, (%r15,%r13,8) vmovdqa 20832(%rbx), %xmm0 vmovsd %xmm0, (%r15,%r14,8) .LBB1_8088: vmovapd 20064(%rbx), %xmm0 vmovsd %xmm0, (%r15,%r11,8) .LBB1_8089: cmpl $0, 30464(%rbx) movq %r8, %r13 jne .LBB1_8108 movq %r13, %rsi vmovaps 30656(%rbx), %ymm2 vextractf128 $1, %ymm2, %xmm1 vmovaps 30688(%rbx), %ymm4 vextractf128 $1, %ymm4, %xmm0 vpaddq %xmm5, %xmm0, %xmm0 vpaddq %xmm5, %xmm2, %xmm2 vpaddq %xmm5, %xmm1, %xmm3 vpmovzxwd %xmm7, %xmm1 vpslld $31, %xmm1, %xmm1 vpextrq $1, %xmm3, %r8 vmovd %xmm3, %rax vpextrq $1, %xmm2, %rcx vmovd %xmm2, %rdx vpextrq $1, %xmm0, %r11 vmovd %xmm0, %r14 vpaddq %xmm5, %xmm4, %xmm0 vpsrad $31, %xmm1, %xmm1 vpunpckhwd %xmm0, %xmm7, %xmm2 vpslld $31, %xmm2, %xmm2 vpsrad $31, %xmm2, %xmm2 vinsertf128 $1, %xmm2, %ymm1, %ymm1 vpextrq $1, %xmm0, %r13 vmovd %xmm0, %r10 vmovdqa 6304(%rbx), %ymm0 vptest %ymm0, %ymm1 jb .LBB1_8091 movl 30816(%rbx), %edi testb $1, %dil je .LBB1_8094 vmovdqa 30368(%rbx), %ymm0 vmovsd %xmm0, (%rsi,%rdx,8) .LBB1_8094: movl 30848(%rbx), %edx testb $1, %dl je .LBB1_8096 vmovdqa 29536(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%rcx,8) .LBB1_8096: movl 30880(%rbx), %ecx testb $1, %cl je .LBB1_8098 vmovdqa 30336(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%rax,8) .LBB1_8098: movl 30912(%rbx), %eax testb $1, %al je .LBB1_8100 vmovdqa 29568(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%r8,8) .LBB1_8100: movl 30944(%rbx), %eax testb $1, %al je .LBB1_8102 vmovdqa 30400(%rbx), %ymm0 vmovsd %xmm0, (%rsi,%r10,8) .LBB1_8102: movl 31008(%rbx), %eax testb $1, %al je .LBB1_8104 vmovdqa 29600(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%r13,8) .LBB1_8104: movl 31232(%rbx), %eax testb $1, %al movq %rsi, %r13 je .LBB1_8106 vmovdqa 29664(%rbx), %xmm0 vmovsd %xmm0, (%r13,%r14,8) .LBB1_8106: movl 31552(%rbx), %eax testb $1, %al je .LBB1_8108 jmp .LBB1_8107 .LBB1_8091: vmovaps 30368(%rbx), %ymm0 vmovsd %xmm0, (%rsi,%rdx,8) vmovaps 29536(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%rcx,8) vmovaps 30336(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%rax,8) vmovaps 29568(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%r8,8) vmovaps 30400(%rbx), %ymm0 vmovsd %xmm0, (%rsi,%r10,8) vmovaps 29600(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%r13,8) movq %rsi, %r13 vmovdqa 29664(%rbx), %xmm0 vmovsd %xmm0, (%r13,%r14,8) .LBB1_8107: vmovapd 29632(%rbx), %xmm0 vmovsd %xmm0, (%r13,%r11,8) .LBB1_8108: cmpl $0, 30432(%rbx) je .LBB1_8110 movq %r9, %r14 movq 32792(%rbx), %r11 jmp .LBB1_3614 .align 16, 0x90 .LBB1_8110: vpmovzxwd %xmm9, %xmm0 vpslld $31, %xmm0, %xmm0 vpsrad $31, %xmm0, %xmm0 vpunpckhwd %xmm0, %xmm9, %xmm1 vpslld $31, %xmm1, %xmm1 vpsrad $31, %xmm1, %xmm1 vinsertf128 $1, %xmm1, %ymm0, %ymm0 vmovdqa 6464(%rbx), %ymm1 vptest %ymm1, %ymm0 movq %r9, %r14 movq 32792(%rbx), %r11 movl 31712(%rbx), %r8d movl 31680(%rbx), %r9d movl 30560(%rbx), %esi movl 31584(%rbx), %edi jb .LBB1_8111 movl 31872(%rbx), %eax testb $1, %al je .LBB1_8114 movq 32192(%rbx), %rax movq $0, (%r14,%rax,8) .LBB1_8114: movl 31904(%rbx), %eax testb $1, %al movl 31808(%rbx), %ecx movl 31776(%rbx), %edx je .LBB1_8116 movq 32256(%rbx), %rax movq $0, (%r14,%rax,8) .LBB1_8116: testb $1, %dl je .LBB1_8118 movq 32224(%rbx), %rax movq $0, (%r14,%rax,8) .LBB1_8118: testb $1, %cl je .LBB1_8120 movq 32288(%rbx), %rax movq $0, (%r14,%rax,8) .LBB1_8120: testb $1, %dil je .LBB1_8122 movq 32320(%rbx), %rax movq $0, (%r14,%rax,8) .LBB1_8122: testb $1, %sil je .LBB1_8124 movq 32384(%rbx), %rax movq $0, (%r14,%rax,8) .LBB1_8124: testb $1, %r9b je .LBB1_8126 movq 32352(%rbx), %rax movq $0, (%r14,%rax,8) .LBB1_8126: testb $1, %r8b je .LBB1_8128 movq 32416(%rbx), %rax movq $0, (%r14,%rax,8) .LBB1_8128: movl 31872(%rbx), %eax testb $1, %al je .LBB1_8130 movq 32832(%rbx), %rax movq $0, (%r15,%rax,8) .LBB1_8130: movl 31904(%rbx), %eax testb $1, %al je .LBB1_8132 movq 32864(%rbx), %rax movq $0, (%r15,%rax,8) .LBB1_8132: testb $1, %dl je .LBB1_8134 movq 32736(%rbx), %rax movq $0, (%r15,%rax,8) .LBB1_8134: testb $1, %cl je .LBB1_8136 movq 32800(%rbx), %rax movq $0, (%r15,%rax,8) .LBB1_8136: testb $1, %dil je .LBB1_8138 movq 32896(%rbx), %rax movq $0, (%r15,%rax,8) .LBB1_8138: testb $1, %sil je .LBB1_8140 movq 32928(%rbx), %rax movq $0, (%r15,%rax,8) .LBB1_8140: testb $1, %r9b je .LBB1_8142 movq 32960(%rbx), %rax movq $0, (%r15,%rax,8) .LBB1_8142: testb $1, %r8b je .LBB1_8144 movq 32992(%rbx), %rax movq $0, (%r15,%rax,8) .LBB1_8144: movl 31872(%rbx), %eax testb $1, %al je .LBB1_8146 movq 32832(%rbx), %rax movq $0, (%r13,%rax,8) .LBB1_8146: movl 31904(%rbx), %eax testb $1, %al je .LBB1_8148 movq 32864(%rbx), %rax movq $0, (%r13,%rax,8) .LBB1_8148: testb $1, %dl je .LBB1_8150 movq 32736(%rbx), %rax movq $0, (%r13,%rax,8) .LBB1_8150: testb $1, %cl je .LBB1_8152 movq 32800(%rbx), %rax movq $0, (%r13,%rax,8) .LBB1_8152: testb $1, %dil je .LBB1_8154 movq 32896(%rbx), %rax movq $0, (%r13,%rax,8) .LBB1_8154: testb $1, %sil je .LBB1_8156 movq 32928(%rbx), %rax movq $0, (%r13,%rax,8) .LBB1_8156: testb $1, %r9b je .LBB1_8158 movq 32960(%rbx), %rax movq $0, (%r13,%rax,8) .LBB1_8158: testb $1, %r8b je .LBB1_8161 movq 32992(%rbx), %rax jmp .LBB1_8160 .LBB1_8111: movq 32192(%rbx), %rax movq $0, (%r14,%rax,8) movq 32256(%rbx), %rax movq $0, (%r14,%rax,8) movq 32224(%rbx), %rax movq $0, (%r14,%rax,8) movq 32288(%rbx), %rax movq $0, (%r14,%rax,8) movq 32320(%rbx), %rax movq $0, (%r14,%rax,8) movq 32384(%rbx), %rax movq $0, (%r14,%rax,8) movq 32352(%rbx), %rax movq $0, (%r14,%rax,8) movq 32416(%rbx), %rax movq $0, (%r14,%rax,8) movq 32832(%rbx), %r10 movq $0, (%r15,%r10,8) movq 32864(%rbx), %r9 movq $0, (%r15,%r9,8) movq 32736(%rbx), %r8 movq $0, (%r15,%r8,8) movq 32800(%rbx), %rdi movq $0, (%r15,%rdi,8) movq 32896(%rbx), %rsi movq $0, (%r15,%rsi,8) movq 32928(%rbx), %rdx movq $0, (%r15,%rdx,8) movq 32960(%rbx), %rcx movq $0, (%r15,%rcx,8) movq 32992(%rbx), %rax movq $0, (%r15,%rax,8) movq $0, (%r13,%r10,8) movq $0, (%r13,%r9,8) movq $0, (%r13,%r8,8) movq $0, (%r13,%rdi,8) movq $0, (%r13,%rsi,8) movq $0, (%r13,%rdx,8) movq $0, (%r13,%rcx,8) .LBB1_8160: movq $0, (%r13,%rax,8) .LBB1_8161: vmovdqa 31840(%rbx), %ymm0 vpcmpeqd .LCPI1_36(%rip), %xmm0, %xmm0 vpshufb .LCPI1_5(%rip), %xmm0, %xmm0 vmovlhps %xmm11, %xmm0, %xmm0 vandps %xmm0, %xmm9, %xmm0 vxorps %xmm14, %xmm0, %xmm1 vpmovzxwd %xmm1, %xmm2 vpslld $31, %xmm2, %xmm2 vpsrad $31, %xmm2, %xmm2 vpunpckhwd %xmm0, %xmm1, %xmm1 vpslld $31, %xmm1, %xmm1 vpsrad $31, %xmm1, %xmm1 vinsertf128 $1, %xmm1, %ymm2, %ymm1 vmovdqa 6432(%rbx), %ymm2 vptest %ymm2, %ymm1 jb .LBB1_8180 vpmovzxwd %xmm0, %xmm1 vpslld $31, %xmm1, %xmm1 vpsrad $31, %xmm1, %xmm1 vpunpckhwd %xmm0, %xmm0, %xmm2 vpslld $31, %xmm2, %xmm2 vpsrad $31, %xmm2, %xmm2 vinsertf128 $1, %xmm2, %ymm1, %ymm1 vmovdqa 6400(%rbx), %ymm2 vptest %ymm2, %ymm1 jb .LBB1_8163 vpextrb $0, %xmm0, %ecx vpextrb $2, %xmm0, %edx vpextrb $4, %xmm0, %eax testb $1, %cl je .LBB1_8166 movq 31936(%rbx), %rcx movq $0, (%r15,%rcx,8) .LBB1_8166: vpextrb $6, %xmm0, %ecx testb $1, %dl je .LBB1_8168 movq 31968(%rbx), %rdx movq $0, (%r15,%rdx,8) .LBB1_8168: vpextrb $8, %xmm0, %edx testb $1, %al je .LBB1_8170 movq 32096(%rbx), %rax movq $0, (%r15,%rax,8) .LBB1_8170: vpextrb $10, %xmm0, %eax testb $1, %cl je .LBB1_8172 movq 32128(%rbx), %rcx movq $0, (%r15,%rcx,8) .LBB1_8172: vpextrb $12, %xmm0, %ecx testb $1, %dl je .LBB1_8174 movq 32160(%rbx), %rdx movq $0, (%r15,%rdx,8) .LBB1_8174: vpextrb $14, %xmm0, %edx testb $1, %al je .LBB1_8176 movq 32000(%rbx), %rax movq $0, (%r15,%rax,8) .LBB1_8176: testb $1, %cl je .LBB1_8178 movq 32032(%rbx), %rax movq $0, (%r15,%rax,8) .LBB1_8178: testb $1, %dl je .LBB1_8180 jmp .LBB1_8179 .LBB1_8163: movq 31936(%rbx), %rax movq $0, (%r15,%rax,8) movq 31968(%rbx), %rax movq $0, (%r15,%rax,8) movq 32096(%rbx), %rax movq $0, (%r15,%rax,8) movq 32128(%rbx), %rax movq $0, (%r15,%rax,8) movq 32160(%rbx), %rax movq $0, (%r15,%rax,8) movq 32000(%rbx), %rax movq $0, (%r15,%rax,8) movq 32032(%rbx), %rax movq $0, (%r15,%rax,8) .LBB1_8179: movq 32064(%rbx), %rax movq $0, (%r15,%rax,8) .LBB1_8180: vandps %xmm15, %xmm9, %xmm0 vxorps %xmm14, %xmm0, %xmm1 vpmovzxwd %xmm1, %xmm2 vpslld $31, %xmm2, %xmm2 vpsrad $31, %xmm2, %xmm2 vpunpckhwd %xmm0, %xmm1, %xmm1 vpslld $31, %xmm1, %xmm1 vpsrad $31, %xmm1, %xmm1 vinsertf128 $1, %xmm1, %ymm2, %ymm1 vmovdqa 6368(%rbx), %ymm2 vptest %ymm2, %ymm1 jb .LBB1_3614 vpmovzxwd %xmm0, %xmm1 vpslld $31, %xmm1, %xmm1 vpsrad $31, %xmm1, %xmm1 vpunpckhwd %xmm0, %xmm0, %xmm2 vpslld $31, %xmm2, %xmm2 vpsrad $31, %xmm2, %xmm2 vinsertf128 $1, %xmm2, %ymm1, %ymm1 vmovdqa 6336(%rbx), %ymm2 vptest %ymm2, %ymm1 jb .LBB1_8182 vpextrb $0, %xmm0, %ecx vpextrb $2, %xmm0, %edx vpextrb $4, %xmm0, %eax testb $1, %cl je .LBB1_8185 movq 32448(%rbx), %rcx movq $0, (%r13,%rcx,8) .LBB1_8185: vpextrb $6, %xmm0, %ecx testb $1, %dl je .LBB1_8187 movq 32480(%rbx), %rdx movq $0, (%r13,%rdx,8) .LBB1_8187: vpextrb $8, %xmm0, %edx testb $1, %al je .LBB1_8189 movq 32544(%rbx), %rax movq $0, (%r13,%rax,8) .LBB1_8189: vpextrb $10, %xmm0, %eax testb $1, %cl je .LBB1_8191 movq 32576(%rbx), %rcx movq $0, (%r13,%rcx,8) .LBB1_8191: vpextrb $12, %xmm0, %ecx testb $1, %dl je .LBB1_8193 movq 32640(%rbx), %rdx movq $0, (%r13,%rdx,8) .LBB1_8193: vpextrb $14, %xmm0, %edx testb $1, %al je .LBB1_8195 movq 32672(%rbx), %rax movq $0, (%r13,%rax,8) .LBB1_8195: testb $1, %cl je .LBB1_8197 movq 32704(%rbx), %rax movq $0, (%r13,%rax,8) .LBB1_8197: testb $1, %dl je .LBB1_3614 jmp .LBB1_8198 .LBB1_8182: movq 32448(%rbx), %rax movq $0, (%r13,%rax,8) movq 32480(%rbx), %rax movq $0, (%r13,%rax,8) movq 32544(%rbx), %rax movq $0, (%r13,%rax,8) movq 32576(%rbx), %rax movq $0, (%r13,%rax,8) movq 32640(%rbx), %rax movq $0, (%r13,%rax,8) movq 32672(%rbx), %rax movq $0, (%r13,%rax,8) movq 32704(%rbx), %rax movq $0, (%r13,%rax,8) .LBB1_8198: movq 32512(%rbx), %rax movq $0, (%r13,%rax,8) .align 16, 0x90 .LBB1_3614: cmpl $0, 31744(%rbx) vmovaps 27936(%rbx), %ymm10 vmovaps 27904(%rbx), %ymm13 jne .LBB1_5328 vmovdqa .LCPI1_36(%rip), %xmm2 vmovdqa 28064(%rbx), %xmm0 vpcmpeqd %xmm2, %xmm0, %xmm0 vpcmpeqd .LCPI1_89, %xmm6, %xmm1 vpcmpeqd %xmm3, %xmm3, %xmm3 vpxor %xmm3, %xmm1, %xmm1 vmovdqa .LCPI1_5(%rip), %xmm3 vpshufb %xmm3, %xmm1, %xmm1 vmovaps 25984(%rbx), %xmm4 vmovlhps %xmm4, %xmm1, %xmm1 vpshufb %xmm3, %xmm0, %xmm0 vmovdqa 31840(%rbx), %ymm4 vpcmpeqd %xmm2, %xmm4, %xmm2 vpshufb %xmm3, %xmm2, %xmm2 vmovlhps %xmm0, %xmm2, %xmm0 vxorps %xmm14, %xmm0, %xmm2 vorps %xmm2, %xmm1, %xmm1 vmovaps 25952(%rbx), %xmm4 vandps %xmm2, %xmm4, %xmm3 vmovaps %xmm3, 26944(%rbx) vpextrb $14, %xmm3, %eax movl %eax, 26912(%rbx) vpmovzxwd %xmm1, %xmm2 vpextrb $12, %xmm3, %eax movl %eax, 27200(%rbx) vpslld $31, %xmm2, %xmm2 vpextrb $10, %xmm3, %eax movl %eax, 27168(%rbx) vpextrb $8, %xmm3, %eax movl %eax, 27136(%rbx) vpextrb $6, %xmm3, %eax movl %eax, 27104(%rbx) vpextrb $4, %xmm3, %eax movl %eax, 27072(%rbx) vpextrb $2, %xmm3, %eax movl %eax, 27040(%rbx) vpextrb $0, %xmm3, %eax movl %eax, 27008(%rbx) vpsrad $31, %xmm2, %xmm2 vpunpckhwd %xmm0, %xmm1, %xmm1 vpslld $31, %xmm1, %xmm1 vpsrad $31, %xmm1, %xmm1 vinsertf128 $1, %xmm1, %ymm2, %ymm1 vmovdqa 4448(%rbx), %ymm2 vptest %ymm2, %ymm1 vmovaps 27872(%rbx), %ymm8 jb .LBB1_3616 movq %r12, 31456(%rbx) vandps %xmm4, %xmm0, %xmm0 vpunpckhwd %xmm0, %xmm0, %xmm1 vextractf128 $1, %ymm8, %xmm2 vpmovsxdq %xmm2, %xmm4 vmovhlps %xmm2, %xmm2, %xmm5 vpmovzxwd %xmm0, %xmm2 vpslld $31, %xmm2, %xmm3 vpslld $31, %xmm1, %xmm2 vpsrad $31, %xmm3, %xmm3 vpmovsxdq %xmm5, %xmm1 vextractf128 $1, %ymm10, %xmm7 vmovhlps %xmm7, %xmm7, %xmm5 vpmovsxdq %xmm5, %xmm5 vinsertf128 $1, %xmm1, %ymm4, %ymm6 vmovaps %ymm6, 31712(%rbx) vpsrad $31, %xmm2, %xmm6 vpmovsxdq %xmm7, %xmm7 vmovhlps %xmm8, %xmm8, %xmm2 vpmovsxdq %xmm2, %xmm2 vpmovsxdq %xmm8, %xmm8 vpextrq $1, %xmm4, %rax movq %rax, 30656(%rbx) vmovq %xmm4, 30464(%rbx) vinsertf128 $1, %xmm2, %ymm8, %ymm4 vmovaps %ymm4, 31680(%rbx) vpextrq $1, %xmm8, %rax movq %rax, 30432(%rbx) vmovq %xmm8, 29696(%rbx) vinsertf128 $1, %xmm5, %ymm7, %ymm8 vmovd %xmm5, %r8 vpextrq $1, %xmm5, %r9 vinsertf128 $1, %xmm6, %ymm3, %ymm12 vextractf128 $1, %ymm13, %xmm3 vmovhlps %xmm3, %xmm3, %xmm4 vpmovsxdq %xmm3, %xmm3 vpextrq $1, %xmm3, %rax movq %rax, 31904(%rbx) vmovq %xmm3, 31872(%rbx) vpmovsxdq %xmm4, %xmm4 vpmovsxdq %xmm10, %xmm9 vmovhlps %xmm10, %xmm10, %xmm5 vmovhlps %xmm13, %xmm13, %xmm6 vpmovsxdq %xmm13, %xmm10 vpextrq $1, %xmm10, %rax movq %rax, 31808(%rbx) movq %r15, %rax vmovq %xmm10, 31776(%rbx) vpmovsxdq %xmm5, %xmm5 vpmovsxdq %xmm6, %xmm6 vinsertf128 $1, %xmm4, %ymm3, %ymm15 vmovd %xmm9, %rsi vpextrq $1, %xmm9, %rdi vmovd %xmm7, %r14 vpextrq $1, %xmm7, %r10 vinsertf128 $1, %xmm6, %ymm10, %ymm10 vinsertf128 $1, %xmm5, %ymm9, %ymm11 vmovd %xmm5, %r11 vpextrq $1, %xmm5, %rdx leaq (%rax,%r10,8), %rcx movq %rcx, 27744(%rbx) leaq (%rax,%r14,8), %rcx movq %rcx, 27648(%rbx) leaq (%rax,%rdi,8), %rcx movq %rcx, 27584(%rbx) leaq (%rax,%rsi,8), %rcx movq %rcx, 27520(%rbx) leaq (%rax,%r9,8), %rcx movq %rcx, 27712(%rbx) leaq (%rax,%r8,8), %rcx movq %rcx, 27680(%rbx) leaq (%rax,%rdx,8), %rcx movq %rcx, 27616(%rbx) leaq (%rax,%r11,8), %rcx movq %rcx, 27552(%rbx) vpextrq $1, %xmm1, %rcx movq %rcx, 29728(%rbx) vmovq %xmm1, 28128(%rbx) vpextrq $1, %xmm2, %rcx movq %rcx, 28096(%rbx) vmovq %xmm2, 28064(%rbx) vpextrq $1, %xmm4, %rcx movq %rcx, 31840(%rbx) vmovd %xmm4, %r15 vpextrq $1, %xmm6, %r12 vmovd %xmm6, %rcx vmovdqa 4416(%rbx), %ymm1 vptest %ymm1, %ymm12 jb .LBB1_4980 movq %rcx, 31616(%rbx) movq %r12, 31648(%rbx) movq %r15, 31744(%rbx) movq %r11, %rcx vpextrb $0, %xmm0, %r11d vpextrb $2, %xmm0, %eax vpextrb $4, %xmm0, %r12d testb $1, %r11b je .LBB1_4983 vmovdqa 21504(%rbx), %ymm1 movq 27520(%rbx), %r15 vmovsd %xmm1, (%r15) .LBB1_4983: movq %rsi, 27840(%rbx) movq %rdx, 27872(%rbx) movq %rdi, 27904(%rbx) movq %r14, 27936(%rbx) movq %r8, 27968(%rbx) movq %r10, 28000(%rbx) movq %r9, 28032(%rbx) vpextrb $6, %xmm0, %edi testb $1, %al je .LBB1_4985 vmovdqa 20160(%rbx), %xmm1 movq 27584(%rbx), %rdx vmovsd %xmm1, (%rdx) .LBB1_4985: vpextrb $8, %xmm0, %r8d testb $1, %r12b vmovdqa .LCPI1_9(%rip), %xmm5 je .LBB1_4987 vmovdqa 20896(%rbx), %xmm1 movq 27552(%rbx), %rdx vmovsd %xmm1, (%rdx) .LBB1_4987: vpextrb $10, %xmm0, %r9d testb $1, %dil movq %rcx, %rsi je .LBB1_4989 vmovdqa 20224(%rbx), %xmm1 movq 27616(%rbx), %rdx vmovsd %xmm1, (%rdx) .LBB1_4989: vpextrb $12, %xmm0, %r10d testb $1, %r8b je .LBB1_4991 vmovdqa 21568(%rbx), %ymm1 movq 27648(%rbx), %rdx vmovsd %xmm1, (%rdx) .LBB1_4991: vpextrb $14, %xmm0, %r14d testb $1, %r9b je .LBB1_4993 vmovdqa 20288(%rbx), %xmm1 movq 27744(%rbx), %rdx vmovsd %xmm1, (%rdx) .LBB1_4993: testb $1, %r10b je .LBB1_4995 vmovdqa 20960(%rbx), %xmm1 movq 27680(%rbx), %rdx vmovsd %xmm1, (%rdx) .LBB1_4995: testb $1, %r14b je .LBB1_4997 vmovdqa 20320(%rbx), %xmm1 movq 27712(%rbx), %rdx vmovsd %xmm1, (%rdx) .LBB1_4997: testb $1, %r11b je .LBB1_4999 vmovdqa 21536(%rbx), %ymm1 movq 27840(%rbx), %rdx vmovsd %xmm1, (%r13,%rdx,8) .LBB1_4999: testb $1, %al je .LBB1_5001 vmovdqa 20096(%rbx), %xmm1 movq 27904(%rbx), %rdx vmovsd %xmm1, (%r13,%rdx,8) .LBB1_5001: testb $1, %r12b je .LBB1_5003 vmovdqa 20864(%rbx), %xmm1 vmovsd %xmm1, (%r13,%rsi,8) .LBB1_5003: testb $1, %dil je .LBB1_5005 vmovdqa 20128(%rbx), %xmm1 movq 27872(%rbx), %rdx vmovsd %xmm1, (%r13,%rdx,8) .LBB1_5005: testb $1, %r8b je .LBB1_5007 vmovdqa 21600(%rbx), %ymm1 movq 27936(%rbx), %rdx vmovsd %xmm1, (%r13,%rdx,8) .LBB1_5007: testb $1, %r9b je .LBB1_5009 vmovdqa 20192(%rbx), %xmm1 movq 28000(%rbx), %rdx vmovsd %xmm1, (%r13,%rdx,8) .LBB1_5009: testb $1, %r10b je .LBB1_5011 vmovdqa 20928(%rbx), %xmm1 movq 27968(%rbx), %rdx vmovsd %xmm1, (%r13,%rdx,8) .LBB1_5011: movq %rsi, %rdx testb $1, %r14b je .LBB1_5013 vmovdqa 20256(%rbx), %xmm1 movq 28032(%rbx), %r15 vmovsd %xmm1, (%r13,%r15,8) .LBB1_5013: testb $1, %r11b movq %rdx, 30624(%rbx) movq 31808(%rbx), %rcx movq 31776(%rbx), %rsi je .LBB1_5015 vmovdqa 19008(%rbx), %ymm1 movq 32632(%rbx), %rdx vmovsd %xmm1, (%rdx,%rsi,8) .LBB1_5015: testb $1, %al movq 32632(%rbx), %rsi movq 30656(%rbx), %r11 je .LBB1_5017 vmovdqa 18720(%rbx), %xmm1 vmovsd %xmm1, (%rsi,%rcx,8) .LBB1_5017: testb $1, %r12b movq 31648(%rbx), %rax movq 31616(%rbx), %rcx je .LBB1_5019 vmovdqa 18912(%rbx), %xmm1 vmovsd %xmm1, (%rsi,%rcx,8) .LBB1_5019: testb $1, %dil movq 31872(%rbx), %rcx je .LBB1_5021 vmovdqa 18752(%rbx), %xmm1 vmovsd %xmm1, (%rsi,%rax,8) .LBB1_5021: testb $1, %r8b movq 31904(%rbx), %rax je .LBB1_5023 vmovdqa 19040(%rbx), %ymm1 vmovsd %xmm1, (%rsi,%rcx,8) .LBB1_5023: testb $1, %r9b movq 22456(%rbx), %rdi movq %r13, %r9 movq 31744(%rbx), %rcx je .LBB1_5025 vmovdqa 18784(%rbx), %xmm1 vmovsd %xmm1, (%rsi,%rax,8) .LBB1_5025: testb $1, %r10b movq 31840(%rbx), %rax je .LBB1_5027 vmovdqa 18944(%rbx), %xmm1 vmovsd %xmm1, (%rsi,%rcx,8) .LBB1_5027: testb $1, %r14b je .LBB1_5029 vmovdqa 18816(%rbx), %xmm1 vmovsd %xmm1, (%rsi,%rax,8) jmp .LBB1_5029 .align 16, 0x90 .LBB1_3616: vextractf128 $1, %ymm8, %xmm0 vextractf128 $1, %ymm10, %xmm1 vpmovsxdq %xmm1, %xmm3 vpextrq $1, %xmm3, %rax movq %rax, 28000(%rbx) vpmovsxdq %xmm10, %xmm4 vpmovsxdq %xmm0, %xmm2 vmovhlps %xmm1, %xmm1, %xmm5 vmovhlps %xmm10, %xmm10, %xmm6 vmovhlps %xmm0, %xmm0, %xmm1 vmovhlps %xmm8, %xmm8, %xmm0 vpmovsxdq %xmm8, %xmm9 vpmovsxdq %xmm0, %xmm0 vpmovsxdq %xmm1, %xmm1 vpmovsxdq %xmm6, %xmm6 vpmovsxdq %xmm5, %xmm5 vpextrq $1, %xmm2, %rcx movq %rcx, 30656(%rbx) vpextrq $1, %xmm4, %rdx movq %rdx, 27904(%rbx) leaq (%r15,%rax,8), %rax movq %rax, 27744(%rbx) vmovq %xmm2, 30464(%rbx) vmovd %xmm4, %rsi movq %rsi, 27840(%rbx) vmovd %xmm3, %rcx movq %rcx, 27936(%rbx) vpextrq $1, %xmm9, %rax movq %rax, 30432(%rbx) vinsertf128 $1, %xmm5, %ymm3, %ymm8 vinsertf128 $1, %xmm6, %ymm4, %ymm11 vmovq %xmm9, 29696(%rbx) vinsertf128 $1, %xmm1, %ymm2, %ymm2 vmovapd %ymm2, 31712(%rbx) vinsertf128 $1, %xmm0, %ymm9, %ymm2 vmovapd %ymm2, 31680(%rbx) leaq (%r15,%rcx,8), %rax movq %rax, 27648(%rbx) vmovd %xmm6, %rdi movq %rdi, 30624(%rbx) leaq (%r15,%rdx,8), %rax movq %rax, 27584(%rbx) leaq (%r15,%rsi,8), %rax movq %rax, 27520(%rbx) vpextrq $1, %xmm6, %rdx movq %rdx, 27872(%rbx) vmovd %xmm5, %rcx movq %rcx, 27968(%rbx) vpextrq $1, %xmm5, %rax movq %rax, 28032(%rbx) leaq (%r15,%rax,8), %rax movq %rax, 27712(%rbx) leaq (%r15,%rcx,8), %rax movq %rax, 27680(%rbx) leaq (%r15,%rdx,8), %rax movq %rax, 27616(%rbx) leaq (%r15,%rdi,8), %rax movq %rax, 27552(%rbx) vpextrq $1, %xmm1, %rax movq %rax, 29728(%rbx) vmovq %xmm1, 28128(%rbx) vpextrq $1, %xmm0, %rax movq %rax, 28096(%rbx) vmovq %xmm0, 28064(%rbx) vmovdqa .LCPI1_9(%rip), %xmm9 vmovdqa %xmm9, %xmm7 jmp .LBB1_3617 .LBB1_4980: vmovaps 21504(%rbx), %ymm1 vmovsd %xmm1, (%rax,%rsi,8) vmovaps 20160(%rbx), %xmm1 vmovsd %xmm1, (%rax,%rdi,8) vmovaps 20896(%rbx), %xmm1 vmovsd %xmm1, (%rax,%r11,8) vmovaps 20224(%rbx), %xmm1 vmovsd %xmm1, (%rax,%rdx,8) vmovaps 21568(%rbx), %ymm1 vmovsd %xmm1, (%rax,%r14,8) vmovaps 20288(%rbx), %xmm1 vmovsd %xmm1, (%rax,%r10,8) vmovaps 20960(%rbx), %xmm1 vmovsd %xmm1, (%rax,%r8,8) vmovaps 20320(%rbx), %xmm1 vmovsd %xmm1, (%rax,%r9,8) vmovaps 21536(%rbx), %ymm1 vmovsd %xmm1, (%r13,%rsi,8) movq %rsi, 27840(%rbx) vmovaps 20096(%rbx), %xmm1 vmovsd %xmm1, (%r13,%rdi,8) movq %rdi, 27904(%rbx) vmovaps 20864(%rbx), %xmm1 vmovsd %xmm1, (%r13,%r11,8) movq %r11, 30624(%rbx) vmovaps 20128(%rbx), %xmm1 vmovsd %xmm1, (%r13,%rdx,8) movq %rdx, 27872(%rbx) vmovaps 21600(%rbx), %ymm1 vmovsd %xmm1, (%r13,%r14,8) movq %r14, 27936(%rbx) vmovaps 20192(%rbx), %xmm1 vmovsd %xmm1, (%r13,%r10,8) movq %r10, 28000(%rbx) vmovaps 20928(%rbx), %xmm1 vmovsd %xmm1, (%r13,%r8,8) movq %r8, 27968(%rbx) vmovaps 20256(%rbx), %xmm1 vmovsd %xmm1, (%r13,%r9,8) movq %r9, 28032(%rbx) vmovaps 19008(%rbx), %ymm1 movq 31776(%rbx), %rdx vmovsd %xmm1, (%rax,%rdx,8) vmovaps 18720(%rbx), %xmm1 movq 31808(%rbx), %rdx vmovsd %xmm1, (%rax,%rdx,8) vmovaps 18912(%rbx), %xmm1 vmovsd %xmm1, (%rax,%rcx,8) vmovaps 18752(%rbx), %xmm1 vmovsd %xmm1, (%rax,%r12,8) movq %r13, %r9 vmovaps 19040(%rbx), %ymm1 movq 31872(%rbx), %rcx vmovsd %xmm1, (%rax,%rcx,8) vmovaps 18784(%rbx), %xmm1 movq 31904(%rbx), %rcx vmovsd %xmm1, (%rax,%rcx,8) vmovaps 18944(%rbx), %xmm1 vmovsd %xmm1, (%rax,%r15,8) vmovdqa 18816(%rbx), %xmm1 movq 31840(%rbx), %rcx vmovsd %xmm1, (%rax,%rcx,8) movq %rax, %rsi movq 22456(%rbx), %rdi vmovdqa .LCPI1_9(%rip), %xmm5 movq 30656(%rbx), %r11 .LBB1_5029: vandps 31296(%rbx), %xmm0, %xmm1 vxorps %xmm14, %xmm1, %xmm2 vpmovzxwd %xmm2, %xmm4 vpslld $31, %xmm4, %xmm4 vpsrad $31, %xmm4, %xmm4 vpunpckhwd %xmm0, %xmm2, %xmm2 vpslld $31, %xmm2, %xmm2 vpsrad $31, %xmm2, %xmm2 vinsertf128 $1, %xmm2, %ymm4, %ymm2 vmovdqa 4384(%rbx), %ymm4 vptest %ymm4, %ymm2 jb .LBB1_5048 vpmovzxwd %xmm1, %xmm2 vpslld $31, %xmm2, %xmm2 vpsrad $31, %xmm2, %xmm2 vpunpckhwd %xmm0, %xmm1, %xmm4 vpslld $31, %xmm4, %xmm4 vpsrad $31, %xmm4, %xmm4 vinsertf128 $1, %xmm4, %ymm2, %ymm2 vmovdqa 4352(%rbx), %ymm4 vptest %ymm4, %ymm2 jb .LBB1_5031 vpextrb $0, %xmm1, %ecx vpextrb $2, %xmm1, %edx vpextrb $4, %xmm1, %eax testb $1, %cl je .LBB1_5034 vmovaps 29760(%rbx), %ymm2 movq 29696(%rbx), %rcx vmovsd %xmm2, (%r9,%rcx,8) .LBB1_5034: vpextrb $6, %xmm1, %ecx testb $1, %dl je .LBB1_5036 vmovaps 28160(%rbx), %xmm2 movq 30432(%rbx), %rdx vmovsd %xmm2, (%r9,%rdx,8) .LBB1_5036: vpextrb $8, %xmm1, %edx testb $1, %al je .LBB1_5038 vmovaps 28288(%rbx), %xmm2 movq 28064(%rbx), %rax vmovsd %xmm2, (%r9,%rax,8) .LBB1_5038: vpextrb $10, %xmm1, %eax testb $1, %cl je .LBB1_5040 vmovaps 28192(%rbx), %xmm2 movq 28096(%rbx), %rcx vmovsd %xmm2, (%r9,%rcx,8) .LBB1_5040: vpextrb $12, %xmm1, %ecx testb $1, %dl je .LBB1_5042 vmovaps 29792(%rbx), %ymm2 movq 30464(%rbx), %rdx vmovsd %xmm2, (%r9,%rdx,8) .LBB1_5042: vpextrb $14, %xmm1, %edx testb $1, %al je .LBB1_5044 vmovaps 28224(%rbx), %xmm1 vmovsd %xmm1, (%r9,%r11,8) .LBB1_5044: testb $1, %cl je .LBB1_5046 vmovaps 28320(%rbx), %xmm1 movq 28128(%rbx), %rax vmovsd %xmm1, (%r9,%rax,8) .LBB1_5046: testb $1, %dl je .LBB1_5048 jmp .LBB1_5047 .LBB1_5031: vmovaps 29760(%rbx), %ymm1 movq 29696(%rbx), %rax vmovsd %xmm1, (%r9,%rax,8) vmovaps 28160(%rbx), %xmm1 movq 30432(%rbx), %rax vmovsd %xmm1, (%r9,%rax,8) vmovaps 28288(%rbx), %xmm1 movq 28064(%rbx), %rax vmovsd %xmm1, (%r9,%rax,8) vmovaps 28192(%rbx), %xmm1 movq 28096(%rbx), %rax vmovsd %xmm1, (%r9,%rax,8) vmovaps 29792(%rbx), %ymm1 movq 30464(%rbx), %rax vmovsd %xmm1, (%r9,%rax,8) vmovaps 28224(%rbx), %xmm1 vmovsd %xmm1, (%r9,%r11,8) vmovaps 28320(%rbx), %xmm1 movq 28128(%rbx), %rax vmovsd %xmm1, (%r9,%rax,8) .LBB1_5047: vmovaps 28256(%rbx), %xmm1 movq 29728(%rbx), %rax vmovsd %xmm1, (%r9,%rax,8) .LBB1_5048: vmovapd .LCPI1_70(%rip), %ymm4 vmovapd 27360(%rbx), %ymm1 vcmpltpd %ymm4, %ymm1, %ymm1 vextractf128 $1, %ymm1, %xmm2 vpshufd $8, %xmm2, %xmm2 vpshufd $8, %xmm1, %xmm1 vmovlhps %xmm2, %xmm1, %xmm1 vmovapd 27328(%rbx), %ymm2 vcmpltpd %ymm4, %ymm2, %ymm2 vextractf128 $1, %ymm2, %xmm4 vpshufd $8, %xmm4, %xmm4 vpshufd $8, %xmm2, %xmm2 vmovlhps %xmm4, %xmm2, %xmm2 vpshufb .LCPI1_21(%rip), %xmm2, %xmm2 vpshufb .LCPI1_20(%rip), %xmm1, %xmm1 vpor %xmm1, %xmm2, %xmm1 vpsllw $15, %xmm1, %xmm1 vpsraw $15, %xmm1, %xmm1 vpand %xmm1, %xmm0, %xmm6 vmovdqa %xmm6, 27296(%rbx) vpmovzxwd %xmm6, %xmm2 vpslld $31, %xmm2, %xmm2 vpsrad $31, %xmm2, %xmm2 vpunpckhwd %xmm0, %xmm6, %xmm4 vpslld $31, %xmm4, %xmm4 vpsrad $31, %xmm4, %xmm4 vinsertf128 $1, %xmm4, %ymm2, %ymm2 vpextrb $14, %xmm6, %r8d vpxor %xmm14, %xmm1, %xmm1 vmovdqa 4320(%rbx), %ymm4 vptest %ymm4, %ymm2 sbbl %edx, %edx vpand %xmm1, %xmm0, %xmm0 vmovdqa %xmm0, 30688(%rbx) vpextrb $10, %xmm6, %r10d vpextrb $0, %xmm6, %r14d vpextrb $2, %xmm6, %eax movl %eax, 31872(%rbx) vpextrb $4, %xmm6, %eax movl %eax, 31904(%rbx) vpextrb $6, %xmm6, %eax movl %eax, 31616(%rbx) vpextrb $8, %xmm6, %r13d vpextrb $12, %xmm6, %ecx andl $1, %edx andl $1, %edx movl %edx, 30880(%rbx) je .LBB1_5050 movl %r14d, 31584(%rbx) movl %r13d, 31328(%rbx) movl %ecx, 31360(%rbx) movl %r10d, 31392(%rbx) movl %r8d, 31424(%rbx) movq %r11, 30656(%rbx) movq 32192(%rbx), %rax movq $0, (%rdi,%rax,8) movq 32256(%rbx), %rax movq $0, (%rdi,%rax,8) movq 32224(%rbx), %rax movq $0, (%rdi,%rax,8) movq 32288(%rbx), %rax movq $0, (%rdi,%rax,8) movq 32320(%rbx), %rax movq $0, (%rdi,%rax,8) movq 32384(%rbx), %rax movq $0, (%rdi,%rax,8) movq 32352(%rbx), %rax movq $0, (%rdi,%rax,8) movq 32416(%rbx), %rax movq $0, (%rdi,%rax,8) movq 32832(%rbx), %r14 movq $0, (%rsi,%r14,8) movq 32864(%rbx), %r11 movq $0, (%rsi,%r11,8) movq 32736(%rbx), %r10 movq $0, (%rsi,%r10,8) movq 32800(%rbx), %r8 movq $0, (%rsi,%r8,8) movq 32896(%rbx), %rdi movq $0, (%rsi,%rdi,8) movq 32928(%rbx), %rdx movq $0, (%rsi,%rdx,8) movq 32960(%rbx), %rcx movq $0, (%rsi,%rcx,8) movq 32992(%rbx), %rax movq $0, (%rsi,%rax,8) movq $0, (%r9,%r14,8) movq $0, (%r9,%r11,8) movq $0, (%r9,%r10,8) movq $0, (%r9,%r8,8) movq $0, (%r9,%rdi,8) movq $0, (%r9,%rdx,8) movq $0, (%r9,%rcx,8) movq $0, (%r9,%rax,8) movq 31936(%rbx), %rax movq $0, (%rsi,%rax,8) movq 31968(%rbx), %rax movq $0, (%rsi,%rax,8) movq 32096(%rbx), %rax movq $0, (%rsi,%rax,8) movq 32128(%rbx), %rax movq $0, (%rsi,%rax,8) movq 32160(%rbx), %rax movq $0, (%rsi,%rax,8) movq 32000(%rbx), %rax movq $0, (%rsi,%rax,8) movq 32032(%rbx), %rax movq $0, (%rsi,%rax,8) movq 32064(%rbx), %rax movq $0, (%rsi,%rax,8) movq 30624(%rbx), %r15 jmp .LBB1_5114 .LBB1_5050: testb $1, %r14b je .LBB1_5052 movq 32192(%rbx), %rax movq $0, (%rdi,%rax,8) .LBB1_5052: movl 31872(%rbx), %eax testb $1, %al je .LBB1_5054 movq 32256(%rbx), %rax movq $0, (%rdi,%rax,8) .LBB1_5054: movl 31904(%rbx), %eax testb $1, %al je .LBB1_5056 movq 32224(%rbx), %rax movq $0, (%rdi,%rax,8) .LBB1_5056: movl 31616(%rbx), %eax testb $1, %al je .LBB1_5058 movq 32288(%rbx), %rax movq $0, (%rdi,%rax,8) .LBB1_5058: testb $1, %r13b je .LBB1_5060 movq 32320(%rbx), %rax movq $0, (%rdi,%rax,8) .LBB1_5060: testb $1, %r10b je .LBB1_5062 movq 32384(%rbx), %rax movq $0, (%rdi,%rax,8) .LBB1_5062: testb $1, %cl je .LBB1_5064 movq 32352(%rbx), %rax movq $0, (%rdi,%rax,8) .LBB1_5064: testb $1, %r8b je .LBB1_5066 movq 32416(%rbx), %rax movq $0, (%rdi,%rax,8) .LBB1_5066: testb $1, %r14b je .LBB1_5068 movq 32832(%rbx), %rax movq $0, (%rsi,%rax,8) .LBB1_5068: movl 31872(%rbx), %eax testb $1, %al movq %r11, %rdx movq 30624(%rbx), %rdi je .LBB1_5070 movq 32864(%rbx), %rax movq $0, (%rsi,%rax,8) .LBB1_5070: movl 31904(%rbx), %eax testb $1, %al je .LBB1_5072 movq 32736(%rbx), %rax movq $0, (%rsi,%rax,8) .LBB1_5072: movl 31616(%rbx), %eax testb $1, %al je .LBB1_5074 movq 32800(%rbx), %rax movq $0, (%rsi,%rax,8) .LBB1_5074: testb $1, %r13b je .LBB1_5076 movq 32896(%rbx), %rax movq $0, (%rsi,%rax,8) .LBB1_5076: testb $1, %r10b je .LBB1_5078 movq 32928(%rbx), %rax movq $0, (%rsi,%rax,8) .LBB1_5078: testb $1, %cl je .LBB1_5080 movq 32960(%rbx), %rax movq $0, (%rsi,%rax,8) .LBB1_5080: movq %rdi, %r15 testb $1, %r8b je .LBB1_5082 movq 32992(%rbx), %rax movq $0, (%rsi,%rax,8) .LBB1_5082: movq %rdx, 30656(%rbx) testb $1, %r14b je .LBB1_5084 movq 32832(%rbx), %rax movq $0, (%r9,%rax,8) .LBB1_5084: movl 31872(%rbx), %eax testb $1, %al je .LBB1_5086 movq 32864(%rbx), %rax movq $0, (%r9,%rax,8) .LBB1_5086: movl 31904(%rbx), %eax testb $1, %al je .LBB1_5088 movq 32736(%rbx), %rax movq $0, (%r9,%rax,8) .LBB1_5088: movl 31616(%rbx), %eax testb $1, %al je .LBB1_5090 movq 32800(%rbx), %rax movq $0, (%r9,%rax,8) .LBB1_5090: testb $1, %r13b je .LBB1_5092 movq 32896(%rbx), %rax movq $0, (%r9,%rax,8) .LBB1_5092: testb $1, %r10b je .LBB1_5094 movq 32928(%rbx), %rax movq $0, (%r9,%rax,8) .LBB1_5094: testb $1, %cl je .LBB1_5096 movq 32960(%rbx), %rax movq $0, (%r9,%rax,8) .LBB1_5096: testb $1, %r8b je .LBB1_5098 movq 32992(%rbx), %rax movq $0, (%r9,%rax,8) .LBB1_5098: testb $1, %r14b je .LBB1_5100 movq 31936(%rbx), %rax movq $0, (%rsi,%rax,8) .LBB1_5100: movl 31872(%rbx), %eax testb $1, %al je .LBB1_5102 movq 31968(%rbx), %rax movq $0, (%rsi,%rax,8) .LBB1_5102: movl 31904(%rbx), %eax testb $1, %al je .LBB1_5104 movq 32096(%rbx), %rax movq $0, (%rsi,%rax,8) .LBB1_5104: movl 31616(%rbx), %eax testb $1, %al je .LBB1_5106 movq 32128(%rbx), %rax movq $0, (%rsi,%rax,8) .LBB1_5106: testb $1, %r13b je .LBB1_5108 movq 32160(%rbx), %rax movq $0, (%rsi,%rax,8) .LBB1_5108: testb $1, %r10b je .LBB1_5110 movq 32000(%rbx), %rax movq $0, (%rsi,%rax,8) .LBB1_5110: testb $1, %cl je .LBB1_5112 movq 32032(%rbx), %rax movq $0, (%rsi,%rax,8) .LBB1_5112: movl %r14d, 31584(%rbx) movl %r13d, 31328(%rbx) movl %ecx, 31360(%rbx) movl %r10d, 31392(%rbx) testb $1, %r8b movl %r8d, 31424(%rbx) je .LBB1_5114 movq 32064(%rbx), %rax movq $0, (%rsi,%rax,8) .LBB1_5114: movq %r15, 30624(%rbx) cmpl $63, 27392(%rbx) setne %al movzbl %al, %eax vmovd %eax, %xmm0 vpunpcklwd %xmm0, %xmm0, %xmm0 vpshufd $0, %xmm0, %xmm0 vmovdqa 27296(%rbx), %xmm1 vpand %xmm0, %xmm1, %xmm2 vmovdqa %xmm2, 30816(%rbx) vpextrb $12, %xmm2, %r15d vpextrb $14, %xmm2, %r14d vpxor %xmm14, %xmm2, %xmm0 vpmovzxwd %xmm0, %xmm1 vpslld $31, %xmm1, %xmm1 vpextrb $10, %xmm2, %eax movl %eax, 31552(%rbx) vpextrb $8, %xmm2, %eax movl %eax, 31520(%rbx) vpextrb $6, %xmm2, %eax movl %eax, 31840(%rbx) vpsrad $31, %xmm1, %xmm1 vpunpckhwd %xmm0, %xmm0, %xmm0 vpslld $31, %xmm0, %xmm0 vpsrad $31, %xmm0, %xmm0 vinsertf128 $1, %xmm0, %ymm1, %ymm0 vmovdqa 4288(%rbx), %ymm1 vptest %ymm1, %ymm0 vpextrb $4, %xmm2, %eax movl %eax, 31808(%rbx) vpextrb $2, %xmm2, %eax movl %eax, 31776(%rbx) vpextrb $0, %xmm2, %eax movl %eax, 31744(%rbx) sbbl %eax, %eax andl $1, %eax andl $1, %eax movl %eax, 30592(%rbx) jne .LBB1_5115 vextractf128 $1, %ymm11, %xmm1 vextractf128 $1, %ymm8, %xmm0 vpaddq %xmm5, %xmm0, %xmm0 vpaddq %xmm5, %xmm11, %xmm2 vpaddq %xmm5, %xmm1, %xmm4 vmovdqa 30816(%rbx), %xmm6 vpmovzxwd %xmm6, %xmm1 vpslld $31, %xmm1, %xmm1 vpextrq $1, %xmm4, %rdi vmovd %xmm4, %rcx vpextrq $1, %xmm2, %r8 vmovd %xmm2, %r10 vpextrq $1, %xmm0, %rdx vmovd %xmm0, %rax vpaddq %xmm5, %xmm8, %xmm0 vpsrad $31, %xmm1, %xmm1 vpunpckhwd %xmm0, %xmm6, %xmm2 vpslld $31, %xmm2, %xmm2 vpsrad $31, %xmm2, %xmm2 vinsertf128 $1, %xmm2, %ymm1, %ymm1 vpextrq $1, %xmm0, %r13 vmovd %xmm0, %r11 vmovdqa 2912(%rbx), %ymm0 vptest %ymm0, %ymm1 jb .LBB1_8269 movq %r11, %r12 movq %rdi, %r11 movl 31744(%rbx), %edi testb $1, %dil je .LBB1_8272 vmovdqa 24896(%rbx), %ymm0 vmovsd %xmm0, (%rsi,%r10,8) .LBB1_8272: movl 31776(%rbx), %edi testb $1, %dil je .LBB1_8274 vmovdqa 21888(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%r8,8) .LBB1_8274: movl %r14d, 31648(%rbx) movl 31808(%rbx), %edi testb $1, %dil je .LBB1_8276 vmovdqa 23936(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%rcx,8) .LBB1_8276: movq %rcx, 31232(%rbx) movl 31840(%rbx), %edi testb $1, %dil movq %rax, %r14 je .LBB1_8278 vmovdqa 21952(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%r11,8) .LBB1_8278: movq %r11, 31264(%rbx) movl 31520(%rbx), %edi testb $1, %dil je .LBB1_8280 vmovdqa 26048(%rbx), %ymm0 vmovsd %xmm0, (%rsi,%r12,8) .LBB1_8280: movq %r12, %r11 movl 31552(%rbx), %eax testb $1, %al je .LBB1_8282 vmovdqa 22016(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%r13,8) .LBB1_8282: testb $1, %r15b movq %r8, %rcx je .LBB1_8284 vmovdqa 24000(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%r14,8) .LBB1_8284: movl 31648(%rbx), %eax testb $1, %al je .LBB1_8286 vmovdqa 22048(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%rdx,8) .LBB1_8286: movq %rdx, %r12 movl 31744(%rbx), %edi testb $1, %dil je .LBB1_8288 vmovdqa 25664(%rbx), %ymm0 vmovsd %xmm0, (%r9,%r10,8) .LBB1_8288: movq %r13, %rax movl 31776(%rbx), %edx testb $1, %dl je .LBB1_8290 vmovdqa 21824(%rbx), %xmm0 vmovsd %xmm0, (%r9,%rcx,8) .LBB1_8290: movl 31808(%rbx), %ecx testb $1, %cl movq %rax, %rcx je .LBB1_8292 vmovdqa 23904(%rbx), %xmm0 movq 31232(%rbx), %rax vmovsd %xmm0, (%r9,%rax,8) .LBB1_8292: movl 31840(%rbx), %eax testb $1, %al je .LBB1_8294 vmovdqa 21856(%rbx), %xmm0 movq 31264(%rbx), %rax vmovsd %xmm0, (%r9,%rax,8) .LBB1_8294: movl 31520(%rbx), %eax testb $1, %al je .LBB1_8296 vmovdqa 26080(%rbx), %ymm0 vmovsd %xmm0, (%r9,%r11,8) .LBB1_8296: movl 31552(%rbx), %eax testb $1, %al je .LBB1_8298 vmovdqa 21920(%rbx), %xmm0 vmovsd %xmm0, (%r9,%rcx,8) .LBB1_8298: testb $1, %r15b je .LBB1_8300 vmovdqa 23968(%rbx), %xmm0 vmovsd %xmm0, (%r9,%r14,8) .LBB1_8300: movl 31648(%rbx), %ecx testb $1, %cl je .LBB1_8302 vmovdqa 21984(%rbx), %xmm0 vmovsd %xmm0, (%r9,%r12,8) .LBB1_8302: vextractf128 $1, %ymm10, %xmm0 vpaddq %xmm5, %xmm0, %xmm0 vpaddq %xmm5, %xmm10, %xmm1 movl 31744(%rbx), %eax testb $1, %al je .LBB1_8304 vinsertf128 $1, %xmm0, %ymm1, %ymm2 vmovd %xmm2, %rax vmovdqa 20992(%rbx), %ymm2 vmovsd %xmm2, (%rsi,%rax,8) .LBB1_8304: movl 31776(%rbx), %eax testb $1, %al je .LBB1_8306 vpextrq $1, %xmm1, %rax vmovdqa 19072(%rbx), %xmm1 vmovsd %xmm1, (%rsi,%rax,8) .LBB1_8306: movl 31808(%rbx), %eax testb $1, %al je .LBB1_8308 vmovd %xmm0, %rax vmovdqa 20352(%rbx), %xmm1 vmovsd %xmm1, (%rsi,%rax,8) .LBB1_8308: movl 31840(%rbx), %eax testb $1, %al movl %ecx, %r14d je .LBB1_8310 vpextrq $1, %xmm0, %rax vmovapd 19104(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%rax,8) .LBB1_8310: vpaddq %xmm5, %xmm15, %xmm0 movl 31520(%rbx), %eax testb $1, %al je .LBB1_8312 vmovd %xmm0, %rax vmovdqa 21024(%rbx), %ymm1 vmovsd %xmm1, (%rsi,%rax,8) .LBB1_8312: vextractf128 $1, %ymm15, %xmm1 movl 31552(%rbx), %eax testb $1, %al je .LBB1_8314 vpextrq $1, %xmm0, %rax vmovapd 19136(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%rax,8) .LBB1_8314: vpaddq %xmm5, %xmm1, %xmm0 testb $1, %r15b je .LBB1_8316 vmovd %xmm0, %rax vmovapd 20384(%rbx), %xmm1 vmovsd %xmm1, (%rsi,%rax,8) .LBB1_8316: testb $1, %r14b je .LBB1_5115 vpextrq $1, %xmm0, %rax vmovaps 19168(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%rax,8) jmp .LBB1_5115 .LBB1_8269: vmovaps 24896(%rbx), %ymm0 vmovsd %xmm0, (%rsi,%r10,8) vmovaps 21888(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%r8,8) vmovaps 23936(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%rcx,8) vmovaps 21952(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%rdi,8) vmovaps 26048(%rbx), %ymm0 vmovsd %xmm0, (%rsi,%r11,8) vmovaps 22016(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%r13,8) vmovaps 24000(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%rax,8) vextractf128 $1, %ymm15, %xmm1 vextractf128 $1, %ymm10, %xmm0 vpaddq %xmm5, %xmm0, %xmm0 vmovaps 22048(%rbx), %xmm2 vmovsd %xmm2, (%rsi,%rdx,8) vmovaps 25664(%rbx), %ymm2 vmovsd %xmm2, (%r9,%r10,8) vpaddq %xmm5, %xmm15, %xmm2 vpaddq %xmm5, %xmm1, %xmm4 vpaddq %xmm5, %xmm10, %xmm1 movq %rcx, %r10 vpextrq $1, %xmm4, %rcx movq %rcx, 31264(%rbx) movq %r13, %r12 movq %rdx, %r13 vmovq %xmm4, 31232(%rbx) vmovaps 21824(%rbx), %xmm4 vmovsd %xmm4, (%r9,%r8,8) movl %r14d, 31648(%rbx) vpextrq $1, %xmm2, %r8 vmovdqa 23904(%rbx), %xmm4 vmovsd %xmm4, (%r9,%r10,8) movq %rax, %rcx movl %r15d, %r14d vmovd %xmm2, %r10 vmovaps 21856(%rbx), %xmm2 vmovsd %xmm2, (%r9,%rdi,8) vpextrq $1, %xmm0, %rdi vmovdqa 26080(%rbx), %ymm2 vmovsd %xmm2, (%r9,%r11,8) vmovd %xmm0, %rdx vmovaps 21920(%rbx), %xmm0 vmovsd %xmm0, (%r9,%r12,8) vpextrq $1, %xmm1, %rax vmovaps 23968(%rbx), %xmm0 vmovsd %xmm0, (%r9,%rcx,8) vmovd %xmm1, %rcx vmovaps 21984(%rbx), %xmm0 vmovsd %xmm0, (%r9,%r13,8) vmovaps 20992(%rbx), %ymm0 vmovsd %xmm0, (%rsi,%rcx,8) vmovaps 19072(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%rax,8) vmovaps 20352(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%rdx,8) vmovaps 19104(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%rdi,8) vmovaps 21024(%rbx), %ymm0 vmovsd %xmm0, (%rsi,%r10,8) vmovaps 19136(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%r8,8) movl 31648(%rbx), %r14d vmovaps 20384(%rbx), %xmm0 movq 31232(%rbx), %rax vmovsd %xmm0, (%rsi,%rax,8) vmovaps 19168(%rbx), %xmm0 movq 31264(%rbx), %rax vmovsd %xmm0, (%rsi,%rax,8) .LBB1_5115: movl %r15d, 31488(%rbx) movl %r14d, 31648(%rbx) vmovdqa 27296(%rbx), %xmm0 vpand 31296(%rbx), %xmm0, %xmm3 vpextrb $10, %xmm3, %eax movl %eax, 31200(%rbx) vpextrb $12, %xmm3, %eax movl %eax, 31232(%rbx) vpextrb $14, %xmm3, %eax movl %eax, 31264(%rbx) vpextrb $2, %xmm3, %eax movl %eax, 31040(%rbx) vpextrb $6, %xmm3, %eax movl %eax, 31168(%rbx) vpextrb $0, %xmm3, %eax movl %eax, 30976(%rbx) vpextrb $4, %xmm3, %eax movl %eax, 31008(%rbx) vpextrb $8, %xmm3, %eax movl %eax, 31072(%rbx) vpxor %xmm14, %xmm3, %xmm0 vpmovzxwd %xmm0, %xmm1 vpslld $31, %xmm1, %xmm1 vpsrad $31, %xmm1, %xmm1 vpunpckhwd %xmm0, %xmm0, %xmm0 vpslld $31, %xmm0, %xmm0 vpsrad $31, %xmm0, %xmm0 vinsertf128 $1, %xmm0, %ymm1, %ymm1 vpxor %xmm0, %xmm0, %xmm0 vmovdqa 4256(%rbx), %ymm2 vptest %ymm2, %ymm1 sbbl %eax, %eax andl $1, %eax andl $1, %eax movl %eax, 30848(%rbx) movq %r9, %rdi jne .LBB1_5134 vpmovzxwd %xmm3, %xmm0 vpslld $31, %xmm0, %xmm0 vpsrad $31, %xmm0, %xmm0 vpunpckhwd %xmm0, %xmm3, %xmm1 vpslld $31, %xmm1, %xmm1 vpsrad $31, %xmm1, %xmm1 vinsertf128 $1, %xmm1, %ymm0, %ymm0 vmovdqa 2944(%rbx), %ymm1 vptest %ymm1, %ymm0 jb .LBB1_5117 movl 30976(%rbx), %eax testb $1, %al je .LBB1_5120 movq 32448(%rbx), %rax movq $0, (%rdi,%rax,8) .LBB1_5120: movl 31040(%rbx), %eax testb $1, %al je .LBB1_5122 movq 32480(%rbx), %rax movq $0, (%rdi,%rax,8) .LBB1_5122: movl 31008(%rbx), %eax testb $1, %al je .LBB1_5124 movq 32544(%rbx), %rax movq $0, (%rdi,%rax,8) .LBB1_5124: movl 31168(%rbx), %eax testb $1, %al je .LBB1_5126 movq 32576(%rbx), %rax movq $0, (%rdi,%rax,8) .LBB1_5126: movl 31072(%rbx), %eax testb $1, %al je .LBB1_5128 movq 32640(%rbx), %rax movq $0, (%rdi,%rax,8) .LBB1_5128: movl 31200(%rbx), %eax testb $1, %al je .LBB1_5130 movq 32672(%rbx), %rax movq $0, (%rdi,%rax,8) .LBB1_5130: movl 31232(%rbx), %eax testb $1, %al je .LBB1_5132 movq 32704(%rbx), %rax movq $0, (%rdi,%rax,8) .LBB1_5132: movl 31264(%rbx), %eax testb $1, %al vmovdqa %xmm3, %xmm0 je .LBB1_5134 jmp .LBB1_5133 .LBB1_5117: movq 32448(%rbx), %rax movq $0, (%rdi,%rax,8) movq 32480(%rbx), %rax movq $0, (%rdi,%rax,8) movq 32544(%rbx), %rax movq $0, (%rdi,%rax,8) movq 32576(%rbx), %rax movq $0, (%rdi,%rax,8) movq 32640(%rbx), %rax movq $0, (%rdi,%rax,8) movq 32672(%rbx), %rax movq $0, (%rdi,%rax,8) movq 32704(%rbx), %rax movq $0, (%rdi,%rax,8) .LBB1_5133: movq 32512(%rbx), %rax movq $0, (%rdi,%rax,8) vmovdqa %xmm3, %xmm0 .LBB1_5134: vpor 30688(%rbx), %xmm0, %xmm2 vpunpckhwd %xmm0, %xmm2, %xmm0 vextractf128 $1, %ymm11, %xmm4 vmovapd %xmm4, 30944(%rbx) vpslld $31, %xmm0, %xmm1 vpaddq %xmm5, %xmm4, %xmm6 vpmovzxwd %xmm2, %xmm0 vpslld $31, %xmm0, %xmm0 vpsrad $31, %xmm0, %xmm4 vpextrq $1, %xmm6, %rax vmovd %xmm6, %r9 vpaddq %xmm5, %xmm11, %xmm6 vpsrad $31, %xmm1, %xmm0 vextractf128 $1, %ymm8, %xmm1 vmovaps %xmm1, 30912(%rbx) vpaddq %xmm5, %xmm8, %xmm7 vpaddq %xmm5, %xmm1, %xmm9 vinsertf128 $1, %xmm0, %ymm4, %ymm4 vpextrq $1, %xmm6, %r11 vmovd %xmm6, %r14 vpextrq $1, %xmm9, %r12 vmovd %xmm9, %rdx vpextrq $1, %xmm7, %r10 vmovd %xmm7, %r8 vmovdqa 4224(%rbx), %ymm0 vptest %ymm0, %ymm4 jb .LBB1_5135 vpextrb $0, %xmm2, %r13d vpextrb $2, %xmm2, %r15d vpextrb $4, %xmm2, %ecx movl %ecx, 30560(%rbx) testb $1, %r13b je .LBB1_8201 vmovdqa 24896(%rbx), %ymm0 vmovsd %xmm0, (%rsi,%r14,8) .LBB1_8201: vpextrb $6, %xmm2, %ecx movl %ecx, 30528(%rbx) testb $1, %r15b vmovdqa %xmm5, %xmm7 je .LBB1_8203 vmovdqa 21888(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%r11,8) .LBB1_8203: vpextrb $8, %xmm2, %ecx movl %ecx, 30496(%rbx) movl 30560(%rbx), %ecx testb $1, %cl vmovaps .LCPI1_10(%rip), %xmm5 je .LBB1_8205 vmovdqa 23936(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%r9,8) .LBB1_8205: vpextrb $10, %xmm2, %ecx movl %ecx, 27808(%rbx) movl 30528(%rbx), %ecx testb $1, %cl je .LBB1_8207 vmovdqa 21952(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%rax,8) .LBB1_8207: vpextrb $12, %xmm2, %ecx movl %ecx, 27776(%rbx) movl 30496(%rbx), %ecx testb $1, %cl je .LBB1_8209 vmovdqa 26048(%rbx), %ymm0 vmovsd %xmm0, (%rsi,%r8,8) .LBB1_8209: vpextrb $14, %xmm2, %ecx movl %ecx, 27488(%rbx) movl 27808(%rbx), %ecx testb $1, %cl je .LBB1_8211 vmovdqa 22016(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%r10,8) .LBB1_8211: movl 27776(%rbx), %ecx testb $1, %cl je .LBB1_8213 vmovdqa 24000(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%rdx,8) .LBB1_8213: movl 27488(%rbx), %ecx testb $1, %cl je .LBB1_8215 vmovdqa 22048(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%r12,8) .LBB1_8215: vmovdqa %ymm8, %ymm13 testb $1, %r13b je .LBB1_8217 vmovdqa 25664(%rbx), %ymm0 vmovsd %xmm0, (%rdi,%r14,8) .LBB1_8217: vmovdqa %ymm11, %ymm8 testb $1, %r15b je .LBB1_8219 vmovdqa 21824(%rbx), %xmm0 vmovsd %xmm0, (%rdi,%r11,8) .LBB1_8219: vmovdqa %xmm3, %xmm11 movl 30560(%rbx), %ecx testb $1, %cl je .LBB1_8221 vmovdqa 23904(%rbx), %xmm0 vmovsd %xmm0, (%rdi,%r9,8) .LBB1_8221: movl 30528(%rbx), %ecx testb $1, %cl je .LBB1_8223 vmovdqa 21856(%rbx), %xmm0 vmovsd %xmm0, (%rdi,%rax,8) .LBB1_8223: movl 30496(%rbx), %eax testb $1, %al je .LBB1_8225 vmovdqa 26080(%rbx), %ymm0 vmovsd %xmm0, (%rdi,%r8,8) .LBB1_8225: movl 27808(%rbx), %eax testb $1, %al je .LBB1_8227 vmovdqa 21920(%rbx), %xmm0 vmovsd %xmm0, (%rdi,%r10,8) .LBB1_8227: movl 27776(%rbx), %eax testb $1, %al je .LBB1_8229 vmovdqa 23968(%rbx), %xmm0 vmovsd %xmm0, (%rdi,%rdx,8) .LBB1_8229: movl 27488(%rbx), %eax testb $1, %al je .LBB1_8231 vmovdqa 21984(%rbx), %xmm0 vmovsd %xmm0, (%rdi,%r12,8) .LBB1_8231: vextractf128 $1, %ymm10, %xmm0 vpaddq %xmm7, %xmm0, %xmm4 vpaddq %xmm7, %xmm10, %xmm6 testb $1, %r13b je .LBB1_8233 vinsertf128 $1, %xmm4, %ymm6, %ymm0 vmovd %xmm0, %rcx vmovapd 20992(%rbx), %ymm0 vmovsd %xmm0, (%rsi,%rcx,8) .LBB1_8233: testb $1, %r15b je .LBB1_8235 vpextrq $1, %xmm6, %rcx vmovapd 19072(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%rcx,8) .LBB1_8235: movl 30560(%rbx), %eax testb $1, %al je .LBB1_8237 vmovd %xmm4, %rcx vmovapd 20352(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%rcx,8) .LBB1_8237: movl 30528(%rbx), %eax testb $1, %al je .LBB1_8239 vpextrq $1, %xmm4, %rcx vmovapd 19104(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%rcx,8) .LBB1_8239: vpaddq %xmm7, %xmm15, %xmm4 movl 30496(%rbx), %eax testb $1, %al je .LBB1_8241 vmovd %xmm4, %rcx vmovapd 21024(%rbx), %ymm0 vmovsd %xmm0, (%rsi,%rcx,8) .LBB1_8241: vmovapd %ymm10, %ymm12 vmovaps %xmm5, %xmm10 vextractf128 $1, %ymm15, %xmm6 movl 27808(%rbx), %eax testb $1, %al je .LBB1_8243 vpextrq $1, %xmm4, %rcx vmovapd 19136(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%rcx,8) .LBB1_8243: vpaddq %xmm7, %xmm6, %xmm4 movl 27776(%rbx), %eax testb $1, %al je .LBB1_8245 vmovd %xmm4, %rcx vmovapd 20384(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%rcx,8) .LBB1_8245: movl 27488(%rbx), %eax testb $1, %al je .LBB1_8247 vpextrq $1, %xmm4, %rax vmovapd 19168(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%rax,8) jmp .LBB1_8247 .LBB1_5135: vmovdqa %ymm8, %ymm13 vmovdqa %ymm11, %ymm8 vmovdqa %xmm3, %xmm11 movq %rsi, %rcx vmovaps 24896(%rbx), %ymm0 vmovsd %xmm0, (%rcx,%r14,8) vmovaps 21888(%rbx), %xmm0 vmovsd %xmm0, (%rcx,%r11,8) vmovaps 23936(%rbx), %xmm0 vmovsd %xmm0, (%rcx,%r9,8) vmovaps 21952(%rbx), %xmm0 vmovsd %xmm0, (%rcx,%rax,8) vmovaps 26048(%rbx), %ymm0 vmovsd %xmm0, (%rcx,%r8,8) vmovaps 22016(%rbx), %xmm0 vmovsd %xmm0, (%rcx,%r10,8) vmovaps 24000(%rbx), %xmm0 vmovsd %xmm0, (%rcx,%rdx,8) vextractf128 $1, %ymm15, %xmm6 vextractf128 $1, %ymm10, %xmm0 vpaddq %xmm5, %xmm0, %xmm4 vmovaps 22048(%rbx), %xmm0 vmovsd %xmm0, (%rcx,%r12,8) vmovaps 25664(%rbx), %ymm0 vmovsd %xmm0, (%rdi,%r14,8) vpaddq %xmm5, %xmm15, %xmm7 vpaddq %xmm5, %xmm6, %xmm0 vpaddq %xmm5, %xmm10, %xmm6 vmovapd %ymm10, %ymm12 vpextrq $1, %xmm0, %r14 vmovd %xmm0, %r13 vmovaps 21824(%rbx), %xmm0 vmovsd %xmm0, (%rdi,%r11,8) vpextrq $1, %xmm7, %r11 vmovaps 23904(%rbx), %xmm0 vmovsd %xmm0, (%rdi,%r9,8) vmovd %xmm7, %r9 vmovaps 21856(%rbx), %xmm0 vmovsd %xmm0, (%rdi,%rax,8) vpextrq $1, %xmm4, %r15 vmovaps 26080(%rbx), %ymm0 vmovsd %xmm0, (%rdi,%r8,8) vmovd %xmm4, %rsi vmovaps 21920(%rbx), %xmm0 vmovsd %xmm0, (%rdi,%r10,8) vpextrq $1, %xmm6, %rax vmovaps 23968(%rbx), %xmm0 vmovsd %xmm0, (%rdi,%rdx,8) movq %rcx, %rdx vmovd %xmm6, %rcx vmovaps 21984(%rbx), %xmm0 vmovsd %xmm0, (%rdi,%r12,8) vmovaps 20992(%rbx), %ymm0 vmovsd %xmm0, (%rdx,%rcx,8) vmovaps 19072(%rbx), %xmm0 vmovsd %xmm0, (%rdx,%rax,8) vmovaps 20352(%rbx), %xmm0 vmovsd %xmm0, (%rdx,%rsi,8) vmovaps 19104(%rbx), %xmm0 vmovsd %xmm0, (%rdx,%r15,8) vmovaps 21024(%rbx), %ymm0 vmovsd %xmm0, (%rdx,%r9,8) vmovaps 19136(%rbx), %xmm0 vmovsd %xmm0, (%rdx,%r11,8) vmovaps 20384(%rbx), %xmm0 vmovsd %xmm0, (%rdx,%r13,8) vmovapd 19168(%rbx), %xmm0 vmovsd %xmm0, (%rdx,%r14,8) vmovdqa %xmm5, %xmm7 vmovaps .LCPI1_10(%rip), %xmm5 vmovaps %xmm5, %xmm10 .LBB1_8247: vmovapd %ymm15, %ymm9 vmovdqa 31296(%rbx), %xmm15 vpand %xmm15, %xmm2, %xmm2 vpxor .LCPI1_17(%rip), %xmm2, %xmm0 vpmovzxwd %xmm0, %xmm1 vpslld $31, %xmm1, %xmm1 vpsrad $31, %xmm1, %xmm4 vpunpckhwd %xmm0, %xmm0, %xmm0 vpslld $31, %xmm0, %xmm0 vpsrad $31, %xmm0, %xmm0 vinsertf128 $1, %xmm0, %ymm4, %ymm0 vmovdqa 4192(%rbx), %ymm1 vptest %ymm1, %ymm0 movq 22456(%rbx), %rcx jb .LBB1_8266 vmovaps 31680(%rbx), %ymm6 vextractf128 $1, %ymm6, %xmm0 vmovaps 31712(%rbx), %ymm5 vextractf128 $1, %ymm5, %xmm1 vpaddq %xmm7, %xmm1, %xmm4 vpaddq %xmm7, %xmm6, %xmm3 vpaddq %xmm7, %xmm0, %xmm0 vpmovzxwd %xmm2, %xmm1 vpslld $31, %xmm1, %xmm6 vpextrq $1, %xmm0, %r11 vmovd %xmm0, %r15 vpextrq $1, %xmm3, %r9 vmovd %xmm3, %rdx vpextrq $1, %xmm4, %rax vmovd %xmm4, %r12 vpaddq %xmm7, %xmm5, %xmm4 vpsrad $31, %xmm6, %xmm0 vpunpckhwd %xmm0, %xmm2, %xmm1 vpslld $31, %xmm1, %xmm1 vpsrad $31, %xmm1, %xmm1 vinsertf128 $1, %xmm1, %ymm0, %ymm0 vpextrq $1, %xmm4, %r10 vmovd %xmm4, %r14 vmovdqa 4160(%rbx), %ymm1 vptest %ymm1, %ymm0 jb .LBB1_8249 movq %rax, 30560(%rbx) movq %rcx, %r8 vpextrb $0, %xmm2, %eax vpextrb $2, %xmm2, %esi vpextrb $4, %xmm2, %r13d testb $1, %al je .LBB1_8252 vmovaps 29824(%rbx), %ymm0 vmovsd %xmm0, (%rdi,%rdx,8) .LBB1_8252: vpextrb $6, %xmm2, %edx testb $1, %sil je .LBB1_8254 vmovaps 28352(%rbx), %xmm0 vmovsd %xmm0, (%rdi,%r9,8) .LBB1_8254: vpextrb $8, %xmm2, %esi testb $1, %r13b je .LBB1_8256 vmovaps 28480(%rbx), %xmm0 vmovsd %xmm0, (%rdi,%r15,8) .LBB1_8256: vpextrb $10, %xmm2, %eax testb $1, %dl movq %r8, %rcx je .LBB1_8258 vmovaps 28384(%rbx), %xmm0 vmovsd %xmm0, (%rdi,%r11,8) .LBB1_8258: vpextrb $12, %xmm2, %edx testb $1, %sil je .LBB1_8260 vmovaps 29856(%rbx), %ymm0 vmovsd %xmm0, (%rdi,%r14,8) .LBB1_8260: vpextrb $14, %xmm2, %esi testb $1, %al je .LBB1_8262 vmovaps 28416(%rbx), %xmm0 vmovsd %xmm0, (%rdi,%r10,8) .LBB1_8262: testb $1, %dl movq 30560(%rbx), %rax je .LBB1_8264 vmovaps 28512(%rbx), %xmm0 vmovsd %xmm0, (%rdi,%r12,8) .LBB1_8264: testb $1, %sil je .LBB1_8266 jmp .LBB1_8265 .LBB1_8249: vmovaps 29824(%rbx), %ymm0 vmovsd %xmm0, (%rdi,%rdx,8) vmovaps 28352(%rbx), %xmm0 vmovsd %xmm0, (%rdi,%r9,8) vmovaps 28480(%rbx), %xmm0 vmovsd %xmm0, (%rdi,%r15,8) vmovaps 28384(%rbx), %xmm0 vmovsd %xmm0, (%rdi,%r11,8) vmovaps 29856(%rbx), %ymm0 vmovsd %xmm0, (%rdi,%r14,8) vmovaps 28416(%rbx), %xmm0 vmovsd %xmm0, (%rdi,%r10,8) vmovaps 28512(%rbx), %xmm0 vmovsd %xmm0, (%rdi,%r12,8) .LBB1_8265: vmovaps 28448(%rbx), %xmm0 vmovsd %xmm0, (%rdi,%rax,8) .LBB1_8266: cmpl $0, 30880(%rbx) movq 32632(%rbx), %rsi je .LBB1_8318 movq 32192(%rbx), %rax movq $0, (%rcx,%rax,8) movq 32256(%rbx), %rax movq $0, (%rcx,%rax,8) movq 32224(%rbx), %rax movq $0, (%rcx,%rax,8) movq 32288(%rbx), %rax movq $0, (%rcx,%rax,8) movq 32320(%rbx), %rax movq $0, (%rcx,%rax,8) movq 32384(%rbx), %rax movq $0, (%rcx,%rax,8) movq 32352(%rbx), %rax movq $0, (%rcx,%rax,8) movq 32416(%rbx), %rax movq $0, (%rcx,%rax,8) movq 32832(%rbx), %r14 movq $0, (%rsi,%r14,8) movq 32864(%rbx), %r11 movq $0, (%rsi,%r11,8) movq 32736(%rbx), %r10 movq $0, (%rsi,%r10,8) movq 32800(%rbx), %r9 movq $0, (%rsi,%r9,8) movq 32896(%rbx), %r8 movq $0, (%rsi,%r8,8) movq 32928(%rbx), %rdx movq $0, (%rsi,%rdx,8) movq 32960(%rbx), %rcx movq $0, (%rsi,%rcx,8) movq 32992(%rbx), %rax movq $0, (%rsi,%rax,8) movq $0, (%rdi,%r14,8) movq $0, (%rdi,%r11,8) movq $0, (%rdi,%r10,8) movq $0, (%rdi,%r9,8) movq $0, (%rdi,%r8,8) movq $0, (%rdi,%rdx,8) movq $0, (%rdi,%rcx,8) movq $0, (%rdi,%rax,8) movq 31936(%rbx), %rax movq $0, (%rsi,%rax,8) movq 31968(%rbx), %rax movq $0, (%rsi,%rax,8) movq 32096(%rbx), %rax movq $0, (%rsi,%rax,8) movq 32128(%rbx), %rax movq $0, (%rsi,%rax,8) movq 32160(%rbx), %rax movq $0, (%rsi,%rax,8) movq 32000(%rbx), %rax movq $0, (%rsi,%rax,8) movq 32032(%rbx), %rax movq $0, (%rsi,%rax,8) movq 32064(%rbx), %rax movq $0, (%rsi,%rax,8) vmovapd %ymm9, %ymm14 vmovaps %xmm10, %xmm3 vmovdqa %xmm11, %xmm9 vmovdqa %ymm8, %ymm11 vmovdqa %ymm13, %ymm8 movq 31456(%rbx), %rcx jmp .LBB1_8382 .LBB1_8318: movl 31584(%rbx), %r10d testb $1, %r10b movl 31424(%rbx), %r8d movl 31392(%rbx), %r9d movl 31360(%rbx), %r11d movl 31328(%rbx), %edx movq 31456(%rbx), %r14 je .LBB1_8320 movq 32192(%rbx), %rax movq $0, (%rcx,%rax,8) .LBB1_8320: movl 31872(%rbx), %eax testb $1, %al je .LBB1_8322 movq 32256(%rbx), %rax movq $0, (%rcx,%rax,8) .LBB1_8322: movl 31904(%rbx), %eax testb $1, %al je .LBB1_8324 movq 32224(%rbx), %rax movq $0, (%rcx,%rax,8) .LBB1_8324: movl 31616(%rbx), %eax testb $1, %al je .LBB1_8326 movq 32288(%rbx), %rax movq $0, (%rcx,%rax,8) .LBB1_8326: testb $1, %dl je .LBB1_8328 movq 32320(%rbx), %rax movq $0, (%rcx,%rax,8) .LBB1_8328: testb $1, %r9b je .LBB1_8330 movq 32384(%rbx), %rax movq $0, (%rcx,%rax,8) .LBB1_8330: testb $1, %r11b je .LBB1_8332 movq 32352(%rbx), %rax movq $0, (%rcx,%rax,8) .LBB1_8332: testb $1, %r8b je .LBB1_8334 movq 32416(%rbx), %rax movq $0, (%rcx,%rax,8) .LBB1_8334: testb $1, %r10b je .LBB1_8336 movq 32832(%rbx), %rax movq $0, (%rsi,%rax,8) .LBB1_8336: movl 31872(%rbx), %eax testb $1, %al je .LBB1_8338 movq 32864(%rbx), %rax movq $0, (%rsi,%rax,8) .LBB1_8338: movl 31904(%rbx), %eax testb $1, %al je .LBB1_8340 movq 32736(%rbx), %rax movq $0, (%rsi,%rax,8) .LBB1_8340: movl 31616(%rbx), %eax testb $1, %al je .LBB1_8342 movq 32800(%rbx), %rax movq $0, (%rsi,%rax,8) .LBB1_8342: testb $1, %dl je .LBB1_8344 movq 32896(%rbx), %rax movq $0, (%rsi,%rax,8) .LBB1_8344: testb $1, %r9b je .LBB1_8346 movq 32928(%rbx), %rax movq $0, (%rsi,%rax,8) .LBB1_8346: movq %r14, %r12 testb $1, %r11b vmovapd %ymm9, %ymm14 je .LBB1_8348 movq 32960(%rbx), %rax movq $0, (%rsi,%rax,8) .LBB1_8348: testb $1, %r8b vmovaps %xmm10, %xmm3 movq %r12, %rcx je .LBB1_8350 movq 32992(%rbx), %rax movq $0, (%rsi,%rax,8) .LBB1_8350: testb $1, %r10b vmovdqa %xmm11, %xmm9 je .LBB1_8352 movq 32832(%rbx), %rax movq $0, (%rdi,%rax,8) .LBB1_8352: movl 31872(%rbx), %eax testb $1, %al vmovdqa %ymm8, %ymm11 je .LBB1_8354 movq 32864(%rbx), %rax movq $0, (%rdi,%rax,8) .LBB1_8354: movl 31904(%rbx), %eax testb $1, %al vmovdqa %ymm13, %ymm8 je .LBB1_8356 movq 32736(%rbx), %rax movq $0, (%rdi,%rax,8) .LBB1_8356: movl 31616(%rbx), %eax testb $1, %al je .LBB1_8358 movq 32800(%rbx), %rax movq $0, (%rdi,%rax,8) .LBB1_8358: testb $1, %dl je .LBB1_8360 movq 32896(%rbx), %rax movq $0, (%rdi,%rax,8) .LBB1_8360: testb $1, %r9b je .LBB1_8362 movq 32928(%rbx), %rax movq $0, (%rdi,%rax,8) .LBB1_8362: testb $1, %r11b je .LBB1_8364 movq 32960(%rbx), %rax movq $0, (%rdi,%rax,8) .LBB1_8364: testb $1, %r8b je .LBB1_8366 movq 32992(%rbx), %rax movq $0, (%rdi,%rax,8) .LBB1_8366: testb $1, %r10b je .LBB1_8368 movq 31936(%rbx), %rax movq $0, (%rsi,%rax,8) .LBB1_8368: movl 31872(%rbx), %eax testb $1, %al je .LBB1_8370 movq 31968(%rbx), %rax movq $0, (%rsi,%rax,8) .LBB1_8370: movl 31904(%rbx), %eax testb $1, %al je .LBB1_8372 movq 32096(%rbx), %rax movq $0, (%rsi,%rax,8) .LBB1_8372: movl 31616(%rbx), %eax testb $1, %al je .LBB1_8374 movq 32128(%rbx), %rax movq $0, (%rsi,%rax,8) .LBB1_8374: testb $1, %dl je .LBB1_8376 movq 32160(%rbx), %rax movq $0, (%rsi,%rax,8) .LBB1_8376: testb $1, %r9b je .LBB1_8378 movq 32000(%rbx), %rax movq $0, (%rsi,%rax,8) .LBB1_8378: testb $1, %r11b je .LBB1_8380 movq 32032(%rbx), %rax movq $0, (%rsi,%rax,8) .LBB1_8380: testb $1, %r8b je .LBB1_8382 movq 32064(%rbx), %rax movq $0, (%rsi,%rax,8) .LBB1_8382: movq %rcx, 31456(%rbx) vpxor %xmm2, %xmm2, %xmm2 cmpl $0, 30848(%rbx) jne .LBB1_8401 vpmovzxwd %xmm9, %xmm0 vpslld $31, %xmm0, %xmm0 vpsrad $31, %xmm0, %xmm0 vpunpckhwd %xmm0, %xmm9, %xmm1 vpslld $31, %xmm1, %xmm1 vpsrad $31, %xmm1, %xmm1 vinsertf128 $1, %xmm1, %ymm0, %ymm0 vmovdqa 2976(%rbx), %ymm1 vptest %ymm1, %ymm0 jb .LBB1_8384 movl 30976(%rbx), %eax testb $1, %al je .LBB1_8387 movq 32448(%rbx), %rax movq $0, (%rdi,%rax,8) .LBB1_8387: movl 31040(%rbx), %eax testb $1, %al je .LBB1_8389 movq 32480(%rbx), %rax movq $0, (%rdi,%rax,8) .LBB1_8389: movl 31008(%rbx), %eax testb $1, %al je .LBB1_8391 movq 32544(%rbx), %rax movq $0, (%rdi,%rax,8) .LBB1_8391: movl 31168(%rbx), %eax testb $1, %al je .LBB1_8393 movq 32576(%rbx), %rax movq $0, (%rdi,%rax,8) .LBB1_8393: movl 31072(%rbx), %eax testb $1, %al je .LBB1_8395 movq 32640(%rbx), %rax movq $0, (%rdi,%rax,8) .LBB1_8395: movl 31200(%rbx), %eax testb $1, %al je .LBB1_8397 movq 32672(%rbx), %rax movq $0, (%rdi,%rax,8) .LBB1_8397: movl 31232(%rbx), %eax testb $1, %al je .LBB1_8399 movq 32704(%rbx), %rax movq $0, (%rdi,%rax,8) .LBB1_8399: movl 31264(%rbx), %eax testb $1, %al vmovdqa %xmm9, %xmm2 je .LBB1_8401 jmp .LBB1_8400 .LBB1_8384: movq 32448(%rbx), %rax movq $0, (%rdi,%rax,8) movq 32480(%rbx), %rax movq $0, (%rdi,%rax,8) movq 32544(%rbx), %rax movq $0, (%rdi,%rax,8) movq 32576(%rbx), %rax movq $0, (%rdi,%rax,8) movq 32640(%rbx), %rax movq $0, (%rdi,%rax,8) movq 32672(%rbx), %rax movq $0, (%rdi,%rax,8) movq 32704(%rbx), %rax movq $0, (%rdi,%rax,8) .LBB1_8400: movq 32512(%rbx), %rax movq $0, (%rdi,%rax,8) vmovdqa %xmm9, %xmm2 .LBB1_8401: vpor 30688(%rbx), %xmm2, %xmm2 vpunpckhwd %xmm0, %xmm2, %xmm0 vpslld $31, %xmm0, %xmm4 vmovdqa 30944(%rbx), %xmm0 vpaddq %xmm3, %xmm0, %xmm0 vpmovzxwd %xmm2, %xmm1 vpslld $31, %xmm1, %xmm1 vpsrad $31, %xmm1, %xmm6 vpextrq $1, %xmm0, %r14 vmovd %xmm0, %r9 vpaddq %xmm3, %xmm11, %xmm7 vpsrad $31, %xmm4, %xmm0 vpaddq %xmm3, %xmm8, %xmm4 vmovdqa 30912(%rbx), %xmm1 vpaddq %xmm3, %xmm1, %xmm1 vinsertf128 $1, %xmm0, %ymm6, %ymm6 vpextrq $1, %xmm7, %rax vmovd %xmm7, %rcx vpextrq $1, %xmm1, %r10 vmovd %xmm1, %r12 vpextrq $1, %xmm4, %rdx vmovd %xmm4, %r13 vmovdqa 4128(%rbx), %ymm0 vptest %ymm0, %ymm6 jb .LBB1_8402 movq %rcx, 30528(%rbx) movq %r9, %r15 movq %r13, %r9 movq %rdx, 27808(%rbx) vpextrb $0, %xmm2, %r11d vpextrb $2, %xmm2, %r8d vpextrb $4, %xmm2, %ecx movl %ecx, 27456(%rbx) testb $1, %r11b je .LBB1_8405 vmovdqa 26112(%rbx), %ymm0 movq 30528(%rbx), %rcx vmovsd %xmm0, (%rsi,%rcx,8) .LBB1_8405: vpextrb $6, %xmm2, %ecx movl %ecx, 27424(%rbx) testb $1, %r8b movq %r15, %rcx movq %rax, %rdx je .LBB1_8407 vmovdqa 22112(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%rdx,8) .LBB1_8407: movq %rsi, %rax vpextrb $8, %xmm2, %r15d movl 27456(%rbx), %esi testb $1, %sil je .LBB1_8409 vmovdqa 24064(%rbx), %xmm0 vmovsd %xmm0, (%rax,%rcx,8) .LBB1_8409: vpextrb $10, %xmm2, %esi movl %esi, 27264(%rbx) movl 27424(%rbx), %esi testb $1, %sil je .LBB1_8411 vmovdqa 22208(%rbx), %xmm0 vmovsd %xmm0, (%rax,%r14,8) .LBB1_8411: movq %rdx, %r13 movq %r14, 27488(%rbx) vpextrb $12, %xmm2, %edx movl %edx, 27232(%rbx) testb $1, %r15b je .LBB1_8413 vmovdqa 26176(%rbx), %ymm0 vmovsd %xmm0, (%rax,%r9,8) .LBB1_8413: vpextrb $14, %xmm2, %r14d movl 27264(%rbx), %edx testb $1, %dl je .LBB1_8415 vmovdqa 22272(%rbx), %xmm0 movq 27808(%rbx), %rdx vmovsd %xmm0, (%rax,%rdx,8) .LBB1_8415: movl 27232(%rbx), %edx testb $1, %dl je .LBB1_8417 vmovdqa 24128(%rbx), %xmm0 vmovsd %xmm0, (%rax,%r12,8) .LBB1_8417: testb $1, %r14b movq %r13, %rdx je .LBB1_8419 vmovdqa 22304(%rbx), %xmm0 vmovsd %xmm0, (%rax,%r10,8) .LBB1_8419: testb $1, %r11b movq %r9, 30560(%rbx) je .LBB1_8421 vmovdqa 26144(%rbx), %ymm0 movq 30528(%rbx), %rsi vmovsd %xmm0, (%rdi,%rsi,8) .LBB1_8421: testb $1, %r8b movq 22456(%rbx), %r13 je .LBB1_8423 vmovdqa 22080(%rbx), %xmm0 vmovsd %xmm0, (%rdi,%rdx,8) .LBB1_8423: movq %rdx, 27776(%rbx) movl 27456(%rbx), %edx testb $1, %dl je .LBB1_8425 vmovdqa 24032(%rbx), %xmm0 vmovsd %xmm0, (%rdi,%rcx,8) .LBB1_8425: movq %rcx, 26976(%rbx) movl 27424(%rbx), %ecx testb $1, %cl je .LBB1_8427 vmovdqa 22144(%rbx), %xmm0 movq 27488(%rbx), %rdx vmovsd %xmm0, (%rdi,%rdx,8) .LBB1_8427: testb $1, %r15b je .LBB1_8429 vmovdqa 26208(%rbx), %ymm0 movq 30560(%rbx), %rcx vmovsd %xmm0, (%rdi,%rcx,8) .LBB1_8429: movl 27264(%rbx), %ecx testb $1, %cl je .LBB1_8431 vmovdqa 22176(%rbx), %xmm0 movq 27808(%rbx), %rdx vmovsd %xmm0, (%rdi,%rdx,8) .LBB1_8431: movl 27232(%rbx), %ecx testb $1, %cl je .LBB1_8433 vmovdqa 24096(%rbx), %xmm0 vmovsd %xmm0, (%rdi,%r12,8) .LBB1_8433: testb $1, %r14b je .LBB1_8435 vmovdqa 22240(%rbx), %xmm0 vmovsd %xmm0, (%rdi,%r10,8) .LBB1_8435: movq %r10, 30496(%rbx) vmovapd %ymm12, %ymm13 vextractf128 $1, %ymm13, %xmm0 vpaddq %xmm3, %xmm0, %xmm4 vpaddq %xmm3, %xmm13, %xmm6 vmovapd %ymm13, %ymm5 testb $1, %r11b je .LBB1_8437 vinsertf128 $1, %xmm4, %ymm6, %ymm0 vmovd %xmm0, %rsi vmovapd 21056(%rbx), %ymm0 vmovsd %xmm0, (%rax,%rsi,8) .LBB1_8437: testb $1, %r8b je .LBB1_8439 vpextrq $1, %xmm6, %rdx vmovapd 19200(%rbx), %xmm0 vmovsd %xmm0, (%rax,%rdx,8) .LBB1_8439: movl 27456(%rbx), %ecx testb $1, %cl je .LBB1_8441 vmovd %xmm4, %rdx vmovapd 20416(%rbx), %xmm0 vmovsd %xmm0, (%rax,%rdx,8) .LBB1_8441: movl 27424(%rbx), %ecx testb $1, %cl je .LBB1_8443 vpextrq $1, %xmm4, %rdx vmovapd 19232(%rbx), %xmm0 vmovsd %xmm0, (%rax,%rdx,8) .LBB1_8443: vpaddq %xmm3, %xmm14, %xmm4 testb $1, %r15b movq %rax, %rcx je .LBB1_8445 vmovd %xmm4, %rdx vmovapd 21088(%rbx), %ymm0 vmovsd %xmm0, (%rcx,%rdx,8) .LBB1_8445: vextractf128 $1, %ymm14, %xmm6 movl 27264(%rbx), %eax testb $1, %al je .LBB1_8447 vpextrq $1, %xmm4, %rax vmovapd 19264(%rbx), %xmm0 vmovsd %xmm0, (%rcx,%rax,8) .LBB1_8447: vpaddq %xmm3, %xmm6, %xmm4 movl 27232(%rbx), %eax testb $1, %al je .LBB1_8449 vmovd %xmm4, %rax vmovapd 20448(%rbx), %xmm0 vmovsd %xmm0, (%rcx,%rax,8) .LBB1_8449: testb $1, %r14b je .LBB1_8451 vpextrq $1, %xmm4, %rax vmovapd 19296(%rbx), %xmm0 vmovsd %xmm0, (%rcx,%rax,8) jmp .LBB1_8451 .LBB1_8402: vmovaps 26112(%rbx), %ymm0 vmovsd %xmm0, (%rsi,%rcx,8) vmovaps 22112(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%rax,8) vmovaps 24064(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%r9,8) vmovaps 22208(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%r14,8) vmovaps 26176(%rbx), %ymm0 vmovsd %xmm0, (%rsi,%r13,8) vmovaps 22272(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%rdx,8) vmovaps 24128(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%r12,8) vextractf128 $1, %ymm14, %xmm6 vmovapd %ymm12, %ymm13 vextractf128 $1, %ymm13, %xmm0 vpaddq %xmm3, %xmm0, %xmm4 vmovaps 22304(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%r10,8) vmovaps 26144(%rbx), %ymm0 vmovsd %xmm0, (%rdi,%rcx,8) movq %rcx, 30528(%rbx) vpaddq %xmm3, %xmm14, %xmm7 vpaddq %xmm3, %xmm6, %xmm0 vpaddq %xmm3, %xmm13, %xmm6 vmovapd %ymm13, %ymm5 movq %r13, 30560(%rbx) vpextrq $1, %xmm0, %rcx movq %rcx, 27456(%rbx) movq %rdx, 27808(%rbx) vmovd %xmm0, %r11 vmovaps 22080(%rbx), %xmm0 vmovsd %xmm0, (%rdi,%rax,8) movq %rax, 27776(%rbx) vpextrq $1, %xmm7, %r8 vmovaps 24032(%rbx), %xmm0 vmovsd %xmm0, (%rdi,%r9,8) movq %r9, 26976(%rbx) vmovd %xmm7, %r9 vmovaps 22144(%rbx), %xmm0 vmovsd %xmm0, (%rdi,%r14,8) movq %r14, 27488(%rbx) vpextrq $1, %xmm4, %r14 vmovaps 26208(%rbx), %ymm0 vmovsd %xmm0, (%rdi,%r13,8) vmovd %xmm4, %r15 vmovaps 22176(%rbx), %xmm0 vmovsd %xmm0, (%rdi,%rdx,8) vpextrq $1, %xmm6, %rcx vmovaps 24096(%rbx), %xmm0 vmovsd %xmm0, (%rdi,%r12,8) vmovd %xmm6, %rdx vmovaps 22240(%rbx), %xmm0 vmovsd %xmm0, (%rdi,%r10,8) movq %r10, 30496(%rbx) vmovaps 21056(%rbx), %ymm0 vmovsd %xmm0, (%rsi,%rdx,8) vmovaps 19200(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%rcx,8) vmovaps 20416(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%r15,8) vmovaps 19232(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%r14,8) vmovaps 21088(%rbx), %ymm0 vmovsd %xmm0, (%rsi,%r9,8) vmovaps 19264(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%r8,8) vmovaps 20448(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%r11,8) vmovapd 19296(%rbx), %xmm0 movq 27456(%rbx), %rax vmovsd %xmm0, (%rsi,%rax,8) movq 22456(%rbx), %r13 .LBB1_8451: vpand %xmm15, %xmm2, %xmm2 vpxor .LCPI1_17(%rip), %xmm2, %xmm0 vpmovzxwd %xmm0, %xmm1 vpslld $31, %xmm1, %xmm1 vpsrad $31, %xmm1, %xmm1 vpunpckhwd %xmm0, %xmm0, %xmm0 vpslld $31, %xmm0, %xmm0 vpsrad $31, %xmm0, %xmm0 vinsertf128 $1, %xmm0, %ymm1, %ymm0 vmovdqa 4096(%rbx), %ymm1 vptest %ymm1, %ymm0 vmovapd %ymm5, %ymm10 jb .LBB1_8470 vmovaps 31680(%rbx), %ymm6 vextractf128 $1, %ymm6, %xmm0 vmovaps 31712(%rbx), %ymm5 vextractf128 $1, %ymm5, %xmm1 vpaddq %xmm3, %xmm1, %xmm4 vpaddq %xmm3, %xmm6, %xmm7 vpaddq %xmm3, %xmm0, %xmm0 vpmovzxwd %xmm2, %xmm1 vpslld $31, %xmm1, %xmm6 vpextrq $1, %xmm0, %r15 vmovd %xmm0, %rax vpextrq $1, %xmm7, %rcx vmovd %xmm7, %rdx vpextrq $1, %xmm4, %rsi vmovd %xmm4, %r11 vpaddq %xmm3, %xmm5, %xmm4 vpsrad $31, %xmm6, %xmm0 vpunpckhwd %xmm0, %xmm2, %xmm1 vpslld $31, %xmm1, %xmm1 vpsrad $31, %xmm1, %xmm1 vinsertf128 $1, %xmm1, %ymm0, %ymm0 vpextrq $1, %xmm4, %r14 vmovd %xmm4, %r9 vmovdqa 4064(%rbx), %ymm1 vptest %ymm1, %ymm0 jb .LBB1_8453 movq %rsi, 27456(%rbx) movq %r13, %r10 vpextrb $0, %xmm2, %r8d vpextrb $2, %xmm2, %r13d vpextrb $4, %xmm2, %esi testb $1, %r8b je .LBB1_8456 vmovaps 29888(%rbx), %ymm0 vmovsd %xmm0, (%rdi,%rdx,8) .LBB1_8456: vpextrb $6, %xmm2, %edx testb $1, %r13b je .LBB1_8458 vmovaps 28544(%rbx), %xmm0 vmovsd %xmm0, (%rdi,%rcx,8) .LBB1_8458: vpextrb $8, %xmm2, %ecx testb $1, %sil movq %r10, %r13 je .LBB1_8460 vmovaps 28672(%rbx), %xmm0 vmovsd %xmm0, (%rdi,%rax,8) .LBB1_8460: vpextrb $10, %xmm2, %eax testb $1, %dl je .LBB1_8462 vmovaps 28576(%rbx), %xmm0 vmovsd %xmm0, (%rdi,%r15,8) .LBB1_8462: vpextrb $12, %xmm2, %edx testb $1, %cl je .LBB1_8464 vmovaps 29920(%rbx), %ymm0 vmovsd %xmm0, (%rdi,%r9,8) .LBB1_8464: vpextrb $14, %xmm2, %ecx testb $1, %al je .LBB1_8466 vmovaps 28608(%rbx), %xmm0 vmovsd %xmm0, (%rdi,%r14,8) .LBB1_8466: testb $1, %dl movq 27456(%rbx), %rax je .LBB1_8468 vmovaps 28704(%rbx), %xmm0 vmovsd %xmm0, (%rdi,%r11,8) .LBB1_8468: testb $1, %cl je .LBB1_8470 vmovaps 28640(%rbx), %xmm0 vmovsd %xmm0, (%rdi,%rax,8) jmp .LBB1_8470 .LBB1_8453: vmovaps 29888(%rbx), %ymm0 vmovsd %xmm0, (%rdi,%rdx,8) vmovaps 28544(%rbx), %xmm0 vmovsd %xmm0, (%rdi,%rcx,8) vmovaps 28672(%rbx), %xmm0 vmovsd %xmm0, (%rdi,%rax,8) vmovaps 28576(%rbx), %xmm0 vmovsd %xmm0, (%rdi,%r15,8) vmovaps 29920(%rbx), %ymm0 vmovsd %xmm0, (%rdi,%r9,8) vmovaps 28608(%rbx), %xmm0 vmovsd %xmm0, (%rdi,%r14,8) vmovaps 28704(%rbx), %xmm0 vmovsd %xmm0, (%rdi,%r11,8) vmovaps 28640(%rbx), %xmm0 vmovsd %xmm0, (%rdi,%rsi,8) .LBB1_8470: movq %r12, %r10 cmpl $0, 30592(%rbx) movq 32632(%rbx), %rsi vmovdqa .LCPI1_11(%rip), %xmm7 movq 27808(%rbx), %r11 movq 27488(%rbx), %r14 movq 26976(%rbx), %r12 movq 30528(%rbx), %rdx jne .LBB1_8521 vmovdqa 30816(%rbx), %xmm1 vpmovzxwd %xmm1, %xmm0 vpslld $31, %xmm0, %xmm0 vpsrad $31, %xmm0, %xmm0 vpunpckhwd %xmm0, %xmm1, %xmm1 vpslld $31, %xmm1, %xmm1 vpsrad $31, %xmm1, %xmm1 vinsertf128 $1, %xmm1, %ymm0, %ymm0 vmovdqa 3008(%rbx), %ymm1 vptest %ymm1, %ymm0 jb .LBB1_8472 movl 31744(%rbx), %eax testb $1, %al je .LBB1_8475 vmovaps 26112(%rbx), %ymm0 vmovsd %xmm0, (%rsi,%rdx,8) .LBB1_8475: movl 31776(%rbx), %eax testb $1, %al movl 31648(%rbx), %r8d movl 31488(%rbx), %r9d movl 31552(%rbx), %ecx movl 31520(%rbx), %r15d je .LBB1_8477 vmovaps 22112(%rbx), %xmm0 movq 27776(%rbx), %rax vmovsd %xmm0, (%rsi,%rax,8) .LBB1_8477: movl 31808(%rbx), %eax testb $1, %al je .LBB1_8479 vmovaps 24064(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%r12,8) .LBB1_8479: movl 31840(%rbx), %eax testb $1, %al je .LBB1_8481 vmovaps 22208(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%r14,8) .LBB1_8481: testb $1, %r15b je .LBB1_8483 vmovaps 26176(%rbx), %ymm0 movq 30560(%rbx), %rax vmovsd %xmm0, (%rsi,%rax,8) .LBB1_8483: testb $1, %cl je .LBB1_8485 vmovaps 22272(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%r11,8) .LBB1_8485: testb $1, %r9b je .LBB1_8487 vmovaps 24128(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%r10,8) .LBB1_8487: testb $1, %r8b je .LBB1_8489 vmovaps 22304(%rbx), %xmm0 movq 30496(%rbx), %rax vmovsd %xmm0, (%rsi,%rax,8) .LBB1_8489: movl 31744(%rbx), %eax testb $1, %al movq %r14, %rdx je .LBB1_8491 vmovaps 26144(%rbx), %ymm0 movq 30528(%rbx), %rax vmovsd %xmm0, (%rdi,%rax,8) .LBB1_8491: movl 31776(%rbx), %eax testb $1, %al je .LBB1_8493 vmovaps 22080(%rbx), %xmm0 movq 27776(%rbx), %rax vmovsd %xmm0, (%rdi,%rax,8) .LBB1_8493: movl 31808(%rbx), %eax testb $1, %al je .LBB1_8495 vmovaps 24032(%rbx), %xmm0 vmovsd %xmm0, (%rdi,%r12,8) .LBB1_8495: movl 31840(%rbx), %eax testb $1, %al je .LBB1_8497 vmovaps 22144(%rbx), %xmm0 vmovsd %xmm0, (%rdi,%rdx,8) .LBB1_8497: testb $1, %r15b je .LBB1_8499 vmovaps 26208(%rbx), %ymm0 movq 30560(%rbx), %rax vmovsd %xmm0, (%rdi,%rax,8) .LBB1_8499: testb $1, %cl je .LBB1_8501 vmovaps 22176(%rbx), %xmm0 vmovsd %xmm0, (%rdi,%r11,8) .LBB1_8501: testb $1, %r9b je .LBB1_8503 vmovaps 24096(%rbx), %xmm0 vmovsd %xmm0, (%rdi,%r10,8) .LBB1_8503: testb $1, %r8b je .LBB1_8505 vmovaps 22240(%rbx), %xmm0 movq 30496(%rbx), %rax vmovsd %xmm0, (%rdi,%rax,8) .LBB1_8505: vextractf128 $1, %ymm10, %xmm0 vpaddq %xmm3, %xmm0, %xmm2 vpaddq %xmm3, %xmm10, %xmm4 movl 31744(%rbx), %eax testb $1, %al je .LBB1_8507 vinsertf128 $1, %xmm2, %ymm4, %ymm0 vmovd %xmm0, %rax vmovapd 21056(%rbx), %ymm0 vmovsd %xmm0, (%rsi,%rax,8) .LBB1_8507: movl 31776(%rbx), %eax testb $1, %al je .LBB1_8509 vpextrq $1, %xmm4, %rax vmovapd 19200(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%rax,8) .LBB1_8509: movl 31808(%rbx), %eax testb $1, %al je .LBB1_8511 vmovd %xmm2, %rax vmovapd 20416(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%rax,8) .LBB1_8511: movl 31840(%rbx), %eax testb $1, %al je .LBB1_8513 vpextrq $1, %xmm2, %rax vmovapd 19232(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%rax,8) .LBB1_8513: vpaddq %xmm3, %xmm14, %xmm2 testb $1, %r15b je .LBB1_8515 vmovd %xmm2, %rax vmovapd 21088(%rbx), %ymm0 vmovsd %xmm0, (%rsi,%rax,8) .LBB1_8515: vextractf128 $1, %ymm14, %xmm4 testb $1, %cl je .LBB1_8517 vpextrq $1, %xmm2, %rax vmovapd 19264(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%rax,8) .LBB1_8517: vpaddq %xmm3, %xmm4, %xmm2 testb $1, %r9b je .LBB1_8519 vmovd %xmm2, %rax vmovapd 20448(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%rax,8) .LBB1_8519: testb $1, %r8b je .LBB1_8521 vpextrq $1, %xmm2, %rax vmovaps 19296(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%rax,8) jmp .LBB1_8521 .LBB1_8472: vmovaps 26112(%rbx), %ymm0 vmovsd %xmm0, (%rsi,%rdx,8) vmovaps 22112(%rbx), %xmm0 movq 27776(%rbx), %rcx vmovsd %xmm0, (%rsi,%rcx,8) vmovaps 24064(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%r12,8) vmovaps 22208(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%r14,8) vmovaps 26176(%rbx), %ymm0 movq 30560(%rbx), %r15 vmovsd %xmm0, (%rsi,%r15,8) vmovaps 22272(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%r11,8) vmovaps 24128(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%r10,8) vextractf128 $1, %ymm14, %xmm4 vextractf128 $1, %ymm10, %xmm0 vpaddq %xmm3, %xmm0, %xmm2 vmovaps 22304(%rbx), %xmm0 movq 30496(%rbx), %rax vmovsd %xmm0, (%rsi,%rax,8) vmovaps 26144(%rbx), %ymm0 vmovsd %xmm0, (%rdi,%rdx,8) vpaddq %xmm3, %xmm14, %xmm6 vpaddq %xmm3, %xmm4, %xmm0 vpaddq %xmm3, %xmm10, %xmm4 vpextrq $1, %xmm0, %r9 vmovd %xmm0, %r8 vmovaps 22080(%rbx), %xmm0 vmovsd %xmm0, (%rdi,%rcx,8) movq %r12, %rdx movq %r10, %r12 vpextrq $1, %xmm6, %r10 vmovaps 24032(%rbx), %xmm0 vmovsd %xmm0, (%rdi,%rdx,8) movq %r11, %rcx vmovd %xmm6, %r11 vmovaps 22144(%rbx), %xmm0 vmovsd %xmm0, (%rdi,%r14,8) vpextrq $1, %xmm2, %r14 vmovaps 26208(%rbx), %ymm0 vmovsd %xmm0, (%rdi,%r15,8) vmovd %xmm2, %r15 vmovaps 22176(%rbx), %xmm0 vmovsd %xmm0, (%rdi,%rcx,8) vpextrq $1, %xmm4, %rcx vmovaps 24096(%rbx), %xmm0 vmovsd %xmm0, (%rdi,%r12,8) vmovd %xmm4, %rdx vmovaps 22240(%rbx), %xmm0 vmovsd %xmm0, (%rdi,%rax,8) vmovaps 21056(%rbx), %ymm0 vmovsd %xmm0, (%rsi,%rdx,8) vmovaps 19200(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%rcx,8) vmovaps 20416(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%r15,8) vmovaps 19232(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%r14,8) vmovaps 21088(%rbx), %ymm0 vmovsd %xmm0, (%rsi,%r11,8) vmovaps 19264(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%r10,8) vmovaps 20448(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%r8,8) vmovaps 19296(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%r9,8) .LBB1_8521: cmpl $0, 30880(%rbx) je .LBB1_8523 movq 32192(%rbx), %rax movq $0, (%r13,%rax,8) movq 32256(%rbx), %rax movq $0, (%r13,%rax,8) movq 32224(%rbx), %rax movq $0, (%r13,%rax,8) movq 32288(%rbx), %rax movq $0, (%r13,%rax,8) movq 32320(%rbx), %rax movq $0, (%r13,%rax,8) movq 32384(%rbx), %rax movq $0, (%r13,%rax,8) movq 32352(%rbx), %rax movq $0, (%r13,%rax,8) movq 32416(%rbx), %rax movq $0, (%r13,%rax,8) movq 32832(%rbx), %r14 movq $0, (%rsi,%r14,8) movq 32864(%rbx), %r11 movq $0, (%rsi,%r11,8) movq 32736(%rbx), %r10 movq $0, (%rsi,%r10,8) movq 32800(%rbx), %r9 movq $0, (%rsi,%r9,8) movq 32896(%rbx), %r8 movq $0, (%rsi,%r8,8) movq 32928(%rbx), %rdx movq $0, (%rsi,%rdx,8) movq 32960(%rbx), %rcx movq $0, (%rsi,%rcx,8) movq 32992(%rbx), %rax movq $0, (%rsi,%rax,8) movq $0, (%rdi,%r14,8) movq $0, (%rdi,%r11,8) movq $0, (%rdi,%r10,8) movq $0, (%rdi,%r9,8) movq $0, (%rdi,%r8,8) movq $0, (%rdi,%rdx,8) movq $0, (%rdi,%rcx,8) movq $0, (%rdi,%rax,8) movq %rdi, %r9 movq 31936(%rbx), %rax movq $0, (%rsi,%rax,8) movq 31968(%rbx), %rax movq $0, (%rsi,%rax,8) movq 32096(%rbx), %rax movq $0, (%rsi,%rax,8) movq 32128(%rbx), %rax movq $0, (%rsi,%rax,8) movq 32160(%rbx), %rax movq $0, (%rsi,%rax,8) movq 32000(%rbx), %rax movq $0, (%rsi,%rax,8) movq 32032(%rbx), %rax movq $0, (%rsi,%rax,8) movq 32064(%rbx), %rax movq $0, (%rsi,%rax,8) vmovaps 21792(%rbx), %ymm3 jmp .LBB1_8587 .LBB1_8523: movl 31584(%rbx), %r9d testb $1, %r9b movl 31424(%rbx), %r8d movl 31392(%rbx), %r10d movl 31360(%rbx), %r11d movl 31328(%rbx), %edx movl 31616(%rbx), %ecx vmovaps 21792(%rbx), %ymm3 je .LBB1_8525 movq 32192(%rbx), %rax movq $0, (%r13,%rax,8) .LBB1_8525: movl 31872(%rbx), %eax testb $1, %al je .LBB1_8527 movq 32256(%rbx), %rax movq $0, (%r13,%rax,8) .LBB1_8527: movl 31904(%rbx), %eax testb $1, %al je .LBB1_8529 movq 32224(%rbx), %rax movq $0, (%r13,%rax,8) .LBB1_8529: testb $1, %cl je .LBB1_8531 movq 32288(%rbx), %rax movq $0, (%r13,%rax,8) .LBB1_8531: testb $1, %dl je .LBB1_8533 movq 32320(%rbx), %rax movq $0, (%r13,%rax,8) .LBB1_8533: testb $1, %r10b je .LBB1_8535 movq 32384(%rbx), %rax movq $0, (%r13,%rax,8) .LBB1_8535: testb $1, %r11b je .LBB1_8537 movq 32352(%rbx), %rax movq $0, (%r13,%rax,8) .LBB1_8537: testb $1, %r8b je .LBB1_8539 movq 32416(%rbx), %rax movq $0, (%r13,%rax,8) .LBB1_8539: testb $1, %r9b je .LBB1_8541 movq 32832(%rbx), %rax movq $0, (%rsi,%rax,8) .LBB1_8541: movl 31872(%rbx), %eax testb $1, %al je .LBB1_8543 movq 32864(%rbx), %rax movq $0, (%rsi,%rax,8) .LBB1_8543: movl 31904(%rbx), %eax testb $1, %al je .LBB1_8545 movq 32736(%rbx), %rax movq $0, (%rsi,%rax,8) .LBB1_8545: testb $1, %cl je .LBB1_8547 movq 32800(%rbx), %rax movq $0, (%rsi,%rax,8) .LBB1_8547: testb $1, %dl je .LBB1_8549 movq 32896(%rbx), %rax movq $0, (%rsi,%rax,8) .LBB1_8549: testb $1, %r10b je .LBB1_8551 movq 32928(%rbx), %rax movq $0, (%rsi,%rax,8) .LBB1_8551: testb $1, %r11b je .LBB1_8553 movq 32960(%rbx), %rax movq $0, (%rsi,%rax,8) .LBB1_8553: testb $1, %r8b je .LBB1_8555 movq 32992(%rbx), %rax movq $0, (%rsi,%rax,8) .LBB1_8555: testb $1, %r9b je .LBB1_8557 movq 32832(%rbx), %rax movq $0, (%rdi,%rax,8) .LBB1_8557: movl 31872(%rbx), %eax testb $1, %al je .LBB1_8559 movq 32864(%rbx), %rax movq $0, (%rdi,%rax,8) .LBB1_8559: movl 31904(%rbx), %eax testb $1, %al je .LBB1_8561 movq 32736(%rbx), %rax movq $0, (%rdi,%rax,8) .LBB1_8561: testb $1, %cl je .LBB1_8563 movq 32800(%rbx), %rax movq $0, (%rdi,%rax,8) .LBB1_8563: testb $1, %dl je .LBB1_8565 movq 32896(%rbx), %rax movq $0, (%rdi,%rax,8) .LBB1_8565: testb $1, %r10b je .LBB1_8567 movq 32928(%rbx), %rax movq $0, (%rdi,%rax,8) .LBB1_8567: testb $1, %r11b je .LBB1_8569 movq 32960(%rbx), %rax movq $0, (%rdi,%rax,8) .LBB1_8569: testb $1, %r8b je .LBB1_8571 movq 32992(%rbx), %rax movq $0, (%rdi,%rax,8) .LBB1_8571: testb $1, %r9b je .LBB1_8573 movq 31936(%rbx), %rax movq $0, (%rsi,%rax,8) .LBB1_8573: movl 31872(%rbx), %eax testb $1, %al je .LBB1_8575 movq 31968(%rbx), %rax movq $0, (%rsi,%rax,8) .LBB1_8575: movl 31904(%rbx), %eax testb $1, %al je .LBB1_8577 movq 32096(%rbx), %rax movq $0, (%rsi,%rax,8) .LBB1_8577: testb $1, %cl je .LBB1_8579 movq 32128(%rbx), %rax movq $0, (%rsi,%rax,8) .LBB1_8579: testb $1, %dl je .LBB1_8581 movq 32160(%rbx), %rax movq $0, (%rsi,%rax,8) .LBB1_8581: movq %rdi, %r9 testb $1, %r10b je .LBB1_8583 movq 32000(%rbx), %rax movq $0, (%rsi,%rax,8) .LBB1_8583: testb $1, %r11b je .LBB1_8585 movq 32032(%rbx), %rax movq $0, (%rsi,%rax,8) .LBB1_8585: testb $1, %r8b je .LBB1_8587 movq 32064(%rbx), %rax movq $0, (%rsi,%rax,8) .LBB1_8587: cmpl $0, 30592(%rbx) jne .LBB1_8588 vmovdqa 30912(%rbx), %xmm0 vpaddq %xmm7, %xmm0, %xmm2 vpaddq %xmm7, %xmm11, %xmm6 vmovdqa 30944(%rbx), %xmm0 vpaddq %xmm7, %xmm0, %xmm0 vmovdqa 30816(%rbx), %xmm5 vpmovzxwd %xmm5, %xmm1 vpslld $31, %xmm1, %xmm4 vpextrq $1, %xmm0, %rdi vmovd %xmm0, %r10 vpextrq $1, %xmm6, %r8 vmovd %xmm6, %r14 vpextrq $1, %xmm2, %rcx vmovd %xmm2, %rax vpaddq %xmm7, %xmm8, %xmm2 vpsrad $31, %xmm4, %xmm0 vpunpckhwd %xmm0, %xmm5, %xmm1 vpslld $31, %xmm1, %xmm1 vpsrad $31, %xmm1, %xmm1 vinsertf128 $1, %xmm1, %ymm0, %ymm0 vpextrq $1, %xmm2, %rdx vmovd %xmm2, %r15 vmovdqa 3040(%rbx), %ymm1 vptest %ymm1, %ymm0 jb .LBB1_8679 movq %rdi, %r13 movl 31744(%rbx), %edi testb $1, %dil je .LBB1_8682 vmovaps 26240(%rbx), %ymm0 vmovsd %xmm0, (%rsi,%r14,8) .LBB1_8682: movl 31776(%rbx), %edi testb $1, %dil je .LBB1_8684 vmovaps 22400(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%r8,8) .LBB1_8684: movl 31808(%rbx), %edi testb $1, %dil je .LBB1_8686 vmovaps 24192(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%r10,8) .LBB1_8686: movl 31840(%rbx), %edi testb $1, %dil movq %rax, %r12 movq %rcx, %r11 je .LBB1_8688 vmovaps 22496(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%r13,8) .LBB1_8688: movl 31520(%rbx), %edi testb $1, %dil je .LBB1_8690 vmovaps 26304(%rbx), %ymm0 vmovsd %xmm0, (%rsi,%r15,8) .LBB1_8690: movq %r15, 30560(%rbx) movl 31552(%rbx), %edi testb $1, %dil je .LBB1_8692 vmovaps 22560(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%rdx,8) .LBB1_8692: movl 31488(%rbx), %eax testb $1, %al je .LBB1_8694 vmovaps 24256(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%r12,8) .LBB1_8694: movl 31648(%rbx), %eax testb $1, %al je .LBB1_8696 vmovaps 22592(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%r11,8) .LBB1_8696: movl 31744(%rbx), %edi testb $1, %dil je .LBB1_8698 vmovaps 26272(%rbx), %ymm0 vmovsd %xmm0, (%r9,%r14,8) .LBB1_8698: movq %rdx, %rax movl 31776(%rbx), %edx testb $1, %dl je .LBB1_8700 vmovaps 22336(%rbx), %xmm0 vmovsd %xmm0, (%r9,%r8,8) .LBB1_8700: movl 31808(%rbx), %ecx testb $1, %cl movq %rax, %rcx je .LBB1_8702 vmovaps 24160(%rbx), %xmm0 vmovsd %xmm0, (%r9,%r10,8) .LBB1_8702: movl 31840(%rbx), %eax testb $1, %al je .LBB1_8704 vmovaps 22368(%rbx), %xmm0 vmovsd %xmm0, (%r9,%r13,8) .LBB1_8704: movl 31520(%rbx), %eax testb $1, %al je .LBB1_8706 movq 30560(%rbx), %rax vmovsd %xmm3, (%r9,%rax,8) .LBB1_8706: movl 31552(%rbx), %eax testb $1, %al je .LBB1_8708 vmovaps 22464(%rbx), %xmm0 vmovsd %xmm0, (%r9,%rcx,8) .LBB1_8708: movl 31488(%rbx), %eax testb $1, %al je .LBB1_8710 vmovaps 24224(%rbx), %xmm0 vmovsd %xmm0, (%r9,%r12,8) .LBB1_8710: movl 31648(%rbx), %eax testb $1, %al je .LBB1_8712 vmovaps 22528(%rbx), %xmm0 vmovsd %xmm0, (%r9,%r11,8) .LBB1_8712: vextractf128 $1, %ymm10, %xmm0 vpaddq %xmm7, %xmm0, %xmm2 vpaddq %xmm7, %xmm10, %xmm4 movl 31744(%rbx), %eax testb $1, %al je .LBB1_8714 vinsertf128 $1, %xmm2, %ymm4, %ymm0 vmovd %xmm0, %rax vmovapd 21120(%rbx), %ymm0 vmovsd %xmm0, (%rsi,%rax,8) .LBB1_8714: movl 31776(%rbx), %eax testb $1, %al je .LBB1_8716 vpextrq $1, %xmm4, %rax vmovapd 19328(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%rax,8) .LBB1_8716: movl 31808(%rbx), %eax testb $1, %al je .LBB1_8718 vmovd %xmm2, %rax vmovapd 20480(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%rax,8) .LBB1_8718: movl 31840(%rbx), %eax testb $1, %al je .LBB1_8720 vpextrq $1, %xmm2, %rax vmovapd 19360(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%rax,8) .LBB1_8720: vpaddq %xmm7, %xmm14, %xmm2 movl 31520(%rbx), %eax testb $1, %al je .LBB1_8722 vmovd %xmm2, %rax vmovapd 21152(%rbx), %ymm0 vmovsd %xmm0, (%rsi,%rax,8) .LBB1_8722: vextractf128 $1, %ymm14, %xmm4 movl 31552(%rbx), %eax testb $1, %al je .LBB1_8724 vpextrq $1, %xmm2, %rax vmovapd 19392(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%rax,8) .LBB1_8724: vpaddq %xmm7, %xmm4, %xmm2 movl 31488(%rbx), %eax testb $1, %al je .LBB1_8726 vmovd %xmm2, %rax vmovapd 20512(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%rax,8) .LBB1_8726: movl 31648(%rbx), %eax testb $1, %al je .LBB1_8588 vpextrq $1, %xmm2, %rax vmovaps 19424(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%rax,8) jmp .LBB1_8588 .LBB1_8679: vmovaps 26240(%rbx), %ymm0 vmovsd %xmm0, (%rsi,%r14,8) vmovaps 22400(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%r8,8) vmovaps 24192(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%r10,8) vmovaps 22496(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%rdi,8) vmovaps 26304(%rbx), %ymm0 vmovsd %xmm0, (%rsi,%r15,8) vmovaps 22560(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%rdx,8) vmovaps 24256(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%rax,8) vextractf128 $1, %ymm14, %xmm4 vextractf128 $1, %ymm10, %xmm0 vpaddq %xmm7, %xmm0, %xmm2 vmovaps 22592(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%rcx,8) vmovaps 26272(%rbx), %ymm0 vmovsd %xmm0, (%r9,%r14,8) vpaddq %xmm7, %xmm14, %xmm6 vpaddq %xmm7, %xmm4, %xmm0 vpaddq %xmm7, %xmm10, %xmm4 movq %rdx, %r12 movq %rcx, %r14 movq %rax, %r11 vpextrq $1, %xmm0, %rax movq %rax, 30560(%rbx) vmovd %xmm0, %r13 vmovaps 22336(%rbx), %xmm0 vmovsd %xmm0, (%r9,%r8,8) vpextrq $1, %xmm6, %r8 vmovaps 24160(%rbx), %xmm0 vmovsd %xmm0, (%r9,%r10,8) vmovd %xmm6, %r10 vmovaps 22368(%rbx), %xmm0 vmovsd %xmm0, (%r9,%rdi,8) vpextrq $1, %xmm2, %rdi vmovsd %xmm3, (%r9,%r15,8) vmovd %xmm2, %rdx vmovaps 22464(%rbx), %xmm0 vmovsd %xmm0, (%r9,%r12,8) vpextrq $1, %xmm4, %rax vmovaps 24224(%rbx), %xmm0 vmovsd %xmm0, (%r9,%r11,8) vmovd %xmm4, %rcx vmovaps 22528(%rbx), %xmm0 vmovsd %xmm0, (%r9,%r14,8) vmovaps 21120(%rbx), %ymm0 vmovsd %xmm0, (%rsi,%rcx,8) vmovaps 19328(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%rax,8) vmovaps 20480(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%rdx,8) vmovaps 19360(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%rdi,8) vmovaps 21152(%rbx), %ymm0 vmovsd %xmm0, (%rsi,%r10,8) vmovaps 19392(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%r8,8) vmovaps 20512(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%r13,8) vmovaps 19424(%rbx), %xmm0 movq 30560(%rbx), %rax vmovsd %xmm0, (%rsi,%rax,8) .LBB1_8588: vmovapd %ymm10, %ymm5 movq %rsi, %rdx vpxor %xmm2, %xmm2, %xmm2 cmpl $0, 30848(%rbx) movq %r9, %rsi jne .LBB1_8607 vpmovzxwd %xmm9, %xmm0 vpslld $31, %xmm0, %xmm0 vpsrad $31, %xmm0, %xmm0 vpunpckhwd %xmm0, %xmm9, %xmm1 vpslld $31, %xmm1, %xmm1 vpsrad $31, %xmm1, %xmm1 vinsertf128 $1, %xmm1, %ymm0, %ymm0 vmovdqa 3072(%rbx), %ymm1 vptest %ymm1, %ymm0 jb .LBB1_8590 movl 30976(%rbx), %eax testb $1, %al je .LBB1_8593 movq 32448(%rbx), %rax movq $0, (%rsi,%rax,8) .LBB1_8593: movl 31040(%rbx), %eax testb $1, %al je .LBB1_8595 movq 32480(%rbx), %rax movq $0, (%rsi,%rax,8) .LBB1_8595: movl 31008(%rbx), %eax testb $1, %al je .LBB1_8597 movq 32544(%rbx), %rax movq $0, (%rsi,%rax,8) .LBB1_8597: movl 31168(%rbx), %eax testb $1, %al je .LBB1_8599 movq 32576(%rbx), %rax movq $0, (%rsi,%rax,8) .LBB1_8599: movl 31072(%rbx), %eax testb $1, %al je .LBB1_8601 movq 32640(%rbx), %rax movq $0, (%rsi,%rax,8) .LBB1_8601: movl 31200(%rbx), %eax testb $1, %al je .LBB1_8603 movq 32672(%rbx), %rax movq $0, (%rsi,%rax,8) .LBB1_8603: movl 31232(%rbx), %eax testb $1, %al je .LBB1_8605 movq 32704(%rbx), %rax movq $0, (%rsi,%rax,8) .LBB1_8605: movl 31264(%rbx), %eax testb $1, %al vmovdqa %xmm9, %xmm2 je .LBB1_8607 jmp .LBB1_8606 .LBB1_8590: movq 32448(%rbx), %rax movq $0, (%rsi,%rax,8) movq 32480(%rbx), %rax movq $0, (%rsi,%rax,8) movq 32544(%rbx), %rax movq $0, (%rsi,%rax,8) movq 32576(%rbx), %rax movq $0, (%rsi,%rax,8) movq 32640(%rbx), %rax movq $0, (%rsi,%rax,8) movq 32672(%rbx), %rax movq $0, (%rsi,%rax,8) movq 32704(%rbx), %rax movq $0, (%rsi,%rax,8) .LBB1_8606: movq 32512(%rbx), %rax movq $0, (%rsi,%rax,8) vmovdqa %xmm9, %xmm2 .LBB1_8607: vpor 30688(%rbx), %xmm2, %xmm2 vpunpckhwd %xmm0, %xmm2, %xmm0 vpslld $31, %xmm0, %xmm4 vmovdqa 30944(%rbx), %xmm0 vpaddq %xmm7, %xmm0, %xmm0 vpmovzxwd %xmm2, %xmm1 vpslld $31, %xmm1, %xmm1 vpsrad $31, %xmm1, %xmm6 vpextrq $1, %xmm0, %rax vmovd %xmm0, %r9 vpaddq %xmm7, %xmm11, %xmm15 vpsrad $31, %xmm4, %xmm0 vpaddq %xmm7, %xmm8, %xmm4 vmovdqa 30912(%rbx), %xmm1 vpaddq %xmm7, %xmm1, %xmm1 vinsertf128 $1, %xmm0, %ymm6, %ymm6 vpextrq $1, %xmm15, %r11 vmovd %xmm15, %r14 vpextrq $1, %xmm1, %r12 vmovd %xmm1, %rcx vpextrq $1, %xmm4, %r10 vmovd %xmm4, %r8 vmovdqa 4032(%rbx), %ymm0 vptest %ymm0, %ymm6 jb .LBB1_8608 vpextrb $0, %xmm2, %r13d vpextrb $2, %xmm2, %r15d vpextrb $4, %xmm2, %edi movl %edi, 30560(%rbx) testb $1, %r13b je .LBB1_8611 vmovdqa 26240(%rbx), %ymm0 vmovsd %xmm0, (%rdx,%r14,8) .LBB1_8611: vpextrb $6, %xmm2, %edi movl %edi, 30528(%rbx) testb $1, %r15b je .LBB1_8613 vmovdqa 22400(%rbx), %xmm0 vmovsd %xmm0, (%rdx,%r11,8) .LBB1_8613: vpextrb $8, %xmm2, %edi movl %edi, 30496(%rbx) movl 30560(%rbx), %edi testb $1, %dil vmovdqa .LCPI1_15(%rip), %xmm15 je .LBB1_8615 vmovdqa 24192(%rbx), %xmm0 vmovsd %xmm0, (%rdx,%r9,8) .LBB1_8615: vpextrb $10, %xmm2, %edi movl %edi, 27808(%rbx) movl 30528(%rbx), %edi testb $1, %dil je .LBB1_8617 vmovdqa 22496(%rbx), %xmm0 vmovsd %xmm0, (%rdx,%rax,8) .LBB1_8617: vpextrb $12, %xmm2, %edi movl %edi, 27776(%rbx) movl 30496(%rbx), %edi testb $1, %dil je .LBB1_8619 vmovdqa 26304(%rbx), %ymm0 vmovsd %xmm0, (%rdx,%r8,8) .LBB1_8619: vpextrb $14, %xmm2, %edi movl %edi, 27488(%rbx) movl 27808(%rbx), %edi testb $1, %dil je .LBB1_8621 vmovdqa 22560(%rbx), %xmm0 vmovsd %xmm0, (%rdx,%r10,8) .LBB1_8621: movl 27776(%rbx), %edi testb $1, %dil je .LBB1_8623 vmovdqa 24256(%rbx), %xmm0 vmovsd %xmm0, (%rdx,%rcx,8) .LBB1_8623: movl 27488(%rbx), %edi testb $1, %dil je .LBB1_8625 vmovdqa 22592(%rbx), %xmm0 vmovsd %xmm0, (%rdx,%r12,8) .LBB1_8625: testb $1, %r13b je .LBB1_8627 vmovdqa 26272(%rbx), %ymm0 vmovsd %xmm0, (%rsi,%r14,8) .LBB1_8627: testb $1, %r15b je .LBB1_8629 vmovdqa 22336(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%r11,8) .LBB1_8629: movl 30560(%rbx), %edi testb $1, %dil je .LBB1_8631 vmovdqa 24160(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%r9,8) .LBB1_8631: movl 30528(%rbx), %edi testb $1, %dil je .LBB1_8633 vmovdqa 22368(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%rax,8) .LBB1_8633: movl 30496(%rbx), %eax testb $1, %al je .LBB1_8635 vmovsd %xmm3, (%rsi,%r8,8) .LBB1_8635: movl 27808(%rbx), %eax testb $1, %al je .LBB1_8637 vmovdqa 22464(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%r10,8) .LBB1_8637: movl 27776(%rbx), %eax testb $1, %al je .LBB1_8639 vmovdqa 24224(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%rcx,8) .LBB1_8639: movl 27488(%rbx), %eax testb $1, %al je .LBB1_8641 vmovdqa 22528(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%r12,8) .LBB1_8641: vextractf128 $1, %ymm5, %xmm0 vpaddq %xmm7, %xmm0, %xmm4 vpaddq %xmm7, %xmm5, %xmm6 testb $1, %r13b je .LBB1_8643 vinsertf128 $1, %xmm4, %ymm6, %ymm0 vmovd %xmm0, %rcx vmovapd 21120(%rbx), %ymm0 vmovsd %xmm0, (%rdx,%rcx,8) .LBB1_8643: testb $1, %r15b je .LBB1_8645 vpextrq $1, %xmm6, %rcx vmovapd 19328(%rbx), %xmm0 vmovsd %xmm0, (%rdx,%rcx,8) .LBB1_8645: movl 30560(%rbx), %eax testb $1, %al je .LBB1_8647 vmovd %xmm4, %rcx vmovapd 20480(%rbx), %xmm0 vmovsd %xmm0, (%rdx,%rcx,8) .LBB1_8647: vmovapd %ymm5, %ymm13 movl 30528(%rbx), %eax testb $1, %al je .LBB1_8649 vpextrq $1, %xmm4, %rcx vmovapd 19360(%rbx), %xmm0 vmovsd %xmm0, (%rdx,%rcx,8) .LBB1_8649: vmovdqa %xmm9, 30560(%rbx) vpaddq %xmm7, %xmm14, %xmm4 movl 30496(%rbx), %eax testb $1, %al je .LBB1_8651 vmovd %xmm4, %rcx vmovapd 21152(%rbx), %ymm0 vmovsd %xmm0, (%rdx,%rcx,8) .LBB1_8651: vmovaps 21632(%rbx), %xmm12 vextractf128 $1, %ymm14, %xmm6 movl 27808(%rbx), %eax testb $1, %al je .LBB1_8653 vpextrq $1, %xmm4, %rcx vmovapd 19392(%rbx), %xmm0 vmovsd %xmm0, (%rdx,%rcx,8) .LBB1_8653: vpaddq %xmm7, %xmm6, %xmm4 movl 27776(%rbx), %eax testb $1, %al je .LBB1_8655 vmovd %xmm4, %rcx vmovapd 20512(%rbx), %xmm0 vmovsd %xmm0, (%rdx,%rcx,8) .LBB1_8655: movl 27488(%rbx), %eax testb $1, %al je .LBB1_8657 vpextrq $1, %xmm4, %rax vmovapd 19424(%rbx), %xmm0 vmovsd %xmm0, (%rdx,%rax,8) jmp .LBB1_8657 .LBB1_8608: vmovdqa %xmm9, 30560(%rbx) vmovaps 21632(%rbx), %xmm12 vmovaps 26240(%rbx), %ymm0 vmovsd %xmm0, (%rdx,%r14,8) vmovaps 22400(%rbx), %xmm0 vmovsd %xmm0, (%rdx,%r11,8) vmovaps 24192(%rbx), %xmm0 vmovsd %xmm0, (%rdx,%r9,8) vmovaps 22496(%rbx), %xmm0 vmovsd %xmm0, (%rdx,%rax,8) vmovaps 26304(%rbx), %ymm0 vmovsd %xmm0, (%rdx,%r8,8) vmovaps 22560(%rbx), %xmm0 vmovsd %xmm0, (%rdx,%r10,8) vmovaps 24256(%rbx), %xmm0 vmovsd %xmm0, (%rdx,%rcx,8) vextractf128 $1, %ymm14, %xmm6 vextractf128 $1, %ymm5, %xmm0 vpaddq %xmm7, %xmm0, %xmm4 vmovaps 22592(%rbx), %xmm0 vmovsd %xmm0, (%rdx,%r12,8) vmovaps 26272(%rbx), %ymm0 vmovsd %xmm0, (%rsi,%r14,8) vpaddq %xmm7, %xmm14, %xmm1 vpaddq %xmm7, %xmm6, %xmm0 vpaddq %xmm7, %xmm5, %xmm6 vmovapd %ymm5, %ymm13 vpextrq $1, %xmm0, %r14 vmovd %xmm0, %r13 vmovaps 22336(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%r11,8) vpextrq $1, %xmm1, %r11 vmovaps 24160(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%r9,8) vmovd %xmm1, %r9 vmovaps 22368(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%rax,8) vpextrq $1, %xmm4, %r15 vmovsd %xmm3, (%rsi,%r8,8) vmovd %xmm4, %rdi vmovaps 22464(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%r10,8) vpextrq $1, %xmm6, %rax vmovaps 24224(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%rcx,8) vmovd %xmm6, %rcx vmovaps 22528(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%r12,8) vmovaps 21120(%rbx), %ymm0 vmovsd %xmm0, (%rdx,%rcx,8) vmovaps 19328(%rbx), %xmm0 vmovsd %xmm0, (%rdx,%rax,8) vmovaps 20480(%rbx), %xmm0 vmovsd %xmm0, (%rdx,%rdi,8) vmovaps 19360(%rbx), %xmm0 vmovsd %xmm0, (%rdx,%r15,8) vmovaps 21152(%rbx), %ymm0 vmovsd %xmm0, (%rdx,%r9,8) vmovaps 19392(%rbx), %xmm0 vmovsd %xmm0, (%rdx,%r11,8) vmovaps 20512(%rbx), %xmm0 vmovsd %xmm0, (%rdx,%r13,8) vmovapd 19424(%rbx), %xmm0 vmovsd %xmm0, (%rdx,%r14,8) vmovdqa .LCPI1_15(%rip), %xmm15 .LBB1_8657: vmovdqa %ymm11, %ymm9 vpand 31296(%rbx), %xmm2, %xmm2 vpxor .LCPI1_17(%rip), %xmm2, %xmm0 vpmovzxwd %xmm0, %xmm1 vpslld $31, %xmm1, %xmm1 vpsrad $31, %xmm1, %xmm1 vpunpckhwd %xmm0, %xmm0, %xmm0 vpslld $31, %xmm0, %xmm0 vpsrad $31, %xmm0, %xmm0 vinsertf128 $1, %xmm0, %ymm1, %ymm0 vmovdqa 4000(%rbx), %ymm1 vptest %ymm1, %ymm0 movq 22456(%rbx), %r13 jb .LBB1_8660 vmovdqa %ymm8, %ymm11 vmovaps 31680(%rbx), %ymm5 vextractf128 $1, %ymm5, %xmm0 vmovaps 31712(%rbx), %ymm8 vextractf128 $1, %ymm8, %xmm1 vpaddq %xmm7, %xmm1, %xmm4 vpaddq %xmm7, %xmm5, %xmm5 vpaddq %xmm7, %xmm0, %xmm0 vpmovzxwd %xmm2, %xmm1 vpslld $31, %xmm1, %xmm6 vpextrq $1, %xmm0, %r11 vmovd %xmm0, %r15 vpextrq $1, %xmm5, %rcx vmovd %xmm5, %rdx vpextrq $1, %xmm4, %r12 vmovd %xmm4, %r9 vpaddq %xmm7, %xmm8, %xmm4 vpsrad $31, %xmm6, %xmm0 vpunpckhwd %xmm0, %xmm2, %xmm1 vpslld $31, %xmm1, %xmm1 vpsrad $31, %xmm1, %xmm1 vinsertf128 $1, %xmm1, %ymm0, %ymm0 vpextrq $1, %xmm4, %r10 vmovd %xmm4, %r14 vmovdqa 3968(%rbx), %ymm1 vptest %ymm1, %ymm0 jb .LBB1_8659 movq %r13, %r8 vpextrb $0, %xmm2, %eax vpextrb $2, %xmm2, %edi vpextrb $4, %xmm2, %r13d testb $1, %al je .LBB1_8664 vmovaps 30720(%rbx), %ymm0 vmovsd %xmm0, (%rsi,%rdx,8) .LBB1_8664: vpextrb $6, %xmm2, %edx testb $1, %dil vmovdqa %ymm11, %ymm8 je .LBB1_8666 vmovaps 28736(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%rcx,8) .LBB1_8666: vpextrb $8, %xmm2, %ecx testb $1, %r13b je .LBB1_8668 vmovaps 28864(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%r15,8) .LBB1_8668: vpextrb $10, %xmm2, %eax testb $1, %dl movq %r8, %r13 je .LBB1_8670 vmovaps 28768(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%r11,8) .LBB1_8670: vpextrb $12, %xmm2, %edx testb $1, %cl je .LBB1_8672 vmovaps 29952(%rbx), %ymm0 vmovsd %xmm0, (%rsi,%r14,8) .LBB1_8672: vpextrb $14, %xmm2, %ecx testb $1, %al je .LBB1_8674 vmovaps 28800(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%r10,8) .LBB1_8674: testb $1, %dl je .LBB1_8676 vmovaps 28896(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%r9,8) .LBB1_8676: testb $1, %cl je .LBB1_8660 vmovaps 28832(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%r12,8) jmp .LBB1_8660 .LBB1_8659: vmovaps 30720(%rbx), %ymm0 vmovsd %xmm0, (%rsi,%rdx,8) vmovaps 28736(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%rcx,8) vmovaps 28864(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%r15,8) vmovaps 28768(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%r11,8) vmovaps 29952(%rbx), %ymm0 vmovsd %xmm0, (%rsi,%r14,8) vmovaps 28800(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%r10,8) vmovaps 28896(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%r9,8) vmovaps 28832(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%r12,8) vmovdqa %ymm11, %ymm8 .LBB1_8660: vmovaps %ymm3, 21792(%rbx) cmpl $0, 30880(%rbx) movq 32632(%rbx), %r15 vmovdqa %ymm9, %ymm11 je .LBB1_8728 movq 32192(%rbx), %rax movq $0, (%r13,%rax,8) movq 32256(%rbx), %rax movq $0, (%r13,%rax,8) movq 32224(%rbx), %rax movq $0, (%r13,%rax,8) movq 32288(%rbx), %rax movq $0, (%r13,%rax,8) movq 32320(%rbx), %rax movq $0, (%r13,%rax,8) movq 32384(%rbx), %rax movq $0, (%r13,%rax,8) movq 32352(%rbx), %rax movq $0, (%r13,%rax,8) movq 32416(%rbx), %rax movq $0, (%r13,%rax,8) movq 32832(%rbx), %r11 movq $0, (%r15,%r11,8) movq 32864(%rbx), %r10 movq $0, (%r15,%r10,8) movq 32736(%rbx), %r9 movq $0, (%r15,%r9,8) movq 32800(%rbx), %r8 movq $0, (%r15,%r8,8) movq 32896(%rbx), %rdi movq $0, (%r15,%rdi,8) movq 32928(%rbx), %rdx movq $0, (%r15,%rdx,8) movq 32960(%rbx), %rcx movq $0, (%r15,%rcx,8) movq 32992(%rbx), %rax movq $0, (%r15,%rax,8) movq $0, (%rsi,%r11,8) movq $0, (%rsi,%r10,8) movq $0, (%rsi,%r9,8) movq $0, (%rsi,%r8,8) movq $0, (%rsi,%rdi,8) movq $0, (%rsi,%rdx,8) movq $0, (%rsi,%rcx,8) movq $0, (%rsi,%rax,8) movq 31936(%rbx), %rax movq $0, (%r15,%rax,8) movq 31968(%rbx), %rax movq $0, (%r15,%rax,8) movq 32096(%rbx), %rax movq $0, (%r15,%rax,8) movq 32128(%rbx), %rax movq $0, (%r15,%rax,8) movq 32160(%rbx), %rax movq $0, (%r15,%rax,8) movq 32000(%rbx), %rax movq $0, (%r15,%rax,8) movq 32032(%rbx), %rax movq $0, (%r15,%rax,8) movq 32064(%rbx), %rax movq $0, (%r15,%rax,8) vmovdqa .LCPI1_12(%rip), %xmm5 vmovdqa %xmm5, %xmm3 vmovdqa 30560(%rbx), %xmm10 jmp .LBB1_8792 .LBB1_8728: movl 31584(%rbx), %edi testb $1, %dil vmovdqa .LCPI1_12(%rip), %xmm5 vmovdqa %xmm5, %xmm3 movl 31424(%rbx), %r8d movl 31392(%rbx), %r9d movl 31360(%rbx), %r10d movl 31328(%rbx), %ecx movl 31616(%rbx), %edx je .LBB1_8730 movq 32192(%rbx), %rax movq $0, (%r13,%rax,8) .LBB1_8730: movl 31872(%rbx), %eax testb $1, %al je .LBB1_8732 movq 32256(%rbx), %rax movq $0, (%r13,%rax,8) .LBB1_8732: movl 31904(%rbx), %eax testb $1, %al je .LBB1_8734 movq 32224(%rbx), %rax movq $0, (%r13,%rax,8) .LBB1_8734: testb $1, %dl je .LBB1_8736 movq 32288(%rbx), %rax movq $0, (%r13,%rax,8) .LBB1_8736: testb $1, %cl je .LBB1_8738 movq 32320(%rbx), %rax movq $0, (%r13,%rax,8) .LBB1_8738: testb $1, %r9b je .LBB1_8740 movq 32384(%rbx), %rax movq $0, (%r13,%rax,8) .LBB1_8740: testb $1, %r10b je .LBB1_8742 movq 32352(%rbx), %rax movq $0, (%r13,%rax,8) .LBB1_8742: testb $1, %r8b je .LBB1_8744 movq 32416(%rbx), %rax movq $0, (%r13,%rax,8) .LBB1_8744: testb $1, %dil je .LBB1_8746 movq 32832(%rbx), %rax movq $0, (%r15,%rax,8) .LBB1_8746: movl 31872(%rbx), %eax testb $1, %al je .LBB1_8748 movq 32864(%rbx), %rax movq $0, (%r15,%rax,8) .LBB1_8748: movl 31904(%rbx), %eax testb $1, %al je .LBB1_8750 movq 32736(%rbx), %rax movq $0, (%r15,%rax,8) .LBB1_8750: testb $1, %dl je .LBB1_8752 movq 32800(%rbx), %rax movq $0, (%r15,%rax,8) .LBB1_8752: testb $1, %cl je .LBB1_8754 movq 32896(%rbx), %rax movq $0, (%r15,%rax,8) .LBB1_8754: testb $1, %r9b je .LBB1_8756 movq 32928(%rbx), %rax movq $0, (%r15,%rax,8) .LBB1_8756: testb $1, %r10b je .LBB1_8758 movq 32960(%rbx), %rax movq $0, (%r15,%rax,8) .LBB1_8758: testb $1, %r8b je .LBB1_8760 movq 32992(%rbx), %rax movq $0, (%r15,%rax,8) .LBB1_8760: testb $1, %dil je .LBB1_8762 movq 32832(%rbx), %rax movq $0, (%rsi,%rax,8) .LBB1_8762: movl 31872(%rbx), %eax testb $1, %al je .LBB1_8764 movq 32864(%rbx), %rax movq $0, (%rsi,%rax,8) .LBB1_8764: movl 31904(%rbx), %eax testb $1, %al je .LBB1_8766 movq 32736(%rbx), %rax movq $0, (%rsi,%rax,8) .LBB1_8766: testb $1, %dl je .LBB1_8768 movq 32800(%rbx), %rax movq $0, (%rsi,%rax,8) .LBB1_8768: testb $1, %cl je .LBB1_8770 movq 32896(%rbx), %rax movq $0, (%rsi,%rax,8) .LBB1_8770: testb $1, %r9b vmovdqa 30560(%rbx), %xmm10 je .LBB1_8772 movq 32928(%rbx), %rax movq $0, (%rsi,%rax,8) .LBB1_8772: testb $1, %r10b je .LBB1_8774 movq 32960(%rbx), %rax movq $0, (%rsi,%rax,8) .LBB1_8774: testb $1, %r8b je .LBB1_8776 movq 32992(%rbx), %rax movq $0, (%rsi,%rax,8) .LBB1_8776: testb $1, %dil je .LBB1_8778 movq 31936(%rbx), %rax movq $0, (%r15,%rax,8) .LBB1_8778: movl 31872(%rbx), %eax testb $1, %al je .LBB1_8780 movq 31968(%rbx), %rax movq $0, (%r15,%rax,8) .LBB1_8780: movl 31904(%rbx), %eax testb $1, %al je .LBB1_8782 movq 32096(%rbx), %rax movq $0, (%r15,%rax,8) .LBB1_8782: testb $1, %dl je .LBB1_8784 movq 32128(%rbx), %rax movq $0, (%r15,%rax,8) .LBB1_8784: testb $1, %cl je .LBB1_8786 movq 32160(%rbx), %rax movq $0, (%r15,%rax,8) .LBB1_8786: testb $1, %r9b je .LBB1_8788 movq 32000(%rbx), %rax movq $0, (%r15,%rax,8) .LBB1_8788: testb $1, %r10b je .LBB1_8790 movq 32032(%rbx), %rax movq $0, (%r15,%rax,8) .LBB1_8790: testb $1, %r8b je .LBB1_8792 movq 32064(%rbx), %rax movq $0, (%r15,%rax,8) .LBB1_8792: vpxor %xmm2, %xmm2, %xmm2 cmpl $0, 30848(%rbx) jne .LBB1_8811 vpmovzxwd %xmm10, %xmm0 vpslld $31, %xmm0, %xmm0 vpsrad $31, %xmm0, %xmm0 vpunpckhwd %xmm0, %xmm10, %xmm1 vpslld $31, %xmm1, %xmm1 vpsrad $31, %xmm1, %xmm1 vinsertf128 $1, %xmm1, %ymm0, %ymm0 vmovdqa 3104(%rbx), %ymm1 vptest %ymm1, %ymm0 jb .LBB1_8794 movl 30976(%rbx), %eax testb $1, %al je .LBB1_8797 movq 32448(%rbx), %rax movq $0, (%rsi,%rax,8) .LBB1_8797: movl 31040(%rbx), %eax testb $1, %al je .LBB1_8799 movq 32480(%rbx), %rax movq $0, (%rsi,%rax,8) .LBB1_8799: movl 31008(%rbx), %eax testb $1, %al je .LBB1_8801 movq 32544(%rbx), %rax movq $0, (%rsi,%rax,8) .LBB1_8801: movl 31168(%rbx), %eax testb $1, %al je .LBB1_8803 movq 32576(%rbx), %rax movq $0, (%rsi,%rax,8) .LBB1_8803: movl 31072(%rbx), %eax testb $1, %al je .LBB1_8805 movq 32640(%rbx), %rax movq $0, (%rsi,%rax,8) .LBB1_8805: movl 31200(%rbx), %eax testb $1, %al je .LBB1_8807 movq 32672(%rbx), %rax movq $0, (%rsi,%rax,8) .LBB1_8807: movl 31232(%rbx), %eax testb $1, %al je .LBB1_8809 movq 32704(%rbx), %rax movq $0, (%rsi,%rax,8) .LBB1_8809: movl 31264(%rbx), %eax testb $1, %al vmovdqa %xmm10, %xmm2 je .LBB1_8811 jmp .LBB1_8810 .LBB1_8794: movq 32448(%rbx), %rax movq $0, (%rsi,%rax,8) movq 32480(%rbx), %rax movq $0, (%rsi,%rax,8) movq 32544(%rbx), %rax movq $0, (%rsi,%rax,8) movq 32576(%rbx), %rax movq $0, (%rsi,%rax,8) movq 32640(%rbx), %rax movq $0, (%rsi,%rax,8) movq 32672(%rbx), %rax movq $0, (%rsi,%rax,8) movq 32704(%rbx), %rax movq $0, (%rsi,%rax,8) .LBB1_8810: movq 32512(%rbx), %rax movq $0, (%rsi,%rax,8) vmovdqa %xmm10, %xmm2 .LBB1_8811: vpor 30688(%rbx), %xmm2, %xmm2 vpunpckhwd %xmm0, %xmm2, %xmm0 vpslld $31, %xmm0, %xmm4 vmovdqa 30944(%rbx), %xmm0 vpaddq %xmm3, %xmm0, %xmm0 vpmovzxwd %xmm2, %xmm1 vpslld $31, %xmm1, %xmm1 vpsrad $31, %xmm1, %xmm6 vpextrq $1, %xmm0, %r14 vmovd %xmm0, %r11 vpaddq %xmm3, %xmm11, %xmm7 vpsrad $31, %xmm4, %xmm0 vpaddq %xmm3, %xmm8, %xmm4 vmovdqa 30912(%rbx), %xmm1 vpaddq %xmm3, %xmm1, %xmm1 vinsertf128 $1, %xmm0, %ymm6, %ymm6 vpextrq $1, %xmm7, %rdx vmovd %xmm7, %rax vpextrq $1, %xmm1, %r12 vmovd %xmm1, %r10 vpextrq $1, %xmm4, %rcx vmovd %xmm4, %rdi vmovdqa 3936(%rbx), %ymm0 vptest %ymm0, %ymm6 jb .LBB1_8812 movq %rdx, %r8 movq %r11, %rdx movq %rdi, 27776(%rbx) movq %rcx, 30496(%rbx) movq %r10, 27488(%rbx) movq %r12, 30528(%rbx) vpextrb $0, %xmm2, %r11d vpextrb $2, %xmm2, %r10d vpextrb $4, %xmm2, %ecx movl %ecx, 27264(%rbx) testb $1, %r11b je .LBB1_8815 vmovdqa 26336(%rbx), %ymm0 vmovsd %xmm0, (%r15,%rax,8) .LBB1_8815: vpextrb $6, %xmm2, %r12d testb $1, %r10b movq %rdx, %rdi movq %r8, %rdx je .LBB1_8817 vmovdqa 22688(%rbx), %xmm0 vmovsd %xmm0, (%r15,%rdx,8) .LBB1_8817: movq %rax, 30560(%rbx) movq %r14, 27808(%rbx) vpextrb $8, %xmm2, %eax movl 27264(%rbx), %ecx testb $1, %cl je .LBB1_8819 vmovdqa 24320(%rbx), %xmm0 vmovsd %xmm0, (%r15,%rdi,8) .LBB1_8819: vpextrb $10, %xmm2, %r14d testb $1, %r12b je .LBB1_8821 vmovdqa 22752(%rbx), %xmm0 movq 27808(%rbx), %rcx vmovsd %xmm0, (%r15,%rcx,8) .LBB1_8821: vpextrb $12, %xmm2, %r8d testb $1, %al je .LBB1_8823 vmovdqa 26400(%rbx), %ymm0 movq 27776(%rbx), %rcx vmovsd %xmm0, (%r15,%rcx,8) .LBB1_8823: vpextrb $14, %xmm2, %r9d testb $1, %r14b je .LBB1_8825 vmovdqa 22816(%rbx), %xmm0 movq 30496(%rbx), %rcx vmovsd %xmm0, (%r15,%rcx,8) .LBB1_8825: testb $1, %r8b je .LBB1_8827 vmovdqa 24384(%rbx), %xmm0 movq 27488(%rbx), %rcx vmovsd %xmm0, (%r15,%rcx,8) .LBB1_8827: testb $1, %r9b je .LBB1_8829 vmovdqa 22848(%rbx), %xmm0 movq 30528(%rbx), %rcx vmovsd %xmm0, (%r15,%rcx,8) .LBB1_8829: testb $1, %r11b je .LBB1_8831 vmovdqa 26368(%rbx), %ymm0 movq 30560(%rbx), %rcx vmovsd %xmm0, (%rsi,%rcx,8) .LBB1_8831: testb $1, %r10b je .LBB1_8833 vmovdqa 22624(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%rdx,8) .LBB1_8833: movl 27264(%rbx), %ecx testb $1, %cl je .LBB1_8835 vmovdqa 24288(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%rdi,8) .LBB1_8835: testb $1, %r12b je .LBB1_8837 vmovdqa 22656(%rbx), %xmm0 movq 27808(%rbx), %rcx vmovsd %xmm0, (%rsi,%rcx,8) .LBB1_8837: movq %rdx, 27424(%rbx) testb $1, %al je .LBB1_8839 vmovdqa 26432(%rbx), %ymm0 movq 27776(%rbx), %rcx vmovsd %xmm0, (%rsi,%rcx,8) .LBB1_8839: movq %rdi, 27456(%rbx) testb $1, %r14b je .LBB1_8841 vmovdqa 22720(%rbx), %xmm0 movq 30496(%rbx), %rcx vmovsd %xmm0, (%rsi,%rcx,8) .LBB1_8841: testb $1, %r8b je .LBB1_8843 vmovdqa 24352(%rbx), %xmm0 movq 27488(%rbx), %rcx vmovsd %xmm0, (%rsi,%rcx,8) .LBB1_8843: testb $1, %r9b je .LBB1_8845 vmovdqa 22784(%rbx), %xmm0 movq 30528(%rbx), %rcx vmovsd %xmm0, (%rsi,%rcx,8) .LBB1_8845: vextractf128 $1, %ymm13, %xmm0 vpaddq %xmm3, %xmm0, %xmm4 vpaddq %xmm3, %xmm13, %xmm6 testb $1, %r11b je .LBB1_8847 vinsertf128 $1, %xmm4, %ymm6, %ymm0 vmovd %xmm0, %rcx vmovapd 21184(%rbx), %ymm0 vmovsd %xmm0, (%r15,%rcx,8) .LBB1_8847: testb $1, %r10b je .LBB1_8849 vpextrq $1, %xmm6, %rcx vmovapd 19456(%rbx), %xmm0 vmovsd %xmm0, (%r15,%rcx,8) .LBB1_8849: movl 27264(%rbx), %ecx testb $1, %cl je .LBB1_8851 vmovd %xmm4, %rcx vmovapd 20544(%rbx), %xmm0 vmovsd %xmm0, (%r15,%rcx,8) .LBB1_8851: testb $1, %r12b je .LBB1_8853 vpextrq $1, %xmm4, %rcx vmovapd 19488(%rbx), %xmm0 vmovsd %xmm0, (%r15,%rcx,8) .LBB1_8853: vpaddq %xmm3, %xmm14, %xmm4 testb $1, %al je .LBB1_8855 vmovd %xmm4, %rax vmovapd 21216(%rbx), %ymm0 vmovsd %xmm0, (%r15,%rax,8) .LBB1_8855: vextractf128 $1, %ymm14, %xmm6 testb $1, %r14b je .LBB1_8857 vpextrq $1, %xmm4, %rax vmovapd 19520(%rbx), %xmm0 vmovsd %xmm0, (%r15,%rax,8) .LBB1_8857: vpaddq %xmm3, %xmm6, %xmm4 testb $1, %r8b je .LBB1_8859 vmovd %xmm4, %rax vmovapd 20576(%rbx), %xmm0 vmovsd %xmm0, (%r15,%rax,8) .LBB1_8859: testb $1, %r9b je .LBB1_8861 vpextrq $1, %xmm4, %rax vmovapd 19552(%rbx), %xmm0 vmovsd %xmm0, (%r15,%rax,8) jmp .LBB1_8861 .LBB1_8812: vmovaps 26336(%rbx), %ymm0 vmovsd %xmm0, (%r15,%rax,8) vmovaps 22688(%rbx), %xmm0 vmovsd %xmm0, (%r15,%rdx,8) vmovaps 24320(%rbx), %xmm0 vmovsd %xmm0, (%r15,%r11,8) vmovaps 22752(%rbx), %xmm0 vmovsd %xmm0, (%r15,%r14,8) vmovaps 26400(%rbx), %ymm0 vmovsd %xmm0, (%r15,%rdi,8) vmovaps 22816(%rbx), %xmm0 vmovsd %xmm0, (%r15,%rcx,8) vmovaps 24384(%rbx), %xmm0 vmovsd %xmm0, (%r15,%r10,8) vextractf128 $1, %ymm14, %xmm6 vextractf128 $1, %ymm13, %xmm0 vpaddq %xmm3, %xmm0, %xmm4 vmovaps 22848(%rbx), %xmm0 vmovsd %xmm0, (%r15,%r12,8) vmovaps 26368(%rbx), %ymm0 vmovsd %xmm0, (%rsi,%rax,8) movq %rax, 30560(%rbx) vpaddq %xmm3, %xmm14, %xmm7 vpaddq %xmm3, %xmm6, %xmm0 vpaddq %xmm3, %xmm13, %xmm6 vpextrq $1, %xmm0, %r8 vmovd %xmm0, %r9 vmovaps 22624(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%rdx,8) movq %rdx, 27424(%rbx) movq %r10, %rdx movq %rdx, 27488(%rbx) movq %rcx, 30496(%rbx) vpextrq $1, %xmm7, %r10 vmovaps 24288(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%r11,8) movq %r11, 27456(%rbx) vmovd %xmm7, %r11 vmovaps 22656(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%r14,8) movq %r14, 27808(%rbx) vpextrq $1, %xmm4, %r14 vmovaps 26432(%rbx), %ymm0 vmovsd %xmm0, (%rsi,%rdi,8) movq %rdi, 27776(%rbx) vmovd %xmm4, %rax vmovaps 22720(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%rcx,8) vpextrq $1, %xmm6, %rcx vmovaps 24352(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%rdx,8) vmovd %xmm6, %rdx vmovaps 22784(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%r12,8) movq %r12, 30528(%rbx) vmovaps 21184(%rbx), %ymm0 vmovsd %xmm0, (%r15,%rdx,8) vmovaps 19456(%rbx), %xmm0 vmovsd %xmm0, (%r15,%rcx,8) vmovaps 20544(%rbx), %xmm0 vmovsd %xmm0, (%r15,%rax,8) vmovaps 19488(%rbx), %xmm0 vmovsd %xmm0, (%r15,%r14,8) vmovaps 21216(%rbx), %ymm0 vmovsd %xmm0, (%r15,%r11,8) vmovaps 19520(%rbx), %xmm0 vmovsd %xmm0, (%r15,%r10,8) vmovaps 20576(%rbx), %xmm0 vmovsd %xmm0, (%r15,%r9,8) vmovapd 19552(%rbx), %xmm0 vmovsd %xmm0, (%r15,%r8,8) .LBB1_8861: vpand 31296(%rbx), %xmm2, %xmm2 vpxor .LCPI1_17(%rip), %xmm2, %xmm0 vpmovzxwd %xmm0, %xmm1 vpslld $31, %xmm1, %xmm1 vpsrad $31, %xmm1, %xmm1 vpunpckhwd %xmm0, %xmm0, %xmm0 vpslld $31, %xmm0, %xmm0 vpsrad $31, %xmm0, %xmm0 vinsertf128 $1, %xmm0, %ymm1, %ymm0 vmovdqa 3904(%rbx), %ymm1 vptest %ymm1, %ymm0 jb .LBB1_8880 vmovaps 31680(%rbx), %ymm6 vextractf128 $1, %ymm6, %xmm0 vmovaps 31712(%rbx), %ymm5 vextractf128 $1, %ymm5, %xmm1 vpaddq %xmm3, %xmm1, %xmm4 vpaddq %xmm3, %xmm6, %xmm7 vpaddq %xmm3, %xmm0, %xmm0 vpmovzxwd %xmm2, %xmm1 vpslld $31, %xmm1, %xmm6 vpextrq $1, %xmm0, %r11 vmovd %xmm0, %rax vpextrq $1, %xmm7, %r15 vmovd %xmm7, %rdi vpextrq $1, %xmm4, %r12 vmovd %xmm4, %r9 vpaddq %xmm3, %xmm5, %xmm4 vpsrad $31, %xmm6, %xmm0 vpunpckhwd %xmm0, %xmm2, %xmm1 vpslld $31, %xmm1, %xmm1 vpsrad $31, %xmm1, %xmm1 vinsertf128 $1, %xmm1, %ymm0, %ymm0 vpextrq $1, %xmm4, %r10 vmovd %xmm4, %r14 vmovdqa 3872(%rbx), %ymm1 vptest %ymm1, %ymm0 jb .LBB1_8863 movq %r13, %r8 vpextrb $0, %xmm2, %r13d vpextrb $2, %xmm2, %edx vpextrb $4, %xmm2, %ecx testb $1, %r13b je .LBB1_8866 vmovaps 30016(%rbx), %ymm0 vmovsd %xmm0, (%rsi,%rdi,8) .LBB1_8866: vpextrb $6, %xmm2, %edi testb $1, %dl movq %r8, %r13 je .LBB1_8868 vmovaps 28928(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%r15,8) .LBB1_8868: vpextrb $8, %xmm2, %edx testb $1, %cl je .LBB1_8870 vmovaps 29056(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%rax,8) .LBB1_8870: vpextrb $10, %xmm2, %eax testb $1, %dil je .LBB1_8872 vmovaps 28960(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%r11,8) .LBB1_8872: vpextrb $12, %xmm2, %ecx testb $1, %dl je .LBB1_8874 vmovaps 30752(%rbx), %ymm0 vmovsd %xmm0, (%rsi,%r14,8) .LBB1_8874: vpextrb $14, %xmm2, %edx testb $1, %al je .LBB1_8876 vmovaps 28992(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%r10,8) .LBB1_8876: testb $1, %cl je .LBB1_8878 vmovaps 29984(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%r9,8) .LBB1_8878: testb $1, %dl je .LBB1_8880 jmp .LBB1_8879 .LBB1_8863: vmovaps 30016(%rbx), %ymm0 vmovsd %xmm0, (%rsi,%rdi,8) vmovaps 28928(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%r15,8) vmovaps 29056(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%rax,8) vmovaps 28960(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%r11,8) vmovaps 30752(%rbx), %ymm0 vmovsd %xmm0, (%rsi,%r14,8) vmovaps 28992(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%r10,8) vmovaps 29984(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%r9,8) .LBB1_8879: vmovaps 29024(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%r12,8) .LBB1_8880: cmpl $0, 30592(%rbx) movq 32632(%rbx), %rdi vmovdqa .LCPI1_13(%rip), %xmm7 movq 30528(%rbx), %r9 movq 27488(%rbx), %r12 movq 30496(%rbx), %r10 movq 27808(%rbx), %r14 movq 27776(%rbx), %r15 jne .LBB1_8932 vmovdqa 30816(%rbx), %xmm1 vpmovzxwd %xmm1, %xmm0 vpslld $31, %xmm0, %xmm0 vpsrad $31, %xmm0, %xmm0 vpunpckhwd %xmm0, %xmm1, %xmm1 vpslld $31, %xmm1, %xmm1 vpsrad $31, %xmm1, %xmm1 vinsertf128 $1, %xmm1, %ymm0, %ymm0 vmovdqa 3136(%rbx), %ymm1 vptest %ymm1, %ymm0 jb .LBB1_8882 movl 31744(%rbx), %eax testb $1, %al je .LBB1_8885 vmovaps 26336(%rbx), %ymm0 movq 30560(%rbx), %rax vmovsd %xmm0, (%rdi,%rax,8) .LBB1_8885: movl 31776(%rbx), %eax testb $1, %al movl 31648(%rbx), %r8d movl 31488(%rbx), %edx movl 31552(%rbx), %r11d je .LBB1_8887 vmovaps 22688(%rbx), %xmm0 movq 27424(%rbx), %rax vmovsd %xmm0, (%rdi,%rax,8) .LBB1_8887: movl 31808(%rbx), %eax testb $1, %al je .LBB1_8889 vmovaps 24320(%rbx), %xmm0 movq 27456(%rbx), %rax vmovsd %xmm0, (%rdi,%rax,8) .LBB1_8889: movl 31840(%rbx), %eax testb $1, %al je .LBB1_8891 vmovaps 22752(%rbx), %xmm0 vmovsd %xmm0, (%rdi,%r14,8) .LBB1_8891: movl 31520(%rbx), %eax testb $1, %al je .LBB1_8893 vmovaps 26400(%rbx), %ymm0 vmovsd %xmm0, (%rdi,%r15,8) .LBB1_8893: testb $1, %r11b movq %r9, %rcx je .LBB1_8895 vmovaps 22816(%rbx), %xmm0 vmovsd %xmm0, (%rdi,%r10,8) .LBB1_8895: testb $1, %dl je .LBB1_8897 vmovaps 24384(%rbx), %xmm0 vmovsd %xmm0, (%rdi,%r12,8) .LBB1_8897: testb $1, %r8b je .LBB1_8899 vmovaps 22848(%rbx), %xmm0 vmovsd %xmm0, (%rdi,%rcx,8) .LBB1_8899: movl 31744(%rbx), %eax testb $1, %al je .LBB1_8901 vmovaps 26368(%rbx), %ymm0 movq 30560(%rbx), %rax vmovsd %xmm0, (%rsi,%rax,8) .LBB1_8901: movl 31776(%rbx), %eax testb $1, %al je .LBB1_8903 vmovaps 22624(%rbx), %xmm0 movq 27424(%rbx), %rax vmovsd %xmm0, (%rsi,%rax,8) .LBB1_8903: movl 31808(%rbx), %eax testb $1, %al je .LBB1_8905 vmovaps 24288(%rbx), %xmm0 movq 27456(%rbx), %rax vmovsd %xmm0, (%rsi,%rax,8) .LBB1_8905: movl 31840(%rbx), %eax testb $1, %al je .LBB1_8907 vmovaps 22656(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%r14,8) .LBB1_8907: movl 31520(%rbx), %eax testb $1, %al je .LBB1_8909 vmovaps 26432(%rbx), %ymm0 vmovsd %xmm0, (%rsi,%r15,8) .LBB1_8909: testb $1, %r11b je .LBB1_8911 vmovaps 22720(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%r10,8) .LBB1_8911: testb $1, %dl je .LBB1_8913 vmovaps 24352(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%r12,8) .LBB1_8913: testb $1, %r8b je .LBB1_8915 vmovaps 22784(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%rcx,8) .LBB1_8915: vextractf128 $1, %ymm13, %xmm0 vpaddq %xmm3, %xmm0, %xmm2 vpaddq %xmm3, %xmm13, %xmm4 movl 31744(%rbx), %eax testb $1, %al je .LBB1_8917 vinsertf128 $1, %xmm2, %ymm4, %ymm0 vmovd %xmm0, %rax vmovapd 21184(%rbx), %ymm0 vmovsd %xmm0, (%rdi,%rax,8) .LBB1_8917: movl 31776(%rbx), %eax testb $1, %al je .LBB1_8919 vpextrq $1, %xmm4, %rax vmovapd 19456(%rbx), %xmm0 vmovsd %xmm0, (%rdi,%rax,8) .LBB1_8919: movl 31808(%rbx), %eax testb $1, %al je .LBB1_8921 vmovd %xmm2, %rax vmovapd 20544(%rbx), %xmm0 vmovsd %xmm0, (%rdi,%rax,8) .LBB1_8921: movl 31840(%rbx), %eax testb $1, %al je .LBB1_8923 vpextrq $1, %xmm2, %rax vmovapd 19488(%rbx), %xmm0 vmovsd %xmm0, (%rdi,%rax,8) .LBB1_8923: vpaddq %xmm3, %xmm14, %xmm2 movl 31520(%rbx), %eax testb $1, %al je .LBB1_8925 vmovd %xmm2, %rax vmovapd 21216(%rbx), %ymm0 vmovsd %xmm0, (%rdi,%rax,8) .LBB1_8925: vextractf128 $1, %ymm14, %xmm4 testb $1, %r11b je .LBB1_8927 vpextrq $1, %xmm2, %rax vmovapd 19520(%rbx), %xmm0 vmovsd %xmm0, (%rdi,%rax,8) .LBB1_8927: vpaddq %xmm3, %xmm4, %xmm2 testb $1, %dl je .LBB1_8929 vmovd %xmm2, %rax vmovapd 20576(%rbx), %xmm0 vmovsd %xmm0, (%rdi,%rax,8) .LBB1_8929: testb $1, %r8b je .LBB1_8932 vpextrq $1, %xmm2, %rax vmovaps 19552(%rbx), %xmm0 jmp .LBB1_8931 .LBB1_8882: vmovaps 26336(%rbx), %ymm0 movq 30560(%rbx), %rcx vmovsd %xmm0, (%rdi,%rcx,8) vmovaps 22688(%rbx), %xmm0 movq 27424(%rbx), %rdx vmovsd %xmm0, (%rdi,%rdx,8) vmovaps 24320(%rbx), %xmm0 movq 27456(%rbx), %rax vmovsd %xmm0, (%rdi,%rax,8) vmovaps 22752(%rbx), %xmm0 vmovsd %xmm0, (%rdi,%r14,8) vmovaps 26400(%rbx), %ymm0 vmovsd %xmm0, (%rdi,%r15,8) vmovaps 22816(%rbx), %xmm0 vmovsd %xmm0, (%rdi,%r10,8) vmovaps 24384(%rbx), %xmm0 vmovsd %xmm0, (%rdi,%r12,8) vextractf128 $1, %ymm14, %xmm4 vextractf128 $1, %ymm13, %xmm0 vpaddq %xmm3, %xmm0, %xmm2 vmovaps 22848(%rbx), %xmm0 vmovsd %xmm0, (%rdi,%r9,8) vmovaps 26368(%rbx), %ymm0 vmovsd %xmm0, (%rsi,%rcx,8) vpaddq %xmm3, %xmm14, %xmm6 vpaddq %xmm3, %xmm4, %xmm0 vpaddq %xmm3, %xmm13, %xmm4 vpextrq $1, %xmm0, %rcx movq %rcx, 30560(%rbx) movq %r13, %r8 vmovd %xmm0, %r13 vmovaps 22624(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%rdx,8) movq %r10, %rdx vpextrq $1, %xmm6, %r10 vmovaps 24288(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%rax,8) vmovd %xmm6, %r11 vmovaps 22656(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%r14,8) movq %r15, %rax vpextrq $1, %xmm2, %r14 vmovaps 26432(%rbx), %ymm0 vmovsd %xmm0, (%rsi,%rax,8) vmovd %xmm2, %rax vmovaps 22720(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%rdx,8) vpextrq $1, %xmm4, %rcx vmovaps 24352(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%r12,8) vmovd %xmm4, %rdx vmovaps 22784(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%r9,8) vmovaps 21184(%rbx), %ymm0 vmovsd %xmm0, (%rdi,%rdx,8) vmovaps 19456(%rbx), %xmm0 vmovsd %xmm0, (%rdi,%rcx,8) vmovaps 20544(%rbx), %xmm0 vmovsd %xmm0, (%rdi,%rax,8) vmovaps 19488(%rbx), %xmm0 vmovsd %xmm0, (%rdi,%r14,8) vmovaps 21216(%rbx), %ymm0 vmovsd %xmm0, (%rdi,%r11,8) vmovaps 19520(%rbx), %xmm0 vmovsd %xmm0, (%rdi,%r10,8) vmovaps 20576(%rbx), %xmm0 vmovsd %xmm0, (%rdi,%r13,8) movq %r8, %r13 vmovaps 19552(%rbx), %xmm0 movq 30560(%rbx), %rax .LBB1_8931: vmovsd %xmm0, (%rdi,%rax,8) .LBB1_8932: cmpl $0, 30880(%rbx) je .LBB1_8934 movq 32192(%rbx), %rax movq $0, (%r13,%rax,8) movq 32256(%rbx), %rax movq $0, (%r13,%rax,8) movq 32224(%rbx), %rax movq $0, (%r13,%rax,8) movq 32288(%rbx), %rax movq $0, (%r13,%rax,8) movq 32320(%rbx), %rax movq $0, (%r13,%rax,8) movq 32384(%rbx), %rax movq $0, (%r13,%rax,8) movq 32352(%rbx), %rax movq $0, (%r13,%rax,8) movq 32416(%rbx), %rax movq $0, (%r13,%rax,8) movq 32832(%rbx), %r14 movq $0, (%rdi,%r14,8) movq 32864(%rbx), %r11 movq $0, (%rdi,%r11,8) movq 32736(%rbx), %r10 movq $0, (%rdi,%r10,8) movq 32800(%rbx), %r9 movq $0, (%rdi,%r9,8) movq 32896(%rbx), %r8 movq $0, (%rdi,%r8,8) movq 32928(%rbx), %rdx movq $0, (%rdi,%rdx,8) movq 32960(%rbx), %rcx movq $0, (%rdi,%rcx,8) movq 32992(%rbx), %rax movq $0, (%rdi,%rax,8) movq $0, (%rsi,%r14,8) movq $0, (%rsi,%r11,8) movq $0, (%rsi,%r10,8) movq $0, (%rsi,%r9,8) movq $0, (%rsi,%r8,8) movq $0, (%rsi,%rdx,8) movq $0, (%rsi,%rcx,8) movq $0, (%rsi,%rax,8) movq %rsi, %r9 movq 31936(%rbx), %rax movq $0, (%rdi,%rax,8) movq 31968(%rbx), %rax movq $0, (%rdi,%rax,8) movq 32096(%rbx), %rax movq $0, (%rdi,%rax,8) movq 32128(%rbx), %rax movq $0, (%rdi,%rax,8) movq 32160(%rbx), %rax movq $0, (%rdi,%rax,8) movq 32000(%rbx), %rax movq $0, (%rdi,%rax,8) movq 32032(%rbx), %rax movq $0, (%rdi,%rax,8) jmp .LBB1_8997 .LBB1_8934: movl 31584(%rbx), %r9d testb $1, %r9b movl 31424(%rbx), %r8d movl 31392(%rbx), %r10d movl 31360(%rbx), %r11d movl 31328(%rbx), %edx movl 31616(%rbx), %ecx je .LBB1_8936 movq 32192(%rbx), %rax movq $0, (%r13,%rax,8) .LBB1_8936: movl 31872(%rbx), %eax testb $1, %al je .LBB1_8938 movq 32256(%rbx), %rax movq $0, (%r13,%rax,8) .LBB1_8938: movl 31904(%rbx), %eax testb $1, %al je .LBB1_8940 movq 32224(%rbx), %rax movq $0, (%r13,%rax,8) .LBB1_8940: testb $1, %cl je .LBB1_8942 movq 32288(%rbx), %rax movq $0, (%r13,%rax,8) .LBB1_8942: testb $1, %dl je .LBB1_8944 movq 32320(%rbx), %rax movq $0, (%r13,%rax,8) .LBB1_8944: testb $1, %r10b je .LBB1_8946 movq 32384(%rbx), %rax movq $0, (%r13,%rax,8) .LBB1_8946: testb $1, %r11b je .LBB1_8948 movq 32352(%rbx), %rax movq $0, (%r13,%rax,8) .LBB1_8948: testb $1, %r8b je .LBB1_8950 movq 32416(%rbx), %rax movq $0, (%r13,%rax,8) .LBB1_8950: testb $1, %r9b je .LBB1_8952 movq 32832(%rbx), %rax movq $0, (%rdi,%rax,8) .LBB1_8952: movl 31872(%rbx), %eax testb $1, %al je .LBB1_8954 movq 32864(%rbx), %rax movq $0, (%rdi,%rax,8) .LBB1_8954: movl 31904(%rbx), %eax testb $1, %al je .LBB1_8956 movq 32736(%rbx), %rax movq $0, (%rdi,%rax,8) .LBB1_8956: testb $1, %cl je .LBB1_8958 movq 32800(%rbx), %rax movq $0, (%rdi,%rax,8) .LBB1_8958: testb $1, %dl je .LBB1_8960 movq 32896(%rbx), %rax movq $0, (%rdi,%rax,8) .LBB1_8960: testb $1, %r10b je .LBB1_8962 movq 32928(%rbx), %rax movq $0, (%rdi,%rax,8) .LBB1_8962: testb $1, %r11b je .LBB1_8964 movq 32960(%rbx), %rax movq $0, (%rdi,%rax,8) .LBB1_8964: testb $1, %r8b je .LBB1_8966 movq 32992(%rbx), %rax movq $0, (%rdi,%rax,8) .LBB1_8966: testb $1, %r9b je .LBB1_8968 movq 32832(%rbx), %rax movq $0, (%rsi,%rax,8) .LBB1_8968: movl 31872(%rbx), %eax testb $1, %al je .LBB1_8970 movq 32864(%rbx), %rax movq $0, (%rsi,%rax,8) .LBB1_8970: movl 31904(%rbx), %eax testb $1, %al je .LBB1_8972 movq 32736(%rbx), %rax movq $0, (%rsi,%rax,8) .LBB1_8972: testb $1, %cl je .LBB1_8974 movq 32800(%rbx), %rax movq $0, (%rsi,%rax,8) .LBB1_8974: testb $1, %dl je .LBB1_8976 movq 32896(%rbx), %rax movq $0, (%rsi,%rax,8) .LBB1_8976: testb $1, %r10b je .LBB1_8978 movq 32928(%rbx), %rax movq $0, (%rsi,%rax,8) .LBB1_8978: testb $1, %r11b je .LBB1_8980 movq 32960(%rbx), %rax movq $0, (%rsi,%rax,8) .LBB1_8980: testb $1, %r8b je .LBB1_8982 movq 32992(%rbx), %rax movq $0, (%rsi,%rax,8) .LBB1_8982: testb $1, %r9b je .LBB1_8984 movq 31936(%rbx), %rax movq $0, (%rdi,%rax,8) .LBB1_8984: movl 31872(%rbx), %eax testb $1, %al je .LBB1_8986 movq 31968(%rbx), %rax movq $0, (%rdi,%rax,8) .LBB1_8986: movl 31904(%rbx), %eax testb $1, %al je .LBB1_8988 movq 32096(%rbx), %rax movq $0, (%rdi,%rax,8) .LBB1_8988: testb $1, %cl je .LBB1_8990 movq 32128(%rbx), %rax movq $0, (%rdi,%rax,8) .LBB1_8990: testb $1, %dl je .LBB1_8992 movq 32160(%rbx), %rax movq $0, (%rdi,%rax,8) .LBB1_8992: movq %rsi, %r9 testb $1, %r10b je .LBB1_8994 movq 32000(%rbx), %rax movq $0, (%rdi,%rax,8) .LBB1_8994: testb $1, %r11b je .LBB1_8996 movq 32032(%rbx), %rax movq $0, (%rdi,%rax,8) .LBB1_8996: testb $1, %r8b je .LBB1_8998 .LBB1_8997: movq 32064(%rbx), %rax movq $0, (%rdi,%rax,8) .LBB1_8998: cmpl $0, 30592(%rbx) jne .LBB1_8999 vmovdqa 30912(%rbx), %xmm0 vpaddq %xmm7, %xmm0, %xmm2 vpaddq %xmm7, %xmm11, %xmm6 vmovdqa 30944(%rbx), %xmm0 vpaddq %xmm7, %xmm0, %xmm0 vmovdqa 30816(%rbx), %xmm5 vpmovzxwd %xmm5, %xmm1 vpslld $31, %xmm1, %xmm4 vpextrq $1, %xmm0, %r12 vmovd %xmm0, %r10 vpextrq $1, %xmm6, %r8 vmovd %xmm6, %rdx vpextrq $1, %xmm2, %rsi vmovd %xmm2, %rcx vpaddq %xmm7, %xmm8, %xmm2 vpsrad $31, %xmm4, %xmm0 vpunpckhwd %xmm0, %xmm5, %xmm1 vpslld $31, %xmm1, %xmm1 vpsrad $31, %xmm1, %xmm1 vinsertf128 $1, %xmm1, %ymm0, %ymm0 vpextrq $1, %xmm2, %rax vmovd %xmm2, %r14 vmovdqa 3168(%rbx), %ymm1 vptest %ymm1, %ymm0 jb .LBB1_9090 movq %rax, %r15 movl 31744(%rbx), %eax testb $1, %al je .LBB1_9093 vmovaps 26464(%rbx), %ymm0 vmovsd %xmm0, (%rdi,%rdx,8) .LBB1_9093: movq %rcx, %r11 movl 31776(%rbx), %eax testb $1, %al je .LBB1_9095 vmovaps 22944(%rbx), %xmm0 vmovsd %xmm0, (%rdi,%r8,8) .LBB1_9095: movq %rsi, %rcx movl 31808(%rbx), %eax testb $1, %al movq %r9, %rsi je .LBB1_9097 vmovaps 24416(%rbx), %xmm0 vmovsd %xmm0, (%rdi,%r10,8) .LBB1_9097: movl 31840(%rbx), %eax testb $1, %al movl 31520(%rbx), %r9d movq %rcx, %r13 je .LBB1_9099 vmovaps 23008(%rbx), %xmm0 vmovsd %xmm0, (%rdi,%r12,8) .LBB1_9099: testb $1, %r9b movq %r11, %rcx je .LBB1_9101 vmovaps 26528(%rbx), %ymm0 vmovsd %xmm0, (%rdi,%r14,8) .LBB1_9101: movl 31552(%rbx), %eax testb $1, %al je .LBB1_9103 vmovaps 23072(%rbx), %xmm0 vmovsd %xmm0, (%rdi,%r15,8) .LBB1_9103: movq %r15, %r11 movl 31488(%rbx), %eax testb $1, %al je .LBB1_9105 vmovaps 24480(%rbx), %xmm0 vmovsd %xmm0, (%rdi,%rcx,8) .LBB1_9105: movl 31648(%rbx), %eax testb $1, %al je .LBB1_9107 vmovaps 23104(%rbx), %xmm0 vmovsd %xmm0, (%rdi,%r13,8) .LBB1_9107: movl 31744(%rbx), %eax testb $1, %al je .LBB1_9109 vmovaps 26496(%rbx), %ymm0 vmovsd %xmm0, (%rsi,%rdx,8) .LBB1_9109: movl 31776(%rbx), %eax testb $1, %al je .LBB1_9111 vmovaps 22880(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%r8,8) .LBB1_9111: movl 31808(%rbx), %eax testb $1, %al je .LBB1_9113 vmovsd %xmm12, (%rsi,%r10,8) .LBB1_9113: movl 31840(%rbx), %eax testb $1, %al je .LBB1_9115 vmovaps 22912(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%r12,8) .LBB1_9115: testb $1, %r9b je .LBB1_9117 vmovaps 26560(%rbx), %ymm0 vmovsd %xmm0, (%rsi,%r14,8) .LBB1_9117: movl 31552(%rbx), %eax testb $1, %al je .LBB1_9119 vmovaps 22976(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%r11,8) .LBB1_9119: movl 31488(%rbx), %eax testb $1, %al je .LBB1_9121 vmovaps 24448(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%rcx,8) .LBB1_9121: movl 31648(%rbx), %eax testb $1, %al je .LBB1_9123 vmovaps 23040(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%r13,8) .LBB1_9123: vextractf128 $1, %ymm13, %xmm0 vpaddq %xmm7, %xmm0, %xmm2 vpaddq %xmm7, %xmm13, %xmm4 movl 31744(%rbx), %eax testb $1, %al je .LBB1_9125 vinsertf128 $1, %xmm2, %ymm4, %ymm0 vmovd %xmm0, %rax vmovapd 21248(%rbx), %ymm0 vmovsd %xmm0, (%rdi,%rax,8) .LBB1_9125: movl 31776(%rbx), %eax testb $1, %al je .LBB1_9127 vpextrq $1, %xmm4, %rax vmovapd 19584(%rbx), %xmm0 vmovsd %xmm0, (%rdi,%rax,8) .LBB1_9127: movl 31808(%rbx), %eax testb $1, %al je .LBB1_9129 vmovd %xmm2, %rax vmovapd 20608(%rbx), %xmm0 vmovsd %xmm0, (%rdi,%rax,8) .LBB1_9129: movl 31840(%rbx), %eax testb $1, %al je .LBB1_9131 vpextrq $1, %xmm2, %rax vmovapd 19616(%rbx), %xmm0 vmovsd %xmm0, (%rdi,%rax,8) .LBB1_9131: vpaddq %xmm7, %xmm14, %xmm2 testb $1, %r9b je .LBB1_9133 vmovd %xmm2, %rax vmovapd 21280(%rbx), %ymm0 vmovsd %xmm0, (%rdi,%rax,8) .LBB1_9133: vextractf128 $1, %ymm14, %xmm4 movl 31552(%rbx), %eax testb $1, %al je .LBB1_9135 vpextrq $1, %xmm2, %rax vmovapd 19648(%rbx), %xmm0 vmovsd %xmm0, (%rdi,%rax,8) .LBB1_9135: movq %rsi, %r9 vpaddq %xmm7, %xmm4, %xmm2 movl 31488(%rbx), %eax testb $1, %al je .LBB1_9137 vmovd %xmm2, %rax vmovapd 20640(%rbx), %xmm0 vmovsd %xmm0, (%rdi,%rax,8) .LBB1_9137: movl 31648(%rbx), %eax testb $1, %al je .LBB1_8999 vpextrq $1, %xmm2, %rax vmovaps 19680(%rbx), %xmm0 vmovsd %xmm0, (%rdi,%rax,8) jmp .LBB1_8999 .LBB1_9090: vmovaps 26464(%rbx), %ymm0 vmovsd %xmm0, (%rdi,%rdx,8) vmovaps 22944(%rbx), %xmm0 vmovsd %xmm0, (%rdi,%r8,8) vmovaps 24416(%rbx), %xmm0 vmovsd %xmm0, (%rdi,%r10,8) vmovaps 23008(%rbx), %xmm0 vmovsd %xmm0, (%rdi,%r12,8) vmovaps 26528(%rbx), %ymm0 vmovsd %xmm0, (%rdi,%r14,8) vmovaps 23072(%rbx), %xmm0 vmovsd %xmm0, (%rdi,%rax,8) vmovaps 24480(%rbx), %xmm0 vmovsd %xmm0, (%rdi,%rcx,8) vextractf128 $1, %ymm14, %xmm4 vextractf128 $1, %ymm13, %xmm0 vpaddq %xmm7, %xmm0, %xmm2 vmovaps 23104(%rbx), %xmm0 vmovsd %xmm0, (%rdi,%rsi,8) vmovaps 26496(%rbx), %ymm0 vmovsd %xmm0, (%r9,%rdx,8) vpaddq %xmm7, %xmm14, %xmm6 vpaddq %xmm7, %xmm4, %xmm0 vpaddq %xmm7, %xmm13, %xmm4 vpextrq $1, %xmm0, %r15 movq %rsi, %r11 vmovd %xmm0, %r13 vmovaps 22880(%rbx), %xmm0 vmovsd %xmm0, (%r9,%r8,8) vpextrq $1, %xmm6, %r8 vmovsd %xmm12, (%r9,%r10,8) vmovd %xmm6, %r10 vmovaps 22912(%rbx), %xmm0 vmovsd %xmm0, (%r9,%r12,8) movq %rax, %rsi vpextrq $1, %xmm2, %rax vmovaps 26560(%rbx), %ymm0 vmovsd %xmm0, (%r9,%r14,8) vmovd %xmm2, %rdx vmovaps 22976(%rbx), %xmm0 vmovsd %xmm0, (%r9,%rsi,8) vpextrq $1, %xmm4, %rsi vmovaps 24448(%rbx), %xmm0 vmovsd %xmm0, (%r9,%rcx,8) vmovd %xmm4, %rcx vmovaps 23040(%rbx), %xmm0 vmovsd %xmm0, (%r9,%r11,8) vmovaps 21248(%rbx), %ymm0 vmovsd %xmm0, (%rdi,%rcx,8) vmovaps 19584(%rbx), %xmm0 vmovsd %xmm0, (%rdi,%rsi,8) vmovaps 20608(%rbx), %xmm0 vmovsd %xmm0, (%rdi,%rdx,8) vmovaps 19616(%rbx), %xmm0 vmovsd %xmm0, (%rdi,%rax,8) vmovaps 21280(%rbx), %ymm0 vmovsd %xmm0, (%rdi,%r10,8) vmovaps 19648(%rbx), %xmm0 vmovsd %xmm0, (%rdi,%r8,8) vmovaps 20640(%rbx), %xmm0 vmovsd %xmm0, (%rdi,%r13,8) vmovaps 19680(%rbx), %xmm0 vmovsd %xmm0, (%rdi,%r15,8) .LBB1_8999: vpxor %xmm2, %xmm2, %xmm2 cmpl $0, 30848(%rbx) movq %r9, %rax jne .LBB1_9018 vpmovzxwd %xmm10, %xmm0 vpslld $31, %xmm0, %xmm0 vpsrad $31, %xmm0, %xmm0 vpunpckhwd %xmm0, %xmm10, %xmm1 vpslld $31, %xmm1, %xmm1 vpsrad $31, %xmm1, %xmm1 vinsertf128 $1, %xmm1, %ymm0, %ymm0 vmovdqa 3200(%rbx), %ymm1 vptest %ymm1, %ymm0 jb .LBB1_9001 movl 30976(%rbx), %ecx testb $1, %cl je .LBB1_9004 movq 32448(%rbx), %rcx movq $0, (%rax,%rcx,8) .LBB1_9004: movl 31040(%rbx), %ecx testb $1, %cl je .LBB1_9006 movq 32480(%rbx), %rcx movq $0, (%rax,%rcx,8) .LBB1_9006: movl 31008(%rbx), %ecx testb $1, %cl je .LBB1_9008 movq 32544(%rbx), %rcx movq $0, (%rax,%rcx,8) .LBB1_9008: movl 31168(%rbx), %ecx testb $1, %cl je .LBB1_9010 movq 32576(%rbx), %rcx movq $0, (%rax,%rcx,8) .LBB1_9010: movl 31072(%rbx), %ecx testb $1, %cl je .LBB1_9012 movq 32640(%rbx), %rcx movq $0, (%rax,%rcx,8) .LBB1_9012: movl 31200(%rbx), %ecx testb $1, %cl je .LBB1_9014 movq 32672(%rbx), %rcx movq $0, (%rax,%rcx,8) .LBB1_9014: movl 31232(%rbx), %ecx testb $1, %cl je .LBB1_9016 movq 32704(%rbx), %rcx movq $0, (%rax,%rcx,8) .LBB1_9016: movl 31264(%rbx), %ecx testb $1, %cl vmovdqa %xmm10, %xmm2 je .LBB1_9018 jmp .LBB1_9017 .LBB1_9001: movq 32448(%rbx), %rcx movq $0, (%rax,%rcx,8) movq 32480(%rbx), %rcx movq $0, (%rax,%rcx,8) movq 32544(%rbx), %rcx movq $0, (%rax,%rcx,8) movq 32576(%rbx), %rcx movq $0, (%rax,%rcx,8) movq 32640(%rbx), %rcx movq $0, (%rax,%rcx,8) movq 32672(%rbx), %rcx movq $0, (%rax,%rcx,8) movq 32704(%rbx), %rcx movq $0, (%rax,%rcx,8) .LBB1_9017: movq 32512(%rbx), %rcx movq $0, (%rax,%rcx,8) vmovdqa %xmm10, %xmm2 .LBB1_9018: vpor 30688(%rbx), %xmm2, %xmm2 vpunpckhwd %xmm0, %xmm2, %xmm0 vpslld $31, %xmm0, %xmm4 vmovdqa 30944(%rbx), %xmm0 vpaddq %xmm7, %xmm0, %xmm0 vpmovzxwd %xmm2, %xmm1 vpslld $31, %xmm1, %xmm1 vpsrad $31, %xmm1, %xmm6 vpextrq $1, %xmm0, %r8 vmovd %xmm0, %r9 vpaddq %xmm7, %xmm11, %xmm5 vpsrad $31, %xmm4, %xmm0 vpaddq %xmm7, %xmm8, %xmm4 vmovdqa 30912(%rbx), %xmm1 vpaddq %xmm7, %xmm1, %xmm1 vinsertf128 $1, %xmm0, %ymm6, %ymm6 vpextrq $1, %xmm5, %r11 vmovd %xmm5, %r14 vpextrq $1, %xmm1, %r10 vmovd %xmm1, %rdx vpextrq $1, %xmm4, %rcx vmovd %xmm4, %r15 vmovdqa 3840(%rbx), %ymm0 vptest %ymm0, %ymm6 jb .LBB1_9019 movq %r10, 27424(%rbx) vpextrb $0, %xmm2, %r10d vpextrb $2, %xmm2, %esi movl %esi, 27456(%rbx) vpextrb $4, %xmm2, %esi movl %esi, 30560(%rbx) testb $1, %r10b je .LBB1_9022 vmovdqa 26464(%rbx), %ymm0 vmovsd %xmm0, (%rdi,%r14,8) .LBB1_9022: vpextrb $6, %xmm2, %esi movl %esi, 30528(%rbx) movl 27456(%rbx), %esi testb $1, %sil je .LBB1_9024 vmovdqa 22944(%rbx), %xmm0 vmovsd %xmm0, (%rdi,%r11,8) .LBB1_9024: vpextrb $8, %xmm2, %esi movl %esi, 30496(%rbx) movl 30560(%rbx), %esi testb $1, %sil movq 31456(%rbx), %r12 je .LBB1_9026 vmovdqa 24416(%rbx), %xmm0 vmovsd %xmm0, (%rdi,%r9,8) .LBB1_9026: vpextrb $10, %xmm2, %esi movl %esi, 27808(%rbx) movl 30528(%rbx), %esi testb $1, %sil je .LBB1_9028 vmovdqa 23008(%rbx), %xmm0 vmovsd %xmm0, (%rdi,%r8,8) .LBB1_9028: vpextrb $12, %xmm2, %esi movl %esi, 27776(%rbx) movl 30496(%rbx), %esi testb $1, %sil je .LBB1_9030 vmovdqa 26528(%rbx), %ymm0 vmovsd %xmm0, (%rdi,%r15,8) .LBB1_9030: vpextrb $14, %xmm2, %esi movl %esi, 27488(%rbx) movl 27808(%rbx), %esi testb $1, %sil je .LBB1_9032 vmovdqa 23072(%rbx), %xmm0 vmovsd %xmm0, (%rdi,%rcx,8) .LBB1_9032: movq %r15, %r13 movl 27776(%rbx), %esi testb $1, %sil je .LBB1_9034 vmovdqa 24480(%rbx), %xmm0 vmovsd %xmm0, (%rdi,%rdx,8) .LBB1_9034: movq %rdx, %r15 movl 27488(%rbx), %edx testb $1, %dl je .LBB1_9036 vmovdqa 23104(%rbx), %xmm0 movq 27424(%rbx), %rdx vmovsd %xmm0, (%rdi,%rdx,8) .LBB1_9036: testb $1, %r10b je .LBB1_9038 vmovdqa 26496(%rbx), %ymm0 vmovsd %xmm0, (%rax,%r14,8) .LBB1_9038: movl 27456(%rbx), %edx testb $1, %dl je .LBB1_9040 vmovdqa 22880(%rbx), %xmm0 vmovsd %xmm0, (%rax,%r11,8) .LBB1_9040: movl 30560(%rbx), %edx testb $1, %dl je .LBB1_9042 vmovsd %xmm12, (%rax,%r9,8) .LBB1_9042: movl 30528(%rbx), %edx testb $1, %dl je .LBB1_9044 vmovdqa 22912(%rbx), %xmm0 vmovsd %xmm0, (%rax,%r8,8) .LBB1_9044: movl 30496(%rbx), %edx testb $1, %dl je .LBB1_9046 vmovdqa 26560(%rbx), %ymm0 vmovsd %xmm0, (%rax,%r13,8) .LBB1_9046: movl 27808(%rbx), %edx testb $1, %dl je .LBB1_9048 vmovdqa 22976(%rbx), %xmm0 vmovsd %xmm0, (%rax,%rcx,8) .LBB1_9048: movl 27776(%rbx), %ecx testb $1, %cl je .LBB1_9050 vmovdqa 24448(%rbx), %xmm0 vmovsd %xmm0, (%rax,%r15,8) .LBB1_9050: movl 27488(%rbx), %ecx testb $1, %cl movq 27424(%rbx), %rcx je .LBB1_9052 vmovdqa 23040(%rbx), %xmm0 vmovsd %xmm0, (%rax,%rcx,8) .LBB1_9052: vextractf128 $1, %ymm13, %xmm0 vpaddq %xmm7, %xmm0, %xmm4 vpaddq %xmm7, %xmm13, %xmm6 testb $1, %r10b je .LBB1_9054 vinsertf128 $1, %xmm4, %ymm6, %ymm0 vmovd %xmm0, %rcx vmovapd 21248(%rbx), %ymm0 vmovsd %xmm0, (%rdi,%rcx,8) .LBB1_9054: movl 27456(%rbx), %ecx testb $1, %cl je .LBB1_9056 vpextrq $1, %xmm6, %rcx vmovapd 19584(%rbx), %xmm0 vmovsd %xmm0, (%rdi,%rcx,8) .LBB1_9056: movl 30560(%rbx), %ecx testb $1, %cl je .LBB1_9058 vmovd %xmm4, %rcx vmovapd 20608(%rbx), %xmm0 vmovsd %xmm0, (%rdi,%rcx,8) .LBB1_9058: movl 30528(%rbx), %ecx testb $1, %cl je .LBB1_9060 vpextrq $1, %xmm4, %rcx vmovapd 19616(%rbx), %xmm0 vmovsd %xmm0, (%rdi,%rcx,8) .LBB1_9060: vpaddq %xmm7, %xmm14, %xmm4 movl 30496(%rbx), %ecx testb $1, %cl je .LBB1_9062 vmovd %xmm4, %rcx vmovapd 21280(%rbx), %ymm0 vmovsd %xmm0, (%rdi,%rcx,8) .LBB1_9062: movq %rax, %r13 vextractf128 $1, %ymm14, %xmm6 movl 27808(%rbx), %eax testb $1, %al je .LBB1_9064 vpextrq $1, %xmm4, %rcx vmovapd 19648(%rbx), %xmm0 vmovsd %xmm0, (%rdi,%rcx,8) .LBB1_9064: vpaddq %xmm7, %xmm6, %xmm4 movl 27776(%rbx), %eax testb $1, %al je .LBB1_9066 vmovd %xmm4, %rcx vmovapd 20640(%rbx), %xmm0 vmovsd %xmm0, (%rdi,%rcx,8) .LBB1_9066: movl 27488(%rbx), %eax testb $1, %al je .LBB1_9068 vpextrq $1, %xmm4, %rax vmovapd 19680(%rbx), %xmm0 vmovsd %xmm0, (%rdi,%rax,8) jmp .LBB1_9068 .LBB1_9019: vmovaps 26464(%rbx), %ymm0 vmovsd %xmm0, (%rdi,%r14,8) vmovaps 22944(%rbx), %xmm0 vmovsd %xmm0, (%rdi,%r11,8) vmovaps 24416(%rbx), %xmm0 vmovsd %xmm0, (%rdi,%r9,8) vmovaps 23008(%rbx), %xmm0 vmovsd %xmm0, (%rdi,%r8,8) vmovaps 26528(%rbx), %ymm0 vmovsd %xmm0, (%rdi,%r15,8) vmovaps 23072(%rbx), %xmm0 vmovsd %xmm0, (%rdi,%rcx,8) vmovaps 24480(%rbx), %xmm0 vmovsd %xmm0, (%rdi,%rdx,8) vextractf128 $1, %ymm14, %xmm6 vextractf128 $1, %ymm13, %xmm0 vpaddq %xmm7, %xmm0, %xmm4 vmovaps 23104(%rbx), %xmm0 vmovsd %xmm0, (%rdi,%r10,8) vmovaps 26496(%rbx), %ymm0 vmovsd %xmm0, (%rax,%r14,8) vpaddq %xmm7, %xmm14, %xmm1 vpaddq %xmm7, %xmm6, %xmm0 vpaddq %xmm7, %xmm13, %xmm6 vpextrq $1, %xmm0, %r14 movq %r15, %rsi movq %rax, %r15 vmovd %xmm0, %r13 vmovaps 22880(%rbx), %xmm0 vmovsd %xmm0, (%r15,%r11,8) vpextrq $1, %xmm1, %r11 vmovsd %xmm12, (%r15,%r9,8) vmovd %xmm1, %r9 vmovaps 22912(%rbx), %xmm0 vmovsd %xmm0, (%r15,%r8,8) vpextrq $1, %xmm4, %r8 vmovaps 26560(%rbx), %ymm0 vmovsd %xmm0, (%r15,%rsi,8) vmovd %xmm4, %rsi vmovaps 22976(%rbx), %xmm0 vmovsd %xmm0, (%r15,%rcx,8) vpextrq $1, %xmm6, %rax vmovaps 24448(%rbx), %xmm0 vmovsd %xmm0, (%r15,%rdx,8) vmovd %xmm6, %rcx vmovaps 23040(%rbx), %xmm0 vmovsd %xmm0, (%r15,%r10,8) vmovaps 21248(%rbx), %ymm0 vmovsd %xmm0, (%rdi,%rcx,8) vmovaps 19584(%rbx), %xmm0 vmovsd %xmm0, (%rdi,%rax,8) vmovaps 20608(%rbx), %xmm0 vmovsd %xmm0, (%rdi,%rsi,8) vmovaps 19616(%rbx), %xmm0 vmovsd %xmm0, (%rdi,%r8,8) vmovaps 21280(%rbx), %ymm0 vmovsd %xmm0, (%rdi,%r9,8) vmovaps 19648(%rbx), %xmm0 vmovsd %xmm0, (%rdi,%r11,8) vmovaps 20640(%rbx), %xmm0 vmovsd %xmm0, (%rdi,%r13,8) movq %r15, %r13 vmovapd 19680(%rbx), %xmm0 vmovsd %xmm0, (%rdi,%r14,8) movq 31456(%rbx), %r12 .LBB1_9068: vmovdqa %ymm11, %ymm12 vpand 31296(%rbx), %xmm2, %xmm2 vpxor .LCPI1_17(%rip), %xmm2, %xmm0 vpmovzxwd %xmm0, %xmm1 vpslld $31, %xmm1, %xmm1 vpsrad $31, %xmm1, %xmm1 vpunpckhwd %xmm0, %xmm0, %xmm0 vpslld $31, %xmm0, %xmm0 vpsrad $31, %xmm0, %xmm0 vinsertf128 $1, %xmm0, %ymm1, %ymm0 vmovdqa 3808(%rbx), %ymm1 vptest %ymm1, %ymm0 jb .LBB1_9071 vmovdqa %ymm8, %ymm11 vmovaps 31680(%rbx), %ymm5 vextractf128 $1, %ymm5, %xmm0 vmovaps 31712(%rbx), %ymm8 vextractf128 $1, %ymm8, %xmm1 vpaddq %xmm7, %xmm1, %xmm4 vpaddq %xmm7, %xmm5, %xmm5 vpaddq %xmm7, %xmm0, %xmm0 vpmovzxwd %xmm2, %xmm1 vpslld $31, %xmm1, %xmm6 vpextrq $1, %xmm0, %r11 vmovd %xmm0, %r15 vpextrq $1, %xmm5, %rcx vmovd %xmm5, %rdx vpextrq $1, %xmm4, %r8 vmovd %xmm4, %r9 vpaddq %xmm7, %xmm8, %xmm4 vpsrad $31, %xmm6, %xmm0 vpunpckhwd %xmm0, %xmm2, %xmm1 vpslld $31, %xmm1, %xmm1 vpsrad $31, %xmm1, %xmm1 vinsertf128 $1, %xmm1, %ymm0, %ymm0 vpextrq $1, %xmm4, %r10 vmovd %xmm4, %r14 vmovdqa 3776(%rbx), %ymm1 vptest %ymm1, %ymm0 jb .LBB1_9070 vpextrb $0, %xmm2, %eax vpextrb $2, %xmm2, %edi vpextrb $4, %xmm2, %esi testb $1, %al je .LBB1_9075 vmovaps 30048(%rbx), %ymm0 vmovsd %xmm0, (%r13,%rdx,8) .LBB1_9075: vpextrb $6, %xmm2, %edx testb $1, %dil vmovdqa %ymm11, %ymm8 je .LBB1_9077 vmovaps 29088(%rbx), %xmm0 vmovsd %xmm0, (%r13,%rcx,8) .LBB1_9077: vpextrb $8, %xmm2, %ecx testb $1, %sil je .LBB1_9079 vmovaps 29216(%rbx), %xmm0 vmovsd %xmm0, (%r13,%r15,8) .LBB1_9079: vpextrb $10, %xmm2, %eax testb $1, %dl je .LBB1_9081 vmovaps 29120(%rbx), %xmm0 vmovsd %xmm0, (%r13,%r11,8) .LBB1_9081: vpextrb $12, %xmm2, %edx testb $1, %cl je .LBB1_9083 vmovaps 30080(%rbx), %ymm0 vmovsd %xmm0, (%r13,%r14,8) .LBB1_9083: vpextrb $14, %xmm2, %ecx testb $1, %al je .LBB1_9085 vmovaps 29152(%rbx), %xmm0 vmovsd %xmm0, (%r13,%r10,8) .LBB1_9085: testb $1, %dl je .LBB1_9087 vmovaps 29248(%rbx), %xmm0 vmovsd %xmm0, (%r13,%r9,8) .LBB1_9087: testb $1, %cl je .LBB1_9071 vmovaps 29184(%rbx), %xmm0 vmovsd %xmm0, (%r13,%r8,8) jmp .LBB1_9071 .LBB1_9070: vmovaps 30048(%rbx), %ymm0 vmovsd %xmm0, (%r13,%rdx,8) vmovaps 29088(%rbx), %xmm0 vmovsd %xmm0, (%r13,%rcx,8) vmovaps 29216(%rbx), %xmm0 vmovsd %xmm0, (%r13,%r15,8) vmovaps 29120(%rbx), %xmm0 vmovsd %xmm0, (%r13,%r11,8) vmovaps 30080(%rbx), %ymm0 vmovsd %xmm0, (%r13,%r14,8) vmovaps 29152(%rbx), %xmm0 vmovsd %xmm0, (%r13,%r10,8) vmovaps 29248(%rbx), %xmm0 vmovsd %xmm0, (%r13,%r9,8) vmovaps 29184(%rbx), %xmm0 vmovsd %xmm0, (%r13,%r8,8) vmovdqa %ymm11, %ymm8 .LBB1_9071: cmpl $0, 30880(%rbx) movq 32632(%rbx), %r15 vmovdqa %ymm12, %ymm11 je .LBB1_9139 movq 22456(%rbx), %rax movq 32192(%rbx), %rcx movq $0, (%rax,%rcx,8) movq 32256(%rbx), %rcx movq $0, (%rax,%rcx,8) movq 32224(%rbx), %rcx movq $0, (%rax,%rcx,8) movq 32288(%rbx), %rcx movq $0, (%rax,%rcx,8) movq 32320(%rbx), %rcx movq $0, (%rax,%rcx,8) movq 32384(%rbx), %rcx movq $0, (%rax,%rcx,8) movq 32352(%rbx), %rcx movq $0, (%rax,%rcx,8) movq 32416(%rbx), %rcx movq $0, (%rax,%rcx,8) movq 32832(%rbx), %r10 movq $0, (%r15,%r10,8) movq 32864(%rbx), %r9 movq $0, (%r15,%r9,8) movq 32736(%rbx), %r8 movq $0, (%r15,%r8,8) movq 32800(%rbx), %rdi movq $0, (%r15,%rdi,8) movq 32896(%rbx), %rsi movq $0, (%r15,%rsi,8) movq 32928(%rbx), %rdx movq $0, (%r15,%rdx,8) movq 32960(%rbx), %rcx movq $0, (%r15,%rcx,8) movq 32992(%rbx), %rax movq $0, (%r15,%rax,8) movq $0, (%r13,%r10,8) movq $0, (%r13,%r9,8) movq $0, (%r13,%r8,8) movq $0, (%r13,%rdi,8) movq $0, (%r13,%rsi,8) movq $0, (%r13,%rdx,8) movq $0, (%r13,%rcx,8) movq $0, (%r13,%rax,8) movq 31936(%rbx), %rax movq $0, (%r15,%rax,8) movq 31968(%rbx), %rax movq $0, (%r15,%rax,8) movq 32096(%rbx), %rax movq $0, (%r15,%rax,8) movq 32128(%rbx), %rax movq $0, (%r15,%rax,8) movq 32160(%rbx), %rax movq $0, (%r15,%rax,8) movq 32000(%rbx), %rax movq $0, (%r15,%rax,8) movq 32032(%rbx), %rax movq $0, (%r15,%rax,8) movq 32064(%rbx), %rax movq $0, (%r15,%rax,8) vmovdqa .LCPI1_14(%rip), %xmm5 jmp .LBB1_9203 .LBB1_9139: movl 31584(%rbx), %edi testb $1, %dil movq 22456(%rbx), %rax vmovdqa .LCPI1_14(%rip), %xmm5 movl 31424(%rbx), %r8d movl 31392(%rbx), %r9d movl 31360(%rbx), %r10d movl 31328(%rbx), %edx movl 31616(%rbx), %esi je .LBB1_9141 movq 32192(%rbx), %rcx movq $0, (%rax,%rcx,8) .LBB1_9141: movl 31872(%rbx), %ecx testb $1, %cl je .LBB1_9143 movq 32256(%rbx), %rcx movq $0, (%rax,%rcx,8) .LBB1_9143: movl 31904(%rbx), %ecx testb $1, %cl je .LBB1_9145 movq 32224(%rbx), %rcx movq $0, (%rax,%rcx,8) .LBB1_9145: testb $1, %sil je .LBB1_9147 movq 32288(%rbx), %rcx movq $0, (%rax,%rcx,8) .LBB1_9147: testb $1, %dl je .LBB1_9149 movq 32320(%rbx), %rcx movq $0, (%rax,%rcx,8) .LBB1_9149: testb $1, %r9b je .LBB1_9151 movq 32384(%rbx), %rcx movq $0, (%rax,%rcx,8) .LBB1_9151: testb $1, %r10b je .LBB1_9153 movq 32352(%rbx), %rcx movq $0, (%rax,%rcx,8) .LBB1_9153: testb $1, %r8b je .LBB1_9155 movq 32416(%rbx), %rcx movq $0, (%rax,%rcx,8) .LBB1_9155: testb $1, %dil je .LBB1_9157 movq 32832(%rbx), %rax movq $0, (%r15,%rax,8) .LBB1_9157: movl 31872(%rbx), %eax testb $1, %al je .LBB1_9159 movq 32864(%rbx), %rax movq $0, (%r15,%rax,8) .LBB1_9159: movl 31904(%rbx), %eax testb $1, %al je .LBB1_9161 movq 32736(%rbx), %rax movq $0, (%r15,%rax,8) .LBB1_9161: testb $1, %sil je .LBB1_9163 movq 32800(%rbx), %rax movq $0, (%r15,%rax,8) .LBB1_9163: testb $1, %dl je .LBB1_9165 movq 32896(%rbx), %rax movq $0, (%r15,%rax,8) .LBB1_9165: testb $1, %r9b je .LBB1_9167 movq 32928(%rbx), %rax movq $0, (%r15,%rax,8) .LBB1_9167: testb $1, %r10b je .LBB1_9169 movq 32960(%rbx), %rax movq $0, (%r15,%rax,8) .LBB1_9169: testb $1, %r8b je .LBB1_9171 movq 32992(%rbx), %rax movq $0, (%r15,%rax,8) .LBB1_9171: testb $1, %dil je .LBB1_9173 movq 32832(%rbx), %rax movq $0, (%r13,%rax,8) .LBB1_9173: movl 31872(%rbx), %eax testb $1, %al je .LBB1_9175 movq 32864(%rbx), %rax movq $0, (%r13,%rax,8) .LBB1_9175: movl 31904(%rbx), %eax testb $1, %al je .LBB1_9177 movq 32736(%rbx), %rax movq $0, (%r13,%rax,8) .LBB1_9177: testb $1, %sil je .LBB1_9179 movq 32800(%rbx), %rax movq $0, (%r13,%rax,8) .LBB1_9179: testb $1, %dl je .LBB1_9181 movq 32896(%rbx), %rax movq $0, (%r13,%rax,8) .LBB1_9181: testb $1, %r9b je .LBB1_9183 movq 32928(%rbx), %rax movq $0, (%r13,%rax,8) .LBB1_9183: testb $1, %r10b je .LBB1_9185 movq 32960(%rbx), %rax movq $0, (%r13,%rax,8) .LBB1_9185: testb $1, %r8b je .LBB1_9187 movq 32992(%rbx), %rax movq $0, (%r13,%rax,8) .LBB1_9187: testb $1, %dil je .LBB1_9189 movq 31936(%rbx), %rax movq $0, (%r15,%rax,8) .LBB1_9189: movl 31872(%rbx), %eax testb $1, %al je .LBB1_9191 movq 31968(%rbx), %rax movq $0, (%r15,%rax,8) .LBB1_9191: movl 31904(%rbx), %eax testb $1, %al je .LBB1_9193 movq 32096(%rbx), %rax movq $0, (%r15,%rax,8) .LBB1_9193: testb $1, %sil je .LBB1_9195 movq 32128(%rbx), %rax movq $0, (%r15,%rax,8) .LBB1_9195: testb $1, %dl je .LBB1_9197 movq 32160(%rbx), %rax movq $0, (%r15,%rax,8) .LBB1_9197: testb $1, %r9b je .LBB1_9199 movq 32000(%rbx), %rax movq $0, (%r15,%rax,8) .LBB1_9199: testb $1, %r10b je .LBB1_9201 movq 32032(%rbx), %rax movq $0, (%r15,%rax,8) .LBB1_9201: testb $1, %r8b je .LBB1_9203 movq 32064(%rbx), %rax movq $0, (%r15,%rax,8) .LBB1_9203: vpxor %xmm2, %xmm2, %xmm2 cmpl $0, 30848(%rbx) jne .LBB1_9222 vpmovzxwd %xmm10, %xmm0 vpslld $31, %xmm0, %xmm0 vpsrad $31, %xmm0, %xmm0 vpunpckhwd %xmm0, %xmm10, %xmm1 vpslld $31, %xmm1, %xmm1 vpsrad $31, %xmm1, %xmm1 vinsertf128 $1, %xmm1, %ymm0, %ymm0 vmovdqa 3232(%rbx), %ymm1 vptest %ymm1, %ymm0 jb .LBB1_9205 movl 30976(%rbx), %eax testb $1, %al je .LBB1_9208 movq 32448(%rbx), %rax movq $0, (%r13,%rax,8) .LBB1_9208: movl 31040(%rbx), %eax testb $1, %al je .LBB1_9210 movq 32480(%rbx), %rax movq $0, (%r13,%rax,8) .LBB1_9210: movl 31008(%rbx), %eax testb $1, %al je .LBB1_9212 movq 32544(%rbx), %rax movq $0, (%r13,%rax,8) .LBB1_9212: movl 31168(%rbx), %eax testb $1, %al je .LBB1_9214 movq 32576(%rbx), %rax movq $0, (%r13,%rax,8) .LBB1_9214: movl 31072(%rbx), %eax testb $1, %al je .LBB1_9216 movq 32640(%rbx), %rax movq $0, (%r13,%rax,8) .LBB1_9216: movl 31200(%rbx), %eax testb $1, %al je .LBB1_9218 movq 32672(%rbx), %rax movq $0, (%r13,%rax,8) .LBB1_9218: movl 31232(%rbx), %eax testb $1, %al je .LBB1_9220 movq 32704(%rbx), %rax movq $0, (%r13,%rax,8) .LBB1_9220: movl 31264(%rbx), %eax testb $1, %al vmovdqa %xmm10, %xmm2 je .LBB1_9222 jmp .LBB1_9221 .LBB1_9205: movq 32448(%rbx), %rax movq $0, (%r13,%rax,8) movq 32480(%rbx), %rax movq $0, (%r13,%rax,8) movq 32544(%rbx), %rax movq $0, (%r13,%rax,8) movq 32576(%rbx), %rax movq $0, (%r13,%rax,8) movq 32640(%rbx), %rax movq $0, (%r13,%rax,8) movq 32672(%rbx), %rax movq $0, (%r13,%rax,8) movq 32704(%rbx), %rax movq $0, (%r13,%rax,8) .LBB1_9221: movq 32512(%rbx), %rax movq $0, (%r13,%rax,8) vmovdqa %xmm10, %xmm2 .LBB1_9222: vpor 30688(%rbx), %xmm2, %xmm2 vpunpckhwd %xmm0, %xmm2, %xmm0 vpslld $31, %xmm0, %xmm4 vmovdqa 30944(%rbx), %xmm0 vpaddq %xmm5, %xmm0, %xmm0 vpmovzxwd %xmm2, %xmm1 vpslld $31, %xmm1, %xmm1 vpsrad $31, %xmm1, %xmm6 vpextrq $1, %xmm0, %r14 vmovd %xmm0, %rcx vpaddq %xmm5, %xmm11, %xmm7 vpsrad $31, %xmm4, %xmm0 vpaddq %xmm5, %xmm8, %xmm4 vmovdqa 30912(%rbx), %xmm1 vpaddq %xmm5, %xmm1, %xmm1 vinsertf128 $1, %xmm0, %ymm6, %ymm6 vpextrq $1, %xmm7, %r9 vmovd %xmm7, %rdi vpextrq $1, %xmm1, %rdx vmovd %xmm1, %rsi vpextrq $1, %xmm4, %rax vmovd %xmm4, %r8 vmovdqa 3744(%rbx), %ymm0 vptest %ymm0, %ymm6 jb .LBB1_9223 movq %r8, 30560(%rbx) movq %r14, 30528(%rbx) movq %rax, 27488(%rbx) vpextrb $0, %xmm2, %r11d vpextrb $2, %xmm2, %r10d vpextrb $4, %xmm2, %eax movl %eax, 27456(%rbx) testb $1, %r11b je .LBB1_9226 vmovdqa 26592(%rbx), %ymm0 vmovsd %xmm0, (%r15,%rdi,8) .LBB1_9226: movq %rdi, 27776(%rbx) vpextrb $6, %xmm2, %edi testb $1, %r10b vmovdqa %xmm5, %xmm1 je .LBB1_9228 vmovdqa 23200(%rbx), %xmm0 vmovsd %xmm0, (%r15,%r9,8) .LBB1_9228: movq %r9, 27808(%rbx) vpextrb $8, %xmm2, %r12d movl 27456(%rbx), %eax testb $1, %al je .LBB1_9230 vmovdqa 24544(%rbx), %xmm0 vmovsd %xmm0, (%r15,%rcx,8) .LBB1_9230: movq %rcx, 30496(%rbx) vpextrb $10, %xmm2, %eax movl %eax, 27424(%rbx) testb $1, %dil je .LBB1_9232 vmovdqa 23264(%rbx), %xmm0 movq 30528(%rbx), %rax vmovsd %xmm0, (%r15,%rax,8) .LBB1_9232: movq %rsi, %r14 vpextrb $12, %xmm2, %r8d testb $1, %r12b je .LBB1_9234 vmovdqa 26656(%rbx), %ymm0 movq 30560(%rbx), %rax vmovsd %xmm0, (%r15,%rax,8) .LBB1_9234: vpextrb $14, %xmm2, %r9d movl 27424(%rbx), %eax testb $1, %al je .LBB1_9236 vmovdqa 23328(%rbx), %xmm0 movq 27488(%rbx), %rcx vmovsd %xmm0, (%r15,%rcx,8) .LBB1_9236: testb $1, %r8b je .LBB1_9238 vmovdqa 24608(%rbx), %xmm0 vmovsd %xmm0, (%r15,%r14,8) .LBB1_9238: testb $1, %r9b je .LBB1_9240 vmovdqa 23360(%rbx), %xmm0 vmovsd %xmm0, (%r15,%rdx,8) .LBB1_9240: testb $1, %r11b je .LBB1_9242 vmovdqa 26624(%rbx), %ymm0 movq 27776(%rbx), %rax vmovsd %xmm0, (%r13,%rax,8) .LBB1_9242: testb $1, %r10b je .LBB1_9244 vmovdqa 23136(%rbx), %xmm0 movq 27808(%rbx), %rax vmovsd %xmm0, (%r13,%rax,8) .LBB1_9244: movl 27456(%rbx), %eax testb $1, %al je .LBB1_9246 vmovdqa 24512(%rbx), %xmm0 movq 30496(%rbx), %rax vmovsd %xmm0, (%r13,%rax,8) .LBB1_9246: testb $1, %dil je .LBB1_9248 vmovdqa 23168(%rbx), %xmm0 movq 30528(%rbx), %rax vmovsd %xmm0, (%r13,%rax,8) .LBB1_9248: testb $1, %r12b je .LBB1_9250 vmovdqa 26688(%rbx), %ymm0 movq 30560(%rbx), %rax vmovsd %xmm0, (%r13,%rax,8) .LBB1_9250: movl 27424(%rbx), %eax testb $1, %al je .LBB1_9252 vmovdqa 23232(%rbx), %xmm0 movq 27488(%rbx), %rcx vmovsd %xmm0, (%r13,%rcx,8) .LBB1_9252: testb $1, %r8b je .LBB1_9254 vmovdqa 24576(%rbx), %xmm0 vmovsd %xmm0, (%r13,%r14,8) .LBB1_9254: testb $1, %r9b je .LBB1_9256 vmovdqa 23296(%rbx), %xmm0 vmovsd %xmm0, (%r13,%rdx,8) .LBB1_9256: vextractf128 $1, %ymm13, %xmm0 vpaddq %xmm1, %xmm0, %xmm4 vpaddq %xmm1, %xmm13, %xmm6 testb $1, %r11b je .LBB1_9258 vinsertf128 $1, %xmm4, %ymm6, %ymm0 vmovd %xmm0, %rcx vmovapd 21312(%rbx), %ymm0 vmovsd %xmm0, (%r15,%rcx,8) .LBB1_9258: testb $1, %r10b je .LBB1_9260 vpextrq $1, %xmm6, %rcx vmovapd 19712(%rbx), %xmm0 vmovsd %xmm0, (%r15,%rcx,8) .LBB1_9260: movl 27456(%rbx), %eax testb $1, %al je .LBB1_9262 vmovd %xmm4, %rcx vmovapd 20672(%rbx), %xmm0 vmovsd %xmm0, (%r15,%rcx,8) .LBB1_9262: testb $1, %dil je .LBB1_9264 vpextrq $1, %xmm4, %rcx vmovapd 19744(%rbx), %xmm0 vmovsd %xmm0, (%r15,%rcx,8) .LBB1_9264: movq %rdx, 27264(%rbx) vpaddq %xmm1, %xmm14, %xmm4 testb $1, %r12b je .LBB1_9266 vmovd %xmm4, %rax vmovapd 21344(%rbx), %ymm0 vmovsd %xmm0, (%r15,%rax,8) .LBB1_9266: vextractf128 $1, %ymm14, %xmm6 movl 27424(%rbx), %eax testb $1, %al je .LBB1_9268 vpextrq $1, %xmm4, %rax vmovapd 19776(%rbx), %xmm0 vmovsd %xmm0, (%r15,%rax,8) .LBB1_9268: vpaddq .LCPI1_14(%rip), %xmm6, %xmm4 testb $1, %r8b je .LBB1_9270 vmovd %xmm4, %rax vmovapd 20704(%rbx), %xmm0 vmovsd %xmm0, (%r15,%rax,8) .LBB1_9270: testb $1, %r9b je .LBB1_9273 vpextrq $1, %xmm4, %rax vmovapd 19808(%rbx), %xmm0 jmp .LBB1_9272 .LBB1_9223: movq %r12, 31456(%rbx) vmovaps 26592(%rbx), %ymm0 vmovsd %xmm0, (%r15,%rdi,8) vmovaps 23200(%rbx), %xmm0 vmovsd %xmm0, (%r15,%r9,8) vmovaps 24544(%rbx), %xmm0 vmovsd %xmm0, (%r15,%rcx,8) vmovaps 23264(%rbx), %xmm0 vmovsd %xmm0, (%r15,%r14,8) vmovaps 26656(%rbx), %ymm0 vmovsd %xmm0, (%r15,%r8,8) vmovaps 23328(%rbx), %xmm0 vmovsd %xmm0, (%r15,%rax,8) vmovaps 24608(%rbx), %xmm0 vmovsd %xmm0, (%r15,%rsi,8) vextractf128 $1, %ymm14, %xmm6 vextractf128 $1, %ymm13, %xmm0 vpaddq %xmm5, %xmm0, %xmm4 vmovaps 23360(%rbx), %xmm0 vmovsd %xmm0, (%r15,%rdx,8) vmovaps 26624(%rbx), %ymm0 vmovsd %xmm0, (%r13,%rdi,8) movq %rdi, 27776(%rbx) vpaddq %xmm5, %xmm14, %xmm7 vpaddq %xmm5, %xmm6, %xmm0 vpaddq %xmm5, %xmm13, %xmm6 vpextrq $1, %xmm0, %rdi movq %rdi, 27456(%rbx) movq %rcx, 30496(%rbx) movq %r9, %rdi movq %rdi, 27808(%rbx) vmovd %xmm0, %r9 vmovaps 23136(%rbx), %xmm0 vmovsd %xmm0, (%r13,%rdi,8) movq %rax, 27488(%rbx) vpextrq $1, %xmm7, %r10 vmovaps 24512(%rbx), %xmm0 vmovsd %xmm0, (%r13,%rcx,8) vmovd %xmm7, %r11 vmovaps 23168(%rbx), %xmm0 vmovsd %xmm0, (%r13,%r14,8) movq %r14, 30528(%rbx) vpextrq $1, %xmm4, %r12 vmovaps 26688(%rbx), %ymm0 vmovsd %xmm0, (%r13,%r8,8) movq %r8, 30560(%rbx) vmovd %xmm4, %rdi vmovaps 23232(%rbx), %xmm0 vmovsd %xmm0, (%r13,%rax,8) vpextrq $1, %xmm6, %rcx vmovaps 24576(%rbx), %xmm0 vmovsd %xmm0, (%r13,%rsi,8) movq %rsi, %r14 movq %rdx, 27264(%rbx) vmovd %xmm6, %rsi vmovaps 23296(%rbx), %xmm0 vmovsd %xmm0, (%r13,%rdx,8) vmovaps 21312(%rbx), %ymm0 vmovsd %xmm0, (%r15,%rsi,8) vmovaps 19712(%rbx), %xmm0 vmovsd %xmm0, (%r15,%rcx,8) vmovaps 20672(%rbx), %xmm0 vmovsd %xmm0, (%r15,%rdi,8) vmovaps 19744(%rbx), %xmm0 vmovsd %xmm0, (%r15,%r12,8) vmovaps 21344(%rbx), %ymm0 vmovsd %xmm0, (%r15,%r11,8) vmovaps 19776(%rbx), %xmm0 vmovsd %xmm0, (%r15,%r10,8) vmovaps 20704(%rbx), %xmm0 vmovsd %xmm0, (%r15,%r9,8) vmovapd 19808(%rbx), %xmm0 movq 27456(%rbx), %rax .LBB1_9272: vmovsd %xmm0, (%r15,%rax,8) .LBB1_9273: movq %r14, 27232(%rbx) vmovdqa %ymm8, %ymm12 vpand 31296(%rbx), %xmm2, %xmm2 vpxor .LCPI1_17(%rip), %xmm2, %xmm0 vpmovzxwd %xmm0, %xmm1 vpslld $31, %xmm1, %xmm1 vpsrad $31, %xmm1, %xmm1 vpunpckhwd %xmm0, %xmm0, %xmm0 vpslld $31, %xmm0, %xmm0 vpsrad $31, %xmm0, %xmm0 vinsertf128 $1, %xmm0, %ymm1, %ymm0 vmovdqa 3712(%rbx), %ymm1 vptest %ymm1, %ymm0 jb .LBB1_9292 vmovaps 31680(%rbx), %ymm6 vextractf128 $1, %ymm6, %xmm0 vmovaps 31712(%rbx), %ymm8 vextractf128 $1, %ymm8, %xmm1 vmovdqa .LCPI1_14(%rip), %xmm5 vpaddq %xmm5, %xmm1, %xmm4 vpaddq %xmm5, %xmm6, %xmm7 vpaddq %xmm5, %xmm0, %xmm0 vpmovzxwd %xmm2, %xmm1 vpslld $31, %xmm1, %xmm6 vpextrq $1, %xmm0, %r11 vmovd %xmm0, %rax vpextrq $1, %xmm7, %rsi vmovd %xmm7, %rdi vpextrq $1, %xmm4, %r9 vmovd %xmm4, %r12 vpaddq %xmm5, %xmm8, %xmm4 vpsrad $31, %xmm6, %xmm0 vpunpckhwd %xmm0, %xmm2, %xmm1 vpslld $31, %xmm1, %xmm1 vpsrad $31, %xmm1, %xmm1 vinsertf128 $1, %xmm1, %ymm0, %ymm0 vpextrq $1, %xmm4, %r10 vmovd %xmm4, %r14 vmovdqa 3680(%rbx), %ymm1 vptest %ymm1, %ymm0 jb .LBB1_9275 movq %r15, %r8 movq %r13, %r15 vpextrb $0, %xmm2, %r13d vpextrb $2, %xmm2, %edx vpextrb $4, %xmm2, %ecx testb $1, %r13b movq %r15, %r13 je .LBB1_9278 vmovaps 30784(%rbx), %ymm0 vmovsd %xmm0, (%r13,%rdi,8) .LBB1_9278: vpextrb $6, %xmm2, %edi testb $1, %dl movq %r8, %r15 je .LBB1_9280 vmovaps 29280(%rbx), %xmm0 vmovsd %xmm0, (%r13,%rsi,8) .LBB1_9280: vpextrb $8, %xmm2, %esi testb $1, %cl je .LBB1_9282 vmovaps 30112(%rbx), %xmm0 vmovsd %xmm0, (%r13,%rax,8) .LBB1_9282: vpextrb $10, %xmm2, %eax testb $1, %dil je .LBB1_9284 vmovaps 29312(%rbx), %xmm0 vmovsd %xmm0, (%r13,%r11,8) .LBB1_9284: vpextrb $12, %xmm2, %ecx testb $1, %sil je .LBB1_9286 vmovaps 30176(%rbx), %ymm0 vmovsd %xmm0, (%r13,%r14,8) .LBB1_9286: vpextrb $14, %xmm2, %edx testb $1, %al je .LBB1_9288 vmovaps 29344(%rbx), %xmm0 vmovsd %xmm0, (%r13,%r10,8) .LBB1_9288: testb $1, %cl je .LBB1_9290 vmovaps 30144(%rbx), %xmm0 vmovsd %xmm0, (%r13,%r12,8) .LBB1_9290: testb $1, %dl je .LBB1_9292 jmp .LBB1_9291 .LBB1_9275: vmovaps 30784(%rbx), %ymm0 vmovsd %xmm0, (%r13,%rdi,8) vmovaps 29280(%rbx), %xmm0 vmovsd %xmm0, (%r13,%rsi,8) vmovaps 30112(%rbx), %xmm0 vmovsd %xmm0, (%r13,%rax,8) vmovaps 29312(%rbx), %xmm0 vmovsd %xmm0, (%r13,%r11,8) vmovaps 30176(%rbx), %ymm0 vmovsd %xmm0, (%r13,%r14,8) vmovaps 29344(%rbx), %xmm0 vmovsd %xmm0, (%r13,%r10,8) vmovaps 30144(%rbx), %xmm0 vmovsd %xmm0, (%r13,%r12,8) .LBB1_9291: vmovaps 29376(%rbx), %xmm0 vmovsd %xmm0, (%r13,%r9,8) .LBB1_9292: cmpl $0, 30592(%rbx) vmovdqa .LCPI1_16(%rip), %xmm5 movq 22456(%rbx), %rdx vmovdqa %ymm12, %ymm8 movl 31584(%rbx), %r14d movq 27264(%rbx), %r12 movq 27488(%rbx), %r10 jne .LBB1_9343 vmovdqa 30816(%rbx), %xmm1 vpmovzxwd %xmm1, %xmm0 vpslld $31, %xmm0, %xmm0 vpsrad $31, %xmm0, %xmm0 vpunpckhwd %xmm0, %xmm1, %xmm1 vpslld $31, %xmm1, %xmm1 vpsrad $31, %xmm1, %xmm1 vinsertf128 $1, %xmm1, %ymm0, %ymm0 vmovdqa 3264(%rbx), %ymm1 vptest %ymm1, %ymm0 jb .LBB1_9294 movq %r12, %r8 movl 31744(%rbx), %eax testb $1, %al movl 31520(%rbx), %edi je .LBB1_9297 vmovaps 26592(%rbx), %ymm0 movq 27776(%rbx), %rax vmovsd %xmm0, (%r15,%rax,8) .LBB1_9297: movl 31776(%rbx), %eax testb $1, %al movl 31648(%rbx), %r12d movl 31488(%rbx), %r9d movl 31552(%rbx), %r11d movq 30528(%rbx), %rcx je .LBB1_9299 vmovaps 23200(%rbx), %xmm0 movq 27808(%rbx), %rax vmovsd %xmm0, (%r15,%rax,8) .LBB1_9299: movl 31808(%rbx), %eax testb $1, %al vmovdqa .LCPI1_14(%rip), %xmm1 je .LBB1_9301 vmovaps 24544(%rbx), %xmm0 movq 30496(%rbx), %rax vmovsd %xmm0, (%r15,%rax,8) .LBB1_9301: movl 31840(%rbx), %eax testb $1, %al movl %r14d, %edx je .LBB1_9303 vmovaps 23264(%rbx), %xmm0 vmovsd %xmm0, (%r15,%rcx,8) .LBB1_9303: testb $1, %dil movq 27232(%rbx), %rsi je .LBB1_9305 vmovaps 26656(%rbx), %ymm0 movq 30560(%rbx), %rax vmovsd %xmm0, (%r15,%rax,8) .LBB1_9305: testb $1, %r11b je .LBB1_9307 vmovaps 23328(%rbx), %xmm0 vmovsd %xmm0, (%r15,%r10,8) .LBB1_9307: testb $1, %r9b je .LBB1_9309 vmovaps 24608(%rbx), %xmm0 vmovsd %xmm0, (%r15,%rsi,8) .LBB1_9309: testb $1, %r12b je .LBB1_9311 vmovaps 23360(%rbx), %xmm0 vmovsd %xmm0, (%r15,%r8,8) .LBB1_9311: movl 31744(%rbx), %eax testb $1, %al je .LBB1_9313 vmovaps 26624(%rbx), %ymm0 movq 27776(%rbx), %rax vmovsd %xmm0, (%r13,%rax,8) .LBB1_9313: movl 31776(%rbx), %eax testb $1, %al je .LBB1_9315 vmovaps 23136(%rbx), %xmm0 movq 27808(%rbx), %rax vmovsd %xmm0, (%r13,%rax,8) .LBB1_9315: movl %edx, %r14d movl 31808(%rbx), %eax testb $1, %al je .LBB1_9317 vmovaps 24512(%rbx), %xmm0 movq 30496(%rbx), %rax vmovsd %xmm0, (%r13,%rax,8) .LBB1_9317: movl 31840(%rbx), %eax testb $1, %al je .LBB1_9319 vmovaps 23168(%rbx), %xmm0 vmovsd %xmm0, (%r13,%rcx,8) .LBB1_9319: testb $1, %dil je .LBB1_9321 vmovaps 26688(%rbx), %ymm0 movq 30560(%rbx), %rax vmovsd %xmm0, (%r13,%rax,8) .LBB1_9321: testb $1, %r11b je .LBB1_9323 vmovaps 23232(%rbx), %xmm0 vmovsd %xmm0, (%r13,%r10,8) .LBB1_9323: testb $1, %r9b je .LBB1_9325 vmovaps 24576(%rbx), %xmm0 vmovsd %xmm0, (%r13,%rsi,8) .LBB1_9325: testb $1, %r12b je .LBB1_9327 vmovaps 23296(%rbx), %xmm0 vmovsd %xmm0, (%r13,%r8,8) .LBB1_9327: vextractf128 $1, %ymm13, %xmm0 vpaddq %xmm1, %xmm0, %xmm2 vpaddq %xmm1, %xmm13, %xmm4 movl 31744(%rbx), %eax testb $1, %al je .LBB1_9329 vinsertf128 $1, %xmm2, %ymm4, %ymm0 vmovd %xmm0, %rax vmovapd 21312(%rbx), %ymm0 vmovsd %xmm0, (%r15,%rax,8) .LBB1_9329: movl 31776(%rbx), %eax testb $1, %al je .LBB1_9331 vpextrq $1, %xmm4, %rax vmovapd 19712(%rbx), %xmm0 vmovsd %xmm0, (%r15,%rax,8) .LBB1_9331: movl 31808(%rbx), %eax testb $1, %al je .LBB1_9333 vmovd %xmm2, %rax vmovapd 20672(%rbx), %xmm0 vmovsd %xmm0, (%r15,%rax,8) .LBB1_9333: movl 31840(%rbx), %eax testb $1, %al je .LBB1_9335 vpextrq $1, %xmm2, %rax vmovapd 19744(%rbx), %xmm0 vmovsd %xmm0, (%r15,%rax,8) .LBB1_9335: vpaddq %xmm1, %xmm14, %xmm2 testb $1, %dil je .LBB1_9337 vmovd %xmm2, %rax vmovapd 21344(%rbx), %ymm0 vmovsd %xmm0, (%r15,%rax,8) .LBB1_9337: vextractf128 $1, %ymm14, %xmm4 testb $1, %r11b je .LBB1_9339 vpextrq $1, %xmm2, %rax vmovapd 19776(%rbx), %xmm0 vmovsd %xmm0, (%r15,%rax,8) .LBB1_9339: vpaddq %xmm1, %xmm4, %xmm2 testb $1, %r9b movq 22456(%rbx), %rdx je .LBB1_9341 vmovd %xmm2, %rax vmovapd 20704(%rbx), %xmm0 vmovsd %xmm0, (%r15,%rax,8) .LBB1_9341: testb $1, %r12b je .LBB1_9343 vpextrq $1, %xmm2, %rax vmovaps 19808(%rbx), %xmm0 vmovsd %xmm0, (%r15,%rax,8) jmp .LBB1_9343 .LBB1_9294: vmovaps 26592(%rbx), %ymm0 movq 27776(%rbx), %rdx vmovsd %xmm0, (%r15,%rdx,8) vmovaps 23200(%rbx), %xmm0 movq 27808(%rbx), %rcx vmovsd %xmm0, (%r15,%rcx,8) vmovaps 24544(%rbx), %xmm0 movq 30496(%rbx), %rsi vmovsd %xmm0, (%r15,%rsi,8) vmovaps 23264(%rbx), %xmm0 movq 30528(%rbx), %rax vmovsd %xmm0, (%r15,%rax,8) vmovaps 26656(%rbx), %ymm0 movl %r14d, %r11d movq 30560(%rbx), %r14 vmovsd %xmm0, (%r15,%r14,8) vmovaps 23328(%rbx), %xmm0 vmovsd %xmm0, (%r15,%r10,8) vmovaps 24608(%rbx), %xmm0 movq 27232(%rbx), %rdi vmovsd %xmm0, (%r15,%rdi,8) vextractf128 $1, %ymm14, %xmm4 vextractf128 $1, %ymm13, %xmm0 vmovdqa .LCPI1_14(%rip), %xmm1 vpaddq %xmm1, %xmm0, %xmm2 vmovaps 23360(%rbx), %xmm0 vmovsd %xmm0, (%r15,%r12,8) vmovaps 26624(%rbx), %ymm0 vmovsd %xmm0, (%r13,%rdx,8) vpaddq %xmm1, %xmm14, %xmm6 vpaddq %xmm1, %xmm4, %xmm0 vpaddq %xmm1, %xmm13, %xmm4 vpextrq $1, %xmm0, %r8 movq %rdi, %rdx vmovd %xmm0, %r9 vmovaps 23136(%rbx), %xmm0 vmovsd %xmm0, (%r13,%rcx,8) movq %r10, %rcx vpextrq $1, %xmm6, %r10 vmovaps 24512(%rbx), %xmm0 vmovsd %xmm0, (%r13,%rsi,8) vmovd %xmm6, %rsi vmovaps 23168(%rbx), %xmm0 vmovsd %xmm0, (%r13,%rax,8) vpextrq $1, %xmm2, %rdi vmovaps 26688(%rbx), %ymm0 vmovsd %xmm0, (%r13,%r14,8) movl %r11d, %r14d vmovd %xmm2, %rax vmovaps 23232(%rbx), %xmm0 vmovsd %xmm0, (%r13,%rcx,8) vpextrq $1, %xmm4, %rcx vmovaps 24576(%rbx), %xmm0 vmovsd %xmm0, (%r13,%rdx,8) vmovd %xmm4, %rdx vmovaps 23296(%rbx), %xmm0 vmovsd %xmm0, (%r13,%r12,8) vmovaps 21312(%rbx), %ymm0 vmovsd %xmm0, (%r15,%rdx,8) vmovaps 19712(%rbx), %xmm0 vmovsd %xmm0, (%r15,%rcx,8) vmovaps 20672(%rbx), %xmm0 vmovsd %xmm0, (%r15,%rax,8) vmovaps 19744(%rbx), %xmm0 vmovsd %xmm0, (%r15,%rdi,8) vmovaps 21344(%rbx), %ymm0 vmovsd %xmm0, (%r15,%rsi,8) vmovaps 19776(%rbx), %xmm0 vmovsd %xmm0, (%r15,%r10,8) vmovaps 20704(%rbx), %xmm0 vmovsd %xmm0, (%r15,%r9,8) vmovaps 19808(%rbx), %xmm0 vmovsd %xmm0, (%r15,%r8,8) movq 22456(%rbx), %rdx .LBB1_9343: cmpl $0, 30880(%rbx) je .LBB1_9345 movq 32192(%rbx), %rax movq $0, (%rdx,%rax,8) movq 32256(%rbx), %rax movq $0, (%rdx,%rax,8) movq 32224(%rbx), %rax movq $0, (%rdx,%rax,8) movq 32288(%rbx), %rax movq $0, (%rdx,%rax,8) movq 32320(%rbx), %rax movq $0, (%rdx,%rax,8) movq 32384(%rbx), %rax movq $0, (%rdx,%rax,8) movq 32352(%rbx), %rax movq $0, (%rdx,%rax,8) movq 32416(%rbx), %rax movq $0, (%rdx,%rax,8) movq 32832(%rbx), %r10 movq $0, (%r15,%r10,8) movq 32864(%rbx), %r9 movq $0, (%r15,%r9,8) movq 32736(%rbx), %r8 movq $0, (%r15,%r8,8) movq 32800(%rbx), %rdi movq $0, (%r15,%rdi,8) movq 32896(%rbx), %rsi movq $0, (%r15,%rsi,8) movq 32928(%rbx), %rdx movq $0, (%r15,%rdx,8) movq 32960(%rbx), %rcx movq $0, (%r15,%rcx,8) movq 32992(%rbx), %rax movq $0, (%r15,%rax,8) movq $0, (%r13,%r10,8) movq $0, (%r13,%r9,8) movq $0, (%r13,%r8,8) movq $0, (%r13,%rdi,8) movq $0, (%r13,%rsi,8) movq $0, (%r13,%rdx,8) movq $0, (%r13,%rcx,8) movq $0, (%r13,%rax,8) movq 31936(%rbx), %rax movq $0, (%r15,%rax,8) movq 31968(%rbx), %rax movq $0, (%r15,%rax,8) movq 32096(%rbx), %rax movq $0, (%r15,%rax,8) movq 32128(%rbx), %rax movq $0, (%r15,%rax,8) movq 32160(%rbx), %rax movq $0, (%r15,%rax,8) movq 32000(%rbx), %rax movq $0, (%r15,%rax,8) movq 32032(%rbx), %rax movq $0, (%r15,%rax,8) jmp .LBB1_9408 .LBB1_9345: testb $1, %r14b movl 31424(%rbx), %r8d movl 31392(%rbx), %r9d movl 31360(%rbx), %esi movl 31328(%rbx), %edi movl 31616(%rbx), %ecx je .LBB1_9347 movq 32192(%rbx), %rax movq $0, (%rdx,%rax,8) .LBB1_9347: movl 31872(%rbx), %eax testb $1, %al je .LBB1_9349 movq 32256(%rbx), %rax movq $0, (%rdx,%rax,8) .LBB1_9349: movl 31904(%rbx), %eax testb $1, %al je .LBB1_9351 movq 32224(%rbx), %rax movq $0, (%rdx,%rax,8) .LBB1_9351: testb $1, %cl je .LBB1_9353 movq 32288(%rbx), %rax movq $0, (%rdx,%rax,8) .LBB1_9353: testb $1, %dil je .LBB1_9355 movq 32320(%rbx), %rax movq $0, (%rdx,%rax,8) .LBB1_9355: testb $1, %r9b je .LBB1_9357 movq 32384(%rbx), %rax movq $0, (%rdx,%rax,8) .LBB1_9357: testb $1, %sil je .LBB1_9359 movq 32352(%rbx), %rax movq $0, (%rdx,%rax,8) .LBB1_9359: testb $1, %r8b je .LBB1_9361 movq 32416(%rbx), %rax movq $0, (%rdx,%rax,8) .LBB1_9361: testb $1, %r14b je .LBB1_9363 movq 32832(%rbx), %rax movq $0, (%r15,%rax,8) .LBB1_9363: movl 31872(%rbx), %eax testb $1, %al je .LBB1_9365 movq 32864(%rbx), %rax movq $0, (%r15,%rax,8) .LBB1_9365: movl 31904(%rbx), %eax testb $1, %al je .LBB1_9367 movq 32736(%rbx), %rax movq $0, (%r15,%rax,8) .LBB1_9367: testb $1, %cl je .LBB1_9369 movq 32800(%rbx), %rax movq $0, (%r15,%rax,8) .LBB1_9369: testb $1, %dil je .LBB1_9371 movq 32896(%rbx), %rax movq $0, (%r15,%rax,8) .LBB1_9371: testb $1, %r9b je .LBB1_9373 movq 32928(%rbx), %rax movq $0, (%r15,%rax,8) .LBB1_9373: testb $1, %sil je .LBB1_9375 movq 32960(%rbx), %rax movq $0, (%r15,%rax,8) .LBB1_9375: testb $1, %r8b je .LBB1_9377 movq 32992(%rbx), %rax movq $0, (%r15,%rax,8) .LBB1_9377: testb $1, %r14b je .LBB1_9379 movq 32832(%rbx), %rax movq $0, (%r13,%rax,8) .LBB1_9379: movl 31872(%rbx), %eax testb $1, %al je .LBB1_9381 movq 32864(%rbx), %rax movq $0, (%r13,%rax,8) .LBB1_9381: movl 31904(%rbx), %eax testb $1, %al je .LBB1_9383 movq 32736(%rbx), %rax movq $0, (%r13,%rax,8) .LBB1_9383: testb $1, %cl je .LBB1_9385 movq 32800(%rbx), %rax movq $0, (%r13,%rax,8) .LBB1_9385: testb $1, %dil je .LBB1_9387 movq 32896(%rbx), %rax movq $0, (%r13,%rax,8) .LBB1_9387: testb $1, %r9b je .LBB1_9389 movq 32928(%rbx), %rax movq $0, (%r13,%rax,8) .LBB1_9389: testb $1, %sil je .LBB1_9391 movq 32960(%rbx), %rax movq $0, (%r13,%rax,8) .LBB1_9391: testb $1, %r8b je .LBB1_9393 movq 32992(%rbx), %rax movq $0, (%r13,%rax,8) .LBB1_9393: testb $1, %r14b je .LBB1_9395 movq 31936(%rbx), %rax movq $0, (%r15,%rax,8) .LBB1_9395: movl 31872(%rbx), %eax testb $1, %al je .LBB1_9397 movq 31968(%rbx), %rax movq $0, (%r15,%rax,8) .LBB1_9397: movl 31904(%rbx), %eax testb $1, %al je .LBB1_9399 movq 32096(%rbx), %rax movq $0, (%r15,%rax,8) .LBB1_9399: testb $1, %cl je .LBB1_9401 movq 32128(%rbx), %rax movq $0, (%r15,%rax,8) .LBB1_9401: testb $1, %dil je .LBB1_9403 movq 32160(%rbx), %rax movq $0, (%r15,%rax,8) .LBB1_9403: testb $1, %r9b je .LBB1_9405 movq 32000(%rbx), %rax movq $0, (%r15,%rax,8) .LBB1_9405: testb $1, %sil je .LBB1_9407 movq 32032(%rbx), %rax movq $0, (%r15,%rax,8) .LBB1_9407: testb $1, %r8b je .LBB1_9409 .LBB1_9408: movq 32064(%rbx), %rax movq $0, (%r15,%rax,8) .LBB1_9409: vpxor %xmm2, %xmm2, %xmm2 cmpl $0, 30848(%rbx) jne .LBB1_9428 vpmovzxwd %xmm10, %xmm0 vpslld $31, %xmm0, %xmm0 vpsrad $31, %xmm0, %xmm0 vpunpckhwd %xmm0, %xmm10, %xmm1 vpslld $31, %xmm1, %xmm1 vpsrad $31, %xmm1, %xmm1 vinsertf128 $1, %xmm1, %ymm0, %ymm0 vmovdqa 3296(%rbx), %ymm1 vptest %ymm1, %ymm0 jb .LBB1_9411 movl 30976(%rbx), %eax testb $1, %al je .LBB1_9414 movq 32448(%rbx), %rax movq $0, (%r13,%rax,8) .LBB1_9414: movl 31040(%rbx), %eax testb $1, %al je .LBB1_9416 movq 32480(%rbx), %rax movq $0, (%r13,%rax,8) .LBB1_9416: movl 31008(%rbx), %eax testb $1, %al je .LBB1_9418 movq 32544(%rbx), %rax movq $0, (%r13,%rax,8) .LBB1_9418: movl 31168(%rbx), %eax testb $1, %al je .LBB1_9420 movq 32576(%rbx), %rax movq $0, (%r13,%rax,8) .LBB1_9420: movl 31072(%rbx), %eax testb $1, %al je .LBB1_9422 movq 32640(%rbx), %rax movq $0, (%r13,%rax,8) .LBB1_9422: movl 31200(%rbx), %eax testb $1, %al je .LBB1_9424 movq 32672(%rbx), %rax movq $0, (%r13,%rax,8) .LBB1_9424: movl 31232(%rbx), %eax testb $1, %al je .LBB1_9426 movq 32704(%rbx), %rax movq $0, (%r13,%rax,8) .LBB1_9426: movl 31264(%rbx), %eax testb $1, %al vmovdqa %xmm10, %xmm2 je .LBB1_9428 jmp .LBB1_9427 .LBB1_9411: movq 32448(%rbx), %rax movq $0, (%r13,%rax,8) movq 32480(%rbx), %rax movq $0, (%r13,%rax,8) movq 32544(%rbx), %rax movq $0, (%r13,%rax,8) movq 32576(%rbx), %rax movq $0, (%r13,%rax,8) movq 32640(%rbx), %rax movq $0, (%r13,%rax,8) movq 32672(%rbx), %rax movq $0, (%r13,%rax,8) movq 32704(%rbx), %rax movq $0, (%r13,%rax,8) .LBB1_9427: movq 32512(%rbx), %rax movq $0, (%r13,%rax,8) vmovdqa %xmm10, %xmm2 .LBB1_9428: vpor 30688(%rbx), %xmm2, %xmm2 vpunpckhwd %xmm0, %xmm2, %xmm0 vpslld $31, %xmm0, %xmm4 vmovdqa 30944(%rbx), %xmm0 vpaddq %xmm15, %xmm0, %xmm0 vpmovzxwd %xmm2, %xmm1 vpslld $31, %xmm1, %xmm1 vpsrad $31, %xmm1, %xmm6 vpextrq $1, %xmm0, %rdi vmovd %xmm0, %r11 vpaddq %xmm15, %xmm11, %xmm7 vpsrad $31, %xmm4, %xmm0 vpaddq %xmm15, %xmm8, %xmm4 vmovdqa 30912(%rbx), %xmm1 vpaddq %xmm15, %xmm1, %xmm1 vinsertf128 $1, %xmm0, %ymm6, %ymm6 vpextrq $1, %xmm7, %r12 vmovd %xmm7, %rsi vpextrq $1, %xmm1, %r14 vmovd %xmm1, %rdx vpextrq $1, %xmm4, %rcx vmovd %xmm4, %rax vmovdqa 3648(%rbx), %ymm0 vptest %ymm0, %ymm6 jb .LBB1_9429 movq %r11, 30528(%rbx) movq %rax, 30560(%rbx) movq %rdi, 27456(%rbx) movq %r14, 27808(%rbx) vpextrb $0, %xmm2, %r11d vpextrb $2, %xmm2, %r10d vpextrb $4, %xmm2, %eax movl %eax, 27264(%rbx) testb $1, %r11b je .LBB1_9432 vmovdqa 26720(%rbx), %ymm0 vmovsd %xmm0, (%r15,%rsi,8) .LBB1_9432: vpextrb $6, %xmm2, %edi testb $1, %r10b je .LBB1_9434 vmovdqa 23424(%rbx), %xmm0 vmovsd %xmm0, (%r15,%r12,8) .LBB1_9434: movq %rsi, 27424(%rbx) movq %r12, 30496(%rbx) movq %rcx, 27488(%rbx) movq %rdx, 27776(%rbx) vpextrb $8, %xmm2, %eax movl 27264(%rbx), %ecx testb $1, %cl je .LBB1_9436 vmovdqa 24672(%rbx), %xmm0 movq 30528(%rbx), %rcx vmovsd %xmm0, (%r15,%rcx,8) .LBB1_9436: vpextrb $10, %xmm2, %r14d testb $1, %dil je .LBB1_9438 vmovdqa 23488(%rbx), %xmm0 movq 27456(%rbx), %rcx vmovsd %xmm0, (%r15,%rcx,8) .LBB1_9438: vpextrb $12, %xmm2, %r8d testb $1, %al je .LBB1_9440 vmovdqa 26784(%rbx), %ymm0 movq 30560(%rbx), %rcx vmovsd %xmm0, (%r15,%rcx,8) .LBB1_9440: vpextrb $14, %xmm2, %r9d testb $1, %r14b je .LBB1_9442 vmovdqa 23584(%rbx), %xmm0 movq 27488(%rbx), %rcx vmovsd %xmm0, (%r15,%rcx,8) .LBB1_9442: testb $1, %r8b je .LBB1_9444 vmovdqa 24736(%rbx), %xmm0 movq 27776(%rbx), %rcx vmovsd %xmm0, (%r15,%rcx,8) .LBB1_9444: testb $1, %r9b je .LBB1_9446 vmovdqa 23616(%rbx), %xmm0 movq 27808(%rbx), %rcx vmovsd %xmm0, (%r15,%rcx,8) .LBB1_9446: testb $1, %r11b je .LBB1_9448 vmovdqa 26752(%rbx), %ymm0 movq 27424(%rbx), %rcx vmovsd %xmm0, (%r13,%rcx,8) .LBB1_9448: testb $1, %r10b je .LBB1_9450 vmovdqa 23392(%rbx), %xmm0 movq 30496(%rbx), %rcx vmovsd %xmm0, (%r13,%rcx,8) .LBB1_9450: movl 27264(%rbx), %ecx testb $1, %cl je .LBB1_9452 vmovdqa 24640(%rbx), %xmm0 movq 30528(%rbx), %rcx vmovsd %xmm0, (%r13,%rcx,8) .LBB1_9452: testb $1, %dil je .LBB1_9454 vmovdqa 23456(%rbx), %xmm0 movq 27456(%rbx), %rcx vmovsd %xmm0, (%r13,%rcx,8) .LBB1_9454: testb $1, %al je .LBB1_9456 vmovdqa 26816(%rbx), %ymm0 movq 30560(%rbx), %rcx vmovsd %xmm0, (%r13,%rcx,8) .LBB1_9456: testb $1, %r14b je .LBB1_9458 vmovdqa 23520(%rbx), %xmm0 movq 27488(%rbx), %rcx vmovsd %xmm0, (%r13,%rcx,8) .LBB1_9458: testb $1, %r8b je .LBB1_9460 vmovdqa 24704(%rbx), %xmm0 movq 27776(%rbx), %rcx vmovsd %xmm0, (%r13,%rcx,8) .LBB1_9460: testb $1, %r9b je .LBB1_9462 vmovdqa 23552(%rbx), %xmm0 movq 27808(%rbx), %rcx vmovsd %xmm0, (%r13,%rcx,8) .LBB1_9462: vextractf128 $1, %ymm13, %xmm0 vpaddq %xmm15, %xmm0, %xmm4 vpaddq %xmm15, %xmm13, %xmm6 testb $1, %r11b je .LBB1_9464 vinsertf128 $1, %xmm4, %ymm6, %ymm0 vmovd %xmm0, %rcx vmovapd 21376(%rbx), %ymm0 vmovsd %xmm0, (%r15,%rcx,8) .LBB1_9464: testb $1, %r10b je .LBB1_9466 vpextrq $1, %xmm6, %rcx vmovapd 19840(%rbx), %xmm0 vmovsd %xmm0, (%r15,%rcx,8) .LBB1_9466: movl 27264(%rbx), %ecx testb $1, %cl je .LBB1_9468 vmovd %xmm4, %rcx vmovapd 20736(%rbx), %xmm0 vmovsd %xmm0, (%r15,%rcx,8) .LBB1_9468: testb $1, %dil je .LBB1_9470 vpextrq $1, %xmm4, %rcx vmovapd 19872(%rbx), %xmm0 vmovsd %xmm0, (%r15,%rcx,8) .LBB1_9470: vpaddq %xmm15, %xmm14, %xmm4 testb $1, %al je .LBB1_9472 vmovd %xmm4, %rax vmovapd 21408(%rbx), %ymm0 vmovsd %xmm0, (%r15,%rax,8) .LBB1_9472: vmovdqa %ymm11, %ymm12 vextractf128 $1, %ymm14, %xmm6 testb $1, %r14b movq 27808(%rbx), %r14 je .LBB1_9474 vpextrq $1, %xmm4, %rax vmovapd 19904(%rbx), %xmm0 vmovsd %xmm0, (%r15,%rax,8) .LBB1_9474: vpaddq %xmm15, %xmm6, %xmm4 testb $1, %r8b movq 30496(%rbx), %r12 je .LBB1_9476 vmovd %xmm4, %rax vmovapd 20768(%rbx), %xmm0 vmovsd %xmm0, (%r15,%rax,8) .LBB1_9476: testb $1, %r9b je .LBB1_9478 vpextrq $1, %xmm4, %rax vmovapd 19936(%rbx), %xmm0 vmovsd %xmm0, (%r15,%rax,8) jmp .LBB1_9478 .LBB1_9429: vmovdqa %ymm11, %ymm12 vmovaps 26720(%rbx), %ymm0 vmovsd %xmm0, (%r15,%rsi,8) vmovaps 23424(%rbx), %xmm0 vmovsd %xmm0, (%r15,%r12,8) vmovaps 24672(%rbx), %xmm0 vmovsd %xmm0, (%r15,%r11,8) vmovaps 23488(%rbx), %xmm0 vmovsd %xmm0, (%r15,%rdi,8) vmovaps 26784(%rbx), %ymm0 vmovsd %xmm0, (%r15,%rax,8) vmovaps 23584(%rbx), %xmm0 vmovsd %xmm0, (%r15,%rcx,8) vmovaps 24736(%rbx), %xmm0 vmovsd %xmm0, (%r15,%rdx,8) vextractf128 $1, %ymm14, %xmm6 vextractf128 $1, %ymm13, %xmm0 vpaddq %xmm15, %xmm0, %xmm4 vmovaps 23616(%rbx), %xmm0 vmovsd %xmm0, (%r15,%r14,8) vmovaps 26752(%rbx), %ymm0 vmovsd %xmm0, (%r13,%rsi,8) movq %rsi, 27424(%rbx) vpaddq %xmm15, %xmm14, %xmm7 vpaddq %xmm15, %xmm6, %xmm0 vpaddq %xmm15, %xmm13, %xmm6 vpextrq $1, %xmm0, %r8 movq %rdx, 27776(%rbx) movq %rcx, 27488(%rbx) vmovd %xmm0, %r9 vmovaps 23392(%rbx), %xmm0 vmovsd %xmm0, (%r13,%r12,8) movq %rdi, 27456(%rbx) vpextrq $1, %xmm7, %r10 vmovaps 24640(%rbx), %xmm0 vmovsd %xmm0, (%r13,%r11,8) movq %r11, 30528(%rbx) vmovd %xmm7, %r11 vmovaps 23456(%rbx), %xmm0 vmovsd %xmm0, (%r13,%rdi,8) vpextrq $1, %xmm4, %rdi vmovaps 26816(%rbx), %ymm0 vmovsd %xmm0, (%r13,%rax,8) movq %rax, 30560(%rbx) vmovd %xmm4, %rax vmovaps 23520(%rbx), %xmm0 vmovsd %xmm0, (%r13,%rcx,8) vpextrq $1, %xmm6, %rcx vmovaps 24704(%rbx), %xmm0 vmovsd %xmm0, (%r13,%rdx,8) vmovd %xmm6, %rdx vmovaps 23552(%rbx), %xmm0 vmovsd %xmm0, (%r13,%r14,8) vmovaps 21376(%rbx), %ymm0 vmovsd %xmm0, (%r15,%rdx,8) vmovaps 19840(%rbx), %xmm0 vmovsd %xmm0, (%r15,%rcx,8) vmovaps 20736(%rbx), %xmm0 vmovsd %xmm0, (%r15,%rax,8) vmovaps 19872(%rbx), %xmm0 vmovsd %xmm0, (%r15,%rdi,8) vmovaps 21408(%rbx), %ymm0 vmovsd %xmm0, (%r15,%r11,8) vmovaps 19904(%rbx), %xmm0 vmovsd %xmm0, (%r15,%r10,8) vmovaps 20768(%rbx), %xmm0 vmovsd %xmm0, (%r15,%r9,8) vmovapd 19936(%rbx), %xmm0 vmovsd %xmm0, (%r15,%r8,8) .LBB1_9478: movq %r14, 27808(%rbx) movq %r12, 30496(%rbx) vmovdqa %ymm8, %ymm11 vpand 31296(%rbx), %xmm2, %xmm2 vpxor .LCPI1_17(%rip), %xmm2, %xmm0 vpmovzxwd %xmm0, %xmm1 vpslld $31, %xmm1, %xmm1 vpsrad $31, %xmm1, %xmm1 vpunpckhwd %xmm0, %xmm0, %xmm0 vpslld $31, %xmm0, %xmm0 vpsrad $31, %xmm0, %xmm0 vinsertf128 $1, %xmm0, %ymm1, %ymm0 vmovdqa 3616(%rbx), %ymm1 vptest %ymm1, %ymm0 jb .LBB1_9497 vmovaps 31680(%rbx), %ymm6 vextractf128 $1, %ymm6, %xmm0 vmovaps 31712(%rbx), %ymm8 vextractf128 $1, %ymm8, %xmm1 vpaddq %xmm15, %xmm1, %xmm4 vpaddq %xmm15, %xmm6, %xmm7 vpaddq %xmm15, %xmm0, %xmm0 vpmovzxwd %xmm2, %xmm1 vpslld $31, %xmm1, %xmm6 vpextrq $1, %xmm0, %r11 vmovd %xmm0, %rax vpextrq $1, %xmm7, %rsi vmovd %xmm7, %rdi vpextrq $1, %xmm4, %r12 vmovd %xmm4, %r9 vpaddq %xmm15, %xmm8, %xmm4 vpsrad $31, %xmm6, %xmm0 vpunpckhwd %xmm0, %xmm2, %xmm1 vpslld $31, %xmm1, %xmm1 vpsrad $31, %xmm1, %xmm1 vinsertf128 $1, %xmm1, %ymm0, %ymm0 vpextrq $1, %xmm4, %r10 vmovd %xmm4, %r14 vmovdqa 3584(%rbx), %ymm1 vptest %ymm1, %ymm0 jb .LBB1_9480 movq %r15, %r8 movq %r13, %r15 vpextrb $0, %xmm2, %r13d vpextrb $2, %xmm2, %edx vpextrb $4, %xmm2, %ecx testb $1, %r13b movq %r15, %r13 je .LBB1_9483 vmovaps 30240(%rbx), %ymm0 vmovsd %xmm0, (%r13,%rdi,8) .LBB1_9483: vpextrb $6, %xmm2, %edi testb $1, %dl movq %r8, %r15 je .LBB1_9485 vmovaps 29408(%rbx), %xmm0 vmovsd %xmm0, (%r13,%rsi,8) .LBB1_9485: vpextrb $8, %xmm2, %esi testb $1, %cl je .LBB1_9487 vmovaps 30208(%rbx), %xmm0 vmovsd %xmm0, (%r13,%rax,8) .LBB1_9487: vpextrb $10, %xmm2, %eax testb $1, %dil je .LBB1_9489 vmovaps 29440(%rbx), %xmm0 vmovsd %xmm0, (%r13,%r11,8) .LBB1_9489: vpextrb $12, %xmm2, %ecx testb $1, %sil je .LBB1_9491 vmovaps 30304(%rbx), %ymm0 vmovsd %xmm0, (%r13,%r14,8) .LBB1_9491: vpextrb $14, %xmm2, %edx testb $1, %al je .LBB1_9493 vmovaps 29472(%rbx), %xmm0 vmovsd %xmm0, (%r13,%r10,8) .LBB1_9493: testb $1, %cl je .LBB1_9495 vmovaps 30272(%rbx), %xmm0 vmovsd %xmm0, (%r13,%r9,8) .LBB1_9495: testb $1, %dl je .LBB1_9497 jmp .LBB1_9496 .LBB1_9480: vmovaps 30240(%rbx), %ymm0 vmovsd %xmm0, (%r13,%rdi,8) vmovaps 29408(%rbx), %xmm0 vmovsd %xmm0, (%r13,%rsi,8) vmovaps 30208(%rbx), %xmm0 vmovsd %xmm0, (%r13,%rax,8) vmovaps 29440(%rbx), %xmm0 vmovsd %xmm0, (%r13,%r11,8) vmovaps 30304(%rbx), %ymm0 vmovsd %xmm0, (%r13,%r14,8) vmovaps 29472(%rbx), %xmm0 vmovsd %xmm0, (%r13,%r10,8) vmovaps 30272(%rbx), %xmm0 vmovsd %xmm0, (%r13,%r9,8) .LBB1_9496: vmovaps 29504(%rbx), %xmm0 vmovsd %xmm0, (%r13,%r12,8) .LBB1_9497: cmpl $0, 30592(%rbx) movq 22456(%rbx), %r14 vmovdqa %ymm11, %ymm8 vmovdqa %ymm12, %ymm11 movq 27808(%rbx), %r9 movq 27776(%rbx), %r12 movq 27488(%rbx), %rcx movq 27456(%rbx), %rdi movq 27424(%rbx), %rdx jne .LBB1_9549 vmovdqa 30816(%rbx), %xmm1 vpmovzxwd %xmm1, %xmm0 vpslld $31, %xmm0, %xmm0 vpsrad $31, %xmm0, %xmm0 vpunpckhwd %xmm0, %xmm1, %xmm1 vpslld $31, %xmm1, %xmm1 vpsrad $31, %xmm1, %xmm1 vinsertf128 $1, %xmm1, %ymm0, %ymm0 vmovdqa 3328(%rbx), %ymm1 vptest %ymm1, %ymm0 jb .LBB1_9499 movl 31744(%rbx), %eax testb $1, %al movl 31520(%rbx), %r11d je .LBB1_9502 vmovaps 26720(%rbx), %ymm0 vmovsd %xmm0, (%r15,%rdx,8) .LBB1_9502: movq %rdx, %r8 movl 31776(%rbx), %eax testb $1, %al movl 31648(%rbx), %edx movl 31488(%rbx), %r10d movl 31552(%rbx), %esi je .LBB1_9504 vmovaps 23424(%rbx), %xmm0 movq 30496(%rbx), %rax vmovsd %xmm0, (%r15,%rax,8) .LBB1_9504: movl 31808(%rbx), %eax testb $1, %al je .LBB1_9506 vmovaps 24672(%rbx), %xmm0 movq 30528(%rbx), %rax vmovsd %xmm0, (%r15,%rax,8) .LBB1_9506: movl 31840(%rbx), %eax testb $1, %al je .LBB1_9508 vmovaps 23488(%rbx), %xmm0 vmovsd %xmm0, (%r15,%rdi,8) .LBB1_9508: testb $1, %r11b je .LBB1_9510 vmovaps 26784(%rbx), %ymm0 movq 30560(%rbx), %rax vmovsd %xmm0, (%r15,%rax,8) .LBB1_9510: testb $1, %sil je .LBB1_9512 vmovaps 23584(%rbx), %xmm0 vmovsd %xmm0, (%r15,%rcx,8) .LBB1_9512: testb $1, %r10b je .LBB1_9514 vmovaps 24736(%rbx), %xmm0 vmovsd %xmm0, (%r15,%r12,8) .LBB1_9514: testb $1, %dl je .LBB1_9516 vmovaps 23616(%rbx), %xmm0 vmovsd %xmm0, (%r15,%r9,8) .LBB1_9516: movl 31744(%rbx), %eax testb $1, %al je .LBB1_9518 vmovaps 26752(%rbx), %ymm0 vmovsd %xmm0, (%r13,%r8,8) .LBB1_9518: movl 31776(%rbx), %eax testb $1, %al je .LBB1_9520 vmovaps 23392(%rbx), %xmm0 movq 30496(%rbx), %rax vmovsd %xmm0, (%r13,%rax,8) .LBB1_9520: movl 31808(%rbx), %eax testb $1, %al je .LBB1_9522 vmovaps 24640(%rbx), %xmm0 movq 30528(%rbx), %rax vmovsd %xmm0, (%r13,%rax,8) .LBB1_9522: movl 31840(%rbx), %eax testb $1, %al je .LBB1_9524 vmovaps 23456(%rbx), %xmm0 vmovsd %xmm0, (%r13,%rdi,8) .LBB1_9524: testb $1, %r11b movq 30560(%rbx), %rax je .LBB1_9526 vmovaps 26816(%rbx), %ymm0 vmovsd %xmm0, (%r13,%rax,8) .LBB1_9526: testb $1, %sil je .LBB1_9528 vmovaps 23520(%rbx), %xmm0 vmovsd %xmm0, (%r13,%rcx,8) .LBB1_9528: testb $1, %r10b je .LBB1_9530 vmovaps 24704(%rbx), %xmm0 vmovsd %xmm0, (%r13,%r12,8) .LBB1_9530: testb $1, %dl je .LBB1_9532 vmovaps 23552(%rbx), %xmm0 vmovsd %xmm0, (%r13,%r9,8) .LBB1_9532: vextractf128 $1, %ymm13, %xmm0 vpaddq %xmm15, %xmm0, %xmm2 vpaddq %xmm15, %xmm13, %xmm4 movl 31744(%rbx), %eax testb $1, %al je .LBB1_9534 vinsertf128 $1, %xmm2, %ymm4, %ymm0 vmovd %xmm0, %rax vmovapd 21376(%rbx), %ymm0 vmovsd %xmm0, (%r15,%rax,8) .LBB1_9534: movl 31776(%rbx), %eax testb $1, %al je .LBB1_9536 vpextrq $1, %xmm4, %rax vmovapd 19840(%rbx), %xmm0 vmovsd %xmm0, (%r15,%rax,8) .LBB1_9536: movl 31808(%rbx), %eax testb $1, %al je .LBB1_9538 vmovd %xmm2, %rax vmovapd 20736(%rbx), %xmm0 vmovsd %xmm0, (%r15,%rax,8) .LBB1_9538: movl 31840(%rbx), %eax testb $1, %al je .LBB1_9540 vpextrq $1, %xmm2, %rax vmovapd 19872(%rbx), %xmm0 vmovsd %xmm0, (%r15,%rax,8) .LBB1_9540: vpaddq %xmm15, %xmm14, %xmm2 testb $1, %r11b je .LBB1_9542 vmovd %xmm2, %rax vmovapd 21408(%rbx), %ymm0 vmovsd %xmm0, (%r15,%rax,8) .LBB1_9542: vextractf128 $1, %ymm14, %xmm4 testb $1, %sil je .LBB1_9544 vpextrq $1, %xmm2, %rax vmovapd 19904(%rbx), %xmm0 vmovsd %xmm0, (%r15,%rax,8) .LBB1_9544: vpaddq %xmm15, %xmm4, %xmm2 testb $1, %r10b je .LBB1_9546 vmovd %xmm2, %rax vmovapd 20768(%rbx), %xmm0 vmovsd %xmm0, (%r15,%rax,8) .LBB1_9546: testb $1, %dl je .LBB1_9549 vpextrq $1, %xmm2, %rax vmovaps 19936(%rbx), %xmm0 jmp .LBB1_9548 .LBB1_9499: vmovaps 26720(%rbx), %ymm0 vmovsd %xmm0, (%r15,%rdx,8) vmovaps 23424(%rbx), %xmm0 movq 30496(%rbx), %rax vmovsd %xmm0, (%r15,%rax,8) vmovaps 24672(%rbx), %xmm0 movq 30528(%rbx), %r11 vmovsd %xmm0, (%r15,%r11,8) vmovaps 23488(%rbx), %xmm0 vmovsd %xmm0, (%r15,%rdi,8) vmovaps 26784(%rbx), %ymm0 movq 30560(%rbx), %rsi vmovsd %xmm0, (%r15,%rsi,8) vmovaps 23584(%rbx), %xmm0 vmovsd %xmm0, (%r15,%rcx,8) vmovaps 24736(%rbx), %xmm0 vmovsd %xmm0, (%r15,%r12,8) vextractf128 $1, %ymm14, %xmm4 vextractf128 $1, %ymm13, %xmm0 vpaddq %xmm15, %xmm0, %xmm2 vmovaps 23616(%rbx), %xmm0 vmovsd %xmm0, (%r15,%r9,8) vmovaps 26752(%rbx), %ymm0 vmovsd %xmm0, (%r13,%rdx,8) vpaddq %xmm15, %xmm14, %xmm6 vpaddq %xmm15, %xmm4, %xmm0 vpaddq %xmm15, %xmm13, %xmm4 vpextrq $1, %xmm0, %rdx movq %rdx, 27424(%rbx) movq %r12, %rdx vmovd %xmm0, %r8 vmovaps 23392(%rbx), %xmm0 vmovsd %xmm0, (%r13,%rax,8) movq %rdi, %rax vpextrq $1, %xmm6, %r10 vmovaps 24640(%rbx), %xmm0 vmovsd %xmm0, (%r13,%r11,8) vmovd %xmm6, %r12 vmovaps 23456(%rbx), %xmm0 vmovsd %xmm0, (%r13,%rax,8) vpextrq $1, %xmm2, %rdi vmovaps 26816(%rbx), %ymm0 vmovsd %xmm0, (%r13,%rsi,8) vmovd %xmm2, %rax vmovaps 23520(%rbx), %xmm0 vmovsd %xmm0, (%r13,%rcx,8) vpextrq $1, %xmm4, %rcx vmovaps 24704(%rbx), %xmm0 vmovsd %xmm0, (%r13,%rdx,8) vmovd %xmm4, %rdx vmovaps 23552(%rbx), %xmm0 vmovsd %xmm0, (%r13,%r9,8) vmovaps 21376(%rbx), %ymm0 vmovsd %xmm0, (%r15,%rdx,8) vmovaps 19840(%rbx), %xmm0 vmovsd %xmm0, (%r15,%rcx,8) vmovaps 20736(%rbx), %xmm0 vmovsd %xmm0, (%r15,%rax,8) vmovaps 19872(%rbx), %xmm0 vmovsd %xmm0, (%r15,%rdi,8) vmovaps 21408(%rbx), %ymm0 vmovsd %xmm0, (%r15,%r12,8) vmovaps 19904(%rbx), %xmm0 vmovsd %xmm0, (%r15,%r10,8) vmovaps 20768(%rbx), %xmm0 vmovsd %xmm0, (%r15,%r8,8) vmovaps 19936(%rbx), %xmm0 movq 27424(%rbx), %rax .LBB1_9548: vmovsd %xmm0, (%r15,%rax,8) .LBB1_9549: cmpl $0, 30880(%rbx) je .LBB1_9551 movq 32192(%rbx), %rax movq $0, (%r14,%rax,8) movq 32256(%rbx), %rax movq $0, (%r14,%rax,8) movq 32224(%rbx), %rax movq $0, (%r14,%rax,8) movq 32288(%rbx), %rax movq $0, (%r14,%rax,8) movq 32320(%rbx), %rax movq $0, (%r14,%rax,8) movq 32384(%rbx), %rax movq $0, (%r14,%rax,8) movq 32352(%rbx), %rax movq $0, (%r14,%rax,8) movq 32416(%rbx), %rax movq $0, (%r14,%rax,8) movq 32832(%rbx), %r10 movq $0, (%r15,%r10,8) movq 32864(%rbx), %r9 movq $0, (%r15,%r9,8) movq 32736(%rbx), %r8 movq $0, (%r15,%r8,8) movq 32800(%rbx), %rdi movq $0, (%r15,%rdi,8) movq 32896(%rbx), %rsi movq $0, (%r15,%rsi,8) movq 32928(%rbx), %rdx movq $0, (%r15,%rdx,8) movq 32960(%rbx), %rcx movq $0, (%r15,%rcx,8) movq 32992(%rbx), %rax movq $0, (%r15,%rax,8) movq $0, (%r13,%r10,8) movq $0, (%r13,%r9,8) movq $0, (%r13,%r8,8) movq $0, (%r13,%rdi,8) movq $0, (%r13,%rsi,8) movq $0, (%r13,%rdx,8) movq $0, (%r13,%rcx,8) movq $0, (%r13,%rax,8) movq 31936(%rbx), %rax movq $0, (%r15,%rax,8) movq 31968(%rbx), %rax movq $0, (%r15,%rax,8) movq 32096(%rbx), %rax movq $0, (%r15,%rax,8) movq 32128(%rbx), %rax movq $0, (%r15,%rax,8) movq 32160(%rbx), %rax movq $0, (%r15,%rax,8) movq 32000(%rbx), %rax movq $0, (%r15,%rax,8) movq 32032(%rbx), %rax movq $0, (%r15,%rax,8) movq 32064(%rbx), %rax movq $0, (%r15,%rax,8) movq 31456(%rbx), %r9 jmp .LBB1_9615 .LBB1_9551: movl 31584(%rbx), %eax testb $1, %al movl 31424(%rbx), %r8d movl 31392(%rbx), %edx movl 31360(%rbx), %esi movl 31328(%rbx), %edi movl 31616(%rbx), %ecx je .LBB1_9553 movq 32192(%rbx), %rax movq $0, (%r14,%rax,8) .LBB1_9553: movl 31872(%rbx), %eax testb $1, %al movq 31456(%rbx), %r9 je .LBB1_9555 movq 32256(%rbx), %rax movq $0, (%r14,%rax,8) .LBB1_9555: movl 31904(%rbx), %eax testb $1, %al je .LBB1_9557 movq 32224(%rbx), %rax movq $0, (%r14,%rax,8) .LBB1_9557: testb $1, %cl je .LBB1_9559 movq 32288(%rbx), %rax movq $0, (%r14,%rax,8) .LBB1_9559: testb $1, %dil je .LBB1_9561 movq 32320(%rbx), %rax movq $0, (%r14,%rax,8) .LBB1_9561: testb $1, %dl je .LBB1_9563 movq 32384(%rbx), %rax movq $0, (%r14,%rax,8) .LBB1_9563: testb $1, %sil je .LBB1_9565 movq 32352(%rbx), %rax movq $0, (%r14,%rax,8) .LBB1_9565: testb $1, %r8b je .LBB1_9567 movq 32416(%rbx), %rax movq $0, (%r14,%rax,8) .LBB1_9567: movl 31584(%rbx), %eax testb $1, %al je .LBB1_9569 movq 32832(%rbx), %rax movq $0, (%r15,%rax,8) .LBB1_9569: movl 31872(%rbx), %eax testb $1, %al je .LBB1_9571 movq 32864(%rbx), %rax movq $0, (%r15,%rax,8) .LBB1_9571: movl 31904(%rbx), %eax testb $1, %al je .LBB1_9573 movq 32736(%rbx), %rax movq $0, (%r15,%rax,8) .LBB1_9573: testb $1, %cl je .LBB1_9575 movq 32800(%rbx), %rax movq $0, (%r15,%rax,8) .LBB1_9575: testb $1, %dil je .LBB1_9577 movq 32896(%rbx), %rax movq $0, (%r15,%rax,8) .LBB1_9577: testb $1, %dl je .LBB1_9579 movq 32928(%rbx), %rax movq $0, (%r15,%rax,8) .LBB1_9579: movq %r9, %r12 testb $1, %sil je .LBB1_9581 movq 32960(%rbx), %rax movq $0, (%r15,%rax,8) .LBB1_9581: testb $1, %r8b movq %r12, %r9 je .LBB1_9583 movq 32992(%rbx), %rax movq $0, (%r15,%rax,8) .LBB1_9583: movl 31584(%rbx), %eax testb $1, %al je .LBB1_9585 movq 32832(%rbx), %rax movq $0, (%r13,%rax,8) .LBB1_9585: movl 31872(%rbx), %eax testb $1, %al je .LBB1_9587 movq 32864(%rbx), %rax movq $0, (%r13,%rax,8) .LBB1_9587: movl 31904(%rbx), %eax testb $1, %al je .LBB1_9589 movq 32736(%rbx), %rax movq $0, (%r13,%rax,8) .LBB1_9589: testb $1, %cl je .LBB1_9591 movq 32800(%rbx), %rax movq $0, (%r13,%rax,8) .LBB1_9591: testb $1, %dil je .LBB1_9593 movq 32896(%rbx), %rax movq $0, (%r13,%rax,8) .LBB1_9593: testb $1, %dl je .LBB1_9595 movq 32928(%rbx), %rax movq $0, (%r13,%rax,8) .LBB1_9595: testb $1, %sil je .LBB1_9597 movq 32960(%rbx), %rax movq $0, (%r13,%rax,8) .LBB1_9597: testb $1, %r8b je .LBB1_9599 movq 32992(%rbx), %rax movq $0, (%r13,%rax,8) .LBB1_9599: movl 31584(%rbx), %eax testb $1, %al je .LBB1_9601 movq 31936(%rbx), %rax movq $0, (%r15,%rax,8) .LBB1_9601: movl 31872(%rbx), %eax testb $1, %al je .LBB1_9603 movq 31968(%rbx), %rax movq $0, (%r15,%rax,8) .LBB1_9603: movl 31904(%rbx), %eax testb $1, %al je .LBB1_9605 movq 32096(%rbx), %rax movq $0, (%r15,%rax,8) .LBB1_9605: testb $1, %cl je .LBB1_9607 movq 32128(%rbx), %rax movq $0, (%r15,%rax,8) .LBB1_9607: testb $1, %dil je .LBB1_9609 movq 32160(%rbx), %rax movq $0, (%r15,%rax,8) .LBB1_9609: testb $1, %dl je .LBB1_9611 movq 32000(%rbx), %rax movq $0, (%r15,%rax,8) .LBB1_9611: testb $1, %sil je .LBB1_9613 movq 32032(%rbx), %rax movq $0, (%r15,%rax,8) .LBB1_9613: testb $1, %r8b je .LBB1_9615 movq 32064(%rbx), %rax movq $0, (%r15,%rax,8) .LBB1_9615: vpxor %xmm2, %xmm2, %xmm2 cmpl $0, 30848(%rbx) jne .LBB1_9634 vpmovzxwd %xmm10, %xmm0 vpslld $31, %xmm0, %xmm0 vpsrad $31, %xmm0, %xmm0 vpunpckhwd %xmm0, %xmm10, %xmm1 vpslld $31, %xmm1, %xmm1 vpsrad $31, %xmm1, %xmm1 vinsertf128 $1, %xmm1, %ymm0, %ymm0 vmovdqa 3360(%rbx), %ymm1 vptest %ymm1, %ymm0 jb .LBB1_9617 movl 30976(%rbx), %eax testb $1, %al je .LBB1_9620 movq 32448(%rbx), %rax movq $0, (%r13,%rax,8) .LBB1_9620: movl 31040(%rbx), %eax testb $1, %al je .LBB1_9622 movq 32480(%rbx), %rax movq $0, (%r13,%rax,8) .LBB1_9622: movl 31008(%rbx), %eax testb $1, %al je .LBB1_9624 movq 32544(%rbx), %rax movq $0, (%r13,%rax,8) .LBB1_9624: movl 31168(%rbx), %eax testb $1, %al je .LBB1_9626 movq 32576(%rbx), %rax movq $0, (%r13,%rax,8) .LBB1_9626: movl 31072(%rbx), %eax testb $1, %al je .LBB1_9628 movq 32640(%rbx), %rax movq $0, (%r13,%rax,8) .LBB1_9628: movl 31200(%rbx), %eax testb $1, %al je .LBB1_9630 movq 32672(%rbx), %rax movq $0, (%r13,%rax,8) .LBB1_9630: movl 31232(%rbx), %eax testb $1, %al je .LBB1_9632 movq 32704(%rbx), %rax movq $0, (%r13,%rax,8) .LBB1_9632: movl 31264(%rbx), %eax testb $1, %al vmovdqa %xmm10, %xmm2 je .LBB1_9634 jmp .LBB1_9633 .LBB1_9617: movq 32448(%rbx), %rax movq $0, (%r13,%rax,8) movq 32480(%rbx), %rax movq $0, (%r13,%rax,8) movq 32544(%rbx), %rax movq $0, (%r13,%rax,8) movq 32576(%rbx), %rax movq $0, (%r13,%rax,8) movq 32640(%rbx), %rax movq $0, (%r13,%rax,8) movq 32672(%rbx), %rax movq $0, (%r13,%rax,8) movq 32704(%rbx), %rax movq $0, (%r13,%rax,8) .LBB1_9633: movq 32512(%rbx), %rax movq $0, (%r13,%rax,8) vmovdqa %xmm10, %xmm2 .LBB1_9634: vpor 30688(%rbx), %xmm2, %xmm2 vpunpckhwd %xmm0, %xmm2, %xmm0 vpslld $31, %xmm0, %xmm4 vmovdqa 30944(%rbx), %xmm0 vpaddq %xmm5, %xmm0, %xmm6 vpmovzxwd %xmm2, %xmm0 vpslld $31, %xmm0, %xmm0 vpsrad $31, %xmm0, %xmm0 vpextrq $1, %xmm6, %rsi vmovd %xmm6, %rdi vpaddq %xmm5, %xmm11, %xmm6 vpsrad $31, %xmm4, %xmm1 vpaddq %xmm5, %xmm8, %xmm4 vmovdqa 30912(%rbx), %xmm3 vpaddq %xmm5, %xmm3, %xmm7 vinsertf128 $1, %xmm1, %ymm0, %ymm0 vpextrq $1, %xmm6, %rcx vmovd %xmm6, %rdx vpextrq $1, %xmm7, %rax vmovd %xmm7, %r12 vpextrq $1, %xmm4, %r8 vmovd %xmm4, %r14 vmovdqa 3552(%rbx), %ymm1 vptest %ymm1, %ymm0 jb .LBB1_9635 movq %rcx, 27808(%rbx) movq %rdi, 30496(%rbx) movq %r14, %rdi vpextrb $0, %xmm2, %r11d vpextrb $2, %xmm2, %r10d vpextrb $4, %xmm2, %ecx movl %ecx, 27488(%rbx) testb $1, %r11b je .LBB1_9638 vmovaps 26848(%rbx), %ymm0 vmovsd %xmm0, (%r15,%rdx,8) .LBB1_9638: vpextrb $6, %xmm2, %ecx movl %ecx, 27456(%rbx) testb $1, %r10b je .LBB1_9640 vmovaps 23712(%rbx), %xmm0 movq 27808(%rbx), %rcx vmovsd %xmm0, (%r15,%rcx,8) .LBB1_9640: movq %rdx, 30944(%rbx) movq %rax, 30912(%rbx) vpextrb $8, %xmm2, %eax movl %eax, 27424(%rbx) movl 27488(%rbx), %eax testb $1, %al je .LBB1_9642 vmovaps 24800(%rbx), %xmm0 movq 30496(%rbx), %rax vmovsd %xmm0, (%r15,%rax,8) .LBB1_9642: vpextrb $10, %xmm2, %r14d movl 27456(%rbx), %eax testb $1, %al vmovdqa 31296(%rbx), %xmm15 je .LBB1_9644 vmovaps 23776(%rbx), %xmm0 vmovsd %xmm0, (%r15,%rsi,8) .LBB1_9644: movq %rsi, 27776(%rbx) vpextrb $12, %xmm2, %ecx movl 27424(%rbx), %eax testb $1, %al movq %rdi, %rsi je .LBB1_9646 vmovaps 31104(%rbx), %ymm0 vmovsd %xmm0, (%r15,%rsi,8) .LBB1_9646: movq %r9, 31456(%rbx) vpextrb $14, %xmm2, %r9d testb $1, %r14b je .LBB1_9648 vmovaps 23840(%rbx), %xmm0 vmovsd %xmm0, (%r15,%r8,8) .LBB1_9648: testb $1, %cl movl %ecx, %edi je .LBB1_9650 vmovaps 24864(%rbx), %xmm0 vmovsd %xmm0, (%r15,%r12,8) .LBB1_9650: movq %r12, %rdx testb $1, %r9b je .LBB1_9652 vmovaps 23872(%rbx), %xmm0 movq 30912(%rbx), %rcx vmovsd %xmm0, (%r15,%rcx,8) .LBB1_9652: testb $1, %r11b je .LBB1_9654 vmovaps 26880(%rbx), %ymm0 movq 30944(%rbx), %rax vmovsd %xmm0, (%r13,%rax,8) .LBB1_9654: testb $1, %r10b je .LBB1_9656 vmovaps 23648(%rbx), %xmm0 movq 27808(%rbx), %rax vmovsd %xmm0, (%r13,%rax,8) .LBB1_9656: movl 27488(%rbx), %eax testb $1, %al movq %rdx, %rcx je .LBB1_9658 vmovaps 24768(%rbx), %xmm0 movq 30496(%rbx), %rax vmovsd %xmm0, (%r13,%rax,8) .LBB1_9658: movl 27456(%rbx), %eax testb $1, %al movq %r8, %r12 je .LBB1_9660 vmovaps 23680(%rbx), %xmm0 movq 27776(%rbx), %rdx vmovsd %xmm0, (%r13,%rdx,8) .LBB1_9660: movl 27424(%rbx), %eax testb $1, %al je .LBB1_9662 vmovaps 31136(%rbx), %ymm0 vmovsd %xmm0, (%r13,%rsi,8) .LBB1_9662: testb $1, %r14b movl %edi, %edx je .LBB1_9664 vmovaps 23744(%rbx), %xmm0 vmovsd %xmm0, (%r13,%r12,8) .LBB1_9664: testb $1, %dl je .LBB1_9666 vmovaps 24832(%rbx), %xmm0 vmovsd %xmm0, (%r13,%rcx,8) .LBB1_9666: movq %rsi, 30528(%rbx) movq %rcx, 30688(%rbx) testb $1, %r9b je .LBB1_9668 vmovaps 23808(%rbx), %xmm0 movq 30912(%rbx), %rcx vmovsd %xmm0, (%r13,%rcx,8) .LBB1_9668: movq %r12, 30560(%rbx) vextractf128 $1, %ymm13, %xmm0 vpaddq %xmm5, %xmm0, %xmm0 vpaddq %xmm5, %xmm13, %xmm1 testb $1, %r11b je .LBB1_9670 vinsertf128 $1, %xmm0, %ymm1, %ymm4 vmovd %xmm4, %rcx vmovapd 21440(%rbx), %ymm4 vmovsd %xmm4, (%r15,%rcx,8) .LBB1_9670: testb $1, %r10b je .LBB1_9672 vpextrq $1, %xmm1, %rcx vmovdqa 19968(%rbx), %xmm1 vmovsd %xmm1, (%r15,%rcx,8) .LBB1_9672: movl 27488(%rbx), %eax testb $1, %al je .LBB1_9674 vmovd %xmm0, %rcx vmovdqa 20800(%rbx), %xmm1 vmovsd %xmm1, (%r15,%rcx,8) .LBB1_9674: movl 27456(%rbx), %eax testb $1, %al je .LBB1_9676 vpextrq $1, %xmm0, %rcx vmovapd 20000(%rbx), %xmm0 vmovsd %xmm0, (%r15,%rcx,8) .LBB1_9676: vpaddq %xmm5, %xmm14, %xmm0 movl 27424(%rbx), %eax testb $1, %al je .LBB1_9678 vmovd %xmm0, %rax vmovdqa 21472(%rbx), %ymm1 vmovsd %xmm1, (%r15,%rax,8) .LBB1_9678: vextractf128 $1, %ymm14, %xmm1 testb $1, %r14b je .LBB1_9680 vpextrq $1, %xmm0, %rax vmovapd 20032(%rbx), %xmm0 vmovsd %xmm0, (%r15,%rax,8) .LBB1_9680: vpaddq %xmm5, %xmm1, %xmm0 testb $1, %dl je .LBB1_9682 vmovd %xmm0, %rax vmovapd 20832(%rbx), %xmm1 vmovsd %xmm1, (%r15,%rax,8) .LBB1_9682: testb $1, %r9b je .LBB1_9684 vpextrq $1, %xmm0, %rax vmovapd 20064(%rbx), %xmm0 vmovsd %xmm0, (%r15,%rax,8) jmp .LBB1_9684 .LBB1_9635: vmovaps 26848(%rbx), %ymm0 vmovsd %xmm0, (%r15,%rdx,8) vmovaps 23712(%rbx), %xmm0 vmovsd %xmm0, (%r15,%rcx,8) vmovaps 24800(%rbx), %xmm0 vmovsd %xmm0, (%r15,%rdi,8) vmovaps 23776(%rbx), %xmm0 vmovsd %xmm0, (%r15,%rsi,8) vmovaps 31104(%rbx), %ymm0 vmovsd %xmm0, (%r15,%r14,8) vmovaps 23840(%rbx), %xmm0 vmovsd %xmm0, (%r15,%r8,8) vmovaps 24864(%rbx), %xmm0 vmovsd %xmm0, (%r15,%r12,8) vextractf128 $1, %ymm14, %xmm1 vextractf128 $1, %ymm13, %xmm0 vpaddq %xmm5, %xmm0, %xmm0 vmovaps 23872(%rbx), %xmm4 vmovsd %xmm4, (%r15,%rax,8) vmovaps 26880(%rbx), %ymm4 vmovsd %xmm4, (%r13,%rdx,8) movq %rdx, 30944(%rbx) vpaddq %xmm5, %xmm14, %xmm4 vpaddq %xmm5, %xmm1, %xmm6 vpaddq %xmm5, %xmm13, %xmm1 vpextrq $1, %xmm6, %rdx movq %rdx, 27488(%rbx) movq %rax, 30912(%rbx) movq %rsi, 27776(%rbx) vmovd %xmm6, %r9 vmovaps 23648(%rbx), %xmm6 vmovsd %xmm6, (%r13,%rcx,8) movq %rcx, 27808(%rbx) vpextrq $1, %xmm4, %r10 vmovapd 24768(%rbx), %xmm6 vmovsd %xmm6, (%r13,%rdi,8) movq %rdi, 30496(%rbx) vmovd %xmm4, %r11 vmovaps 23680(%rbx), %xmm4 vmovsd %xmm4, (%r13,%rsi,8) vpextrq $1, %xmm0, %rdi vmovapd 31136(%rbx), %ymm4 vmovsd %xmm4, (%r13,%r14,8) movq %r14, 30528(%rbx) vmovd %xmm0, %rsi vmovaps 23744(%rbx), %xmm0 vmovsd %xmm0, (%r13,%r8,8) movq %r8, 30560(%rbx) movq %r12, %rdx movq %rdx, 30688(%rbx) vpextrq $1, %xmm1, %rcx vmovaps 24832(%rbx), %xmm0 vmovsd %xmm0, (%r13,%rdx,8) vmovd %xmm1, %rdx vmovaps 23808(%rbx), %xmm0 vmovsd %xmm0, (%r13,%rax,8) vmovaps 21440(%rbx), %ymm0 vmovsd %xmm0, (%r15,%rdx,8) vmovaps 19968(%rbx), %xmm0 vmovsd %xmm0, (%r15,%rcx,8) vmovaps 20800(%rbx), %xmm0 vmovsd %xmm0, (%r15,%rsi,8) vmovaps 20000(%rbx), %xmm0 vmovsd %xmm0, (%r15,%rdi,8) vmovaps 21472(%rbx), %ymm0 vmovsd %xmm0, (%r15,%r11,8) vmovaps 20032(%rbx), %xmm0 vmovsd %xmm0, (%r15,%r10,8) vmovaps 20832(%rbx), %xmm0 vmovsd %xmm0, (%r15,%r9,8) vmovapd 20064(%rbx), %xmm0 movq 27488(%rbx), %rax vmovsd %xmm0, (%r15,%rax,8) vmovdqa 31296(%rbx), %xmm15 .LBB1_9684: vpand %xmm15, %xmm2, %xmm0 vpxor .LCPI1_17(%rip), %xmm0, %xmm1 vpmovzxwd %xmm1, %xmm2 vpslld $31, %xmm2, %xmm2 vpsrad $31, %xmm2, %xmm2 vpunpckhwd %xmm0, %xmm1, %xmm1 vpslld $31, %xmm1, %xmm1 vpsrad $31, %xmm1, %xmm1 vinsertf128 $1, %xmm1, %ymm2, %ymm1 vmovdqa 3520(%rbx), %ymm2 vptest %ymm2, %ymm1 jb .LBB1_9703 vmovaps 31680(%rbx), %ymm4 vextractf128 $1, %ymm4, %xmm2 vmovaps 31712(%rbx), %ymm7 vextractf128 $1, %ymm7, %xmm1 vpaddq %xmm5, %xmm1, %xmm1 vpaddq %xmm5, %xmm4, %xmm4 vpaddq %xmm5, %xmm2, %xmm6 vpmovzxwd %xmm0, %xmm2 vpslld $31, %xmm2, %xmm2 vpextrq $1, %xmm6, %r11 vmovd %xmm6, %rax vpextrq $1, %xmm4, %rsi vmovd %xmm4, %rdi vpextrq $1, %xmm1, %r9 vmovd %xmm1, %r12 vpaddq %xmm5, %xmm7, %xmm1 vpsrad $31, %xmm2, %xmm2 vpunpckhwd %xmm0, %xmm0, %xmm4 vpslld $31, %xmm4, %xmm4 vpsrad $31, %xmm4, %xmm4 vinsertf128 $1, %xmm4, %ymm2, %ymm2 vpextrq $1, %xmm1, %r10 vmovd %xmm1, %r14 vmovdqa 3488(%rbx), %ymm1 vptest %ymm1, %ymm2 jb .LBB1_9686 movq %r15, %r8 movq %r13, %r15 vpextrb $0, %xmm0, %r13d vpextrb $2, %xmm0, %edx vpextrb $4, %xmm0, %ecx testb $1, %r13b movq %r15, %r13 je .LBB1_9689 vmovdqa 30368(%rbx), %ymm1 vmovsd %xmm1, (%r13,%rdi,8) .LBB1_9689: vpextrb $6, %xmm0, %edi testb $1, %dl movq %r8, %r15 je .LBB1_9691 vmovdqa 29536(%rbx), %xmm1 vmovsd %xmm1, (%r13,%rsi,8) .LBB1_9691: vpextrb $8, %xmm0, %esi testb $1, %cl je .LBB1_9693 vmovdqa 30336(%rbx), %xmm1 vmovsd %xmm1, (%r13,%rax,8) .LBB1_9693: vpextrb $10, %xmm0, %eax testb $1, %dil je .LBB1_9695 vmovdqa 29568(%rbx), %xmm1 vmovsd %xmm1, (%r13,%r11,8) .LBB1_9695: vpextrb $12, %xmm0, %ecx testb $1, %sil je .LBB1_9697 vmovdqa 30400(%rbx), %ymm1 vmovsd %xmm1, (%r13,%r14,8) .LBB1_9697: vpextrb $14, %xmm0, %edx testb $1, %al je .LBB1_9699 vmovdqa 29600(%rbx), %xmm0 vmovsd %xmm0, (%r13,%r10,8) .LBB1_9699: testb $1, %cl je .LBB1_9701 vmovdqa 29664(%rbx), %xmm0 vmovsd %xmm0, (%r13,%r12,8) .LBB1_9701: testb $1, %dl je .LBB1_9703 jmp .LBB1_9702 .LBB1_9686: vmovaps 30368(%rbx), %ymm0 vmovsd %xmm0, (%r13,%rdi,8) vmovaps 29536(%rbx), %xmm0 vmovsd %xmm0, (%r13,%rsi,8) vmovaps 30336(%rbx), %xmm0 vmovsd %xmm0, (%r13,%rax,8) vmovaps 29568(%rbx), %xmm0 vmovsd %xmm0, (%r13,%r11,8) vmovaps 30400(%rbx), %ymm0 vmovsd %xmm0, (%r13,%r14,8) vmovaps 29600(%rbx), %xmm0 vmovsd %xmm0, (%r13,%r10,8) vmovdqa 29664(%rbx), %xmm0 vmovsd %xmm0, (%r13,%r12,8) .LBB1_9702: vmovdqa 29632(%rbx), %xmm0 vmovsd %xmm0, (%r13,%r9,8) .LBB1_9703: cmpl $0, 30592(%rbx) vmovdqa .LCPI1_9(%rip), %xmm7 movq 30912(%rbx), %r10 movq 27776(%rbx), %rdi movq 30496(%rbx), %rsi movq 27808(%rbx), %r11 movq 31456(%rbx), %r12 jne .LBB1_9754 vmovdqa 30816(%rbx), %xmm1 vpmovzxwd %xmm1, %xmm0 vpslld $31, %xmm0, %xmm0 vpsrad $31, %xmm0, %xmm0 vpunpckhwd %xmm0, %xmm1, %xmm1 vpslld $31, %xmm1, %xmm1 vpsrad $31, %xmm1, %xmm1 vinsertf128 $1, %xmm1, %ymm0, %ymm0 vmovdqa 3392(%rbx), %ymm1 vptest %ymm1, %ymm0 movl 31552(%rbx), %ecx movl 31520(%rbx), %edx jb .LBB1_9705 movl 31744(%rbx), %eax testb $1, %al movl 31488(%rbx), %r9d je .LBB1_9708 vmovaps 26848(%rbx), %ymm0 movq 30944(%rbx), %rax vmovsd %xmm0, (%r15,%rax,8) .LBB1_9708: movl 31776(%rbx), %eax testb $1, %al movl 31648(%rbx), %r8d je .LBB1_9710 vmovaps 23712(%rbx), %xmm0 vmovsd %xmm0, (%r15,%r11,8) .LBB1_9710: movl 31808(%rbx), %eax testb $1, %al je .LBB1_9712 vmovaps 24800(%rbx), %xmm0 vmovsd %xmm0, (%r15,%rsi,8) .LBB1_9712: movl 31840(%rbx), %eax testb $1, %al je .LBB1_9714 vmovaps 23776(%rbx), %xmm0 vmovsd %xmm0, (%r15,%rdi,8) .LBB1_9714: testb $1, %dl je .LBB1_9716 vmovaps 31104(%rbx), %ymm0 movq 30528(%rbx), %rax vmovsd %xmm0, (%r15,%rax,8) .LBB1_9716: testb $1, %cl je .LBB1_9718 vmovaps 23840(%rbx), %xmm0 movq 30560(%rbx), %rax vmovsd %xmm0, (%r15,%rax,8) .LBB1_9718: testb $1, %r9b je .LBB1_9720 vmovaps 24864(%rbx), %xmm0 movq 30688(%rbx), %rax vmovsd %xmm0, (%r15,%rax,8) .LBB1_9720: testb $1, %r8b je .LBB1_9722 vmovaps 23872(%rbx), %xmm0 vmovsd %xmm0, (%r15,%r10,8) .LBB1_9722: movl 31744(%rbx), %eax testb $1, %al je .LBB1_9724 vmovaps 26880(%rbx), %ymm0 movq 30944(%rbx), %rax vmovsd %xmm0, (%r13,%rax,8) .LBB1_9724: movl 31776(%rbx), %eax testb $1, %al je .LBB1_9726 vmovaps 23648(%rbx), %xmm0 vmovsd %xmm0, (%r13,%r11,8) .LBB1_9726: movl 31808(%rbx), %eax testb $1, %al je .LBB1_9728 vmovaps 24768(%rbx), %xmm0 vmovsd %xmm0, (%r13,%rsi,8) .LBB1_9728: movl 31840(%rbx), %eax testb $1, %al je .LBB1_9730 vmovaps 23680(%rbx), %xmm0 vmovsd %xmm0, (%r13,%rdi,8) .LBB1_9730: testb $1, %dl je .LBB1_9732 vmovaps 31136(%rbx), %ymm0 movq 30528(%rbx), %rax vmovsd %xmm0, (%r13,%rax,8) .LBB1_9732: testb $1, %cl je .LBB1_9734 vmovaps 23744(%rbx), %xmm0 movq 30560(%rbx), %rax vmovsd %xmm0, (%r13,%rax,8) .LBB1_9734: testb $1, %r9b je .LBB1_9736 vmovaps 24832(%rbx), %xmm0 movq 30688(%rbx), %rax vmovsd %xmm0, (%r13,%rax,8) .LBB1_9736: testb $1, %r8b je .LBB1_9738 vmovaps 23808(%rbx), %xmm0 vmovsd %xmm0, (%r13,%r10,8) .LBB1_9738: vextractf128 $1, %ymm13, %xmm0 vpaddq %xmm5, %xmm0, %xmm0 vpaddq %xmm5, %xmm13, %xmm1 movl 31744(%rbx), %eax testb $1, %al je .LBB1_9740 vinsertf128 $1, %xmm0, %ymm1, %ymm2 vmovd %xmm2, %rax vmovdqa 21440(%rbx), %ymm2 vmovsd %xmm2, (%r15,%rax,8) .LBB1_9740: movl 31776(%rbx), %eax testb $1, %al je .LBB1_9742 vpextrq $1, %xmm1, %rax vmovdqa 19968(%rbx), %xmm1 vmovsd %xmm1, (%r15,%rax,8) .LBB1_9742: movl 31808(%rbx), %eax testb $1, %al je .LBB1_9744 vmovd %xmm0, %rax vmovdqa 20800(%rbx), %xmm1 vmovsd %xmm1, (%r15,%rax,8) .LBB1_9744: movl 31840(%rbx), %eax testb $1, %al je .LBB1_9746 vpextrq $1, %xmm0, %rax vmovapd 20000(%rbx), %xmm0 vmovsd %xmm0, (%r15,%rax,8) .LBB1_9746: vpaddq %xmm5, %xmm14, %xmm0 testb $1, %dl je .LBB1_9748 vmovd %xmm0, %rax vmovdqa 21472(%rbx), %ymm1 vmovsd %xmm1, (%r15,%rax,8) .LBB1_9748: vextractf128 $1, %ymm14, %xmm1 testb $1, %cl je .LBB1_9750 vpextrq $1, %xmm0, %rax vmovapd 20032(%rbx), %xmm0 vmovsd %xmm0, (%r15,%rax,8) .LBB1_9750: vpaddq %xmm5, %xmm1, %xmm0 testb $1, %r9b je .LBB1_9752 vmovd %xmm0, %rax vmovapd 20832(%rbx), %xmm1 vmovsd %xmm1, (%r15,%rax,8) .LBB1_9752: testb $1, %r8b je .LBB1_9754 vpextrq $1, %xmm0, %rax vmovdqa 20064(%rbx), %xmm0 vmovsd %xmm0, (%r15,%rax,8) jmp .LBB1_9754 .LBB1_9705: vmovaps 26848(%rbx), %ymm0 movq 30944(%rbx), %rdx vmovsd %xmm0, (%r15,%rdx,8) vmovaps 23712(%rbx), %xmm0 vmovsd %xmm0, (%r15,%r11,8) vmovaps 24800(%rbx), %xmm0 vmovsd %xmm0, (%r15,%rsi,8) vmovaps 23776(%rbx), %xmm0 vmovsd %xmm0, (%r15,%rdi,8) vmovaps 31104(%rbx), %ymm0 movq 30528(%rbx), %rax vmovsd %xmm0, (%r15,%rax,8) vmovaps 23840(%rbx), %xmm0 movq 30560(%rbx), %rcx vmovsd %xmm0, (%r15,%rcx,8) vmovaps 24864(%rbx), %xmm0 movq %r12, %r14 movq 30688(%rbx), %r12 vmovsd %xmm0, (%r15,%r12,8) vextractf128 $1, %ymm14, %xmm1 vextractf128 $1, %ymm13, %xmm0 vpaddq %xmm5, %xmm0, %xmm0 vmovaps 23872(%rbx), %xmm2 vmovsd %xmm2, (%r15,%r10,8) vmovaps 26880(%rbx), %ymm2 vmovsd %xmm2, (%r13,%rdx,8) vpaddq %xmm5, %xmm14, %xmm2 vpaddq %xmm5, %xmm1, %xmm3 vpaddq %xmm5, %xmm13, %xmm1 vpextrq $1, %xmm3, %r8 movq %r11, %rdx movq %r10, %r11 vmovd %xmm3, %r9 vmovaps 23648(%rbx), %xmm3 vmovsd %xmm3, (%r13,%rdx,8) vpextrq $1, %xmm2, %r10 vmovdqa 24768(%rbx), %xmm3 vmovsd %xmm3, (%r13,%rsi,8) vmovd %xmm2, %rsi vmovaps 23680(%rbx), %xmm2 vmovsd %xmm2, (%r13,%rdi,8) vpextrq $1, %xmm0, %rdi vmovdqa 31136(%rbx), %ymm2 vmovsd %xmm2, (%r13,%rax,8) vmovd %xmm0, %rax vmovaps 23744(%rbx), %xmm0 vmovsd %xmm0, (%r13,%rcx,8) vpextrq $1, %xmm1, %rcx vmovaps 24832(%rbx), %xmm0 vmovsd %xmm0, (%r13,%r12,8) movq %r14, %r12 vmovd %xmm1, %rdx vmovaps 23808(%rbx), %xmm0 vmovsd %xmm0, (%r13,%r11,8) vmovaps 21440(%rbx), %ymm0 vmovsd %xmm0, (%r15,%rdx,8) vmovaps 19968(%rbx), %xmm0 vmovsd %xmm0, (%r15,%rcx,8) vmovaps 20800(%rbx), %xmm0 vmovsd %xmm0, (%r15,%rax,8) vmovaps 20000(%rbx), %xmm0 vmovsd %xmm0, (%r15,%rdi,8) vmovaps 21472(%rbx), %ymm0 vmovsd %xmm0, (%r15,%rsi,8) vmovaps 20032(%rbx), %xmm0 vmovsd %xmm0, (%r15,%r10,8) vmovaps 20832(%rbx), %xmm0 vmovsd %xmm0, (%r15,%r9,8) vmovdqa 20064(%rbx), %xmm0 vmovsd %xmm0, (%r15,%r8,8) .LBB1_9754: vmovdqa 27296(%rbx), %xmm0 vpxor .LCPI1_17(%rip), %xmm0, %xmm0 vpmovzxwd %xmm0, %xmm1 vpslld $31, %xmm1, %xmm1 vpsrad $31, %xmm1, %xmm1 vpunpckhwd %xmm0, %xmm0, %xmm0 vpslld $31, %xmm0, %xmm0 vpsrad $31, %xmm0, %xmm0 vinsertf128 $1, %xmm0, %ymm1, %ymm0 vmovdqa 3456(%rbx), %ymm1 vptest %ymm1, %ymm0 movq 22456(%rbx), %r14 jb .LBB1_3617 cmpl $0, 30880(%rbx) movl 31392(%rbx), %edx movl 31360(%rbx), %esi movl 31328(%rbx), %edi je .LBB1_9757 movq 32192(%rbx), %rax movq $0, (%r14,%rax,8) movq 32256(%rbx), %rax movq $0, (%r14,%rax,8) movq 32224(%rbx), %rax movq $0, (%r14,%rax,8) movq 32288(%rbx), %rax movq $0, (%r14,%rax,8) movq 32320(%rbx), %rax movq $0, (%r14,%rax,8) movq 32384(%rbx), %rax movq $0, (%r14,%rax,8) movq 32352(%rbx), %rax movq $0, (%r14,%rax,8) movq 32416(%rbx), %rax movq $0, (%r14,%rax,8) movq 32832(%rbx), %r10 movq $0, (%r15,%r10,8) movq 32864(%rbx), %r9 movq $0, (%r15,%r9,8) movq 32736(%rbx), %r8 movq $0, (%r15,%r8,8) movq 32800(%rbx), %rdi movq $0, (%r15,%rdi,8) movq 32896(%rbx), %rsi movq $0, (%r15,%rsi,8) movq 32928(%rbx), %rdx movq $0, (%r15,%rdx,8) movq 32960(%rbx), %rcx movq $0, (%r15,%rcx,8) movq 32992(%rbx), %rax movq $0, (%r15,%rax,8) movq $0, (%r13,%r10,8) movq $0, (%r13,%r9,8) movq $0, (%r13,%r8,8) movq $0, (%r13,%rdi,8) movq $0, (%r13,%rsi,8) movq $0, (%r13,%rdx,8) movq $0, (%r13,%rcx,8) movq $0, (%r13,%rax,8) movq 31936(%rbx), %rax movq $0, (%r15,%rax,8) movq 31968(%rbx), %rax movq $0, (%r15,%rax,8) movq 32096(%rbx), %rax movq $0, (%r15,%rax,8) movq 32128(%rbx), %rax movq $0, (%r15,%rax,8) movq 32160(%rbx), %rax movq $0, (%r15,%rax,8) movq 32000(%rbx), %rax movq $0, (%r15,%rax,8) movq 32032(%rbx), %rax movq $0, (%r15,%rax,8) jmp .LBB1_9820 .LBB1_9757: movl 31584(%rbx), %eax testb $1, %al movl 31424(%rbx), %r8d je .LBB1_9759 movq 32192(%rbx), %rax movq $0, (%r14,%rax,8) .LBB1_9759: movl 31872(%rbx), %eax testb $1, %al movl 31616(%rbx), %ecx je .LBB1_9761 movq 32256(%rbx), %rax movq $0, (%r14,%rax,8) .LBB1_9761: movl 31904(%rbx), %eax testb $1, %al je .LBB1_9763 movq 32224(%rbx), %rax movq $0, (%r14,%rax,8) .LBB1_9763: testb $1, %cl je .LBB1_9765 movq 32288(%rbx), %rax movq $0, (%r14,%rax,8) .LBB1_9765: testb $1, %dil je .LBB1_9767 movq 32320(%rbx), %rax movq $0, (%r14,%rax,8) .LBB1_9767: testb $1, %dl je .LBB1_9769 movq 32384(%rbx), %rax movq $0, (%r14,%rax,8) .LBB1_9769: testb $1, %sil je .LBB1_9771 movq 32352(%rbx), %rax movq $0, (%r14,%rax,8) .LBB1_9771: testb $1, %r8b je .LBB1_9773 movq 32416(%rbx), %rax movq $0, (%r14,%rax,8) .LBB1_9773: movl 31584(%rbx), %eax testb $1, %al je .LBB1_9775 movq 32832(%rbx), %rax movq $0, (%r15,%rax,8) .LBB1_9775: movl 31872(%rbx), %eax testb $1, %al je .LBB1_9777 movq 32864(%rbx), %rax movq $0, (%r15,%rax,8) .LBB1_9777: movl 31904(%rbx), %eax testb $1, %al je .LBB1_9779 movq 32736(%rbx), %rax movq $0, (%r15,%rax,8) .LBB1_9779: testb $1, %cl je .LBB1_9781 movq 32800(%rbx), %rax movq $0, (%r15,%rax,8) .LBB1_9781: testb $1, %dil je .LBB1_9783 movq 32896(%rbx), %rax movq $0, (%r15,%rax,8) .LBB1_9783: testb $1, %dl je .LBB1_9785 movq 32928(%rbx), %rax movq $0, (%r15,%rax,8) .LBB1_9785: testb $1, %sil je .LBB1_9787 movq 32960(%rbx), %rax movq $0, (%r15,%rax,8) .LBB1_9787: testb $1, %r8b je .LBB1_9789 movq 32992(%rbx), %rax movq $0, (%r15,%rax,8) .LBB1_9789: movl 31584(%rbx), %eax testb $1, %al je .LBB1_9791 movq 32832(%rbx), %rax movq $0, (%r13,%rax,8) .LBB1_9791: movl 31872(%rbx), %eax testb $1, %al je .LBB1_9793 movq 32864(%rbx), %rax movq $0, (%r13,%rax,8) .LBB1_9793: movl 31904(%rbx), %eax testb $1, %al je .LBB1_9795 movq 32736(%rbx), %rax movq $0, (%r13,%rax,8) .LBB1_9795: testb $1, %cl je .LBB1_9797 movq 32800(%rbx), %rax movq $0, (%r13,%rax,8) .LBB1_9797: testb $1, %dil je .LBB1_9799 movq 32896(%rbx), %rax movq $0, (%r13,%rax,8) .LBB1_9799: testb $1, %dl je .LBB1_9801 movq 32928(%rbx), %rax movq $0, (%r13,%rax,8) .LBB1_9801: testb $1, %sil je .LBB1_9803 movq 32960(%rbx), %rax movq $0, (%r13,%rax,8) .LBB1_9803: testb $1, %r8b je .LBB1_9805 movq 32992(%rbx), %rax movq $0, (%r13,%rax,8) .LBB1_9805: movl 31584(%rbx), %eax testb $1, %al je .LBB1_9807 movq 31936(%rbx), %rax movq $0, (%r15,%rax,8) .LBB1_9807: movl 31872(%rbx), %eax testb $1, %al je .LBB1_9809 movq 31968(%rbx), %rax movq $0, (%r15,%rax,8) .LBB1_9809: movl 31904(%rbx), %eax testb $1, %al je .LBB1_9811 movq 32096(%rbx), %rax movq $0, (%r15,%rax,8) .LBB1_9811: testb $1, %cl je .LBB1_9813 movq 32128(%rbx), %rax movq $0, (%r15,%rax,8) .LBB1_9813: testb $1, %dil je .LBB1_9815 movq 32160(%rbx), %rax movq $0, (%r15,%rax,8) .LBB1_9815: testb $1, %dl je .LBB1_9817 movq 32000(%rbx), %rax movq $0, (%r15,%rax,8) .LBB1_9817: testb $1, %sil je .LBB1_9819 movq 32032(%rbx), %rax movq $0, (%r15,%rax,8) .LBB1_9819: testb $1, %r8b je .LBB1_9821 .LBB1_9820: movq 32064(%rbx), %rax movq $0, (%r15,%rax,8) .LBB1_9821: cmpl $0, 30848(%rbx) jne .LBB1_3617 vpmovzxwd %xmm10, %xmm0 vpslld $31, %xmm0, %xmm0 vpsrad $31, %xmm0, %xmm0 vpunpckhwd %xmm0, %xmm10, %xmm1 vpslld $31, %xmm1, %xmm1 vpsrad $31, %xmm1, %xmm1 vinsertf128 $1, %xmm1, %ymm0, %ymm0 vmovdqa 3424(%rbx), %ymm1 vptest %ymm1, %ymm0 jb .LBB1_9823 movl 30976(%rbx), %eax testb $1, %al je .LBB1_9826 movq 32448(%rbx), %rax movq $0, (%r13,%rax,8) .LBB1_9826: movl 31040(%rbx), %eax testb $1, %al je .LBB1_9828 movq 32480(%rbx), %rax movq $0, (%r13,%rax,8) .LBB1_9828: movl 31008(%rbx), %eax testb $1, %al je .LBB1_9830 movq 32544(%rbx), %rax movq $0, (%r13,%rax,8) .LBB1_9830: movl 31168(%rbx), %eax testb $1, %al je .LBB1_9832 movq 32576(%rbx), %rax movq $0, (%r13,%rax,8) .LBB1_9832: movl 31072(%rbx), %eax testb $1, %al je .LBB1_9834 movq 32640(%rbx), %rax movq $0, (%r13,%rax,8) .LBB1_9834: movl 31200(%rbx), %eax testb $1, %al je .LBB1_9836 movq 32672(%rbx), %rax movq $0, (%r13,%rax,8) .LBB1_9836: movl 31232(%rbx), %eax testb $1, %al je .LBB1_9838 movq 32704(%rbx), %rax movq $0, (%r13,%rax,8) .LBB1_9838: movl 31264(%rbx), %eax testb $1, %al je .LBB1_3617 jmp .LBB1_9839 .LBB1_9823: movq 32448(%rbx), %rax movq $0, (%r13,%rax,8) movq 32480(%rbx), %rax movq $0, (%r13,%rax,8) movq 32544(%rbx), %rax movq $0, (%r13,%rax,8) movq 32576(%rbx), %rax movq $0, (%r13,%rax,8) movq 32640(%rbx), %rax movq $0, (%r13,%rax,8) movq 32672(%rbx), %rax movq $0, (%r13,%rax,8) movq 32704(%rbx), %rax movq $0, (%r13,%rax,8) .LBB1_9839: movq 32512(%rbx), %rax movq $0, (%r13,%rax,8) .align 16, 0x90 .LBB1_3617: vmovdqa 26944(%rbx), %xmm2 vpmovzxwd %xmm2, %xmm0 vpslld $31, %xmm0, %xmm0 vpsrad $31, %xmm0, %xmm0 vpunpckhwd %xmm0, %xmm2, %xmm1 vmovdqa %xmm2, %xmm3 vpslld $31, %xmm1, %xmm1 vpsrad $31, %xmm1, %xmm1 vinsertf128 $1, %xmm1, %ymm0, %ymm0 vmovdqa 2880(%rbx), %ymm1 vptest %ymm1, %ymm0 jb .LBB1_3618 movl 27008(%rbx), %eax testb $1, %al je .LBB1_5138 vmovaps 21504(%rbx), %ymm0 movq 27520(%rbx), %rax vmovsd %xmm0, (%rax) .LBB1_5138: movl 27040(%rbx), %eax testb $1, %al je .LBB1_5140 vmovaps 20160(%rbx), %xmm0 movq 27584(%rbx), %rax vmovsd %xmm0, (%rax) .LBB1_5140: movl 27072(%rbx), %eax testb $1, %al je .LBB1_5142 vmovaps 20896(%rbx), %xmm0 movq 27552(%rbx), %rax vmovsd %xmm0, (%rax) .LBB1_5142: movl 27104(%rbx), %eax testb $1, %al movl 26912(%rbx), %eax je .LBB1_5144 vmovaps 20224(%rbx), %xmm0 movq 27616(%rbx), %rcx vmovsd %xmm0, (%rcx) .LBB1_5144: movl 27136(%rbx), %ecx testb $1, %cl je .LBB1_5146 vmovaps 21568(%rbx), %ymm0 movq 27648(%rbx), %rcx vmovsd %xmm0, (%rcx) .LBB1_5146: movl 27168(%rbx), %ecx testb $1, %cl je .LBB1_5148 vmovaps 20288(%rbx), %xmm0 movq 27744(%rbx), %rcx vmovsd %xmm0, (%rcx) .LBB1_5148: movl 27200(%rbx), %ecx testb $1, %cl je .LBB1_5150 vmovaps 20960(%rbx), %xmm0 movq 27680(%rbx), %rcx vmovsd %xmm0, (%rcx) .LBB1_5150: testb $1, %al je .LBB1_5152 vmovaps 20320(%rbx), %xmm0 movq 27712(%rbx), %rcx vmovsd %xmm0, (%rcx) .LBB1_5152: movl 27008(%rbx), %ecx testb $1, %cl je .LBB1_5154 vmovaps 21536(%rbx), %ymm0 movq 27840(%rbx), %rcx vmovsd %xmm0, (%r13,%rcx,8) .LBB1_5154: movl 27040(%rbx), %ecx testb $1, %cl je .LBB1_5156 vmovaps 20096(%rbx), %xmm0 movq 27904(%rbx), %rcx vmovsd %xmm0, (%r13,%rcx,8) .LBB1_5156: movl 27072(%rbx), %ecx testb $1, %cl je .LBB1_5158 vmovaps 20864(%rbx), %xmm0 movq 30624(%rbx), %rcx vmovsd %xmm0, (%r13,%rcx,8) .LBB1_5158: movl 27104(%rbx), %ecx testb $1, %cl je .LBB1_5160 vmovaps 20128(%rbx), %xmm0 movq 27872(%rbx), %rcx vmovsd %xmm0, (%r13,%rcx,8) .LBB1_5160: movl 27136(%rbx), %ecx testb $1, %cl je .LBB1_5162 vmovaps 21600(%rbx), %ymm0 movq 27936(%rbx), %rcx vmovsd %xmm0, (%r13,%rcx,8) .LBB1_5162: movl 27168(%rbx), %ecx testb $1, %cl je .LBB1_5164 vmovaps 20192(%rbx), %xmm0 movq 28000(%rbx), %rcx vmovsd %xmm0, (%r13,%rcx,8) .LBB1_5164: movl 27200(%rbx), %ecx testb $1, %cl je .LBB1_5166 vmovaps 20928(%rbx), %xmm0 movq 27968(%rbx), %rcx vmovsd %xmm0, (%r13,%rcx,8) .LBB1_5166: testb $1, %al je .LBB1_5168 jmp .LBB1_5167 .align 16, 0x90 .LBB1_3618: vmovaps 21504(%rbx), %ymm0 movq 27520(%rbx), %rax vmovsd %xmm0, (%rax) vmovaps 20160(%rbx), %xmm0 movq 27584(%rbx), %rax vmovsd %xmm0, (%rax) vmovaps 20896(%rbx), %xmm0 movq 27552(%rbx), %rax vmovsd %xmm0, (%rax) vmovaps 20224(%rbx), %xmm0 movq 27616(%rbx), %rax vmovsd %xmm0, (%rax) vmovaps 21568(%rbx), %ymm0 movq 27648(%rbx), %rax vmovsd %xmm0, (%rax) vmovaps 20288(%rbx), %xmm0 movq 27744(%rbx), %rax vmovsd %xmm0, (%rax) vmovaps 20960(%rbx), %xmm0 movq 27680(%rbx), %rax vmovsd %xmm0, (%rax) vmovaps 20320(%rbx), %xmm0 movq 27712(%rbx), %rax vmovsd %xmm0, (%rax) vmovaps 21536(%rbx), %ymm0 movq 27840(%rbx), %rax vmovsd %xmm0, (%r13,%rax,8) vmovaps 20096(%rbx), %xmm0 movq 27904(%rbx), %rax vmovsd %xmm0, (%r13,%rax,8) vmovaps 20864(%rbx), %xmm0 movq 30624(%rbx), %rax vmovsd %xmm0, (%r13,%rax,8) vmovaps 20128(%rbx), %xmm0 movq 27872(%rbx), %rax vmovsd %xmm0, (%r13,%rax,8) vmovaps 21600(%rbx), %ymm0 movq 27936(%rbx), %rax vmovsd %xmm0, (%r13,%rax,8) vmovaps 20192(%rbx), %xmm0 movq 28000(%rbx), %rax vmovsd %xmm0, (%r13,%rax,8) vmovaps 20928(%rbx), %xmm0 movq 27968(%rbx), %rax vmovsd %xmm0, (%r13,%rax,8) .LBB1_5167: vmovaps 20256(%rbx), %xmm0 movq 28032(%rbx), %rax vmovsd %xmm0, (%r13,%rax,8) .LBB1_5168: vpand %xmm15, %xmm3, %xmm0 vpxor .LCPI1_17(%rip), %xmm0, %xmm1 vpmovzxwd %xmm1, %xmm2 vpslld $31, %xmm2, %xmm2 vpsrad $31, %xmm2, %xmm2 vpunpckhwd %xmm0, %xmm1, %xmm1 vpslld $31, %xmm1, %xmm1 vpsrad $31, %xmm1, %xmm1 vinsertf128 $1, %xmm1, %ymm2, %ymm1 vmovdqa 2848(%rbx), %ymm2 vptest %ymm2, %ymm1 jb .LBB1_5187 vpmovzxwd %xmm0, %xmm1 vpslld $31, %xmm1, %xmm1 vpsrad $31, %xmm1, %xmm1 vpunpckhwd %xmm0, %xmm0, %xmm2 vpslld $31, %xmm2, %xmm2 vpsrad $31, %xmm2, %xmm2 vinsertf128 $1, %xmm2, %ymm1, %ymm1 vmovdqa 2816(%rbx), %ymm2 vptest %ymm2, %ymm1 jb .LBB1_5170 vpextrb $0, %xmm0, %ecx vpextrb $2, %xmm0, %edx vpextrb $4, %xmm0, %eax testb $1, %cl je .LBB1_5173 vmovaps 29760(%rbx), %ymm1 movq 29696(%rbx), %rcx vmovsd %xmm1, (%r13,%rcx,8) .LBB1_5173: vpextrb $6, %xmm0, %ecx testb $1, %dl je .LBB1_5175 vmovaps 28160(%rbx), %xmm1 movq 30432(%rbx), %rdx vmovsd %xmm1, (%r13,%rdx,8) .LBB1_5175: vpextrb $8, %xmm0, %edx testb $1, %al je .LBB1_5177 vmovaps 28288(%rbx), %xmm1 movq 28064(%rbx), %rax vmovsd %xmm1, (%r13,%rax,8) .LBB1_5177: vpextrb $10, %xmm0, %eax testb $1, %cl je .LBB1_5179 vmovaps 28192(%rbx), %xmm1 movq 28096(%rbx), %rcx vmovsd %xmm1, (%r13,%rcx,8) .LBB1_5179: vpextrb $12, %xmm0, %ecx testb $1, %dl je .LBB1_5181 vmovaps 29792(%rbx), %ymm1 movq 30464(%rbx), %rdx vmovsd %xmm1, (%r13,%rdx,8) .LBB1_5181: vpextrb $14, %xmm0, %edx testb $1, %al je .LBB1_5183 vmovdqa 28224(%rbx), %xmm0 movq 30656(%rbx), %rax vmovsd %xmm0, (%r13,%rax,8) .LBB1_5183: testb $1, %cl je .LBB1_5185 vmovdqa 28320(%rbx), %xmm0 movq 28128(%rbx), %rax vmovsd %xmm0, (%r13,%rax,8) .LBB1_5185: testb $1, %dl je .LBB1_5187 jmp .LBB1_5186 .LBB1_5170: vmovaps 29760(%rbx), %ymm0 movq 29696(%rbx), %rax vmovsd %xmm0, (%r13,%rax,8) vmovaps 28160(%rbx), %xmm0 movq 30432(%rbx), %rax vmovsd %xmm0, (%r13,%rax,8) vmovaps 28288(%rbx), %xmm0 movq 28064(%rbx), %rax vmovsd %xmm0, (%r13,%rax,8) vmovaps 28192(%rbx), %xmm0 movq 28096(%rbx), %rax vmovsd %xmm0, (%r13,%rax,8) vmovaps 29792(%rbx), %ymm0 movq 30464(%rbx), %rax vmovsd %xmm0, (%r13,%rax,8) vmovaps 28224(%rbx), %xmm0 movq 30656(%rbx), %rax vmovsd %xmm0, (%r13,%rax,8) vmovdqa 28320(%rbx), %xmm0 movq 28128(%rbx), %rax vmovsd %xmm0, (%r13,%rax,8) .LBB1_5186: vmovdqa 28256(%rbx), %xmm0 movq 29728(%rbx), %rax vmovsd %xmm0, (%r13,%rax,8) .LBB1_5187: vmovapd .LCPI1_70(%rip), %ymm1 vmovapd 27328(%rbx), %ymm0 vcmpltpd %ymm1, %ymm0, %ymm2 vmovapd %ymm2, 32032(%rbx) vextractf128 $1, %ymm2, %xmm0 vpshufd $8, %xmm0, %xmm4 vmovdqa %xmm4, 32000(%rbx) vpshufd $8, %xmm2, %xmm0 vmovlhps %xmm4, %xmm0, %xmm0 vmovapd 27360(%rbx), %ymm2 vcmpltpd %ymm1, %ymm2, %ymm2 vmovapd %ymm2, 31968(%rbx) vextractf128 $1, %ymm2, %xmm1 vpshufd $8, %xmm1, %xmm4 vmovdqa %xmm4, 31936(%rbx) vpshufd $8, %xmm2, %xmm1 vpshufb .LCPI1_21(%rip), %xmm0, %xmm0 vmovlhps %xmm4, %xmm1, %xmm1 vpshufb .LCPI1_20(%rip), %xmm1, %xmm1 vpor %xmm1, %xmm0, %xmm0 vpsllw $15, %xmm0, %xmm0 vpsraw $15, %xmm0, %xmm1 vpxor .LCPI1_17(%rip), %xmm1, %xmm0 vmovdqa %xmm0, 31616(%rbx) vpand %xmm0, %xmm3, %xmm9 vpand %xmm1, %xmm3, %xmm2 vpmovzxwd %xmm2, %xmm1 vpunpckhwd %xmm0, %xmm2, %xmm3 vpextrb $12, %xmm9, %eax movl %eax, 31328(%rbx) vpextrb $14, %xmm9, %eax movl %eax, 31360(%rbx) vpslld $31, %xmm3, %xmm3 vpslld $31, %xmm1, %xmm1 vpsrad $31, %xmm1, %xmm1 vpsrad $31, %xmm3, %xmm3 vinsertf128 $1, %xmm3, %ymm1, %ymm1 vpextrb $10, %xmm9, %eax movl %eax, 31520(%rbx) vpextrb $8, %xmm9, %eax movl %eax, 31264(%rbx) vpextrb $6, %xmm9, %eax movl %eax, 31232(%rbx) vpextrb $4, %xmm9, %eax movl %eax, 31488(%rbx) vpextrb $2, %xmm9, %eax movl %eax, 31424(%rbx) vpextrb $0, %xmm9, %eax movl %eax, 31392(%rbx) vmovdqa 2784(%rbx), %ymm3 vptest %ymm3, %ymm1 jb .LBB1_5188 vpextrb $0, %xmm2, %ecx vpextrb $2, %xmm2, %r10d vpextrb $4, %xmm2, %r8d testb $1, %cl je .LBB1_5191 movq 32192(%rbx), %rax movq $0, (%r14,%rax,8) .LBB1_5191: vpextrb $6, %xmm2, %r9d testb $1, %r10b je .LBB1_5193 movq 32256(%rbx), %rax movq $0, (%r14,%rax,8) .LBB1_5193: vpextrb $8, %xmm2, %r11d testb $1, %r8b je .LBB1_5195 movq 32224(%rbx), %rax movq $0, (%r14,%rax,8) .LBB1_5195: vpextrb $10, %xmm2, %edi testb $1, %r9b je .LBB1_5197 movq 32288(%rbx), %rax movq $0, (%r14,%rax,8) .LBB1_5197: vpextrb $12, %xmm2, %eax testb $1, %r11b je .LBB1_5199 movq 32320(%rbx), %rdx movq $0, (%r14,%rdx,8) .LBB1_5199: vpextrb $14, %xmm2, %edx testb $1, %dil vmovdqa .LCPI1_10(%rip), %xmm0 je .LBB1_5201 movq 32384(%rbx), %rsi movq $0, (%r14,%rsi,8) .LBB1_5201: testb $1, %al je .LBB1_5203 movq 32352(%rbx), %rsi movq $0, (%r14,%rsi,8) .LBB1_5203: testb $1, %dl je .LBB1_5205 movq 32416(%rbx), %rsi movq $0, (%r14,%rsi,8) .LBB1_5205: testb $1, %cl je .LBB1_5207 movq 32832(%rbx), %rsi movq $0, (%r15,%rsi,8) .LBB1_5207: testb $1, %r10b je .LBB1_5209 movq 32864(%rbx), %rsi movq $0, (%r15,%rsi,8) .LBB1_5209: movq %r12, 31456(%rbx) vmovdqa %xmm0, %xmm10 testb $1, %r8b je .LBB1_5211 movq 32736(%rbx), %rsi movq $0, (%r15,%rsi,8) .LBB1_5211: testb $1, %r9b vmovdqa .LCPI1_17(%rip), %xmm13 vmovdqa %xmm13, %xmm0 vmovaps 21792(%rbx), %ymm12 je .LBB1_5213 movq 32800(%rbx), %rsi movq $0, (%r15,%rsi,8) .LBB1_5213: testb $1, %r11b je .LBB1_5215 movq 32896(%rbx), %rsi movq $0, (%r15,%rsi,8) .LBB1_5215: testb $1, %dil je .LBB1_5217 movq 32928(%rbx), %rsi movq $0, (%r15,%rsi,8) .LBB1_5217: testb $1, %al je .LBB1_5219 movq 32960(%rbx), %rsi movq $0, (%r15,%rsi,8) .LBB1_5219: testb $1, %dl je .LBB1_5221 movq 32992(%rbx), %rsi movq $0, (%r15,%rsi,8) .LBB1_5221: testb $1, %cl je .LBB1_5223 movq 32832(%rbx), %rcx movq $0, (%r13,%rcx,8) .LBB1_5223: testb $1, %r10b je .LBB1_5225 movq 32864(%rbx), %rcx movq $0, (%r13,%rcx,8) .LBB1_5225: testb $1, %r8b je .LBB1_5227 movq 32736(%rbx), %rcx movq $0, (%r13,%rcx,8) .LBB1_5227: testb $1, %r9b je .LBB1_5229 movq 32800(%rbx), %rcx movq $0, (%r13,%rcx,8) .LBB1_5229: testb $1, %r11b je .LBB1_5231 movq 32896(%rbx), %rcx movq $0, (%r13,%rcx,8) .LBB1_5231: movq %r13, %rsi movq %r15, %r13 testb $1, %dil je .LBB1_5233 movq 32928(%rbx), %rcx movq $0, (%rsi,%rcx,8) .LBB1_5233: testb $1, %al je .LBB1_5235 movq 32960(%rbx), %rax movq $0, (%rsi,%rax,8) .LBB1_5235: testb $1, %dl je .LBB1_5237 movq 32992(%rbx), %rax movq $0, (%rsi,%rax,8) jmp .LBB1_5237 .align 16, 0x90 .LBB1_5188: movq %r12, 31456(%rbx) vmovdqa .LCPI1_10(%rip), %xmm10 movq 32192(%rbx), %rax movq $0, (%r14,%rax,8) movq 32256(%rbx), %rax movq $0, (%r14,%rax,8) movq 32224(%rbx), %rax movq $0, (%r14,%rax,8) movq 32288(%rbx), %rax movq $0, (%r14,%rax,8) movq 32320(%rbx), %rax movq $0, (%r14,%rax,8) movq 32384(%rbx), %rax movq $0, (%r14,%rax,8) movq 32352(%rbx), %rax movq $0, (%r14,%rax,8) movq 32416(%rbx), %rax movq $0, (%r14,%rax,8) movq 32832(%rbx), %rdx movq $0, (%r15,%rdx,8) movq 32864(%rbx), %r10 movq $0, (%r15,%r10,8) movq 32736(%rbx), %r9 movq $0, (%r15,%r9,8) movq 32800(%rbx), %r8 movq $0, (%r15,%r8,8) movq 32896(%rbx), %rdi movq $0, (%r15,%rdi,8) movq 32928(%rbx), %rsi movq $0, (%r15,%rsi,8) movq 32960(%rbx), %r11 movq $0, (%r15,%r11,8) movq 32992(%rbx), %rcx movq $0, (%r15,%rcx,8) movq %r13, %rax movq %r15, %r13 movq $0, (%rax,%rdx,8) movq $0, (%rax,%r10,8) movq $0, (%rax,%r9,8) movq $0, (%rax,%r8,8) movq $0, (%rax,%rdi,8) movq $0, (%rax,%rsi,8) movq $0, (%rax,%r11,8) movq $0, (%rax,%rcx,8) movq %rax, %rsi vmovdqa .LCPI1_17(%rip), %xmm13 vmovdqa %xmm13, %xmm0 vmovaps 21792(%rbx), %ymm12 .LBB1_5237: cmpl $63, 27392(%rbx) setne %al movzbl %al, %eax vmovd %eax, %xmm1 vpunpcklwd %xmm1, %xmm1, %xmm1 vpshufd $0, %xmm1, %xmm1 vmovdqa %xmm1, 31808(%rbx) vpxor %xmm14, %xmm14, %xmm14 vpand %xmm1, %xmm2, %xmm3 vpxor %xmm0, %xmm3, %xmm4 vpmovzxwd %xmm4, %xmm5 vpslld $31, %xmm5, %xmm5 vpsrad $31, %xmm5, %xmm5 vpunpckhwd %xmm0, %xmm4, %xmm4 vpslld $31, %xmm4, %xmm4 vpsrad $31, %xmm4, %xmm4 vinsertf128 $1, %xmm4, %ymm5, %ymm4 vmovdqa 2752(%rbx), %ymm5 vptest %ymm5, %ymm4 jb .LBB1_5273 vextractf128 $1, %ymm11, %xmm4 vextractf128 $1, %ymm8, %xmm1 vpaddq %xmm7, %xmm1, %xmm1 vpaddq %xmm7, %xmm11, %xmm5 vpaddq %xmm7, %xmm4, %xmm6 vpmovzxwd %xmm3, %xmm4 vpslld $31, %xmm4, %xmm4 vpextrq $1, %xmm6, %r15 vmovd %xmm6, %r8 vpextrq $1, %xmm5, %rcx vmovd %xmm5, %rdx vpextrq $1, %xmm1, %r12 vmovd %xmm1, %rdi vpaddq %xmm7, %xmm8, %xmm1 vpsrad $31, %xmm4, %xmm4 vpunpckhwd %xmm0, %xmm3, %xmm5 vpslld $31, %xmm5, %xmm5 vpsrad $31, %xmm5, %xmm5 vinsertf128 $1, %xmm5, %ymm4, %ymm4 vpextrq $1, %xmm1, %r10 vmovd %xmm1, %r11 vmovdqa 2720(%rbx), %ymm1 vptest %ymm1, %ymm4 jb .LBB1_5239 movq %rdi, 32160(%rbx) vpextrb $4, %xmm3, %esi vpextrb $2, %xmm3, %eax vpextrb $0, %xmm3, %r9d testb $1, %r9b je .LBB1_5242 vmovdqa 24896(%rbx), %ymm1 vmovsd %xmm1, (%r13,%rdx,8) .LBB1_5242: movq %r12, 32128(%rbx) vpextrb $6, %xmm3, %edi testb $1, %al movl %eax, 31872(%rbx) je .LBB1_5244 vmovdqa 21888(%rbx), %xmm1 vmovsd %xmm1, (%r13,%rcx,8) .LBB1_5244: vpextrb $8, %xmm3, %eax testb $1, %sil je .LBB1_5246 vmovdqa 23936(%rbx), %xmm1 vmovsd %xmm1, (%r13,%r8,8) .LBB1_5246: movl %esi, 32064(%rbx) vpextrb $10, %xmm3, %r12d testb $1, %dil movl %edi, 32096(%rbx) je .LBB1_5248 vmovdqa 21952(%rbx), %xmm1 vmovsd %xmm1, (%r13,%r15,8) .LBB1_5248: vpextrb $12, %xmm3, %edi testb $1, %al movl %eax, 31904(%rbx) je .LBB1_5250 vmovdqa 26048(%rbx), %ymm1 vmovsd %xmm1, (%r13,%r11,8) .LBB1_5250: vpextrb $14, %xmm3, %r14d testb $1, %r12b je .LBB1_5252 vmovdqa 22016(%rbx), %xmm1 vmovsd %xmm1, (%r13,%r10,8) .LBB1_5252: testb $1, %dil je .LBB1_5254 vmovdqa 24000(%rbx), %xmm1 movq 32160(%rbx), %rsi vmovsd %xmm1, (%r13,%rsi,8) .LBB1_5254: testb $1, %r14b movl 31872(%rbx), %eax je .LBB1_5256 vmovdqa 22048(%rbx), %xmm1 movq 32128(%rbx), %rsi vmovsd %xmm1, (%r13,%rsi,8) .LBB1_5256: testb $1, %r9b je .LBB1_5258 movq 12472(%rbx), %rsi vmovdqa 25664(%rbx), %ymm1 vmovsd %xmm1, (%rsi,%rdx,8) .LBB1_5258: testb $1, %al movq 12472(%rbx), %rsi je .LBB1_5260 vmovdqa 21824(%rbx), %xmm1 vmovsd %xmm1, (%rsi,%rcx,8) .LBB1_5260: movl 32064(%rbx), %ecx testb $1, %cl je .LBB1_5262 vmovdqa 23904(%rbx), %xmm1 vmovsd %xmm1, (%rsi,%r8,8) .LBB1_5262: movl 32096(%rbx), %eax testb $1, %al je .LBB1_5264 vmovdqa 21856(%rbx), %xmm1 vmovsd %xmm1, (%rsi,%r15,8) .LBB1_5264: movl 31904(%rbx), %eax testb $1, %al je .LBB1_5266 vmovdqa 26080(%rbx), %ymm1 vmovsd %xmm1, (%rsi,%r11,8) .LBB1_5266: testb $1, %r12b je .LBB1_5268 vmovdqa 21920(%rbx), %xmm1 vmovsd %xmm1, (%rsi,%r10,8) .LBB1_5268: testb $1, %dil je .LBB1_5270 vmovdqa 23968(%rbx), %xmm1 movq 32160(%rbx), %rax vmovsd %xmm1, (%rsi,%rax,8) .LBB1_5270: testb $1, %r14b movq 32128(%rbx), %r12 je .LBB1_5272 jmp .LBB1_5271 .LBB1_5239: vmovaps 24896(%rbx), %ymm1 vmovsd %xmm1, (%r13,%rdx,8) vmovaps 21888(%rbx), %xmm1 vmovsd %xmm1, (%r13,%rcx,8) vmovaps 23936(%rbx), %xmm1 vmovsd %xmm1, (%r13,%r8,8) vmovaps 21952(%rbx), %xmm1 vmovsd %xmm1, (%r13,%r15,8) vmovaps 26048(%rbx), %ymm1 vmovsd %xmm1, (%r13,%r11,8) vmovaps 22016(%rbx), %xmm1 vmovsd %xmm1, (%r13,%r10,8) vmovaps 24000(%rbx), %xmm1 vmovsd %xmm1, (%r13,%rdi,8) vmovaps 22048(%rbx), %xmm1 vmovsd %xmm1, (%r13,%r12,8) vmovaps 25664(%rbx), %ymm1 vmovsd %xmm1, (%rsi,%rdx,8) vmovaps 21824(%rbx), %xmm1 vmovsd %xmm1, (%rsi,%rcx,8) vmovaps 23904(%rbx), %xmm1 vmovsd %xmm1, (%rsi,%r8,8) vmovaps 21856(%rbx), %xmm1 vmovsd %xmm1, (%rsi,%r15,8) vmovaps 26080(%rbx), %ymm1 vmovsd %xmm1, (%rsi,%r11,8) vmovaps 21920(%rbx), %xmm1 vmovsd %xmm1, (%rsi,%r10,8) vmovdqa 23968(%rbx), %xmm1 vmovsd %xmm1, (%rsi,%rdi,8) .LBB1_5271: vmovdqa 21984(%rbx), %xmm1 vmovsd %xmm1, (%rsi,%r12,8) .LBB1_5272: vmovdqa %xmm3, %xmm14 .LBB1_5273: vpand %xmm15, %xmm2, %xmm2 vpxor %xmm0, %xmm2, %xmm3 vpmovzxwd %xmm3, %xmm4 vpslld $31, %xmm4, %xmm4 vpsrad $31, %xmm4, %xmm4 vpunpckhwd %xmm0, %xmm3, %xmm3 vpslld $31, %xmm3, %xmm3 vpsrad $31, %xmm3, %xmm3 vinsertf128 $1, %xmm3, %ymm4, %ymm3 vmovdqa 2688(%rbx), %ymm4 vptest %ymm4, %ymm3 jb .LBB1_5274 vpmovzxwd %xmm2, %xmm3 vpslld $31, %xmm3, %xmm3 vpsrad $31, %xmm3, %xmm3 vpunpckhwd %xmm0, %xmm2, %xmm4 vpslld $31, %xmm4, %xmm4 vpsrad $31, %xmm4, %xmm4 vinsertf128 $1, %xmm4, %ymm3, %ymm3 vmovdqa 2656(%rbx), %ymm4 vptest %ymm4, %ymm3 jb .LBB1_5278 vpextrb $2, %xmm2, %r9d vpextrb $4, %xmm2, %r8d vpextrb $0, %xmm2, %r12d testb $1, %r12b je .LBB1_5281 movq 32448(%rbx), %rax movq $0, (%rsi,%rax,8) .LBB1_5281: vpextrb $6, %xmm2, %eax movl %eax, 31776(%rbx) testb $1, %r9b je .LBB1_5283 movq 32480(%rbx), %rax movq $0, (%rsi,%rax,8) .LBB1_5283: vpextrb $8, %xmm2, %eax movl %eax, 31744(%rbx) testb $1, %r8b je .LBB1_5285 movq 32544(%rbx), %rax movq $0, (%rsi,%rax,8) .LBB1_5285: movq %r13, %rdx vpextrb $10, %xmm2, %r13d movl 31776(%rbx), %eax testb $1, %al je .LBB1_5287 movq 32576(%rbx), %rax movq $0, (%rsi,%rax,8) .LBB1_5287: vpextrb $12, %xmm2, %eax movl %eax, 31584(%rbx) movl 31744(%rbx), %eax testb $1, %al je .LBB1_5289 movq 32640(%rbx), %rax movq $0, (%rsi,%rax,8) .LBB1_5289: vpextrb $14, %xmm2, %eax movl %eax, 31552(%rbx) testb $1, %r13b je .LBB1_5291 movq 32672(%rbx), %rax movq $0, (%rsi,%rax,8) .LBB1_5291: movl 31584(%rbx), %eax testb $1, %al je .LBB1_5293 movq 32704(%rbx), %rax movq $0, (%rsi,%rax,8) .LBB1_5293: movl 31552(%rbx), %eax testb $1, %al je .LBB1_5295 movq 32512(%rbx), %rax movq $0, (%rsi,%rax,8) .LBB1_5295: vpaddq %xmm7, %xmm11, %xmm3 vmovd %xmm3, %r14 vpextrq $1, %xmm3, %rcx vextractf128 $1, %ymm11, %xmm3 vpaddq %xmm7, %xmm3, %xmm4 testb $1, %r12b je .LBB1_5297 vmovapd 24896(%rbx), %ymm3 vmovsd %xmm3, (%rdx,%r14,8) .LBB1_5297: vmovd %xmm4, %r15 leaq (%rdx,%rcx,8), %rax movq %rcx, 31840(%rbx) testb $1, %r9b je .LBB1_5299 vmovapd 21888(%rbx), %xmm3 vmovsd %xmm3, (%rax) .LBB1_5299: movq %rax, 32096(%rbx) vpaddq %xmm7, %xmm8, %xmm3 vpextrq $1, %xmm4, %rdi leaq (%rdx,%r15,8), %rax testb $1, %r8b je .LBB1_5301 vmovapd 23936(%rbx), %xmm4 vmovsd %xmm4, (%rax) .LBB1_5301: movq %rax, 32128(%rbx) vextractf128 $1, %ymm8, %xmm4 vmovd %xmm3, %r11 leaq (%rdx,%rdi,8), %rax movl 31776(%rbx), %ecx testb $1, %cl je .LBB1_5303 vmovdqa 21952(%rbx), %xmm5 vmovsd %xmm5, (%rax) .LBB1_5303: movl %r9d, 31168(%rbx) vpaddq %xmm7, %xmm4, %xmm4 vpextrq $1, %xmm3, %r10 leaq (%rdx,%r11,8), %r9 movl 31744(%rbx), %ecx testb $1, %cl je .LBB1_5305 vmovapd 26048(%rbx), %ymm3 vmovsd %xmm3, (%r9) .LBB1_5305: movq %r11, 31072(%rbx) movl %r8d, 32160(%rbx) movq %r9, 31872(%rbx) vmovd %xmm4, %r9 leaq (%rdx,%r10,8), %rcx testb $1, %r13b je .LBB1_5307 vmovapd 22016(%rbx), %xmm3 vmovsd %xmm3, (%rcx) .LBB1_5307: movl %r13d, %r11d movq %rcx, 31200(%rbx) vpextrq $1, %xmm4, %r8 leaq (%rdx,%r9,8), %r13 movl 31584(%rbx), %ecx testb $1, %cl je .LBB1_5309 vmovapd 24000(%rbx), %xmm3 vmovsd %xmm3, (%r13) .LBB1_5309: movq %r13, 31904(%rbx) leaq (%rdx,%r8,8), %r13 movl 31552(%rbx), %ecx testb $1, %cl je .LBB1_5311 vmovapd 22048(%rbx), %xmm3 vmovsd %xmm3, (%r13) .LBB1_5311: movq %r13, 32064(%rbx) testb $1, %r12b je .LBB1_5313 vmovapd 25664(%rbx), %ymm3 vmovsd %xmm3, (%rsi,%r14,8) .LBB1_5313: movl 31168(%rbx), %ecx testb $1, %cl movl %r11d, %r13d je .LBB1_5315 vmovapd 21824(%rbx), %xmm3 movq 31840(%rbx), %rcx vmovsd %xmm3, (%rsi,%rcx,8) .LBB1_5315: movl 32160(%rbx), %ecx testb $1, %cl movq 31072(%rbx), %r11 je .LBB1_5317 vmovapd 23904(%rbx), %xmm3 vmovsd %xmm3, (%rsi,%r15,8) .LBB1_5317: movq %r15, 32160(%rbx) movl 31776(%rbx), %ecx testb $1, %cl je .LBB1_5319 vmovapd 21856(%rbx), %xmm3 vmovsd %xmm3, (%rsi,%rdi,8) .LBB1_5319: movl 31744(%rbx), %ecx testb $1, %cl je .LBB1_5321 vmovapd 26080(%rbx), %ymm3 vmovsd %xmm3, (%rsi,%r11,8) .LBB1_5321: movq %r14, %r12 testb $1, %r13b je .LBB1_5323 vmovapd 21920(%rbx), %xmm3 vmovsd %xmm3, (%rsi,%r10,8) .LBB1_5323: movl 31584(%rbx), %ecx testb $1, %cl movq 31200(%rbx), %r14 je .LBB1_5325 vmovapd 23968(%rbx), %xmm3 vmovsd %xmm3, (%rsi,%r9,8) .LBB1_5325: movl 31552(%rbx), %ecx testb $1, %cl movq %rdx, %r13 movq 31840(%rbx), %r15 je .LBB1_5326 vmovapd 21984(%rbx), %xmm3 vmovsd %xmm3, (%rsi,%r8,8) .LBB1_5326: movq %r14, %rcx movq %r12, %r14 movq %rdi, %r12 movq 32160(%rbx), %rdi jmp .LBB1_5275 .align 16, 0x90 .LBB1_5274: vextractf128 $1, %ymm11, %xmm2 vpaddq %xmm7, %xmm2, %xmm2 vmovd %xmm2, %rdi vpaddq %xmm7, %xmm11, %xmm3 vextractf128 $1, %ymm8, %xmm4 vpaddq %xmm7, %xmm4, %xmm5 vpaddq %xmm7, %xmm8, %xmm4 vpextrq $1, %xmm4, %r10 vmovd %xmm5, %r9 vpextrq $1, %xmm5, %r8 vpextrq $1, %xmm3, %r15 vpextrq $1, %xmm2, %r12 leaq (%r13,%r12,8), %rax leaq (%r13,%rdi,8), %rcx movq %rcx, 32128(%rbx) leaq (%r13,%r15,8), %rdx movq %rdx, 32096(%rbx) vpxor %xmm2, %xmm2, %xmm2 vmovd %xmm3, %r14 vmovd %xmm4, %r11 leaq (%r13,%r8,8), %rdx movq %rdx, 32064(%rbx) leaq (%r13,%r9,8), %rcx movq %rcx, 31904(%rbx) leaq (%r13,%r10,8), %rcx leaq (%r13,%r11,8), %rdx movq %rdx, 31872(%rbx) jmp .LBB1_5275 .LBB1_5278: movq 32448(%rbx), %rax movq $0, (%rsi,%rax,8) movq 32480(%rbx), %rax movq $0, (%rsi,%rax,8) movq 32544(%rbx), %rax movq $0, (%rsi,%rax,8) movq 32576(%rbx), %rax movq $0, (%rsi,%rax,8) vextractf128 $1, %ymm11, %xmm3 movq 32640(%rbx), %rax movq $0, (%rsi,%rax,8) vpaddq %xmm7, %xmm3, %xmm4 vpaddq %xmm7, %xmm11, %xmm3 vpextrq $1, %xmm3, %r15 vmovd %xmm4, %rdi vpextrq $1, %xmm4, %r12 vextractf128 $1, %ymm8, %xmm4 movq 32672(%rbx), %rdx movq $0, (%rsi,%rdx,8) vpaddq %xmm7, %xmm4, %xmm4 leaq (%r13,%r12,8), %rax leaq (%r13,%rdi,8), %rcx movq %rcx, 32128(%rbx) leaq (%r13,%r15,8), %rdx movq %rdx, 32096(%rbx) vpaddq %xmm7, %xmm8, %xmm5 vpextrq $1, %xmm4, %r8 movq 32704(%rbx), %rdx movq $0, (%rsi,%rdx,8) leaq (%r13,%r8,8), %rdx movq %rdx, 32064(%rbx) vmovd %xmm4, %r9 leaq (%r13,%r9,8), %rcx movq %rcx, 31904(%rbx) vpextrq $1, %xmm5, %r10 leaq (%r13,%r10,8), %rcx vmovd %xmm5, %r11 leaq (%r13,%r11,8), %rdx movq %rdx, 31872(%rbx) vmovd %xmm3, %r14 movq 32512(%rbx), %rdx movq $0, (%rsi,%rdx,8) vmovaps 24896(%rbx), %ymm3 vmovsd %xmm3, (%r13,%r14,8) vmovaps 21888(%rbx), %xmm3 vmovsd %xmm3, (%r13,%r15,8) vmovaps 23936(%rbx), %xmm3 vmovsd %xmm3, (%r13,%rdi,8) vmovaps 21952(%rbx), %xmm3 vmovsd %xmm3, (%r13,%r12,8) vmovaps 26048(%rbx), %ymm3 vmovsd %xmm3, (%r13,%r11,8) vmovaps 22016(%rbx), %xmm3 vmovsd %xmm3, (%r13,%r10,8) vmovaps 24000(%rbx), %xmm3 vmovsd %xmm3, (%r13,%r9,8) vmovaps 22048(%rbx), %xmm3 vmovsd %xmm3, (%r13,%r8,8) vmovaps 25664(%rbx), %ymm3 vmovsd %xmm3, (%rsi,%r14,8) vmovaps 21824(%rbx), %xmm3 vmovsd %xmm3, (%rsi,%r15,8) vmovaps 23904(%rbx), %xmm3 vmovsd %xmm3, (%rsi,%rdi,8) vmovaps 21856(%rbx), %xmm3 vmovsd %xmm3, (%rsi,%r12,8) vmovaps 26080(%rbx), %ymm3 vmovsd %xmm3, (%rsi,%r11,8) vmovaps 21920(%rbx), %xmm3 vmovsd %xmm3, (%rsi,%r10,8) vmovaps 23968(%rbx), %xmm3 vmovsd %xmm3, (%rsi,%r9,8) vmovapd 21984(%rbx), %xmm3 vmovsd %xmm3, (%rsi,%r8,8) .LBB1_5275: vpmovzxwd %xmm9, %xmm3 vpslld $31, %xmm3, %xmm3 vpsrad $31, %xmm3, %xmm3 vpunpckhwd %xmm0, %xmm9, %xmm4 vpslld $31, %xmm4, %xmm4 vpsrad $31, %xmm4, %xmm4 vinsertf128 $1, %xmm4, %ymm3, %ymm3 vmovdqa 2624(%rbx), %ymm4 vptest %ymm4, %ymm3 jb .LBB1_5276 movq %r9, 31776(%rbx) movq %rax, %rdx movl 31392(%rbx), %eax testb $1, %al je .LBB1_5333 vmovaps 24896(%rbx), %ymm3 vmovsd %xmm3, (%r13,%r14,8) .LBB1_5333: movq %rcx, %r9 movl 31424(%rbx), %eax testb $1, %al movl 31264(%rbx), %r13d je .LBB1_5335 vmovaps 21888(%rbx), %xmm3 movq 32096(%rbx), %rax vmovsd %xmm3, (%rax) .LBB1_5335: movq %r8, 32096(%rbx) movq %r15, 31840(%rbx) movq %rdi, 32160(%rbx) movl 31488(%rbx), %eax testb $1, %al movl 31232(%rbx), %ecx je .LBB1_5337 vmovaps 23936(%rbx), %xmm3 movq 32128(%rbx), %rax vmovsd %xmm3, (%rax) .LBB1_5337: testb $1, %cl movl 31328(%rbx), %r15d je .LBB1_5339 vmovaps 21952(%rbx), %xmm3 vmovsd %xmm3, (%rdx) .LBB1_5339: testb $1, %r13b movl 31360(%rbx), %r8d je .LBB1_5341 vmovaps 26048(%rbx), %ymm3 movq 31872(%rbx), %rax vmovsd %xmm3, (%rax) .LBB1_5341: movl 31520(%rbx), %eax testb $1, %al je .LBB1_5343 vmovaps 22016(%rbx), %xmm3 vmovsd %xmm3, (%r9) .LBB1_5343: movq %r12, %rdx testb $1, %r15b movq 32064(%rbx), %rax je .LBB1_5345 vmovaps 24000(%rbx), %xmm3 movq 31904(%rbx), %r12 vmovsd %xmm3, (%r12) .LBB1_5345: testb $1, %r8b je .LBB1_5347 vmovaps 22048(%rbx), %xmm3 vmovsd %xmm3, (%rax) .LBB1_5347: movl 31392(%rbx), %eax testb $1, %al movq %r10, %r9 je .LBB1_5349 vmovaps 25664(%rbx), %ymm3 vmovsd %xmm3, (%rsi,%r14,8) .LBB1_5349: movl 31424(%rbx), %eax testb $1, %al je .LBB1_5351 vmovaps 21824(%rbx), %xmm3 movq 31840(%rbx), %rax vmovsd %xmm3, (%rsi,%rax,8) .LBB1_5351: movl 31488(%rbx), %eax testb $1, %al je .LBB1_5353 vmovaps 23904(%rbx), %xmm3 movq 32160(%rbx), %rax vmovsd %xmm3, (%rsi,%rax,8) .LBB1_5353: testb $1, %cl movq 31776(%rbx), %rcx je .LBB1_5355 vmovaps 21856(%rbx), %xmm3 vmovsd %xmm3, (%rsi,%rdx,8) .LBB1_5355: testb $1, %r13b je .LBB1_5357 vmovaps 26080(%rbx), %ymm3 vmovsd %xmm3, (%rsi,%r11,8) .LBB1_5357: movq %rsi, %r13 movl 31520(%rbx), %eax testb $1, %al je .LBB1_5359 vmovaps 21920(%rbx), %xmm3 vmovsd %xmm3, (%r13,%r9,8) .LBB1_5359: testb $1, %r15b je .LBB1_5361 vmovaps 23968(%rbx), %xmm3 vmovsd %xmm3, (%r13,%rcx,8) .LBB1_5361: testb $1, %r8b movq 32096(%rbx), %rax je .LBB1_5363 vmovaps 21984(%rbx), %xmm3 vmovsd %xmm3, (%r13,%rax,8) jmp .LBB1_5363 .align 16, 0x90 .LBB1_5276: vmovaps 24896(%rbx), %ymm3 vmovsd %xmm3, (%r13,%r14,8) vmovaps 21888(%rbx), %xmm3 movq 32096(%rbx), %rdx vmovsd %xmm3, (%rdx) vmovaps 23936(%rbx), %xmm3 movq 32128(%rbx), %rdx vmovsd %xmm3, (%rdx) vmovaps 21952(%rbx), %xmm3 vmovsd %xmm3, (%rax) vmovaps 26048(%rbx), %ymm3 movq 31872(%rbx), %rax vmovsd %xmm3, (%rax) vmovaps 22016(%rbx), %xmm3 vmovsd %xmm3, (%rcx) vmovaps 24000(%rbx), %xmm3 movq 31904(%rbx), %rax vmovsd %xmm3, (%rax) vmovaps 22048(%rbx), %xmm3 movq 32064(%rbx), %rax vmovsd %xmm3, (%rax) vmovaps 25664(%rbx), %ymm3 vmovsd %xmm3, (%rsi,%r14,8) vmovaps 21824(%rbx), %xmm3 vmovsd %xmm3, (%rsi,%r15,8) vmovaps 23904(%rbx), %xmm3 vmovsd %xmm3, (%rsi,%rdi,8) vmovaps 21856(%rbx), %xmm3 vmovsd %xmm3, (%rsi,%r12,8) vmovaps 26080(%rbx), %ymm3 vmovsd %xmm3, (%rsi,%r11,8) vmovaps 21920(%rbx), %xmm3 vmovsd %xmm3, (%rsi,%r10,8) vmovaps 23968(%rbx), %xmm3 vmovsd %xmm3, (%rsi,%r9,8) vmovaps 21984(%rbx), %xmm3 vmovsd %xmm3, (%rsi,%r8,8) movq %rsi, %r13 .LBB1_5363: vpand %xmm15, %xmm9, %xmm3 vpor %xmm2, %xmm3, %xmm2 vpmovzxwd %xmm2, %xmm3 vpunpckhwd %xmm0, %xmm2, %xmm5 vmovaps 31680(%rbx), %ymm6 vextractf128 $1, %ymm6, %xmm1 vmovaps %xmm1, 31776(%rbx) vpaddq %xmm7, %xmm1, %xmm4 vpslld $31, %xmm5, %xmm5 vpslld $31, %xmm3, %xmm3 vpsrad $31, %xmm3, %xmm3 vpsrad $31, %xmm5, %xmm5 vmovd %xmm4, %r15 vpaddq %xmm7, %xmm6, %xmm6 vmovdqa %xmm7, %xmm1 vmovaps 31712(%rbx), %ymm7 vextractf128 $1, %ymm7, %xmm13 vpextrq $1, %xmm4, %r11 vpextrq $1, %xmm6, %rcx vpaddq %xmm1, %xmm7, %xmm4 vpaddq %xmm1, %xmm13, %xmm7 vinsertf128 $1, %xmm5, %ymm3, %ymm3 vmovd %xmm6, %rsi vpextrq $1, %xmm7, %r8 vmovd %xmm7, %r9 vpextrq $1, %xmm4, %r10 vmovd %xmm4, %r14 vmovdqa 2592(%rbx), %ymm4 vptest %ymm4, %ymm3 jb .LBB1_5364 vpextrb $2, %xmm2, %edi vpextrb $4, %xmm2, %edx vpextrb $0, %xmm2, %eax testb $1, %al je .LBB1_5367 vmovaps 29824(%rbx), %ymm3 vmovsd %xmm3, (%r13,%rsi,8) .LBB1_5367: vpextrb $6, %xmm2, %esi testb $1, %dil je .LBB1_5369 vmovaps 28352(%rbx), %xmm3 vmovsd %xmm3, (%r13,%rcx,8) .LBB1_5369: vpextrb $8, %xmm2, %ecx testb $1, %dl je .LBB1_5371 vmovaps 28480(%rbx), %xmm3 vmovsd %xmm3, (%r13,%r15,8) .LBB1_5371: vpextrb $10, %xmm2, %eax testb $1, %sil je .LBB1_5373 vmovaps 28384(%rbx), %xmm3 vmovsd %xmm3, (%r13,%r11,8) .LBB1_5373: vpextrb $12, %xmm2, %edx testb $1, %cl movq 32632(%rbx), %r11 je .LBB1_5375 vmovaps 29856(%rbx), %ymm3 vmovsd %xmm3, (%r13,%r14,8) .LBB1_5375: vpextrb $14, %xmm2, %ecx testb $1, %al movq 22456(%rbx), %r14 je .LBB1_5377 vmovaps 28416(%rbx), %xmm3 vmovsd %xmm3, (%r13,%r10,8) .LBB1_5377: testb $1, %dl je .LBB1_5379 vmovaps 28512(%rbx), %xmm3 vmovsd %xmm3, (%r13,%r9,8) .LBB1_5379: testb $1, %cl je .LBB1_5381 vmovaps 28448(%rbx), %xmm3 vmovsd %xmm3, (%r13,%r8,8) jmp .LBB1_5381 .align 16, 0x90 .LBB1_5364: vmovaps 29824(%rbx), %ymm3 vmovsd %xmm3, (%r13,%rsi,8) vmovaps 28352(%rbx), %xmm3 vmovsd %xmm3, (%r13,%rcx,8) vmovaps 28480(%rbx), %xmm3 vmovsd %xmm3, (%r13,%r15,8) vmovaps 28384(%rbx), %xmm3 vmovsd %xmm3, (%r13,%r11,8) vmovaps 29856(%rbx), %ymm3 vmovsd %xmm3, (%r13,%r14,8) vmovaps 28416(%rbx), %xmm3 vmovsd %xmm3, (%r13,%r10,8) vmovaps 28512(%rbx), %xmm3 vmovsd %xmm3, (%r13,%r9,8) vmovaps 28448(%rbx), %xmm3 vmovsd %xmm3, (%r13,%r8,8) movq 32632(%rbx), %r11 movq 22456(%rbx), %r14 .LBB1_5381: vmovdqa 31968(%rbx), %ymm1 vpshufd $8, %xmm1, %xmm3 vmovaps 31936(%rbx), %xmm1 vmovlhps %xmm1, %xmm3, %xmm3 vmovdqa 32032(%rbx), %ymm1 vpshufd $8, %xmm1, %xmm4 vmovaps 32000(%rbx), %xmm1 vmovlhps %xmm1, %xmm4, %xmm4 vpshufb .LCPI1_21(%rip), %xmm4, %xmm4 vpshufb .LCPI1_20(%rip), %xmm3, %xmm3 vpor %xmm14, %xmm2, %xmm2 vmovdqa 31616(%rbx), %xmm14 vpand %xmm14, %xmm2, %xmm1 vpextrb $12, %xmm1, %eax movl %eax, 31360(%rbx) vpor %xmm3, %xmm4, %xmm3 vpsllw $15, %xmm3, %xmm3 vpsraw $15, %xmm3, %xmm3 vpextrb $0, %xmm1, %eax movl %eax, 31392(%rbx) vpextrb $2, %xmm1, %eax movl %eax, 31424(%rbx) vpextrb $4, %xmm1, %eax movl %eax, 31200(%rbx) vpextrb $6, %xmm1, %eax movl %eax, 31232(%rbx) vpextrb $8, %xmm1, %eax movl %eax, 31264(%rbx) vpextrb $10, %xmm1, %eax movl %eax, 31168(%rbx) vpextrb $14, %xmm1, %eax movl %eax, 31328(%rbx) vpand %xmm3, %xmm2, %xmm5 vpmovzxwd %xmm5, %xmm2 vpslld $31, %xmm2, %xmm2 vpsrad $31, %xmm2, %xmm2 vpunpckhwd %xmm0, %xmm5, %xmm3 vpslld $31, %xmm3, %xmm3 vpsrad $31, %xmm3, %xmm3 vinsertf128 $1, %xmm3, %ymm2, %ymm2 vmovdqa 2560(%rbx), %ymm3 vptest %ymm3, %ymm2 jb .LBB1_5382 vpextrb $0, %xmm5, %ecx vpextrb $2, %xmm5, %r10d vpextrb $4, %xmm5, %r8d testb $1, %cl je .LBB1_5385 movq 32192(%rbx), %rax movq $0, (%r14,%rax,8) .LBB1_5385: vpextrb $6, %xmm5, %r9d testb $1, %r10b je .LBB1_5387 movq 32256(%rbx), %rax movq $0, (%r14,%rax,8) .LBB1_5387: vpextrb $8, %xmm5, %esi testb $1, %r8b je .LBB1_5389 movq 32224(%rbx), %rax movq $0, (%r14,%rax,8) .LBB1_5389: vpextrb $10, %xmm5, %r15d testb $1, %r9b je .LBB1_5391 movq 32288(%rbx), %rax movq $0, (%r14,%rax,8) .LBB1_5391: vpextrb $12, %xmm5, %eax testb $1, %sil je .LBB1_5393 movq 32320(%rbx), %rdx movq $0, (%r14,%rdx,8) .LBB1_5393: vpextrb $14, %xmm5, %edx testb $1, %r15b je .LBB1_5395 movq 32384(%rbx), %rdi movq $0, (%r14,%rdi,8) .LBB1_5395: testb $1, %al je .LBB1_5397 movq 32352(%rbx), %rdi movq $0, (%r14,%rdi,8) .LBB1_5397: testb $1, %dl je .LBB1_5399 movq 32416(%rbx), %rdi movq $0, (%r14,%rdi,8) .LBB1_5399: testb $1, %cl je .LBB1_5401 movq 32832(%rbx), %rdi movq $0, (%r11,%rdi,8) .LBB1_5401: testb $1, %r10b je .LBB1_5403 movq 32864(%rbx), %rdi movq $0, (%r11,%rdi,8) .LBB1_5403: testb $1, %r8b je .LBB1_5405 movq 32736(%rbx), %rdi movq $0, (%r11,%rdi,8) .LBB1_5405: testb $1, %r9b je .LBB1_5407 movq 32800(%rbx), %rdi movq $0, (%r11,%rdi,8) .LBB1_5407: testb $1, %sil je .LBB1_5409 movq 32896(%rbx), %rdi movq $0, (%r11,%rdi,8) .LBB1_5409: testb $1, %r15b je .LBB1_5411 movq 32928(%rbx), %rdi movq $0, (%r11,%rdi,8) .LBB1_5411: testb $1, %al je .LBB1_5413 movq 32960(%rbx), %rdi movq $0, (%r11,%rdi,8) .LBB1_5413: testb $1, %dl je .LBB1_5415 movq 32992(%rbx), %rdi movq $0, (%r11,%rdi,8) .LBB1_5415: testb $1, %cl je .LBB1_5417 movq 32832(%rbx), %rcx movq $0, (%r13,%rcx,8) .LBB1_5417: testb $1, %r10b je .LBB1_5419 movq 32864(%rbx), %rcx movq $0, (%r13,%rcx,8) .LBB1_5419: testb $1, %r8b je .LBB1_5421 movq 32736(%rbx), %rcx movq $0, (%r13,%rcx,8) .LBB1_5421: testb $1, %r9b je .LBB1_5423 movq 32800(%rbx), %rcx movq $0, (%r13,%rcx,8) .LBB1_5423: testb $1, %sil je .LBB1_5425 movq 32896(%rbx), %rcx movq $0, (%r13,%rcx,8) .LBB1_5425: testb $1, %r15b je .LBB1_5427 movq 32928(%rbx), %rcx movq $0, (%r13,%rcx,8) .LBB1_5427: testb $1, %al je .LBB1_5429 movq 32960(%rbx), %rax movq $0, (%r13,%rax,8) .LBB1_5429: testb $1, %dl je .LBB1_5432 movq 32992(%rbx), %rax jmp .LBB1_5431 .align 16, 0x90 .LBB1_5382: movq 32192(%rbx), %rax movq $0, (%r14,%rax,8) movq 32256(%rbx), %rax movq $0, (%r14,%rax,8) movq 32224(%rbx), %rax movq $0, (%r14,%rax,8) movq 32288(%rbx), %rax movq $0, (%r14,%rax,8) movq 32320(%rbx), %rax movq $0, (%r14,%rax,8) movq 32384(%rbx), %rax movq $0, (%r14,%rax,8) movq 32352(%rbx), %rax movq $0, (%r14,%rax,8) movq 32416(%rbx), %rax movq $0, (%r14,%rax,8) movq 32832(%rbx), %r10 movq $0, (%r11,%r10,8) movq 32864(%rbx), %r9 movq $0, (%r11,%r9,8) movq 32736(%rbx), %r8 movq $0, (%r11,%r8,8) movq 32800(%rbx), %rsi movq $0, (%r11,%rsi,8) movq 32896(%rbx), %rdi movq $0, (%r11,%rdi,8) movq 32928(%rbx), %rdx movq $0, (%r11,%rdx,8) movq 32960(%rbx), %rcx movq $0, (%r11,%rcx,8) movq 32992(%rbx), %rax movq $0, (%r11,%rax,8) movq $0, (%r13,%r10,8) movq $0, (%r13,%r9,8) movq $0, (%r13,%r8,8) movq $0, (%r13,%rsi,8) movq $0, (%r13,%rdi,8) movq $0, (%r13,%rdx,8) movq $0, (%r13,%rcx,8) .LBB1_5431: movq $0, (%r13,%rax,8) .LBB1_5432: vpand %xmm15, %xmm5, %xmm3 vpxor %xmm0, %xmm3, %xmm2 vpmovzxwd %xmm2, %xmm4 vpslld $31, %xmm4, %xmm4 vpsrad $31, %xmm4, %xmm4 vpunpckhwd %xmm0, %xmm2, %xmm2 vpslld $31, %xmm2, %xmm2 vpsrad $31, %xmm2, %xmm2 vinsertf128 $1, %xmm2, %ymm4, %ymm2 vmovdqa 2528(%rbx), %ymm4 vptest %ymm4, %ymm2 jb .LBB1_5433 vpmovzxwd %xmm3, %xmm2 vpslld $31, %xmm2, %xmm2 vpsrad $31, %xmm2, %xmm2 vpunpckhwd %xmm0, %xmm3, %xmm4 vpslld $31, %xmm4, %xmm4 vpsrad $31, %xmm4, %xmm4 vinsertf128 $1, %xmm4, %ymm2, %ymm2 vmovdqa 2496(%rbx), %ymm4 vptest %ymm4, %ymm2 jb .LBB1_5436 vpextrb $0, %xmm3, %r10d vpextrb $2, %xmm3, %r9d vpextrb $4, %xmm3, %eax movl %eax, 31872(%rbx) testb $1, %r10b je .LBB1_5439 movq 32448(%rbx), %rax movq $0, (%r13,%rax,8) .LBB1_5439: vpextrb $6, %xmm3, %eax movl %eax, 31840(%rbx) testb $1, %r9b je .LBB1_5441 movq 32480(%rbx), %rax movq $0, (%r13,%rax,8) .LBB1_5441: vpextrb $8, %xmm3, %eax movl %eax, 31744(%rbx) movl 31872(%rbx), %eax testb $1, %al je .LBB1_5443 movq 32544(%rbx), %rax movq $0, (%r13,%rax,8) .LBB1_5443: vpextrb $10, %xmm3, %eax movl %eax, 31520(%rbx) movl 31840(%rbx), %eax testb $1, %al je .LBB1_5445 movq 32576(%rbx), %rax movq $0, (%r13,%rax,8) .LBB1_5445: vpextrb $12, %xmm3, %eax movl %eax, 31488(%rbx) movl 31744(%rbx), %eax testb $1, %al je .LBB1_5447 movq 32640(%rbx), %rax movq $0, (%r13,%rax,8) .LBB1_5447: vpextrb $14, %xmm3, %r8d movl 31520(%rbx), %eax testb $1, %al je .LBB1_5449 movq 32672(%rbx), %rdi movq $0, (%r13,%rdi,8) .LBB1_5449: movl 31488(%rbx), %eax testb $1, %al je .LBB1_5451 movq 32704(%rbx), %rdi movq $0, (%r13,%rdi,8) .LBB1_5451: movq %r11, %rsi testb $1, %r8b je .LBB1_5453 movq 32512(%rbx), %rdi movq $0, (%r13,%rdi,8) .LBB1_5453: vpaddq %xmm10, %xmm11, %xmm2 vmovd %xmm2, %rax vpextrq $1, %xmm2, %r12 vextractf128 $1, %ymm11, %xmm2 vpaddq %xmm10, %xmm2, %xmm4 vmovdqa %xmm10, %xmm7 testb $1, %r10b je .LBB1_5455 vmovapd 26112(%rbx), %ymm2 vmovsd %xmm2, (%rsi,%rax,8) .LBB1_5455: vmovd %xmm4, %rcx leaq (%rsi,%r12,8), %rdx testb $1, %r9b je .LBB1_5457 vmovapd 22112(%rbx), %xmm2 vmovsd %xmm2, (%rdx) .LBB1_5457: movl %r8d, 31072(%rbx) movq %rdx, 32160(%rbx) vpaddq %xmm7, %xmm8, %xmm2 vpextrq $1, %xmm4, %rdx movq 32632(%rbx), %rsi leaq (%rsi,%rcx,8), %rsi movl 31872(%rbx), %edi testb $1, %dil je .LBB1_5459 vmovapd 24064(%rbx), %xmm4 vmovsd %xmm4, (%rsi) .LBB1_5459: movl %r10d, %r8d movq %rsi, 31552(%rbx) vextractf128 $1, %ymm8, %xmm4 vmovd %xmm2, %r11 movq 32632(%rbx), %rsi leaq (%rsi,%rdx,8), %rsi movl 31840(%rbx), %edi testb $1, %dil je .LBB1_5461 vmovapd 22208(%rbx), %xmm6 vmovsd %xmm6, (%rsi) .LBB1_5461: movl %r9d, %r15d movq %rsi, 31584(%rbx) vpaddq %xmm7, %xmm4, %xmm4 vpextrq $1, %xmm2, %r10 movq 32632(%rbx), %rsi leaq (%rsi,%r11,8), %rsi movl 31744(%rbx), %edi testb $1, %dil je .LBB1_5463 vmovapd 26176(%rbx), %ymm2 vmovsd %xmm2, (%rsi) .LBB1_5463: movq %rsi, 31904(%rbx) vmovd %xmm4, %r9 movq 32632(%rbx), %rsi leaq (%rsi,%r10,8), %rsi movl 31520(%rbx), %edi testb $1, %dil vmovdqa %xmm13, %xmm10 je .LBB1_5465 vmovapd 22272(%rbx), %xmm2 vmovsd %xmm2, (%rsi) .LBB1_5465: movq %rsi, 32064(%rbx) vpextrq $1, %xmm4, %rdi movq 32632(%rbx), %rsi leaq (%rsi,%r9,8), %rsi movl 31488(%rbx), %r14d testb $1, %r14b vmovdqa %xmm0, %xmm13 je .LBB1_5467 vmovapd 24128(%rbx), %xmm2 vmovsd %xmm2, (%rsi) .LBB1_5467: movq %rsi, 32096(%rbx) movq 32632(%rbx), %rsi leaq (%rsi,%rdi,8), %rsi movl 31072(%rbx), %r14d testb $1, %r14b je .LBB1_5469 vmovapd 22304(%rbx), %xmm2 vmovsd %xmm2, (%rsi) .LBB1_5469: testb $1, %r8b je .LBB1_5471 vmovapd 26144(%rbx), %ymm2 vmovsd %xmm2, (%r13,%rax,8) .LBB1_5471: movq %rsi, 32128(%rbx) testb $1, %r15b je .LBB1_5473 vmovapd 22080(%rbx), %xmm2 vmovsd %xmm2, (%r13,%r12,8) .LBB1_5473: movl 31872(%rbx), %esi testb $1, %sil je .LBB1_5475 vmovapd 24032(%rbx), %xmm2 vmovsd %xmm2, (%r13,%rcx,8) .LBB1_5475: movl 31840(%rbx), %esi testb $1, %sil je .LBB1_5477 vmovapd 22144(%rbx), %xmm2 vmovsd %xmm2, (%r13,%rdx,8) .LBB1_5477: movl 31744(%rbx), %esi testb $1, %sil je .LBB1_5479 vmovapd 26208(%rbx), %ymm2 vmovsd %xmm2, (%r13,%r11,8) .LBB1_5479: movl 31520(%rbx), %esi testb $1, %sil je .LBB1_5481 vmovapd 22176(%rbx), %xmm2 vmovsd %xmm2, (%r13,%r10,8) .LBB1_5481: movl 31488(%rbx), %esi testb $1, %sil movq %rax, %r15 je .LBB1_5483 vmovapd 24096(%rbx), %xmm2 vmovsd %xmm2, (%r13,%r9,8) .LBB1_5483: testb $1, %r14b movq 31584(%rbx), %r8 movq 31552(%rbx), %r14 je .LBB1_5485 vmovapd 22240(%rbx), %xmm2 vmovsd %xmm2, (%r13,%rdi,8) jmp .LBB1_5485 .align 16, 0x90 .LBB1_5433: vextractf128 $1, %ymm11, %xmm2 vpaddq %xmm10, %xmm2, %xmm3 vmovd %xmm3, %rax vpaddq %xmm10, %xmm11, %xmm2 vextractf128 $1, %ymm8, %xmm4 vpaddq %xmm10, %xmm4, %xmm6 vpaddq %xmm10, %xmm8, %xmm4 vmovdqa %xmm10, %xmm7 vpextrq $1, %xmm4, %r10 vmovd %xmm6, %r9 vpextrq $1, %xmm6, %rdi vpextrq $1, %xmm2, %r12 vpextrq $1, %xmm3, %rdx leaq (%r11,%rdx,8), %r8 leaq (%r11,%rax,8), %r14 leaq (%r11,%r12,8), %rcx movq %rcx, 32160(%rbx) vpxor %xmm3, %xmm3, %xmm3 movq %r11, %rsi movq %rax, %rcx vmovd %xmm2, %r15 vmovd %xmm4, %r11 leaq (%rsi,%rdi,8), %rax movq %rax, 32128(%rbx) leaq (%rsi,%r9,8), %rax movq %rax, 32096(%rbx) leaq (%rsi,%r10,8), %rax movq %rax, 32064(%rbx) leaq (%rsi,%r11,8), %rax movq %rax, 31904(%rbx) jmp .LBB1_5434 .LBB1_5436: movq 32448(%rbx), %rax movq $0, (%r13,%rax,8) movq 32480(%rbx), %rax movq $0, (%r13,%rax,8) movq 32544(%rbx), %rax movq $0, (%r13,%rax,8) movq 32576(%rbx), %rax movq $0, (%r13,%rax,8) vextractf128 $1, %ymm11, %xmm2 movq 32640(%rbx), %rax movq $0, (%r13,%rax,8) vpaddq %xmm10, %xmm2, %xmm4 vpaddq %xmm10, %xmm11, %xmm2 vpextrq $1, %xmm2, %r12 vmovd %xmm4, %rcx vpextrq $1, %xmm4, %rdx vextractf128 $1, %ymm8, %xmm4 movq 32672(%rbx), %rax movq $0, (%r13,%rax,8) vpaddq %xmm10, %xmm4, %xmm4 leaq (%r11,%rdx,8), %r8 leaq (%r11,%rcx,8), %r14 leaq (%r11,%r12,8), %rax movq %rax, 32160(%rbx) vpaddq %xmm10, %xmm8, %xmm6 vmovdqa %xmm10, %xmm7 vpextrq $1, %xmm4, %rdi movq 32704(%rbx), %rax movq $0, (%r13,%rax,8) leaq (%r11,%rdi,8), %rax movq %rax, 32128(%rbx) vmovd %xmm4, %r9 leaq (%r11,%r9,8), %rax movq %rax, 32096(%rbx) vpextrq $1, %xmm6, %r10 leaq (%r11,%r10,8), %rax movq %rax, 32064(%rbx) vmovd %xmm6, %rax leaq (%r11,%rax,8), %rsi movq %rsi, 31904(%rbx) movq %r11, %rsi movq %rax, %r11 vmovd %xmm2, %r15 movq 32512(%rbx), %rax movq $0, (%r13,%rax,8) vmovaps 26112(%rbx), %ymm2 vmovsd %xmm2, (%rsi,%r15,8) vmovaps 22112(%rbx), %xmm2 vmovsd %xmm2, (%rsi,%r12,8) vmovaps 24064(%rbx), %xmm2 vmovsd %xmm2, (%rsi,%rcx,8) vmovaps 22208(%rbx), %xmm2 vmovsd %xmm2, (%rsi,%rdx,8) vmovaps 26176(%rbx), %ymm2 vmovsd %xmm2, (%rsi,%r11,8) vmovaps 22272(%rbx), %xmm2 vmovsd %xmm2, (%rsi,%r10,8) vmovaps 24128(%rbx), %xmm2 vmovsd %xmm2, (%rsi,%r9,8) vmovaps 22304(%rbx), %xmm2 vmovsd %xmm2, (%rsi,%rdi,8) vmovaps 26144(%rbx), %ymm2 vmovsd %xmm2, (%r13,%r15,8) vmovaps 22080(%rbx), %xmm2 vmovsd %xmm2, (%r13,%r12,8) vmovaps 24032(%rbx), %xmm2 vmovsd %xmm2, (%r13,%rcx,8) vmovaps 22144(%rbx), %xmm2 vmovsd %xmm2, (%r13,%rdx,8) vmovaps 26208(%rbx), %ymm2 vmovsd %xmm2, (%r13,%r11,8) vmovaps 22176(%rbx), %xmm2 vmovsd %xmm2, (%r13,%r10,8) vmovaps 24096(%rbx), %xmm2 vmovsd %xmm2, (%r13,%r9,8) vmovapd 22240(%rbx), %xmm2 vmovsd %xmm2, (%r13,%rdi,8) .LBB1_5434: vmovdqa %xmm13, %xmm10 vmovdqa %xmm0, %xmm13 .LBB1_5485: vpor %xmm9, %xmm5, %xmm0 vpand 31808(%rbx), %xmm0, %xmm0 vpmovzxwd %xmm0, %xmm2 vpslld $31, %xmm2, %xmm2 vpsrad $31, %xmm2, %xmm2 vpunpckhwd %xmm0, %xmm0, %xmm4 vpslld $31, %xmm4, %xmm4 vpsrad $31, %xmm4, %xmm4 vinsertf128 $1, %xmm4, %ymm2, %ymm2 vmovdqa 2464(%rbx), %ymm4 vptest %ymm4, %ymm2 jb .LBB1_5486 movq %r11, 31072(%rbx) movq %r10, 31840(%rbx) vpextrb $0, %xmm0, %r10d vpextrb $2, %xmm0, %r11d vpextrb $4, %xmm0, %esi testb $1, %r10b je .LBB1_5489 movq 32632(%rbx), %rax vmovaps 26112(%rbx), %ymm2 vmovsd %xmm2, (%rax,%r15,8) .LBB1_5489: movq %r9, 31872(%rbx) movq %rdi, 31744(%rbx) vpextrb $6, %xmm0, %eax movl %eax, 31520(%rbx) testb $1, %r11b je .LBB1_5491 vmovaps 22112(%rbx), %xmm2 movq 32160(%rbx), %rax vmovsd %xmm2, (%rax) .LBB1_5491: movq %r13, %r9 vpextrb $8, %xmm0, %eax movl %eax, 31488(%rbx) testb $1, %sil movq 31904(%rbx), %rdi je .LBB1_5493 vmovaps 24064(%rbx), %xmm2 vmovsd %xmm2, (%r14) .LBB1_5493: movl %esi, %eax movq %r14, 31552(%rbx) vpextrb $10, %xmm0, %r13d movl 31520(%rbx), %esi testb $1, %sil je .LBB1_5495 vmovaps 22208(%rbx), %xmm2 vmovsd %xmm2, (%r8) .LBB1_5495: movq %r8, 31584(%rbx) vpextrb $12, %xmm0, %r14d movl 31488(%rbx), %esi testb $1, %sil movq 32096(%rbx), %rsi je .LBB1_5497 vmovaps 26176(%rbx), %ymm2 vmovsd %xmm2, (%rdi) .LBB1_5497: vpextrb $14, %xmm0, %r8d testb $1, %r13b je .LBB1_5499 vmovaps 22272(%rbx), %xmm2 movq 32064(%rbx), %rdi vmovsd %xmm2, (%rdi) .LBB1_5499: testb $1, %r14b je .LBB1_5501 vmovaps 24128(%rbx), %xmm2 vmovsd %xmm2, (%rsi) .LBB1_5501: testb $1, %r8b je .LBB1_5503 vmovaps 22304(%rbx), %xmm2 movq 32128(%rbx), %rsi vmovsd %xmm2, (%rsi) .LBB1_5503: testb $1, %r10b je .LBB1_5505 vmovaps 26144(%rbx), %ymm2 vmovsd %xmm2, (%r9,%r15,8) .LBB1_5505: testb $1, %r11b je .LBB1_5507 vmovaps 22080(%rbx), %xmm2 vmovsd %xmm2, (%r9,%r12,8) .LBB1_5507: testb $1, %al movq 31840(%rbx), %r10 je .LBB1_5509 vmovaps 24032(%rbx), %xmm2 vmovsd %xmm2, (%r9,%rcx,8) .LBB1_5509: movl 31520(%rbx), %eax testb $1, %al movq 31072(%rbx), %r11 je .LBB1_5511 vmovaps 22144(%rbx), %xmm2 vmovsd %xmm2, (%r9,%rdx,8) .LBB1_5511: movl 31488(%rbx), %eax testb $1, %al je .LBB1_5513 vmovaps 26208(%rbx), %ymm2 vmovsd %xmm2, (%r9,%r11,8) .LBB1_5513: testb $1, %r13b movq %r9, %r13 je .LBB1_5515 vmovaps 22176(%rbx), %xmm2 vmovsd %xmm2, (%r13,%r10,8) .LBB1_5515: testb $1, %r14b movq 31744(%rbx), %rdi movq 31872(%rbx), %r9 je .LBB1_5517 vmovaps 24096(%rbx), %xmm2 vmovsd %xmm2, (%r13,%r9,8) .LBB1_5517: testb $1, %r8b movq 31584(%rbx), %r8 movq 31552(%rbx), %r14 je .LBB1_5519 jmp .LBB1_5518 .align 16, 0x90 .LBB1_5486: movq 32632(%rbx), %rax vmovaps 26112(%rbx), %ymm2 vmovsd %xmm2, (%rax,%r15,8) vmovaps 22112(%rbx), %xmm2 movq 32160(%rbx), %rax vmovsd %xmm2, (%rax) vmovaps 24064(%rbx), %xmm2 vmovsd %xmm2, (%r14) vmovaps 22208(%rbx), %xmm2 vmovsd %xmm2, (%r8) vmovaps 26176(%rbx), %ymm2 movq 31904(%rbx), %rax vmovsd %xmm2, (%rax) vmovaps 22272(%rbx), %xmm2 movq 32064(%rbx), %rax vmovsd %xmm2, (%rax) vmovaps 24128(%rbx), %xmm2 movq 32096(%rbx), %rax vmovsd %xmm2, (%rax) vmovaps 22304(%rbx), %xmm2 movq 32128(%rbx), %rax vmovsd %xmm2, (%rax) vmovaps 26144(%rbx), %ymm2 vmovsd %xmm2, (%r13,%r15,8) vmovaps 22080(%rbx), %xmm2 vmovsd %xmm2, (%r13,%r12,8) vmovaps 24032(%rbx), %xmm2 vmovsd %xmm2, (%r13,%rcx,8) vmovaps 22144(%rbx), %xmm2 vmovsd %xmm2, (%r13,%rdx,8) vmovaps 26208(%rbx), %ymm2 vmovsd %xmm2, (%r13,%r11,8) vmovaps 22176(%rbx), %xmm2 vmovsd %xmm2, (%r13,%r10,8) vmovaps 24096(%rbx), %xmm2 vmovsd %xmm2, (%r13,%r9,8) .LBB1_5518: vmovaps 22240(%rbx), %xmm2 vmovsd %xmm2, (%r13,%rdi,8) .LBB1_5519: vpmovzxwd %xmm1, %xmm2 vpslld $31, %xmm2, %xmm2 vpsrad $31, %xmm2, %xmm2 vpunpckhwd %xmm0, %xmm1, %xmm4 vpslld $31, %xmm4, %xmm4 vpsrad $31, %xmm4, %xmm4 vinsertf128 $1, %xmm4, %ymm2, %ymm2 vmovdqa 2432(%rbx), %ymm4 vptest %ymm4, %ymm2 movl 31200(%rbx), %esi jb .LBB1_5520 movq %r10, 31840(%rbx) movl 31392(%rbx), %eax testb $1, %al movl 31232(%rbx), %r10d je .LBB1_5523 movq 32632(%rbx), %rax vmovaps 26112(%rbx), %ymm2 vmovsd %xmm2, (%rax,%r15,8) .LBB1_5523: movq %r15, 31552(%rbx) movq %rdx, 31584(%rbx) movl 31424(%rbx), %eax testb $1, %al movl 31264(%rbx), %r15d je .LBB1_5525 vmovaps 22112(%rbx), %xmm2 movq 32160(%rbx), %rax vmovsd %xmm2, (%rax) .LBB1_5525: movq %r9, 31872(%rbx) movq %rdi, 31744(%rbx) testb $1, %sil movl 31360(%rbx), %edi movl 31168(%rbx), %edx je .LBB1_5527 vmovaps 24064(%rbx), %xmm2 vmovsd %xmm2, (%r14) .LBB1_5527: testb $1, %r10b je .LBB1_5529 vmovaps 22208(%rbx), %xmm2 vmovsd %xmm2, (%r8) .LBB1_5529: movq %r11, %r8 testb $1, %r15b movl 31328(%rbx), %r9d je .LBB1_5531 vmovaps 26176(%rbx), %ymm2 movq 31904(%rbx), %rax vmovsd %xmm2, (%rax) .LBB1_5531: movq %rcx, %r11 testb $1, %dl je .LBB1_5533 vmovaps 22272(%rbx), %xmm2 movq 32064(%rbx), %rax vmovsd %xmm2, (%rax) .LBB1_5533: testb $1, %dil movq %r11, %rcx je .LBB1_5535 vmovaps 24128(%rbx), %xmm2 movq 32096(%rbx), %rax vmovsd %xmm2, (%rax) .LBB1_5535: testb $1, %r9b je .LBB1_5537 vmovaps 22304(%rbx), %xmm2 movq 32128(%rbx), %rax vmovsd %xmm2, (%rax) .LBB1_5537: movl 31392(%rbx), %eax testb $1, %al je .LBB1_5539 vmovaps 26144(%rbx), %ymm2 movq 31552(%rbx), %rax vmovsd %xmm2, (%r13,%rax,8) .LBB1_5539: movl 31424(%rbx), %eax testb $1, %al je .LBB1_5541 vmovaps 22080(%rbx), %xmm2 vmovsd %xmm2, (%r13,%r12,8) .LBB1_5541: testb $1, %sil je .LBB1_5543 vmovaps 24032(%rbx), %xmm2 vmovsd %xmm2, (%r13,%rcx,8) .LBB1_5543: testb $1, %r10b je .LBB1_5545 vmovaps 22144(%rbx), %xmm2 movq 31584(%rbx), %rax vmovsd %xmm2, (%r13,%rax,8) .LBB1_5545: testb $1, %r15b movq 31840(%rbx), %rax je .LBB1_5547 vmovaps 26208(%rbx), %ymm2 vmovsd %xmm2, (%r13,%r8,8) .LBB1_5547: testb $1, %dl je .LBB1_5549 vmovaps 22176(%rbx), %xmm2 vmovsd %xmm2, (%r13,%rax,8) .LBB1_5549: testb $1, %dil je .LBB1_5551 vmovaps 24096(%rbx), %xmm2 movq 31872(%rbx), %rax vmovsd %xmm2, (%r13,%rax,8) .LBB1_5551: testb $1, %r9b movq 31744(%rbx), %rdi je .LBB1_5553 jmp .LBB1_5552 .align 16, 0x90 .LBB1_5520: movq 32632(%rbx), %rax vmovaps 26112(%rbx), %ymm2 vmovsd %xmm2, (%rax,%r15,8) vmovaps 22112(%rbx), %xmm2 movq 32160(%rbx), %rax vmovsd %xmm2, (%rax) vmovaps 24064(%rbx), %xmm2 vmovsd %xmm2, (%r14) vmovaps 22208(%rbx), %xmm2 vmovsd %xmm2, (%r8) vmovaps 26176(%rbx), %ymm2 movq 31904(%rbx), %rax vmovsd %xmm2, (%rax) vmovaps 22272(%rbx), %xmm2 movq 32064(%rbx), %rax vmovsd %xmm2, (%rax) vmovaps 24128(%rbx), %xmm2 movq 32096(%rbx), %rax vmovsd %xmm2, (%rax) vmovaps 22304(%rbx), %xmm2 movq 32128(%rbx), %rax vmovsd %xmm2, (%rax) vmovaps 26144(%rbx), %ymm2 vmovsd %xmm2, (%r13,%r15,8) vmovaps 22080(%rbx), %xmm2 vmovsd %xmm2, (%r13,%r12,8) vmovaps 24032(%rbx), %xmm2 vmovsd %xmm2, (%r13,%rcx,8) vmovaps 22144(%rbx), %xmm2 vmovsd %xmm2, (%r13,%rdx,8) vmovaps 26208(%rbx), %ymm2 vmovsd %xmm2, (%r13,%r11,8) vmovaps 22176(%rbx), %xmm2 vmovsd %xmm2, (%r13,%r10,8) vmovaps 24096(%rbx), %xmm2 vmovsd %xmm2, (%r13,%r9,8) .LBB1_5552: vmovaps 22240(%rbx), %xmm2 vmovsd %xmm2, (%r13,%rdi,8) .LBB1_5553: vpand %xmm15, %xmm1, %xmm2 vpor %xmm3, %xmm2, %xmm2 vpmovzxwd %xmm2, %xmm3 vpunpckhwd %xmm0, %xmm2, %xmm5 vmovdqa 31776(%rbx), %xmm4 vpaddq %xmm7, %xmm4, %xmm4 vpslld $31, %xmm5, %xmm5 vpslld $31, %xmm3, %xmm3 vpsrad $31, %xmm3, %xmm3 vpsrad $31, %xmm5, %xmm5 vmovd %xmm4, %r15 vmovdqa 31680(%rbx), %ymm6 vpaddq %xmm7, %xmm6, %xmm6 vpextrq $1, %xmm4, %r11 vpextrq $1, %xmm6, %rcx vmovdqa 31712(%rbx), %ymm4 vpaddq %xmm7, %xmm4, %xmm4 vpaddq %xmm7, %xmm10, %xmm7 vinsertf128 $1, %xmm5, %ymm3, %ymm3 vmovd %xmm6, %rsi vpextrq $1, %xmm7, %r8 vmovd %xmm7, %r9 vpextrq $1, %xmm4, %r10 vmovd %xmm4, %r14 vmovdqa 2400(%rbx), %ymm4 vptest %ymm4, %ymm3 jb .LBB1_5554 vpextrb $2, %xmm2, %edi vpextrb $4, %xmm2, %edx vpextrb $0, %xmm2, %eax testb $1, %al je .LBB1_5557 vmovaps 29888(%rbx), %ymm3 vmovsd %xmm3, (%r13,%rsi,8) .LBB1_5557: vpextrb $6, %xmm2, %esi testb $1, %dil je .LBB1_5559 vmovaps 28544(%rbx), %xmm3 vmovsd %xmm3, (%r13,%rcx,8) .LBB1_5559: vpextrb $8, %xmm2, %ecx testb $1, %dl vmovdqa .LCPI1_11(%rip), %xmm7 je .LBB1_5561 vmovaps 28672(%rbx), %xmm3 vmovsd %xmm3, (%r13,%r15,8) .LBB1_5561: vpextrb $10, %xmm2, %eax testb $1, %sil je .LBB1_5563 vmovaps 28576(%rbx), %xmm3 vmovsd %xmm3, (%r13,%r11,8) .LBB1_5563: vpextrb $12, %xmm2, %edx testb $1, %cl movq 32632(%rbx), %r11 je .LBB1_5565 vmovaps 29920(%rbx), %ymm3 vmovsd %xmm3, (%r13,%r14,8) .LBB1_5565: vpextrb $14, %xmm2, %ecx testb $1, %al je .LBB1_5567 vmovaps 28608(%rbx), %xmm3 vmovsd %xmm3, (%r13,%r10,8) .LBB1_5567: testb $1, %dl movq 22456(%rbx), %r14 je .LBB1_5569 vmovaps 28704(%rbx), %xmm3 vmovsd %xmm3, (%r13,%r9,8) .LBB1_5569: testb $1, %cl je .LBB1_5571 vmovaps 28640(%rbx), %xmm3 vmovsd %xmm3, (%r13,%r8,8) jmp .LBB1_5571 .align 16, 0x90 .LBB1_5554: vmovaps 29888(%rbx), %ymm3 vmovsd %xmm3, (%r13,%rsi,8) vmovaps 28544(%rbx), %xmm3 vmovsd %xmm3, (%r13,%rcx,8) vmovaps 28672(%rbx), %xmm3 vmovsd %xmm3, (%r13,%r15,8) vmovaps 28576(%rbx), %xmm3 vmovsd %xmm3, (%r13,%r11,8) vmovaps 29920(%rbx), %ymm3 vmovsd %xmm3, (%r13,%r14,8) vmovaps 28608(%rbx), %xmm3 vmovsd %xmm3, (%r13,%r10,8) vmovaps 28704(%rbx), %xmm3 vmovsd %xmm3, (%r13,%r9,8) vmovaps 28640(%rbx), %xmm3 vmovsd %xmm3, (%r13,%r8,8) movq 32632(%rbx), %r11 vmovdqa .LCPI1_11(%rip), %xmm7 movq 22456(%rbx), %r14 .LBB1_5571: vmovdqa 31968(%rbx), %ymm3 vpshufd $8, %xmm3, %xmm3 vmovaps 31936(%rbx), %xmm4 vmovlhps %xmm4, %xmm3, %xmm3 vmovdqa 32032(%rbx), %ymm4 vpshufd $8, %xmm4, %xmm4 vmovaps 32000(%rbx), %xmm5 vmovlhps %xmm5, %xmm4, %xmm4 vpshufb .LCPI1_21(%rip), %xmm4, %xmm4 vpshufb .LCPI1_20(%rip), %xmm3, %xmm3 vpor %xmm0, %xmm2, %xmm2 vpand %xmm14, %xmm2, %xmm0 vpextrb $12, %xmm0, %eax movl %eax, 31360(%rbx) vpor %xmm3, %xmm4, %xmm3 vpsllw $15, %xmm3, %xmm3 vpsraw $15, %xmm3, %xmm3 vpextrb $0, %xmm0, %eax movl %eax, 31392(%rbx) vpextrb $2, %xmm0, %eax movl %eax, 31424(%rbx) vpextrb $4, %xmm0, %eax movl %eax, 31200(%rbx) vpextrb $6, %xmm0, %eax movl %eax, 31232(%rbx) vpextrb $8, %xmm0, %eax movl %eax, 31264(%rbx) vpextrb $10, %xmm0, %eax movl %eax, 31168(%rbx) vpextrb $14, %xmm0, %eax movl %eax, 31328(%rbx) vpand %xmm3, %xmm2, %xmm5 vpmovzxwd %xmm5, %xmm2 vpslld $31, %xmm2, %xmm2 vpsrad $31, %xmm2, %xmm2 vpunpckhwd %xmm0, %xmm5, %xmm3 vpslld $31, %xmm3, %xmm3 vpsrad $31, %xmm3, %xmm3 vinsertf128 $1, %xmm3, %ymm2, %ymm2 vmovdqa 2368(%rbx), %ymm3 vptest %ymm3, %ymm2 jb .LBB1_5572 vpextrb $0, %xmm5, %ecx vpextrb $2, %xmm5, %r10d vpextrb $4, %xmm5, %r8d testb $1, %cl je .LBB1_5575 movq 32192(%rbx), %rax movq $0, (%r14,%rax,8) .LBB1_5575: vpextrb $6, %xmm5, %r9d testb $1, %r10b je .LBB1_5577 movq 32256(%rbx), %rax movq $0, (%r14,%rax,8) .LBB1_5577: vpextrb $8, %xmm5, %esi testb $1, %r8b je .LBB1_5579 movq 32224(%rbx), %rax movq $0, (%r14,%rax,8) .LBB1_5579: vpextrb $10, %xmm5, %r15d testb $1, %r9b je .LBB1_5581 movq 32288(%rbx), %rax movq $0, (%r14,%rax,8) .LBB1_5581: vpextrb $12, %xmm5, %eax testb $1, %sil je .LBB1_5583 movq 32320(%rbx), %rdx movq $0, (%r14,%rdx,8) .LBB1_5583: vpextrb $14, %xmm5, %edx testb $1, %r15b je .LBB1_5585 movq 32384(%rbx), %rdi movq $0, (%r14,%rdi,8) .LBB1_5585: testb $1, %al je .LBB1_5587 movq 32352(%rbx), %rdi movq $0, (%r14,%rdi,8) .LBB1_5587: testb $1, %dl je .LBB1_5589 movq 32416(%rbx), %rdi movq $0, (%r14,%rdi,8) .LBB1_5589: testb $1, %cl je .LBB1_5591 movq 32832(%rbx), %rdi movq $0, (%r11,%rdi,8) .LBB1_5591: testb $1, %r10b je .LBB1_5593 movq 32864(%rbx), %rdi movq $0, (%r11,%rdi,8) .LBB1_5593: testb $1, %r8b je .LBB1_5595 movq 32736(%rbx), %rdi movq $0, (%r11,%rdi,8) .LBB1_5595: testb $1, %r9b je .LBB1_5597 movq 32800(%rbx), %rdi movq $0, (%r11,%rdi,8) .LBB1_5597: testb $1, %sil je .LBB1_5599 movq 32896(%rbx), %rdi movq $0, (%r11,%rdi,8) .LBB1_5599: testb $1, %r15b je .LBB1_5601 movq 32928(%rbx), %rdi movq $0, (%r11,%rdi,8) .LBB1_5601: testb $1, %al je .LBB1_5603 movq 32960(%rbx), %rdi movq $0, (%r11,%rdi,8) .LBB1_5603: testb $1, %dl je .LBB1_5605 movq 32992(%rbx), %rdi movq $0, (%r11,%rdi,8) .LBB1_5605: testb $1, %cl je .LBB1_5607 movq 32832(%rbx), %rcx movq $0, (%r13,%rcx,8) .LBB1_5607: testb $1, %r10b je .LBB1_5609 movq 32864(%rbx), %rcx movq $0, (%r13,%rcx,8) .LBB1_5609: testb $1, %r8b je .LBB1_5611 movq 32736(%rbx), %rcx movq $0, (%r13,%rcx,8) .LBB1_5611: testb $1, %r9b je .LBB1_5613 movq 32800(%rbx), %rcx movq $0, (%r13,%rcx,8) .LBB1_5613: testb $1, %sil je .LBB1_5615 movq 32896(%rbx), %rcx movq $0, (%r13,%rcx,8) .LBB1_5615: testb $1, %r15b je .LBB1_5617 movq 32928(%rbx), %rcx movq $0, (%r13,%rcx,8) .LBB1_5617: testb $1, %al je .LBB1_5619 movq 32960(%rbx), %rax movq $0, (%r13,%rax,8) .LBB1_5619: testb $1, %dl je .LBB1_5622 movq 32992(%rbx), %rax jmp .LBB1_5621 .align 16, 0x90 .LBB1_5572: movq 32192(%rbx), %rax movq $0, (%r14,%rax,8) movq 32256(%rbx), %rax movq $0, (%r14,%rax,8) movq 32224(%rbx), %rax movq $0, (%r14,%rax,8) movq 32288(%rbx), %rax movq $0, (%r14,%rax,8) movq 32320(%rbx), %rax movq $0, (%r14,%rax,8) movq 32384(%rbx), %rax movq $0, (%r14,%rax,8) movq 32352(%rbx), %rax movq $0, (%r14,%rax,8) movq 32416(%rbx), %rax movq $0, (%r14,%rax,8) movq 32832(%rbx), %r10 movq $0, (%r11,%r10,8) movq 32864(%rbx), %r9 movq $0, (%r11,%r9,8) movq 32736(%rbx), %r8 movq $0, (%r11,%r8,8) movq 32800(%rbx), %rsi movq $0, (%r11,%rsi,8) movq 32896(%rbx), %rdi movq $0, (%r11,%rdi,8) movq 32928(%rbx), %rdx movq $0, (%r11,%rdx,8) movq 32960(%rbx), %rcx movq $0, (%r11,%rcx,8) movq 32992(%rbx), %rax movq $0, (%r11,%rax,8) movq $0, (%r13,%r10,8) movq $0, (%r13,%r9,8) movq $0, (%r13,%r8,8) movq $0, (%r13,%rsi,8) movq $0, (%r13,%rdi,8) movq $0, (%r13,%rdx,8) movq $0, (%r13,%rcx,8) .LBB1_5621: movq $0, (%r13,%rax,8) .LBB1_5622: vpand %xmm15, %xmm5, %xmm3 vpxor %xmm13, %xmm3, %xmm2 vpmovzxwd %xmm2, %xmm4 vpslld $31, %xmm4, %xmm4 vpsrad $31, %xmm4, %xmm4 vpunpckhwd %xmm0, %xmm2, %xmm2 vpslld $31, %xmm2, %xmm2 vpsrad $31, %xmm2, %xmm2 vinsertf128 $1, %xmm2, %ymm4, %ymm2 vmovdqa 2336(%rbx), %ymm4 vptest %ymm4, %ymm2 jb .LBB1_5623 vpmovzxwd %xmm3, %xmm2 vpslld $31, %xmm2, %xmm2 vpsrad $31, %xmm2, %xmm2 vpunpckhwd %xmm0, %xmm3, %xmm4 vpslld $31, %xmm4, %xmm4 vpsrad $31, %xmm4, %xmm4 vinsertf128 $1, %xmm4, %ymm2, %ymm2 vmovdqa 2304(%rbx), %ymm4 vptest %ymm4, %ymm2 jb .LBB1_5625 vpextrb $0, %xmm3, %r10d vpextrb $2, %xmm3, %r9d vpextrb $4, %xmm3, %eax movl %eax, 31872(%rbx) testb $1, %r10b je .LBB1_5628 movq 32448(%rbx), %rax movq $0, (%r13,%rax,8) .LBB1_5628: vpextrb $6, %xmm3, %eax movl %eax, 31840(%rbx) testb $1, %r9b je .LBB1_5630 movq 32480(%rbx), %rax movq $0, (%r13,%rax,8) .LBB1_5630: vpextrb $8, %xmm3, %eax movl %eax, 31744(%rbx) movl 31872(%rbx), %eax testb $1, %al je .LBB1_5632 movq 32544(%rbx), %rax movq $0, (%r13,%rax,8) .LBB1_5632: vpextrb $10, %xmm3, %eax movl %eax, 31520(%rbx) movl 31840(%rbx), %eax testb $1, %al je .LBB1_5634 movq 32576(%rbx), %rax movq $0, (%r13,%rax,8) .LBB1_5634: vpextrb $12, %xmm3, %eax movl %eax, 31488(%rbx) movl 31744(%rbx), %eax testb $1, %al je .LBB1_5636 movq 32640(%rbx), %rax movq $0, (%r13,%rax,8) .LBB1_5636: vpextrb $14, %xmm3, %r8d movl 31520(%rbx), %eax testb $1, %al je .LBB1_5638 movq 32672(%rbx), %rdi movq $0, (%r13,%rdi,8) .LBB1_5638: movl 31488(%rbx), %eax testb $1, %al je .LBB1_5640 movq 32704(%rbx), %rdi movq $0, (%r13,%rdi,8) .LBB1_5640: movq %r11, %rsi testb $1, %r8b je .LBB1_5642 movq 32512(%rbx), %rdi movq $0, (%r13,%rdi,8) .LBB1_5642: vpaddq %xmm7, %xmm11, %xmm2 vmovd %xmm2, %rax vpextrq $1, %xmm2, %r12 vextractf128 $1, %ymm11, %xmm2 vpaddq %xmm7, %xmm2, %xmm4 testb $1, %r10b je .LBB1_5644 vmovapd 26240(%rbx), %ymm2 vmovsd %xmm2, (%rsi,%rax,8) .LBB1_5644: vmovd %xmm4, %rcx leaq (%rsi,%r12,8), %rdx testb $1, %r9b je .LBB1_5646 vmovapd 22400(%rbx), %xmm2 vmovsd %xmm2, (%rdx) .LBB1_5646: movl %r8d, 31072(%rbx) movq %rdx, 32160(%rbx) vpaddq %xmm7, %xmm8, %xmm2 vpextrq $1, %xmm4, %rdx movq 32632(%rbx), %rsi leaq (%rsi,%rcx,8), %rsi movl 31872(%rbx), %edi testb $1, %dil je .LBB1_5648 vmovapd 24192(%rbx), %xmm4 vmovsd %xmm4, (%rsi) .LBB1_5648: movl %r10d, %r8d movq %rsi, 31552(%rbx) vextractf128 $1, %ymm8, %xmm4 vmovd %xmm2, %r11 movq 32632(%rbx), %rsi leaq (%rsi,%rdx,8), %rsi movl 31840(%rbx), %edi testb $1, %dil je .LBB1_5650 vmovapd 22496(%rbx), %xmm6 vmovsd %xmm6, (%rsi) .LBB1_5650: movl %r9d, %r15d movq %rsi, 31584(%rbx) vpaddq %xmm7, %xmm4, %xmm4 vpextrq $1, %xmm2, %r10 movq 32632(%rbx), %rsi leaq (%rsi,%r11,8), %rsi movl 31744(%rbx), %edi testb $1, %dil je .LBB1_5652 vmovapd 26304(%rbx), %ymm2 vmovsd %xmm2, (%rsi) .LBB1_5652: movq %rsi, 31904(%rbx) vmovd %xmm4, %r9 movq 32632(%rbx), %rsi leaq (%rsi,%r10,8), %rsi movl 31520(%rbx), %edi testb $1, %dil je .LBB1_5654 vmovapd 22560(%rbx), %xmm2 vmovsd %xmm2, (%rsi) .LBB1_5654: movq %rsi, 32064(%rbx) vpextrq $1, %xmm4, %rdi movq 32632(%rbx), %rsi leaq (%rsi,%r9,8), %rsi movl 31488(%rbx), %r14d testb $1, %r14b je .LBB1_5656 vmovapd 24256(%rbx), %xmm2 vmovsd %xmm2, (%rsi) .LBB1_5656: movq %rsi, 32096(%rbx) movq 32632(%rbx), %rsi leaq (%rsi,%rdi,8), %rsi movl 31072(%rbx), %r14d testb $1, %r14b je .LBB1_5658 vmovapd 22592(%rbx), %xmm2 vmovsd %xmm2, (%rsi) .LBB1_5658: testb $1, %r8b je .LBB1_5660 vmovapd 26272(%rbx), %ymm2 vmovsd %xmm2, (%r13,%rax,8) .LBB1_5660: movq %rsi, 32128(%rbx) testb $1, %r15b je .LBB1_5662 vmovapd 22336(%rbx), %xmm2 vmovsd %xmm2, (%r13,%r12,8) .LBB1_5662: movl 31872(%rbx), %esi testb $1, %sil je .LBB1_5664 vmovapd 24160(%rbx), %xmm2 vmovsd %xmm2, (%r13,%rcx,8) .LBB1_5664: movl 31840(%rbx), %esi testb $1, %sil je .LBB1_5666 vmovapd 22368(%rbx), %xmm2 vmovsd %xmm2, (%r13,%rdx,8) .LBB1_5666: movl 31744(%rbx), %esi testb $1, %sil je .LBB1_5668 vmovsd %xmm12, (%r13,%r11,8) .LBB1_5668: movl 31520(%rbx), %esi testb $1, %sil je .LBB1_5670 vmovapd 22464(%rbx), %xmm2 vmovsd %xmm2, (%r13,%r10,8) .LBB1_5670: movl 31488(%rbx), %esi testb $1, %sil movq %rax, %r15 je .LBB1_5672 vmovapd 24224(%rbx), %xmm2 vmovsd %xmm2, (%r13,%r9,8) .LBB1_5672: testb $1, %r14b movq 31584(%rbx), %r8 movq 31552(%rbx), %r14 je .LBB1_5674 jmp .LBB1_5673 .align 16, 0x90 .LBB1_5623: vextractf128 $1, %ymm11, %xmm2 vpaddq %xmm7, %xmm2, %xmm3 vmovd %xmm3, %rax vpaddq %xmm7, %xmm11, %xmm2 vextractf128 $1, %ymm8, %xmm4 vpaddq %xmm7, %xmm4, %xmm6 vpaddq %xmm7, %xmm8, %xmm4 vpextrq $1, %xmm4, %r10 vmovd %xmm6, %r9 vpextrq $1, %xmm6, %rdi vpextrq $1, %xmm2, %r12 vpextrq $1, %xmm3, %rdx leaq (%r11,%rdx,8), %r8 leaq (%r11,%rax,8), %r14 leaq (%r11,%r12,8), %rcx movq %rcx, 32160(%rbx) vpxor %xmm3, %xmm3, %xmm3 movq %r11, %rsi movq %rax, %rcx vmovd %xmm2, %r15 vmovd %xmm4, %r11 leaq (%rsi,%rdi,8), %rax movq %rax, 32128(%rbx) leaq (%rsi,%r9,8), %rax movq %rax, 32096(%rbx) leaq (%rsi,%r10,8), %rax movq %rax, 32064(%rbx) leaq (%rsi,%r11,8), %rax movq %rax, 31904(%rbx) jmp .LBB1_5674 .LBB1_5625: movq 32448(%rbx), %rax movq $0, (%r13,%rax,8) movq 32480(%rbx), %rax movq $0, (%r13,%rax,8) movq 32544(%rbx), %rax movq $0, (%r13,%rax,8) movq 32576(%rbx), %rax movq $0, (%r13,%rax,8) vextractf128 $1, %ymm11, %xmm2 movq 32640(%rbx), %rax movq $0, (%r13,%rax,8) vpaddq %xmm7, %xmm2, %xmm4 vpaddq %xmm7, %xmm11, %xmm2 vpextrq $1, %xmm2, %r12 vmovd %xmm4, %rcx vpextrq $1, %xmm4, %rdx vextractf128 $1, %ymm8, %xmm4 movq 32672(%rbx), %rax movq $0, (%r13,%rax,8) vpaddq %xmm7, %xmm4, %xmm4 leaq (%r11,%rdx,8), %r8 leaq (%r11,%rcx,8), %r14 leaq (%r11,%r12,8), %rax movq %rax, 32160(%rbx) vpaddq %xmm7, %xmm8, %xmm6 vpextrq $1, %xmm4, %rdi movq 32704(%rbx), %rax movq $0, (%r13,%rax,8) leaq (%r11,%rdi,8), %rax movq %rax, 32128(%rbx) vmovd %xmm4, %r9 leaq (%r11,%r9,8), %rax movq %rax, 32096(%rbx) vpextrq $1, %xmm6, %r10 leaq (%r11,%r10,8), %rax movq %rax, 32064(%rbx) vmovd %xmm6, %rax leaq (%r11,%rax,8), %rsi movq %rsi, 31904(%rbx) movq %r11, %rsi movq %rax, %r11 vmovd %xmm2, %r15 movq 32512(%rbx), %rax movq $0, (%r13,%rax,8) vmovaps 26240(%rbx), %ymm2 vmovsd %xmm2, (%rsi,%r15,8) vmovaps 22400(%rbx), %xmm2 vmovsd %xmm2, (%rsi,%r12,8) vmovaps 24192(%rbx), %xmm2 vmovsd %xmm2, (%rsi,%rcx,8) vmovaps 22496(%rbx), %xmm2 vmovsd %xmm2, (%rsi,%rdx,8) vmovaps 26304(%rbx), %ymm2 vmovsd %xmm2, (%rsi,%r11,8) vmovaps 22560(%rbx), %xmm2 vmovsd %xmm2, (%rsi,%r10,8) vmovaps 24256(%rbx), %xmm2 vmovsd %xmm2, (%rsi,%r9,8) vmovaps 22592(%rbx), %xmm2 vmovsd %xmm2, (%rsi,%rdi,8) vmovaps 26272(%rbx), %ymm2 vmovsd %xmm2, (%r13,%r15,8) vmovaps 22336(%rbx), %xmm2 vmovsd %xmm2, (%r13,%r12,8) vmovaps 24160(%rbx), %xmm2 vmovsd %xmm2, (%r13,%rcx,8) vmovaps 22368(%rbx), %xmm2 vmovsd %xmm2, (%r13,%rdx,8) vmovsd %xmm12, (%r13,%r11,8) vmovaps 22464(%rbx), %xmm2 vmovsd %xmm2, (%r13,%r10,8) vmovapd 24224(%rbx), %xmm2 vmovsd %xmm2, (%r13,%r9,8) .LBB1_5673: vmovapd 22528(%rbx), %xmm2 vmovsd %xmm2, (%r13,%rdi,8) .LBB1_5674: vpor %xmm1, %xmm5, %xmm1 vpand 31808(%rbx), %xmm1, %xmm1 vpmovzxwd %xmm1, %xmm2 vpslld $31, %xmm2, %xmm2 vpsrad $31, %xmm2, %xmm2 vpunpckhwd %xmm0, %xmm1, %xmm4 vpslld $31, %xmm4, %xmm4 vpsrad $31, %xmm4, %xmm4 vinsertf128 $1, %xmm4, %ymm2, %ymm2 vmovdqa 2272(%rbx), %ymm4 vptest %ymm4, %ymm2 jb .LBB1_5675 movq %r11, 31072(%rbx) movq %r10, 31840(%rbx) vpextrb $0, %xmm1, %r10d vpextrb $2, %xmm1, %r11d vpextrb $4, %xmm1, %esi testb $1, %r10b je .LBB1_5678 movq 32632(%rbx), %rax vmovaps 26240(%rbx), %ymm2 vmovsd %xmm2, (%rax,%r15,8) .LBB1_5678: movq %r9, 31872(%rbx) movq %rdi, 31744(%rbx) vpextrb $6, %xmm1, %eax movl %eax, 31520(%rbx) testb $1, %r11b je .LBB1_5680 vmovaps 22400(%rbx), %xmm2 movq 32160(%rbx), %rax vmovsd %xmm2, (%rax) .LBB1_5680: movq %r13, %r9 vpextrb $8, %xmm1, %eax movl %eax, 31488(%rbx) testb $1, %sil movq 31904(%rbx), %rdi je .LBB1_5682 vmovaps 24192(%rbx), %xmm2 vmovsd %xmm2, (%r14) .LBB1_5682: movl %esi, %eax movq %r14, 31552(%rbx) vpextrb $10, %xmm1, %r13d movl 31520(%rbx), %esi testb $1, %sil je .LBB1_5684 vmovaps 22496(%rbx), %xmm2 vmovsd %xmm2, (%r8) .LBB1_5684: movq %r8, 31584(%rbx) vpextrb $12, %xmm1, %r14d movl 31488(%rbx), %esi testb $1, %sil movq 32096(%rbx), %rsi je .LBB1_5686 vmovaps 26304(%rbx), %ymm2 vmovsd %xmm2, (%rdi) .LBB1_5686: vpextrb $14, %xmm1, %r8d testb $1, %r13b je .LBB1_5688 vmovaps 22560(%rbx), %xmm2 movq 32064(%rbx), %rdi vmovsd %xmm2, (%rdi) .LBB1_5688: testb $1, %r14b je .LBB1_5690 vmovaps 24256(%rbx), %xmm2 vmovsd %xmm2, (%rsi) .LBB1_5690: testb $1, %r8b je .LBB1_5692 vmovaps 22592(%rbx), %xmm2 movq 32128(%rbx), %rsi vmovsd %xmm2, (%rsi) .LBB1_5692: testb $1, %r10b je .LBB1_5694 vmovaps 26272(%rbx), %ymm2 vmovsd %xmm2, (%r9,%r15,8) .LBB1_5694: testb $1, %r11b je .LBB1_5696 vmovaps 22336(%rbx), %xmm2 vmovsd %xmm2, (%r9,%r12,8) .LBB1_5696: testb $1, %al movq 31840(%rbx), %r10 je .LBB1_5698 vmovaps 24160(%rbx), %xmm2 vmovsd %xmm2, (%r9,%rcx,8) .LBB1_5698: movl 31520(%rbx), %eax testb $1, %al movq 31072(%rbx), %r11 je .LBB1_5700 vmovaps 22368(%rbx), %xmm2 vmovsd %xmm2, (%r9,%rdx,8) .LBB1_5700: movl 31488(%rbx), %eax testb $1, %al je .LBB1_5702 vmovsd %xmm12, (%r9,%r11,8) .LBB1_5702: testb $1, %r13b movq %r9, %r13 je .LBB1_5704 vmovaps 22464(%rbx), %xmm2 vmovsd %xmm2, (%r13,%r10,8) .LBB1_5704: testb $1, %r14b movq 31744(%rbx), %rdi movq 31872(%rbx), %r9 je .LBB1_5706 vmovaps 24224(%rbx), %xmm2 vmovsd %xmm2, (%r13,%r9,8) .LBB1_5706: testb $1, %r8b movq 31584(%rbx), %r8 movq 31552(%rbx), %r14 je .LBB1_5708 jmp .LBB1_5707 .align 16, 0x90 .LBB1_5675: movq 32632(%rbx), %rax vmovaps 26240(%rbx), %ymm2 vmovsd %xmm2, (%rax,%r15,8) vmovaps 22400(%rbx), %xmm2 movq 32160(%rbx), %rax vmovsd %xmm2, (%rax) vmovaps 24192(%rbx), %xmm2 vmovsd %xmm2, (%r14) vmovaps 22496(%rbx), %xmm2 vmovsd %xmm2, (%r8) vmovaps 26304(%rbx), %ymm2 movq 31904(%rbx), %rax vmovsd %xmm2, (%rax) vmovaps 22560(%rbx), %xmm2 movq 32064(%rbx), %rax vmovsd %xmm2, (%rax) vmovaps 24256(%rbx), %xmm2 movq 32096(%rbx), %rax vmovsd %xmm2, (%rax) vmovaps 22592(%rbx), %xmm2 movq 32128(%rbx), %rax vmovsd %xmm2, (%rax) vmovaps 26272(%rbx), %ymm2 vmovsd %xmm2, (%r13,%r15,8) vmovaps 22336(%rbx), %xmm2 vmovsd %xmm2, (%r13,%r12,8) vmovaps 24160(%rbx), %xmm2 vmovsd %xmm2, (%r13,%rcx,8) vmovaps 22368(%rbx), %xmm2 vmovsd %xmm2, (%r13,%rdx,8) vmovsd %xmm12, (%r13,%r11,8) vmovaps 22464(%rbx), %xmm2 vmovsd %xmm2, (%r13,%r10,8) vmovaps 24224(%rbx), %xmm2 vmovsd %xmm2, (%r13,%r9,8) .LBB1_5707: vmovaps 22528(%rbx), %xmm2 vmovsd %xmm2, (%r13,%rdi,8) .LBB1_5708: vpmovzxwd %xmm0, %xmm2 vpslld $31, %xmm2, %xmm2 vpsrad $31, %xmm2, %xmm2 vpunpckhwd %xmm0, %xmm0, %xmm4 vpslld $31, %xmm4, %xmm4 vpsrad $31, %xmm4, %xmm4 vinsertf128 $1, %xmm4, %ymm2, %ymm2 vmovdqa 2240(%rbx), %ymm4 vptest %ymm4, %ymm2 movl 31200(%rbx), %esi jb .LBB1_5709 movq %r10, 31840(%rbx) movl 31392(%rbx), %eax testb $1, %al movl 31232(%rbx), %r10d je .LBB1_5712 movq 32632(%rbx), %rax vmovaps 26240(%rbx), %ymm2 vmovsd %xmm2, (%rax,%r15,8) .LBB1_5712: movq %r15, 31552(%rbx) movq %rdx, 31584(%rbx) movl 31424(%rbx), %eax testb $1, %al movl 31264(%rbx), %r15d je .LBB1_5714 vmovaps 22400(%rbx), %xmm2 movq 32160(%rbx), %rax vmovsd %xmm2, (%rax) .LBB1_5714: movq %r9, 31872(%rbx) movq %rdi, 31744(%rbx) testb $1, %sil movl 31360(%rbx), %edi movl 31168(%rbx), %edx je .LBB1_5716 vmovaps 24192(%rbx), %xmm2 vmovsd %xmm2, (%r14) .LBB1_5716: testb $1, %r10b je .LBB1_5718 vmovaps 22496(%rbx), %xmm2 vmovsd %xmm2, (%r8) .LBB1_5718: movq %r11, %r8 testb $1, %r15b movl 31328(%rbx), %r9d je .LBB1_5720 vmovaps 26304(%rbx), %ymm2 movq 31904(%rbx), %rax vmovsd %xmm2, (%rax) .LBB1_5720: movq %rcx, %r11 testb $1, %dl je .LBB1_5722 vmovaps 22560(%rbx), %xmm2 movq 32064(%rbx), %rax vmovsd %xmm2, (%rax) .LBB1_5722: testb $1, %dil movq %r11, %rcx je .LBB1_5724 vmovaps 24256(%rbx), %xmm2 movq 32096(%rbx), %rax vmovsd %xmm2, (%rax) .LBB1_5724: testb $1, %r9b je .LBB1_5726 vmovaps 22592(%rbx), %xmm2 movq 32128(%rbx), %rax vmovsd %xmm2, (%rax) .LBB1_5726: movl 31392(%rbx), %eax testb $1, %al je .LBB1_5728 vmovaps 26272(%rbx), %ymm2 movq 31552(%rbx), %rax vmovsd %xmm2, (%r13,%rax,8) .LBB1_5728: movl 31424(%rbx), %eax testb $1, %al je .LBB1_5730 vmovaps 22336(%rbx), %xmm2 vmovsd %xmm2, (%r13,%r12,8) .LBB1_5730: testb $1, %sil je .LBB1_5732 vmovaps 24160(%rbx), %xmm2 vmovsd %xmm2, (%r13,%rcx,8) .LBB1_5732: testb $1, %r10b je .LBB1_5734 vmovaps 22368(%rbx), %xmm2 movq 31584(%rbx), %rax vmovsd %xmm2, (%r13,%rax,8) .LBB1_5734: testb $1, %r15b movq 31840(%rbx), %rax je .LBB1_5736 vmovsd %xmm12, (%r13,%r8,8) .LBB1_5736: testb $1, %dl je .LBB1_5738 vmovaps 22464(%rbx), %xmm2 vmovsd %xmm2, (%r13,%rax,8) .LBB1_5738: testb $1, %dil je .LBB1_5740 vmovaps 24224(%rbx), %xmm2 movq 31872(%rbx), %rax vmovsd %xmm2, (%r13,%rax,8) .LBB1_5740: testb $1, %r9b movq 31744(%rbx), %rdi je .LBB1_5742 jmp .LBB1_5741 .align 16, 0x90 .LBB1_5709: movq 32632(%rbx), %rax vmovaps 26240(%rbx), %ymm2 vmovsd %xmm2, (%rax,%r15,8) vmovaps 22400(%rbx), %xmm2 movq 32160(%rbx), %rax vmovsd %xmm2, (%rax) vmovaps 24192(%rbx), %xmm2 vmovsd %xmm2, (%r14) vmovaps 22496(%rbx), %xmm2 vmovsd %xmm2, (%r8) vmovaps 26304(%rbx), %ymm2 movq 31904(%rbx), %rax vmovsd %xmm2, (%rax) vmovaps 22560(%rbx), %xmm2 movq 32064(%rbx), %rax vmovsd %xmm2, (%rax) vmovaps 24256(%rbx), %xmm2 movq 32096(%rbx), %rax vmovsd %xmm2, (%rax) vmovaps 22592(%rbx), %xmm2 movq 32128(%rbx), %rax vmovsd %xmm2, (%rax) vmovaps 26272(%rbx), %ymm2 vmovsd %xmm2, (%r13,%r15,8) vmovaps 22336(%rbx), %xmm2 vmovsd %xmm2, (%r13,%r12,8) vmovaps 24160(%rbx), %xmm2 vmovsd %xmm2, (%r13,%rcx,8) vmovaps 22368(%rbx), %xmm2 vmovsd %xmm2, (%r13,%rdx,8) vmovsd %xmm12, (%r13,%r11,8) vmovaps 22464(%rbx), %xmm2 vmovsd %xmm2, (%r13,%r10,8) vmovaps 24224(%rbx), %xmm2 vmovsd %xmm2, (%r13,%r9,8) .LBB1_5741: vmovaps 22528(%rbx), %xmm2 vmovsd %xmm2, (%r13,%rdi,8) .LBB1_5742: vpand %xmm15, %xmm0, %xmm2 vpor %xmm3, %xmm2, %xmm2 vpmovzxwd %xmm2, %xmm3 vpunpckhwd %xmm0, %xmm2, %xmm5 vmovdqa 31776(%rbx), %xmm4 vpaddq %xmm7, %xmm4, %xmm4 vpslld $31, %xmm5, %xmm5 vpslld $31, %xmm3, %xmm3 vpsrad $31, %xmm3, %xmm3 vpsrad $31, %xmm5, %xmm5 vmovd %xmm4, %r15 vmovdqa 31680(%rbx), %ymm6 vpaddq %xmm7, %xmm6, %xmm6 vpextrq $1, %xmm4, %r11 vpextrq $1, %xmm6, %rcx vmovdqa 31712(%rbx), %ymm4 vpaddq %xmm7, %xmm4, %xmm4 vpaddq %xmm7, %xmm10, %xmm7 vinsertf128 $1, %xmm5, %ymm3, %ymm3 vmovd %xmm6, %rsi vpextrq $1, %xmm7, %r8 vmovd %xmm7, %r9 vpextrq $1, %xmm4, %r10 vmovd %xmm4, %r14 vmovdqa 2208(%rbx), %ymm4 vptest %ymm4, %ymm3 jb .LBB1_5743 vpextrb $2, %xmm2, %edi vpextrb $4, %xmm2, %edx vpextrb $0, %xmm2, %eax testb $1, %al je .LBB1_5746 vmovaps 30720(%rbx), %ymm3 vmovsd %xmm3, (%r13,%rsi,8) .LBB1_5746: vpextrb $6, %xmm2, %esi testb $1, %dil je .LBB1_5748 vmovaps 28736(%rbx), %xmm3 vmovsd %xmm3, (%r13,%rcx,8) .LBB1_5748: vpextrb $8, %xmm2, %ecx testb $1, %dl je .LBB1_5750 vmovaps 28864(%rbx), %xmm3 vmovsd %xmm3, (%r13,%r15,8) .LBB1_5750: vpextrb $10, %xmm2, %eax testb $1, %sil je .LBB1_5752 vmovaps 28768(%rbx), %xmm3 vmovsd %xmm3, (%r13,%r11,8) .LBB1_5752: vpextrb $12, %xmm2, %edx testb $1, %cl movq 32632(%rbx), %r11 je .LBB1_5754 vmovaps 29952(%rbx), %ymm3 vmovsd %xmm3, (%r13,%r14,8) .LBB1_5754: vpextrb $14, %xmm2, %ecx testb $1, %al je .LBB1_5756 vmovaps 28800(%rbx), %xmm3 vmovsd %xmm3, (%r13,%r10,8) .LBB1_5756: testb $1, %dl movq 22456(%rbx), %r14 je .LBB1_5758 vmovaps 28896(%rbx), %xmm3 vmovsd %xmm3, (%r13,%r9,8) .LBB1_5758: testb $1, %cl je .LBB1_5760 vmovaps 28832(%rbx), %xmm3 vmovsd %xmm3, (%r13,%r8,8) jmp .LBB1_5760 .align 16, 0x90 .LBB1_5743: vmovaps 30720(%rbx), %ymm3 vmovsd %xmm3, (%r13,%rsi,8) vmovaps 28736(%rbx), %xmm3 vmovsd %xmm3, (%r13,%rcx,8) vmovaps 28864(%rbx), %xmm3 vmovsd %xmm3, (%r13,%r15,8) vmovaps 28768(%rbx), %xmm3 vmovsd %xmm3, (%r13,%r11,8) vmovaps 29952(%rbx), %ymm3 vmovsd %xmm3, (%r13,%r14,8) vmovaps 28800(%rbx), %xmm3 vmovsd %xmm3, (%r13,%r10,8) vmovaps 28896(%rbx), %xmm3 vmovsd %xmm3, (%r13,%r9,8) vmovaps 28832(%rbx), %xmm3 vmovsd %xmm3, (%r13,%r8,8) movq 32632(%rbx), %r11 movq 22456(%rbx), %r14 .LBB1_5760: vmovdqa 31968(%rbx), %ymm3 vpshufd $8, %xmm3, %xmm3 vmovaps 31936(%rbx), %xmm4 vmovlhps %xmm4, %xmm3, %xmm3 vmovdqa 32032(%rbx), %ymm4 vpshufd $8, %xmm4, %xmm4 vmovaps 32000(%rbx), %xmm5 vmovlhps %xmm5, %xmm4, %xmm4 vpshufb .LCPI1_21(%rip), %xmm4, %xmm4 vpshufb .LCPI1_20(%rip), %xmm3, %xmm3 vpor %xmm1, %xmm2, %xmm2 vpand %xmm14, %xmm2, %xmm1 vpextrb $12, %xmm1, %eax movl %eax, 31360(%rbx) vpor %xmm3, %xmm4, %xmm3 vpsllw $15, %xmm3, %xmm3 vpsraw $15, %xmm3, %xmm3 vpextrb $0, %xmm1, %eax movl %eax, 31392(%rbx) vpextrb $2, %xmm1, %eax movl %eax, 31424(%rbx) vpextrb $4, %xmm1, %eax movl %eax, 31200(%rbx) vpextrb $6, %xmm1, %eax movl %eax, 31232(%rbx) vpextrb $8, %xmm1, %eax movl %eax, 31264(%rbx) vpextrb $10, %xmm1, %eax movl %eax, 31168(%rbx) vpextrb $14, %xmm1, %eax movl %eax, 31328(%rbx) vpand %xmm3, %xmm2, %xmm5 vpmovzxwd %xmm5, %xmm2 vpslld $31, %xmm2, %xmm2 vpsrad $31, %xmm2, %xmm2 vpunpckhwd %xmm0, %xmm5, %xmm3 vpslld $31, %xmm3, %xmm3 vpsrad $31, %xmm3, %xmm3 vinsertf128 $1, %xmm3, %ymm2, %ymm2 vmovdqa 2176(%rbx), %ymm3 vptest %ymm3, %ymm2 jb .LBB1_5761 vpextrb $0, %xmm5, %ecx vpextrb $2, %xmm5, %r10d vpextrb $4, %xmm5, %r8d testb $1, %cl je .LBB1_5764 movq 32192(%rbx), %rax movq $0, (%r14,%rax,8) .LBB1_5764: vpextrb $6, %xmm5, %r9d testb $1, %r10b je .LBB1_5766 movq 32256(%rbx), %rax movq $0, (%r14,%rax,8) .LBB1_5766: vpextrb $8, %xmm5, %esi testb $1, %r8b je .LBB1_5768 movq 32224(%rbx), %rax movq $0, (%r14,%rax,8) .LBB1_5768: vpextrb $10, %xmm5, %r15d testb $1, %r9b je .LBB1_5770 movq 32288(%rbx), %rax movq $0, (%r14,%rax,8) .LBB1_5770: vpextrb $12, %xmm5, %eax testb $1, %sil je .LBB1_5772 movq 32320(%rbx), %rdx movq $0, (%r14,%rdx,8) .LBB1_5772: vpextrb $14, %xmm5, %edx testb $1, %r15b je .LBB1_5774 movq 32384(%rbx), %rdi movq $0, (%r14,%rdi,8) .LBB1_5774: testb $1, %al je .LBB1_5776 movq 32352(%rbx), %rdi movq $0, (%r14,%rdi,8) .LBB1_5776: testb $1, %dl je .LBB1_5778 movq 32416(%rbx), %rdi movq $0, (%r14,%rdi,8) .LBB1_5778: testb $1, %cl je .LBB1_5780 movq 32832(%rbx), %rdi movq $0, (%r11,%rdi,8) .LBB1_5780: testb $1, %r10b je .LBB1_5782 movq 32864(%rbx), %rdi movq $0, (%r11,%rdi,8) .LBB1_5782: testb $1, %r8b je .LBB1_5784 movq 32736(%rbx), %rdi movq $0, (%r11,%rdi,8) .LBB1_5784: testb $1, %r9b je .LBB1_5786 movq 32800(%rbx), %rdi movq $0, (%r11,%rdi,8) .LBB1_5786: testb $1, %sil je .LBB1_5788 movq 32896(%rbx), %rdi movq $0, (%r11,%rdi,8) .LBB1_5788: testb $1, %r15b je .LBB1_5790 movq 32928(%rbx), %rdi movq $0, (%r11,%rdi,8) .LBB1_5790: testb $1, %al je .LBB1_5792 movq 32960(%rbx), %rdi movq $0, (%r11,%rdi,8) .LBB1_5792: testb $1, %dl je .LBB1_5794 movq 32992(%rbx), %rdi movq $0, (%r11,%rdi,8) .LBB1_5794: testb $1, %cl je .LBB1_5796 movq 32832(%rbx), %rcx movq $0, (%r13,%rcx,8) .LBB1_5796: testb $1, %r10b je .LBB1_5798 movq 32864(%rbx), %rcx movq $0, (%r13,%rcx,8) .LBB1_5798: testb $1, %r8b je .LBB1_5800 movq 32736(%rbx), %rcx movq $0, (%r13,%rcx,8) .LBB1_5800: testb $1, %r9b je .LBB1_5802 movq 32800(%rbx), %rcx movq $0, (%r13,%rcx,8) .LBB1_5802: testb $1, %sil je .LBB1_5804 movq 32896(%rbx), %rcx movq $0, (%r13,%rcx,8) .LBB1_5804: testb $1, %r15b je .LBB1_5806 movq 32928(%rbx), %rcx movq $0, (%r13,%rcx,8) .LBB1_5806: testb $1, %al je .LBB1_5808 movq 32960(%rbx), %rax movq $0, (%r13,%rax,8) .LBB1_5808: testb $1, %dl je .LBB1_5811 movq 32992(%rbx), %rax jmp .LBB1_5810 .align 16, 0x90 .LBB1_5761: movq 32192(%rbx), %rax movq $0, (%r14,%rax,8) movq 32256(%rbx), %rax movq $0, (%r14,%rax,8) movq 32224(%rbx), %rax movq $0, (%r14,%rax,8) movq 32288(%rbx), %rax movq $0, (%r14,%rax,8) movq 32320(%rbx), %rax movq $0, (%r14,%rax,8) movq 32384(%rbx), %rax movq $0, (%r14,%rax,8) movq 32352(%rbx), %rax movq $0, (%r14,%rax,8) movq 32416(%rbx), %rax movq $0, (%r14,%rax,8) movq 32832(%rbx), %r10 movq $0, (%r11,%r10,8) movq 32864(%rbx), %r9 movq $0, (%r11,%r9,8) movq 32736(%rbx), %r8 movq $0, (%r11,%r8,8) movq 32800(%rbx), %rsi movq $0, (%r11,%rsi,8) movq 32896(%rbx), %rdi movq $0, (%r11,%rdi,8) movq 32928(%rbx), %rdx movq $0, (%r11,%rdx,8) movq 32960(%rbx), %rcx movq $0, (%r11,%rcx,8) movq 32992(%rbx), %rax movq $0, (%r11,%rax,8) movq $0, (%r13,%r10,8) movq $0, (%r13,%r9,8) movq $0, (%r13,%r8,8) movq $0, (%r13,%rsi,8) movq $0, (%r13,%rdi,8) movq $0, (%r13,%rdx,8) movq $0, (%r13,%rcx,8) .LBB1_5810: movq $0, (%r13,%rax,8) .LBB1_5811: vpand %xmm15, %xmm5, %xmm3 vpxor %xmm13, %xmm3, %xmm2 vpmovzxwd %xmm2, %xmm4 vpslld $31, %xmm4, %xmm4 vpsrad $31, %xmm4, %xmm4 vpunpckhwd %xmm0, %xmm2, %xmm2 vpslld $31, %xmm2, %xmm2 vpsrad $31, %xmm2, %xmm2 vinsertf128 $1, %xmm2, %ymm4, %ymm2 vmovdqa 2144(%rbx), %ymm4 vptest %ymm4, %ymm2 jb .LBB1_5812 vpmovzxwd %xmm3, %xmm2 vpslld $31, %xmm2, %xmm2 vpsrad $31, %xmm2, %xmm2 vpunpckhwd %xmm0, %xmm3, %xmm4 vpslld $31, %xmm4, %xmm4 vpsrad $31, %xmm4, %xmm4 vinsertf128 $1, %xmm4, %ymm2, %ymm2 vmovdqa 2112(%rbx), %ymm4 vptest %ymm4, %ymm2 jb .LBB1_5814 vpextrb $0, %xmm3, %r10d vpextrb $2, %xmm3, %r9d vpextrb $4, %xmm3, %eax movl %eax, 31872(%rbx) testb $1, %r10b je .LBB1_5817 movq 32448(%rbx), %rax movq $0, (%r13,%rax,8) .LBB1_5817: vpextrb $6, %xmm3, %eax movl %eax, 31840(%rbx) testb $1, %r9b je .LBB1_5819 movq 32480(%rbx), %rax movq $0, (%r13,%rax,8) .LBB1_5819: vpextrb $8, %xmm3, %eax movl %eax, 31744(%rbx) movl 31872(%rbx), %eax testb $1, %al je .LBB1_5821 movq 32544(%rbx), %rax movq $0, (%r13,%rax,8) .LBB1_5821: vpextrb $10, %xmm3, %eax movl %eax, 31520(%rbx) movl 31840(%rbx), %eax testb $1, %al je .LBB1_5823 movq 32576(%rbx), %rax movq $0, (%r13,%rax,8) .LBB1_5823: vpextrb $12, %xmm3, %eax movl %eax, 31488(%rbx) movl 31744(%rbx), %eax testb $1, %al je .LBB1_5825 movq 32640(%rbx), %rax movq $0, (%r13,%rax,8) .LBB1_5825: vpextrb $14, %xmm3, %r8d movl 31520(%rbx), %eax testb $1, %al je .LBB1_5827 movq 32672(%rbx), %rdi movq $0, (%r13,%rdi,8) .LBB1_5827: movl 31488(%rbx), %eax testb $1, %al je .LBB1_5829 movq 32704(%rbx), %rdi movq $0, (%r13,%rdi,8) .LBB1_5829: movq %r11, %rsi testb $1, %r8b je .LBB1_5831 movq 32512(%rbx), %rdi movq $0, (%r13,%rdi,8) .LBB1_5831: vmovdqa .LCPI1_12(%rip), %xmm12 vpaddq %xmm12, %xmm11, %xmm2 vmovd %xmm2, %rax vpextrq $1, %xmm2, %r12 vextractf128 $1, %ymm11, %xmm2 vpaddq %xmm12, %xmm2, %xmm4 vmovdqa %xmm12, %xmm7 testb $1, %r10b je .LBB1_5833 vmovapd 26336(%rbx), %ymm2 vmovsd %xmm2, (%rsi,%rax,8) .LBB1_5833: vmovd %xmm4, %rcx leaq (%rsi,%r12,8), %rdx testb $1, %r9b vmovaps 21632(%rbx), %xmm9 je .LBB1_5835 vmovapd 22688(%rbx), %xmm2 vmovsd %xmm2, (%rdx) .LBB1_5835: movl %r8d, 31072(%rbx) movq %rdx, 32160(%rbx) vpaddq %xmm7, %xmm8, %xmm2 vpextrq $1, %xmm4, %rdx movq 32632(%rbx), %rsi leaq (%rsi,%rcx,8), %rsi movl 31872(%rbx), %edi testb $1, %dil je .LBB1_5837 vmovapd 24320(%rbx), %xmm4 vmovsd %xmm4, (%rsi) .LBB1_5837: movl %r10d, %r8d movq %rsi, 31552(%rbx) vextractf128 $1, %ymm8, %xmm4 vmovd %xmm2, %r11 movq 32632(%rbx), %rsi leaq (%rsi,%rdx,8), %rsi movl 31840(%rbx), %edi testb $1, %dil je .LBB1_5839 vmovapd 22752(%rbx), %xmm6 vmovsd %xmm6, (%rsi) .LBB1_5839: movl %r9d, %r15d movq %rsi, 31584(%rbx) vpaddq %xmm7, %xmm4, %xmm4 vpextrq $1, %xmm2, %r10 movq 32632(%rbx), %rsi leaq (%rsi,%r11,8), %rsi movl 31744(%rbx), %edi testb $1, %dil je .LBB1_5841 vmovapd 26400(%rbx), %ymm2 vmovsd %xmm2, (%rsi) .LBB1_5841: movq %rsi, 31904(%rbx) vmovd %xmm4, %r9 movq 32632(%rbx), %rsi leaq (%rsi,%r10,8), %rsi movl 31520(%rbx), %edi testb $1, %dil je .LBB1_5843 vmovapd 22816(%rbx), %xmm2 vmovsd %xmm2, (%rsi) .LBB1_5843: movq %rsi, 32064(%rbx) vpextrq $1, %xmm4, %rdi movq 32632(%rbx), %rsi leaq (%rsi,%r9,8), %rsi movl 31488(%rbx), %r14d testb $1, %r14b je .LBB1_5845 vmovapd 24384(%rbx), %xmm2 vmovsd %xmm2, (%rsi) .LBB1_5845: movq %rsi, 32096(%rbx) movq 32632(%rbx), %rsi leaq (%rsi,%rdi,8), %rsi movl 31072(%rbx), %r14d testb $1, %r14b je .LBB1_5847 vmovapd 22848(%rbx), %xmm2 vmovsd %xmm2, (%rsi) .LBB1_5847: testb $1, %r8b je .LBB1_5849 vmovapd 26368(%rbx), %ymm2 vmovsd %xmm2, (%r13,%rax,8) .LBB1_5849: movq %rsi, 32128(%rbx) testb $1, %r15b je .LBB1_5851 vmovapd 22624(%rbx), %xmm2 vmovsd %xmm2, (%r13,%r12,8) .LBB1_5851: movl 31872(%rbx), %esi testb $1, %sil je .LBB1_5853 vmovapd 24288(%rbx), %xmm2 vmovsd %xmm2, (%r13,%rcx,8) .LBB1_5853: movl 31840(%rbx), %esi testb $1, %sil je .LBB1_5855 vmovapd 22656(%rbx), %xmm2 vmovsd %xmm2, (%r13,%rdx,8) .LBB1_5855: movl 31744(%rbx), %esi testb $1, %sil je .LBB1_5857 vmovapd 26432(%rbx), %ymm2 vmovsd %xmm2, (%r13,%r11,8) .LBB1_5857: movl 31520(%rbx), %esi testb $1, %sil je .LBB1_5859 vmovapd 22720(%rbx), %xmm2 vmovsd %xmm2, (%r13,%r10,8) .LBB1_5859: movl 31488(%rbx), %esi testb $1, %sil movq %rax, %r15 je .LBB1_5861 vmovapd 24352(%rbx), %xmm2 vmovsd %xmm2, (%r13,%r9,8) .LBB1_5861: testb $1, %r14b movq 31584(%rbx), %r8 movq 31552(%rbx), %r14 je .LBB1_5863 vmovapd 22784(%rbx), %xmm2 vmovsd %xmm2, (%r13,%rdi,8) jmp .LBB1_5863 .align 16, 0x90 .LBB1_5812: vextractf128 $1, %ymm11, %xmm2 vmovdqa .LCPI1_12(%rip), %xmm12 vpaddq %xmm12, %xmm2, %xmm3 vmovd %xmm3, %rax vpaddq %xmm12, %xmm11, %xmm2 vextractf128 $1, %ymm8, %xmm4 vpaddq %xmm12, %xmm4, %xmm6 vpaddq %xmm12, %xmm8, %xmm4 vmovdqa %xmm12, %xmm7 vpextrq $1, %xmm4, %r10 vmovd %xmm6, %r9 vpextrq $1, %xmm6, %rdi vpextrq $1, %xmm2, %r12 vpextrq $1, %xmm3, %rdx leaq (%r11,%rdx,8), %r8 leaq (%r11,%rax,8), %r14 leaq (%r11,%r12,8), %rcx movq %rcx, 32160(%rbx) vpxor %xmm3, %xmm3, %xmm3 movq %r11, %rsi movq %rax, %rcx vmovd %xmm2, %r15 vmovd %xmm4, %r11 leaq (%rsi,%rdi,8), %rax movq %rax, 32128(%rbx) leaq (%rsi,%r9,8), %rax movq %rax, 32096(%rbx) leaq (%rsi,%r10,8), %rax movq %rax, 32064(%rbx) leaq (%rsi,%r11,8), %rax movq %rax, 31904(%rbx) vmovaps 21632(%rbx), %xmm9 jmp .LBB1_5863 .LBB1_5814: movq 32448(%rbx), %rax movq $0, (%r13,%rax,8) movq 32480(%rbx), %rax movq $0, (%r13,%rax,8) movq 32544(%rbx), %rax movq $0, (%r13,%rax,8) movq 32576(%rbx), %rax movq $0, (%r13,%rax,8) vextractf128 $1, %ymm11, %xmm2 movq 32640(%rbx), %rax movq $0, (%r13,%rax,8) vmovdqa .LCPI1_12(%rip), %xmm12 vpaddq %xmm12, %xmm2, %xmm4 vpaddq %xmm12, %xmm11, %xmm2 vpextrq $1, %xmm2, %r12 vmovd %xmm4, %rcx vpextrq $1, %xmm4, %rdx vextractf128 $1, %ymm8, %xmm4 movq 32672(%rbx), %rax movq $0, (%r13,%rax,8) vpaddq %xmm12, %xmm4, %xmm4 leaq (%r11,%rdx,8), %r8 leaq (%r11,%rcx,8), %r14 leaq (%r11,%r12,8), %rax movq %rax, 32160(%rbx) vpaddq %xmm12, %xmm8, %xmm6 vmovdqa %xmm12, %xmm7 vpextrq $1, %xmm4, %rdi movq 32704(%rbx), %rax movq $0, (%r13,%rax,8) leaq (%r11,%rdi,8), %rax movq %rax, 32128(%rbx) vmovd %xmm4, %r9 leaq (%r11,%r9,8), %rax movq %rax, 32096(%rbx) vpextrq $1, %xmm6, %r10 leaq (%r11,%r10,8), %rax movq %rax, 32064(%rbx) vmovd %xmm6, %rax leaq (%r11,%rax,8), %rsi movq %rsi, 31904(%rbx) movq %r11, %rsi movq %rax, %r11 vmovd %xmm2, %r15 movq 32512(%rbx), %rax movq $0, (%r13,%rax,8) vmovaps 26336(%rbx), %ymm2 vmovsd %xmm2, (%rsi,%r15,8) vmovaps 22688(%rbx), %xmm2 vmovsd %xmm2, (%rsi,%r12,8) vmovaps 24320(%rbx), %xmm2 vmovsd %xmm2, (%rsi,%rcx,8) vmovaps 22752(%rbx), %xmm2 vmovsd %xmm2, (%rsi,%rdx,8) vmovaps 26400(%rbx), %ymm2 vmovsd %xmm2, (%rsi,%r11,8) vmovaps 22816(%rbx), %xmm2 vmovsd %xmm2, (%rsi,%r10,8) vmovaps 24384(%rbx), %xmm2 vmovsd %xmm2, (%rsi,%r9,8) vmovaps 22848(%rbx), %xmm2 vmovsd %xmm2, (%rsi,%rdi,8) vmovaps 26368(%rbx), %ymm2 vmovsd %xmm2, (%r13,%r15,8) vmovaps 22624(%rbx), %xmm2 vmovsd %xmm2, (%r13,%r12,8) vmovaps 24288(%rbx), %xmm2 vmovsd %xmm2, (%r13,%rcx,8) vmovaps 22656(%rbx), %xmm2 vmovsd %xmm2, (%r13,%rdx,8) vmovaps 26432(%rbx), %ymm2 vmovsd %xmm2, (%r13,%r11,8) vmovaps 22720(%rbx), %xmm2 vmovsd %xmm2, (%r13,%r10,8) vmovaps 24352(%rbx), %xmm2 vmovsd %xmm2, (%r13,%r9,8) vmovapd 22784(%rbx), %xmm2 vmovsd %xmm2, (%r13,%rdi,8) vmovaps 21632(%rbx), %xmm9 .LBB1_5863: vpor %xmm0, %xmm5, %xmm0 vpand 31808(%rbx), %xmm0, %xmm0 vpmovzxwd %xmm0, %xmm2 vpslld $31, %xmm2, %xmm2 vpsrad $31, %xmm2, %xmm2 vpunpckhwd %xmm0, %xmm0, %xmm4 vpslld $31, %xmm4, %xmm4 vpsrad $31, %xmm4, %xmm4 vinsertf128 $1, %xmm4, %ymm2, %ymm2 vmovdqa 2080(%rbx), %ymm4 vptest %ymm4, %ymm2 jb .LBB1_5864 movq %r11, 31072(%rbx) movq %r10, 31840(%rbx) vpextrb $0, %xmm0, %r10d vpextrb $2, %xmm0, %r11d vpextrb $4, %xmm0, %esi testb $1, %r10b je .LBB1_5867 movq 32632(%rbx), %rax vmovaps 26336(%rbx), %ymm2 vmovsd %xmm2, (%rax,%r15,8) .LBB1_5867: movq %r9, 31872(%rbx) movq %rdi, 31744(%rbx) vpextrb $6, %xmm0, %eax movl %eax, 31520(%rbx) testb $1, %r11b je .LBB1_5869 vmovaps 22688(%rbx), %xmm2 movq 32160(%rbx), %rax vmovsd %xmm2, (%rax) .LBB1_5869: movq %r13, %r9 vpextrb $8, %xmm0, %eax movl %eax, 31488(%rbx) testb $1, %sil movq 31904(%rbx), %rdi je .LBB1_5871 vmovaps 24320(%rbx), %xmm2 vmovsd %xmm2, (%r14) .LBB1_5871: movl %esi, %eax movq %r14, 31552(%rbx) vpextrb $10, %xmm0, %r13d movl 31520(%rbx), %esi testb $1, %sil je .LBB1_5873 vmovaps 22752(%rbx), %xmm2 vmovsd %xmm2, (%r8) .LBB1_5873: movq %r8, 31584(%rbx) vpextrb $12, %xmm0, %r14d movl 31488(%rbx), %esi testb $1, %sil movq 32096(%rbx), %rsi je .LBB1_5875 vmovaps 26400(%rbx), %ymm2 vmovsd %xmm2, (%rdi) .LBB1_5875: vpextrb $14, %xmm0, %r8d testb $1, %r13b je .LBB1_5877 vmovaps 22816(%rbx), %xmm2 movq 32064(%rbx), %rdi vmovsd %xmm2, (%rdi) .LBB1_5877: testb $1, %r14b je .LBB1_5879 vmovaps 24384(%rbx), %xmm2 vmovsd %xmm2, (%rsi) .LBB1_5879: testb $1, %r8b je .LBB1_5881 vmovaps 22848(%rbx), %xmm2 movq 32128(%rbx), %rsi vmovsd %xmm2, (%rsi) .LBB1_5881: testb $1, %r10b je .LBB1_5883 vmovaps 26368(%rbx), %ymm2 vmovsd %xmm2, (%r9,%r15,8) .LBB1_5883: testb $1, %r11b je .LBB1_5885 vmovaps 22624(%rbx), %xmm2 vmovsd %xmm2, (%r9,%r12,8) .LBB1_5885: testb $1, %al movq 31840(%rbx), %r10 je .LBB1_5887 vmovaps 24288(%rbx), %xmm2 vmovsd %xmm2, (%r9,%rcx,8) .LBB1_5887: movl 31520(%rbx), %eax testb $1, %al movq 31072(%rbx), %r11 je .LBB1_5889 vmovaps 22656(%rbx), %xmm2 vmovsd %xmm2, (%r9,%rdx,8) .LBB1_5889: movl 31488(%rbx), %eax testb $1, %al je .LBB1_5891 vmovaps 26432(%rbx), %ymm2 vmovsd %xmm2, (%r9,%r11,8) .LBB1_5891: testb $1, %r13b movq %r9, %r13 je .LBB1_5893 vmovaps 22720(%rbx), %xmm2 vmovsd %xmm2, (%r13,%r10,8) .LBB1_5893: testb $1, %r14b movq 31744(%rbx), %rdi movq 31872(%rbx), %r9 je .LBB1_5895 vmovaps 24352(%rbx), %xmm2 vmovsd %xmm2, (%r13,%r9,8) .LBB1_5895: testb $1, %r8b movq 31584(%rbx), %r8 movq 31552(%rbx), %r14 je .LBB1_5897 jmp .LBB1_5896 .align 16, 0x90 .LBB1_5864: movq 32632(%rbx), %rax vmovaps 26336(%rbx), %ymm2 vmovsd %xmm2, (%rax,%r15,8) vmovaps 22688(%rbx), %xmm2 movq 32160(%rbx), %rax vmovsd %xmm2, (%rax) vmovaps 24320(%rbx), %xmm2 vmovsd %xmm2, (%r14) vmovaps 22752(%rbx), %xmm2 vmovsd %xmm2, (%r8) vmovaps 26400(%rbx), %ymm2 movq 31904(%rbx), %rax vmovsd %xmm2, (%rax) vmovaps 22816(%rbx), %xmm2 movq 32064(%rbx), %rax vmovsd %xmm2, (%rax) vmovaps 24384(%rbx), %xmm2 movq 32096(%rbx), %rax vmovsd %xmm2, (%rax) vmovaps 22848(%rbx), %xmm2 movq 32128(%rbx), %rax vmovsd %xmm2, (%rax) vmovaps 26368(%rbx), %ymm2 vmovsd %xmm2, (%r13,%r15,8) vmovaps 22624(%rbx), %xmm2 vmovsd %xmm2, (%r13,%r12,8) vmovaps 24288(%rbx), %xmm2 vmovsd %xmm2, (%r13,%rcx,8) vmovaps 22656(%rbx), %xmm2 vmovsd %xmm2, (%r13,%rdx,8) vmovaps 26432(%rbx), %ymm2 vmovsd %xmm2, (%r13,%r11,8) vmovaps 22720(%rbx), %xmm2 vmovsd %xmm2, (%r13,%r10,8) vmovaps 24352(%rbx), %xmm2 vmovsd %xmm2, (%r13,%r9,8) .LBB1_5896: vmovaps 22784(%rbx), %xmm2 vmovsd %xmm2, (%r13,%rdi,8) .LBB1_5897: vpmovzxwd %xmm1, %xmm2 vpslld $31, %xmm2, %xmm2 vpsrad $31, %xmm2, %xmm2 vpunpckhwd %xmm0, %xmm1, %xmm4 vpslld $31, %xmm4, %xmm4 vpsrad $31, %xmm4, %xmm4 vinsertf128 $1, %xmm4, %ymm2, %ymm2 vmovdqa 2048(%rbx), %ymm4 vptest %ymm4, %ymm2 movl 31200(%rbx), %esi jb .LBB1_5898 movq %r10, 31840(%rbx) movl 31392(%rbx), %eax testb $1, %al movl 31232(%rbx), %r10d je .LBB1_5901 movq 32632(%rbx), %rax vmovaps 26336(%rbx), %ymm2 vmovsd %xmm2, (%rax,%r15,8) .LBB1_5901: movq %r15, 31552(%rbx) movq %rdx, 31584(%rbx) movl 31424(%rbx), %eax testb $1, %al movl 31264(%rbx), %r15d je .LBB1_5903 vmovaps 22688(%rbx), %xmm2 movq 32160(%rbx), %rax vmovsd %xmm2, (%rax) .LBB1_5903: movq %r9, 31872(%rbx) movq %rdi, 31744(%rbx) testb $1, %sil movl 31360(%rbx), %edi movl 31168(%rbx), %edx je .LBB1_5905 vmovaps 24320(%rbx), %xmm2 vmovsd %xmm2, (%r14) .LBB1_5905: testb $1, %r10b je .LBB1_5907 vmovaps 22752(%rbx), %xmm2 vmovsd %xmm2, (%r8) .LBB1_5907: movq %r11, %r8 testb $1, %r15b movl 31328(%rbx), %r9d je .LBB1_5909 vmovaps 26400(%rbx), %ymm2 movq 31904(%rbx), %rax vmovsd %xmm2, (%rax) .LBB1_5909: movq %rcx, %r11 testb $1, %dl je .LBB1_5911 vmovaps 22816(%rbx), %xmm2 movq 32064(%rbx), %rax vmovsd %xmm2, (%rax) .LBB1_5911: testb $1, %dil movq %r11, %rcx je .LBB1_5913 vmovaps 24384(%rbx), %xmm2 movq 32096(%rbx), %rax vmovsd %xmm2, (%rax) .LBB1_5913: testb $1, %r9b je .LBB1_5915 vmovaps 22848(%rbx), %xmm2 movq 32128(%rbx), %rax vmovsd %xmm2, (%rax) .LBB1_5915: movl 31392(%rbx), %eax testb $1, %al je .LBB1_5917 vmovaps 26368(%rbx), %ymm2 movq 31552(%rbx), %rax vmovsd %xmm2, (%r13,%rax,8) .LBB1_5917: movl 31424(%rbx), %eax testb $1, %al je .LBB1_5919 vmovaps 22624(%rbx), %xmm2 vmovsd %xmm2, (%r13,%r12,8) .LBB1_5919: testb $1, %sil je .LBB1_5921 vmovaps 24288(%rbx), %xmm2 vmovsd %xmm2, (%r13,%rcx,8) .LBB1_5921: testb $1, %r10b je .LBB1_5923 vmovaps 22656(%rbx), %xmm2 movq 31584(%rbx), %rax vmovsd %xmm2, (%r13,%rax,8) .LBB1_5923: testb $1, %r15b movq 31840(%rbx), %rax je .LBB1_5925 vmovaps 26432(%rbx), %ymm2 vmovsd %xmm2, (%r13,%r8,8) .LBB1_5925: testb $1, %dl je .LBB1_5927 vmovaps 22720(%rbx), %xmm2 vmovsd %xmm2, (%r13,%rax,8) .LBB1_5927: testb $1, %dil je .LBB1_5929 vmovaps 24352(%rbx), %xmm2 movq 31872(%rbx), %rax vmovsd %xmm2, (%r13,%rax,8) .LBB1_5929: testb $1, %r9b movq 31744(%rbx), %rdi je .LBB1_5931 jmp .LBB1_5930 .align 16, 0x90 .LBB1_5898: movq 32632(%rbx), %rax vmovaps 26336(%rbx), %ymm2 vmovsd %xmm2, (%rax,%r15,8) vmovaps 22688(%rbx), %xmm2 movq 32160(%rbx), %rax vmovsd %xmm2, (%rax) vmovaps 24320(%rbx), %xmm2 vmovsd %xmm2, (%r14) vmovaps 22752(%rbx), %xmm2 vmovsd %xmm2, (%r8) vmovaps 26400(%rbx), %ymm2 movq 31904(%rbx), %rax vmovsd %xmm2, (%rax) vmovaps 22816(%rbx), %xmm2 movq 32064(%rbx), %rax vmovsd %xmm2, (%rax) vmovaps 24384(%rbx), %xmm2 movq 32096(%rbx), %rax vmovsd %xmm2, (%rax) vmovaps 22848(%rbx), %xmm2 movq 32128(%rbx), %rax vmovsd %xmm2, (%rax) vmovaps 26368(%rbx), %ymm2 vmovsd %xmm2, (%r13,%r15,8) vmovaps 22624(%rbx), %xmm2 vmovsd %xmm2, (%r13,%r12,8) vmovaps 24288(%rbx), %xmm2 vmovsd %xmm2, (%r13,%rcx,8) vmovaps 22656(%rbx), %xmm2 vmovsd %xmm2, (%r13,%rdx,8) vmovaps 26432(%rbx), %ymm2 vmovsd %xmm2, (%r13,%r11,8) vmovaps 22720(%rbx), %xmm2 vmovsd %xmm2, (%r13,%r10,8) vmovaps 24352(%rbx), %xmm2 vmovsd %xmm2, (%r13,%r9,8) .LBB1_5930: vmovaps 22784(%rbx), %xmm2 vmovsd %xmm2, (%r13,%rdi,8) .LBB1_5931: vpand %xmm15, %xmm1, %xmm2 vpor %xmm3, %xmm2, %xmm2 vpmovzxwd %xmm2, %xmm3 vpunpckhwd %xmm0, %xmm2, %xmm5 vmovdqa 31776(%rbx), %xmm4 vpaddq %xmm7, %xmm4, %xmm4 vpslld $31, %xmm5, %xmm5 vpslld $31, %xmm3, %xmm3 vpsrad $31, %xmm3, %xmm3 vpsrad $31, %xmm5, %xmm5 vmovd %xmm4, %r15 vmovdqa 31680(%rbx), %ymm6 vpaddq %xmm7, %xmm6, %xmm6 vpextrq $1, %xmm4, %r11 vpextrq $1, %xmm6, %rcx vmovdqa 31712(%rbx), %ymm4 vpaddq %xmm7, %xmm4, %xmm4 vpaddq %xmm7, %xmm10, %xmm7 vinsertf128 $1, %xmm5, %ymm3, %ymm3 vmovd %xmm6, %rsi vpextrq $1, %xmm7, %r8 vmovd %xmm7, %r9 vpextrq $1, %xmm4, %r10 vmovd %xmm4, %r14 vmovdqa 2016(%rbx), %ymm4 vptest %ymm4, %ymm3 jb .LBB1_5932 vpextrb $2, %xmm2, %edi vpextrb $4, %xmm2, %edx vpextrb $0, %xmm2, %eax testb $1, %al je .LBB1_5935 vmovaps 30016(%rbx), %ymm3 vmovsd %xmm3, (%r13,%rsi,8) .LBB1_5935: vpextrb $6, %xmm2, %esi testb $1, %dil je .LBB1_5937 vmovaps 28928(%rbx), %xmm3 vmovsd %xmm3, (%r13,%rcx,8) .LBB1_5937: vpextrb $8, %xmm2, %ecx testb $1, %dl vmovdqa .LCPI1_13(%rip), %xmm7 je .LBB1_5939 vmovaps 29056(%rbx), %xmm3 vmovsd %xmm3, (%r13,%r15,8) .LBB1_5939: vpextrb $10, %xmm2, %eax testb $1, %sil je .LBB1_5941 vmovaps 28960(%rbx), %xmm3 vmovsd %xmm3, (%r13,%r11,8) .LBB1_5941: vpextrb $12, %xmm2, %edx testb $1, %cl movq 32632(%rbx), %r11 je .LBB1_5943 vmovaps 30752(%rbx), %ymm3 vmovsd %xmm3, (%r13,%r14,8) .LBB1_5943: vpextrb $14, %xmm2, %ecx testb $1, %al je .LBB1_5945 vmovaps 28992(%rbx), %xmm3 vmovsd %xmm3, (%r13,%r10,8) .LBB1_5945: testb $1, %dl movq 22456(%rbx), %r14 je .LBB1_5947 vmovaps 29984(%rbx), %xmm3 vmovsd %xmm3, (%r13,%r9,8) .LBB1_5947: testb $1, %cl je .LBB1_5949 vmovaps 29024(%rbx), %xmm3 vmovsd %xmm3, (%r13,%r8,8) jmp .LBB1_5949 .align 16, 0x90 .LBB1_5932: vmovaps 30016(%rbx), %ymm3 vmovsd %xmm3, (%r13,%rsi,8) vmovaps 28928(%rbx), %xmm3 vmovsd %xmm3, (%r13,%rcx,8) vmovaps 29056(%rbx), %xmm3 vmovsd %xmm3, (%r13,%r15,8) vmovaps 28960(%rbx), %xmm3 vmovsd %xmm3, (%r13,%r11,8) vmovaps 30752(%rbx), %ymm3 vmovsd %xmm3, (%r13,%r14,8) vmovaps 28992(%rbx), %xmm3 vmovsd %xmm3, (%r13,%r10,8) vmovaps 29984(%rbx), %xmm3 vmovsd %xmm3, (%r13,%r9,8) vmovaps 29024(%rbx), %xmm3 vmovsd %xmm3, (%r13,%r8,8) movq 32632(%rbx), %r11 vmovdqa .LCPI1_13(%rip), %xmm7 movq 22456(%rbx), %r14 .LBB1_5949: vmovdqa 31968(%rbx), %ymm3 vpshufd $8, %xmm3, %xmm3 vmovaps 31936(%rbx), %xmm4 vmovlhps %xmm4, %xmm3, %xmm3 vmovdqa 32032(%rbx), %ymm4 vpshufd $8, %xmm4, %xmm4 vmovaps 32000(%rbx), %xmm5 vmovlhps %xmm5, %xmm4, %xmm4 vpshufb .LCPI1_21(%rip), %xmm4, %xmm4 vpshufb .LCPI1_20(%rip), %xmm3, %xmm3 vpor %xmm0, %xmm2, %xmm0 vpand %xmm14, %xmm0, %xmm5 vpextrb $12, %xmm5, %eax movl %eax, 31360(%rbx) vpor %xmm3, %xmm4, %xmm2 vpsllw $15, %xmm2, %xmm2 vpsraw $15, %xmm2, %xmm2 vpextrb $0, %xmm5, %eax movl %eax, 31392(%rbx) vpextrb $2, %xmm5, %eax movl %eax, 31424(%rbx) vpextrb $4, %xmm5, %eax movl %eax, 31200(%rbx) vpextrb $6, %xmm5, %eax movl %eax, 31232(%rbx) vpextrb $8, %xmm5, %eax movl %eax, 31264(%rbx) vpextrb $10, %xmm5, %eax movl %eax, 31168(%rbx) vpextrb $14, %xmm5, %eax movl %eax, 31328(%rbx) vpand %xmm2, %xmm0, %xmm3 vpmovzxwd %xmm3, %xmm0 vpslld $31, %xmm0, %xmm0 vpsrad $31, %xmm0, %xmm0 vpunpckhwd %xmm0, %xmm3, %xmm2 vpslld $31, %xmm2, %xmm2 vpsrad $31, %xmm2, %xmm2 vinsertf128 $1, %xmm2, %ymm0, %ymm0 vmovdqa 1984(%rbx), %ymm2 vptest %ymm2, %ymm0 jb .LBB1_5950 vpextrb $0, %xmm3, %ecx vpextrb $2, %xmm3, %r10d vpextrb $4, %xmm3, %r8d testb $1, %cl je .LBB1_5953 movq 32192(%rbx), %rax movq $0, (%r14,%rax,8) .LBB1_5953: vpextrb $6, %xmm3, %r9d testb $1, %r10b je .LBB1_5955 movq 32256(%rbx), %rax movq $0, (%r14,%rax,8) .LBB1_5955: vpextrb $8, %xmm3, %esi testb $1, %r8b je .LBB1_5957 movq 32224(%rbx), %rax movq $0, (%r14,%rax,8) .LBB1_5957: vpextrb $10, %xmm3, %r15d testb $1, %r9b je .LBB1_5959 movq 32288(%rbx), %rax movq $0, (%r14,%rax,8) .LBB1_5959: vpextrb $12, %xmm3, %eax testb $1, %sil je .LBB1_5961 movq 32320(%rbx), %rdx movq $0, (%r14,%rdx,8) .LBB1_5961: vpextrb $14, %xmm3, %edx testb $1, %r15b je .LBB1_5963 movq 32384(%rbx), %rdi movq $0, (%r14,%rdi,8) .LBB1_5963: testb $1, %al je .LBB1_5965 movq 32352(%rbx), %rdi movq $0, (%r14,%rdi,8) .LBB1_5965: testb $1, %dl je .LBB1_5967 movq 32416(%rbx), %rdi movq $0, (%r14,%rdi,8) .LBB1_5967: testb $1, %cl je .LBB1_5969 movq 32832(%rbx), %rdi movq $0, (%r11,%rdi,8) .LBB1_5969: testb $1, %r10b je .LBB1_5971 movq 32864(%rbx), %rdi movq $0, (%r11,%rdi,8) .LBB1_5971: testb $1, %r8b je .LBB1_5973 movq 32736(%rbx), %rdi movq $0, (%r11,%rdi,8) .LBB1_5973: testb $1, %r9b je .LBB1_5975 movq 32800(%rbx), %rdi movq $0, (%r11,%rdi,8) .LBB1_5975: testb $1, %sil je .LBB1_5977 movq 32896(%rbx), %rdi movq $0, (%r11,%rdi,8) .LBB1_5977: testb $1, %r15b je .LBB1_5979 movq 32928(%rbx), %rdi movq $0, (%r11,%rdi,8) .LBB1_5979: testb $1, %al je .LBB1_5981 movq 32960(%rbx), %rdi movq $0, (%r11,%rdi,8) .LBB1_5981: testb $1, %dl je .LBB1_5983 movq 32992(%rbx), %rdi movq $0, (%r11,%rdi,8) .LBB1_5983: testb $1, %cl je .LBB1_5985 movq 32832(%rbx), %rcx movq $0, (%r13,%rcx,8) .LBB1_5985: testb $1, %r10b je .LBB1_5987 movq 32864(%rbx), %rcx movq $0, (%r13,%rcx,8) .LBB1_5987: testb $1, %r8b je .LBB1_5989 movq 32736(%rbx), %rcx movq $0, (%r13,%rcx,8) .LBB1_5989: testb $1, %r9b je .LBB1_5991 movq 32800(%rbx), %rcx movq $0, (%r13,%rcx,8) .LBB1_5991: testb $1, %sil je .LBB1_5993 movq 32896(%rbx), %rcx movq $0, (%r13,%rcx,8) .LBB1_5993: testb $1, %r15b je .LBB1_5995 movq 32928(%rbx), %rcx movq $0, (%r13,%rcx,8) .LBB1_5995: testb $1, %al je .LBB1_5997 movq 32960(%rbx), %rax movq $0, (%r13,%rax,8) .LBB1_5997: testb $1, %dl je .LBB1_6000 movq 32992(%rbx), %rax jmp .LBB1_5999 .align 16, 0x90 .LBB1_5950: movq 32192(%rbx), %rax movq $0, (%r14,%rax,8) movq 32256(%rbx), %rax movq $0, (%r14,%rax,8) movq 32224(%rbx), %rax movq $0, (%r14,%rax,8) movq 32288(%rbx), %rax movq $0, (%r14,%rax,8) movq 32320(%rbx), %rax movq $0, (%r14,%rax,8) movq 32384(%rbx), %rax movq $0, (%r14,%rax,8) movq 32352(%rbx), %rax movq $0, (%r14,%rax,8) movq 32416(%rbx), %rax movq $0, (%r14,%rax,8) movq 32832(%rbx), %r10 movq $0, (%r11,%r10,8) movq 32864(%rbx), %r9 movq $0, (%r11,%r9,8) movq 32736(%rbx), %r8 movq $0, (%r11,%r8,8) movq 32800(%rbx), %rsi movq $0, (%r11,%rsi,8) movq 32896(%rbx), %rdi movq $0, (%r11,%rdi,8) movq 32928(%rbx), %rdx movq $0, (%r11,%rdx,8) movq 32960(%rbx), %rcx movq $0, (%r11,%rcx,8) movq 32992(%rbx), %rax movq $0, (%r11,%rax,8) movq $0, (%r13,%r10,8) movq $0, (%r13,%r9,8) movq $0, (%r13,%r8,8) movq $0, (%r13,%rsi,8) movq $0, (%r13,%rdi,8) movq $0, (%r13,%rdx,8) movq $0, (%r13,%rcx,8) .LBB1_5999: movq $0, (%r13,%rax,8) .LBB1_6000: vpand %xmm15, %xmm3, %xmm0 vpxor %xmm13, %xmm0, %xmm2 vpmovzxwd %xmm2, %xmm4 vpslld $31, %xmm4, %xmm4 vpsrad $31, %xmm4, %xmm4 vpunpckhwd %xmm0, %xmm2, %xmm2 vpslld $31, %xmm2, %xmm2 vpsrad $31, %xmm2, %xmm2 vinsertf128 $1, %xmm2, %ymm4, %ymm2 vmovdqa 1952(%rbx), %ymm4 vptest %ymm4, %ymm2 jb .LBB1_6001 vpmovzxwd %xmm0, %xmm2 vpslld $31, %xmm2, %xmm2 vpsrad $31, %xmm2, %xmm2 vpunpckhwd %xmm0, %xmm0, %xmm4 vpslld $31, %xmm4, %xmm4 vpsrad $31, %xmm4, %xmm4 vinsertf128 $1, %xmm4, %ymm2, %ymm2 vmovdqa 1920(%rbx), %ymm4 vptest %ymm4, %ymm2 jb .LBB1_6003 vpextrb $0, %xmm0, %r10d vpextrb $2, %xmm0, %r9d vpextrb $4, %xmm0, %eax movl %eax, 31872(%rbx) testb $1, %r10b je .LBB1_6006 movq 32448(%rbx), %rax movq $0, (%r13,%rax,8) .LBB1_6006: vpextrb $6, %xmm0, %eax movl %eax, 31840(%rbx) testb $1, %r9b je .LBB1_6008 movq 32480(%rbx), %rax movq $0, (%r13,%rax,8) .LBB1_6008: vpextrb $8, %xmm0, %eax movl %eax, 31744(%rbx) movl 31872(%rbx), %eax testb $1, %al je .LBB1_6010 movq 32544(%rbx), %rax movq $0, (%r13,%rax,8) .LBB1_6010: vpextrb $10, %xmm0, %eax movl %eax, 31520(%rbx) movl 31840(%rbx), %eax testb $1, %al je .LBB1_6012 movq 32576(%rbx), %rax movq $0, (%r13,%rax,8) .LBB1_6012: vpextrb $12, %xmm0, %eax movl %eax, 31488(%rbx) movl 31744(%rbx), %eax testb $1, %al je .LBB1_6014 movq 32640(%rbx), %rax movq $0, (%r13,%rax,8) .LBB1_6014: vpextrb $14, %xmm0, %r8d movl 31520(%rbx), %eax testb $1, %al je .LBB1_6016 movq 32672(%rbx), %rdi movq $0, (%r13,%rdi,8) .LBB1_6016: movl 31488(%rbx), %eax testb $1, %al je .LBB1_6018 movq 32704(%rbx), %rdi movq $0, (%r13,%rdi,8) .LBB1_6018: movq %r11, %rsi testb $1, %r8b je .LBB1_6020 movq 32512(%rbx), %rdi movq $0, (%r13,%rdi,8) .LBB1_6020: vpaddq %xmm7, %xmm11, %xmm2 vmovd %xmm2, %rax vpextrq $1, %xmm2, %r12 vextractf128 $1, %ymm11, %xmm2 vpaddq %xmm7, %xmm2, %xmm4 testb $1, %r10b je .LBB1_6022 vmovapd 26464(%rbx), %ymm2 vmovsd %xmm2, (%rsi,%rax,8) .LBB1_6022: vmovd %xmm4, %rcx leaq (%rsi,%r12,8), %rdx testb $1, %r9b je .LBB1_6024 vmovapd 22944(%rbx), %xmm2 vmovsd %xmm2, (%rdx) .LBB1_6024: movl %r8d, 31072(%rbx) movq %rdx, 32160(%rbx) vpaddq %xmm7, %xmm8, %xmm2 vpextrq $1, %xmm4, %rdx movq 32632(%rbx), %rsi leaq (%rsi,%rcx,8), %rsi movl 31872(%rbx), %edi testb $1, %dil je .LBB1_6026 vmovapd 24416(%rbx), %xmm4 vmovsd %xmm4, (%rsi) .LBB1_6026: movl %r10d, %r8d movq %rsi, 31552(%rbx) vextractf128 $1, %ymm8, %xmm4 vmovd %xmm2, %r11 movq 32632(%rbx), %rsi leaq (%rsi,%rdx,8), %rsi movl 31840(%rbx), %edi testb $1, %dil je .LBB1_6028 vmovapd 23008(%rbx), %xmm6 vmovsd %xmm6, (%rsi) .LBB1_6028: movl %r9d, %r15d movq %rsi, 31584(%rbx) vpaddq %xmm7, %xmm4, %xmm4 vpextrq $1, %xmm2, %r10 movq 32632(%rbx), %rsi leaq (%rsi,%r11,8), %rsi movl 31744(%rbx), %edi testb $1, %dil je .LBB1_6030 vmovapd 26528(%rbx), %ymm2 vmovsd %xmm2, (%rsi) .LBB1_6030: movq %rsi, 31904(%rbx) vmovd %xmm4, %r9 movq 32632(%rbx), %rsi leaq (%rsi,%r10,8), %rsi movl 31520(%rbx), %edi testb $1, %dil je .LBB1_6032 vmovapd 23072(%rbx), %xmm2 vmovsd %xmm2, (%rsi) .LBB1_6032: movq %rsi, 32064(%rbx) vpextrq $1, %xmm4, %rdi movq 32632(%rbx), %rsi leaq (%rsi,%r9,8), %rsi movl 31488(%rbx), %r14d testb $1, %r14b je .LBB1_6034 vmovapd 24480(%rbx), %xmm2 vmovsd %xmm2, (%rsi) .LBB1_6034: movq %rsi, 32096(%rbx) movq 32632(%rbx), %rsi leaq (%rsi,%rdi,8), %rsi movl 31072(%rbx), %r14d testb $1, %r14b je .LBB1_6036 vmovapd 23104(%rbx), %xmm2 vmovsd %xmm2, (%rsi) .LBB1_6036: testb $1, %r8b je .LBB1_6038 vmovapd 26496(%rbx), %ymm2 vmovsd %xmm2, (%r13,%rax,8) .LBB1_6038: movq %rsi, 32128(%rbx) testb $1, %r15b je .LBB1_6040 vmovapd 22880(%rbx), %xmm2 vmovsd %xmm2, (%r13,%r12,8) .LBB1_6040: movl 31872(%rbx), %esi testb $1, %sil je .LBB1_6042 vmovsd %xmm9, (%r13,%rcx,8) .LBB1_6042: movl 31840(%rbx), %esi testb $1, %sil je .LBB1_6044 vmovapd 22912(%rbx), %xmm2 vmovsd %xmm2, (%r13,%rdx,8) .LBB1_6044: movl 31744(%rbx), %esi testb $1, %sil je .LBB1_6046 vmovapd 26560(%rbx), %ymm2 vmovsd %xmm2, (%r13,%r11,8) .LBB1_6046: movl 31520(%rbx), %esi testb $1, %sil je .LBB1_6048 vmovapd 22976(%rbx), %xmm2 vmovsd %xmm2, (%r13,%r10,8) .LBB1_6048: movl 31488(%rbx), %esi testb $1, %sil movq %rax, %r15 je .LBB1_6050 vmovapd 24448(%rbx), %xmm2 vmovsd %xmm2, (%r13,%r9,8) .LBB1_6050: testb $1, %r14b movq 31584(%rbx), %r8 movq 31552(%rbx), %r14 je .LBB1_6052 jmp .LBB1_6051 .align 16, 0x90 .LBB1_6001: vextractf128 $1, %ymm11, %xmm0 vpaddq %xmm7, %xmm0, %xmm0 vmovd %xmm0, %rax vpaddq %xmm7, %xmm11, %xmm2 vextractf128 $1, %ymm8, %xmm4 vpaddq %xmm7, %xmm4, %xmm6 vpaddq %xmm7, %xmm8, %xmm4 vpextrq $1, %xmm4, %r10 vmovd %xmm6, %r9 vpextrq $1, %xmm6, %rdi vpextrq $1, %xmm2, %r12 vpextrq $1, %xmm0, %rdx leaq (%r11,%rdx,8), %r8 leaq (%r11,%rax,8), %r14 leaq (%r11,%r12,8), %rcx movq %rcx, 32160(%rbx) vpxor %xmm0, %xmm0, %xmm0 movq %r11, %rsi movq %rax, %rcx vmovd %xmm2, %r15 vmovd %xmm4, %r11 leaq (%rsi,%rdi,8), %rax movq %rax, 32128(%rbx) leaq (%rsi,%r9,8), %rax movq %rax, 32096(%rbx) leaq (%rsi,%r10,8), %rax movq %rax, 32064(%rbx) leaq (%rsi,%r11,8), %rax movq %rax, 31904(%rbx) jmp .LBB1_6052 .LBB1_6003: movq 32448(%rbx), %rax movq $0, (%r13,%rax,8) movq 32480(%rbx), %rax movq $0, (%r13,%rax,8) movq 32544(%rbx), %rax movq $0, (%r13,%rax,8) movq 32576(%rbx), %rax movq $0, (%r13,%rax,8) vextractf128 $1, %ymm11, %xmm2 movq 32640(%rbx), %rax movq $0, (%r13,%rax,8) vpaddq %xmm7, %xmm2, %xmm4 vpaddq %xmm7, %xmm11, %xmm2 vpextrq $1, %xmm2, %r12 vmovd %xmm4, %rcx vpextrq $1, %xmm4, %rdx vextractf128 $1, %ymm8, %xmm4 movq 32672(%rbx), %rax movq $0, (%r13,%rax,8) vpaddq %xmm7, %xmm4, %xmm4 leaq (%r11,%rdx,8), %r8 leaq (%r11,%rcx,8), %r14 leaq (%r11,%r12,8), %rax movq %rax, 32160(%rbx) vpaddq %xmm7, %xmm8, %xmm6 vpextrq $1, %xmm4, %rdi movq 32704(%rbx), %rax movq $0, (%r13,%rax,8) leaq (%r11,%rdi,8), %rax movq %rax, 32128(%rbx) vmovd %xmm4, %r9 leaq (%r11,%r9,8), %rax movq %rax, 32096(%rbx) vpextrq $1, %xmm6, %r10 leaq (%r11,%r10,8), %rax movq %rax, 32064(%rbx) vmovd %xmm6, %rax leaq (%r11,%rax,8), %rsi movq %rsi, 31904(%rbx) movq %r11, %rsi movq %rax, %r11 vmovd %xmm2, %r15 movq 32512(%rbx), %rax movq $0, (%r13,%rax,8) vmovaps 26464(%rbx), %ymm2 vmovsd %xmm2, (%rsi,%r15,8) vmovaps 22944(%rbx), %xmm2 vmovsd %xmm2, (%rsi,%r12,8) vmovaps 24416(%rbx), %xmm2 vmovsd %xmm2, (%rsi,%rcx,8) vmovaps 23008(%rbx), %xmm2 vmovsd %xmm2, (%rsi,%rdx,8) vmovaps 26528(%rbx), %ymm2 vmovsd %xmm2, (%rsi,%r11,8) vmovaps 23072(%rbx), %xmm2 vmovsd %xmm2, (%rsi,%r10,8) vmovaps 24480(%rbx), %xmm2 vmovsd %xmm2, (%rsi,%r9,8) vmovaps 23104(%rbx), %xmm2 vmovsd %xmm2, (%rsi,%rdi,8) vmovaps 26496(%rbx), %ymm2 vmovsd %xmm2, (%r13,%r15,8) vmovaps 22880(%rbx), %xmm2 vmovsd %xmm2, (%r13,%r12,8) vmovsd %xmm9, (%r13,%rcx,8) vmovaps 22912(%rbx), %xmm2 vmovsd %xmm2, (%r13,%rdx,8) vmovaps 26560(%rbx), %ymm2 vmovsd %xmm2, (%r13,%r11,8) vmovaps 22976(%rbx), %xmm2 vmovsd %xmm2, (%r13,%r10,8) vmovapd 24448(%rbx), %xmm2 vmovsd %xmm2, (%r13,%r9,8) .LBB1_6051: vmovapd 23040(%rbx), %xmm2 vmovsd %xmm2, (%r13,%rdi,8) .LBB1_6052: vpor %xmm1, %xmm3, %xmm1 vpand 31808(%rbx), %xmm1, %xmm1 vpmovzxwd %xmm1, %xmm2 vpslld $31, %xmm2, %xmm2 vpsrad $31, %xmm2, %xmm2 vpunpckhwd %xmm0, %xmm1, %xmm3 vpslld $31, %xmm3, %xmm3 vpsrad $31, %xmm3, %xmm3 vinsertf128 $1, %xmm3, %ymm2, %ymm2 vmovdqa 1888(%rbx), %ymm3 vptest %ymm3, %ymm2 jb .LBB1_6053 movq %r11, 31072(%rbx) movq %r10, 31840(%rbx) vpextrb $0, %xmm1, %r10d vpextrb $2, %xmm1, %r11d vpextrb $4, %xmm1, %esi testb $1, %r10b je .LBB1_6056 movq 32632(%rbx), %rax vmovaps 26464(%rbx), %ymm2 vmovsd %xmm2, (%rax,%r15,8) .LBB1_6056: movq %r9, 31872(%rbx) movq %rdi, 31744(%rbx) vpextrb $6, %xmm1, %eax movl %eax, 31520(%rbx) testb $1, %r11b je .LBB1_6058 vmovaps 22944(%rbx), %xmm2 movq 32160(%rbx), %rax vmovsd %xmm2, (%rax) .LBB1_6058: movq %r13, %r9 vpextrb $8, %xmm1, %eax movl %eax, 31488(%rbx) testb $1, %sil movq 31904(%rbx), %rdi je .LBB1_6060 vmovaps 24416(%rbx), %xmm2 vmovsd %xmm2, (%r14) .LBB1_6060: movl %esi, %eax movq %r14, 31552(%rbx) vpextrb $10, %xmm1, %r13d movl 31520(%rbx), %esi testb $1, %sil je .LBB1_6062 vmovaps 23008(%rbx), %xmm2 vmovsd %xmm2, (%r8) .LBB1_6062: movq %r8, 31584(%rbx) vpextrb $12, %xmm1, %r14d movl 31488(%rbx), %esi testb $1, %sil movq 32096(%rbx), %rsi je .LBB1_6064 vmovaps 26528(%rbx), %ymm2 vmovsd %xmm2, (%rdi) .LBB1_6064: vpextrb $14, %xmm1, %r8d testb $1, %r13b je .LBB1_6066 vmovaps 23072(%rbx), %xmm2 movq 32064(%rbx), %rdi vmovsd %xmm2, (%rdi) .LBB1_6066: testb $1, %r14b je .LBB1_6068 vmovaps 24480(%rbx), %xmm2 vmovsd %xmm2, (%rsi) .LBB1_6068: testb $1, %r8b je .LBB1_6070 vmovaps 23104(%rbx), %xmm2 movq 32128(%rbx), %rsi vmovsd %xmm2, (%rsi) .LBB1_6070: testb $1, %r10b je .LBB1_6072 vmovaps 26496(%rbx), %ymm2 vmovsd %xmm2, (%r9,%r15,8) .LBB1_6072: testb $1, %r11b je .LBB1_6074 vmovaps 22880(%rbx), %xmm2 vmovsd %xmm2, (%r9,%r12,8) .LBB1_6074: testb $1, %al movq 31840(%rbx), %r10 je .LBB1_6076 vmovsd %xmm9, (%r9,%rcx,8) .LBB1_6076: movl 31520(%rbx), %eax testb $1, %al movq 31072(%rbx), %r11 je .LBB1_6078 vmovaps 22912(%rbx), %xmm2 vmovsd %xmm2, (%r9,%rdx,8) .LBB1_6078: movl 31488(%rbx), %eax testb $1, %al je .LBB1_6080 vmovaps 26560(%rbx), %ymm2 vmovsd %xmm2, (%r9,%r11,8) .LBB1_6080: testb $1, %r13b movq %r9, %r13 je .LBB1_6082 vmovaps 22976(%rbx), %xmm2 vmovsd %xmm2, (%r13,%r10,8) .LBB1_6082: testb $1, %r14b movq 31744(%rbx), %rdi movq 31872(%rbx), %r9 je .LBB1_6084 vmovaps 24448(%rbx), %xmm2 vmovsd %xmm2, (%r13,%r9,8) .LBB1_6084: testb $1, %r8b movq 31584(%rbx), %r8 movq 31552(%rbx), %r14 je .LBB1_6086 jmp .LBB1_6085 .align 16, 0x90 .LBB1_6053: movq 32632(%rbx), %rax vmovaps 26464(%rbx), %ymm2 vmovsd %xmm2, (%rax,%r15,8) vmovaps 22944(%rbx), %xmm2 movq 32160(%rbx), %rax vmovsd %xmm2, (%rax) vmovaps 24416(%rbx), %xmm2 vmovsd %xmm2, (%r14) vmovaps 23008(%rbx), %xmm2 vmovsd %xmm2, (%r8) vmovaps 26528(%rbx), %ymm2 movq 31904(%rbx), %rax vmovsd %xmm2, (%rax) vmovaps 23072(%rbx), %xmm2 movq 32064(%rbx), %rax vmovsd %xmm2, (%rax) vmovaps 24480(%rbx), %xmm2 movq 32096(%rbx), %rax vmovsd %xmm2, (%rax) vmovaps 23104(%rbx), %xmm2 movq 32128(%rbx), %rax vmovsd %xmm2, (%rax) vmovaps 26496(%rbx), %ymm2 vmovsd %xmm2, (%r13,%r15,8) vmovaps 22880(%rbx), %xmm2 vmovsd %xmm2, (%r13,%r12,8) vmovsd %xmm9, (%r13,%rcx,8) vmovaps 22912(%rbx), %xmm2 vmovsd %xmm2, (%r13,%rdx,8) vmovaps 26560(%rbx), %ymm2 vmovsd %xmm2, (%r13,%r11,8) vmovaps 22976(%rbx), %xmm2 vmovsd %xmm2, (%r13,%r10,8) vmovaps 24448(%rbx), %xmm2 vmovsd %xmm2, (%r13,%r9,8) .LBB1_6085: vmovaps 23040(%rbx), %xmm2 vmovsd %xmm2, (%r13,%rdi,8) .LBB1_6086: vpmovzxwd %xmm5, %xmm2 vpslld $31, %xmm2, %xmm2 vpsrad $31, %xmm2, %xmm2 vpunpckhwd %xmm0, %xmm5, %xmm3 vpslld $31, %xmm3, %xmm3 vpsrad $31, %xmm3, %xmm3 vinsertf128 $1, %xmm3, %ymm2, %ymm2 vmovdqa 1856(%rbx), %ymm3 vptest %ymm3, %ymm2 movl 31200(%rbx), %esi jb .LBB1_6087 movq %r10, 31840(%rbx) movl 31392(%rbx), %eax testb $1, %al movl 31232(%rbx), %r10d je .LBB1_6090 movq 32632(%rbx), %rax vmovaps 26464(%rbx), %ymm2 vmovsd %xmm2, (%rax,%r15,8) .LBB1_6090: movq %r15, 31552(%rbx) movq %rdx, 31584(%rbx) movl 31424(%rbx), %eax testb $1, %al movl 31264(%rbx), %r15d je .LBB1_6092 vmovaps 22944(%rbx), %xmm2 movq 32160(%rbx), %rax vmovsd %xmm2, (%rax) .LBB1_6092: movq %r9, 31872(%rbx) movq %rdi, 31744(%rbx) testb $1, %sil movl 31360(%rbx), %edi movl 31168(%rbx), %edx je .LBB1_6094 vmovaps 24416(%rbx), %xmm2 vmovsd %xmm2, (%r14) .LBB1_6094: testb $1, %r10b je .LBB1_6096 vmovaps 23008(%rbx), %xmm2 vmovsd %xmm2, (%r8) .LBB1_6096: movq %r11, %r8 testb $1, %r15b movl 31328(%rbx), %r9d je .LBB1_6098 vmovaps 26528(%rbx), %ymm2 movq 31904(%rbx), %rax vmovsd %xmm2, (%rax) .LBB1_6098: movq %rcx, %r11 testb $1, %dl je .LBB1_6100 vmovaps 23072(%rbx), %xmm2 movq 32064(%rbx), %rax vmovsd %xmm2, (%rax) .LBB1_6100: testb $1, %dil movq %r11, %rcx je .LBB1_6102 vmovaps 24480(%rbx), %xmm2 movq 32096(%rbx), %rax vmovsd %xmm2, (%rax) .LBB1_6102: testb $1, %r9b je .LBB1_6104 vmovaps 23104(%rbx), %xmm2 movq 32128(%rbx), %rax vmovsd %xmm2, (%rax) .LBB1_6104: movl 31392(%rbx), %eax testb $1, %al je .LBB1_6106 vmovaps 26496(%rbx), %ymm2 movq 31552(%rbx), %rax vmovsd %xmm2, (%r13,%rax,8) .LBB1_6106: movl 31424(%rbx), %eax testb $1, %al je .LBB1_6108 vmovaps 22880(%rbx), %xmm2 vmovsd %xmm2, (%r13,%r12,8) .LBB1_6108: testb $1, %sil je .LBB1_6110 vmovsd %xmm9, (%r13,%rcx,8) .LBB1_6110: testb $1, %r10b je .LBB1_6112 vmovaps 22912(%rbx), %xmm2 movq 31584(%rbx), %rax vmovsd %xmm2, (%r13,%rax,8) .LBB1_6112: testb $1, %r15b movq 31840(%rbx), %rax je .LBB1_6114 vmovaps 26560(%rbx), %ymm2 vmovsd %xmm2, (%r13,%r8,8) .LBB1_6114: testb $1, %dl je .LBB1_6116 vmovaps 22976(%rbx), %xmm2 vmovsd %xmm2, (%r13,%rax,8) .LBB1_6116: testb $1, %dil je .LBB1_6118 vmovaps 24448(%rbx), %xmm2 movq 31872(%rbx), %rax vmovsd %xmm2, (%r13,%rax,8) .LBB1_6118: testb $1, %r9b movq 31744(%rbx), %rdi je .LBB1_6120 jmp .LBB1_6119 .align 16, 0x90 .LBB1_6087: movq 32632(%rbx), %rax vmovaps 26464(%rbx), %ymm2 vmovsd %xmm2, (%rax,%r15,8) vmovaps 22944(%rbx), %xmm2 movq 32160(%rbx), %rax vmovsd %xmm2, (%rax) vmovaps 24416(%rbx), %xmm2 vmovsd %xmm2, (%r14) vmovaps 23008(%rbx), %xmm2 vmovsd %xmm2, (%r8) vmovaps 26528(%rbx), %ymm2 movq 31904(%rbx), %rax vmovsd %xmm2, (%rax) vmovaps 23072(%rbx), %xmm2 movq 32064(%rbx), %rax vmovsd %xmm2, (%rax) vmovaps 24480(%rbx), %xmm2 movq 32096(%rbx), %rax vmovsd %xmm2, (%rax) vmovaps 23104(%rbx), %xmm2 movq 32128(%rbx), %rax vmovsd %xmm2, (%rax) vmovaps 26496(%rbx), %ymm2 vmovsd %xmm2, (%r13,%r15,8) vmovaps 22880(%rbx), %xmm2 vmovsd %xmm2, (%r13,%r12,8) vmovsd %xmm9, (%r13,%rcx,8) vmovaps 22912(%rbx), %xmm2 vmovsd %xmm2, (%r13,%rdx,8) vmovaps 26560(%rbx), %ymm2 vmovsd %xmm2, (%r13,%r11,8) vmovaps 22976(%rbx), %xmm2 vmovsd %xmm2, (%r13,%r10,8) vmovaps 24448(%rbx), %xmm2 vmovsd %xmm2, (%r13,%r9,8) .LBB1_6119: vmovaps 23040(%rbx), %xmm2 vmovsd %xmm2, (%r13,%rdi,8) .LBB1_6120: vpand %xmm15, %xmm5, %xmm2 vpor %xmm0, %xmm2, %xmm0 vpmovzxwd %xmm0, %xmm2 vpunpckhwd %xmm0, %xmm0, %xmm4 vmovdqa 31776(%rbx), %xmm3 vpaddq %xmm7, %xmm3, %xmm3 vpslld $31, %xmm4, %xmm4 vpslld $31, %xmm2, %xmm2 vpsrad $31, %xmm2, %xmm2 vpsrad $31, %xmm4, %xmm4 vmovd %xmm3, %r15 vmovdqa 31680(%rbx), %ymm6 vpaddq %xmm7, %xmm6, %xmm6 vpextrq $1, %xmm3, %r11 vpextrq $1, %xmm6, %rcx vmovdqa 31712(%rbx), %ymm3 vpaddq %xmm7, %xmm3, %xmm3 vpaddq %xmm7, %xmm10, %xmm7 vinsertf128 $1, %xmm4, %ymm2, %ymm2 vmovd %xmm6, %rsi vpextrq $1, %xmm7, %r8 vmovd %xmm7, %r9 vpextrq $1, %xmm3, %r10 vmovd %xmm3, %r14 vmovdqa 1824(%rbx), %ymm3 vptest %ymm3, %ymm2 jb .LBB1_6121 vpextrb $2, %xmm0, %edi vpextrb $4, %xmm0, %edx vpextrb $0, %xmm0, %eax testb $1, %al je .LBB1_6124 vmovaps 30048(%rbx), %ymm2 vmovsd %xmm2, (%r13,%rsi,8) .LBB1_6124: vpextrb $6, %xmm0, %esi testb $1, %dil je .LBB1_6126 vmovaps 29088(%rbx), %xmm2 vmovsd %xmm2, (%r13,%rcx,8) .LBB1_6126: vpextrb $8, %xmm0, %ecx testb $1, %dl vmovdqa .LCPI1_14(%rip), %xmm6 je .LBB1_6128 vmovaps 29216(%rbx), %xmm2 vmovsd %xmm2, (%r13,%r15,8) .LBB1_6128: vpextrb $10, %xmm0, %eax testb $1, %sil je .LBB1_6130 vmovaps 29120(%rbx), %xmm2 vmovsd %xmm2, (%r13,%r11,8) .LBB1_6130: vpextrb $12, %xmm0, %edx testb $1, %cl movq 32632(%rbx), %r11 je .LBB1_6132 vmovaps 30080(%rbx), %ymm2 vmovsd %xmm2, (%r13,%r14,8) .LBB1_6132: vpextrb $14, %xmm0, %ecx testb $1, %al je .LBB1_6134 vmovaps 29152(%rbx), %xmm2 vmovsd %xmm2, (%r13,%r10,8) .LBB1_6134: testb $1, %dl movq 22456(%rbx), %r14 je .LBB1_6136 vmovaps 29248(%rbx), %xmm2 vmovsd %xmm2, (%r13,%r9,8) .LBB1_6136: testb $1, %cl je .LBB1_6138 vmovaps 29184(%rbx), %xmm2 vmovsd %xmm2, (%r13,%r8,8) jmp .LBB1_6138 .align 16, 0x90 .LBB1_6121: vmovaps 30048(%rbx), %ymm2 vmovsd %xmm2, (%r13,%rsi,8) vmovaps 29088(%rbx), %xmm2 vmovsd %xmm2, (%r13,%rcx,8) vmovaps 29216(%rbx), %xmm2 vmovsd %xmm2, (%r13,%r15,8) vmovaps 29120(%rbx), %xmm2 vmovsd %xmm2, (%r13,%r11,8) vmovaps 30080(%rbx), %ymm2 vmovsd %xmm2, (%r13,%r14,8) vmovaps 29152(%rbx), %xmm2 vmovsd %xmm2, (%r13,%r10,8) vmovaps 29248(%rbx), %xmm2 vmovsd %xmm2, (%r13,%r9,8) vmovaps 29184(%rbx), %xmm2 vmovsd %xmm2, (%r13,%r8,8) movq 32632(%rbx), %r11 vmovdqa .LCPI1_14(%rip), %xmm6 movq 22456(%rbx), %r14 .LBB1_6138: vmovdqa 31968(%rbx), %ymm2 vpshufd $8, %xmm2, %xmm2 vmovaps 31936(%rbx), %xmm3 vmovlhps %xmm3, %xmm2, %xmm2 vmovdqa 32032(%rbx), %ymm3 vpshufd $8, %xmm3, %xmm3 vmovaps 32000(%rbx), %xmm4 vmovlhps %xmm4, %xmm3, %xmm3 vpshufb .LCPI1_21(%rip), %xmm3, %xmm3 vpshufb .LCPI1_20(%rip), %xmm2, %xmm2 vpor %xmm1, %xmm0, %xmm1 vpand %xmm14, %xmm1, %xmm9 vpextrb $12, %xmm9, %eax movl %eax, 31360(%rbx) vpor %xmm2, %xmm3, %xmm0 vpsllw $15, %xmm0, %xmm0 vpsraw $15, %xmm0, %xmm2 vpextrb $0, %xmm9, %eax movl %eax, 31392(%rbx) vpextrb $2, %xmm9, %eax movl %eax, 31424(%rbx) vpextrb $4, %xmm9, %eax movl %eax, 31200(%rbx) vpextrb $6, %xmm9, %eax movl %eax, 31232(%rbx) vpextrb $8, %xmm9, %eax movl %eax, 31264(%rbx) vpextrb $10, %xmm9, %eax movl %eax, 31168(%rbx) vpextrb $14, %xmm9, %eax movl %eax, 31328(%rbx) vpand %xmm2, %xmm1, %xmm3 vpmovzxwd %xmm3, %xmm0 vpslld $31, %xmm0, %xmm0 vpsrad $31, %xmm0, %xmm0 vpunpckhwd %xmm0, %xmm3, %xmm1 vpslld $31, %xmm1, %xmm1 vpsrad $31, %xmm1, %xmm1 vinsertf128 $1, %xmm1, %ymm0, %ymm0 vmovdqa 1792(%rbx), %ymm1 vptest %ymm1, %ymm0 jb .LBB1_6139 vpextrb $0, %xmm3, %ecx vpextrb $2, %xmm3, %r10d vpextrb $4, %xmm3, %r8d testb $1, %cl je .LBB1_6142 movq 32192(%rbx), %rax movq $0, (%r14,%rax,8) .LBB1_6142: vpextrb $6, %xmm3, %r9d testb $1, %r10b je .LBB1_6144 movq 32256(%rbx), %rax movq $0, (%r14,%rax,8) .LBB1_6144: vpextrb $8, %xmm3, %esi testb $1, %r8b je .LBB1_6146 movq 32224(%rbx), %rax movq $0, (%r14,%rax,8) .LBB1_6146: vpextrb $10, %xmm3, %r15d testb $1, %r9b je .LBB1_6148 movq 32288(%rbx), %rax movq $0, (%r14,%rax,8) .LBB1_6148: vpextrb $12, %xmm3, %eax testb $1, %sil je .LBB1_6150 movq 32320(%rbx), %rdx movq $0, (%r14,%rdx,8) .LBB1_6150: vpextrb $14, %xmm3, %edx testb $1, %r15b je .LBB1_6152 movq 32384(%rbx), %rdi movq $0, (%r14,%rdi,8) .LBB1_6152: testb $1, %al je .LBB1_6154 movq 32352(%rbx), %rdi movq $0, (%r14,%rdi,8) .LBB1_6154: testb $1, %dl je .LBB1_6156 movq 32416(%rbx), %rdi movq $0, (%r14,%rdi,8) .LBB1_6156: testb $1, %cl je .LBB1_6158 movq 32832(%rbx), %rdi movq $0, (%r11,%rdi,8) .LBB1_6158: testb $1, %r10b je .LBB1_6160 movq 32864(%rbx), %rdi movq $0, (%r11,%rdi,8) .LBB1_6160: testb $1, %r8b je .LBB1_6162 movq 32736(%rbx), %rdi movq $0, (%r11,%rdi,8) .LBB1_6162: testb $1, %r9b je .LBB1_6164 movq 32800(%rbx), %rdi movq $0, (%r11,%rdi,8) .LBB1_6164: testb $1, %sil je .LBB1_6166 movq 32896(%rbx), %rdi movq $0, (%r11,%rdi,8) .LBB1_6166: testb $1, %r15b je .LBB1_6168 movq 32928(%rbx), %rdi movq $0, (%r11,%rdi,8) .LBB1_6168: testb $1, %al je .LBB1_6170 movq 32960(%rbx), %rdi movq $0, (%r11,%rdi,8) .LBB1_6170: testb $1, %dl je .LBB1_6172 movq 32992(%rbx), %rdi movq $0, (%r11,%rdi,8) .LBB1_6172: testb $1, %cl je .LBB1_6174 movq 32832(%rbx), %rcx movq $0, (%r13,%rcx,8) .LBB1_6174: testb $1, %r10b je .LBB1_6176 movq 32864(%rbx), %rcx movq $0, (%r13,%rcx,8) .LBB1_6176: testb $1, %r8b je .LBB1_6178 movq 32736(%rbx), %rcx movq $0, (%r13,%rcx,8) .LBB1_6178: testb $1, %r9b je .LBB1_6180 movq 32800(%rbx), %rcx movq $0, (%r13,%rcx,8) .LBB1_6180: testb $1, %sil je .LBB1_6182 movq 32896(%rbx), %rcx movq $0, (%r13,%rcx,8) .LBB1_6182: testb $1, %r15b je .LBB1_6184 movq 32928(%rbx), %rcx movq $0, (%r13,%rcx,8) .LBB1_6184: testb $1, %al je .LBB1_6186 movq 32960(%rbx), %rax movq $0, (%r13,%rax,8) .LBB1_6186: testb $1, %dl je .LBB1_6189 movq 32992(%rbx), %rax jmp .LBB1_6188 .align 16, 0x90 .LBB1_6139: movq 32192(%rbx), %rax movq $0, (%r14,%rax,8) movq 32256(%rbx), %rax movq $0, (%r14,%rax,8) movq 32224(%rbx), %rax movq $0, (%r14,%rax,8) movq 32288(%rbx), %rax movq $0, (%r14,%rax,8) movq 32320(%rbx), %rax movq $0, (%r14,%rax,8) movq 32384(%rbx), %rax movq $0, (%r14,%rax,8) movq 32352(%rbx), %rax movq $0, (%r14,%rax,8) movq 32416(%rbx), %rax movq $0, (%r14,%rax,8) movq 32832(%rbx), %r10 movq $0, (%r11,%r10,8) movq 32864(%rbx), %r9 movq $0, (%r11,%r9,8) movq 32736(%rbx), %r8 movq $0, (%r11,%r8,8) movq 32800(%rbx), %rsi movq $0, (%r11,%rsi,8) movq 32896(%rbx), %rdi movq $0, (%r11,%rdi,8) movq 32928(%rbx), %rdx movq $0, (%r11,%rdx,8) movq 32960(%rbx), %rcx movq $0, (%r11,%rcx,8) movq 32992(%rbx), %rax movq $0, (%r11,%rax,8) movq $0, (%r13,%r10,8) movq $0, (%r13,%r9,8) movq $0, (%r13,%r8,8) movq $0, (%r13,%rsi,8) movq $0, (%r13,%rdi,8) movq $0, (%r13,%rdx,8) movq $0, (%r13,%rcx,8) .LBB1_6188: movq $0, (%r13,%rax,8) .LBB1_6189: vpand %xmm15, %xmm3, %xmm1 vpxor %xmm13, %xmm1, %xmm0 vpmovzxwd %xmm0, %xmm2 vpslld $31, %xmm2, %xmm2 vpsrad $31, %xmm2, %xmm2 vpunpckhwd %xmm0, %xmm0, %xmm0 vpslld $31, %xmm0, %xmm0 vpsrad $31, %xmm0, %xmm0 vinsertf128 $1, %xmm0, %ymm2, %ymm0 vmovdqa 1760(%rbx), %ymm2 vptest %ymm2, %ymm0 jb .LBB1_6190 vpmovzxwd %xmm1, %xmm0 vpslld $31, %xmm0, %xmm0 vpsrad $31, %xmm0, %xmm0 vpunpckhwd %xmm0, %xmm1, %xmm2 vpslld $31, %xmm2, %xmm2 vpsrad $31, %xmm2, %xmm2 vinsertf128 $1, %xmm2, %ymm0, %ymm0 vmovdqa 1728(%rbx), %ymm2 vptest %ymm2, %ymm0 jb .LBB1_6192 vpextrb $0, %xmm1, %r10d vpextrb $2, %xmm1, %r9d vpextrb $4, %xmm1, %eax movl %eax, 31872(%rbx) testb $1, %r10b je .LBB1_6195 movq 32448(%rbx), %rax movq $0, (%r13,%rax,8) .LBB1_6195: vpextrb $6, %xmm1, %eax movl %eax, 31840(%rbx) testb $1, %r9b je .LBB1_6197 movq 32480(%rbx), %rax movq $0, (%r13,%rax,8) .LBB1_6197: vpextrb $8, %xmm1, %eax movl %eax, 31744(%rbx) movl 31872(%rbx), %eax testb $1, %al je .LBB1_6199 movq 32544(%rbx), %rax movq $0, (%r13,%rax,8) .LBB1_6199: vpextrb $10, %xmm1, %eax movl %eax, 31520(%rbx) movl 31840(%rbx), %eax testb $1, %al je .LBB1_6201 movq 32576(%rbx), %rax movq $0, (%r13,%rax,8) .LBB1_6201: vpextrb $12, %xmm1, %eax movl %eax, 31488(%rbx) movl 31744(%rbx), %eax testb $1, %al je .LBB1_6203 movq 32640(%rbx), %rax movq $0, (%r13,%rax,8) .LBB1_6203: vpextrb $14, %xmm1, %r8d movl 31520(%rbx), %eax testb $1, %al je .LBB1_6205 movq 32672(%rbx), %rdi movq $0, (%r13,%rdi,8) .LBB1_6205: movl 31488(%rbx), %eax testb $1, %al je .LBB1_6207 movq 32704(%rbx), %rdi movq $0, (%r13,%rdi,8) .LBB1_6207: movq %r11, %rsi testb $1, %r8b je .LBB1_6209 movq 32512(%rbx), %rdi movq $0, (%r13,%rdi,8) .LBB1_6209: vpaddq %xmm6, %xmm11, %xmm0 vmovd %xmm0, %rax vpextrq $1, %xmm0, %r12 vextractf128 $1, %ymm11, %xmm0 vpaddq %xmm6, %xmm0, %xmm4 testb $1, %r10b je .LBB1_6211 vmovapd 26592(%rbx), %ymm0 vmovsd %xmm0, (%rsi,%rax,8) .LBB1_6211: vmovd %xmm4, %rcx leaq (%rsi,%r12,8), %rdx testb $1, %r9b je .LBB1_6213 vmovapd 23200(%rbx), %xmm0 vmovsd %xmm0, (%rdx) .LBB1_6213: movl %r8d, 31072(%rbx) movq %rdx, 32160(%rbx) vpaddq %xmm6, %xmm8, %xmm2 vpextrq $1, %xmm4, %rdx movq 32632(%rbx), %rsi leaq (%rsi,%rcx,8), %rsi movl 31872(%rbx), %edi testb $1, %dil je .LBB1_6215 vmovapd 24544(%rbx), %xmm0 vmovsd %xmm0, (%rsi) .LBB1_6215: movl %r10d, %r8d movq %rsi, 31552(%rbx) vextractf128 $1, %ymm8, %xmm4 vmovd %xmm2, %r11 movq 32632(%rbx), %rsi leaq (%rsi,%rdx,8), %rsi movl 31840(%rbx), %edi testb $1, %dil je .LBB1_6217 vmovapd 23264(%rbx), %xmm0 vmovsd %xmm0, (%rsi) .LBB1_6217: movl %r9d, %r15d movq %rsi, 31584(%rbx) vpaddq %xmm6, %xmm4, %xmm4 vpextrq $1, %xmm2, %r10 movq 32632(%rbx), %rsi leaq (%rsi,%r11,8), %rsi movl 31744(%rbx), %edi testb $1, %dil je .LBB1_6219 vmovapd 26656(%rbx), %ymm0 vmovsd %xmm0, (%rsi) .LBB1_6219: movq %rsi, 31904(%rbx) vmovd %xmm4, %r9 movq 32632(%rbx), %rsi leaq (%rsi,%r10,8), %rsi movl 31520(%rbx), %edi testb $1, %dil je .LBB1_6221 vmovapd 23328(%rbx), %xmm0 vmovsd %xmm0, (%rsi) .LBB1_6221: movq %rsi, 32064(%rbx) vpextrq $1, %xmm4, %rdi movq 32632(%rbx), %rsi leaq (%rsi,%r9,8), %rsi movl 31488(%rbx), %r14d testb $1, %r14b je .LBB1_6223 vmovapd 24608(%rbx), %xmm0 vmovsd %xmm0, (%rsi) .LBB1_6223: movq %rsi, 32096(%rbx) movq 32632(%rbx), %rsi leaq (%rsi,%rdi,8), %rsi movl 31072(%rbx), %r14d testb $1, %r14b je .LBB1_6225 vmovapd 23360(%rbx), %xmm0 vmovsd %xmm0, (%rsi) .LBB1_6225: testb $1, %r8b je .LBB1_6227 vmovapd 26624(%rbx), %ymm0 vmovsd %xmm0, (%r13,%rax,8) .LBB1_6227: movq %rsi, 32128(%rbx) testb $1, %r15b je .LBB1_6229 vmovapd 23136(%rbx), %xmm0 vmovsd %xmm0, (%r13,%r12,8) .LBB1_6229: movl 31872(%rbx), %esi testb $1, %sil je .LBB1_6231 vmovapd 24512(%rbx), %xmm0 vmovsd %xmm0, (%r13,%rcx,8) .LBB1_6231: movl 31840(%rbx), %esi testb $1, %sil je .LBB1_6233 vmovapd 23168(%rbx), %xmm0 vmovsd %xmm0, (%r13,%rdx,8) .LBB1_6233: movl 31744(%rbx), %esi testb $1, %sil je .LBB1_6235 vmovapd 26688(%rbx), %ymm0 vmovsd %xmm0, (%r13,%r11,8) .LBB1_6235: movl 31520(%rbx), %esi testb $1, %sil je .LBB1_6237 vmovapd 23232(%rbx), %xmm0 vmovsd %xmm0, (%r13,%r10,8) .LBB1_6237: movl 31488(%rbx), %esi testb $1, %sil movq %rax, %r15 je .LBB1_6239 vmovapd 24576(%rbx), %xmm0 vmovsd %xmm0, (%r13,%r9,8) .LBB1_6239: testb $1, %r14b movq 31584(%rbx), %r8 movq 31552(%rbx), %r14 je .LBB1_6241 jmp .LBB1_6240 .align 16, 0x90 .LBB1_6190: vextractf128 $1, %ymm11, %xmm0 vpaddq %xmm6, %xmm0, %xmm1 vmovd %xmm1, %rax vpaddq %xmm6, %xmm11, %xmm2 vextractf128 $1, %ymm8, %xmm0 vpaddq %xmm6, %xmm0, %xmm0 vpaddq %xmm6, %xmm8, %xmm4 vpextrq $1, %xmm4, %r10 vmovd %xmm0, %r9 vpextrq $1, %xmm0, %rdi vpextrq $1, %xmm2, %r12 vpextrq $1, %xmm1, %rdx leaq (%r11,%rdx,8), %r8 leaq (%r11,%rax,8), %r14 leaq (%r11,%r12,8), %rcx movq %rcx, 32160(%rbx) vpxor %xmm1, %xmm1, %xmm1 movq %r11, %rsi movq %rax, %rcx vmovd %xmm2, %r15 vmovd %xmm4, %r11 leaq (%rsi,%rdi,8), %rax movq %rax, 32128(%rbx) leaq (%rsi,%r9,8), %rax movq %rax, 32096(%rbx) leaq (%rsi,%r10,8), %rax movq %rax, 32064(%rbx) leaq (%rsi,%r11,8), %rax movq %rax, 31904(%rbx) jmp .LBB1_6241 .LBB1_6192: movq 32448(%rbx), %rax movq $0, (%r13,%rax,8) movq 32480(%rbx), %rax movq $0, (%r13,%rax,8) movq 32544(%rbx), %rax movq $0, (%r13,%rax,8) movq 32576(%rbx), %rax movq $0, (%r13,%rax,8) vextractf128 $1, %ymm11, %xmm0 movq 32640(%rbx), %rax movq $0, (%r13,%rax,8) vpaddq %xmm6, %xmm0, %xmm0 vpaddq %xmm6, %xmm11, %xmm2 vpextrq $1, %xmm2, %r12 vmovd %xmm0, %rcx vpextrq $1, %xmm0, %rdx vextractf128 $1, %ymm8, %xmm0 movq 32672(%rbx), %rax movq $0, (%r13,%rax,8) vpaddq %xmm6, %xmm0, %xmm4 leaq (%r11,%rdx,8), %r8 leaq (%r11,%rcx,8), %r14 leaq (%r11,%r12,8), %rax movq %rax, 32160(%rbx) vpaddq %xmm6, %xmm8, %xmm0 vpextrq $1, %xmm4, %rdi movq 32704(%rbx), %rax movq $0, (%r13,%rax,8) leaq (%r11,%rdi,8), %rax movq %rax, 32128(%rbx) vmovd %xmm4, %r9 leaq (%r11,%r9,8), %rax movq %rax, 32096(%rbx) vpextrq $1, %xmm0, %r10 leaq (%r11,%r10,8), %rax movq %rax, 32064(%rbx) vmovd %xmm0, %rax leaq (%r11,%rax,8), %rsi movq %rsi, 31904(%rbx) movq %r11, %rsi movq %rax, %r11 vmovd %xmm2, %r15 movq 32512(%rbx), %rax movq $0, (%r13,%rax,8) vmovaps 26592(%rbx), %ymm0 vmovsd %xmm0, (%rsi,%r15,8) vmovaps 23200(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%r12,8) vmovaps 24544(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%rcx,8) vmovaps 23264(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%rdx,8) vmovaps 26656(%rbx), %ymm0 vmovsd %xmm0, (%rsi,%r11,8) vmovaps 23328(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%r10,8) vmovaps 24608(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%r9,8) vmovaps 23360(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%rdi,8) vmovaps 26624(%rbx), %ymm0 vmovsd %xmm0, (%r13,%r15,8) vmovaps 23136(%rbx), %xmm0 vmovsd %xmm0, (%r13,%r12,8) vmovaps 24512(%rbx), %xmm0 vmovsd %xmm0, (%r13,%rcx,8) vmovaps 23168(%rbx), %xmm0 vmovsd %xmm0, (%r13,%rdx,8) vmovaps 26688(%rbx), %ymm0 vmovsd %xmm0, (%r13,%r11,8) vmovaps 23232(%rbx), %xmm0 vmovsd %xmm0, (%r13,%r10,8) vmovapd 24576(%rbx), %xmm0 vmovsd %xmm0, (%r13,%r9,8) .LBB1_6240: vmovapd 23296(%rbx), %xmm0 vmovsd %xmm0, (%r13,%rdi,8) .LBB1_6241: vpor %xmm5, %xmm3, %xmm0 vpand 31808(%rbx), %xmm0, %xmm2 vpmovzxwd %xmm2, %xmm0 vpslld $31, %xmm0, %xmm0 vpsrad $31, %xmm0, %xmm0 vpunpckhwd %xmm0, %xmm2, %xmm3 vpslld $31, %xmm3, %xmm3 vpsrad $31, %xmm3, %xmm3 vinsertf128 $1, %xmm3, %ymm0, %ymm0 vmovdqa 1696(%rbx), %ymm3 vptest %ymm3, %ymm0 jb .LBB1_6242 movq %r11, 31072(%rbx) movq %r10, 31840(%rbx) vpextrb $0, %xmm2, %r10d vpextrb $2, %xmm2, %r11d vpextrb $4, %xmm2, %esi testb $1, %r10b je .LBB1_6245 movq 32632(%rbx), %rax vmovaps 26592(%rbx), %ymm0 vmovsd %xmm0, (%rax,%r15,8) .LBB1_6245: movq %r9, 31872(%rbx) movq %rdi, 31744(%rbx) vpextrb $6, %xmm2, %eax movl %eax, 31520(%rbx) testb $1, %r11b je .LBB1_6247 vmovaps 23200(%rbx), %xmm0 movq 32160(%rbx), %rax vmovsd %xmm0, (%rax) .LBB1_6247: movq %r13, %r9 vpextrb $8, %xmm2, %eax movl %eax, 31488(%rbx) testb $1, %sil movq 31904(%rbx), %rdi je .LBB1_6249 vmovaps 24544(%rbx), %xmm0 vmovsd %xmm0, (%r14) .LBB1_6249: movl %esi, %eax movq %r14, 31552(%rbx) vpextrb $10, %xmm2, %r13d movl 31520(%rbx), %esi testb $1, %sil je .LBB1_6251 vmovaps 23264(%rbx), %xmm0 vmovsd %xmm0, (%r8) .LBB1_6251: movq %r8, 31584(%rbx) vpextrb $12, %xmm2, %r14d movl 31488(%rbx), %esi testb $1, %sil movq 32096(%rbx), %rsi je .LBB1_6253 vmovaps 26656(%rbx), %ymm0 vmovsd %xmm0, (%rdi) .LBB1_6253: vpextrb $14, %xmm2, %r8d testb $1, %r13b je .LBB1_6255 vmovaps 23328(%rbx), %xmm0 movq 32064(%rbx), %rdi vmovsd %xmm0, (%rdi) .LBB1_6255: testb $1, %r14b je .LBB1_6257 vmovaps 24608(%rbx), %xmm0 vmovsd %xmm0, (%rsi) .LBB1_6257: testb $1, %r8b je .LBB1_6259 vmovaps 23360(%rbx), %xmm0 movq 32128(%rbx), %rsi vmovsd %xmm0, (%rsi) .LBB1_6259: testb $1, %r10b je .LBB1_6261 vmovaps 26624(%rbx), %ymm0 vmovsd %xmm0, (%r9,%r15,8) .LBB1_6261: testb $1, %r11b je .LBB1_6263 vmovaps 23136(%rbx), %xmm0 vmovsd %xmm0, (%r9,%r12,8) .LBB1_6263: testb $1, %al movq 31840(%rbx), %r10 je .LBB1_6265 vmovaps 24512(%rbx), %xmm0 vmovsd %xmm0, (%r9,%rcx,8) .LBB1_6265: movl 31520(%rbx), %eax testb $1, %al movq 31072(%rbx), %r11 je .LBB1_6267 vmovaps 23168(%rbx), %xmm0 vmovsd %xmm0, (%r9,%rdx,8) .LBB1_6267: movl 31488(%rbx), %eax testb $1, %al je .LBB1_6269 vmovaps 26688(%rbx), %ymm0 vmovsd %xmm0, (%r9,%r11,8) .LBB1_6269: testb $1, %r13b movq %r9, %r13 je .LBB1_6271 vmovaps 23232(%rbx), %xmm0 vmovsd %xmm0, (%r13,%r10,8) .LBB1_6271: testb $1, %r14b movq 31744(%rbx), %rdi movq 31872(%rbx), %r9 je .LBB1_6273 vmovaps 24576(%rbx), %xmm0 vmovsd %xmm0, (%r13,%r9,8) .LBB1_6273: testb $1, %r8b movq 31584(%rbx), %r8 movq 31552(%rbx), %r14 je .LBB1_6275 jmp .LBB1_6274 .align 16, 0x90 .LBB1_6242: movq 32632(%rbx), %rax vmovaps 26592(%rbx), %ymm0 vmovsd %xmm0, (%rax,%r15,8) vmovaps 23200(%rbx), %xmm0 movq 32160(%rbx), %rax vmovsd %xmm0, (%rax) vmovaps 24544(%rbx), %xmm0 vmovsd %xmm0, (%r14) vmovaps 23264(%rbx), %xmm0 vmovsd %xmm0, (%r8) vmovaps 26656(%rbx), %ymm0 movq 31904(%rbx), %rax vmovsd %xmm0, (%rax) vmovaps 23328(%rbx), %xmm0 movq 32064(%rbx), %rax vmovsd %xmm0, (%rax) vmovaps 24608(%rbx), %xmm0 movq 32096(%rbx), %rax vmovsd %xmm0, (%rax) vmovaps 23360(%rbx), %xmm0 movq 32128(%rbx), %rax vmovsd %xmm0, (%rax) vmovaps 26624(%rbx), %ymm0 vmovsd %xmm0, (%r13,%r15,8) vmovaps 23136(%rbx), %xmm0 vmovsd %xmm0, (%r13,%r12,8) vmovaps 24512(%rbx), %xmm0 vmovsd %xmm0, (%r13,%rcx,8) vmovaps 23168(%rbx), %xmm0 vmovsd %xmm0, (%r13,%rdx,8) vmovaps 26688(%rbx), %ymm0 vmovsd %xmm0, (%r13,%r11,8) vmovaps 23232(%rbx), %xmm0 vmovsd %xmm0, (%r13,%r10,8) vmovaps 24576(%rbx), %xmm0 vmovsd %xmm0, (%r13,%r9,8) .LBB1_6274: vmovaps 23296(%rbx), %xmm0 vmovsd %xmm0, (%r13,%rdi,8) .LBB1_6275: vpmovzxwd %xmm9, %xmm0 vpslld $31, %xmm0, %xmm0 vpsrad $31, %xmm0, %xmm0 vpunpckhwd %xmm0, %xmm9, %xmm3 vpslld $31, %xmm3, %xmm3 vpsrad $31, %xmm3, %xmm3 vinsertf128 $1, %xmm3, %ymm0, %ymm0 vmovdqa 1664(%rbx), %ymm3 vptest %ymm3, %ymm0 movl 31200(%rbx), %esi jb .LBB1_6276 movq %r10, 31840(%rbx) movl 31392(%rbx), %eax testb $1, %al movl 31232(%rbx), %r10d je .LBB1_6279 movq 32632(%rbx), %rax vmovaps 26592(%rbx), %ymm0 vmovsd %xmm0, (%rax,%r15,8) .LBB1_6279: movq %r15, 31552(%rbx) movq %rdx, 31584(%rbx) movl 31424(%rbx), %eax testb $1, %al movl 31264(%rbx), %r15d je .LBB1_6281 vmovaps 23200(%rbx), %xmm0 movq 32160(%rbx), %rax vmovsd %xmm0, (%rax) .LBB1_6281: movq %r9, 31872(%rbx) movq %rdi, 31744(%rbx) testb $1, %sil movl 31360(%rbx), %edi movl 31168(%rbx), %edx je .LBB1_6283 vmovaps 24544(%rbx), %xmm0 vmovsd %xmm0, (%r14) .LBB1_6283: testb $1, %r10b je .LBB1_6285 vmovaps 23264(%rbx), %xmm0 vmovsd %xmm0, (%r8) .LBB1_6285: movq %r11, %r8 testb $1, %r15b movl 31328(%rbx), %r9d je .LBB1_6287 vmovaps 26656(%rbx), %ymm0 movq 31904(%rbx), %rax vmovsd %xmm0, (%rax) .LBB1_6287: movq %rcx, %r11 testb $1, %dl je .LBB1_6289 vmovaps 23328(%rbx), %xmm0 movq 32064(%rbx), %rax vmovsd %xmm0, (%rax) .LBB1_6289: testb $1, %dil movq %r11, %rcx je .LBB1_6291 vmovaps 24608(%rbx), %xmm0 movq 32096(%rbx), %rax vmovsd %xmm0, (%rax) .LBB1_6291: testb $1, %r9b je .LBB1_6293 vmovaps 23360(%rbx), %xmm0 movq 32128(%rbx), %rax vmovsd %xmm0, (%rax) .LBB1_6293: movl 31392(%rbx), %eax testb $1, %al je .LBB1_6295 vmovaps 26624(%rbx), %ymm0 movq 31552(%rbx), %rax vmovsd %xmm0, (%r13,%rax,8) .LBB1_6295: movl 31424(%rbx), %eax testb $1, %al je .LBB1_6297 vmovaps 23136(%rbx), %xmm0 vmovsd %xmm0, (%r13,%r12,8) .LBB1_6297: testb $1, %sil je .LBB1_6299 vmovaps 24512(%rbx), %xmm0 vmovsd %xmm0, (%r13,%rcx,8) .LBB1_6299: testb $1, %r10b je .LBB1_6301 vmovaps 23168(%rbx), %xmm0 movq 31584(%rbx), %rax vmovsd %xmm0, (%r13,%rax,8) .LBB1_6301: testb $1, %r15b movq 31840(%rbx), %rax je .LBB1_6303 vmovaps 26688(%rbx), %ymm0 vmovsd %xmm0, (%r13,%r8,8) .LBB1_6303: testb $1, %dl je .LBB1_6305 vmovaps 23232(%rbx), %xmm0 vmovsd %xmm0, (%r13,%rax,8) .LBB1_6305: testb $1, %dil je .LBB1_6307 vmovaps 24576(%rbx), %xmm0 movq 31872(%rbx), %rax vmovsd %xmm0, (%r13,%rax,8) .LBB1_6307: testb $1, %r9b movq 31744(%rbx), %rdi je .LBB1_6309 jmp .LBB1_6308 .align 16, 0x90 .LBB1_6276: movq 32632(%rbx), %rax vmovaps 26592(%rbx), %ymm0 vmovsd %xmm0, (%rax,%r15,8) vmovaps 23200(%rbx), %xmm0 movq 32160(%rbx), %rax vmovsd %xmm0, (%rax) vmovaps 24544(%rbx), %xmm0 vmovsd %xmm0, (%r14) vmovaps 23264(%rbx), %xmm0 vmovsd %xmm0, (%r8) vmovaps 26656(%rbx), %ymm0 movq 31904(%rbx), %rax vmovsd %xmm0, (%rax) vmovaps 23328(%rbx), %xmm0 movq 32064(%rbx), %rax vmovsd %xmm0, (%rax) vmovaps 24608(%rbx), %xmm0 movq 32096(%rbx), %rax vmovsd %xmm0, (%rax) vmovaps 23360(%rbx), %xmm0 movq 32128(%rbx), %rax vmovsd %xmm0, (%rax) vmovaps 26624(%rbx), %ymm0 vmovsd %xmm0, (%r13,%r15,8) vmovaps 23136(%rbx), %xmm0 vmovsd %xmm0, (%r13,%r12,8) vmovaps 24512(%rbx), %xmm0 vmovsd %xmm0, (%r13,%rcx,8) vmovaps 23168(%rbx), %xmm0 vmovsd %xmm0, (%r13,%rdx,8) vmovaps 26688(%rbx), %ymm0 vmovsd %xmm0, (%r13,%r11,8) vmovaps 23232(%rbx), %xmm0 vmovsd %xmm0, (%r13,%r10,8) vmovaps 24576(%rbx), %xmm0 vmovsd %xmm0, (%r13,%r9,8) .LBB1_6308: vmovaps 23296(%rbx), %xmm0 vmovsd %xmm0, (%r13,%rdi,8) .LBB1_6309: vpand %xmm15, %xmm9, %xmm0 vpor %xmm1, %xmm0, %xmm1 vpmovzxwd %xmm1, %xmm3 vpunpckhwd %xmm0, %xmm1, %xmm0 vmovdqa 31776(%rbx), %xmm4 vpaddq %xmm6, %xmm4, %xmm4 vpslld $31, %xmm0, %xmm0 vpslld $31, %xmm3, %xmm3 vpsrad $31, %xmm3, %xmm3 vpsrad $31, %xmm0, %xmm0 vmovd %xmm4, %r15 vmovdqa 31680(%rbx), %ymm5 vpaddq %xmm6, %xmm5, %xmm5 vpextrq $1, %xmm4, %r11 vpextrq $1, %xmm5, %rcx vmovdqa 31712(%rbx), %ymm4 vpaddq %xmm6, %xmm4, %xmm4 vpaddq %xmm6, %xmm10, %xmm6 vinsertf128 $1, %xmm0, %ymm3, %ymm0 vmovd %xmm5, %rsi vpextrq $1, %xmm6, %r8 vmovd %xmm6, %r9 vpextrq $1, %xmm4, %r10 vmovd %xmm4, %r14 vmovdqa 1632(%rbx), %ymm3 vptest %ymm3, %ymm0 jb .LBB1_6310 vpextrb $2, %xmm1, %edi vpextrb $4, %xmm1, %edx vpextrb $0, %xmm1, %eax testb $1, %al je .LBB1_6313 vmovaps 30784(%rbx), %ymm0 vmovsd %xmm0, (%r13,%rsi,8) .LBB1_6313: vpextrb $6, %xmm1, %esi testb $1, %dil je .LBB1_6315 vmovaps 29280(%rbx), %xmm0 vmovsd %xmm0, (%r13,%rcx,8) .LBB1_6315: vpextrb $8, %xmm1, %ecx testb $1, %dl je .LBB1_6317 vmovaps 30112(%rbx), %xmm0 vmovsd %xmm0, (%r13,%r15,8) .LBB1_6317: vpextrb $10, %xmm1, %eax testb $1, %sil je .LBB1_6319 vmovaps 29312(%rbx), %xmm0 vmovsd %xmm0, (%r13,%r11,8) .LBB1_6319: vmovapd %ymm8, %ymm4 vpextrb $12, %xmm1, %edx testb $1, %cl movq 32632(%rbx), %rsi je .LBB1_6321 vmovaps 30176(%rbx), %ymm0 vmovsd %xmm0, (%r13,%r14,8) .LBB1_6321: vmovdqa %xmm10, %xmm13 vpextrb $14, %xmm1, %ecx testb $1, %al je .LBB1_6323 vmovaps 29344(%rbx), %xmm0 vmovsd %xmm0, (%r13,%r10,8) .LBB1_6323: testb $1, %dl movq 22456(%rbx), %r15 je .LBB1_6325 vmovaps 30144(%rbx), %xmm0 vmovsd %xmm0, (%r13,%r9,8) .LBB1_6325: testb $1, %cl je .LBB1_6327 vmovaps 29376(%rbx), %xmm0 vmovsd %xmm0, (%r13,%r8,8) jmp .LBB1_6327 .align 16, 0x90 .LBB1_6310: vmovdqa %xmm10, %xmm13 vmovapd %ymm8, %ymm4 vmovaps 30784(%rbx), %ymm0 vmovsd %xmm0, (%r13,%rsi,8) vmovaps 29280(%rbx), %xmm0 vmovsd %xmm0, (%r13,%rcx,8) vmovaps 30112(%rbx), %xmm0 vmovsd %xmm0, (%r13,%r15,8) vmovaps 29312(%rbx), %xmm0 vmovsd %xmm0, (%r13,%r11,8) vmovaps 30176(%rbx), %ymm0 vmovsd %xmm0, (%r13,%r14,8) vmovaps 29344(%rbx), %xmm0 vmovsd %xmm0, (%r13,%r10,8) vmovaps 30144(%rbx), %xmm0 vmovsd %xmm0, (%r13,%r9,8) vmovaps 29376(%rbx), %xmm0 vmovsd %xmm0, (%r13,%r8,8) movq 32632(%rbx), %rsi movq 22456(%rbx), %r15 .LBB1_6327: vmovapd %ymm4, 31648(%rbx) vmovdqa 31968(%rbx), %ymm0 vpshufd $8, %xmm0, %xmm0 vmovaps 31936(%rbx), %xmm3 vmovlhps %xmm3, %xmm0, %xmm3 vmovdqa 32032(%rbx), %ymm0 vpshufd $8, %xmm0, %xmm0 vmovaps 32000(%rbx), %xmm5 vmovlhps %xmm5, %xmm0, %xmm0 vpshufb .LCPI1_21(%rip), %xmm0, %xmm0 vpshufb .LCPI1_20(%rip), %xmm3, %xmm3 vpor %xmm2, %xmm1, %xmm2 vmovdqa %xmm14, 31616(%rbx) vpand %xmm14, %xmm2, %xmm14 vextractf128 $1, %ymm11, %xmm12 vmovapd %ymm4, %ymm10 vextractf128 $1, %ymm10, %xmm8 vpor %xmm3, %xmm0, %xmm0 vpsllw $15, %xmm0, %xmm1 vpunpckhwd %xmm0, %xmm14, %xmm7 vmovdqa .LCPI1_15(%rip), %xmm0 vpaddq %xmm0, %xmm8, %xmm4 vpaddq %xmm0, %xmm11, %xmm6 vpaddq %xmm0, %xmm12, %xmm5 vpsraw $15, %xmm1, %xmm3 vpextrq $1, %xmm4, %r9 vpslld $31, %xmm7, %xmm1 vpmovzxwd %xmm14, %xmm7 vpand %xmm3, %xmm2, %xmm3 vpaddq %xmm0, %xmm10, %xmm0 vpextrq $1, %xmm5, %r11 vpslld $31, %xmm7, %xmm7 vpsrad $31, %xmm1, %xmm2 vmovd %xmm5, %rax vpextrq $1, %xmm6, %r14 vmovd %xmm6, %r12 vmovd %xmm4, %rdx vpextrq $1, %xmm0, %rcx vmovd %xmm0, %r8 vpextrb $14, %xmm3, %edi movl %edi, 31392(%rbx) vpextrb $0, %xmm3, %edi movl %edi, 31424(%rbx) vpextrb $2, %xmm3, %edi movl %edi, 31328(%rbx) vpsrad $31, %xmm7, %xmm4 vpextrb $6, %xmm3, %edi movl %edi, 31520(%rbx) vpextrb $8, %xmm3, %edi movl %edi, 31552(%rbx) vpextrb $12, %xmm3, %edi movl %edi, 31360(%rbx) vpextrb $4, %xmm3, %edi movl %edi, 31488(%rbx) vpextrb $10, %xmm3, %edi movl %edi, 31584(%rbx) vinsertf128 $1, %xmm2, %ymm4, %ymm0 vmovdqa 1600(%rbx), %ymm1 vptest %ymm1, %ymm0 jb .LBB1_6328 movq %r9, 32160(%rbx) vpextrb $0, %xmm14, %r9d vpextrb $2, %xmm14, %r15d vpextrb $4, %xmm14, %edi testb $1, %r9b je .LBB1_6468 vmovaps 26720(%rbx), %ymm0 vmovsd %xmm0, (%rsi,%r12,8) .LBB1_6468: movq %r12, 32064(%rbx) movq %rcx, 32128(%rbx) movq %rdx, 31904(%rbx) vpextrb $6, %xmm14, %ecx testb $1, %r15b je .LBB1_6470 vmovaps 23424(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%r14,8) .LBB1_6470: movq %r14, 32096(%rbx) vpextrb $8, %xmm14, %r14d testb $1, %dil je .LBB1_6472 vmovaps 24672(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%rax,8) .LBB1_6472: vpextrb $10, %xmm14, %r12d testb $1, %cl je .LBB1_6474 vmovaps 23488(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%r11,8) .LBB1_6474: movl %edi, %edx movq %r11, 31872(%rbx) vpextrb $12, %xmm14, %r10d testb $1, %r14b je .LBB1_6476 vmovaps 26784(%rbx), %ymm0 vmovsd %xmm0, (%rsi,%r8,8) .LBB1_6476: movq %r8, 31840(%rbx) vpextrb $14, %xmm14, %r8d testb $1, %r12b je .LBB1_6478 vmovaps 23584(%rbx), %xmm0 movq 32128(%rbx), %rdi vmovsd %xmm0, (%rsi,%rdi,8) .LBB1_6478: testb $1, %r10b je .LBB1_6480 vmovaps 24736(%rbx), %xmm0 movq 31904(%rbx), %rdi vmovsd %xmm0, (%rsi,%rdi,8) .LBB1_6480: testb $1, %r8b je .LBB1_6482 vmovaps 23616(%rbx), %xmm0 movq 32160(%rbx), %r11 vmovsd %xmm0, (%rsi,%r11,8) .LBB1_6482: testb $1, %r9b je .LBB1_6484 vmovaps 26752(%rbx), %ymm0 movq 32064(%rbx), %rdi vmovsd %xmm0, (%r13,%rdi,8) .LBB1_6484: testb $1, %r15b je .LBB1_6486 vmovaps 23392(%rbx), %xmm0 movq 32096(%rbx), %rdi vmovsd %xmm0, (%r13,%rdi,8) .LBB1_6486: testb $1, %dl je .LBB1_6488 vmovaps 24640(%rbx), %xmm0 vmovsd %xmm0, (%r13,%rax,8) .LBB1_6488: movq %rax, 31744(%rbx) testb $1, %cl je .LBB1_6490 vmovaps 23456(%rbx), %xmm0 movq 31872(%rbx), %rdi vmovsd %xmm0, (%r13,%rdi,8) .LBB1_6490: testb $1, %r14b movq 32160(%rbx), %r9 je .LBB1_6492 vmovaps 26816(%rbx), %ymm0 movq 31840(%rbx), %rdi vmovsd %xmm0, (%r13,%rdi,8) .LBB1_6492: testb $1, %r12b movq 22456(%rbx), %r15 movq 31904(%rbx), %rdx movq 32128(%rbx), %rcx movq 32096(%rbx), %r14 movq 32064(%rbx), %r12 je .LBB1_6494 vmovaps 23520(%rbx), %xmm0 vmovsd %xmm0, (%r13,%rcx,8) .LBB1_6494: testb $1, %r10b je .LBB1_6496 vmovaps 24704(%rbx), %xmm0 vmovsd %xmm0, (%r13,%rdx,8) .LBB1_6496: testb $1, %r8b movq 31872(%rbx), %r11 je .LBB1_6498 jmp .LBB1_6497 .align 16, 0x90 .LBB1_6328: vmovaps 26720(%rbx), %ymm0 vmovsd %xmm0, (%rsi,%r12,8) vmovaps 23424(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%r14,8) vmovaps 24672(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%rax,8) vmovaps 23488(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%r11,8) vmovaps 26784(%rbx), %ymm0 vmovsd %xmm0, (%rsi,%r8,8) vmovaps 23584(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%rcx,8) vmovaps 24736(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%rdx,8) vmovaps 23616(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%r9,8) vmovaps 26752(%rbx), %ymm0 vmovsd %xmm0, (%r13,%r12,8) vmovaps 23392(%rbx), %xmm0 vmovsd %xmm0, (%r13,%r14,8) vmovaps 24640(%rbx), %xmm0 vmovsd %xmm0, (%r13,%rax,8) movq %rax, 31744(%rbx) vmovaps 23456(%rbx), %xmm0 vmovsd %xmm0, (%r13,%r11,8) vmovaps 26816(%rbx), %ymm0 vmovsd %xmm0, (%r13,%r8,8) movq %r8, 31840(%rbx) vmovaps 23520(%rbx), %xmm0 vmovsd %xmm0, (%r13,%rcx,8) vmovaps 24704(%rbx), %xmm0 vmovsd %xmm0, (%r13,%rdx,8) .LBB1_6497: vmovaps 23552(%rbx), %xmm0 vmovsd %xmm0, (%r13,%r9,8) .LBB1_6498: movq %r11, 31872(%rbx) vpmovzxwd %xmm3, %xmm0 vpslld $31, %xmm0, %xmm0 vpsrad $31, %xmm0, %xmm0 vpunpckhwd %xmm0, %xmm3, %xmm1 vpslld $31, %xmm1, %xmm1 vpsrad $31, %xmm1, %xmm1 vinsertf128 $1, %xmm1, %ymm0, %ymm0 vpand %xmm15, %xmm14, %xmm2 vmovdqa 1568(%rbx), %ymm1 vptest %ymm1, %ymm0 jb .LBB1_6499 movl 31424(%rbx), %eax testb $1, %al je .LBB1_6331 movq 32192(%rbx), %rax movq $0, (%r15,%rax,8) .LBB1_6331: movq %rcx, 32128(%rbx) movl 31328(%rbx), %edi testb $1, %dil je .LBB1_6333 movq 32256(%rbx), %rax movq $0, (%r15,%rax,8) .LBB1_6333: movq %r12, 32064(%rbx) movq %r14, 32096(%rbx) movl 31488(%rbx), %eax testb $1, %al je .LBB1_6335 movq 32224(%rbx), %rax movq $0, (%r15,%rax,8) .LBB1_6335: movl 31520(%rbx), %eax testb $1, %al movl 31360(%rbx), %r11d je .LBB1_6337 movq 32288(%rbx), %rax movq $0, (%r15,%rax,8) .LBB1_6337: movl 31552(%rbx), %eax testb $1, %al movl 31392(%rbx), %r12d je .LBB1_6339 movq 32320(%rbx), %rax movq $0, (%r15,%rax,8) .LBB1_6339: movl 31584(%rbx), %eax testb $1, %al movq %r9, %rcx je .LBB1_6341 movq 32384(%rbx), %rax movq $0, (%r15,%rax,8) .LBB1_6341: testb $1, %r11b je .LBB1_6343 movq 32352(%rbx), %rax movq $0, (%r15,%rax,8) .LBB1_6343: testb $1, %r12b je .LBB1_6345 movq 32416(%rbx), %rax movq $0, (%r15,%rax,8) .LBB1_6345: movl 31424(%rbx), %eax testb $1, %al je .LBB1_6347 movq 32832(%rbx), %rax movq $0, (%rsi,%rax,8) .LBB1_6347: testb $1, %dil je .LBB1_6349 movq 32864(%rbx), %rax movq $0, (%rsi,%rax,8) .LBB1_6349: movl 31488(%rbx), %eax testb $1, %al je .LBB1_6351 movq 32736(%rbx), %rax movq $0, (%rsi,%rax,8) .LBB1_6351: movl 31520(%rbx), %eax testb $1, %al je .LBB1_6353 movq 32800(%rbx), %rax movq $0, (%rsi,%rax,8) .LBB1_6353: movl 31552(%rbx), %eax testb $1, %al movq %rcx, %r10 movq %rdx, %r14 je .LBB1_6355 movq 32896(%rbx), %rax movq $0, (%rsi,%rax,8) .LBB1_6355: movl 31584(%rbx), %eax testb $1, %al je .LBB1_6357 movq 32928(%rbx), %rax movq $0, (%rsi,%rax,8) .LBB1_6357: testb $1, %r11b je .LBB1_6359 movq 32960(%rbx), %rax movq $0, (%rsi,%rax,8) .LBB1_6359: testb $1, %r12b je .LBB1_6361 movq 32992(%rbx), %rax movq $0, (%rsi,%rax,8) .LBB1_6361: movl 31424(%rbx), %eax testb $1, %al je .LBB1_6363 movq 32832(%rbx), %rax movq $0, (%r13,%rax,8) .LBB1_6363: testb $1, %dil movq 31840(%rbx), %r8 je .LBB1_6365 movq 32864(%rbx), %rax movq $0, (%r13,%rax,8) .LBB1_6365: movl 31488(%rbx), %eax testb $1, %al je .LBB1_6367 movq 32736(%rbx), %rax movq $0, (%r13,%rax,8) .LBB1_6367: movl 31520(%rbx), %eax testb $1, %al je .LBB1_6369 movq 32800(%rbx), %rax movq $0, (%r13,%rax,8) .LBB1_6369: movl 31552(%rbx), %eax testb $1, %al je .LBB1_6371 movq 32896(%rbx), %rax movq $0, (%r13,%rax,8) .LBB1_6371: movl 31584(%rbx), %eax testb $1, %al je .LBB1_6373 movq 32928(%rbx), %rax movq $0, (%r13,%rax,8) .LBB1_6373: testb $1, %r11b je .LBB1_6375 movq 32960(%rbx), %rax movq $0, (%r13,%rax,8) .LBB1_6375: testb $1, %r12b je .LBB1_6377 movq 32992(%rbx), %rax movq $0, (%r13,%rax,8) jmp .LBB1_6377 .align 16, 0x90 .LBB1_6499: movq %r12, 32064(%rbx) movq %r14, 32096(%rbx) movq %rcx, 32128(%rbx) movq 32192(%rbx), %rax movq $0, (%r15,%rax,8) movq 32256(%rbx), %rax movq $0, (%r15,%rax,8) movq 32224(%rbx), %rax movq $0, (%r15,%rax,8) movq 32288(%rbx), %rax movq $0, (%r15,%rax,8) movq 32320(%rbx), %rax movq $0, (%r15,%rax,8) movq 32384(%rbx), %rax movq $0, (%r15,%rax,8) movq 32352(%rbx), %rax movq $0, (%r15,%rax,8) movq 32416(%rbx), %rax movq $0, (%r15,%rax,8) movq 32832(%rbx), %r11 movq $0, (%rsi,%r11,8) movq %r9, 32160(%rbx) movq 32864(%rbx), %r10 movq $0, (%rsi,%r10,8) movq 32736(%rbx), %r9 movq $0, (%rsi,%r9,8) movq 32800(%rbx), %r8 movq $0, (%rsi,%r8,8) movq %rdx, %r12 movq %r15, %r14 movq 32896(%rbx), %rdi movq $0, (%rsi,%rdi,8) movq 32928(%rbx), %rdx movq $0, (%rsi,%rdx,8) movq 32960(%rbx), %rcx movq $0, (%rsi,%rcx,8) movq 32992(%rbx), %rax movq $0, (%rsi,%rax,8) movq $0, (%r13,%r11,8) movq $0, (%r13,%r10,8) movq 32160(%rbx), %r10 movq $0, (%r13,%r9,8) movq $0, (%r13,%r8,8) movq $0, (%r13,%rdi,8) movq %r12, %r14 movq $0, (%r13,%rdx,8) movq $0, (%r13,%rcx,8) movq $0, (%r13,%rax,8) movq 31840(%rbx), %r8 .LBB1_6377: vpand %xmm15, %xmm3, %xmm10 vpxor .LCPI1_17(%rip), %xmm10, %xmm0 vpmovzxwd %xmm0, %xmm1 vpunpckhwd %xmm0, %xmm0, %xmm0 vpslld $31, %xmm0, %xmm0 vpsrad $31, %xmm0, %xmm0 vpslld $31, %xmm1, %xmm1 vpsrad $31, %xmm1, %xmm1 vpxor %xmm4, %xmm4, %xmm4 vinsertf128 $1, %xmm0, %ymm1, %ymm0 vmovdqa 1536(%rbx), %ymm1 vptest %ymm1, %ymm0 jb .LBB1_6428 vpmovzxwd %xmm10, %xmm0 vpslld $31, %xmm0, %xmm0 vpsrad $31, %xmm0, %xmm0 vpunpckhwd %xmm0, %xmm10, %xmm1 vpslld $31, %xmm1, %xmm1 vpsrad $31, %xmm1, %xmm1 vinsertf128 $1, %xmm1, %ymm0, %ymm0 vmovdqa 1504(%rbx), %ymm1 vptest %ymm1, %ymm0 jb .LBB1_6379 movq %r14, 31904(%rbx) movq %r15, %r14 vpextrb $0, %xmm10, %r11d vpextrb $2, %xmm10, %r15d vpextrb $4, %xmm10, %eax testb $1, %r11b je .LBB1_6382 movq 32448(%rbx), %rcx movq $0, (%r13,%rcx,8) .LBB1_6382: vpextrb $6, %xmm10, %ecx movl %ecx, 31584(%rbx) testb $1, %r15b je .LBB1_6384 movq 32480(%rbx), %rdi movq $0, (%r13,%rdi,8) .LBB1_6384: vpextrb $8, %xmm10, %r8d testb $1, %al je .LBB1_6386 movq 32544(%rbx), %rdi movq $0, (%r13,%rdi,8) .LBB1_6386: vpextrb $10, %xmm10, %ecx movl %ecx, 31552(%rbx) movl 31584(%rbx), %ecx testb $1, %cl je .LBB1_6388 movq 32576(%rbx), %rdi movq $0, (%r13,%rdi,8) .LBB1_6388: movq %r10, 32160(%rbx) vpextrb $12, %xmm10, %r10d testb $1, %r8b je .LBB1_6390 movq 32640(%rbx), %rdi movq $0, (%r13,%rdi,8) .LBB1_6390: movl %eax, %ecx vpextrb $14, %xmm10, %r9d movl 31552(%rbx), %eax testb $1, %al je .LBB1_6392 movq 32672(%rbx), %rdi movq $0, (%r13,%rdi,8) .LBB1_6392: testb $1, %r10b je .LBB1_6394 movq 32704(%rbx), %rdi movq $0, (%r13,%rdi,8) .LBB1_6394: testb $1, %r9b je .LBB1_6396 movq 32512(%rbx), %rdi movq $0, (%r13,%rdi,8) .LBB1_6396: testb $1, %r11b movq 31872(%rbx), %rax movq 31744(%rbx), %rdi je .LBB1_6398 vmovaps 26720(%rbx), %ymm0 movq 32064(%rbx), %rdx vmovsd %xmm0, (%rsi,%rdx,8) .LBB1_6398: testb $1, %r15b je .LBB1_6400 vmovaps 23424(%rbx), %xmm0 movq 32096(%rbx), %rdx vmovsd %xmm0, (%rsi,%rdx,8) .LBB1_6400: movl %ecx, %edx testb $1, %dl je .LBB1_6402 vmovaps 24672(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%rdi,8) .LBB1_6402: movl 31584(%rbx), %ecx testb $1, %cl je .LBB1_6404 vmovaps 23488(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%rax,8) .LBB1_6404: movl %r15d, %ecx movq %rax, %r12 testb $1, %r8b je .LBB1_6406 vmovaps 26784(%rbx), %ymm0 movq 31840(%rbx), %rax vmovsd %xmm0, (%rsi,%rax,8) .LBB1_6406: movl 31552(%rbx), %eax testb $1, %al movq %r14, %r15 je .LBB1_6408 vmovaps 23584(%rbx), %xmm0 movq 32128(%rbx), %rax vmovsd %xmm0, (%rsi,%rax,8) .LBB1_6408: testb $1, %r10b movq 31904(%rbx), %r14 je .LBB1_6410 vmovaps 24736(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%r14,8) .LBB1_6410: testb $1, %r9b je .LBB1_6412 vmovaps 23616(%rbx), %xmm0 movq 32160(%rbx), %rax vmovsd %xmm0, (%rsi,%rax,8) .LBB1_6412: testb $1, %r11b je .LBB1_6414 vmovaps 26752(%rbx), %ymm0 movq 32064(%rbx), %rax vmovsd %xmm0, (%r13,%rax,8) .LBB1_6414: testb $1, %cl je .LBB1_6416 vmovaps 23392(%rbx), %xmm0 movq 32096(%rbx), %rax vmovsd %xmm0, (%r13,%rax,8) .LBB1_6416: testb $1, %dl je .LBB1_6418 vmovaps 24640(%rbx), %xmm0 movq 31744(%rbx), %rax vmovsd %xmm0, (%r13,%rax,8) .LBB1_6418: movl 31584(%rbx), %eax testb $1, %al je .LBB1_6420 vmovaps 23456(%rbx), %xmm0 vmovsd %xmm0, (%r13,%r12,8) .LBB1_6420: testb $1, %r8b movq 31840(%rbx), %r8 je .LBB1_6422 vmovaps 26816(%rbx), %ymm0 vmovsd %xmm0, (%r13,%r8,8) .LBB1_6422: movl 31552(%rbx), %eax testb $1, %al je .LBB1_6424 vmovaps 23520(%rbx), %xmm0 movq 32128(%rbx), %rax vmovsd %xmm0, (%r13,%rax,8) .LBB1_6424: testb $1, %r10b je .LBB1_6426 vmovaps 24704(%rbx), %xmm0 vmovsd %xmm0, (%r13,%r14,8) .LBB1_6426: testb $1, %r9b je .LBB1_6427 vmovaps 23552(%rbx), %xmm0 movq 32160(%rbx), %r10 jmp .LBB1_6431 .LBB1_6379: movq 32448(%rbx), %rax movq $0, (%r13,%rax,8) movq 32480(%rbx), %rax movq $0, (%r13,%rax,8) movq 32544(%rbx), %rax movq $0, (%r13,%rax,8) movq 32576(%rbx), %rax movq $0, (%r13,%rax,8) movq 32640(%rbx), %rax movq $0, (%r13,%rax,8) movq 32672(%rbx), %rax movq $0, (%r13,%rax,8) movq 32704(%rbx), %rax movq $0, (%r13,%rax,8) movq 32512(%rbx), %rax movq $0, (%r13,%rax,8) vmovaps 26720(%rbx), %ymm0 movq 32064(%rbx), %r9 vmovsd %xmm0, (%rsi,%r9,8) vmovaps 23424(%rbx), %xmm0 movq 32096(%rbx), %rdi vmovsd %xmm0, (%rsi,%rdi,8) vmovaps 24672(%rbx), %xmm0 movq 31744(%rbx), %rdx vmovsd %xmm0, (%rsi,%rdx,8) vmovaps 23488(%rbx), %xmm0 movq 31872(%rbx), %rcx vmovsd %xmm0, (%rsi,%rcx,8) vmovaps 26784(%rbx), %ymm0 vmovsd %xmm0, (%rsi,%r8,8) vmovaps 23584(%rbx), %xmm0 movq 32128(%rbx), %rax vmovsd %xmm0, (%rsi,%rax,8) vmovaps 24736(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%r14,8) vmovaps 23616(%rbx), %xmm0 vmovsd %xmm0, (%rsi,%r10,8) vmovaps 26752(%rbx), %ymm0 vmovsd %xmm0, (%r13,%r9,8) vmovaps 23392(%rbx), %xmm0 vmovsd %xmm0, (%r13,%rdi,8) vmovaps 24640(%rbx), %xmm0 vmovsd %xmm0, (%r13,%rdx,8) vmovaps 23456(%rbx), %xmm0 vmovsd %xmm0, (%r13,%rcx,8) vmovaps 26816(%rbx), %ymm0 vmovsd %xmm0, (%r13,%r8,8) vmovaps 23520(%rbx), %xmm0 vmovsd %xmm0, (%r13,%rax,8) vmovaps 24704(%rbx), %xmm0 vmovsd %xmm0, (%r13,%r14,8) vmovaps 23552(%rbx), %xmm0 .LBB1_6431: vmovsd %xmm0, (%r13,%r10,8) vmovdqa %xmm10, %xmm4 jmp .LBB1_6428 .LBB1_6427: vmovdqa %xmm10, %xmm4 movq 32160(%rbx), %r10 .align 16, 0x90 .LBB1_6428: movq %r10, 32160(%rbx) movq %r14, 31904(%rbx) vpor %xmm4, %xmm2, %xmm2 vpmovzxwd %xmm2, %xmm4 vpunpckhwd %xmm0, %xmm2, %xmm0 vpslld $31, %xmm0, %xmm1 vmovdqa .LCPI1_15(%rip), %xmm7 vmovdqa 31776(%rbx), %xmm0 vpaddq %xmm7, %xmm0, %xmm0 vpslld $31, %xmm4, %xmm6 vmovdqa 31680(%rbx), %ymm4 vpaddq %xmm7, %xmm4, %xmm4 vmovd %xmm0, %rax vpsrad $31, %xmm1, %xmm5 vpsrad $31, %xmm6, %xmm1 vpextrq $1, %xmm0, %r11 vpextrq $1, %xmm4, %rcx vmovdqa 31712(%rbx), %ymm0 vpaddq %xmm7, %xmm0, %xmm0 vmovdqa %xmm13, %xmm10 vpaddq %xmm7, %xmm10, %xmm6 vinsertf128 $1, %xmm5, %ymm1, %ymm1 vmovd %xmm4, %rsi vpextrq $1, %xmm6, %rdx vmovd %xmm6, %rdi vpextrq $1, %xmm0, %r10 vmovd %xmm0, %r9 vmovdqa 1472(%rbx), %ymm0 vptest %ymm0, %ymm1 jb .LBB1_6429 movq %rdi, 31552(%rbx) movq %rdx, 31584(%rbx) movq %r8, %r12 movq %r15, %r8 vpextrb $2, %xmm2, %edi vpextrb $4, %xmm2, %edx movq %r13, %r14 vpextrb $0, %xmm2, %r13d testb $1, %r13b movq %r14, %r13 je .LBB1_6502 vmovdqa 30240(%rbx), %ymm0 vmovsd %xmm0, (%r13,%rsi,8) .LBB1_6502: vpextrb $6, %xmm2, %esi testb $1, %dil movq %r8, %r15 je .LBB1_6504 vmovdqa 29408(%rbx), %xmm0 vmovsd %xmm0, (%r13,%rcx,8) .LBB1_6504: vpextrb $8, %xmm2, %ecx testb $1, %dl vmovdqa .LCPI1_16(%rip), %xmm5 movq %r12, %r8 je .LBB1_6506 vmovdqa 30208(%rbx), %xmm0 vmovsd %xmm0, (%r13,%rax,8) .LBB1_6506: vpextrb $10, %xmm2, %eax testb $1, %sil je .LBB1_6508 vmovdqa 29440(%rbx), %xmm0 vmovsd %xmm0, (%r13,%r11,8) .LBB1_6508: vpextrb $12, %xmm2, %edx testb $1, %cl je .LBB1_6510 vmovdqa 30304(%rbx), %ymm0 vmovsd %xmm0, (%r13,%r9,8) .LBB1_6510: vpextrb $14, %xmm2, %ecx testb $1, %al movq 31552(%rbx), %rsi je .LBB1_6512 vmovdqa 29472(%rbx), %xmm0 vmovsd %xmm0, (%r13,%r10,8) .LBB1_6512: testb $1, %dl movq 32632(%rbx), %r14 movq 32160(%rbx), %r10 movq 31872(%rbx), %rax je .LBB1_6514 vmovdqa 30272(%rbx), %xmm0 vmovsd %xmm0, (%r13,%rsi,8) .LBB1_6514: testb $1, %cl movq 31456(%rbx), %r12 movq 31584(%rbx), %rcx je .LBB1_6516 vmovdqa 29504(%rbx), %xmm0 vmovsd %xmm0, (%r13,%rcx,8) jmp .LBB1_6516 .align 16, 0x90 .LBB1_6429: vmovaps 30240(%rbx), %ymm0 vmovsd %xmm0, (%r13,%rsi,8) vmovaps 29408(%rbx), %xmm0 vmovsd %xmm0, (%r13,%rcx,8) vmovaps 30208(%rbx), %xmm0 vmovsd %xmm0, (%r13,%rax,8) vmovaps 29440(%rbx), %xmm0 vmovsd %xmm0, (%r13,%r11,8) vmovaps 30304(%rbx), %ymm0 vmovsd %xmm0, (%r13,%r9,8) vmovaps 29472(%rbx), %xmm0 vmovsd %xmm0, (%r13,%r10,8) vmovaps 30272(%rbx), %xmm0 vmovsd %xmm0, (%r13,%rdi,8) vmovdqa 29504(%rbx), %xmm0 vmovsd %xmm0, (%r13,%rdx,8) movq 32632(%rbx), %r14 vmovdqa .LCPI1_16(%rip), %xmm5 movq 32160(%rbx), %r10 movq 31456(%rbx), %r12 movq 31872(%rbx), %rax .LBB1_6516: vpor %xmm9, %xmm3, %xmm0 vpand 31808(%rbx), %xmm0, %xmm0 vpmovzxwd %xmm0, %xmm1 vpslld $31, %xmm1, %xmm1 vpsrad $31, %xmm1, %xmm1 vpunpckhwd %xmm0, %xmm0, %xmm3 vpslld $31, %xmm3, %xmm3 vpsrad $31, %xmm3, %xmm3 vinsertf128 $1, %xmm3, %ymm1, %ymm1 vmovdqa 1440(%rbx), %ymm3 vptest %ymm3, %ymm1 jb .LBB1_6517 vpextrb $0, %xmm0, %r11d vpextrb $2, %xmm0, %edi vpextrb $4, %xmm0, %ecx testb $1, %r11b je .LBB1_6434 vmovaps 26720(%rbx), %ymm1 movq 32064(%rbx), %rdx vmovsd %xmm1, (%r14,%rdx,8) .LBB1_6434: vpextrb $6, %xmm0, %esi testb $1, %dil movl %edi, 31552(%rbx) movq 31744(%rbx), %rdx je .LBB1_6436 vmovaps 23424(%rbx), %xmm1 movq 32096(%rbx), %rdi vmovsd %xmm1, (%r14,%rdi,8) .LBB1_6436: vpextrb $8, %xmm0, %edi testb $1, %cl movl %ecx, 31584(%rbx) je .LBB1_6438 vmovaps 24672(%rbx), %xmm1 vmovsd %xmm1, (%r14,%rdx,8) .LBB1_6438: vpextrb $10, %xmm0, %r8d testb $1, %sil movl %esi, 31520(%rbx) je .LBB1_6440 vmovaps 23488(%rbx), %xmm1 vmovsd %xmm1, (%r14,%rax,8) .LBB1_6440: movq %rdx, %r9 vpextrb $12, %xmm0, %eax testb $1, %dil movl %edi, %esi je .LBB1_6442 vmovaps 26784(%rbx), %ymm1 movq 31840(%rbx), %rdx vmovsd %xmm1, (%r14,%rdx,8) .LBB1_6442: movq %r12, %r15 vpextrb $14, %xmm0, %edx testb $1, %r8b je .LBB1_6444 vmovaps 23584(%rbx), %xmm1 movq 32128(%rbx), %rdi vmovsd %xmm1, (%r14,%rdi,8) .LBB1_6444: testb $1, %al je .LBB1_6446 vmovaps 24736(%rbx), %xmm1 movq 31904(%rbx), %r12 vmovsd %xmm1, (%r14,%r12,8) .LBB1_6446: testb $1, %dl movl 31552(%rbx), %edi je .LBB1_6448 vmovaps 23616(%rbx), %xmm1 vmovsd %xmm1, (%r14,%r10,8) .LBB1_6448: testb $1, %r11b je .LBB1_6450 vmovaps 26752(%rbx), %ymm1 movq 32064(%rbx), %rcx vmovsd %xmm1, (%r13,%rcx,8) .LBB1_6450: testb $1, %dil movq %r15, %r12 je .LBB1_6452 vmovaps 23392(%rbx), %xmm1 movq 32096(%rbx), %rcx vmovsd %xmm1, (%r13,%rcx,8) .LBB1_6452: movl 31584(%rbx), %ecx testb $1, %cl je .LBB1_6454 vmovaps 24640(%rbx), %xmm1 vmovsd %xmm1, (%r13,%r9,8) .LBB1_6454: movl 31520(%rbx), %ecx testb $1, %cl je .LBB1_6456 vmovaps 23456(%rbx), %xmm1 movq 31872(%rbx), %rcx vmovsd %xmm1, (%r13,%rcx,8) .LBB1_6456: testb $1, %sil je .LBB1_6458 vmovaps 26816(%rbx), %ymm1 movq 31840(%rbx), %rcx vmovsd %xmm1, (%r13,%rcx,8) .LBB1_6458: testb $1, %r8b je .LBB1_6460 vmovaps 23520(%rbx), %xmm1 movq 32128(%rbx), %rcx vmovsd %xmm1, (%r13,%rcx,8) .LBB1_6460: testb $1, %al movq 22456(%rbx), %r15 je .LBB1_6462 vmovaps 24704(%rbx), %xmm1 movq 31904(%rbx), %rax vmovsd %xmm1, (%r13,%rax,8) .LBB1_6462: testb $1, %dl je .LBB1_6464 jmp .LBB1_6463 .align 16, 0x90 .LBB1_6517: vmovaps 26720(%rbx), %ymm1 movq 32064(%rbx), %rdx vmovsd %xmm1, (%r14,%rdx,8) vmovaps 23424(%rbx), %xmm1 movq 32096(%rbx), %rdi vmovsd %xmm1, (%r14,%rdi,8) vmovaps 24672(%rbx), %xmm1 movq 31744(%rbx), %rsi vmovsd %xmm1, (%r14,%rsi,8) vmovaps 23488(%rbx), %xmm1 vmovsd %xmm1, (%r14,%rax,8) vmovaps 26784(%rbx), %ymm1 vmovsd %xmm1, (%r14,%r8,8) vmovaps 23584(%rbx), %xmm1 movq 32128(%rbx), %rcx vmovsd %xmm1, (%r14,%rcx,8) vmovaps 24736(%rbx), %xmm1 movq %rax, %r9 movq 31904(%rbx), %rax vmovsd %xmm1, (%r14,%rax,8) vmovaps 23616(%rbx), %xmm1 vmovsd %xmm1, (%r14,%r10,8) vmovaps 26752(%rbx), %ymm1 vmovsd %xmm1, (%r13,%rdx,8) vmovaps 23392(%rbx), %xmm1 vmovsd %xmm1, (%r13,%rdi,8) vmovaps 24640(%rbx), %xmm1 vmovsd %xmm1, (%r13,%rsi,8) vmovaps 23456(%rbx), %xmm1 vmovsd %xmm1, (%r13,%r9,8) vmovaps 26816(%rbx), %ymm1 vmovsd %xmm1, (%r13,%r8,8) vmovaps 23520(%rbx), %xmm1 vmovsd %xmm1, (%r13,%rcx,8) vmovaps 24704(%rbx), %xmm1 vmovsd %xmm1, (%r13,%rax,8) .LBB1_6463: vmovaps 23552(%rbx), %xmm1 vmovsd %xmm1, (%r13,%r10,8) .LBB1_6464: vmovdqa 31968(%rbx), %ymm1 vpshufd $8, %xmm1, %xmm1 vmovaps 31936(%rbx), %xmm3 vmovlhps %xmm3, %xmm1, %xmm1 vmovdqa 32032(%rbx), %ymm3 vpshufd $8, %xmm3, %xmm3 vmovaps 32000(%rbx), %xmm4 vmovlhps %xmm4, %xmm3, %xmm3 vpshufb .LCPI1_21(%rip), %xmm3, %xmm3 vpshufb .LCPI1_20(%rip), %xmm1, %xmm1 vpor %xmm0, %xmm2, %xmm2 vpand 31616(%rbx), %xmm2, %xmm0 vpextrb $12, %xmm0, %eax movl %eax, 31360(%rbx) vpor %xmm1, %xmm3, %xmm1 vpsllw $15, %xmm1, %xmm1 vpsraw $15, %xmm1, %xmm3 vpextrb $0, %xmm0, %eax movl %eax, 31392(%rbx) vpextrb $2, %xmm0, %eax movl %eax, 31424(%rbx) vpextrb $4, %xmm0, %eax movl %eax, 31168(%rbx) vpextrb $6, %xmm0, %eax movl %eax, 31200(%rbx) vpextrb $8, %xmm0, %eax movl %eax, 31232(%rbx) vpextrb $10, %xmm0, %eax movl %eax, 31264(%rbx) vpextrb $14, %xmm0, %eax movl %eax, 31328(%rbx) vpand %xmm3, %xmm2, %xmm2 vpmovzxwd %xmm2, %xmm1 vpslld $31, %xmm1, %xmm1 vpsrad $31, %xmm1, %xmm1 vpunpckhwd %xmm0, %xmm2, %xmm3 vpslld $31, %xmm3, %xmm3 vpsrad $31, %xmm3, %xmm3 vinsertf128 $1, %xmm3, %ymm1, %ymm1 vmovdqa 1408(%rbx), %ymm3 vptest %ymm3, %ymm1 jb .LBB1_6465 movq %r12, 31456(%rbx) vpextrb $0, %xmm2, %ecx vpextrb $2, %xmm2, %r10d vpextrb $4, %xmm2, %r12d testb $1, %cl je .LBB1_6520 movq 32192(%rbx), %rax movq $0, (%r15,%rax,8) .LBB1_6520: vpextrb $6, %xmm2, %r9d testb $1, %r10b je .LBB1_6522 movq 32256(%rbx), %rax movq $0, (%r15,%rax,8) .LBB1_6522: vpextrb $8, %xmm2, %r11d testb $1, %r12b je .LBB1_6524 movq 32224(%rbx), %rax movq $0, (%r15,%rax,8) .LBB1_6524: vpextrb $10, %xmm2, %r8d testb $1, %r9b je .LBB1_6526 movq 32288(%rbx), %rax movq $0, (%r15,%rax,8) .LBB1_6526: vpextrb $12, %xmm2, %eax testb $1, %r11b je .LBB1_6528 movq 32320(%rbx), %rdx movq $0, (%r15,%rdx,8) .LBB1_6528: vpextrb $14, %xmm2, %edx testb $1, %r8b je .LBB1_6530 movq 32384(%rbx), %rsi movq $0, (%r15,%rsi,8) .LBB1_6530: testb $1, %al je .LBB1_6532 movq 32352(%rbx), %rsi movq $0, (%r15,%rsi,8) .LBB1_6532: testb $1, %dl je .LBB1_6534 movq 32416(%rbx), %rsi movq $0, (%r15,%rsi,8) .LBB1_6534: testb $1, %cl je .LBB1_6536 movq 32832(%rbx), %rsi movq $0, (%r14,%rsi,8) .LBB1_6536: testb $1, %r10b je .LBB1_6538 movq 32864(%rbx), %rsi movq $0, (%r14,%rsi,8) .LBB1_6538: testb $1, %r12b je .LBB1_6540 movq 32736(%rbx), %rsi movq $0, (%r14,%rsi,8) .LBB1_6540: testb $1, %r9b je .LBB1_6542 movq 32800(%rbx), %rsi movq $0, (%r14,%rsi,8) .LBB1_6542: testb $1, %r11b je .LBB1_6544 movq 32896(%rbx), %rdi movq $0, (%r14,%rdi,8) .LBB1_6544: testb $1, %r8b je .LBB1_6546 movq 32928(%rbx), %rdi movq $0, (%r14,%rdi,8) .LBB1_6546: testb $1, %al je .LBB1_6548 movq 32960(%rbx), %rdi movq $0, (%r14,%rdi,8) .LBB1_6548: testb $1, %dl je .LBB1_6550 movq 32992(%rbx), %rdi movq $0, (%r14,%rdi,8) .LBB1_6550: testb $1, %cl je .LBB1_6552 movq 32832(%rbx), %rcx movq $0, (%r13,%rcx,8) .LBB1_6552: testb $1, %r10b je .LBB1_6554 movq 32864(%rbx), %rcx movq $0, (%r13,%rcx,8) .LBB1_6554: testb $1, %r12b je .LBB1_6556 movq 32736(%rbx), %rcx movq $0, (%r13,%rcx,8) .LBB1_6556: testb $1, %r9b movq 31456(%rbx), %r12 je .LBB1_6558 movq 32800(%rbx), %rcx movq $0, (%r13,%rcx,8) .LBB1_6558: testb $1, %r11b je .LBB1_6560 movq 32896(%rbx), %rcx movq $0, (%r13,%rcx,8) .LBB1_6560: testb $1, %r8b je .LBB1_6562 movq 32928(%rbx), %rcx movq $0, (%r13,%rcx,8) .LBB1_6562: testb $1, %al je .LBB1_6564 movq 32960(%rbx), %rax movq $0, (%r13,%rax,8) .LBB1_6564: testb $1, %dl je .LBB1_6567 movq 32992(%rbx), %rax jmp .LBB1_6566 .align 16, 0x90 .LBB1_6465: movq 32192(%rbx), %rax movq $0, (%r15,%rax,8) movq 32256(%rbx), %rax movq $0, (%r15,%rax,8) movq 32224(%rbx), %rax movq $0, (%r15,%rax,8) movq 32288(%rbx), %rax movq $0, (%r15,%rax,8) movq 32320(%rbx), %rax movq $0, (%r15,%rax,8) movq 32384(%rbx), %rax movq $0, (%r15,%rax,8) movq 32352(%rbx), %rax movq $0, (%r15,%rax,8) movq 32416(%rbx), %rax movq $0, (%r15,%rax,8) movq 32832(%rbx), %r10 movq $0, (%r14,%r10,8) movq 32864(%rbx), %r9 movq $0, (%r14,%r9,8) movq 32736(%rbx), %r8 movq $0, (%r14,%r8,8) movq 32800(%rbx), %rsi movq $0, (%r14,%rsi,8) movq 32896(%rbx), %rdi movq $0, (%r14,%rdi,8) movq 32928(%rbx), %rdx movq $0, (%r14,%rdx,8) movq 32960(%rbx), %rcx movq $0, (%r14,%rcx,8) movq 32992(%rbx), %rax movq $0, (%r14,%rax,8) movq $0, (%r13,%r10,8) movq $0, (%r13,%r9,8) movq $0, (%r13,%r8,8) movq $0, (%r13,%rsi,8) movq $0, (%r13,%rdi,8) movq $0, (%r13,%rdx,8) movq $0, (%r13,%rcx,8) .LBB1_6566: movq $0, (%r13,%rax,8) .LBB1_6567: vpand %xmm15, %xmm2, %xmm3 vpxor .LCPI1_17(%rip), %xmm3, %xmm1 vpmovzxwd %xmm1, %xmm4 vpslld $31, %xmm4, %xmm4 vpsrad $31, %xmm4, %xmm4 vpunpckhwd %xmm0, %xmm1, %xmm1 vpslld $31, %xmm1, %xmm1 vpsrad $31, %xmm1, %xmm1 vinsertf128 $1, %xmm1, %ymm4, %ymm1 vmovdqa 1376(%rbx), %ymm4 vptest %ymm4, %ymm1 jb .LBB1_6568 vpmovzxwd %xmm3, %xmm1 vpslld $31, %xmm1, %xmm1 vpsrad $31, %xmm1, %xmm1 vpunpckhwd %xmm0, %xmm3, %xmm4 vpslld $31, %xmm4, %xmm4 vpsrad $31, %xmm4, %xmm4 vinsertf128 $1, %xmm4, %ymm1, %ymm1 vmovdqa 1344(%rbx), %ymm4 vptest %ymm4, %ymm1 jb .LBB1_6570 vpextrb $0, %xmm3, %r8d vpextrb $2, %xmm3, %r12d vpextrb $4, %xmm3, %r10d testb $1, %r8b je .LBB1_6573 movq 32448(%rbx), %rax movq $0, (%r13,%rax,8) .LBB1_6573: vpextrb $6, %xmm3, %eax movl %eax, 32064(%rbx) testb $1, %r12b je .LBB1_6575 movq 32480(%rbx), %rax movq $0, (%r13,%rax,8) .LBB1_6575: vpextrb $8, %xmm3, %eax movl %eax, 31584(%rbx) testb $1, %r10b je .LBB1_6577 movq 32544(%rbx), %rax movq $0, (%r13,%rax,8) .LBB1_6577: vpextrb $10, %xmm3, %eax movl %eax, 31552(%rbx) movl 32064(%rbx), %eax testb $1, %al je .LBB1_6579 movq 32576(%rbx), %rax movq $0, (%r13,%rax,8) .LBB1_6579: vpextrb $12, %xmm3, %eax movl %eax, 31520(%rbx) movl 31584(%rbx), %eax testb $1, %al je .LBB1_6581 movq 32640(%rbx), %rdx movq $0, (%r13,%rdx,8) .LBB1_6581: vpextrb $14, %xmm3, %eax movl %eax, 31488(%rbx) movl 31552(%rbx), %eax testb $1, %al je .LBB1_6583 movq 32672(%rbx), %rdi movq $0, (%r13,%rdi,8) .LBB1_6583: movl 31520(%rbx), %eax testb $1, %al je .LBB1_6585 movq 32704(%rbx), %rdi movq $0, (%r13,%rdi,8) .LBB1_6585: movq %r14, %rsi movl 31488(%rbx), %eax testb $1, %al je .LBB1_6587 movq 32512(%rbx), %rdi movq $0, (%r13,%rdi,8) .LBB1_6587: vpaddq %xmm5, %xmm11, %xmm1 vmovd %xmm1, %r15 vpextrq $1, %xmm1, %rcx vpaddq %xmm5, %xmm12, %xmm4 testb $1, %r8b je .LBB1_6589 vmovapd 26848(%rbx), %ymm1 vmovsd %xmm1, (%rsi,%r15,8) .LBB1_6589: vmovd %xmm4, %rdi leaq (%rsi,%rcx,8), %rax testb $1, %r12b vmovdqa 13824(%rbx), %ymm12 je .LBB1_6591 vmovapd 23712(%rbx), %xmm1 vmovsd %xmm1, (%rax) .LBB1_6591: movq %rax, 31616(%rbx) vmovdqa 31648(%rbx), %ymm1 vpaddq %xmm5, %xmm1, %xmm7 vpextrq $1, %xmm4, %r9 movq 32632(%rbx), %rsi leaq (%rsi,%rdi,8), %rax testb $1, %r10b je .LBB1_6593 vmovdqa 24800(%rbx), %xmm1 vmovsd %xmm1, (%rax) .LBB1_6593: movl %r8d, %edx movq %rax, 31744(%rbx) vmovd %xmm7, %r11 movq 32632(%rbx), %rsi leaq (%rsi,%r9,8), %rax movl 32064(%rbx), %esi testb $1, %sil je .LBB1_6595 vmovdqa 23776(%rbx), %xmm1 vmovsd %xmm1, (%rax) .LBB1_6595: movl %r12d, %r8d movq %rax, 32096(%rbx) vpaddq %xmm5, %xmm8, %xmm4 vpextrq $1, %xmm7, %rax movq %rax, 32128(%rbx) movq 32632(%rbx), %rsi leaq (%rsi,%r11,8), %rax movl 31584(%rbx), %esi testb $1, %sil je .LBB1_6597 vmovdqa 31104(%rbx), %ymm1 vmovsd %xmm1, (%rax) .LBB1_6597: movl %r10d, %r12d movq %rax, 31840(%rbx) vmovq %xmm4, 32160(%rbx) movq 32632(%rbx), %rsi movq 32128(%rbx), %rax leaq (%rsi,%rax,8), %rax movl 31552(%rbx), %esi testb $1, %sil je .LBB1_6599 vmovdqa 23840(%rbx), %xmm1 vmovsd %xmm1, (%rax) .LBB1_6599: movq %rax, 31872(%rbx) vpextrq $1, %xmm4, %r14 movq 32632(%rbx), %rsi movq 32160(%rbx), %rax leaq (%rsi,%rax,8), %rax movl 31520(%rbx), %esi testb $1, %sil je .LBB1_6601 vmovdqa 24864(%rbx), %xmm1 vmovsd %xmm1, (%rax) .LBB1_6601: movq %rax, 31904(%rbx) movq 32632(%rbx), %rsi leaq (%rsi,%r14,8), %rax movl 31488(%rbx), %esi testb $1, %sil movq %rdi, %r10 je .LBB1_6603 vmovdqa 23872(%rbx), %xmm1 vmovsd %xmm1, (%rax) .LBB1_6603: testb $1, %dl je .LBB1_6605 vmovdqa 26880(%rbx), %ymm1 vmovsd %xmm1, (%r13,%r15,8) .LBB1_6605: testb $1, %r8b je .LBB1_6607 vmovdqa 23648(%rbx), %xmm1 vmovsd %xmm1, (%r13,%rcx,8) .LBB1_6607: testb $1, %r12b je .LBB1_6609 vmovdqa 24768(%rbx), %xmm1 vmovsd %xmm1, (%r13,%r10,8) .LBB1_6609: movl 32064(%rbx), %esi testb $1, %sil je .LBB1_6611 vmovdqa 23680(%rbx), %xmm1 vmovsd %xmm1, (%r13,%r9,8) .LBB1_6611: movq %rax, 32064(%rbx) movl 31584(%rbx), %eax testb $1, %al je .LBB1_6613 vmovdqa 31136(%rbx), %ymm1 vmovsd %xmm1, (%r13,%r11,8) .LBB1_6613: movl 31552(%rbx), %eax testb $1, %al je .LBB1_6615 vmovdqa 23744(%rbx), %xmm1 movq 32128(%rbx), %rax vmovsd %xmm1, (%r13,%rax,8) .LBB1_6615: movl 31520(%rbx), %eax testb $1, %al je .LBB1_6617 vmovdqa 24832(%rbx), %xmm1 movq 32160(%rbx), %rax vmovsd %xmm1, (%r13,%rax,8) .LBB1_6617: vmovdqa %xmm5, %xmm6 movl 31488(%rbx), %eax testb $1, %al movq 31456(%rbx), %r12 movq 31616(%rbx), %r8 je .LBB1_6619 vmovapd 23808(%rbx), %xmm1 vmovsd %xmm1, (%r13,%r14,8) jmp .LBB1_6619 .align 16, 0x90 .LBB1_6568: vpaddq %xmm5, %xmm12, %xmm3 vmovd %xmm3, %r10 vpaddq %xmm5, %xmm11, %xmm4 vpaddq %xmm5, %xmm8, %xmm1 vmovdqa %xmm5, %xmm6 vmovdqa 31648(%rbx), %ymm5 vpaddq %xmm6, %xmm5, %xmm5 vpextrq $1, %xmm5, %rdi movq %rdi, 32128(%rbx) vmovd %xmm1, %rdx movq %rdx, 32160(%rbx) vpextrq $1, %xmm1, %rax vpextrq $1, %xmm4, %rcx vpextrq $1, %xmm3, %r9 leaq (%r14,%r9,8), %rsi movq %rsi, 32096(%rbx) leaq (%r14,%r10,8), %rsi movq %rsi, 31744(%rbx) leaq (%r14,%rcx,8), %r8 vpxor %xmm3, %xmm3, %xmm3 movq %r14, %rsi movq %rax, %r14 vmovd %xmm4, %r15 vmovd %xmm5, %r11 leaq (%rsi,%r14,8), %rax movq %rax, 32064(%rbx) leaq (%rsi,%rdx,8), %rax movq %rax, 31904(%rbx) leaq (%rsi,%rdi,8), %rax movq %rax, 31872(%rbx) leaq (%rsi,%r11,8), %rax movq %rax, 31840(%rbx) vmovdqa 13824(%rbx), %ymm12 jmp .LBB1_6619 .LBB1_6570: movq 32448(%rbx), %rax movq $0, (%r13,%rax,8) movq 32480(%rbx), %rax movq $0, (%r13,%rax,8) movq 32544(%rbx), %rax movq $0, (%r13,%rax,8) movq 32576(%rbx), %rax movq $0, (%r13,%rax,8) movq 32640(%rbx), %rax movq $0, (%r13,%rax,8) vpaddq %xmm5, %xmm12, %xmm1 vpaddq %xmm5, %xmm11, %xmm7 vpextrq $1, %xmm7, %rcx vmovd %xmm1, %r10 vpextrq $1, %xmm1, %r9 movq 32672(%rbx), %rax movq $0, (%r13,%rax,8) vpaddq %xmm5, %xmm8, %xmm4 leaq (%r14,%r9,8), %rax movq %rax, 32096(%rbx) leaq (%r14,%r10,8), %rax movq %rax, 31744(%rbx) leaq (%r14,%rcx,8), %r15 vmovdqa %xmm5, %xmm1 vmovdqa 31648(%rbx), %ymm5 vpaddq %xmm1, %xmm5, %xmm5 vmovdqa %xmm1, %xmm6 vpextrq $1, %xmm4, %r8 movq 32704(%rbx), %rax movq $0, (%r13,%rax,8) leaq (%r14,%r8,8), %rax movq %rax, 32064(%rbx) vmovd %xmm4, %rdi movq %rdi, 32160(%rbx) leaq (%r14,%rdi,8), %rax movq %rax, 31904(%rbx) vpextrq $1, %xmm5, %rdx movq %rdx, 32128(%rbx) leaq (%r14,%rdx,8), %rax movq %rax, 31872(%rbx) vmovd %xmm5, %r11 leaq (%r14,%r11,8), %rax movq %rax, 31840(%rbx) movq %r14, %rsi movq %r8, %r14 movq %r15, %r8 vmovd %xmm7, %r15 movq 32512(%rbx), %rax movq $0, (%r13,%rax,8) vmovaps 26848(%rbx), %ymm1 vmovsd %xmm1, (%rsi,%r15,8) vmovaps 23712(%rbx), %xmm1 vmovsd %xmm1, (%rsi,%rcx,8) vmovaps 24800(%rbx), %xmm1 vmovsd %xmm1, (%rsi,%r10,8) vmovaps 23776(%rbx), %xmm1 vmovsd %xmm1, (%rsi,%r9,8) vmovaps 31104(%rbx), %ymm1 vmovsd %xmm1, (%rsi,%r11,8) vmovaps 23840(%rbx), %xmm1 vmovsd %xmm1, (%rsi,%rdx,8) vmovaps 24864(%rbx), %xmm1 vmovsd %xmm1, (%rsi,%rdi,8) vmovaps 23872(%rbx), %xmm1 vmovsd %xmm1, (%rsi,%r14,8) vmovaps 26880(%rbx), %ymm1 vmovsd %xmm1, (%r13,%r15,8) vmovaps 23648(%rbx), %xmm1 vmovsd %xmm1, (%r13,%rcx,8) vmovaps 24768(%rbx), %xmm1 vmovsd %xmm1, (%r13,%r10,8) vmovaps 23680(%rbx), %xmm1 vmovsd %xmm1, (%r13,%r9,8) vmovaps 31136(%rbx), %ymm1 vmovsd %xmm1, (%r13,%r11,8) vmovaps 23744(%rbx), %xmm1 vmovsd %xmm1, (%r13,%rdx,8) vmovaps 24832(%rbx), %xmm1 vmovsd %xmm1, (%r13,%rdi,8) vmovapd 23808(%rbx), %xmm1 vmovsd %xmm1, (%r13,%r14,8) vmovdqa 13824(%rbx), %ymm12 .LBB1_6619: vpor %xmm14, %xmm2, %xmm1 vpand 31808(%rbx), %xmm1, %xmm1 vpmovzxwd %xmm1, %xmm2 vpslld $31, %xmm2, %xmm2 vpsrad $31, %xmm2, %xmm2 vpunpckhwd %xmm0, %xmm1, %xmm4 vpslld $31, %xmm4, %xmm4 vpsrad $31, %xmm4, %xmm4 vinsertf128 $1, %xmm4, %ymm2, %ymm2 vmovdqa 1312(%rbx), %ymm4 vptest %ymm4, %ymm2 jb .LBB1_6620 movq %r11, 31552(%rbx) movq %r12, 31456(%rbx) movq %r10, 31808(%rbx) vpextrb $0, %xmm1, %edi vpextrb $2, %xmm1, %r12d vpextrb $4, %xmm1, %r10d testb $1, %dil je .LBB1_6623 movq 32632(%rbx), %rdx vmovaps 26848(%rbx), %ymm2 vmovsd %xmm2, (%rdx,%r15,8) .LBB1_6623: movq %r9, 31584(%rbx) vpextrb $6, %xmm1, %r11d testb $1, %r12b je .LBB1_6625 vmovaps 23712(%rbx), %xmm2 vmovsd %xmm2, (%r8) .LBB1_6625: movq %r13, %r9 vpextrb $8, %xmm1, %esi testb $1, %r10b vmovdqa %xmm6, %xmm5 vmovdqa .LCPI1_17(%rip), %xmm14 je .LBB1_6627 vmovaps 24800(%rbx), %xmm2 movq 31744(%rbx), %rax vmovsd %xmm2, (%rax) .LBB1_6627: movq %r14, 31648(%rbx) vpextrb $10, %xmm1, %r13d testb $1, %r11b je .LBB1_6629 vmovaps 23776(%rbx), %xmm2 movq 32096(%rbx), %rax vmovsd %xmm2, (%rax) .LBB1_6629: movq %r8, 31616(%rbx) vpextrb $12, %xmm1, %r14d testb $1, %sil je .LBB1_6631 vmovaps 31104(%rbx), %ymm2 movq 31840(%rbx), %rax vmovsd %xmm2, (%rax) .LBB1_6631: vpextrb $14, %xmm1, %r8d testb $1, %r13b movq 32064(%rbx), %rax je .LBB1_6633 vmovaps 23840(%rbx), %xmm2 movq 31872(%rbx), %rdx vmovsd %xmm2, (%rdx) .LBB1_6633: testb $1, %r14b je .LBB1_6635 vmovaps 24864(%rbx), %xmm2 movq 31904(%rbx), %rdx vmovsd %xmm2, (%rdx) .LBB1_6635: testb $1, %r8b je .LBB1_6637 vmovaps 23872(%rbx), %xmm2 vmovsd %xmm2, (%rax) .LBB1_6637: testb $1, %dil movl %r10d, %eax je .LBB1_6639 vmovaps 26880(%rbx), %ymm2 vmovsd %xmm2, (%r9,%r15,8) .LBB1_6639: testb $1, %r12b movq 31808(%rbx), %r10 je .LBB1_6641 vmovaps 23648(%rbx), %xmm2 vmovsd %xmm2, (%r9,%rcx,8) .LBB1_6641: testb $1, %al je .LBB1_6643 vmovaps 24768(%rbx), %xmm2 vmovsd %xmm2, (%r9,%r10,8) .LBB1_6643: testb $1, %r11b movq 31552(%rbx), %r11 je .LBB1_6645 vmovaps 23680(%rbx), %xmm2 movq 31584(%rbx), %rax vmovsd %xmm2, (%r9,%rax,8) .LBB1_6645: testb $1, %sil je .LBB1_6647 vmovaps 31136(%rbx), %ymm2 vmovsd %xmm2, (%r9,%r11,8) .LBB1_6647: testb $1, %r13b movq %r9, %r13 je .LBB1_6649 vmovaps 23744(%rbx), %xmm2 movq 32128(%rbx), %rax vmovsd %xmm2, (%r13,%rax,8) .LBB1_6649: testb $1, %r14b movq 31584(%rbx), %r9 movq 31744(%rbx), %rsi je .LBB1_6651 vmovaps 24832(%rbx), %xmm2 movq 32160(%rbx), %rax vmovsd %xmm2, (%r13,%rax,8) .LBB1_6651: testb $1, %r8b movq 31648(%rbx), %r14 movq 31616(%rbx), %r8 je .LBB1_6653 vmovaps 23808(%rbx), %xmm2 vmovsd %xmm2, (%r13,%r14,8) jmp .LBB1_6653 .align 16, 0x90 .LBB1_6620: movq 32632(%rbx), %rax vmovaps 26848(%rbx), %ymm2 vmovsd %xmm2, (%rax,%r15,8) vmovaps 23712(%rbx), %xmm2 vmovsd %xmm2, (%r8) vmovaps 24800(%rbx), %xmm2 movq 31744(%rbx), %rsi vmovsd %xmm2, (%rsi) vmovaps 23776(%rbx), %xmm2 movq 32096(%rbx), %rax vmovsd %xmm2, (%rax) vmovaps 31104(%rbx), %ymm2 movq 31840(%rbx), %rax vmovsd %xmm2, (%rax) vmovaps 23840(%rbx), %xmm2 movq 31872(%rbx), %rax vmovsd %xmm2, (%rax) vmovaps 24864(%rbx), %xmm2 movq 31904(%rbx), %rax vmovsd %xmm2, (%rax) vmovaps 23872(%rbx), %xmm2 movq 32064(%rbx), %rax vmovsd %xmm2, (%rax) vmovaps 26880(%rbx), %ymm2 vmovsd %xmm2, (%r13,%r15,8) vmovaps 23648(%rbx), %xmm2 vmovsd %xmm2, (%r13,%rcx,8) vmovaps 24768(%rbx), %xmm2 vmovsd %xmm2, (%r13,%r10,8) vmovaps 23680(%rbx), %xmm2 vmovsd %xmm2, (%r13,%r9,8) vmovaps 31136(%rbx), %ymm2 vmovsd %xmm2, (%r13,%r11,8) vmovaps 23744(%rbx), %xmm2 movq 32128(%rbx), %rax vmovsd %xmm2, (%r13,%rax,8) vmovaps 24832(%rbx), %xmm2 movq 32160(%rbx), %rax vmovsd %xmm2, (%r13,%rax,8) vmovaps 23808(%rbx), %xmm2 vmovsd %xmm2, (%r13,%r14,8) vmovdqa %xmm6, %xmm5 vmovdqa .LCPI1_17(%rip), %xmm14 .LBB1_6653: vpmovzxwd %xmm0, %xmm2 vpslld $31, %xmm2, %xmm2 vpsrad $31, %xmm2, %xmm2 vpunpckhwd %xmm0, %xmm0, %xmm4 vpslld $31, %xmm4, %xmm4 vpsrad $31, %xmm4, %xmm4 vinsertf128 $1, %xmm4, %ymm2, %ymm2 vmovdqa 1280(%rbx), %ymm4 vptest %ymm4, %ymm2 movl 31168(%rbx), %r12d jb .LBB1_6654 movq %r10, 31808(%rbx) movl 31392(%rbx), %eax testb $1, %al movl 31200(%rbx), %edi je .LBB1_6657 movq 32632(%rbx), %rax vmovaps 26848(%rbx), %ymm2 vmovsd %xmm2, (%rax,%r15,8) .LBB1_6657: movq %r14, 31648(%rbx) movl 31424(%rbx), %eax testb $1, %al movl 31232(%rbx), %r10d je .LBB1_6659 vmovaps 23712(%rbx), %xmm2 vmovsd %xmm2, (%r8) .LBB1_6659: movq %r9, %r14 testb $1, %r12b movl 31360(%rbx), %r8d movl 31264(%rbx), %edx movq 32096(%rbx), %rax je .LBB1_6661 vmovaps 24800(%rbx), %xmm2 vmovsd %xmm2, (%rsi) .LBB1_6661: testb $1, %dil je .LBB1_6663 vmovaps 23776(%rbx), %xmm2 vmovsd %xmm2, (%rax) .LBB1_6663: testb $1, %r10b movl 31328(%rbx), %r9d je .LBB1_6665 vmovaps 31104(%rbx), %ymm2 movq 31840(%rbx), %rax vmovsd %xmm2, (%rax) .LBB1_6665: testb $1, %dl movq 32064(%rbx), %rax je .LBB1_6667 vmovaps 23840(%rbx), %xmm2 movq 31872(%rbx), %rsi vmovsd %xmm2, (%rsi) .LBB1_6667: testb $1, %r8b je .LBB1_6669 vmovaps 24864(%rbx), %xmm2 movq 31904(%rbx), %rsi vmovsd %xmm2, (%rsi) .LBB1_6669: testb $1, %r9b movq %r11, %rsi je .LBB1_6671 vmovaps 23872(%rbx), %xmm2 vmovsd %xmm2, (%rax) .LBB1_6671: movl 31392(%rbx), %eax testb $1, %al je .LBB1_6673 vmovaps 26880(%rbx), %ymm2 vmovsd %xmm2, (%r13,%r15,8) .LBB1_6673: movl 31424(%rbx), %eax testb $1, %al je .LBB1_6675 vmovaps 23648(%rbx), %xmm2 vmovsd %xmm2, (%r13,%rcx,8) .LBB1_6675: testb $1, %r12b je .LBB1_6677 vmovaps 24768(%rbx), %xmm2 movq 31808(%rbx), %rax vmovsd %xmm2, (%r13,%rax,8) .LBB1_6677: testb $1, %dil movq 31456(%rbx), %r12 je .LBB1_6679 vmovaps 23680(%rbx), %xmm2 vmovsd %xmm2, (%r13,%r14,8) .LBB1_6679: testb $1, %r10b movq 31648(%rbx), %rax je .LBB1_6681 vmovaps 31136(%rbx), %ymm2 vmovsd %xmm2, (%r13,%rsi,8) .LBB1_6681: testb $1, %dl je .LBB1_6683 vmovaps 23744(%rbx), %xmm2 movq 32128(%rbx), %rcx vmovsd %xmm2, (%r13,%rcx,8) .LBB1_6683: testb $1, %r8b je .LBB1_6685 vmovaps 24832(%rbx), %xmm2 movq 32160(%rbx), %rcx vmovsd %xmm2, (%r13,%rcx,8) .LBB1_6685: testb $1, %r9b je .LBB1_6687 vmovaps 23808(%rbx), %xmm2 vmovsd %xmm2, (%r13,%rax,8) jmp .LBB1_6687 .align 16, 0x90 .LBB1_6654: movq 32632(%rbx), %rax vmovaps 26848(%rbx), %ymm2 vmovsd %xmm2, (%rax,%r15,8) vmovaps 23712(%rbx), %xmm2 vmovsd %xmm2, (%r8) vmovaps 24800(%rbx), %xmm2 vmovsd %xmm2, (%rsi) vmovaps 23776(%rbx), %xmm2 movq 32096(%rbx), %rax vmovsd %xmm2, (%rax) vmovaps 31104(%rbx), %ymm2 movq 31840(%rbx), %rax vmovsd %xmm2, (%rax) vmovaps 23840(%rbx), %xmm2 movq 31872(%rbx), %rax vmovsd %xmm2, (%rax) vmovaps 24864(%rbx), %xmm2 movq 31904(%rbx), %rax vmovsd %xmm2, (%rax) vmovaps 23872(%rbx), %xmm2 movq 32064(%rbx), %rax vmovsd %xmm2, (%rax) vmovaps 26880(%rbx), %ymm2 vmovsd %xmm2, (%r13,%r15,8) vmovaps 23648(%rbx), %xmm2 vmovsd %xmm2, (%r13,%rcx,8) vmovaps 24768(%rbx), %xmm2 vmovsd %xmm2, (%r13,%r10,8) vmovaps 23680(%rbx), %xmm2 vmovsd %xmm2, (%r13,%r9,8) vmovaps 31136(%rbx), %ymm2 vmovsd %xmm2, (%r13,%r11,8) vmovaps 23744(%rbx), %xmm2 movq 32128(%rbx), %rax vmovsd %xmm2, (%r13,%rax,8) vmovaps 24832(%rbx), %xmm2 movq 32160(%rbx), %rax vmovsd %xmm2, (%r13,%rax,8) vmovaps 23808(%rbx), %xmm2 vmovsd %xmm2, (%r13,%r14,8) movq 31456(%rbx), %r12 .LBB1_6687: vpand %xmm15, %xmm0, %xmm0 vpor %xmm3, %xmm0, %xmm0 vpmovzxwd %xmm0, %xmm2 vpunpckhwd %xmm0, %xmm0, %xmm4 vmovdqa 31776(%rbx), %xmm3 vpaddq %xmm5, %xmm3, %xmm3 vpslld $31, %xmm4, %xmm4 vpslld $31, %xmm2, %xmm2 vpsrad $31, %xmm2, %xmm2 vpsrad $31, %xmm4, %xmm4 vmovd %xmm3, %r15 vmovdqa %xmm5, %xmm6 vmovdqa 31680(%rbx), %ymm5 vpaddq %xmm6, %xmm5, %xmm5 vpextrq $1, %xmm3, %r11 vpextrq $1, %xmm5, %rcx vmovdqa 31712(%rbx), %ymm3 vpaddq %xmm6, %xmm3, %xmm3 vpaddq %xmm6, %xmm10, %xmm6 vinsertf128 $1, %xmm4, %ymm2, %ymm2 vmovd %xmm5, %rsi vpextrq $1, %xmm6, %r8 vmovd %xmm6, %r9 vpextrq $1, %xmm3, %r10 vmovd %xmm3, %r14 vmovdqa 1248(%rbx), %ymm3 vptest %ymm3, %ymm2 jb .LBB1_6688 vpextrb $2, %xmm0, %edi vpextrb $4, %xmm0, %edx vpextrb $0, %xmm0, %eax testb $1, %al je .LBB1_6691 vmovaps 30368(%rbx), %ymm2 vmovsd %xmm2, (%r13,%rsi,8) .LBB1_6691: vpextrb $6, %xmm0, %esi testb $1, %dil je .LBB1_6693 vmovaps 29536(%rbx), %xmm2 vmovsd %xmm2, (%r13,%rcx,8) .LBB1_6693: vpextrb $8, %xmm0, %ecx testb $1, %dl je .LBB1_6695 vmovaps 30336(%rbx), %xmm2 vmovsd %xmm2, (%r13,%r15,8) .LBB1_6695: vpextrb $10, %xmm0, %eax testb $1, %sil je .LBB1_6697 vmovaps 29568(%rbx), %xmm2 vmovsd %xmm2, (%r13,%r11,8) .LBB1_6697: vpextrb $12, %xmm0, %edx testb $1, %cl movq 32632(%rbx), %r15 je .LBB1_6699 vmovaps 30400(%rbx), %ymm2 vmovsd %xmm2, (%r13,%r14,8) .LBB1_6699: vpextrb $14, %xmm0, %ecx testb $1, %al movq 32792(%rbx), %r11 je .LBB1_6701 vmovaps 29600(%rbx), %xmm2 vmovsd %xmm2, (%r13,%r10,8) .LBB1_6701: testb $1, %dl movq 22456(%rbx), %rdi je .LBB1_6703 vmovaps 29664(%rbx), %xmm2 vmovsd %xmm2, (%r13,%r9,8) .LBB1_6703: testb $1, %cl je .LBB1_6705 vmovaps 29632(%rbx), %xmm2 vmovsd %xmm2, (%r13,%r8,8) jmp .LBB1_6705 .align 16, 0x90 .LBB1_6688: vmovaps 30368(%rbx), %ymm2 vmovsd %xmm2, (%r13,%rsi,8) vmovaps 29536(%rbx), %xmm2 vmovsd %xmm2, (%r13,%rcx,8) vmovaps 30336(%rbx), %xmm2 vmovsd %xmm2, (%r13,%r15,8) vmovaps 29568(%rbx), %xmm2 vmovsd %xmm2, (%r13,%r11,8) vmovaps 30400(%rbx), %ymm2 vmovsd %xmm2, (%r13,%r14,8) vmovaps 29600(%rbx), %xmm2 vmovsd %xmm2, (%r13,%r10,8) vmovaps 29664(%rbx), %xmm2 vmovsd %xmm2, (%r13,%r9,8) vmovaps 29632(%rbx), %xmm2 vmovsd %xmm2, (%r13,%r8,8) movq 32632(%rbx), %r15 movq 32792(%rbx), %r11 movq 22456(%rbx), %rdi .LBB1_6705: vmovdqa 31968(%rbx), %ymm2 vpshufd $8, %xmm2, %xmm2 vmovaps 31936(%rbx), %xmm3 vmovlhps %xmm3, %xmm2, %xmm2 vmovdqa 32032(%rbx), %ymm3 vpshufd $8, %xmm3, %xmm3 vmovaps 32000(%rbx), %xmm4 vmovlhps %xmm4, %xmm3, %xmm3 vpshufb .LCPI1_21(%rip), %xmm3, %xmm3 vpshufb .LCPI1_20(%rip), %xmm2, %xmm2 vpor %xmm1, %xmm0, %xmm0 vpor %xmm2, %xmm3, %xmm1 vpsllw $15, %xmm1, %xmm1 vpsraw $15, %xmm1, %xmm1 vpand %xmm1, %xmm0, %xmm0 vpxor %xmm14, %xmm0, %xmm1 vpmovzxwd %xmm1, %xmm2 vpslld $31, %xmm2, %xmm2 vpsrad $31, %xmm2, %xmm2 vpunpckhwd %xmm0, %xmm1, %xmm1 vpslld $31, %xmm1, %xmm1 vpsrad $31, %xmm1, %xmm1 vinsertf128 $1, %xmm1, %ymm2, %ymm1 vmovdqa 1216(%rbx), %ymm2 vptest %ymm2, %ymm1 jb .LBB1_5328 vpmovzxwd %xmm0, %xmm1 vpslld $31, %xmm1, %xmm1 vpsrad $31, %xmm1, %xmm1 vpunpckhwd %xmm0, %xmm0, %xmm2 vpslld $31, %xmm2, %xmm2 vpsrad $31, %xmm2, %xmm2 vinsertf128 $1, %xmm2, %ymm1, %ymm1 vmovdqa 1184(%rbx), %ymm2 vptest %ymm2, %ymm1 jb .LBB1_6707 vpextrb $0, %xmm0, %ecx vpextrb $2, %xmm0, %r10d vpextrb $4, %xmm0, %eax movl %eax, 32160(%rbx) testb $1, %cl je .LBB1_6710 movq 32192(%rbx), %rax movq $0, (%rdi,%rax,8) .LBB1_6710: vpextrb $6, %xmm0, %r9d testb $1, %r10b je .LBB1_6712 movq 32256(%rbx), %rax movq $0, (%rdi,%rax,8) .LBB1_6712: vpextrb $8, %xmm0, %r11d movl 32160(%rbx), %eax testb $1, %al je .LBB1_6714 movq 32224(%rbx), %rax movq $0, (%rdi,%rax,8) .LBB1_6714: vpextrb $10, %xmm0, %esi testb $1, %r9b je .LBB1_6716 movq 32288(%rbx), %rax movq $0, (%rdi,%rax,8) .LBB1_6716: vpextrb $12, %xmm0, %r8d testb $1, %r11b je .LBB1_6718 movq 32320(%rbx), %rax movq $0, (%rdi,%rax,8) .LBB1_6718: vpextrb $14, %xmm0, %edx testb $1, %sil je .LBB1_6720 movq 32384(%rbx), %rax movq $0, (%rdi,%rax,8) .LBB1_6720: testb $1, %r8b je .LBB1_6722 movq 32352(%rbx), %rax movq $0, (%rdi,%rax,8) .LBB1_6722: testb $1, %dl je .LBB1_6724 movq 32416(%rbx), %rax movq $0, (%rdi,%rax,8) .LBB1_6724: testb $1, %cl je .LBB1_6726 movq 32832(%rbx), %rax movq $0, (%r15,%rax,8) .LBB1_6726: testb $1, %r10b je .LBB1_6728 movq 32864(%rbx), %rax movq $0, (%r15,%rax,8) .LBB1_6728: movl 32160(%rbx), %eax testb $1, %al je .LBB1_6730 movq 32736(%rbx), %rax movq $0, (%r15,%rax,8) .LBB1_6730: testb $1, %r9b je .LBB1_6732 movq 32800(%rbx), %rax movq $0, (%r15,%rax,8) .LBB1_6732: testb $1, %r11b je .LBB1_6734 movq 32896(%rbx), %rax movq $0, (%r15,%rax,8) .LBB1_6734: testb $1, %sil je .LBB1_6736 movq 32928(%rbx), %rax movq $0, (%r15,%rax,8) .LBB1_6736: testb $1, %r8b je .LBB1_6738 movq 32960(%rbx), %rax movq $0, (%r15,%rax,8) .LBB1_6738: testb $1, %dl je .LBB1_6740 movq 32992(%rbx), %r14 movq $0, (%r15,%r14,8) .LBB1_6740: testb $1, %cl je .LBB1_6742 movq 32832(%rbx), %rax movq $0, (%r13,%rax,8) .LBB1_6742: testb $1, %r10b je .LBB1_6744 movq 32864(%rbx), %rax movq $0, (%r13,%rax,8) .LBB1_6744: movl 32160(%rbx), %eax testb $1, %al je .LBB1_6746 movq 32736(%rbx), %rax movq $0, (%r13,%rax,8) .LBB1_6746: testb $1, %r9b je .LBB1_6748 movq 32800(%rbx), %rax movq $0, (%r13,%rax,8) .LBB1_6748: testb $1, %r11b je .LBB1_6750 movq 32896(%rbx), %rax movq $0, (%r13,%rax,8) .LBB1_6750: testb $1, %sil movq 32792(%rbx), %r11 je .LBB1_6752 movq 32928(%rbx), %rax movq $0, (%r13,%rax,8) .LBB1_6752: testb $1, %r8b je .LBB1_6754 movq 32960(%rbx), %rax movq $0, (%r13,%rax,8) .LBB1_6754: testb $1, %dl je .LBB1_6757 movq 32992(%rbx), %rax jmp .LBB1_6756 .LBB1_6707: movq 32192(%rbx), %rax movq $0, (%rdi,%rax,8) movq 32256(%rbx), %rax movq $0, (%rdi,%rax,8) movq 32224(%rbx), %rax movq $0, (%rdi,%rax,8) movq 32288(%rbx), %rax movq $0, (%rdi,%rax,8) movq 32320(%rbx), %rax movq $0, (%rdi,%rax,8) movq 32384(%rbx), %rax movq $0, (%rdi,%rax,8) movq 32352(%rbx), %rax movq $0, (%rdi,%rax,8) movq 32416(%rbx), %rax movq $0, (%rdi,%rax,8) movq 32832(%rbx), %r10 movq $0, (%r15,%r10,8) movq 32864(%rbx), %r9 movq $0, (%r15,%r9,8) movq 32736(%rbx), %r8 movq $0, (%r15,%r8,8) movq 32800(%rbx), %rsi movq $0, (%r15,%rsi,8) movq 32896(%rbx), %rdi movq $0, (%r15,%rdi,8) movq 32928(%rbx), %rdx movq $0, (%r15,%rdx,8) movq 32960(%rbx), %rcx movq $0, (%r15,%rcx,8) movq 32992(%rbx), %rax movq $0, (%r15,%rax,8) movq $0, (%r13,%r10,8) movq $0, (%r13,%r9,8) movq $0, (%r13,%r8,8) movq $0, (%r13,%rsi,8) movq $0, (%r13,%rdi,8) movq $0, (%r13,%rdx,8) movq $0, (%r13,%rcx,8) .LBB1_6756: movq $0, (%r13,%rax,8) .LBB1_6757: vpand %xmm15, %xmm0, %xmm0 vpxor %xmm14, %xmm0, %xmm1 vpmovzxwd %xmm1, %xmm2 vpslld $31, %xmm2, %xmm2 vpsrad $31, %xmm2, %xmm2 vpunpckhwd %xmm0, %xmm1, %xmm1 vpslld $31, %xmm1, %xmm1 vpsrad $31, %xmm1, %xmm1 vinsertf128 $1, %xmm1, %ymm2, %ymm1 vmovdqa 1152(%rbx), %ymm2 vptest %ymm2, %ymm1 jb .LBB1_5328 vpmovzxwd %xmm0, %xmm1 vpslld $31, %xmm1, %xmm1 vpsrad $31, %xmm1, %xmm1 vpunpckhwd %xmm0, %xmm0, %xmm2 vpslld $31, %xmm2, %xmm2 vpsrad $31, %xmm2, %xmm2 vinsertf128 $1, %xmm2, %ymm1, %ymm1 vmovdqa 1120(%rbx), %ymm2 vptest %ymm2, %ymm1 jb .LBB1_6759 vpextrb $0, %xmm0, %ecx vpextrb $2, %xmm0, %edx vpextrb $4, %xmm0, %eax testb $1, %cl je .LBB1_6762 movq 32448(%rbx), %rcx movq $0, (%r13,%rcx,8) .LBB1_6762: vpextrb $6, %xmm0, %ecx testb $1, %dl je .LBB1_6764 movq 32480(%rbx), %rdx movq $0, (%r13,%rdx,8) .LBB1_6764: vpextrb $8, %xmm0, %edx testb $1, %al je .LBB1_6766 movq 32544(%rbx), %rax movq $0, (%r13,%rax,8) .LBB1_6766: vpextrb $10, %xmm0, %eax testb $1, %cl je .LBB1_6768 movq 32576(%rbx), %rcx movq $0, (%r13,%rcx,8) .LBB1_6768: vpextrb $12, %xmm0, %ecx testb $1, %dl je .LBB1_6770 movq 32640(%rbx), %rdx movq $0, (%r13,%rdx,8) .LBB1_6770: vpextrb $14, %xmm0, %edx testb $1, %al je .LBB1_6772 movq 32672(%rbx), %rax movq $0, (%r13,%rax,8) .LBB1_6772: testb $1, %cl je .LBB1_6774 movq 32704(%rbx), %rax movq $0, (%r13,%rax,8) .LBB1_6774: testb $1, %dl je .LBB1_5328 jmp .LBB1_6775 .LBB1_6759: movq 32448(%rbx), %rax movq $0, (%r13,%rax,8) movq 32480(%rbx), %rax movq $0, (%r13,%rax,8) movq 32544(%rbx), %rax movq $0, (%r13,%rax,8) movq 32576(%rbx), %rax movq $0, (%r13,%rax,8) movq 32640(%rbx), %rax movq $0, (%r13,%rax,8) movq 32672(%rbx), %rax movq $0, (%r13,%rax,8) movq 32704(%rbx), %rax movq $0, (%r13,%rax,8) .LBB1_6775: movq 32512(%rbx), %rax movq $0, (%r13,%rax,8) .align 16, 0x90 .LBB1_5328: movq 43440(%rbx), %rax addq $8, %rax movq %rax, 43440(%rbx) cmpq 12088(%rbx), %rax jb .LBB1_5330 movq $0, 43440(%rbx) movq 43448(%rbx), %rax incq %rax movq %rax, 43448(%rbx) cmpq 12080(%rbx), %rax jb .LBB1_5330 leaq -40(%rbp), %rsp popq %rbx popq %r12 popq %r13 popq %r14 popq %r15 popq %rbp vzeroupper ret .Ltmp23: .size __Vectorized_.ComputeResidual, .Ltmp23-__Vectorized_.ComputeResidual .cfi_endproc .section ".note.GNU-stack","",@progbits