.file "sha1-586.s" .text .globl sha1_block_data_order .type sha1_block_data_order,@function .align 16 sha1_block_data_order: .L_sha1_block_data_order_begin: pushl %ebp pushl %ebx pushl %esi pushl %edi call .L000pic_point .L000pic_point: popl %ebp leal OPENSSL_ia32cap_P,%esi leal .LK_XX_XX-.L000pic_point(%ebp),%ebp movl (%esi),%eax movl 4(%esi),%edx testl $512,%edx jz .L001x86 testl $16777216,%eax jz .L001x86 jmp .Lssse3_shortcut .align 16 .L001x86: movl 20(%esp),%ebp movl 24(%esp),%esi movl 28(%esp),%eax subl $76,%esp shll $6,%eax addl %esi,%eax movl %eax,104(%esp) movl 16(%ebp),%edi jmp .L002loop .align 16 .L002loop: movl (%esi),%eax movl 4(%esi),%ebx movl 8(%esi),%ecx movl 12(%esi),%edx bswap %eax bswap %ebx bswap %ecx bswap %edx movl %eax,(%esp) movl %ebx,4(%esp) movl %ecx,8(%esp) movl %edx,12(%esp) movl 16(%esi),%eax movl 20(%esi),%ebx movl 24(%esi),%ecx movl 28(%esi),%edx bswap %eax bswap %ebx bswap %ecx bswap %edx movl %eax,16(%esp) movl %ebx,20(%esp) movl %ecx,24(%esp) movl %edx,28(%esp) movl 32(%esi),%eax movl 36(%esi),%ebx movl 40(%esi),%ecx movl 44(%esi),%edx bswap %eax bswap %ebx bswap %ecx bswap %edx movl %eax,32(%esp) movl %ebx,36(%esp) movl %ecx,40(%esp) movl %edx,44(%esp) movl 48(%esi),%eax movl 52(%esi),%ebx movl 56(%esi),%ecx movl 60(%esi),%edx bswap %eax bswap %ebx bswap %ecx bswap %edx movl %eax,48(%esp) movl %ebx,52(%esp) movl %ecx,56(%esp) movl %edx,60(%esp) movl %esi,100(%esp) movl (%ebp),%eax movl 4(%ebp),%ebx movl 8(%ebp),%ecx movl 12(%ebp),%edx movl %ecx,%esi movl %eax,%ebp roll $5,%ebp xorl %edx,%esi addl %edi,%ebp movl (%esp),%edi andl %ebx,%esi rorl $2,%ebx xorl %edx,%esi leal 1518500249(%ebp,%edi,1),%ebp addl %esi,%ebp movl %ebx,%edi movl %ebp,%esi roll $5,%ebp xorl %ecx,%edi addl %edx,%ebp movl 4(%esp),%edx andl %eax,%edi rorl $2,%eax xorl %ecx,%edi leal 1518500249(%ebp,%edx,1),%ebp addl %edi,%ebp movl %eax,%edx movl %ebp,%edi roll $5,%ebp xorl %ebx,%edx addl %ecx,%ebp movl 8(%esp),%ecx andl %esi,%edx rorl $2,%esi xorl %ebx,%edx leal 1518500249(%ebp,%ecx,1),%ebp addl %edx,%ebp movl %esi,%ecx movl %ebp,%edx roll $5,%ebp xorl %eax,%ecx addl %ebx,%ebp movl 12(%esp),%ebx andl %edi,%ecx rorl $2,%edi xorl %eax,%ecx leal 1518500249(%ebp,%ebx,1),%ebp addl %ecx,%ebp movl %edi,%ebx movl %ebp,%ecx roll $5,%ebp xorl %esi,%ebx addl %eax,%ebp movl 16(%esp),%eax andl %edx,%ebx rorl $2,%edx xorl %esi,%ebx leal 1518500249(%ebp,%eax,1),%ebp addl %ebx,%ebp movl %edx,%eax movl %ebp,%ebx roll $5,%ebp xorl %edi,%eax addl %esi,%ebp movl 20(%esp),%esi andl %ecx,%eax rorl $2,%ecx xorl %edi,%eax leal 1518500249(%ebp,%esi,1),%ebp addl %eax,%ebp movl %ecx,%esi movl %ebp,%eax roll $5,%ebp xorl %edx,%esi addl %edi,%ebp movl 24(%esp),%edi andl %ebx,%esi rorl $2,%ebx xorl %edx,%esi leal 1518500249(%ebp,%edi,1),%ebp addl %esi,%ebp movl %ebx,%edi movl %ebp,%esi roll $5,%ebp xorl %ecx,%edi addl %edx,%ebp movl 28(%esp),%edx andl %eax,%edi rorl $2,%eax xorl %ecx,%edi leal 1518500249(%ebp,%edx,1),%ebp addl %edi,%ebp movl %eax,%edx movl %ebp,%edi roll $5,%ebp xorl %ebx,%edx addl %ecx,%ebp movl 32(%esp),%ecx andl %esi,%edx rorl $2,%esi xorl %ebx,%edx leal 1518500249(%ebp,%ecx,1),%ebp addl %edx,%ebp movl %esi,%ecx movl %ebp,%edx roll $5,%ebp xorl %eax,%ecx addl %ebx,%ebp movl 36(%esp),%ebx andl %edi,%ecx rorl $2,%edi xorl %eax,%ecx leal 1518500249(%ebp,%ebx,1),%ebp addl %ecx,%ebp movl %edi,%ebx movl %ebp,%ecx roll $5,%ebp xorl %esi,%ebx addl %eax,%ebp movl 40(%esp),%eax andl %edx,%ebx rorl $2,%edx xorl %esi,%ebx leal 1518500249(%ebp,%eax,1),%ebp addl %ebx,%ebp movl %edx,%eax movl %ebp,%ebx roll $5,%ebp xorl %edi,%eax addl %esi,%ebp movl 44(%esp),%esi andl %ecx,%eax rorl $2,%ecx xorl %edi,%eax leal 1518500249(%ebp,%esi,1),%ebp addl %eax,%ebp movl %ecx,%esi movl %ebp,%eax roll $5,%ebp xorl %edx,%esi addl %edi,%ebp movl 48(%esp),%edi andl %ebx,%esi rorl $2,%ebx xorl %edx,%esi leal 1518500249(%ebp,%edi,1),%ebp addl %esi,%ebp movl %ebx,%edi movl %ebp,%esi roll $5,%ebp xorl %ecx,%edi addl %edx,%ebp movl 52(%esp),%edx andl %eax,%edi rorl $2,%eax xorl %ecx,%edi leal 1518500249(%ebp,%edx,1),%ebp addl %edi,%ebp movl %eax,%edx movl %ebp,%edi roll $5,%ebp xorl %ebx,%edx addl %ecx,%ebp movl 56(%esp),%ecx andl %esi,%edx rorl $2,%esi xorl %ebx,%edx leal 1518500249(%ebp,%ecx,1),%ebp addl %edx,%ebp movl %esi,%ecx movl %ebp,%edx roll $5,%ebp xorl %eax,%ecx addl %ebx,%ebp movl 60(%esp),%ebx andl %edi,%ecx rorl $2,%edi xorl %eax,%ecx leal 1518500249(%ebp,%ebx,1),%ebp movl (%esp),%ebx addl %ebp,%ecx movl %edi,%ebp xorl 8(%esp),%ebx xorl %esi,%ebp xorl 32(%esp),%ebx andl %edx,%ebp xorl 52(%esp),%ebx roll $1,%ebx xorl %esi,%ebp addl %ebp,%eax movl %ecx,%ebp rorl $2,%edx movl %ebx,(%esp) roll $5,%ebp leal 1518500249(%ebx,%eax,1),%ebx movl 4(%esp),%eax addl %ebp,%ebx movl %edx,%ebp xorl 12(%esp),%eax xorl %edi,%ebp xorl 36(%esp),%eax andl %ecx,%ebp xorl 56(%esp),%eax roll $1,%eax xorl %edi,%ebp addl %ebp,%esi movl %ebx,%ebp rorl $2,%ecx movl %eax,4(%esp) roll $5,%ebp leal 1518500249(%eax,%esi,1),%eax movl 8(%esp),%esi addl %ebp,%eax movl %ecx,%ebp xorl 16(%esp),%esi xorl %edx,%ebp xorl 40(%esp),%esi andl %ebx,%ebp xorl 60(%esp),%esi roll $1,%esi xorl %edx,%ebp addl %ebp,%edi movl %eax,%ebp rorl $2,%ebx movl %esi,8(%esp) roll $5,%ebp leal 1518500249(%esi,%edi,1),%esi movl 12(%esp),%edi addl %ebp,%esi movl %ebx,%ebp xorl 20(%esp),%edi xorl %ecx,%ebp xorl 44(%esp),%edi andl %eax,%ebp xorl (%esp),%edi roll $1,%edi xorl %ecx,%ebp addl %ebp,%edx movl %esi,%ebp rorl $2,%eax movl %edi,12(%esp) roll $5,%ebp leal 1518500249(%edi,%edx,1),%edi movl 16(%esp),%edx addl %ebp,%edi movl %esi,%ebp xorl 24(%esp),%edx xorl %eax,%ebp xorl 48(%esp),%edx xorl %ebx,%ebp xorl 4(%esp),%edx roll $1,%edx addl %ebp,%ecx rorl $2,%esi movl %edi,%ebp roll $5,%ebp movl %edx,16(%esp) leal 1859775393(%edx,%ecx,1),%edx movl 20(%esp),%ecx addl %ebp,%edx movl %edi,%ebp xorl 28(%esp),%ecx xorl %esi,%ebp xorl 52(%esp),%ecx xorl %eax,%ebp xorl 8(%esp),%ecx roll $1,%ecx addl %ebp,%ebx rorl $2,%edi movl %edx,%ebp roll $5,%ebp movl %ecx,20(%esp) leal 1859775393(%ecx,%ebx,1),%ecx movl 24(%esp),%ebx addl %ebp,%ecx movl %edx,%ebp xorl 32(%esp),%ebx xorl %edi,%ebp xorl 56(%esp),%ebx xorl %esi,%ebp xorl 12(%esp),%ebx roll $1,%ebx addl %ebp,%eax rorl $2,%edx movl %ecx,%ebp roll $5,%ebp movl %ebx,24(%esp) leal 1859775393(%ebx,%eax,1),%ebx movl 28(%esp),%eax addl %ebp,%ebx movl %ecx,%ebp xorl 36(%esp),%eax xorl %edx,%ebp xorl 60(%esp),%eax xorl %edi,%ebp xorl 16(%esp),%eax roll $1,%eax addl %ebp,%esi rorl $2,%ecx movl %ebx,%ebp roll $5,%ebp movl %eax,28(%esp) leal 1859775393(%eax,%esi,1),%eax movl 32(%esp),%esi addl %ebp,%eax movl %ebx,%ebp xorl 40(%esp),%esi xorl %ecx,%ebp xorl (%esp),%esi xorl %edx,%ebp xorl 20(%esp),%esi roll $1,%esi addl %ebp,%edi rorl $2,%ebx movl %eax,%ebp roll $5,%ebp movl %esi,32(%esp) leal 1859775393(%esi,%edi,1),%esi movl 36(%esp),%edi addl %ebp,%esi movl %eax,%ebp xorl 44(%esp),%edi xorl %ebx,%ebp xorl 4(%esp),%edi xorl %ecx,%ebp xorl 24(%esp),%edi roll $1,%edi addl %ebp,%edx rorl $2,%eax movl %esi,%ebp roll $5,%ebp movl %edi,36(%esp) leal 1859775393(%edi,%edx,1),%edi movl 40(%esp),%edx addl %ebp,%edi movl %esi,%ebp xorl 48(%esp),%edx xorl %eax,%ebp xorl 8(%esp),%edx xorl %ebx,%ebp xorl 28(%esp),%edx roll $1,%edx addl %ebp,%ecx rorl $2,%esi movl %edi,%ebp roll $5,%ebp movl %edx,40(%esp) leal 1859775393(%edx,%ecx,1),%edx movl 44(%esp),%ecx addl %ebp,%edx movl %edi,%ebp xorl 52(%esp),%ecx xorl %esi,%ebp xorl 12(%esp),%ecx xorl %eax,%ebp xorl 32(%esp),%ecx roll $1,%ecx addl %ebp,%ebx rorl $2,%edi movl %edx,%ebp roll $5,%ebp movl %ecx,44(%esp) leal 1859775393(%ecx,%ebx,1),%ecx movl 48(%esp),%ebx addl %ebp,%ecx movl %edx,%ebp xorl 56(%esp),%ebx xorl %edi,%ebp xorl 16(%esp),%ebx xorl %esi,%ebp xorl 36(%esp),%ebx roll $1,%ebx addl %ebp,%eax rorl $2,%edx movl %ecx,%ebp roll $5,%ebp movl %ebx,48(%esp) leal 1859775393(%ebx,%eax,1),%ebx movl 52(%esp),%eax addl %ebp,%ebx movl %ecx,%ebp xorl 60(%esp),%eax xorl %edx,%ebp xorl 20(%esp),%eax xorl %edi,%ebp xorl 40(%esp),%eax roll $1,%eax addl %ebp,%esi rorl $2,%ecx movl %ebx,%ebp roll $5,%ebp movl %eax,52(%esp) leal 1859775393(%eax,%esi,1),%eax movl 56(%esp),%esi addl %ebp,%eax movl %ebx,%ebp xorl (%esp),%esi xorl %ecx,%ebp xorl 24(%esp),%esi xorl %edx,%ebp xorl 44(%esp),%esi roll $1,%esi addl %ebp,%edi rorl $2,%ebx movl %eax,%ebp roll $5,%ebp movl %esi,56(%esp) leal 1859775393(%esi,%edi,1),%esi movl 60(%esp),%edi addl %ebp,%esi movl %eax,%ebp xorl 4(%esp),%edi xorl %ebx,%ebp xorl 28(%esp),%edi xorl %ecx,%ebp xorl 48(%esp),%edi roll $1,%edi addl %ebp,%edx rorl $2,%eax movl %esi,%ebp roll $5,%ebp movl %edi,60(%esp) leal 1859775393(%edi,%edx,1),%edi movl (%esp),%edx addl %ebp,%edi movl %esi,%ebp xorl 8(%esp),%edx xorl %eax,%ebp xorl 32(%esp),%edx xorl %ebx,%ebp xorl 52(%esp),%edx roll $1,%edx addl %ebp,%ecx rorl $2,%esi movl %edi,%ebp roll $5,%ebp movl %edx,(%esp) leal 1859775393(%edx,%ecx,1),%edx movl 4(%esp),%ecx addl %ebp,%edx movl %edi,%ebp xorl 12(%esp),%ecx xorl %esi,%ebp xorl 36(%esp),%ecx xorl %eax,%ebp xorl 56(%esp),%ecx roll $1,%ecx addl %ebp,%ebx rorl $2,%edi movl %edx,%ebp roll $5,%ebp movl %ecx,4(%esp) leal 1859775393(%ecx,%ebx,1),%ecx movl 8(%esp),%ebx addl %ebp,%ecx movl %edx,%ebp xorl 16(%esp),%ebx xorl %edi,%ebp xorl 40(%esp),%ebx xorl %esi,%ebp xorl 60(%esp),%ebx roll $1,%ebx addl %ebp,%eax rorl $2,%edx movl %ecx,%ebp roll $5,%ebp movl %ebx,8(%esp) leal 1859775393(%ebx,%eax,1),%ebx movl 12(%esp),%eax addl %ebp,%ebx movl %ecx,%ebp xorl 20(%esp),%eax xorl %edx,%ebp xorl 44(%esp),%eax xorl %edi,%ebp xorl (%esp),%eax roll $1,%eax addl %ebp,%esi rorl $2,%ecx movl %ebx,%ebp roll $5,%ebp movl %eax,12(%esp) leal 1859775393(%eax,%esi,1),%eax movl 16(%esp),%esi addl %ebp,%eax movl %ebx,%ebp xorl 24(%esp),%esi xorl %ecx,%ebp xorl 48(%esp),%esi xorl %edx,%ebp xorl 4(%esp),%esi roll $1,%esi addl %ebp,%edi rorl $2,%ebx movl %eax,%ebp roll $5,%ebp movl %esi,16(%esp) leal 1859775393(%esi,%edi,1),%esi movl 20(%esp),%edi addl %ebp,%esi movl %eax,%ebp xorl 28(%esp),%edi xorl %ebx,%ebp xorl 52(%esp),%edi xorl %ecx,%ebp xorl 8(%esp),%edi roll $1,%edi addl %ebp,%edx rorl $2,%eax movl %esi,%ebp roll $5,%ebp movl %edi,20(%esp) leal 1859775393(%edi,%edx,1),%edi movl 24(%esp),%edx addl %ebp,%edi movl %esi,%ebp xorl 32(%esp),%edx xorl %eax,%ebp xorl 56(%esp),%edx xorl %ebx,%ebp xorl 12(%esp),%edx roll $1,%edx addl %ebp,%ecx rorl $2,%esi movl %edi,%ebp roll $5,%ebp movl %edx,24(%esp) leal 1859775393(%edx,%ecx,1),%edx movl 28(%esp),%ecx addl %ebp,%edx movl %edi,%ebp xorl 36(%esp),%ecx xorl %esi,%ebp xorl 60(%esp),%ecx xorl %eax,%ebp xorl 16(%esp),%ecx roll $1,%ecx addl %ebp,%ebx rorl $2,%edi movl %edx,%ebp roll $5,%ebp movl %ecx,28(%esp) leal 1859775393(%ecx,%ebx,1),%ecx movl 32(%esp),%ebx addl %ebp,%ecx movl %edi,%ebp xorl 40(%esp),%ebx xorl %esi,%ebp xorl (%esp),%ebx andl %edx,%ebp xorl 20(%esp),%ebx roll $1,%ebx addl %eax,%ebp rorl $2,%edx movl %ecx,%eax roll $5,%eax movl %ebx,32(%esp) leal 2400959708(%ebx,%ebp,1),%ebx movl %edi,%ebp addl %eax,%ebx andl %esi,%ebp movl 36(%esp),%eax addl %ebp,%ebx movl %edx,%ebp xorl 44(%esp),%eax xorl %edi,%ebp xorl 4(%esp),%eax andl %ecx,%ebp xorl 24(%esp),%eax roll $1,%eax addl %esi,%ebp rorl $2,%ecx movl %ebx,%esi roll $5,%esi movl %eax,36(%esp) leal 2400959708(%eax,%ebp,1),%eax movl %edx,%ebp addl %esi,%eax andl %edi,%ebp movl 40(%esp),%esi addl %ebp,%eax movl %ecx,%ebp xorl 48(%esp),%esi xorl %edx,%ebp xorl 8(%esp),%esi andl %ebx,%ebp xorl 28(%esp),%esi roll $1,%esi addl %edi,%ebp rorl $2,%ebx movl %eax,%edi roll $5,%edi movl %esi,40(%esp) leal 2400959708(%esi,%ebp,1),%esi movl %ecx,%ebp addl %edi,%esi andl %edx,%ebp movl 44(%esp),%edi addl %ebp,%esi movl %ebx,%ebp xorl 52(%esp),%edi xorl %ecx,%ebp xorl 12(%esp),%edi andl %eax,%ebp xorl 32(%esp),%edi roll $1,%edi addl %edx,%ebp rorl $2,%eax movl %esi,%edx roll $5,%edx movl %edi,44(%esp) leal 2400959708(%edi,%ebp,1),%edi movl %ebx,%ebp addl %edx,%edi andl %ecx,%ebp movl 48(%esp),%edx addl %ebp,%edi movl %eax,%ebp xorl 56(%esp),%edx xorl %ebx,%ebp xorl 16(%esp),%edx andl %esi,%ebp xorl 36(%esp),%edx roll $1,%edx addl %ecx,%ebp rorl $2,%esi movl %edi,%ecx roll $5,%ecx movl %edx,48(%esp) leal 2400959708(%edx,%ebp,1),%edx movl %eax,%ebp addl %ecx,%edx andl %ebx,%ebp movl 52(%esp),%ecx addl %ebp,%edx movl %esi,%ebp xorl 60(%esp),%ecx xorl %eax,%ebp xorl 20(%esp),%ecx andl %edi,%ebp xorl 40(%esp),%ecx roll $1,%ecx addl %ebx,%ebp rorl $2,%edi movl %edx,%ebx roll $5,%ebx movl %ecx,52(%esp) leal 2400959708(%ecx,%ebp,1),%ecx movl %esi,%ebp addl %ebx,%ecx andl %eax,%ebp movl 56(%esp),%ebx addl %ebp,%ecx movl %edi,%ebp xorl (%esp),%ebx xorl %esi,%ebp xorl 24(%esp),%ebx andl %edx,%ebp xorl 44(%esp),%ebx roll $1,%ebx addl %eax,%ebp rorl $2,%edx movl %ecx,%eax roll $5,%eax movl %ebx,56(%esp) leal 2400959708(%ebx,%ebp,1),%ebx movl %edi,%ebp addl %eax,%ebx andl %esi,%ebp movl 60(%esp),%eax addl %ebp,%ebx movl %edx,%ebp xorl 4(%esp),%eax xorl %edi,%ebp xorl 28(%esp),%eax andl %ecx,%ebp xorl 48(%esp),%eax roll $1,%eax addl %esi,%ebp rorl $2,%ecx movl %ebx,%esi roll $5,%esi movl %eax,60(%esp) leal 2400959708(%eax,%ebp,1),%eax movl %edx,%ebp addl %esi,%eax andl %edi,%ebp movl (%esp),%esi addl %ebp,%eax movl %ecx,%ebp xorl 8(%esp),%esi xorl %edx,%ebp xorl 32(%esp),%esi andl %ebx,%ebp xorl 52(%esp),%esi roll $1,%esi addl %edi,%ebp rorl $2,%ebx movl %eax,%edi roll $5,%edi movl %esi,(%esp) leal 2400959708(%esi,%ebp,1),%esi movl %ecx,%ebp addl %edi,%esi andl %edx,%ebp movl 4(%esp),%edi addl %ebp,%esi movl %ebx,%ebp xorl 12(%esp),%edi xorl %ecx,%ebp xorl 36(%esp),%edi andl %eax,%ebp xorl 56(%esp),%edi roll $1,%edi addl %edx,%ebp rorl $2,%eax movl %esi,%edx roll $5,%edx movl %edi,4(%esp) leal 2400959708(%edi,%ebp,1),%edi movl %ebx,%ebp addl %edx,%edi andl %ecx,%ebp movl 8(%esp),%edx addl %ebp,%edi movl %eax,%ebp xorl 16(%esp),%edx xorl %ebx,%ebp xorl 40(%esp),%edx andl %esi,%ebp xorl 60(%esp),%edx roll $1,%edx addl %ecx,%ebp rorl $2,%esi movl %edi,%ecx roll $5,%ecx movl %edx,8(%esp) leal 2400959708(%edx,%ebp,1),%edx movl %eax,%ebp addl %ecx,%edx andl %ebx,%ebp movl 12(%esp),%ecx addl %ebp,%edx movl %esi,%ebp xorl 20(%esp),%ecx xorl %eax,%ebp xorl 44(%esp),%ecx andl %edi,%ebp xorl (%esp),%ecx roll $1,%ecx addl %ebx,%ebp rorl $2,%edi movl %edx,%ebx roll $5,%ebx movl %ecx,12(%esp) leal 2400959708(%ecx,%ebp,1),%ecx movl %esi,%ebp addl %ebx,%ecx andl %eax,%ebp movl 16(%esp),%ebx addl %ebp,%ecx movl %edi,%ebp xorl 24(%esp),%ebx xorl %esi,%ebp xorl 48(%esp),%ebx andl %edx,%ebp xorl 4(%esp),%ebx roll $1,%ebx addl %eax,%ebp rorl $2,%edx movl %ecx,%eax roll $5,%eax movl %ebx,16(%esp) leal 2400959708(%ebx,%ebp,1),%ebx movl %edi,%ebp addl %eax,%ebx andl %esi,%ebp movl 20(%esp),%eax addl %ebp,%ebx movl %edx,%ebp xorl 28(%esp),%eax xorl %edi,%ebp xorl 52(%esp),%eax andl %ecx,%ebp xorl 8(%esp),%eax roll $1,%eax addl %esi,%ebp rorl $2,%ecx movl %ebx,%esi roll $5,%esi movl %eax,20(%esp) leal 2400959708(%eax,%ebp,1),%eax movl %edx,%ebp addl %esi,%eax andl %edi,%ebp movl 24(%esp),%esi addl %ebp,%eax movl %ecx,%ebp xorl 32(%esp),%esi xorl %edx,%ebp xorl 56(%esp),%esi andl %ebx,%ebp xorl 12(%esp),%esi roll $1,%esi addl %edi,%ebp rorl $2,%ebx movl %eax,%edi roll $5,%edi movl %esi,24(%esp) leal 2400959708(%esi,%ebp,1),%esi movl %ecx,%ebp addl %edi,%esi andl %edx,%ebp movl 28(%esp),%edi addl %ebp,%esi movl %ebx,%ebp xorl 36(%esp),%edi xorl %ecx,%ebp xorl 60(%esp),%edi andl %eax,%ebp xorl 16(%esp),%edi roll $1,%edi addl %edx,%ebp rorl $2,%eax movl %esi,%edx roll $5,%edx movl %edi,28(%esp) leal 2400959708(%edi,%ebp,1),%edi movl %ebx,%ebp addl %edx,%edi andl %ecx,%ebp movl 32(%esp),%edx addl %ebp,%edi movl %eax,%ebp xorl 40(%esp),%edx xorl %ebx,%ebp xorl (%esp),%edx andl %esi,%ebp xorl 20(%esp),%edx roll $1,%edx addl %ecx,%ebp rorl $2,%esi movl %edi,%ecx roll $5,%ecx movl %edx,32(%esp) leal 2400959708(%edx,%ebp,1),%edx movl %eax,%ebp addl %ecx,%edx andl %ebx,%ebp movl 36(%esp),%ecx addl %ebp,%edx movl %esi,%ebp xorl 44(%esp),%ecx xorl %eax,%ebp xorl 4(%esp),%ecx andl %edi,%ebp xorl 24(%esp),%ecx roll $1,%ecx addl %ebx,%ebp rorl $2,%edi movl %edx,%ebx roll $5,%ebx movl %ecx,36(%esp) leal 2400959708(%ecx,%ebp,1),%ecx movl %esi,%ebp addl %ebx,%ecx andl %eax,%ebp movl 40(%esp),%ebx addl %ebp,%ecx movl %edi,%ebp xorl 48(%esp),%ebx xorl %esi,%ebp xorl 8(%esp),%ebx andl %edx,%ebp xorl 28(%esp),%ebx roll $1,%ebx addl %eax,%ebp rorl $2,%edx movl %ecx,%eax roll $5,%eax movl %ebx,40(%esp) leal 2400959708(%ebx,%ebp,1),%ebx movl %edi,%ebp addl %eax,%ebx andl %esi,%ebp movl 44(%esp),%eax addl %ebp,%ebx movl %edx,%ebp xorl 52(%esp),%eax xorl %edi,%ebp xorl 12(%esp),%eax andl %ecx,%ebp xorl 32(%esp),%eax roll $1,%eax addl %esi,%ebp rorl $2,%ecx movl %ebx,%esi roll $5,%esi movl %eax,44(%esp) leal 2400959708(%eax,%ebp,1),%eax movl %edx,%ebp addl %esi,%eax andl %edi,%ebp movl 48(%esp),%esi addl %ebp,%eax movl %ebx,%ebp xorl 56(%esp),%esi xorl %ecx,%ebp xorl 16(%esp),%esi xorl %edx,%ebp xorl 36(%esp),%esi roll $1,%esi addl %ebp,%edi rorl $2,%ebx movl %eax,%ebp roll $5,%ebp movl %esi,48(%esp) leal 3395469782(%esi,%edi,1),%esi movl 52(%esp),%edi addl %ebp,%esi movl %eax,%ebp xorl 60(%esp),%edi xorl %ebx,%ebp xorl 20(%esp),%edi xorl %ecx,%ebp xorl 40(%esp),%edi roll $1,%edi addl %ebp,%edx rorl $2,%eax movl %esi,%ebp roll $5,%ebp movl %edi,52(%esp) leal 3395469782(%edi,%edx,1),%edi movl 56(%esp),%edx addl %ebp,%edi movl %esi,%ebp xorl (%esp),%edx xorl %eax,%ebp xorl 24(%esp),%edx xorl %ebx,%ebp xorl 44(%esp),%edx roll $1,%edx addl %ebp,%ecx rorl $2,%esi movl %edi,%ebp roll $5,%ebp movl %edx,56(%esp) leal 3395469782(%edx,%ecx,1),%edx movl 60(%esp),%ecx addl %ebp,%edx movl %edi,%ebp xorl 4(%esp),%ecx xorl %esi,%ebp xorl 28(%esp),%ecx xorl %eax,%ebp xorl 48(%esp),%ecx roll $1,%ecx addl %ebp,%ebx rorl $2,%edi movl %edx,%ebp roll $5,%ebp movl %ecx,60(%esp) leal 3395469782(%ecx,%ebx,1),%ecx movl (%esp),%ebx addl %ebp,%ecx movl %edx,%ebp xorl 8(%esp),%ebx xorl %edi,%ebp xorl 32(%esp),%ebx xorl %esi,%ebp xorl 52(%esp),%ebx roll $1,%ebx addl %ebp,%eax rorl $2,%edx movl %ecx,%ebp roll $5,%ebp movl %ebx,(%esp) leal 3395469782(%ebx,%eax,1),%ebx movl 4(%esp),%eax addl %ebp,%ebx movl %ecx,%ebp xorl 12(%esp),%eax xorl %edx,%ebp xorl 36(%esp),%eax xorl %edi,%ebp xorl 56(%esp),%eax roll $1,%eax addl %ebp,%esi rorl $2,%ecx movl %ebx,%ebp roll $5,%ebp movl %eax,4(%esp) leal 3395469782(%eax,%esi,1),%eax movl 8(%esp),%esi addl %ebp,%eax movl %ebx,%ebp xorl 16(%esp),%esi xorl %ecx,%ebp xorl 40(%esp),%esi xorl %edx,%ebp xorl 60(%esp),%esi roll $1,%esi addl %ebp,%edi rorl $2,%ebx movl %eax,%ebp roll $5,%ebp movl %esi,8(%esp) leal 3395469782(%esi,%edi,1),%esi movl 12(%esp),%edi addl %ebp,%esi movl %eax,%ebp xorl 20(%esp),%edi xorl %ebx,%ebp xorl 44(%esp),%edi xorl %ecx,%ebp xorl (%esp),%edi roll $1,%edi addl %ebp,%edx rorl $2,%eax movl %esi,%ebp roll $5,%ebp movl %edi,12(%esp) leal 3395469782(%edi,%edx,1),%edi movl 16(%esp),%edx addl %ebp,%edi movl %esi,%ebp xorl 24(%esp),%edx xorl %eax,%ebp xorl 48(%esp),%edx xorl %ebx,%ebp xorl 4(%esp),%edx roll $1,%edx addl %ebp,%ecx rorl $2,%esi movl %edi,%ebp roll $5,%ebp movl %edx,16(%esp) leal 3395469782(%edx,%ecx,1),%edx movl 20(%esp),%ecx addl %ebp,%edx movl %edi,%ebp xorl 28(%esp),%ecx xorl %esi,%ebp xorl 52(%esp),%ecx xorl %eax,%ebp xorl 8(%esp),%ecx roll $1,%ecx addl %ebp,%ebx rorl $2,%edi movl %edx,%ebp roll $5,%ebp movl %ecx,20(%esp) leal 3395469782(%ecx,%ebx,1),%ecx movl 24(%esp),%ebx addl %ebp,%ecx movl %edx,%ebp xorl 32(%esp),%ebx xorl %edi,%ebp xorl 56(%esp),%ebx xorl %esi,%ebp xorl 12(%esp),%ebx roll $1,%ebx addl %ebp,%eax rorl $2,%edx movl %ecx,%ebp roll $5,%ebp movl %ebx,24(%esp) leal 3395469782(%ebx,%eax,1),%ebx movl 28(%esp),%eax addl %ebp,%ebx movl %ecx,%ebp xorl 36(%esp),%eax xorl %edx,%ebp xorl 60(%esp),%eax xorl %edi,%ebp xorl 16(%esp),%eax roll $1,%eax addl %ebp,%esi rorl $2,%ecx movl %ebx,%ebp roll $5,%ebp movl %eax,28(%esp) leal 3395469782(%eax,%esi,1),%eax movl 32(%esp),%esi addl %ebp,%eax movl %ebx,%ebp xorl 40(%esp),%esi xorl %ecx,%ebp xorl (%esp),%esi xorl %edx,%ebp xorl 20(%esp),%esi roll $1,%esi addl %ebp,%edi rorl $2,%ebx movl %eax,%ebp roll $5,%ebp movl %esi,32(%esp) leal 3395469782(%esi,%edi,1),%esi movl 36(%esp),%edi addl %ebp,%esi movl %eax,%ebp xorl 44(%esp),%edi xorl %ebx,%ebp xorl 4(%esp),%edi xorl %ecx,%ebp xorl 24(%esp),%edi roll $1,%edi addl %ebp,%edx rorl $2,%eax movl %esi,%ebp roll $5,%ebp movl %edi,36(%esp) leal 3395469782(%edi,%edx,1),%edi movl 40(%esp),%edx addl %ebp,%edi movl %esi,%ebp xorl 48(%esp),%edx xorl %eax,%ebp xorl 8(%esp),%edx xorl %ebx,%ebp xorl 28(%esp),%edx roll $1,%edx addl %ebp,%ecx rorl $2,%esi movl %edi,%ebp roll $5,%ebp movl %edx,40(%esp) leal 3395469782(%edx,%ecx,1),%edx movl 44(%esp),%ecx addl %ebp,%edx movl %edi,%ebp xorl 52(%esp),%ecx xorl %esi,%ebp xorl 12(%esp),%ecx xorl %eax,%ebp xorl 32(%esp),%ecx roll $1,%ecx addl %ebp,%ebx rorl $2,%edi movl %edx,%ebp roll $5,%ebp movl %ecx,44(%esp) leal 3395469782(%ecx,%ebx,1),%ecx movl 48(%esp),%ebx addl %ebp,%ecx movl %edx,%ebp xorl 56(%esp),%ebx xorl %edi,%ebp xorl 16(%esp),%ebx xorl %esi,%ebp xorl 36(%esp),%ebx roll $1,%ebx addl %ebp,%eax rorl $2,%edx movl %ecx,%ebp roll $5,%ebp movl %ebx,48(%esp) leal 3395469782(%ebx,%eax,1),%ebx movl 52(%esp),%eax addl %ebp,%ebx movl %ecx,%ebp xorl 60(%esp),%eax xorl %edx,%ebp xorl 20(%esp),%eax xorl %edi,%ebp xorl 40(%esp),%eax roll $1,%eax addl %ebp,%esi rorl $2,%ecx movl %ebx,%ebp roll $5,%ebp leal 3395469782(%eax,%esi,1),%eax movl 56(%esp),%esi addl %ebp,%eax movl %ebx,%ebp xorl (%esp),%esi xorl %ecx,%ebp xorl 24(%esp),%esi xorl %edx,%ebp xorl 44(%esp),%esi roll $1,%esi addl %ebp,%edi rorl $2,%ebx movl %eax,%ebp roll $5,%ebp leal 3395469782(%esi,%edi,1),%esi movl 60(%esp),%edi addl %ebp,%esi movl %eax,%ebp xorl 4(%esp),%edi xorl %ebx,%ebp xorl 28(%esp),%edi xorl %ecx,%ebp xorl 48(%esp),%edi roll $1,%edi addl %ebp,%edx rorl $2,%eax movl %esi,%ebp roll $5,%ebp leal 3395469782(%edi,%edx,1),%edi addl %ebp,%edi movl 96(%esp),%ebp movl 100(%esp),%edx addl (%ebp),%edi addl 4(%ebp),%esi addl 8(%ebp),%eax addl 12(%ebp),%ebx addl 16(%ebp),%ecx movl %edi,(%ebp) addl $64,%edx movl %esi,4(%ebp) cmpl 104(%esp),%edx movl %eax,8(%ebp) movl %ecx,%edi movl %ebx,12(%ebp) movl %edx,%esi movl %ecx,16(%ebp) jb .L002loop addl $76,%esp popl %edi popl %esi popl %ebx popl %ebp ret .size sha1_block_data_order,.-.L_sha1_block_data_order_begin .type _sha1_block_data_order_ssse3,@function .align 16 _sha1_block_data_order_ssse3: pushl %ebp pushl %ebx pushl %esi pushl %edi call .L003pic_point .L003pic_point: popl %ebp leal .LK_XX_XX-.L003pic_point(%ebp),%ebp .Lssse3_shortcut: movdqa (%ebp),%xmm7 movdqa 16(%ebp),%xmm0 movdqa 32(%ebp),%xmm1 movdqa 48(%ebp),%xmm2 movdqa 64(%ebp),%xmm6 movl 20(%esp),%edi movl 24(%esp),%ebp movl 28(%esp),%edx movl %esp,%esi subl $208,%esp andl $-64,%esp movdqa %xmm0,112(%esp) movdqa %xmm1,128(%esp) movdqa %xmm2,144(%esp) shll $6,%edx movdqa %xmm7,160(%esp) addl %ebp,%edx movdqa %xmm6,176(%esp) addl $64,%ebp movl %edi,192(%esp) movl %ebp,196(%esp) movl %edx,200(%esp) movl %esi,204(%esp) movl (%edi),%eax movl 4(%edi),%ebx movl 8(%edi),%ecx movl 12(%edi),%edx movl 16(%edi),%edi movl %ebx,%esi movdqu -64(%ebp),%xmm0 movdqu -48(%ebp),%xmm1 movdqu -32(%ebp),%xmm2 movdqu -16(%ebp),%xmm3 .byte 102,15,56,0,198 .byte 102,15,56,0,206 .byte 102,15,56,0,214 movdqa %xmm7,96(%esp) .byte 102,15,56,0,222 paddd %xmm7,%xmm0 paddd %xmm7,%xmm1 paddd %xmm7,%xmm2 movdqa %xmm0,(%esp) psubd %xmm7,%xmm0 movdqa %xmm1,16(%esp) psubd %xmm7,%xmm1 movdqa %xmm2,32(%esp) psubd %xmm7,%xmm2 movdqa %xmm1,%xmm4 jmp .L004loop .align 16 .L004loop: addl (%esp),%edi xorl %edx,%ecx .byte 102,15,58,15,224,8 movdqa %xmm3,%xmm6 movl %eax,%ebp roll $5,%eax paddd %xmm3,%xmm7 movdqa %xmm0,64(%esp) andl %ecx,%esi xorl %edx,%ecx psrldq $4,%xmm6 xorl %edx,%esi addl %eax,%edi pxor %xmm0,%xmm4 rorl $2,%ebx addl %esi,%edi pxor %xmm2,%xmm6 addl 4(%esp),%edx xorl %ecx,%ebx movl %edi,%esi roll $5,%edi pxor %xmm6,%xmm4 andl %ebx,%ebp xorl %ecx,%ebx movdqa %xmm7,48(%esp) xorl %ecx,%ebp addl %edi,%edx movdqa %xmm4,%xmm0 movdqa %xmm4,%xmm6 rorl $7,%eax addl %ebp,%edx addl 8(%esp),%ecx xorl %ebx,%eax pslldq $12,%xmm0 paddd %xmm4,%xmm4 movl %edx,%ebp roll $5,%edx andl %eax,%esi xorl %ebx,%eax psrld $31,%xmm6 xorl %ebx,%esi addl %edx,%ecx movdqa %xmm0,%xmm7 rorl $7,%edi addl %esi,%ecx psrld $30,%xmm0 por %xmm6,%xmm4 addl 12(%esp),%ebx xorl %eax,%edi movl %ecx,%esi roll $5,%ecx pslld $2,%xmm7 pxor %xmm0,%xmm4 andl %edi,%ebp xorl %eax,%edi movdqa 96(%esp),%xmm0 xorl %eax,%ebp addl %ecx,%ebx pxor %xmm7,%xmm4 movdqa %xmm2,%xmm5 rorl $7,%edx addl %ebp,%ebx addl 16(%esp),%eax xorl %edi,%edx .byte 102,15,58,15,233,8 movdqa %xmm4,%xmm7 movl %ebx,%ebp roll $5,%ebx paddd %xmm4,%xmm0 movdqa %xmm1,80(%esp) andl %edx,%esi xorl %edi,%edx psrldq $4,%xmm7 xorl %edi,%esi addl %ebx,%eax pxor %xmm1,%xmm5 rorl $7,%ecx addl %esi,%eax pxor %xmm3,%xmm7 addl 20(%esp),%edi xorl %edx,%ecx movl %eax,%esi roll $5,%eax pxor %xmm7,%xmm5 andl %ecx,%ebp xorl %edx,%ecx movdqa %xmm0,(%esp) xorl %edx,%ebp addl %eax,%edi movdqa %xmm5,%xmm1 movdqa %xmm5,%xmm7 rorl $7,%ebx addl %ebp,%edi addl 24(%esp),%edx xorl %ecx,%ebx pslldq $12,%xmm1 paddd %xmm5,%xmm5 movl %edi,%ebp roll $5,%edi andl %ebx,%esi xorl %ecx,%ebx psrld $31,%xmm7 xorl %ecx,%esi addl %edi,%edx movdqa %xmm1,%xmm0 rorl $7,%eax addl %esi,%edx psrld $30,%xmm1 por %xmm7,%xmm5 addl 28(%esp),%ecx xorl %ebx,%eax movl %edx,%esi roll $5,%edx pslld $2,%xmm0 pxor %xmm1,%xmm5 andl %eax,%ebp xorl %ebx,%eax movdqa 112(%esp),%xmm1 xorl %ebx,%ebp addl %edx,%ecx pxor %xmm0,%xmm5 movdqa %xmm3,%xmm6 rorl $7,%edi addl %ebp,%ecx addl 32(%esp),%ebx xorl %eax,%edi .byte 102,15,58,15,242,8 movdqa %xmm5,%xmm0 movl %ecx,%ebp roll $5,%ecx paddd %xmm5,%xmm1 movdqa %xmm2,96(%esp) andl %edi,%esi xorl %eax,%edi psrldq $4,%xmm0 xorl %eax,%esi addl %ecx,%ebx pxor %xmm2,%xmm6 rorl $7,%edx addl %esi,%ebx pxor %xmm4,%xmm0 addl 36(%esp),%eax xorl %edi,%edx movl %ebx,%esi roll $5,%ebx pxor %xmm0,%xmm6 andl %edx,%ebp xorl %edi,%edx movdqa %xmm1,16(%esp) xorl %edi,%ebp addl %ebx,%eax movdqa %xmm6,%xmm2 movdqa %xmm6,%xmm0 rorl $7,%ecx addl %ebp,%eax addl 40(%esp),%edi xorl %edx,%ecx pslldq $12,%xmm2 paddd %xmm6,%xmm6 movl %eax,%ebp roll $5,%eax andl %ecx,%esi xorl %edx,%ecx psrld $31,%xmm0 xorl %edx,%esi addl %eax,%edi movdqa %xmm2,%xmm1 rorl $7,%ebx addl %esi,%edi psrld $30,%xmm2 por %xmm0,%xmm6 addl 44(%esp),%edx xorl %ecx,%ebx movdqa 64(%esp),%xmm0 movl %edi,%esi roll $5,%edi pslld $2,%xmm1 pxor %xmm2,%xmm6 andl %ebx,%ebp xorl %ecx,%ebx movdqa 112(%esp),%xmm2 xorl %ecx,%ebp addl %edi,%edx pxor %xmm1,%xmm6 movdqa %xmm4,%xmm7 rorl $7,%eax addl %ebp,%edx addl 48(%esp),%ecx xorl %ebx,%eax .byte 102,15,58,15,251,8 movdqa %xmm6,%xmm1 movl %edx,%ebp roll $5,%edx paddd %xmm6,%xmm2 movdqa %xmm3,64(%esp) andl %eax,%esi xorl %ebx,%eax psrldq $4,%xmm1 xorl %ebx,%esi addl %edx,%ecx pxor %xmm3,%xmm7 rorl $7,%edi addl %esi,%ecx pxor %xmm5,%xmm1 addl 52(%esp),%ebx xorl %eax,%edi movl %ecx,%esi roll $5,%ecx pxor %xmm1,%xmm7 andl %edi,%ebp xorl %eax,%edi movdqa %xmm2,32(%esp) xorl %eax,%ebp addl %ecx,%ebx movdqa %xmm7,%xmm3 movdqa %xmm7,%xmm1 rorl $7,%edx addl %ebp,%ebx addl 56(%esp),%eax xorl %edi,%edx pslldq $12,%xmm3 paddd %xmm7,%xmm7 movl %ebx,%ebp roll $5,%ebx andl %edx,%esi xorl %edi,%edx psrld $31,%xmm1 xorl %edi,%esi addl %ebx,%eax movdqa %xmm3,%xmm2 rorl $7,%ecx addl %esi,%eax psrld $30,%xmm3 por %xmm1,%xmm7 addl 60(%esp),%edi xorl %edx,%ecx movdqa 80(%esp),%xmm1 movl %eax,%esi roll $5,%eax pslld $2,%xmm2 pxor %xmm3,%xmm7 andl %ecx,%ebp xorl %edx,%ecx movdqa 112(%esp),%xmm3 xorl %edx,%ebp addl %eax,%edi pxor %xmm2,%xmm7 rorl $7,%ebx addl %ebp,%edi movdqa %xmm7,%xmm2 addl (%esp),%edx pxor %xmm4,%xmm0 .byte 102,15,58,15,214,8 xorl %ecx,%ebx movl %edi,%ebp roll $5,%edi pxor %xmm1,%xmm0 movdqa %xmm4,80(%esp) andl %ebx,%esi xorl %ecx,%ebx movdqa %xmm3,%xmm4 paddd %xmm7,%xmm3 xorl %ecx,%esi addl %edi,%edx pxor %xmm2,%xmm0 rorl $7,%eax addl %esi,%edx addl 4(%esp),%ecx xorl %ebx,%eax movdqa %xmm0,%xmm2 movdqa %xmm3,48(%esp) movl %edx,%esi roll $5,%edx andl %eax,%ebp xorl %ebx,%eax pslld $2,%xmm0 xorl %ebx,%ebp addl %edx,%ecx psrld $30,%xmm2 rorl $7,%edi addl %ebp,%ecx addl 8(%esp),%ebx xorl %eax,%edi movl %ecx,%ebp roll $5,%ecx por %xmm2,%xmm0 andl %edi,%esi xorl %eax,%edi movdqa 96(%esp),%xmm2 xorl %eax,%esi addl %ecx,%ebx rorl $7,%edx addl %esi,%ebx addl 12(%esp),%eax movdqa %xmm0,%xmm3 xorl %edi,%edx movl %ebx,%esi roll $5,%ebx andl %edx,%ebp xorl %edi,%edx xorl %edi,%ebp addl %ebx,%eax rorl $7,%ecx addl %ebp,%eax addl 16(%esp),%edi pxor %xmm5,%xmm1 .byte 102,15,58,15,223,8 xorl %edx,%esi movl %eax,%ebp roll $5,%eax pxor %xmm2,%xmm1 movdqa %xmm5,96(%esp) xorl %ecx,%esi addl %eax,%edi movdqa %xmm4,%xmm5 paddd %xmm0,%xmm4 rorl $7,%ebx addl %esi,%edi pxor %xmm3,%xmm1 addl 20(%esp),%edx xorl %ecx,%ebp movl %edi,%esi roll $5,%edi movdqa %xmm1,%xmm3 movdqa %xmm4,(%esp) xorl %ebx,%ebp addl %edi,%edx rorl $7,%eax addl %ebp,%edx pslld $2,%xmm1 addl 24(%esp),%ecx xorl %ebx,%esi psrld $30,%xmm3 movl %edx,%ebp roll $5,%edx xorl %eax,%esi addl %edx,%ecx rorl $7,%edi addl %esi,%ecx por %xmm3,%xmm1 addl 28(%esp),%ebx xorl %eax,%ebp movdqa 64(%esp),%xmm3 movl %ecx,%esi roll $5,%ecx xorl %edi,%ebp addl %ecx,%ebx rorl $7,%edx movdqa %xmm1,%xmm4 addl %ebp,%ebx addl 32(%esp),%eax pxor %xmm6,%xmm2 .byte 102,15,58,15,224,8 xorl %edi,%esi movl %ebx,%ebp roll $5,%ebx pxor %xmm3,%xmm2 movdqa %xmm6,64(%esp) xorl %edx,%esi addl %ebx,%eax movdqa 128(%esp),%xmm6 paddd %xmm1,%xmm5 rorl $7,%ecx addl %esi,%eax pxor %xmm4,%xmm2 addl 36(%esp),%edi xorl %edx,%ebp movl %eax,%esi roll $5,%eax movdqa %xmm2,%xmm4 movdqa %xmm5,16(%esp) xorl %ecx,%ebp addl %eax,%edi rorl $7,%ebx addl %ebp,%edi pslld $2,%xmm2 addl 40(%esp),%edx xorl %ecx,%esi psrld $30,%xmm4 movl %edi,%ebp roll $5,%edi xorl %ebx,%esi addl %edi,%edx rorl $7,%eax addl %esi,%edx por %xmm4,%xmm2 addl 44(%esp),%ecx xorl %ebx,%ebp movdqa 80(%esp),%xmm4 movl %edx,%esi roll $5,%edx xorl %eax,%ebp addl %edx,%ecx rorl $7,%edi movdqa %xmm2,%xmm5 addl %ebp,%ecx addl 48(%esp),%ebx pxor %xmm7,%xmm3 .byte 102,15,58,15,233,8 xorl %eax,%esi movl %ecx,%ebp roll $5,%ecx pxor %xmm4,%xmm3 movdqa %xmm7,80(%esp) xorl %edi,%esi addl %ecx,%ebx movdqa %xmm6,%xmm7 paddd %xmm2,%xmm6 rorl $7,%edx addl %esi,%ebx pxor %xmm5,%xmm3 addl 52(%esp),%eax xorl %edi,%ebp movl %ebx,%esi roll $5,%ebx movdqa %xmm3,%xmm5 movdqa %xmm6,32(%esp) xorl %edx,%ebp addl %ebx,%eax rorl $7,%ecx addl %ebp,%eax pslld $2,%xmm3 addl 56(%esp),%edi xorl %edx,%esi psrld $30,%xmm5 movl %eax,%ebp roll $5,%eax xorl %ecx,%esi addl %eax,%edi rorl $7,%ebx addl %esi,%edi por %xmm5,%xmm3 addl 60(%esp),%edx xorl %ecx,%ebp movdqa 96(%esp),%xmm5 movl %edi,%esi roll $5,%edi xorl %ebx,%ebp addl %edi,%edx rorl $7,%eax movdqa %xmm3,%xmm6 addl %ebp,%edx addl (%esp),%ecx pxor %xmm0,%xmm4 .byte 102,15,58,15,242,8 xorl %ebx,%esi movl %edx,%ebp roll $5,%edx pxor %xmm5,%xmm4 movdqa %xmm0,96(%esp) xorl %eax,%esi addl %edx,%ecx movdqa %xmm7,%xmm0 paddd %xmm3,%xmm7 rorl $7,%edi addl %esi,%ecx pxor %xmm6,%xmm4 addl 4(%esp),%ebx xorl %eax,%ebp movl %ecx,%esi roll $5,%ecx movdqa %xmm4,%xmm6 movdqa %xmm7,48(%esp) xorl %edi,%ebp addl %ecx,%ebx rorl $7,%edx addl %ebp,%ebx pslld $2,%xmm4 addl 8(%esp),%eax xorl %edi,%esi psrld $30,%xmm6 movl %ebx,%ebp roll $5,%ebx xorl %edx,%esi addl %ebx,%eax rorl $7,%ecx addl %esi,%eax por %xmm6,%xmm4 addl 12(%esp),%edi xorl %edx,%ebp movdqa 64(%esp),%xmm6 movl %eax,%esi roll $5,%eax xorl %ecx,%ebp addl %eax,%edi rorl $7,%ebx movdqa %xmm4,%xmm7 addl %ebp,%edi addl 16(%esp),%edx pxor %xmm1,%xmm5 .byte 102,15,58,15,251,8 xorl %ecx,%esi movl %edi,%ebp roll $5,%edi pxor %xmm6,%xmm5 movdqa %xmm1,64(%esp) xorl %ebx,%esi addl %edi,%edx movdqa %xmm0,%xmm1 paddd %xmm4,%xmm0 rorl $7,%eax addl %esi,%edx pxor %xmm7,%xmm5 addl 20(%esp),%ecx xorl %ebx,%ebp movl %edx,%esi roll $5,%edx movdqa %xmm5,%xmm7 movdqa %xmm0,(%esp) xorl %eax,%ebp addl %edx,%ecx rorl $7,%edi addl %ebp,%ecx pslld $2,%xmm5 addl 24(%esp),%ebx xorl %eax,%esi psrld $30,%xmm7 movl %ecx,%ebp roll $5,%ecx xorl %edi,%esi addl %ecx,%ebx rorl $7,%edx addl %esi,%ebx por %xmm7,%xmm5 addl 28(%esp),%eax xorl %edi,%ebp movdqa 80(%esp),%xmm7 movl %ebx,%esi roll $5,%ebx xorl %edx,%ebp addl %ebx,%eax rorl $7,%ecx movdqa %xmm5,%xmm0 addl %ebp,%eax movl %ecx,%ebp pxor %xmm2,%xmm6 .byte 102,15,58,15,196,8 xorl %edx,%ecx addl 32(%esp),%edi andl %edx,%ebp pxor %xmm7,%xmm6 movdqa %xmm2,80(%esp) andl %ecx,%esi rorl $7,%ebx movdqa %xmm1,%xmm2 paddd %xmm5,%xmm1 addl %ebp,%edi movl %eax,%ebp pxor %xmm0,%xmm6 roll $5,%eax addl %esi,%edi xorl %edx,%ecx addl %eax,%edi movdqa %xmm6,%xmm0 movdqa %xmm1,16(%esp) movl %ebx,%esi xorl %ecx,%ebx addl 36(%esp),%edx andl %ecx,%esi pslld $2,%xmm6 andl %ebx,%ebp rorl $7,%eax psrld $30,%xmm0 addl %esi,%edx movl %edi,%esi roll $5,%edi addl %ebp,%edx xorl %ecx,%ebx addl %edi,%edx por %xmm0,%xmm6 movl %eax,%ebp xorl %ebx,%eax movdqa 96(%esp),%xmm0 addl 40(%esp),%ecx andl %ebx,%ebp andl %eax,%esi rorl $7,%edi addl %ebp,%ecx movdqa %xmm6,%xmm1 movl %edx,%ebp roll $5,%edx addl %esi,%ecx xorl %ebx,%eax addl %edx,%ecx movl %edi,%esi xorl %eax,%edi addl 44(%esp),%ebx andl %eax,%esi andl %edi,%ebp rorl $7,%edx addl %esi,%ebx movl %ecx,%esi roll $5,%ecx addl %ebp,%ebx xorl %eax,%edi addl %ecx,%ebx movl %edx,%ebp pxor %xmm3,%xmm7 .byte 102,15,58,15,205,8 xorl %edi,%edx addl 48(%esp),%eax andl %edi,%ebp pxor %xmm0,%xmm7 movdqa %xmm3,96(%esp) andl %edx,%esi rorl $7,%ecx movdqa 144(%esp),%xmm3 paddd %xmm6,%xmm2 addl %ebp,%eax movl %ebx,%ebp pxor %xmm1,%xmm7 roll $5,%ebx addl %esi,%eax xorl %edi,%edx addl %ebx,%eax movdqa %xmm7,%xmm1 movdqa %xmm2,32(%esp) movl %ecx,%esi xorl %edx,%ecx addl 52(%esp),%edi andl %edx,%esi pslld $2,%xmm7 andl %ecx,%ebp rorl $7,%ebx psrld $30,%xmm1 addl %esi,%edi movl %eax,%esi roll $5,%eax addl %ebp,%edi xorl %edx,%ecx addl %eax,%edi por %xmm1,%xmm7 movl %ebx,%ebp xorl %ecx,%ebx movdqa 64(%esp),%xmm1 addl 56(%esp),%edx andl %ecx,%ebp andl %ebx,%esi rorl $7,%eax addl %ebp,%edx movdqa %xmm7,%xmm2 movl %edi,%ebp roll $5,%edi addl %esi,%edx xorl %ecx,%ebx addl %edi,%edx movl %eax,%esi xorl %ebx,%eax addl 60(%esp),%ecx andl %ebx,%esi andl %eax,%ebp rorl $7,%edi addl %esi,%ecx movl %edx,%esi roll $5,%edx addl %ebp,%ecx xorl %ebx,%eax addl %edx,%ecx movl %edi,%ebp pxor %xmm4,%xmm0 .byte 102,15,58,15,214,8 xorl %eax,%edi addl (%esp),%ebx andl %eax,%ebp pxor %xmm1,%xmm0 movdqa %xmm4,64(%esp) andl %edi,%esi rorl $7,%edx movdqa %xmm3,%xmm4 paddd %xmm7,%xmm3 addl %ebp,%ebx movl %ecx,%ebp pxor %xmm2,%xmm0 roll $5,%ecx addl %esi,%ebx xorl %eax,%edi addl %ecx,%ebx movdqa %xmm0,%xmm2 movdqa %xmm3,48(%esp) movl %edx,%esi xorl %edi,%edx addl 4(%esp),%eax andl %edi,%esi pslld $2,%xmm0 andl %edx,%ebp rorl $7,%ecx psrld $30,%xmm2 addl %esi,%eax movl %ebx,%esi roll $5,%ebx addl %ebp,%eax xorl %edi,%edx addl %ebx,%eax por %xmm2,%xmm0 movl %ecx,%ebp xorl %edx,%ecx movdqa 80(%esp),%xmm2 addl 8(%esp),%edi andl %edx,%ebp andl %ecx,%esi rorl $7,%ebx addl %ebp,%edi movdqa %xmm0,%xmm3 movl %eax,%ebp roll $5,%eax addl %esi,%edi xorl %edx,%ecx addl %eax,%edi movl %ebx,%esi xorl %ecx,%ebx addl 12(%esp),%edx andl %ecx,%esi andl %ebx,%ebp rorl $7,%eax addl %esi,%edx movl %edi,%esi roll $5,%edi addl %ebp,%edx xorl %ecx,%ebx addl %edi,%edx movl %eax,%ebp pxor %xmm5,%xmm1 .byte 102,15,58,15,223,8 xorl %ebx,%eax addl 16(%esp),%ecx andl %ebx,%ebp pxor %xmm2,%xmm1 movdqa %xmm5,80(%esp) andl %eax,%esi rorl $7,%edi movdqa %xmm4,%xmm5 paddd %xmm0,%xmm4 addl %ebp,%ecx movl %edx,%ebp pxor %xmm3,%xmm1 roll $5,%edx addl %esi,%ecx xorl %ebx,%eax addl %edx,%ecx movdqa %xmm1,%xmm3 movdqa %xmm4,(%esp) movl %edi,%esi xorl %eax,%edi addl 20(%esp),%ebx andl %eax,%esi pslld $2,%xmm1 andl %edi,%ebp rorl $7,%edx psrld $30,%xmm3 addl %esi,%ebx movl %ecx,%esi roll $5,%ecx addl %ebp,%ebx xorl %eax,%edi addl %ecx,%ebx por %xmm3,%xmm1 movl %edx,%ebp xorl %edi,%edx movdqa 96(%esp),%xmm3 addl 24(%esp),%eax andl %edi,%ebp andl %edx,%esi rorl $7,%ecx addl %ebp,%eax movdqa %xmm1,%xmm4 movl %ebx,%ebp roll $5,%ebx addl %esi,%eax xorl %edi,%edx addl %ebx,%eax movl %ecx,%esi xorl %edx,%ecx addl 28(%esp),%edi andl %edx,%esi andl %ecx,%ebp rorl $7,%ebx addl %esi,%edi movl %eax,%esi roll $5,%eax addl %ebp,%edi xorl %edx,%ecx addl %eax,%edi movl %ebx,%ebp pxor %xmm6,%xmm2 .byte 102,15,58,15,224,8 xorl %ecx,%ebx addl 32(%esp),%edx andl %ecx,%ebp pxor %xmm3,%xmm2 movdqa %xmm6,96(%esp) andl %ebx,%esi rorl $7,%eax movdqa %xmm5,%xmm6 paddd %xmm1,%xmm5 addl %ebp,%edx movl %edi,%ebp pxor %xmm4,%xmm2 roll $5,%edi addl %esi,%edx xorl %ecx,%ebx addl %edi,%edx movdqa %xmm2,%xmm4 movdqa %xmm5,16(%esp) movl %eax,%esi xorl %ebx,%eax addl 36(%esp),%ecx andl %ebx,%esi pslld $2,%xmm2 andl %eax,%ebp rorl $7,%edi psrld $30,%xmm4 addl %esi,%ecx movl %edx,%esi roll $5,%edx addl %ebp,%ecx xorl %ebx,%eax addl %edx,%ecx por %xmm4,%xmm2 movl %edi,%ebp xorl %eax,%edi movdqa 64(%esp),%xmm4 addl 40(%esp),%ebx andl %eax,%ebp andl %edi,%esi rorl $7,%edx addl %ebp,%ebx movdqa %xmm2,%xmm5 movl %ecx,%ebp roll $5,%ecx addl %esi,%ebx xorl %eax,%edi addl %ecx,%ebx movl %edx,%esi xorl %edi,%edx addl 44(%esp),%eax andl %edi,%esi andl %edx,%ebp rorl $7,%ecx addl %esi,%eax movl %ebx,%esi roll $5,%ebx addl %ebp,%eax xorl %edi,%edx addl %ebx,%eax addl 48(%esp),%edi pxor %xmm7,%xmm3 .byte 102,15,58,15,233,8 xorl %edx,%esi movl %eax,%ebp roll $5,%eax pxor %xmm4,%xmm3 movdqa %xmm7,64(%esp) xorl %ecx,%esi addl %eax,%edi movdqa %xmm6,%xmm7 paddd %xmm2,%xmm6 rorl $7,%ebx addl %esi,%edi pxor %xmm5,%xmm3 addl 52(%esp),%edx xorl %ecx,%ebp movl %edi,%esi roll $5,%edi movdqa %xmm3,%xmm5 movdqa %xmm6,32(%esp) xorl %ebx,%ebp addl %edi,%edx rorl $7,%eax addl %ebp,%edx pslld $2,%xmm3 addl 56(%esp),%ecx xorl %ebx,%esi psrld $30,%xmm5 movl %edx,%ebp roll $5,%edx xorl %eax,%esi addl %edx,%ecx rorl $7,%edi addl %esi,%ecx por %xmm5,%xmm3 addl 60(%esp),%ebx xorl %eax,%ebp movl %ecx,%esi roll $5,%ecx xorl %edi,%ebp addl %ecx,%ebx rorl $7,%edx addl %ebp,%ebx addl (%esp),%eax paddd %xmm3,%xmm7 xorl %edi,%esi movl %ebx,%ebp roll $5,%ebx xorl %edx,%esi movdqa %xmm7,48(%esp) addl %ebx,%eax rorl $7,%ecx addl %esi,%eax addl 4(%esp),%edi xorl %edx,%ebp movl %eax,%esi roll $5,%eax xorl %ecx,%ebp addl %eax,%edi rorl $7,%ebx addl %ebp,%edi addl 8(%esp),%edx xorl %ecx,%esi movl %edi,%ebp roll $5,%edi xorl %ebx,%esi addl %edi,%edx rorl $7,%eax addl %esi,%edx addl 12(%esp),%ecx xorl %ebx,%ebp movl %edx,%esi roll $5,%edx xorl %eax,%ebp addl %edx,%ecx rorl $7,%edi addl %ebp,%ecx movl 196(%esp),%ebp cmpl 200(%esp),%ebp je .L005done movdqa 160(%esp),%xmm7 movdqa 176(%esp),%xmm6 movdqu (%ebp),%xmm0 movdqu 16(%ebp),%xmm1 movdqu 32(%ebp),%xmm2 movdqu 48(%ebp),%xmm3 addl $64,%ebp .byte 102,15,56,0,198 movl %ebp,196(%esp) movdqa %xmm7,96(%esp) addl 16(%esp),%ebx xorl %eax,%esi .byte 102,15,56,0,206 movl %ecx,%ebp roll $5,%ecx paddd %xmm7,%xmm0 xorl %edi,%esi addl %ecx,%ebx rorl $7,%edx addl %esi,%ebx movdqa %xmm0,(%esp) addl 20(%esp),%eax xorl %edi,%ebp psubd %xmm7,%xmm0 movl %ebx,%esi roll $5,%ebx xorl %edx,%ebp addl %ebx,%eax rorl $7,%ecx addl %ebp,%eax addl 24(%esp),%edi xorl %edx,%esi movl %eax,%ebp roll $5,%eax xorl %ecx,%esi addl %eax,%edi rorl $7,%ebx addl %esi,%edi addl 28(%esp),%edx xorl %ecx,%ebp movl %edi,%esi roll $5,%edi xorl %ebx,%ebp addl %edi,%edx rorl $7,%eax addl %ebp,%edx addl 32(%esp),%ecx xorl %ebx,%esi .byte 102,15,56,0,214 movl %edx,%ebp roll $5,%edx paddd %xmm7,%xmm1 xorl %eax,%esi addl %edx,%ecx rorl $7,%edi addl %esi,%ecx movdqa %xmm1,16(%esp) addl 36(%esp),%ebx xorl %eax,%ebp psubd %xmm7,%xmm1 movl %ecx,%esi roll $5,%ecx xorl %edi,%ebp addl %ecx,%ebx rorl $7,%edx addl %ebp,%ebx addl 40(%esp),%eax xorl %edi,%esi movl %ebx,%ebp roll $5,%ebx xorl %edx,%esi addl %ebx,%eax rorl $7,%ecx addl %esi,%eax addl 44(%esp),%edi xorl %edx,%ebp movl %eax,%esi roll $5,%eax xorl %ecx,%ebp addl %eax,%edi rorl $7,%ebx addl %ebp,%edi addl 48(%esp),%edx xorl %ecx,%esi .byte 102,15,56,0,222 movl %edi,%ebp roll $5,%edi paddd %xmm7,%xmm2 xorl %ebx,%esi addl %edi,%edx rorl $7,%eax addl %esi,%edx movdqa %xmm2,32(%esp) addl 52(%esp),%ecx xorl %ebx,%ebp psubd %xmm7,%xmm2 movl %edx,%esi roll $5,%edx xorl %eax,%ebp addl %edx,%ecx rorl $7,%edi addl %ebp,%ecx addl 56(%esp),%ebx xorl %eax,%esi movl %ecx,%ebp roll $5,%ecx xorl %edi,%esi addl %ecx,%ebx rorl $7,%edx addl %esi,%ebx addl 60(%esp),%eax xorl %edi,%ebp movl %ebx,%esi roll $5,%ebx xorl %edx,%ebp addl %ebx,%eax rorl $7,%ecx addl %ebp,%eax movl 192(%esp),%ebp addl (%ebp),%eax addl 4(%ebp),%esi addl 8(%ebp),%ecx movl %eax,(%ebp) addl 12(%ebp),%edx movl %esi,4(%ebp) addl 16(%ebp),%edi movl %ecx,8(%ebp) movl %esi,%ebx movl %edx,12(%ebp) movl %edi,16(%ebp) movdqa %xmm1,%xmm4 jmp .L004loop .align 16 .L005done: addl 16(%esp),%ebx xorl %eax,%esi movl %ecx,%ebp roll $5,%ecx xorl %edi,%esi addl %ecx,%ebx rorl $7,%edx addl %esi,%ebx addl 20(%esp),%eax xorl %edi,%ebp movl %ebx,%esi roll $5,%ebx xorl %edx,%ebp addl %ebx,%eax rorl $7,%ecx addl %ebp,%eax addl 24(%esp),%edi xorl %edx,%esi movl %eax,%ebp roll $5,%eax xorl %ecx,%esi addl %eax,%edi rorl $7,%ebx addl %esi,%edi addl 28(%esp),%edx xorl %ecx,%ebp movl %edi,%esi roll $5,%edi xorl %ebx,%ebp addl %edi,%edx rorl $7,%eax addl %ebp,%edx addl 32(%esp),%ecx xorl %ebx,%esi movl %edx,%ebp roll $5,%edx xorl %eax,%esi addl %edx,%ecx rorl $7,%edi addl %esi,%ecx addl 36(%esp),%ebx xorl %eax,%ebp movl %ecx,%esi roll $5,%ecx xorl %edi,%ebp addl %ecx,%ebx rorl $7,%edx addl %ebp,%ebx addl 40(%esp),%eax xorl %edi,%esi movl %ebx,%ebp roll $5,%ebx xorl %edx,%esi addl %ebx,%eax rorl $7,%ecx addl %esi,%eax addl 44(%esp),%edi xorl %edx,%ebp movl %eax,%esi roll $5,%eax xorl %ecx,%ebp addl %eax,%edi rorl $7,%ebx addl %ebp,%edi addl 48(%esp),%edx xorl %ecx,%esi movl %edi,%ebp roll $5,%edi xorl %ebx,%esi addl %edi,%edx rorl $7,%eax addl %esi,%edx addl 52(%esp),%ecx xorl %ebx,%ebp movl %edx,%esi roll $5,%edx xorl %eax,%ebp addl %edx,%ecx rorl $7,%edi addl %ebp,%ecx addl 56(%esp),%ebx xorl %eax,%esi movl %ecx,%ebp roll $5,%ecx xorl %edi,%esi addl %ecx,%ebx rorl $7,%edx addl %esi,%ebx addl 60(%esp),%eax xorl %edi,%ebp movl %ebx,%esi roll $5,%ebx xorl %edx,%ebp addl %ebx,%eax rorl $7,%ecx addl %ebp,%eax movl 192(%esp),%ebp addl (%ebp),%eax movl 204(%esp),%esp addl 4(%ebp),%esi addl 8(%ebp),%ecx movl %eax,(%ebp) addl 12(%ebp),%edx movl %esi,4(%ebp) addl 16(%ebp),%edi movl %ecx,8(%ebp) movl %edx,12(%ebp) movl %edi,16(%ebp) popl %edi popl %esi popl %ebx popl %ebp ret .size _sha1_block_data_order_ssse3,.-_sha1_block_data_order_ssse3 .align 64 .LK_XX_XX: .long 1518500249,1518500249,1518500249,1518500249 .long 1859775393,1859775393,1859775393,1859775393 .long 2400959708,2400959708,2400959708,2400959708 .long 3395469782,3395469782,3395469782,3395469782 .long 66051,67438087,134810123,202182159 .byte 83,72,65,49,32,98,108,111,99,107,32,116,114,97,110,115 .byte 102,111,114,109,32,102,111,114,32,120,56,54,44,32,67,82 .byte 89,80,84,79,71,65,77,83,32,98,121,32,60,97,112,112 .byte 114,111,64,111,112,101,110,115,115,108,46,111,114,103,62,0 .comm OPENSSL_ia32cap_P,8,4